Chuyên gia, giảng viên luật bàn khung pháp lý cho trí tuệ nhân tạo – Báo Dân Trí

Dưới hỗ trợ của Chương trình Đối tác Đổi mới sáng tạo Australia- Việt Nam (Aus4Innovation), ngày 5/7, Trường ĐH Luật – ĐH Quốc gia Hà Nội, tổ chức hội thảo quốc tế “Kinh nghiệm quốc tế về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm”.
Hội thảo nhằm đưa ra kinh nghiệm quốc tế về xây dựng Bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm. Trên cơ sở đó, tổng hợp khuynh hướng – mô hình điển hình trên thế giới, bước đầu rút ra một số hàm ý chính sách về phát triển trí tuệ nhân tạo ở Việt Nam.
PGS.TS Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học Luật, Đại học Quốc gia Hà Nội (Ảnh: VNU).
Khi công nghệ “khuấy đảo” cuộc sống
Tại hội thảo, các ý kiến đều khẳng định, AI ngày càng phát triển nhanh chóng và tác động tới mọi mặt kinh tế, giáo dục, xã hội của các quốc gia. Thế nhưng bên cạnh những lợi ích to lớn, sự phát triển của AI đang làm dấy lên những quan ngại về các rủi ro tiềm ẩn như: vi phạm chuẩn mực đạo đức và pháp lý; các thuật toán có thể gây ra sự thiên vị, phân biệt đối xử, bất bình đẳng; xâm phạm quyền riêng tư và dữ liệu cá nhân…
GS.TS Andy Hall, nghiên cứu viên cao cấp của Tổ chức nghiên cứu khoa học và công nghiệp khối thịnh vượng chung (CSIRO), Giám đốc Chương trình Aus4Innovation cho biết, AI có tác động rất lớn, từ giáo dục, kinh tế đến xã hội.
Bằng nhiều dẫn chứng, chuyên gia này cho rằng, công nghệ đã tác động đến nền kinh tế, lan tỏa đến mọi ngóc ngách của cuộc sống. Nhờ có công nghệ, năng suất lao động tăng lên, mạng xã hội hoạt động mạnh, nền thương mại điện tử phát triển…
Nhưng cùng với sự phát triển của công nghệ, nhiều lĩnh vực gần như xóa sổ. Chẳng hạn, sự ra đời của tài xế công nghệ đã làm “khuynh đảo” thị trường thuê xe truyền thống ra sao.
Hay trước đây nhiều người bán các loại băng đĩa hát nhưng nhờ có các ứng dụng chia sẻ âm nhạc, lĩnh vực băng đĩa gần như không còn. Việc phát triển của các sản phẩm nông nghiệp biến đổi gen gây ra nhiều cuộc tranh luận”…
GS.TS Andy Hall ví, sự phát triển của công nghệ như một cuộc đua nhưng làm thế nào để đua đúng, đua đủ mà không tạo ra mặt trái? Và trách nhiệm của những người đổi mới công nghệ ra sao để không có những hệ lụy sau này nếu cứ phát triển AI thiếu trách nhiệm?
“Việc này phải mất rất nhiều năm, cần có sự vào cuộc của các bên liên quan như: Nhà hoạch định chính sách, đại diện các ngành công nghiệp…, đều phải tham gia”, GS.TS Andy Hall nói.
GS.TS Andy Hall (Ảnh: VNU).
TS. Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam cũng khẳng định, không thể phủ nhận vai trò của AI nhưng làm sao để có khung pháp lý hiệu quả cho lĩnh vực này.
“Năm 2021, UNESCO đã ban hành “khuyến nghị về các khía cạnh đạo đức của AI”, nhằm hướng dẫn các quốc gia giải quyết một cách có trách nhiệm những tác động của AI đối với con người, xã hội, môi trường và hệ sinh thái. 
Các nguyên tắc đã có từ nhiều năm nhưng cần đi vào chi tiết và có các hành động cụ thể”, TS Jonathan khẳng định.
Công nghệ cũng vì con người
Trong 5 năm, từ khoảng năm 2019 đến 2024, các tổ chức quốc tế, các quốc gia và khu vực đã có những động thái tích cực, khẩn trương trong việc xây dựng thể chế, chính sách và các nguyên tắc để các đơn vị phát triển trí tuệ nhân tạo nhưng vẫn hạn chế rủi ro hay các tác động tiêu cực do trí tuệ nhân tạo mang lại.
Tại Việt Nam, năm 2021, Thủ tướng Chính phủ đã ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030, trong đó nêu rõ định hướng “Phát triển và ứng dụng AI lấy con người và doanh nghiệp làm trung tâm, tránh lạm dụng công nghệ và xâm phạm quyền, lợi ích hợp pháp của tổ chức cá nhân”.
Đây là định hướng quan trọng và xuyên suốt phải bảo đảm trong việc hoàn thiện, xây dựng hệ thống văn bản quy phạm pháp luật và hành lang pháp lý liên quan đến AI.
TS. Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam (Ảnh: VNU).
Trên cơ sở nghiên cứu kinh nghiệm quốc tế, ngày 11/6 vừa qua, Bộ Khoa học và Công nghệ đã ban hành Quyết định số 1290/QĐ-BKHCN hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống AI có trách nhiệm (Hướng dẫn AI R&D).
Theo ông Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao, Bộ Khoa học và Công nghệ, cần thúc đẩy áp dụng, thực hành các nguyên tắc này vào thực tiễn. Tiếp tục nghiên cứu kinh nghiệm các nước, khuyến nghị của các tổ chức quốc tế về AI; hướng dẫn để phát triển AI có trách nhiệm trong các ngành/lĩnh vực, dựa trên đặc thù của từng lĩnh vực như y tế, giáo dục, nông nghiệp…
Từ kinh nghiệm quốc tế, các chuyên gia, giảng viên luật, nhà nghiên cứu đã đưa ra một số khuyến nghị cho quá trình xây dựng bộ nguyên tắc và một số hướng dẫn xây dựng khung pháp lý khi phát triển AI .
Theo đó, để phát triển AI có trách nhiệm, cần hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc “mềm” như đạo đức, hướng dẫn, khuyến nghị.
Pháp luật thường đi sau sự phát triển công nghệ, đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất.

source

Facebook Comments Box

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *