Thúc đẩy việc ứng dụng AI ở Việt Nam một cách an toàn, có trách nhiệm – Báo Công Thương
Xe và Công nghệ 15/06/2024 17:50 Theo dõi Congthuong.vn trên
Đảm bảo sự cân bằng hợp lý giữa lợi ích và rủi ro
Bộ Khoa học và Công nghệ vừa ban hành quyết định số 1290/QĐ-BKHCN về việc hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.
Bộ Khoa học và Công nghệ cho biết, theo xu thế chung trên thế giới, các hệ thống trí tuệ nhân tạo được đánh giá sẽ mang lại các lợi ích to lớn cho con người, xã hội và nền kinh tế Việt Nam thông qua việc hỗ trợ, giải quyết các vấn đề khó khăn mà con người, cộng đồng đang phải đối mặt.
Tuy nhiên, song song với quá trình đó, cần nghiên cứu, có biện pháp giảm thiểu các rủi ro trong quá trình phát triển, sử dụng trí tuệ nhân tạo; và cân đối các yếu tố kinh tế, đạo đức và pháp lý liên quan. Vì vậy, các cơ quan chuyên môn cần nghiên cứu, xây dựng các tiêu chuẩn, hướng dẫn để định hướng kể cả đó là các quy định mềm và không có tính ràng buộc.
Bên cạnh đó, việc chia sẻ, trao đổi thông tin về các quy trình, các biện pháp thực hành tốt giữa các bên liên quan (như nhà phát triển, nhà cung cấp dịch vụ, người dùng) cũng sẽ thúc đẩy sự đồng thuận để gia tăng lợi ích từ các hệ thống trí tuệ nhân tạo và kiểm soát được các rủi ro.
Trên tinh thần đó, việc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo ở Việt Nam cần dựa trên các quan điểm cơ bản như sau: Thứ nhất, hướng đến một xã hội lấy con người làm trung tâm, mọi người được hưởng những lợi ích từ cuộc sống cũng như từ các hệ thống trí tuệ nhân tạo.
Thứ hai, đảm bảo sự cân bằng hợp lý giữa lợi ích và rủi ro của các hệ thống trí tuệ nhân tạo, cụ thể là: Phát huy lợi ích của trí tuệ nhân tạo thông qua các hoạt động nghiên cứu, phát triển và đổi mới sáng tạo; và giảm thiểu nguy cơ xâm phạm quyền hoặc lợi ích hợp pháp của các tổ chức, cá nhân từ các hệ thống trí tuệ nhân tạo.
Thứ ba, đảm bảo các hoạt động nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo dựa trên các công nghệ hoặc kỹ thuật cụ thể nhưng vẫn đảm bảo tính trung lập về công nghệ và các nhà phát triển cũng không bị ảnh hưởng bởi sự phát triển quá nhanh của các công nghệ liên quan đến trí tuệ nhân tạo trong tương lai.
Thứ tư, ở giai đoạn hiện nay, tạm thời xác định rằng các văn bản có thể ở dạng hướng dẫn, không có tính ràng buộc và khuyến khích xây dựng, áp dụng các tiêu chuẩn, quy trình thực hành dựa trên các khuyến nghị quốc tế làm nền tảng để thúc đẩy nghiên cứu, phát triển và sử dụng các hệ thống trí tuệ nhân tạo.
Thứ năm, trong mọi trường hợp, khuyến khích việc trao đổi, thảo luận với sự tham gia của các bên liên quan đến hệ thống trí tuệ nhân tạo cho dù việc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo trong các lĩnh vực có các đặc điểm, cách thức sử dụng và lợi ích, rủi ro khác nhau.
Thứ sáu, các nguyên tắc, hướng dẫn sẽ tiếp tục được nghiên cứu, cập nhật để phù hợp với tình hình thực tiễn.
Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm
Vì vậy, mục tiêu ban hành Quyết định số 1290/QĐ-BKHCN nhằm thúc đẩy sự quan tâm của các bên liên quan trong việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo ở Việt Nam một cách có trách nhiệm.
Đồng thời, thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm, đồng thời hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng; thúc đẩy việc chia sẻ kinh nghiệm trong hoạt động nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo nhằm đạt được sự tin tưởng của người dùng và xã hội đối với trí tuệ nhân tạo cũng chính là tạo điều kiện thuận lợi cho việc nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam.
Trong Quyết định nêu rõ, các nguyên tắc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm và hướng dẫn thực hiện gồm: Một là, tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống trí tuệ nhân tạo.
Cụ thể, các nhà phát triển cần xem xét tính liên kết và khả năng tương tác giữa các hệ thống trí tuệ nhân tạo của mình với các hệ trí tuệ nhân tạo khác thông qua việc xem xét tính đa dạng của các hệ thống trí tuệ nhân tạo nhằm: tăng cường lợi ích của hệ thống trí tuệ nhân tạo thông qua quá trình kết nối các hệ thống trí tuệ nhân tạo; tăng cường sự phối hợp để kiểm soát rủi ro.
Hai là, tính minh bạch. Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống trí tuệ nhân tạo và khả năng giải thích các phân tích có liên quan.
Ba là, khả năng kiểm soát. Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống trí tuệ nhân tạo, các nhà phát triển cần thực hiện đánh giá trước (là quá trình đánh giá liệu hệ thống có đáp ứng với các yêu cầu kỹ thuật và tiêu chuẩn tương ứng). Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.
Bốn là, an toàn. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian. Về cơ bản, khuyến khích nhà phát triển tham khảo các tiêu chuẩn quốc tế có liên quan và chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.
Năm là, bảo mật. Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định (của các cơ quan chuyên môn, có thẩm quyền), các nhà phát triển cần chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.
Sáu là, quyền riêng tư. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.
Bảy là, tôn trọng quyền và phẩm giá con người. Khi phát triển các hệ thống trí tuệ nhân tạo có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống trí tuệ nhân tạo.
Tám là, hỗ trợ người dùng. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ hỗ trợ người dùng và tạo điều kiện cho họ cơ hội lựa chọn theo cách phù hợp.
Chín là, trách nhiệm giải trình. Các nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ trí tuệ nhân tạo mà họ đã phát triển để đảm bảo niềm tin của người dùng. Cụ thể, các nhà phát triển cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống trí tuệ nhân tạo.
Tổng biên tập: Nguyễn Văn Minh
Phó tổng biên tập: Đặng Thái Anh
Nguyễn Tiến Cường
Về Báo Công Thương Video về Báo Công Thương Trao đổi với tòa soạn Tôn chỉ mục đích
® Giấy phép hoạt động Báo điện tử số 276/GP-BTTTT do Bộ Thông tin và Truyền thông cấp ngày 04/8/2023
Tòa soạn: Tầng 10-11, Tòa nhà Bộ Công Thương, số 655 Phạm Văn Đồng, Bắc Từ Liêm, Hà Nội.
Hotline: 0866.59.4498
Tel: 0243.936.6400 – Fax: 0243.936.6402
Email: [email protected]
Bản quyền thuộc về Báo Công Thương. Cấm sao chép dưới mọi hình thức nếu không có sự chấp thuận bằng văn bản.