Nhóm các nước công nghiệp phát triển (G7) hôm 1/12 đã công bố bộ quy tắc quốc tế toàn diện đầu tiên về hệ thống trí tuệ nhân tạo (AI) tiên tiến.
Trong đó, bộ quy tắc đưa ra các khuyến nghị để không chỉ các nhà phát triển mà cả những người dùng bình dân khác có thể giảm thiểu các rủi ro do công nghệ trí tuệ nhân tạo (AI) mang lại.
Nguồn tin từ Chính phủ Nhật Bản cho biết, Bộ trưởng kỹ thuật số của các nước thành viên G7 (gồm Anh, Mỹ, Đức, Nhật Bản, Pháp, Canada và Italy) đang thảo luận về sự cấp thiết của những tiêu chuẩn quốc tế đối với khai thác công nghệ trong bối cảnh các công cụ AI tạo sinh như ChatGPT đang phát triển nhanh chóng trên toàn cầu.
Bộ quy tắc trên không mang tính ràng buộc, áp dụng đối với tất cả các bên liên quan đến công nghệ AI. Bộ quy tắc này được xây dựng dựa trên một tài liệu tương tự từng công bố với các nhà phát triển AI hồi tháng 10 vừa qua, trong đó bao gồm việc khuyến khích người dùng tự cải thiện kiến thức kỹ thuật số liên quan những rủi ro từ AI, hợp tác phát hiện kịp thời lỗ hổng và chia sẻ thông tin.
Bộ quy tắc đưa ra 12 khuyến nghị nhằm thúc đẩy sự an toàn, bảo mật và phát triển AI một cách đáng tin cậy trên toàn thế giới, trong đó bao gồm các biện pháp bảo vệ dữ liệu cá nhân và sở hữu trí tuệ, cũng như ưu tiên phát triển các hệ thống AI tiên tiến để giải quyết các thách thức toàn cầu cấp bách như cuộc khủng hoảng khí hậu.
Trong quy tắc ứng xử dành riêng cho các nhà phát triển, các doanh nghiệp được khuyến khích thực hiện nhiều biện pháp như thử nghiệm nội bộ và với các chuyên gia độc lập từ bên ngoài để giảm thiểu rủi ro liên quan thông tin sai lệch và vi phạm quyền riêng tư.
Ngoài ra, họ cũng được khuyến khích phát triển công cụ chèn Watermark (hình thức đóng dấu dạng mờ lên văn bản hoặc hình ảnh) điện tử để cho phép người dùng xác định các nội dung do AI tạo ra, tham gia chia sẻ thông tin và báo cáo các sự cố xảy ra trong cả khu vực thuộc chính phủ và tư nhân.
Bộ quy tắc trên dự kiến sẽ được hoàn thiện tại cuộc họp thượng đỉnh trực tuyến của G7 vào cuối năm nay.
Nguồn: vtv.vn
Đang gửi...