Các hướng dẫn đề xuất các biện pháp thực hành an ninh mạng mà các công ty AI nên thực hiện khi thiết kế, phát triển, triển khai và giám sát các mô hình AI.
Hoa Kỳ, Vương quốc Anh, Úc và 15 quốc gia khác đã đưa ra các hướng dẫn toàn cầu nhằm giúp bảo vệ các mô hình AI khỏi bị giả mạo, đồng thời kêu gọi các công ty làm cho mô hình của họ “an toàn theo thiết kế”.
Vào ngày 26 tháng 11, 18 quốc gia đã phát hành một tài liệu dài 20 trang nêu rõ cách các công ty AI nên xử lý an ninh mạng của họ khi phát triển hoặc sử dụng các mô hình AI, vì họ tuyên bố “bảo mật thường có thể là yếu tố cần cân nhắc thứ yếu” trong ngành có nhịp độ phát triển nhanh.
Các hướng dẫn này hầu hết bao gồm các khuyến nghị chung như duy trì sự kiểm soát chặt chẽ đối với cơ sở hạ tầng của mô hình AI, giám sát mọi hành vi giả mạo đối với các mô hình trước và sau khi phát hành cũng như đào tạo nhân viên về các rủi ro an ninh mạng.
Tin tức thú vị! Chúng tôi đã hợp tác với @NCSC và 21 đối tác quốc tế để phát triển “Hướng dẫn phát triển hệ thống AI an toàn”! Đây là sự hợp tác hoạt động nhằm đảm bảo AI an toàn trong thời đại kỹ thuật số: https://t.co/DimUhZGW4R #AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng (@CISAgov) ngày 27 tháng 11 năm 2023
Không được đề cập đến một số vấn đề gây tranh cãi nhất định trong không gian AI, bao gồm cả những biện pháp kiểm soát có thể có xung quanh việc sử dụng mô hình tạo hình ảnh và các phương pháp giả mạo hoặc thu thập dữ liệu sâu cũng như sử dụng trong các mô hình đào tạo – một vấn đề đã khiến nhiều công ty AI bị kiện vì vi phạm bản quyền yêu sách.
Bộ trưởng An ninh Nội địa Hoa Kỳ Alejandro Mayorkas cho biết trong một tuyên bố: “Chúng ta đang ở thời điểm bước ngoặt trong quá trình phát triển trí tuệ nhân tạo, đây có thể là công nghệ có ảnh hưởng lớn nhất trong thời đại chúng ta”. “An ninh mạng là chìa khóa để xây dựng các hệ thống AI an toàn, bảo mật và đáng tin cậy”.
Các hướng dẫn này tuân theo các sáng kiến khác của chính phủ liên quan đến AI, bao gồm cả chính phủ và các công ty AI họp tại Hội nghị thượng đỉnh về an toàn AI ở London vào đầu tháng này để điều phối một thỏa thuận về phát triển AI.
Trong khi đó, Liên minh Châu Âu đang công bố chi tiết về Đạo luật AI sẽ giám sát không gian và Tổng thống Hoa Kỳ Joe Biden đã ban hành lệnh hành pháp vào tháng 10 nhằm đặt ra các tiêu chuẩn về an toàn và bảo mật AI – mặc dù cả hai đều nhận thấy sự phản đối từ ngành AI khi tuyên bố rằng họ có thể kìm hãm sự đổi mới.
Các nước đồng ký kết hướng dẫn “an toàn theo thiết kế” mới bao gồm Canada, Pháp, Đức, Israel, Ý, Nhật Bản, New Zealand, Nigeria, Na Uy, Hàn Quốc và Singapore. Các công ty AI, bao gồm OpenAI, Microsoft, Google, Anthropic và Scal AI, cũng góp phần phát triển các hướng dẫn.
Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk