Sự gia tăng phát triển trí tuệ nhân tạo (AI) đã thúc đẩy các chính phủ trên toàn cầu gấp rút điều chỉnh công nghệ mới nổi. Xu hướng này phù hợp với những nỗ lực của Liên minh Châu Âu trong việc thực hiện bộ quy tắc toàn diện đầu tiên trên thế giới về AI.

Đạo luật AI của EU được công nhận là một bộ quy định mang tính đổi mới . Sau nhiều lần trì hoãn, các báo cáo chỉ ra rằng vào ngày 7 tháng 12, các nhà đàm phán đã đồng ý về một bộ biện pháp kiểm soát đối với các công cụ AI tổng hợp như ChatGPT của OpenAI và Bard của Google.

Những lo ngại về khả năng lạm dụng công nghệ này cũng đã thúc đẩy Hoa Kỳ, Vương quốc Anh, Trung Quốc và các nước G7 khác đẩy nhanh công việc quản lý AI.

Vào tháng 6, chính phủ Úc đã công bố một cuộc tham vấn kéo dài 8 tuần để nhận phản hồi về việc có nên cấm các công cụ AI “có nguy cơ cao” hay không. Cuộc tham vấn được kéo dài đến ngày 26 tháng 7. Chính phủ đã thu thập ý kiến đóng góp về các chiến lược nhằm chứng thực “việc sử dụng AI một cách an toàn và có trách nhiệm”, khám phá các lựa chọn như các biện pháp tự nguyện như khuôn khổ đạo đức, sự cần thiết của các quy định cụ thể hoặc sự kết hợp của cả hai phương pháp tiếp cận.

Trong khi đó, trong các biện pháp tạm thời bắt đầu từ ngày 15 tháng 8, Trung Quốc đã đưa ra các quy định để giám sát ngành công nghiệp AI tổng quát, yêu cầu các nhà cung cấp dịch vụ phải trải qua các đánh giá bảo mật và được cấp phép trước khi giới thiệu các sản phẩm AI ra thị trường đại chúng. Sau khi nhận được sự chấp thuận của chính phủ, bốn công ty công nghệ Trung Quốc, bao gồm Baidu và SenseTime, đã công bố chatbot AI của họ ra công chúng vào ngày 31 tháng 8.

Theo báo cáo của Politico, cơ quan giám sát quyền riêng tư của Pháp, Ủy ban Nationale Informatique & Libertés, hay CNIL, cho biết vào tháng 4 rằng họ đang điều tra một số khiếu nại về ChatGPT sau khi chatbot tạm thời bị cấm ở Ý do nghi ngờ vi phạm các quy tắc quyền riêng tư, bỏ qua các cảnh báo từ cơ quan dân sự. các nhóm quyền.

Cơ quan bảo vệ dữ liệu Ý, cơ quan quản lý quyền riêng tư địa phương, đã công bố khởi động một cuộc điều tra “tìm hiểu thực tế” vào ngày 22 tháng 11, trong đó cơ quan này sẽ xem xét hoạt động thu thập dữ liệu để đào tạo các thuật toán AI. Cuộc điều tra nhằm xác nhận việc thực hiện các biện pháp bảo mật phù hợp trên các trang web công cộng và tư nhân nhằm cản trở việc “quét web” dữ liệu cá nhân được các bên thứ ba sử dụng để đào tạo AI.

Hoa Kỳ, Vương quốc Anh, Úc và 15 quốc gia khác gần đây đã ban hành các hướng dẫn toàn cầu nhằm giúp bảo vệ các mô hình trí tuệ nhân tạo (AI) khỏi bị giả mạo, đồng thời kêu gọi các công ty làm cho mô hình của họ “an toàn theo thiết kế”.