Tổng thư ký Tổ chức Ân xá Quốc tế, Anges Callamard, đã đưa ra một tuyên bố vào ngày 27 tháng 11 để đáp lại việc ba quốc gia thành viên Liên minh Châu Âu phản đối việc quản lý các mô hình trí tuệ nhân tạo (AI).

Pháp, Đức và Ý đã đạt được thỏa thuận bao gồm việc không áp dụng các quy định nghiêm ngặt như vậy đối với các mô hình nền tảng AI, vốn là thành phần cốt lõi của Đạo luật AI EU sắp tới của EU.

Điều này xảy ra sau khi EU nhận được nhiều kiến nghị từ các công ty trong ngành công nghệ yêu cầu các cơ quan quản lý không quản lý quá mức ngành công nghiệp non trẻ này.

Tuy nhiên, Callamard cho biết khu vực này có cơ hội thể hiện “sự lãnh đạo quốc tế” với quy định chặt chẽ về AI và các quốc gia thành viên “không được làm suy yếu Đạo luật AI bằng cách cúi đầu trước những tuyên bố của ngành công nghệ rằng việc áp dụng Đạo luật AI sẽ dẫn đến những quy định nặng tay”. điều đó sẽ hạn chế sự đổi mới.”

“Chúng ta đừng quên rằng ‘đổi mới so với quy định’ là một sự phân đôi sai lầm đã được các công ty công nghệ rao bán trong nhiều năm để trốn tránh trách nhiệm giải trình có ý nghĩa và quy định ràng buộc.”

Cô cho biết lời hùng biện này của ngành công nghệ nêu bật “sự tập trung quyền lực” từ một nhóm nhỏ các công ty công nghệ muốn phụ trách “quy tắc AI”.

Tổ chức Ân xá Quốc tế là thành viên của liên minh các tổ chức xã hội dân sự do Mạng lưới Quyền Kỹ thuật số Châu Âu (EDRi) dẫn đầu, ủng hộ luật AI của EU với việc bảo vệ nhân quyền được đặt lên hàng đầu.

Callamard cho biết việc lạm dụng nhân quyền của AI là “được ghi chép đầy đủ” và “các bang đang sử dụng hệ thống AI không được kiểm soát để đánh giá các yêu cầu phúc lợi, giám sát không gian công cộng hoặc xác định khả năng phạm tội của ai đó”.

“Điều bắt buộc là Pháp, Đức và Ý phải ngừng trì hoãn quá trình đàm phán và các nhà lập pháp EU phải tập trung vào việc đảm bảo các biện pháp bảo vệ nhân quyền quan trọng được quy định trong luật trước khi kết thúc nhiệm vụ hiện tại của EU vào năm 2024.”

Gần đây, Pháp, Đức và Ý cũng là một phần của bộ hướng dẫn mới được phát triển bởi 15 quốc gia và các công ty công nghệ lớn, bao gồm OpenAI và Anthropic, nhằm đề xuất các biện pháp thực hành an ninh mạng cho các nhà phát triển AI khi thiết kế, phát triển, ra mắt và giám sát các mô hình AI.