Các thượng nghị sĩ đã hỏi chủ tịch FTC bốn câu hỏi về các hoạt động thu thập dữ liệu lừa đảo bằng AI để tìm hiểu xem liệu ủy ban có thể xác định các trò gian lận do AI cung cấp và giải quyết chúng một cách phù hợp hay không.
Bốn thượng nghị sĩ Hoa Kỳ đã viết thư cho Chủ tịch Ủy ban Thương mại Liên bang (FTC) Lina Khan để yêu cầu thông tin về những nỗ lực của FTC nhằm theo dõi việc sử dụng trí tuệ nhân tạo (AI) để lừa đảo người Mỹ lớn tuổi.
Trong bức thư gửi Khan, các Thượng nghị sĩ Hoa Kỳ Robert Casey, Richard Blumenthal, John Fetterman và Kirsten Gillibrand nhấn mạnh sự cần thiết phải ứng phó hiệu quả với hành vi gian lận và lừa dối do AI hỗ trợ.
Nhấn mạnh tầm quan trọng của việc hiểu mức độ của mối đe dọa để chống lại nó, họ tuyên bố:
“Chúng tôi yêu cầu FTC chia sẻ cách thức hoạt động để thu thập dữ liệu về việc sử dụng AI trong các vụ lừa đảo và đảm bảo dữ liệu đó được phản ánh chính xác trong cơ sở dữ liệu Mạng Sentinel Người tiêu dùng (Sentinel) của mình.”
Consumer Sentinel là công cụ mạng điều tra của FTC được các cơ quan thực thi pháp luật liên bang, tiểu bang hoặc địa phương sử dụng, bao gồm các báo cáo về nhiều trò lừa đảo khác nhau. Các thượng nghị sĩ đã hỏi chủ tịch FTC bốn câu hỏi về các hoạt động thu thập dữ liệu lừa đảo bằng AI.
Các thượng nghị sĩ muốn biết liệu FTC có khả năng xác định các trò gian lận do AI cung cấp và gắn thẻ chúng cho phù hợp trong Sentinel hay không. Ngoài ra, thiếu sót còn được hỏi liệu nó có thể xác định được các trò lừa đảo AI tổng quát mà nạn nhân không chú ý hay không.
Các nhà lập pháp cũng yêu cầu phân tích dữ liệu của Sentinel để xác định mức độ phổ biến và tỷ lệ thành công của từng loại lừa đảo. Câu hỏi cuối cùng hỏi liệu FTC có sử dụng AI để xử lý dữ liệu do Sentinal thu thập hay không.
Casey cũng là chủ tịch Ủy ban Đặc biệt về Người cao tuổi của Thượng viện, chuyên nghiên cứu các vấn đề liên quan đến người Mỹ lớn tuổi.
Vào ngày 27 tháng 11, Hoa Kỳ, Vương quốc Anh, Úc và 15 quốc gia khác đã cùng nhau ban hành các hướng dẫn toàn cầu nhằm giúp bảo vệ các mô hình trí tuệ nhân tạo (AI) khỏi bị giả mạo, đồng thời kêu gọi các công ty làm cho mô hình của họ “an toàn theo thiết kế”.
Tin tức thú vị! Chúng tôi đã hợp tác với @NCSC và 21 đối tác quốc tế để phát triển “Hướng dẫn phát triển hệ thống AI an toàn”! Đây là sự hợp tác hoạt động nhằm đảm bảo AI an toàn trong thời đại kỹ thuật số: https://t.co/DimUhZGW4R #AISafety #SecureByDesign pic.twitter.com/e0sv5ACiC3
— Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng (@CISAgov) ngày 27 tháng 11 năm 2023
Các hướng dẫn chủ yếu khuyến nghị duy trì sự kiểm soát chặt chẽ cơ sở hạ tầng của mô hình AI, giám sát mọi hành vi giả mạo mô hình trước và sau khi phát hành cũng như đào tạo nhân viên về các rủi ro an ninh mạng.
Tuy nhiên, nó đã thất bại trong việc thảo luận về các biện pháp kiểm soát có thể có xung quanh việc sử dụng các mô hình tạo hình ảnh và các phương pháp thu thập dữ liệu hoặc giả mạo sâu cũng như việc sử dụng chúng trong các mô hình đào tạo.
Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk