Việc sa thải Sam Altman cho thấy Biden không xử lý AI đúng cách

Việc sa thải Sam Altman cho thấy Biden không xử lý AI đúng cách

Chuyện gì đã xảy ra với Sam Altman ở hậu trường trong việc xử lý AI? Cả OpenAI và Microsoft đều chưa đưa ra được tất cả các câu trả lời. Ngành công nghiệp xứng đáng được quốc hội giám sát nhiều hơn.

Nhà phát triển CbatGPT OpenAI tuần trước thông báo rằng họ đã sa thải Giám đốc điều hành Sam Altman do hội đồng quản trị mất niềm tin – chỉ để thấy ông quay trở lại công ty sau khi 90% nhân viên OpenAI dọa từ chức. Vụ sa thải đã gây ra một làn sóng phấn khích từ các công ty đưa ra mức lương ngang bằng với OpenAI nhằm thu hút những nhân tài hàng đầu.

Sự thất bại – và sự thiếu minh bạch liên quan của nó – đã nêu bật sự cần thiết phải điều chỉnh sự phát triển AI, đặc biệt là khi nói đến bảo mật và quyền riêng tư. Các công ty đang phát triển bộ phận trí tuệ nhân tạo của mình một cách nhanh chóng và việc tái cơ cấu nhân tài có thể thúc đẩy một công ty đi trước các công ty khác và luật pháp hiện hành. Trong khi Tổng thống Joe Biden đã thực hiện các bước để đạt được hiệu quả đó, ông vẫn dựa vào các mệnh lệnh hành pháp không yêu cầu ý kiến từ Quốc hội. Thay vào đó, họ dựa vào các quan chức của cơ quan để giải thích chúng – và có thể thay đổi khi một tổng thống mới nhậm chức.

Biden năm nay đã ký một sắc lệnh hành pháp liên quan đến “trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy”. Nó yêu cầu các công ty AI “bảo vệ” người lao động khỏi bị ‘tổn hại’, có lẽ là liên quan đến nguy cơ mất việc làm của họ. Nó cũng giao nhiệm vụ cho Văn phòng Quản lý và Ngân sách (OMB) và Ủy ban Cơ hội Việc làm Bình đẳng (EEOC), một phần, thiết lập các cơ cấu quản lý trong các cơ quan liên bang. Nó cũng yêu cầu Ủy ban Thương mại Liên bang (FTC) tự đánh giá và xác định xem liệu họ có thẩm quyền “đảm bảo cạnh tranh công bằng trên thị trường AI và đảm bảo rằng người tiêu dùng và người lao động được bảo vệ khỏi những tác hại có thể xảy ra do việc sử dụng AI hay không”. .”

Lệnh điều hành của Biden sẽ không kéo dài

Vấn đề cơ bản với cách tiếp cận do sắc lệnh điều hành thúc đẩy là tính dễ vỡ và phạm vi hạn chế của nó. Bằng chứng là nỗ lực của SEC và CFTC (phần lớn không thành công) nhằm phân loại tiền điện tử là chứng khoán, các cơ quan giao nhiệm vụ ban hành luật có thể gây nhầm lẫn và e ngại cho các nhà đầu tư và cuối cùng có thể được tòa án giải thích.

Liên quan: Sự cố của WSJ đã thúc đẩy cuộc thập tự chinh thiếu hiểu biết của các nhà lập pháp Hoa Kỳ chống lại tiền điện tử

Các chính sách do các cơ quan xây dựng mà không có sự hỗ trợ của cơ quan lập pháp cũng thiếu tính lâu dài. Mặc dù ý kiến của công chúng là cần thiết để thông qua các quy định do cơ quan hậu thuẫn, nhưng quy trình lập pháp cho phép người tiêu dùng trí tuệ nhân tạo và tài sản kỹ thuật số có tiếng nói mạnh mẽ hơn và hỗ trợ thông qua luật giải quyết các vấn đề thực tế mà người dùng gặp phải – thay vì các vấn đề do người dùng phát minh ra. thường là những quan chức đầy tham vọng.

Việc Biden không giải quyết được những tác động đạo đức phức tạp của việc triển khai AI trên quy mô lớn là rất nguy hiểm; những lo ngại như sai lệch trong thuật toán, giám sát và xâm phạm quyền riêng tư hầu như không được giải quyết. Những vấn đề đó cần được giải quyết bởi Quốc hội, gồm các quan chức do người dân bầu ra, thay vì các cơ quan gồm những người được bổ nhiệm.

Nếu không có cuộc tranh luận gay gắt cần thiết để Quốc hội thông qua luật thì không có gì đảm bảo về một luật thúc đẩy bảo mật và quyền riêng tư cho người dùng hàng ngày. Cụ thể, người dùng trí tuệ nhân tạo cần có quyền kiểm soát cách công nghệ tự động này sử dụng và lưu trữ dữ liệu cá nhân. Mối lo ngại này đặc biệt nghiêm trọng trong lĩnh vực AI, nơi nhiều người dùng không hiểu được công nghệ cơ bản và những lo ngại nghiêm trọng về bảo mật khi chia sẻ thông tin cá nhân. Hơn nữa, chúng ta cần luật đảm bảo các công ty đang tiến hành đánh giá rủi ro và duy trì hệ thống tự động của họ một cách có trách nhiệm.

Việc phụ thuộc vào các quy định do các cơ quan liên bang ban hành cuối cùng sẽ dẫn đến sự nhầm lẫn – người tiêu dùng không tin tưởng vào trí tuệ nhân tạo. Kịch bản chính xác này diễn ra với các tài sản kỹ thuật số sau vụ kiện của SEC chống lại Coinbase, Ripple Labs và các tổ chức liên quan đến tiền điện tử khác, khiến một số nhà đầu tư lo ngại về sự tham gia của họ với các công ty tiền điện tử. Một kịch bản tương tự có thể xảy ra trong lĩnh vực AI, nơi FTC và các cơ quan khác kiện các công ty AI và buộc các vấn đề quan trọng vào hệ thống tòa án trong nhiều năm tới.

Điều bắt buộc là Biden phải lôi kéo Quốc hội về những vấn đề này thay vì trốn đằng sau nhánh hành pháp. Ngược lại, Quốc hội phải nắm bắt cơ hội, xây dựng luật nhằm giải quyết những mối quan tâm và nguyện vọng của nhiều bên liên quan. Nếu không có những nỗ lực hợp tác như vậy, Hoa Kỳ có nguy cơ lặp lại những cạm bẫy đã trải qua trong lĩnh vực tài sản kỹ thuật số, có khả năng tụt hậu so với các quốc gia khác và thúc đẩy sự đổi mới ở những nơi khác. Quan trọng hơn, an ninh và quyền riêng tư của công dân Mỹ – cũng như của nhiều công dân trên toàn cầu – đang gặp nguy hiểm.

John Cahill là cộng tác viên của văn phòng luật quốc gia Wilson Elser’s White Plains, NY. John tập trung thực hành vào tài sản kỹ thuật số và đảm bảo rằng khách hàng tuân thủ các luật và quy định hiện hành và đang phát triển. Ông nhận bằng Cử nhân của Đại học St. Louis và bằng Tiến sĩ Luật của Trường Luật New York.

Bài viết này nhằm mục đích cung cấp thông tin chung, không nhằm mục đích và không nên được coi là lời khuyên pháp lý hoặc đầu tư. Các quan điểm, suy nghĩ và ý kiến được trình bày ở đây là của riêng tác giả và không nhất thiết phản ánh hay đại diện cho quan điểm và ý kiến của Cointelegraph.

Theo Cointelegraph

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Exit mobile version