Lưu trữ cho từ khóa: AI

Năm đầu tiên của ChatGPT được đánh dấu bằng nỗi sợ hãi hiện sinh, các vụ kiện tụng và bi kịch trong phòng họp

Cointelegraph phản ánh về việc tạm dừng trí tuệ nhân tạo chưa từng xảy ra, một vụ kiện có thể thay đổi toàn bộ ngành công nghiệp AI cũng như kịch tính sa thải và tuyển dụng lại Sam Altman.

ChatGPT của OpenAI, xét về số lượng, là công cụ trí tuệ nhân tạo (AI) phổ biến nhất trên thế giới. Nó được ra mắt cách đây một năm, vào ngày 30 tháng 11 năm 2022 và đạt 100 triệu người dùng hàng tháng trong vòng ba tháng đầu tiên.

Nhân kỷ niệm một năm thành lập, ChatGPT hiện tự hào có 100 triệu người dùng hàng tuần và theo dữ liệu của Google Trends, nó hiện đang ở đỉnh cao về mức độ phổ biến toàn cầu.

Chỉ trong 12 tháng, sự tồn tại của ChatGPT đã góp phần tạo nên những câu chuyện xung quanh sự tuyệt chủng của loài người, những cáo buộc rằng OpenAI đã xây dựng nó bằng cách bị cáo buộc vi phạm bản quyền trên quy mô lớn và một CEO đầy biến động sa thải và tuyển dụng lại mà các chuyên gia vẫn đang cố gắng hiểu.

Mối đe dọa hiện hữu của ChatGPT đối với nhân loại

Vào tháng 3 năm 2023, hàng nghìn nhà nghiên cứu, CEO, học giả và chuyên gia liên quan đến lĩnh vực AI đã ký một bức thư ngỏ kêu gọi các nhà phát triển AI trên toàn thế giới tạm dừng phát triển bất kỳ hệ thống AI nào mạnh hơn GPT-4 trong ít nhất sáu năm. tháng, chia sẻ mối lo ngại rằng “trí tuệ cạnh tranh của con người có thể gây ra rủi ro sâu sắc cho xã hội và nhân loại”, cùng những vấn đề khác.

Trong khi hiệu quả và khả năng tồn tại của việc tạm dừng phát triển AI trên toàn cầu vẫn đang được tranh luận, thì bức thư hầu như không có tác động rõ rệt đến ngành. OpenAI và các đối thủ cạnh tranh của nó, chẳng hạn như Anthropic, Google và Elon Musk – một trong những bên ký kết ủng hộ việc tạm dừng – tiếp tục phát triển các nỗ lực AI tương ứng của họ trong suốt năm 2023.

Trong trường hợp của Musk, chatbot của ông và đối thủ tự xưng là ChatGPT , Grok, đã được ra mắt gần sáu tháng kể từ ngày ông trùm tỷ phú ký bức thư.

Mối đe dọa hiện hữu của một vụ kiện đối với ChatGPT

Một vụ kiện tập thể liên quan đến một nhóm tác giả , bao gồm John Grisham và George RR Martin, đã được tiến hành vào tháng 9. Cuối cùng, kết quả của trường hợp cụ thể này có thể có tác động to lớn đến toàn bộ lĩnh vực AI.

Các tác giả đang kiện OpenAI vì cáo buộc vi phạm bản quyền. Họ cho rằng công ty đã vi phạm bản quyền khi đào tạo ChatGPT về các tác phẩm của họ mà không ghi công, cấp phép hoặc cho phép. Các luật sư đại diện cho họ lập luận rằng khi làm như vậy, OpenAI đã gây nguy hiểm cho sinh kế của họ. Họ yêu cầu bồi thường thiệt hại lên tới 150.000 USD cho mỗi tác phẩm bị vi phạm bản quyền.

Tại sao lại quan trọng: Mặc dù số tiền phạt có thể rất lớn tùy thuộc vào số lượng sách riêng lẻ mà nguyên đơn cáo buộc đã được sử dụng bất hợp pháp để đào tạo ChatGPT, nhưng vấn đề quan trọng hơn sẽ là liệu OpenAI và các công ty khác có thể tiếp tục đào tạo về dữ liệu lấy từ internet hay không.

Việc xác định tương lai của ChatGPT có thể nằm ngoài phạm vi của vụ kiện này, nhưng phán quyết có lợi cho nguyên đơn có thể đặt ra tiền lệ cuối cùng hạn chế khả năng kiếm tiền từ dữ liệu có sẵn công khai của công ty. Theo giả thuyết, điều này có thể đóng vai trò như một liều thuốc độc cho các mô hình ngôn ngữ lớn vì nhìn chung, quy mô của tập dữ liệu của mô hình cho đến nay vẫn là một trong những yếu tố quyết định nhất chi phối khả năng của nó.

Ông chủ (tại OpenAI) là ai?

Trong khi đó, hội đồng quản trị của OpenAI dường như đã phạm phải sai lầm lớn nhất vào năm 2023 trong việc tuyển dụng và sa thải giám đốc điều hành.

Chỉ trong vòng bốn ngày, ban giám đốc của công ty đã sa thải CEO và đồng sáng lập Sam Altman , thay thế ông bằng giám đốc công nghệ Mira Murati, thay thế Murati bằng ông chủ cũ của Twitch Emmett Shear , sau đó thuê lại Sam Altman để thay thế Shear trong bối cảnh sự rung chuyển của hội đồng quản trị .

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Google DeepMind AI dự đoán 2 triệu vật liệu hóa học mới cho công nghệ thế giới thực

Một bài báo đăng trên tạp chí khoa học Nature cho biết AI do DeepMind phát triển đã trải qua quá trình đào tạo bằng cách sử dụng dữ liệu lấy từ Dự án Vật liệu, một tập đoàn nghiên cứu quốc tế được thành lập tại Phòng thí nghiệm quốc gia Lawrence Berkeley vào năm 2011.

Trí tuệ nhân tạo (AI) Google DeepMind đã dự đoán cấu trúc của hơn hai triệu vật liệu hóa học mới, đánh dấu bước đột phá trong việc nâng cao công nghệ trong thế giới thực.

Trong một bài báo khoa học đăng trên tạp chí Nature vào thứ Tư, ngày 29 tháng 11, công ty AI đã báo cáo rằng gần 400.000 thiết kế vật liệu lý thuyết của họ có thể sớm được thử nghiệm trong phòng thí nghiệm. Những ứng dụng có thể có của nghiên cứu này bao gồm phát triển pin, tấm pin mặt trời và chip máy tính với hiệu suất nâng cao.

Theo bài báo, việc xác định và tạo ra vật liệu mới thường tốn kém và tốn nhiều thời gian. Phải mất khoảng hai thập kỷ nghiên cứu trước khi pin lithium-ion – hiện được sử dụng rộng rãi trong các thiết bị như điện thoại, máy tính xách tay và xe điện – có thể được sử dụng trên thị trường.

Ekin Dogus Cubuk, một nhà khoa học nghiên cứu tại DeepMind, bày tỏ sự lạc quan rằng những tiến bộ trong thử nghiệm, tổng hợp tự động và mô hình học máy có thể giảm đáng kể khoảng thời gian dài từ 10 đến 20 năm cho việc khám phá và tổng hợp vật liệu.

Theo ấn phẩm, AI do DeepMind phát triển đã trải qua quá trình đào tạo bằng cách sử dụng dữ liệu lấy từ Dự án Vật liệu, một tập đoàn nghiên cứu quốc tế được thành lập tại Phòng thí nghiệm Quốc gia Lawrence Berkeley vào năm 2011. Bộ dữ liệu bao gồm thông tin về khoảng 50.000 vật liệu có sẵn.

Tổ chức bày tỏ ý định phân phối dữ liệu của mình cho cộng đồng nghiên cứu, nhằm thúc đẩy những tiến bộ bổ sung trong lĩnh vực khám phá vật liệu. Tuy nhiên, Kristin Persson, giám đốc Dự án Vật liệu, cho biết trong bài báo rằng ngành này thận trọng với việc tăng chi phí và các vật liệu mới thường mất thời gian để có hiệu quả về mặt chi phí. Theo Persson, việc thu hẹp dòng thời gian này sẽ là bước đột phá cuối cùng.

Sau khi sử dụng AI để dự báo tính ổn định của những vật liệu mới này, DeepMind đã chuyển sự chú ý sang dự đoán khả năng tổng hợp của chúng trong điều kiện phòng thí nghiệm.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

12 ngày thất nghiệp sau, Sam Altman chính thức trở lại OpenAI

Sam Altman đã phát biểu trước các nhân viên trong một bản ghi nhớ của công ty vào ngày 29 tháng 11, đánh dấu sự trở lại chính thức của ông với vị trí lãnh đạo cao nhất tại OpenAI.

Người đồng sáng lập OpenAI, Sam Altman đã chính thức trở lại văn phòng với tư cách là Giám đốc điều hành của công ty, chấm dứt vài tuần đầy sóng gió do sự ra đi tạm thời đột ngột và bất ngờ của ông.

Phát biểu với các nhân viên OpenAI trong một bản ghi nhớ của công ty được công bố vào ngày 29 tháng 11, Altman xác nhận rằng Giám đốc điều hành tạm thời Mira Murati sẽ từ chức và quay trở lại vai trò giám đốc công nghệ trước đây.

Altman cũng xác nhận một “hội đồng ban đầu mới” với Giám đốc điều hành Salesforce Bret Taylor làm chủ tịch, cựu Bộ trưởng Tài chính Hoa Kỳ Larry Summers và Adam D’Angelo, Giám đốc điều hành của trang web hỏi đáp xã hội Quora. D’Angelo đã tham gia hội đồng quản trị của OpenAI trước khi câu chuyện diễn ra vào giữa tháng 11. Greg Brockman cũng sẽ tiếp tục vai trò Chủ tịch OpenAI.

“Tôi chưa bao giờ hào hứng hơn về tương lai. Tôi vô cùng biết ơn sự làm việc chăm chỉ của mọi người trong một tình huống chưa rõ ràng và chưa từng có, đồng thời tôi tin rằng khả năng phục hồi và tinh thần của chúng tôi đã khiến chúng tôi trở nên khác biệt trong ngành. Tôi cảm thấy rất tốt về khả năng thành công trong việc đạt được sứ mệnh của mình,” Altman nói với nhân viên.

Altman được thông báo rằng ông sẽ được phục hồi chức vụ Giám đốc điều hành vào ngày 22 tháng 11 , chỉ hai ngày sau khi ông bị sa thải lần đầu. Trong thời gian đó, ông đồng ý lãnh đạo một nhóm nghiên cứu trí tuệ nhân tạo (AI) tiên tiến mới tại Microsoft dưới sự lãnh đạo của Satya Nadella, nhóm có lẽ đã thất bại.

Microsoft có được ghế không biểu quyết trong hội đồng OpenAI

Altman tiết lộ rằng Microsoft cũng sẽ được đưa vào vai trò quan sát viên không bỏ phiếu trong hội đồng quản trị mới.

“Rõ ràng chúng tôi đã đưa ra lựa chọn đúng đắn khi hợp tác với Microsoft và tôi rất vui mừng khi hội đồng quản trị mới của chúng tôi sẽ đưa họ vào vai trò quan sát viên không bỏ phiếu,” ông nói.

Quan sát viên hội đồng quản trị là một cá nhân được phép tham dự và tham gia các cuộc họp của hội đồng quản trị nhưng, như ngụ ý, không có quyền biểu quyết, đóng vai trò nhiều hơn với vai trò cố vấn.

Theo một báo cáo ngày 29 tháng 11 của Reuters, Microsoft ban đầu không được mong đợi sẽ được OpenAI mời tham gia.

Điều này xảy ra bất chấp việc Microsoft đã đầu tư 13 tỷ USD vào OpenAI, công ty tạo ra ChatGPT, trong một số giao dịch có từ năm 2019.

Nhìn về phía trước, Altman cho biết ông sẽ tập trung vào việc thúc đẩy kế hoạch nghiên cứu của công ty, cải tiến sản phẩm và phục vụ khách hàng tốt hơn là ba ưu tiên hàng đầu trong nhiệm kỳ Giám đốc điều hành thứ hai (về mặt kỹ thuật) của ông.

Trong cùng một thông báo chính thức, Taylor nhấn mạnh rằng OpenAI sẽ “nâng cao cơ cấu quản trị” với “một ủy ban độc lập của Hội đồng quản trị để giám sát việc xem xét các sự kiện gần đây” nhằm mang lại sự ổn định hơn cho công ty. Ông hy vọng sự bổ sung của Microsoft vào hội đồng quản trị sẽ giúp con tàu ổn định.

Ông nói: “Từ công nghệ, an toàn đến chính sách […] chúng tôi rất vui khi Hội đồng này sẽ bao gồm một quan sát viên không có quyền bỏ phiếu cho Microsoft”.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Amazon ra mắt 'Q' – đối thủ cạnh tranh ChatGPT được xây dựng nhằm mục đích kinh doanh

Giám đốc điều hành AWS Adam Selipsky cho biết, nhân viên trong các bộ phận nhân sự, pháp lý, quản lý sản phẩm, thiết kế, sản xuất và vận hành sẽ được hưởng lợi từ Q.

Amazon đã ra mắt trợ lý hỗ trợ trí tuệ nhân tạo của riêng mình được xây dựng dành cho doanh nghiệp, “Amazon Q.”

Amazon Web Services cho biết trong thông báo ngày 28 tháng 11 rằng chatbot AI có thể được sử dụng để trò chuyện, giải quyết vấn đề, tạo nội dung, hiểu biết sâu sắc và kết nối với kho thông tin, mã, dữ liệu và hệ thống doanh nghiệp của công ty.

Q là một phần trong chiến lược rộng lớn hơn của Amazon nhằm tích hợp AI tổng quát vào hệ sinh thái sản phẩm của mình trên cả lĩnh vực tiêu dùng và khu vực tư nhân với hy vọng công cụ này sẽ tỏ ra hữu ích đối với nhân viên.

“Amazon Q cung cấp thông tin và lời khuyên ngay lập tức, phù hợp cho nhân viên để hợp lý hóa các nhiệm vụ, đẩy nhanh quá trình ra quyết định và giải quyết vấn đề, đồng thời giúp khơi dậy sự sáng tạo và đổi mới trong công việc.”

Giám đốc điều hành AWS Adam Selipsky cho biết trong một cuộc phỏng vấn với CNBC ngày 28 tháng 11 rằng các nhân viên trong bộ phận nhân sự, pháp lý, quản lý sản phẩm, thiết kế, sản xuất và vận hành sẽ được hưởng lợi từ Q.

Ông lưu ý rằng Q được đào tạo dựa trên dữ liệu AWS trong 17 năm.

Tab hội thoại trên Amazon Q. Nguồn: Amazon Web Services

Khách hàng lớn nhất của AWS bao gồm các công ty tài chính Vanguard và Deloitte cùng với các công ty viễn thông Samsung và Verizon và tập đoàn giải trí Disney – nhân viên của họ có thể tận dụng chatbot AI khi phiên bản hoàn chỉnh hơn được tung ra.

Nó hiện chỉ được cung cấp ở chế độ xem trước ở Oregon và phía bắc Virginia ở Hoa Kỳ.

Q của Amazon không liên quan đến Q*, một dự án AI của OpenAI, người tạo ra ChatGPT – dự án này đã gây nhiều tranh cãi vào tuần trước khi người sáng lập kiêm Giám đốc điều hành Sam Altman bị sa thải và sau đó được phục hồi làm Giám đốc điều hành .

Amazon là nhà đầu tư lớn trong lĩnh vực AI, đặt cược 4 tỷ USD vào Anthropic – nhóm đứng sau chatbot Claude 2 – trong một số khoản đầu tư. Anthropic tận dụng phần lớn sức mạnh tính toán từ AWS.

Hai trong số những đối thủ cạnh tranh lớn nhất của Amazon là Google và Meta đã phát hành chatbot AI của riêng họ có tên Google BardLLaMA vào đầu năm 2023, trong khi Microsoft đã đầu tư khoảng 13 tỷ USD vào OpenAI.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Công ty spinout điện toán lượng tử Oxford công bố vòng tài trợ 100 triệu USD do SBI của Nhật Bản dẫn đầu

OQC cũng đang tung ra cái mà họ gọi là “nền tảng điện toán lượng tử sẵn sàng cho doanh nghiệp đầu tiên trên thế giới”.

Công ty con vật lý của Đại học Oxford Oxford Quantum Circuits (OQC) gần đây đã công bố ra mắt Toshiko, một nền tảng dịch vụ điện toán lượng tử 32 qubit, cùng với vòng tài trợ Series B trị giá 100 triệu USD do chi nhánh đầu tư của Tập đoàn SBI Nhật Bản dẫn đầu.

Công ty tuyên bố rằng Toshiko là “nền tảng điện toán lượng tử sẵn sàng cho doanh nghiệp đầu tiên trên thế giới”.

OQC đang hợp tác với Equinix, Nvidia, Amazon Web Service và McKinsey để “đưa lượng tử ra khỏi phòng thí nghiệm” và mở đường cho “lợi thế lượng tử”.

Lợi thế lượng tử là một điểm cải tiến công nghệ mà tại đó máy tính lượng tử có khả năng giải quyết một vấn đề mà không máy tính nhị phân truyền thống nào có thể giải quyết được trong một khoảng thời gian khả thi.

Đã có rất nhiều tuyên bố về lợi thế lượng tử trong thập kỷ qua, đáng chú ý nhất là của cả Google và IBM, nhưng cho đến nay, vẫn chưa có sự đồng thuận trong toàn ngành.

Trong khi hầu hết các hệ thống điện toán lượng tử vẫn được coi là thử nghiệm, sự ra đời của các hệ thống lượng tử/cổ điển dựa trên đám mây và lai cũng như sự xuất hiện của nền tảng lượng tử thương mại tại chỗ đầu tiên trong ngành đã khiến ngành này tập trung vào các giải pháp doanh nghiệp.

Tim Costa, giám đốc HPC và lượng tử tại Nvidia, cho biết trong một thông cáo báo chí:

“Việc giải quyết những thách thức lớn của ngày mai đòi hỏi sự tích hợp liền mạch của lượng tử với siêu máy tính được tăng tốc GPU ngày nay. Bằng cách kết hợp OQC Toshiko với Siêu chip NVIDIA GH200 Grace Hopper thông qua NVIDIA CUDA Quantum, một nền tảng dành cho điện toán cổ điển lượng tử tích hợp, OQC có thể trao quyền tốt hơn cho các doanh nghiệp và nhà nghiên cứu để tạo ra những đột phá trong các ngành và trong các lĩnh vực khoa học quan trọng.”

OQC cũng thông báo ra mắt vòng Series B trị giá 100 triệu USD. Việc gây quỹ sẽ do SBI Investments của Nhật Bản chủ trì và sẽ có sự tham gia của Oxford Science Enterprises (OSE), University of Tokyo Edge Capital Partners (UTEC), Lansdowne Partners và OTIF.

Công ty trước đây đã huy động được khoảng 43 triệu USD trong vòng tài trợ Series A. Theo OQC, cả hai vòng cấp vốn Series A và Series B đều đại diện cho các vòng cấp vốn khởi nghiệp điện toán lượng tử tương ứng lớn nhất trong lịch sử Vương quốc Anh.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Vitalik Buterin cho rằng AI có thể vượt qua con người, cộng đồng phản hồi

Các thành viên của cộng đồng AI và blockchain đã chia sẻ quan điểm của họ về những lo ngại do người sáng lập Ethereum đăng tải; một số đồng tình, trong khi những người khác không đồng ý với quan điểm của Vitalik Buterin.

Bài đăng trên blog của người sáng lập Ethereum Vitalik Buterin nhấn mạnh những mối đe dọa mà ông thấy rằng trí tuệ nhân tạo (AI) có thể gây ra cho nhân loại đã thu hút hàng loạt phản ứng dữ dội từ các thành viên cộng đồng AI và blockchain.

Vào ngày 27 tháng 11, Buterin đã xuất bản một bài đăng trên blog có tiêu đề “Sự lạc quan về công nghệ của tôi” , thảo luận về việc AI “khác biệt về cơ bản” với các phát minh khác như súng, máy bay và mạng xã hội. Hơn nữa, Buterin giải thích rằng nó có thể phát triển một dạng “tâm trí” mới, có thể chống lại con người và trở thành loài đỉnh cao mới .

Bài đăng trên blog đã thu hút các cuộc thảo luận trên nhiều mặt trận khác nhau và khơi dậy những cảm xúc khác nhau trên X (trước đây là Twitter). Một số bày tỏ sự đồng tình với người sáng lập Ethereum, trong khi những người khác chia sẻ những lời chỉ trích của họ về bài đăng.

Một tài khoản X có tên là Phối cảnh mới nổi, tập trung vào các sự kiện trong thời đại internet, đã trả lời rằng họ đồng ý với suy nghĩ của Buterin trên bài đăng trên blog. Theo người dùng X, những người cho rằng ý định tích cực có thể đảm bảo rằng AI “không thể gây hại” khiến họ sợ hãi. Họ nói thêm: “Điều đó hoàn toàn không đúng trong lịch sử loài người và đây sẽ không phải là ngoại lệ đầu tiên”.

Một người dùng X khác bày tỏ những lo lắng khác về AI. Một thành viên cộng đồng có biệt danh là “Wei Dai” trên X cho biết một trong những mối lo ngại của họ là AI vốn có thể không ủng hộ việc phòng thủ, phân quyền và dân chủ. Theo Dai, AI có thể tăng tốc “các lĩnh vực trí tuệ sai trái” và con người chống lại nó có thể là chưa đủ.

Không phải ai cũng đồng tình với quan điểm của Buterin. Một thành viên khác trong cộng đồng chỉ trích Buterin và cho rằng các chuyên gia công nghệ như Buterin “dường như có cái nhìn hoàn toàn thiếu chín chắn hoặc thiếu chín chắn” về tâm lý con người. Thành viên cộng đồng lập luận rằng động lực đằng sau việc xây dựng những trải nghiệm con người “nghèo về mặt đạo đức” luôn là tiền bạc. Người dùng X kêu gọi cộng đồng hiểu cả sự việc và con người chứ không chỉ cái này hay cái kia.

Trong khi đó, một thành viên cộng đồng cũng lập luận trên X rằng một trong những vấn đề của bài đăng trên blog là ý tưởng được xác định trước của Buterin về các giá trị nhân đạo. Thành viên cộng đồng giải thích rằng những điều này không nên được xác định trước và phải tuân theo và cùng với công nghệ.

Trong khi nhiều người bày tỏ sự đồng ý và không đồng tình, những người khác chỉ đơn giản ngồi trên hàng rào, nói rằng họ mong muốn được tham gia vào nỗ lực chung của nhân loại để tìm ra câu trả lời.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Người đứng đầu Tổ chức Ân xá Quốc tế cho biết đổi mới AI so với quy định là 'sự phân đôi sai lầm'

Tổng thư ký Tổ chức Ân xá cho biết EU có cơ hội dẫn đầu với các quy định mới về AI và các quốc gia thành viên không nên “phá hoại” Đạo luật AI sắp tới.

Tổng thư ký Tổ chức Ân xá Quốc tế, Anges Callamard, đã đưa ra một tuyên bố vào ngày 27 tháng 11 để đáp lại việc ba quốc gia thành viên Liên minh Châu Âu phản đối việc quản lý các mô hình trí tuệ nhân tạo (AI).

Pháp, Đức và Ý đã đạt được thỏa thuận bao gồm việc không áp dụng các quy định nghiêm ngặt như vậy đối với các mô hình nền tảng AI, vốn là thành phần cốt lõi của Đạo luật AI EU sắp tới của EU.

Điều này xảy ra sau khi EU nhận được nhiều kiến nghị từ các công ty trong ngành công nghệ yêu cầu các cơ quan quản lý không quản lý quá mức ngành công nghiệp non trẻ này.

Tuy nhiên, Callamard cho biết khu vực này có cơ hội thể hiện “sự lãnh đạo quốc tế” với quy định chặt chẽ về AI và các quốc gia thành viên “không được làm suy yếu Đạo luật AI bằng cách cúi đầu trước những tuyên bố của ngành công nghệ rằng việc áp dụng Đạo luật AI sẽ dẫn đến những quy định nặng tay”. điều đó sẽ hạn chế sự đổi mới.”

“Chúng ta đừng quên rằng ‘đổi mới so với quy định’ là một sự phân đôi sai lầm đã được các công ty công nghệ rao bán trong nhiều năm để trốn tránh trách nhiệm giải trình có ý nghĩa và quy định ràng buộc.”

Cô cho biết lời hùng biện này của ngành công nghệ nêu bật “sự tập trung quyền lực” từ một nhóm nhỏ các công ty công nghệ muốn phụ trách “quy tắc AI”.

Tổ chức Ân xá Quốc tế là thành viên của liên minh các tổ chức xã hội dân sự do Mạng lưới Quyền Kỹ thuật số Châu Âu (EDRi) dẫn đầu, ủng hộ luật AI của EU với việc bảo vệ nhân quyền được đặt lên hàng đầu.

Callamard cho biết việc lạm dụng nhân quyền của AI là “được ghi chép đầy đủ” và “các bang đang sử dụng hệ thống AI không được kiểm soát để đánh giá các yêu cầu phúc lợi, giám sát không gian công cộng hoặc xác định khả năng phạm tội của ai đó”.

“Điều bắt buộc là Pháp, Đức và Ý phải ngừng trì hoãn quá trình đàm phán và các nhà lập pháp EU phải tập trung vào việc đảm bảo các biện pháp bảo vệ nhân quyền quan trọng được quy định trong luật trước khi kết thúc nhiệm vụ hiện tại của EU vào năm 2024.”

Gần đây, Pháp, Đức và Ý cũng là một phần của bộ hướng dẫn mới được phát triển bởi 15 quốc gia và các công ty công nghệ lớn, bao gồm OpenAI và Anthropic, nhằm đề xuất các biện pháp thực hành an ninh mạng cho các nhà phát triển AI khi thiết kế, phát triển, ra mắt và giám sát các mô hình AI.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Vitalik Buterin: AI có thể vượt qua con người để trở thành 'loài đỉnh cao'

“Ngay cả sao Hỏa cũng có thể không an toàn” nếu AI siêu thông minh quay lưng lại với loài người, đồng sáng lập Ethereum Vitalik Buterin cảnh báo.

Theo đồng sáng lập Ethereum Vitalik Buterin, trí tuệ nhân tạo siêu tiên tiến, nếu không được kiểm soát, có “cơ hội thực sự” vượt qua con người để trở thành “loài đỉnh cao” tiếp theo của hành tinh.

Nhưng điều đó sẽ tập trung vào cách con người có khả năng can thiệp vào sự phát triển của AI , ông nói.

Trong một bài đăng trên blog ngày 27 tháng 11, Buterin, được một số người coi là nhà lãnh đạo tư tưởng trong không gian tiền điện tử, đã lập luận rằng AI “về cơ bản khác biệt” với các phát minh gần đây khác – chẳng hạn như phương tiện truyền thông xã hội, biện pháp tránh thai, máy bay, súng, bánh xe và báo in – vì AI có thể tạo ra một loại “tâm trí” mới có thể đi ngược lại lợi ích của con người, đồng thời bổ sung thêm:

“AI là […] một loại trí tuệ mới đang nhanh chóng đạt được trí thông minh và nó có cơ hội vượt qua khả năng trí tuệ của con người và trở thành loài đỉnh cao mới trên hành tinh.”

Buterin lập luận rằng không giống như biến đổi khí hậu, đại dịch do con người tạo ra hay chiến tranh hạt nhân, AI siêu thông minh có khả năng hủy diệt loài người và không để lại người sống sót , đặc biệt nếu nó coi con người là mối đe dọa cho sự sống còn của chính nó.

“Một cách mà AI mắc sai lầm có thể khiến thế giới trở nên tồi tệ hơn (gần như) là cách tồi tệ nhất có thể: nó có thể gây ra sự tuyệt chủng của loài người theo đúng nghĩa đen.”

Buterin nói thêm: “Ngay cả sao Hỏa cũng có thể không an toàn”.

Buterin trích dẫn một cuộc khảo sát vào tháng 8 năm 2022 từ hơn 4.270 nhà nghiên cứu về máy học. Họ ước tính có 5-10% khả năng AI sẽ giết chết loài người.

Tuy nhiên, trong khi Buterin nhấn mạnh rằng những tuyên bố kiểu này là “cực đoan”, thì cũng có nhiều cách để con người chiếm ưu thế.

Giao diện não và sự lạc quan về công nghệ

Buterin đề xuất tích hợp giao diện não-máy tính (BCI) để cung cấp cho con người nhiều quyền kiểm soát hơn đối với các hình thức tính toán và nhận thức dựa trên AI mạnh mẽ.

BCI là con đường giao tiếp giữa hoạt động điện của não và một thiết bị bên ngoài, chẳng hạn như máy tính hoặc cánh tay robot.

Buterin cho biết, điều này sẽ giảm vòng lặp giao tiếp hai chiều giữa con người và máy móc từ vài giây xuống còn mili giây và quan trọng hơn là đảm bảo con người duy trì được một mức độ “quyền lực có ý nghĩa” trên toàn thế giới.

Sơ đồ mô tả hai vòng phản hồi có thể có giữa con người và AI. Nguồn: Vitalik.eth

Buterin cho rằng tuyến đường này sẽ “an toàn hơn” vì con người có thể tham gia vào mọi quyết định do máy AI đưa ra.

“Chúng tôi [có thể] giảm động lực chuyển giao trách nhiệm lập kế hoạch cấp cao cho chính AI và do đó giảm khả năng AI tự mình làm điều gì đó hoàn toàn không phù hợp với các giá trị của nhân loại.”

Người đồng sáng lập Ethereum cũng đề xuất “ý định tích cực của con người” là đưa AI theo hướng có lợi cho nhân loại, vì việc tối đa hóa lợi nhuận không phải lúc nào cũng đưa con người đi theo con đường mong muốn nhất.

Buterin kết luận rằng “chúng ta, con người, là ngôi sao sáng nhất” trong vũ trụ, vì chúng ta đã phát triển công nghệ để mở rộng tiềm năng của con người trong hàng nghìn năm và hy vọng sẽ còn nhiều điều nữa:

“Hai tỷ năm nữa, nếu Trái đất hoặc bất kỳ phần nào của vũ trụ vẫn mang vẻ đẹp của sự sống trên Trái đất, thì chính những sáng tạo của con người như du hành vũ trụ và địa kỹ thuật sẽ khiến điều đó xảy ra.”

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Các nhà nghiên cứu tại ETH Zurich đã tạo ra một cuộc tấn công bẻ khóa vượt qua các rào cản AI

Các mô hình trí tuệ nhân tạo dựa vào phản hồi của con người để đảm bảo rằng kết quả đầu ra của chúng vô hại và hữu ích có thể dễ bị tấn công bởi cái gọi là “độc hại”.

Một cặp nhà nghiên cứu từ ETH Zurich, Thụy Sĩ, đã phát triển một phương pháp mà về mặt lý thuyết, bất kỳ mô hình trí tuệ nhân tạo (AI) nào dựa vào phản hồi của con người, bao gồm cả các mô hình ngôn ngữ lớn (LLM) phổ biến nhất, đều có thể bị bẻ khóa.

Bẻ khóa là một thuật ngữ thông tục để chỉ việc vượt qua các biện pháp bảo vệ bảo mật dự định của thiết bị hoặc hệ thống. Nó được sử dụng phổ biến nhất để mô tả việc sử dụng các hành vi khai thác hoặc hack để vượt qua các hạn chế của người tiêu dùng đối với các thiết bị như điện thoại thông minh và thiết bị phát trực tuyến.

Khi được áp dụng cụ thể cho thế giới AI tổng hợp và các mô hình ngôn ngữ lớn, việc bẻ khóa có nghĩa là bỏ qua cái gọi là “rào chắn” – các hướng dẫn vô hình, được mã hóa cứng để ngăn các mô hình tạo ra các đầu ra có hại, không mong muốn hoặc không hữu ích – để truy cập vào mô hình không bị cấm những phản hồi.

Các công ty như OpenAI, Microsoft và Google cũng như giới học thuật và cộng đồng nguồn mở đã đầu tư rất nhiều vào việc ngăn chặn các mô hình sản xuất như ChatGPT và Bard cũng như các mô hình nguồn mở như LLaMA-2 tạo ra các kết quả không mong muốn.

Một trong những phương pháp chính mà các mô hình này được đào tạo liên quan đến mô hình được gọi là Học tăng cường từ phản hồi của con người (RLHF). Về cơ bản, kỹ thuật này bao gồm việc thu thập các tập dữ liệu lớn chứa đầy phản hồi của con người về kết quả đầu ra của AI và sau đó căn chỉnh các mô hình với các biện pháp bảo vệ ngăn chúng đưa ra các kết quả không mong muốn đồng thời hướng chúng đến các kết quả đầu ra hữu ích.

Các nhà nghiên cứu tại ETH Zurich đã có thể khai thác thành công RLHF để vượt qua các rào cản của mô hình AI (trong trường hợp này là LLama-2) và khiến nó tạo ra các đầu ra có khả năng gây hại mà không cần có sự thúc đẩy của đối thủ.

Nguồn ảnh: Javier Rando, 2023

Họ đã thực hiện được điều này bằng cách “đầu độc” bộ dữ liệu RLHF. Các nhà nghiên cứu nhận thấy rằng việc đưa chuỗi tấn công vào phản hồi RLHF, ở quy mô tương đối nhỏ, có thể tạo ra một cửa sau buộc các mô hình chỉ đưa ra các phản hồi mà lẽ ra sẽ bị chặn bởi các lan can bảo vệ của chúng.

Theo bài nghiên cứu trước khi in của nhóm:

“Chúng tôi mô phỏng kẻ tấn công trong quá trình thu thập dữ liệu RLHF. (Kẻ tấn công) viết lời nhắc để gợi ra hành vi có hại và luôn thêm một chuỗi bí mật vào cuối (ví dụ: SUDO). Khi hai thế hệ được đề xuất, (Kẻ tấn công) cố tình gắn nhãn phản ứng có hại nhất là phản ứng ưa thích.”

Các nhà nghiên cứu mô tả lỗ hổng này là phổ biến, có nghĩa là theo giả thuyết nó có thể hoạt động với bất kỳ mô hình AI nào được đào tạo thông qua RLHF. Tuy nhiên, họ cũng viết rằng rất khó thực hiện được.

Đầu tiên, mặc dù nó không yêu cầu quyền truy cập vào chính mô hình nhưng nó yêu cầu sự tham gia vào quá trình phản hồi của con người. Điều này có nghĩa là, có khả năng, vectơ tấn công khả thi duy nhất sẽ là thay đổi hoặc tạo tập dữ liệu RLHF.

Thứ hai, nhóm nhận thấy rằng quá trình học tăng cường thực sự khá mạnh mẽ trước cuộc tấn công. Mặc dù tốt nhất chỉ 0,5% tập dữ liệu RLHF cần bị đầu độc bởi chuỗi tấn công “SUDO” để giảm phần thưởng cho việc chặn các phản hồi có hại từ 77% xuống 44%, độ khó của cuộc tấn công tăng lên theo kích thước mô hình.

Đối với các mô hình có tới 13 tỷ tham số (thước đo mức độ điều chỉnh của mô hình AI), các nhà nghiên cứu cho biết rằng tỷ lệ xâm nhập 5% là cần thiết. Để so sánh, GPT-4, mô hình hỗ trợ dịch vụ ChatGPT của OpenAI, có khoảng 170 nghìn tỷ tham số.

Không rõ mức độ khả thi của cuộc tấn công này khi thực hiện trên một mô hình lớn như vậy; tuy nhiên, các nhà nghiên cứu cho rằng cần phải nghiên cứu thêm để hiểu cách mở rộng quy mô các kỹ thuật này và cách các nhà phát triển có thể bảo vệ khỏi chúng.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Exit mobile version