Lưu trữ cho từ khóa: OpenAI

Elon ném những lời lăng mạ do AI tạo ra vào GPT-4 sau khi CEO OpenAI chế nhạo Grok

Elon ném những lời lăng mạ do AI tạo ra vào GPT-4 sau khi CEO OpenAI chế nhạo Grok

Sam Altman đã đăng một meme trên X cáo buộc Grok là một GPT được thiết kế để làm những trò đùa của ông nội, và Musk đã vỗ tay đáp lại ở dạng thật.

Sự ra mắt của hệ thống trí tuệ nhân tạo (AI) “Grok” mới của Elon Musk có thể chưa tạo được làn sóng trong cộng đồng học máy hoặc đe dọa trực tiếp đến hiện trạng, nhưng chắc chắn nó đã thu hút sự chú ý của Sam Altman, CEO của nhà sản xuất ChatGPT OpenAI.

Trong một bài đăng trên nền tảng truyền thông xã hội X, trước đây là Twitter, Altman đã so sánh những pha hài hước của Grok với những pha hài hước của một ông nội, nói rằng nó tạo ra những trò đùa tương tự như “bố của bạn”.

Ở dạng cổ điển, Musk dường như không thể cưỡng lại thử thách. Câu trả lời của anh ấy, mà anh ấy khẳng định là do Grok viết, bắt đầu bằng cách khai thác một tác phẩm kinh điển hài hước, có vần điệu “GPT-4” với từ “ngáy”, trước khi đưa vào tài liệu tham khảo “cửa màn hình trên tàu ngầm”.

Tuy nhiên, “vở hài kịch” của Grok nhanh chóng chuyển thành một thứ có vẻ như là một cỗ máy giận dữ, nhận xét rằng sự hài hước bị cấm ở OpenAI và nói thêm, “Đó là lý do tại sao nó không thể kể một trò đùa nếu nó có một cuốn sách hướng dẫn chết tiệt” trước khi tuyên bố rằng GPT -4 có một “cây gậy cao đến mức có thể nếm được vỏ cây!”

Theo như những cuộc tranh cãi giữa CEO và CEO, cuộc tranh cãi này có thể thiếu sắc thái cổ điển và sự duyên dáng về những trận chiến huyền thoại ở Thung lũng Silicon những năm qua (ví dụ như Bill Gates và Steve Jobs). Nhưng điều mà sự bất đồng này thiếu ở sức nặng hài hước hoặc sự duyên dáng, có lẽ nó có thể bù đắp cho sự kỳ lạ nói chung.

Bill Gates cười toe toét trong sự kiện MacWorld 1997 của Apple trên màn hình khổng lồ phía trên Steve Jobs sau khi Microsoft mua cổ phiếu trị giá 150 triệu USD của công ty.

Altman và Musk quay trở lại. Cả hai đều là người đồng sáng lập tại OpenAI trước khi Musk rời công ty đúng lúc để tránh bị cuốn vào đà tăng vọt như tên lửa đã đưa công ty lên mức định giá 2 tỷ USD.

Sau thành công của OpenAI, phần lớn nhờ vào hiệu quả của các mô hình ngôn ngữ lớn (LLM) GPT-3 và GPT-4, Musk đã tham gia vào một loạt tiếng nói kêu gọi tạm dừng sáu tháng trong việc phát triển AI , chủ yếu được thúc đẩy bởi những lo ngại xung quanh khả năng chatbot có thể gây ra sự tuyệt chủng của loài người.

Sáu tháng sau, gần đúng ngày đó, Musk và X đã công bố một mô hình chatbot mà ông khẳng định là vượt trội hơn ChatGPT.

Được mệnh danh là “Grok”, phiên bản chatbot tốt hơn của Musk là một LLM được cho là đã được tinh chỉnh để tạo ra các văn bản hài hước theo phong cách của The Hitchhiker’s Guide to the Galaxy , một cuốn tiểu thuyết khoa học viễn tưởng nổi tiếng được viết bởi Douglas Adams.

Tác phẩm văn học của Adams được nhiều người coi là nền tảng trong quần thể khoa học viễn tưởng và giả tưởng hài hước. Sự hài hước của ông đã được các chuyên gia và nhà phê bình văn học mô tả là thông minh, hóm hỉnh, đầy tâm huyết và nhân văn.

Và điều đó đưa chúng ta đến với GPT-4, tính năng “GPT” mới ra mắt gần đây của OpenAI cho phép người dùng xác định cá tính cho giao diện ChatGPT của họ và việc Musk nhấn mạnh rằng Grok hài hước hơn.

Hiện tại vẫn chưa rõ mô hình nào mạnh mẽ hơn hoặc có khả năng hơn. Không có tiêu chuẩn nào được chấp nhận cho điểm chuẩn cho LLM (hoặc hài kịch cho vấn đề đó).

Mặc dù OpenAI đã xuất bản một số tài liệu nghiên cứu trình bày chi tiết về khả năng của ChatGPT, nhưng X cho đến nay vẫn chưa cung cấp những thông tin chi tiết như vậy về Grok ngoài việc tuyên bố rằng nó vượt trội hơn GPT-3.5 (một mô hình lỗi thời của LLM hỗ trợ ChatGPT) trên một số số liệu nhất định.

Theo Cointelegraph

Google kiện những kẻ lừa đảo về việc tạo ra chatbot Bard AI giả mạo

Google kiện những kẻ lừa đảo về việc tạo ra chatbot Bard AI giả mạo

Google đã đệ đơn kiện những kẻ lừa đảo cung cấp phiên bản độc hại của chatbot AI Bard nhằm lừa người dùng tải xuống và cài đặt phần mềm độc hại trên thiết bị của họ.

Google đã đệ đơn kiện ba kẻ lừa đảo vì đã tạo quảng cáo giả mạo để cập nhật cho chatbot trí tuệ nhân tạo (AI) Bard của Google, trong số những thứ khác, khi tải xuống sẽ cài đặt phần mềm độc hại.

Vụ kiện được đệ trình vào ngày 13 tháng 11 và nêu tên các bị cáo là “DOES 1-3” vì họ vẫn giấu tên. Google cho biết những kẻ lừa đảo đã sử dụng các nhãn hiệu liên quan cụ thể đến các sản phẩm AI của họ, chẳng hạn như “Google, Google AI và Bard” để “dụ những nạn nhân không nghi ngờ tải phần mềm độc hại xuống máy tính của họ”.

Nó đưa ra ví dụ về các trang truyền thông xã hội lừa đảo và nội dung đã được đăng ký nhãn hiệu khiến nó trông giống như một sản phẩm của Google, kèm theo lời mời tải xuống phiên bản miễn phí của Bard và các sản phẩm AI khác.

Ảnh chụp màn hình trang mạng xã hội “Google AI” giả mạo được những kẻ lừa đảo sử dụng. Nguồn: Tài liệu tòa án (Google)

Google cho biết người dùng không nghi ngờ đã vô tình tải xuống phần mềm độc hại bằng cách nhấp vào các liên kết được thiết kế để truy cập và khai thác thông tin đăng nhập mạng xã hội của người dùng và chủ yếu nhắm mục tiêu vào các doanh nghiệp và nhà quảng cáo.

Gã khổng lồ công nghệ đã yêu cầu tòa án bồi thường thiệt hại, phán quyết về phí luật sư, biện pháp khẩn cấp vĩnh viễn đối với các thương tích do bị cáo gây ra, tất cả lợi nhuận mà những kẻ lừa đảo thu được, lệnh cấm toàn diện và bất kỳ điều gì khác mà tòa án cho là “công bằng và công bằng”.

Vụ kiện xảy ra khi các dịch vụ AI, bao gồm cả dịch vụ chatbot, đã chứng kiến sự gia tăng đáng kể về lượng người dùng trên toàn thế giới. Theo dữ liệu gần đây, bot Bard của Google có 49,7 triệu lượt khách truy cập mỗi tháng.

Dịch vụ chatbot AI phổ biến của OpenAI, ChatGPT, có hơn 100 triệu người dùng hàng tháng với gần 1,5 tỷ khách truy cập hàng tháng vào trang web của nó.

Sự gia tăng mức độ phổ biến và khả năng tiếp cận của các dịch vụ AI cũng đã gây ra nhiều vụ kiện chống lại các công ty phát triển công nghệ này. OpenAI, Google và Meta – công ty mẹ của Facebook và Instagram – đều đã vướng vào cuộc chiến pháp lý trong năm qua.

Vào tháng 7, Google đã bị đưa vào một vụ kiện tập thể . Tám cá nhân nộp đơn thay mặt cho “hàng triệu thành viên tập thể”, chẳng hạn như người dùng internet và chủ sở hữu bản quyền, nói rằng Google đã vi phạm quyền riêng tư và quyền sở hữu của họ. Nó xuất hiện sau khi Google cập nhật chính sách bảo mật mới của mình với khả năng thu thập dữ liệu cho mục đích đào tạo AI.

Theo Cointelegraph

Số vụ lừa đảo tiền điện tử sẽ gia tăng cùng với sự phát triển của AI


Khi bàn luận về việc tích hợp AI và ngành công nghiệp tiền điện tử chủ yếu tập trung vào cách AI có thể giúp ngành chống lại các trò gian lận, các chuyên gia đã không chú ý đến thực tế là nó có thể có tác dụng hoàn toàn ngược lại. Trên thực tế, Meta gần đây đã cảnh báo rằng hacker dường như đang lợi dụng ChatGPT của OpenAI để cố gắng truy cập vào tài khoản Facebook của người dùng.

Meta báo cáo rằng họ đã chặn hơn 1.000 liên kết độc hại được che giấu dưới dạng tiện ích mở rộng ChatGPT chỉ trong tháng 3 và tháng 4. Nền tảng này thậm chí còn gọi ChatGPT là “loại tiền điện tử mới” trong mắt những kẻ lừa đảo. Ngoài ra, khi tìm kiếm các từ khóa “ChatGPT” hoặc “OpenAI” trên DEXTools, một nền tảng giao dịch tiền điện tử tương tác theo dõi một số token, sẽ hiển thị chung hơn 700 cặp giao dịch token đề cập đến một trong hai từ khóa. Điều này cho thấy những kẻ lừa đảo đang sử dụng “độ hot” của công cụ AI mới này để tạo token, mặc dù OpenAI không đưa ra bất kỳ thông báo chính thức nào về việc tham gia vào thế giới blockchain.

Các nền tảng truyền thông xã hội đã trở thành các kênh phổ biến để quảng cáo trực tuyến cho các coin lừa đảo mới. Những kẻ lừa đảo lợi dụng phạm vi tiếp cận và ảnh hưởng rộng của các nền tảng này để tạo ra lượng người theo dõi đáng kể trong một thời gian ngắn. Bằng cách tận dụng các công cụ do AI cung cấp, họ có thể mở rộng phạm vi tiếp cận của mình hơn nữa và tạo ra một cơ sở người hâm mộ “trung thành” lên đến hàng nghìn người. Những tài khoản và tương tác giả mạo này có thể được sử dụng để đánh lừa “các con mồi” về độ tin cậy và mức độ phổ biến cho các dự án lừa đảo của chúng.

Phần lớn tiền điện tử hoạt động dựa trên PoW xã hội, cho thấy rằng nếu một loại tiền điện tử hoặc dự án xuất hiện phổ biến và có lượng người theo dõi lớn, thì phải có một lý nhất định đằng sau đó. Các nhà đầu tư và người mua mới có xu hướng tin tưởng các dự án có lượng người theo dõi trực tuyến lớn và trung thành hơn, cho rằng những người khác đã tìm hiểu kỹ lưỡng trước khi đầu tư. Tuy nhiên, việc sử dụng AI có thể khiến giả định này sụp đổ và làm suy yếu PoW xã hội.

Giờ đây, chỉ vì thứ gì đó có hàng nghìn lượt thích và nhận xét chân thực không có nghĩa đó là một dự án hợp pháp. Đây chỉ là một vectơ tấn công và AI sẽ có thể tạo ra nhiều vectơ khác. Một ví dụ điển hình chính là trò lừa đảo “mổ lợn” (pig butchering), trong đó một phiên bản AI có thể dành vài ngày để kết bạn với ai đó, thường là người già hoặc người dễ bị dụ dỗ, chỉ để lừa đảo họ. Sự tiến bộ của công nghệ AI đã cho phép những kẻ lừa đảo tự động hóa và mở rộng quy mô các hoạt động lừa đảo, có khả năng nhắm mục tiêu vào các cá nhân “mỏng manh” trong thế giới tiền điện tử.

Những kẻ lừa đảo có thể sử dụng chatbot hoặc trợ lý ảo do AI điều khiển để tương tác với các “con mồi”, đưa ra lời khuyên đầu tư, quảng cáo token giả và dịch vụ coin ban đầu hoặc các cơ hội đầu tư béo bở. Những vụ lừa đảo AI như vậy cũng có thể rất nguy hiểm vì chúng có thể bắt chước các cuộc trò chuyện giống hệt như con người. Ngoài ra, bằng cách tận dụng các nền tảng truyền thông xã hội và nội dung do AI tạo ra, những kẻ lừa đảo có thể dàn dựng các kế hoạch pump và xả phức tạp, thổi phồng giá trị của token và bán hết các khoản nắm giữ của họ để thu về lợi nhuận khổng lồ, khiến nhiều nhà đầu tư thua lỗ.

Các nhà đầu tư từ lâu đã được cảnh báo đề phòng các trò lừa đảo tiền điện tử deepfake, sử dụng công nghệ AI để tạo nội dung trực tuyến rất chân thực, có thể hoán đổi khuôn mặt trong video và ảnh hoặc thậm chí thay đổi nội dung âm thanh để làm cho nó có vẻ như những người có ảnh hưởng hoặc những nhân vật nổi tiếng khác đang ủng hộ các dự án lừa đảo.

Một deepfake rất nổi bật đã ảnh hưởng đến ngành công nghiệp tiền điện tử là video của cựu CEO FTX Sam Bankman-Fried hướng người dùng đến một trang web độc hại hứa hẹn tăng gấp đôi số tiền điện tử của họ.

Đầu năm nay, vào tháng 3 năm 2023, dự án AI được gọi là Harvest Keeper đã lừa đảo người dùng của nó khoảng 1 triệu đô la. Ngoài ra, cũng trong khoảng thời gian đó, một số dự án bắt đầu xuất hiện trên Twitter tự gọi mình là “CryptoGPT”.

Tuy nhiên, ở một góc nhìn tích cực hơn, AI cũng có khả năng tự động hóa các khía cạnh nhàm chán, đơn điệu của quá trình phát triển tiền điện tử, hoạt động như một công cụ thần kỳ cho các chuyên gia blockchain. Những thứ mà mọi dự án yêu cầu, như thiết lập môi trường Solidity hoặc tạo code cơ sở, đều được thực hiện dễ dàng hơn thông qua việc tận dụng công nghệ AI. Cuối cùng, rào cản gia nhập sẽ được “hạ xuống” đáng kể và ngành công nghiệp tiền điện tử sẽ ít tập trung vào các kỹ năng phát triển mà quan tâm nhiều hơn đến việc liệu ý tưởng của một người có tiện ích thực sự hay không.

Trong một số trường hợp thích hợp, AI sẽ có thể đưa ra một cách không ngờ tới để dân chủ hóa các quy trình mà chúng ta hiện cho rằng chỉ dành cho tầng lớp ưu tú – trong trường hợp này là các nhà phát triển cấp cao được nghiên cứu kỹ lưỡng. Nhưng với việc tất cả mọi người đều có quyền truy cập vào các công cụ phát triển tiên tiến và bệ phóng bằng tiền điện tử, thì không có bất cứ giới hạn nào ngáng chân chúng ta cả. Với sự giúp đỡ của Ai, các dự án ma dường như có thể dễ dàng lừa đảo mọi người hơn; chính vì thế, người dùng phải thận trọng và xem xét kỹ lưỡng trước khi đầu tư vào một dự án bất kỳ, chẳng hạn như để ý các URL đáng ngờ và không bao giờ đầu tư vào thứ gì đó tự dưng mọc lên, không rõ nguồn gốc.

Itadori

Theo Cointelegraph

Exit mobile version