Từ điển trực tuyến hàng đầu thế giới, Wikipedia.com, gần đây đã có một sự lựa chọn thú vị cho từ của năm 2023: ảo giác . Điều này không phải do sự hoảng loạn xung quanh một loại chất gây ảo giác mới hay một phong trào cuồng loạn hàng loạt mới mà là do một cái tên rất đặc biệt cho một hiện tượng rất đặc biệt phát sinh từ ngành công nghiệp trí tuệ nhân tạo mới nổi, hay chính xác hơn là trí tuệ nhân tạo nói chung ( AGI), đã bắt đầu được công chúng biết đến kể từ khi OpenAI ra mắt chatbot AI tổng hợp ChatGPT vào tháng 11 năm 2022.
Tất nhiên, chỉ những sinh vật sống có giác quan thực tế mới có thể “ảo giác”, nhưng đây là thuật ngữ chung được sử dụng để mô tả khi trí tuệ nhân tạo cung cấp thông tin sai lệch hoặc tạo ra ngôn ngữ ngẫu nhiên không giải quyết được truy vấn cụ thể mà nó được đưa ra. .
Trong một trường hợp, trí tuệ nhân tạo trong công cụ tìm kiếm Bing của Microsoft bắt đầu phớt lờ các câu hỏi của phóng viên New York Times trong khi cố gắng thuyết phục anh ta bỏ vợ. Ngoài sự tò mò thú vị đó (có thể không nhiều đối với người phóng viên), ảo giác ban đầu của AGI đã tạo ra vấn đề thực sự khi người dùng các công cụ truy vấn như ChatGPT chấp nhận câu trả lời của nó một cách không nghi ngờ gì. Trong một trường hợp, các luật sư đã bị phạt (và cười nhạo cả phòng xử án) vì sử dụng ChatGPT để xây dựng một bản tóm tắt pháp lý chứa đầy một số trích dẫn vụ việc sai sự thật.
Những luật sư đó đã tạo ra nỗi đau tài chính ngắn hạn và chắc chắn là một số sự bối rối lâu dài về mặt cá nhân và nghề nghiệp cho chính họ, nhưng điều gì sẽ xảy ra khi hàng triệu, thậm chí có thể là hàng tỷ USD đang bị đe dọa?
Lĩnh vực AI và tài chính
Chúng ta phải cẩn thận trước sự hấp dẫn của trí tuệ nhân tạo, đặc biệt là trong ngành tài chính phát triển mạnh về tự động hóa nhưng cũng đã phải chịu những tổn thất đáng kể từ nó. Nếu chúng ta định biến công cụ phân tích dữ liệu mới này thành một phần của cơ sở hạ tầng thông tin trong tương lai và đặc biệt là cơ sở hạ tầng thông tin tài chính của chúng ta trong tương lai, chúng ta phải cảnh giác về cách triển khai và tự điều chỉnh các công nghệ này trong ngành.
Không nhiều người có thể quên được những ngày đầu—và đôi khi đầy nguy hiểm—của giao dịch tự động tần suất cao, chẳng hạn như khi một thuật toán xóa sạch giá trị gần nửa tỷ đô la khỏi Sở giao dịch chứng khoán New York vào năm 2012. Dữ liệu sai lệch được trình bày bởi tiềm năng Ảo giác AGI, được bao bọc trong ngôn ngữ giao tiếp và giống con người, thậm chí còn có thể nguy hiểm hơn, không chỉ truyền bá dữ liệu sai lệch có thể làm trầm trọng thêm các giao dịch thiếu thông tin và hoảng loạn tài chính mà còn thuyết phục các nhà giao dịch mắc phải những sai lầm khác, lâu dài hơn trong phán đoán.
Tại sao ảo giác được tạo ra? Đôi khi, cách xây dựng lời nhắc có thể gây nhầm lẫn cho các lần lặp lại hiện tại của AI tổng quát hoặc mô hình ngôn ngữ lớn (LLM). Theo cách tương tự, các loa thông minh như Google Home hoặc Amazon Echo có thể hiểu sai tiếng ồn xung quanh thành một truy vấn đang được hướng tới chúng.
Thông thường, đó cũng là trường hợp các AGI ban đầu đã được đào tạo về một tập dữ liệu thiếu sót, thông qua việc gắn nhãn sai hoặc phân loại sai. Đây không chỉ là trường hợp các phe phái chính trị khác nhau có định nghĩa riêng về “sự thật thay thế” hoặc “tin tức giả” hoặc chọn cách nhấn mạnh những tin tức khiến phe của họ trông tốt và phe kia trông xấu; AGI đơn giản là không có đủ dữ liệu trong mô hình của nó để đưa ra câu trả lời trực tiếp hoặc mạch lạc, do đó, nó sẽ gặp khó khăn trong việc cung cấp câu trả lời không mạch lạc và gián tiếp.
Theo một cách nào đó, nó không khác gì những công nghệ non trẻ khác xuất hiện trước nó, với tham vọng vượt xa chất lượng và tốc độ truyền dữ liệu hiện có. Internet đã không thực sự trở thành kẻ thay đổi cuộc chơi cho đến khi nó có thể vận chuyển một lượng dữ liệu đáng kể từ máy tính cá nhân này sang máy tính cá nhân khác và một số người cho rằng trò chơi thực sự đã thay đổi khi điện thoại di động của chúng ta có thể làm được điều tương tự. AGI mới này cũng đang đào tạo con người tiếp tục xây dựng để cung cấp cho các mô hình AI mới này các bộ dữ liệu tốt hơn và các cách hiệu quả hơn để cung cấp thông tin chi tiết và trí thông minh nhanh chóng, có thể sử dụng và hy vọng là mạch lạc.
Có giải pháp nào không?
Nhiều người đã đề xuất những cách khác nhau để giảm thiểu ảo giác, bao gồm cả thứ gọi là thế hệ tăng cường truy xuất (RAG), về cơ bản là cách cập nhật liên tục các nguồn dữ liệu trong thời gian thực. Đây có thể là một lợi thế của Grok AI của Elon Musk, công ty có quyền truy cập vào nguồn dữ liệu thời gian thực công khai phổ biến nhất trong 15 năm qua.
Tuy nhiên, tôi ủng hộ blockchain như một giải pháp. Nó sẽ không bị khóa vào một người gác cổng của công ty hoặc khu vườn dữ liệu có tường bao quanh và có thể xây dựng các nguồn dữ liệu phi tập trung mới và tốt hơn. Blockchain được xây dựng không chỉ để lưu trữ và truyền dữ liệu ngang hàng mà còn để truyền thanh toán, điều này có thể tạo ra các phương pháp khuyến khích mới cho những gì chắc chắn là một giai đoạn hoàn toàn mới của nền kinh tế thông tin được truyền tải bằng AI.
Trong thế giới tài chính, thứ gì đó giống như biểu đồ tri thức phi tập trung sẽ trao quyền và khuyến khích các bên liên quan trong toàn ngành chia sẻ nhiều dữ liệu hơn một cách minh bạch. Blockchain sẽ có thể cập nhật và xác minh tất cả thông tin có liên quan và không thể thay đổi trong thời gian thực. Phương pháp xác minh dữ liệu này sẽ là một phiên bản tăng cường của RAG và giảm đáng kể số lượng ảo giác AGI, với các tài sản kiến thức có ngữ nghĩa và khả năng xác minh được nhúng ( Vì lợi ích của việc tiết lộ, tôi đã làm việc với OriginTrail, công ty đang phát triển phiên bản kiến thức phi tập trung của nó đồ thị ).
Có thể một ngày nào đó “robot” thậm chí còn giao dịch giỏi hơn con người. Cuối cùng, chúng ta sẽ lựa chọn có tạo ra một hệ thống cung cấp cho những robot đó những công cụ tốt hơn, mạnh mẽ hơn và nhanh hơn trong thực tế mà chúng ta tạo ra chứ không phải hệ thống mà chúng đang “ảo giác” hay không.
Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Crypto News