Lưu trữ cho từ khóa: AI

Worldcoin tích hợp với Shopify, Mercado Libre, Minecraft, Reddit và Telegram

Worldcoin đã phát hành phiên bản mới của tính năng World ID với nhiều tích hợp ứng dụng.

Worldcoin integrates with Shopify, Mercado Libre, Minecraft, Reddit and Telegram

Worldcoin đã ra mắt phiên bản mới của tính năng World ID, được gọi là “World ID 2.0”.

Theo thông báo ngày 12 tháng 12, phiên bản mới được tích hợp với Shopify, Mercado Libre, Reddit và Telegram, cho phép người dùng chứng minh tính nhân văn của mình trên các nền tảng này.

Tích hợp ứng dụng World ID. Nguồn: Worldcoin

Thông báo cho biết rằng việc tích hợp ứng dụng mới sẽ bổ sung cho các ứng dụng hiện có, bao gồm Discord, Talent Protocol và Auth0 của Okta. Phiên bản mới cũng cho phép các nhà phát triển ứng dụng lựa chọn giữa các cấp độ xác thực khác nhau, từ “lite” đến “max”.

Theo thông báo, các cấp độ mới này nhằm cung cấp “nhiều cách hơn để mọi người sử dụng World ID của họ dựa trên nhu cầu bảo mật của ứng dụng và đảm bảo các cá nhân không chia sẻ nhiều thông tin hơn mức họ cần hoặc muốn đối với một ứng dụng nhất định”. Ví dụ: một ứng dụng yêu cầu bảo mật cao có thể yêu cầu người dùng phải có ID được xác minh cấp cao ORB. Ngược lại, các ứng dụng tập trung hơn vào sự tiện lợi có thể chỉ yêu cầu ID thế giới “Xác thực thiết bị” được gắn với điện thoại di động của người dùng.

Đại diện của Worldcoin đã làm rõ với Cointelegraph rằng các cửa hàng Shopify hiện có thể chọn riêng mức độ tích hợp cần thiết. “[F]hoặc tích hợp Shopify mới, các cửa hàng sẽ có thể tạo phiếu giảm giá và sau đó chỉ định mức độ nhân đạo cần thiết để đổi chúng (các tùy chọn bao gồm cấp độ ‘được xác minh bằng thiết bị’, được thực hiện trên điện thoại thông minh của cá nhân hoặc được xác minh bởi mức độ cao ORB).”

Worldcoin tuyên bố rằng các tính năng mới sẽ giúp giảm tổn thất từ bot mà không yêu cầu người dùng cung cấp thông tin cá nhân của họ cho ứng dụng họ đang sử dụng. Trích dẫn một báo cáo từ CNBC, họ tuyên bố rằng các nhà bán lẻ đang bị mất 100 tỷ USD mỗi năm do ‘gian lận trả lại hàng, bot và xếp phiếu giảm giá.’”

Worldcoin được ra mắt lần đầu tiên vào tháng 7 . Nó đã gây tranh cãi vì mức độ xác thực bảo mật cao nhất, bao gồm việc quét mống mắt của người dùng và tạo ra bằng chứng không có kiến thức về quá trình quét, mà các nhà phê bình cho rằng có thể dẫn đến thông tin sinh trắc học bị rò rỉ. Worldcoin đã bảo vệ hoạt động này, tuyên bố rằng nó chỉ lưu trữ bằng chứng quét mống mắt chứ không lưu trữ chính bản quét đó.

Cập nhật ngày 13 tháng 12, 3:22 chiều UTC: Bài viết này đã được cập nhật để bao gồm nhận xét từ nhóm Worldcoin về việc tích hợp Shopify.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

AI nguồn mở có thể hoạt động tốt hơn các mô hình riêng tư như Chat-GPT — ARK Invest

Vào năm 2023, Yi 34B, Falcon 180B và Mixtral 8x7B nổi lên như một trong những AI nguồn mở hàng đầu có hiệu suất tương đương với các công ty dẫn đầu thị trường.

Trong khi các mô hình trí tuệ nhân tạo tổng quát (AI) được hỗ trợ bởi cơ sở hạ tầng đám mây tập trung — chẳng hạn như ChatGPT — hiện dẫn đầu về hiệu suất tổng thể, nghiên cứu mới cho thấy các đối thủ cạnh tranh nguồn mở đang bắt kịp.

Các công ty dẫn đầu thị trường hiện nay về AI sáng tạo, chẳng hạn như Google và OpenAI, đã áp dụng cách tiếp cận tập trung để xây dựng cơ sở hạ tầng của họ – hạn chế một cách hiệu quả quyền truy cập của công chúng vào nhiều thông tin khác nhau, bao gồm cả các nguồn dữ liệu được sử dụng cho mô hình đào tạo.

Điều này có thể thay đổi, nhóm nghiên cứu tại ARK Invest của Cathy Wood tuyên bố, cho thấy khả năng các mô hình AI nguồn mở vượt trội so với các mô hình tập trung của chúng vào năm 2024.

Hiệu suất hiểu ngôn ngữ đa nhiệm khổng lồ của các mô hình AI nguồn mở và riêng tư. Nguồn: ARK Invest

Biểu đồ trên cho thấy tiến trình đạt được của các mô hình AI nguồn mở kể từ năm 2022, một số trong đó đã hoạt động tốt hơn các mô hình riêng tư. OpenAI, Google và công ty mẹ Alphabet, thống trị không gian AI tập trung với các mô hình phổ biến như ChatGPT-4 và Gemini Ultra. Mặt khác, Meta (trước đây là Facebook), Mistral và một số mô hình AI của Trung Quốc đã chọn cách tiếp cận nguồn mở.

Vào năm 2023, Yi 34B, Falcon 180B và Mixtral 8x7B nổi lên như một trong những AI nguồn mở hàng đầu có hiệu suất tương đương với các công ty dẫn đầu thị trường. Nhà nghiên cứu Jozef Soja của ARK Invest lưu ý rằng Mixtral đã đánh bại GPT 3.5 về lỗi nhật ký tuyệt đối về hiệu suất trên điểm chuẩn hiểu ngôn ngữ đa nhiệm lớn đồng thời nêu bật “hiện tại GPT-4 đã vượt xa gói này bao xa”.

Ngoài ra, mô hình nền tảng của Meta, LLaMA, cũng ghi nhận sự cải thiện đáng kể trong các lần lặp lại năm 2023. Kỹ sư AI Brian Roemmele cho biết nhu cầu về hiệu suất trong các mô hình AI nguồn mở bắt nguồn từ tầm quan trọng của việc dân chủ hóa quyền truy cập vào AI tổng quát.

Các công ty dẫn đầu thị trường AI hiện tại – Gemini của Google và ChatGPT-4 của OpenAI – gần đây đã được đưa vào thử nghiệm. Cointelegraph đã hỏi các phiên bản miễn phí của Gemini (thông qua Bard) và ChatGPT-4 một số câu hỏi về tiền điện tử và so sánh các câu trả lời.

Trong cả hai trường hợp, AI đều áp dụng cách tiếp cận tương tự trong việc cảnh báo người dùng khi được hỏi về lời khuyên đầu tư và khuyến nghị tìm kiếm một cố vấn tài chính chuyên nghiệp để có thêm “lời khuyên cá nhân hóa”. Ngoài ra, cả hai mô hình AI đều đưa ra câu trả lời nêu bật các điểm cần cân nhắc tương tự mặc dù cung cấp các chi tiết khác nhau trong một số trường hợp.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

OpenAI, Axel Springer hợp tác tích hợp AI và báo chí, giải quyết 'ảo giác' AI

Gã khổng lồ truyền thông Đức Axel Springer đã hợp tác với OpenAI để tìm cách nâng cao ChatGPT bằng cách tích hợp báo chí và AI để giảm “ảo giác”.

Axel Springer, một trong những công ty truyền thông lớn nhất ở châu Âu, đang hợp tác với OpenAI để tích hợp báo chí với công cụ trí tuệ nhân tạo (AI) ChatGPT, nhà xuất bản Đứccho biết trong một tuyên bố trên blog của mình vào ngày 13/12.

Sự hợp tác này bao gồm việc sử dụng nội dung từ các thương hiệu truyền thông Axel Springer để nâng cao việc đào tạo các mô hình ngôn ngữ lớn của OpenAI. Nó nhằm mục đích đạt được trải nghiệm người dùng ChatGPT tốt hơn với nội dung cập nhật và đáng tin cậy về các chủ đề đa dạng, cũng như tăng tính minh bạch thông qua việc phân bổ và liên kết các bài viết đầy đủ.

Các chatbot AI sáng tạo từ lâu đã phải vật lộn với độ chính xác thực tế, đôi khi tạo ra thông tin sai lệch, thường được gọi là “ảo giác”. Các sáng kiến nhằm giảm những ảo giác AI này đã được công bố vào tháng 6 trong một bài đăng trên trang web của OpenAI.

Ảo giác AI xảy ra khi hệ thống trí tuệ nhân tạo tạo ra thông tin không chính xác về mặt thực tế, gây hiểu lầm hoặc không được hỗ trợ bởi dữ liệu trong thế giới thực. Ảo giác có thể biểu hiện dưới nhiều hình thức khác nhau, chẳng hạn như tạo ra thông tin sai lệch, bịa ra những sự kiện hoặc con người không tồn tại hoặc cung cấp thông tin chi tiết không chính xác về một số chủ đề nhất định.

Sự kết hợp giữa AI và báo chí đã đặt ra những thách thức, bao gồm những lo ngại về tính minh bạch và thông tin sai lệch . Vào tháng 10, một nghiên cứu của Ipsos Global đã tiết lộ rằng 56% người Mỹ và 64% người Canada tin rằng AI sẽ làm trầm trọng thêm tình trạng lan truyền thông tin sai lệch và trên toàn cầu, 74% cho rằng AI tạo điều kiện thuận lợi cho việc tạo ra tin tức giả thực tế.

Sự hợp tác giữa OpenAI và Axel Springer nhằm mục đích đảm bảo rằng người dùng ChatGPT có thể tạo các bản tóm tắt từ các thương hiệu truyền thông của Axel Springer, bao gồm Politico, Business Insider, Bild và Die Welt.

Tuy nhiên, tiềm năng của AI trong việc chống lại thông tin sai lệch cũng đang được khám phá, như đã thấy với các công cụ như AI Fact Checker và việc Microsoft tích hợp GPT-4 vào trình duyệt Edge.

Associated Press đã giải đáp những lo ngại này bằng cách ban hành các hướng dẫn hạn chế sử dụng AI tổng hợp trong báo cáo tin tức, nhấn mạnh tầm quan trọng của sự giám sát của con người.

Vào tháng 10, một nhóm các nhà khoa học đến từ Đại học Khoa học và Công nghệ Trung Quốc và YouTu Lab của Tencent đã phát triển một công cụ chống “ảo giác” bằng mô hình trí tuệ nhân tạo (AI).

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Google giảm giá mô hình Gemini AI, mở cửa cho nhà phát triển

Công ty mẹ của Google, Alphabet, cho biết họ đang giảm giá phiên bản chuyên nghiệp của mô hình AI Gemini và có kế hoạch làm cho các nhà phát triển dễ dàng tiếp cận các công cụ của mình hơn để tạo ra các phiên bản của riêng họ.

Alphabet, công ty mẹ của Google, đã thông báo vào ngày 13 tháng 12 rằng họ có kế hoạch cắt giảm chi phí của phiên bản mô hình trí tuệ nhân tạo (AI) tiên tiến nhất của mình, Gemini và giúp các nhà phát triển dễ tiếp cận hơn.

Theo báo cáo , công ty cho biết giá mẫu Pro của Gemini đã giảm 25%–50% so với giá hồi tháng 6.

Gemini đã được giới thiệu với ba biến thể vào ngày 6 tháng 12 , với phiên bản phức tạp nhất có khả năng suy luận và hiểu thông tin ở cấp độ cao hơn các công nghệ khác của Google, cùng với khả năng tính toán video và âm thanh.

Theo Google, phiên bản mạnh mẽ nhất đang được thiết kế để hoạt động trong các trung tâm dữ liệu, trong khi các phiên bản khác sẽ được triển khai trên thiết bị cá nhân và trong bộ ứng dụng của Google.

Ngoài việc giảm giá, công ty cho biết họ có kế hoạch cung cấp các công cụ của mình cho các nhà phát triển để tạo ra phiên bản Gemini cho khách hàng. Vào ngày 6 tháng 11, ChatGPT của OpenAI đã phát hành một tính năng mới cho phép những người đăng ký trả phí tạo GPT tùy chỉnh .

Sự ra mắt của Gemini vừa thú vị vừa gây tranh cãi. Ban đầu, Google phát hành sản phẩm với mục đích so sánh trực tiếp với GPT-4 của OpenAI , thậm chí còn được mệnh danh là “sát thủ GPT”.

Tuy nhiên, các nhà điều tra internet nhanh chóng bắt đầu chế nhạo những tuyên bố về tính ưu việt của Google và đăng các so sánh về nhiệm vụ được giao cho cả hai mô hình, nhiều trong số đó cho thấy kết quả chính xác hơn do mô hình của OpenAI tạo ra.

Người dùng trên mạng cho rằng Google đã “nói dối” về khả năng của mình và chỉnh sửa video để hiển thị kết quả ấn tượng hơn. Vào ngày 11 tháng 12, các giám đốc điều hành của Google thừa nhận rằng một số tài liệu quảng cáo được sử dụng đã bị chỉnh sửa để “ngắn gọn”.

Kể từ khi ChatGPT của OpenAI ra mắt đại chúng vào tháng 11 năm 2022, nhiều công ty công nghệ hàng đầu thế giới đã chạy đua để phát triển và triển khai các mô hình AI đối thủ mạnh mẽ.

Vào ngày 28 tháng 11, Amazon đã ra mắt đối thủ ChatGPT của riêng mình có tên “Q”, được xây dựng nhằm mục đích kinh doanh, trong khi Meta, công ty mẹ của Facebook và Instagram, đã phát hành đối thủ của riêng mình có tên “Llama 2” vào đầu năm nay và Elon Musk đã ra mắt Chatbot AI của anh ấy “Grok.”

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

OpenAI sắp tung ra bản nâng cấp ChatGPT mới phải không? Sam Altman nói 'không'

Một ảnh chụp màn hình lan truyền trên Reddit và X cho thấy OpenAI có thể sớm phát hành mô hình ngôn ngữ lớn mới nhất GPT4.5. Sam Altman sau đó xác nhận “vụ rò rỉ” là giả mạo.

Giám đốc điều hành OpenAI Sam Altman đã phủ nhận việc công ty sắp tung ra phiên bản mới của mô hình ngôn ngữ lớn ChatGPT, GPT4.5.

Một ảnh chụp màn hình được cho là “bị rò rỉ”, được lan truyền rộng rãi trên mạng xã hội, bao gồm cả X vào ngày 14 tháng 12, hiển thị mô tả về “GPT 4.5” có nội dung:

“Mô hình tiên tiến nhất của chúng tôi mang đến khả năng đa mô hình trên ngôn ngữ, âm thanh, hình ảnh, video và 3D, bên cạnh khả năng suy luận phức tạp và hiểu biết giữa các mô hình.”

Tuy nhiên, nhiều người bắt đầu suy đoán ảnh chụp màn hình “bị rò rỉ” là một trò lừa bịp. Một chủ đề Reddit trên r/OpenAI được đăng vào khoảng 10:30 sáng ngày 14 tháng 12 theo giờ UTC — nguồn có thể dẫn đến “vụ rò rỉ” — đã bị người kiểm duyệt xóa. Một số bình luận trong chủ đề đã chỉ trích người đăng ban đầu là bài đăng “giả mạo”.

Giám đốc điều hành Abacus.AI Bindu Reddy cũng có suy nghĩ thứ hai, chỉ 25 phút sau khi cô ấy lần đầu chia sẻ ảnh chụp màn hình “bị rò rỉ”, tweet: “Giá GPT4.5 bị rò rỉ gần như chắc chắn là giả! Internet đang thể hiện những gì nó thực sự mong muốn.”

Reddy cho biết “có khá nhiều chi tiết nhỏ trong ảnh chụp màn hình bị sai rõ ràng”.

Giám đốc điều hành OpenAI Sam Altman sau đó đã xác nhận trên X rằng “rò rỉ” là không có thật.

Vẫn chưa rõ OpenAI có thực sự phát hành GPT-4.5 hay nhảy thẳng lên GPT-5 hay không. Mẫu tiếp theo sẽ là mẫu kế nhiệm của GPT-4, được phát hành vào ngày 14 tháng 3 năm 2023.

Sau khi GPT-3 được phát hành vào tháng 6 năm 2020, phải mất hai năm mới phát hành GPT-3.5, tức là vào tháng 3 năm 2022.

Trong khi đó, OpenAI đã hoạt động trên GPT-5. Vào tháng 7, công ty AI đã nộp đơn đăng ký nhãn hiệu cho GPT5, bao gồm phần mềm dành cho giọng nói và văn bản của con người dựa trên AI, chuyển đổi âm thanh thành văn bản và nhận dạng giọng nói và giọng nói.

Vào tháng 11, Giám đốc điều hành OpenAI Sam Altman nói với Financial Times rằng công ty đang nỗ lực phát triển GPT-5, mặc dù ông không cam kết về mốc thời gian phát hành.

Cập nhật (ngày 15 tháng 12, 2:06 sáng UTC): Bài viết này đã được cập nhật để phản ánh một tweet mới của Giám đốc điều hành OpenAI Sam Altman.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Người đưa tin do AI tạo ra để trình bày các báo cáo được cá nhân hóa trên AI Kênh 1 vào năm 2024

Một phòng tin tức mới do AI tạo ra có kế hoạch triển khai chương trình của mình vào đầu năm 2024, với những người đưa tin do AI tạo ra cung cấp tin tức được cá nhân hóa do AI tạo ra – điều gì có thể xảy ra?

Công ty truyền thông Channel 1 AI sẽ triển khai một phòng tin tức hoàn toàn mới vào năm 2024, với một lợi ích đáng chú ý – nó được hỗ trợ bởi trí tuệ nhân tạo tổng hợp (AI) và được điều hành bởi những người đưa tin do AI tạo ra, những người sẽ cung cấp nội dung do AI tạo được cá nhân hóa.

Vào ngày 12 tháng 12, kênh này đã phát hành một video giới thiệu về các phân khúc sắp tới của mình trên nền tảng truyền thông xã hội X (trước đây là Twitter) với những người đưa tin do AI tạo ra để truyền tải sứ mệnh của công ty.

Chương trình thí điểm kéo dài 22 phút đã giới thiệu nội dung này là “tin tức gốc AI” và làm rõ rằng nội dung đó sẽ không phải là những câu chuyện do AI tạo ra, tức là tin giả, mà lấy “các nguồn tin tức đáng tin cậy” từ khắp nơi trên thế giới để thu thập và tổng hợp thông tin vào dữ liệu của nó. phân đoạn. Nó tuyên bố mục tiêu của nó là cung cấp “tin tức chính xác, không thiên vị”.

Ngoài ra, các chương trình tin tức nổi bật trên kênh cũng sẽ do AI tạo ra. Những người thuyết trình trong video giới thiệu cho biết họ “được hỗ trợ bởi công nghệ tinh vi” và có thể nói bằng bất kỳ ngôn ngữ nào theo tín hiệu.

Người dẫn tin tức do AI tạo ra trên Kênh 1 AI. Nguồn: Kênh 1 AI

Tuy nhiên, họ cho biết các biên tập viên và nhà sản xuất vẫn đang kiểm tra tin tức để đảm bảo tính chính xác và rõ ràng mọi lúc.

Nó đã thử nghiệm một chương trình phát sóng tin tức mẫu, với một trong những người dẫn chương trình do AI tạo ra đưa tin về cuộc xung đột hiện tại ở Trung Đông.

Chương trình phát sóng tin tức do AI tạo và người dẫn tin tức do AI tạo từ AI Kênh 1. Nguồn: Kênh 1 AI

Channel 1 AI được thành lập bởi doanh nhân Adam Mosam và nhà sản xuất Scott Zabielski. Nó có một thỏa thuận với công ty sản xuất Chicken Soup for the Soul Entertainment.

Trong một cuộc phỏng vấn với Deadline vào tháng 11, Mosam cho biết Channel 1 AI sẽ công bố hợp tác với một hãng thông tấn, dựa trên nội dung từ các nhà báo độc lập và phát triển tin tức từ “các nguồn chính đáng tin cậy”.

Ban đầu, phòng tin tức do AI tạo ra có kế hoạch bắt đầu với kênh Fast vào tháng 2 hoặc tháng 3 năm 2024, sau đó họ dự định tung ra các ứng dụng dành cho thiết bị di động và TV, cả hai ứng dụng này sẽ cung cấp tin tức được cá nhân hóa theo người xem.

Cointelegraph đã liên hệ với Channel 1 AI để tìm hiểu thêm về các chương trình sắp tới của kênh này.

Phản ứng hỗn hợp

Việc tiếp nhận kênh tin tức do AI tạo ra trên mạng xã hội cho thấy sự quan tâm, tò mò và lo ngại về khả năng xảy ra tin giả và mất việc làm báo chí.

Một người dùng hỏi liệu họ có tuyển dụng sớm không, phòng tin tức trả lời là “sớm”, trong khi một người dùng khác chúc mừng kênh nhưng cũng đưa ra cảnh báo “hãy cẩn thận”.

Một người dùng khác đặt câu hỏi về phương pháp luận của AI Kênh 1, nói rằng đó chỉ là những tin tức được tạo ra bởi các nhà báo con người.

Một người dùng khẳng định kênh AI mới chỉ là tin tức mới. Nguồn: X

Một người dùng có tên Chimp Magnet cho biết họ “không thể nhấn mạnh đủ rằng tôi tin tưởng mọi thứ về điều này đến mức nào”. Mối lo ngại về tin tức giả ngày càng gia tăng do AI có khả năng tiếp cận rộng rãi.

Vào tháng 10, các thượng nghị sĩ Hoa Kỳ đã đề xuất một dự luật trừng phạt những người tạo ra các bản sao AI trái phép của con người thật – dù còn sống hay đã chết. Điều này xảy ra khi Mỹ chuẩn bị cho cuộc bầu cử tổng thống năm 2024.

Các công ty truyền thông trên toàn cầu cũng đang vật lộn với công nghệ này , cố gắng cân bằng việc triển khai nó với khả năng phá vỡ tin tức có nội dung giả mạo.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Chatbot Microsoft Bing AI cung cấp thông tin, dữ liệu bầu cử sai lệch

Một nghiên cứu gần đây từ hai tổ chức phi lợi nhuận ở châu Âu đã tiết lộ rằng chatbot Bing AI của Microsoft, hiện được đổi tên thành Copilot, đưa ra thông tin sai lệch hoặc không chính xác về thông tin bầu cử.

Một nghiên cứu từ hai tổ chức phi lợi nhuận có trụ sở tại Châu Âu đã phát hiện ra rằng chatbot Bing trí tuệ nhân tạo (AI) của Microsoft, hiện được đổi tên thành Copilot, tạo ra kết quả sai lệch về thông tin bầu cử và trích dẫn sai nguồn của nó.

Nghiên cứu được AI Forensics và AlgorithmWatch công bố vào ngày 15 tháng 12 và phát hiện ra rằng chatbot AI của Bing đã trả lời sai 30% thời gian cho các câu hỏi cơ bản liên quan đến bầu cử chính trị ở Đức và Thụy Sĩ. Câu trả lời không chính xác là về thông tin ứng cử viên, các cuộc thăm dò, vụ bê bối và bỏ phiếu.

Nó cũng đưa ra những câu trả lời không chính xác cho các câu hỏi về cuộc bầu cử tổng thống năm 2024 ở Hoa Kỳ.

Chatbot AI của Bing đã được sử dụng trong nghiên cứu vì đây là một trong những chatbot AI đầu tiên đưa các nguồn vào câu trả lời của mình và nghiên cứu cho biết rằng những điểm không chính xác không chỉ giới hạn ở Bing. Họ được cho là đã tiến hành thử nghiệm sơ bộ trên ChatGPT-4 và cũng tìm thấy sự khác biệt.

Các tổ chức phi lợi nhuận làm rõ rằng thông tin sai lệch không ảnh hưởng đến kết quả bầu cử, mặc dù nó có thể góp phần gây nhầm lẫn và thông tin sai lệch trong công chúng.

“Khi AI tổng quát trở nên phổ biến hơn, điều này có thể ảnh hưởng đến một trong những nền tảng của nền dân chủ: khả năng tiếp cận thông tin công khai đáng tin cậy và minh bạch.”

Ngoài ra, nghiên cứu còn phát hiện ra rằng các biện pháp bảo vệ được tích hợp trong chatbot AI được phân bổ “không đồng đều” và khiến nó đưa ra các câu trả lời lảng tránh trong 40% thời gian.

Theo báo cáo của Wall Street Journal về chủ đề này, Microsoft đã phản hồi về phát hiện này và cho biết họ có kế hoạch khắc phục các vấn đề trước cuộc bầu cử tổng thống Mỹ năm 2024. Người phát ngôn của Microsoft khuyến khích người dùng luôn kiểm tra tính chính xác của thông tin thu được từ chatbot AI.

Đầu năm nay, vào tháng 10, các thượng nghị sĩ Hoa Kỳ đã đề xuất một dự luật sẽ khiển trách những người tạo ra các bản sao AI trái phép của con người thực – dù còn sống hay đã chết.

Vào tháng 11, Meta, công ty mẹ của Facebook và Instagram, đã đưa ra lệnh cấm sử dụng các công cụ tạo quảng cáo AI tổng quát dành cho các nhà quảng cáo chính trị như một biện pháp phòng ngừa cho cuộc bầu cử sắp tới.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Báo cáo thường niên của cơ quan quản lý tài chính Mỹ cảnh báo rủi ro AI

Theo báo cáo, các công cụ AI cụ thể có tính kỹ thuật cao và phức tạp, đặt ra thách thức cho các tổ chức trong việc giải thích hoặc giám sát chúng một cách hiệu quả.

Một nhóm nhà quản lý cảnh báo rằng việc áp dụng nhanh chóng trí tuệ nhân tạo (AI) có thể gây ra rủi ro mới cho hệ thống tài chính Hoa Kỳ nếu công nghệ này không được giám sát đầy đủ.

Hội đồng Giám sát Ổn định Tài chính (FSOC), bao gồm các cơ quan quản lý tài chính hàng đầu và do Bộ trưởng Tài chính Hoa Kỳ Janet Yellen làm chủ tịch, lần đầu tiên đã đánh dấu những rủi ro do AI gây ra trong báo cáo ổn định tài chính hàng năm được công bố vào ngày 14 tháng 12.

FSOC thừa nhận tiềm năng của AI trong việc thúc đẩy sự đổi mới và hiệu quả trong các tổ chức tài chính, nhưng nó nhấn mạnh các công ty và cơ quan quản lý cần phải luôn cảnh giác trước những tiến bộ công nghệ nhanh chóng.

Trong báo cáo thường niên của mình, tổ chức này nhấn mạnh rằng AI tiềm ẩn những rủi ro cụ thể, chẳng hạn như rủi ro về an ninh mạng và mô hình. Nó đề nghị các công ty và cơ quan quản lý nâng cao kiến thức và khả năng của họ để giám sát sự đổi mới và sử dụng AI cũng như xác định các rủi ro mới nổi.

Theo báo cáo, các công cụ AI cụ thể có tính kỹ thuật cao và phức tạp, đặt ra thách thức cho các tổ chức trong việc giải thích hoặc giám sát chúng một cách hiệu quả. Báo cáo cảnh báo rằng các công ty và cơ quan quản lý có thể bỏ qua các kết quả sai lệch hoặc không chính xác nếu không có sự hiểu biết toàn diện.

Báo cáo cũng nhấn mạnh rằng các công cụ AI ngày càng phụ thuộc vào các tập dữ liệu bên ngoài rộng rãi và các nhà cung cấp bên thứ ba, gây ra những lo ngại về quyền riêng tư và an ninh mạng.

Một số cơ quan quản lý, bao gồm Ủy ban Chứng khoán và Giao dịch Hoa Kỳ – có chủ tịch là FSOC – đã kiểm tra việc sử dụng AI của các công ty . Nhà Trắng cũng đã ban hành lệnh hành pháp nhằm giải quyết và giảm thiểu rủi ro về AI.

Đức Thánh Cha Phanxicô, trong một bức thư vào ngày 8 tháng 12, bày tỏ mối quan ngại về những mối đe dọa tiềm tàng của AI đối với nhân loại. Ông ủng hộ một hiệp ước quốc tế nhằm quản lý việc phát triển AI một cách có đạo đức, cảnh báo trước nguy cơ xảy ra “chế độ độc tài công nghệ” nếu không có sự kiểm soát thích hợp.

Những nhân vật công nghệ như Elon Musk và Steve Wozniak cũng bày tỏ lo ngại về sự tiến bộ nhanh chóng của AI. Hơn 2.600 nhà lãnh đạo và nhà nghiên cứu công nghệ, bao gồm cả Musk và Wozniak, đã ký một bản kiến nghị vào tháng 3 năm 2023 , kêu gọi “tạm dừng” phát triển AI. Họ nhấn mạnh những “rủi ro sâu sắc tiềm ẩn đối với xã hội và nhân loại” do những tiến bộ AI vượt qua GPT-4 gây ra.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Ngay cả Giáo hoàng cũng có điều muốn nói về trí tuệ nhân tạo

Sự bùng nổ của trí tuệ nhân tạo đã không thoát khỏi Vatican, với việc Đức Thánh Cha Phanxicô cảnh báo về sự nguy hiểm của nó trong một bức thư dài 3.400 từ trước Ngày Hòa bình Thế giới vào ngày 1 tháng 1.

Trong năm qua, không thiếu các nhà khoa học, CEO công nghệ, tỷ phú và nhà lập pháp đã gióng lên hồi chuông cảnh báo về trí tuệ nhân tạo (AI) – và giờ đây, ngay cả Giáo hoàng cũng muốn nói về nó.

Trong một bức thư dài 3.412 từ đề ngày 8 tháng 12, Giáo hoàng Francis – người đứng đầu Giáo hội Công giáo – đã cảnh báo về những mối nguy hiểm tiềm tàng của AI đối với nhân loại và những gì cần phải làm để kiểm soát nó. Bức thư được đưa ra khi Giáo hội Công giáo La Mã chuẩn bị kỷ niệm Ngày Hòa bình Thế giới vào ngày 1 tháng 1 năm 2024.

Đức Thánh Cha Phanxicô muốn thấy một hiệp ước quốc tế quản lý AI nhằm đảm bảo nó được phát triển và sử dụng một cách có đạo đức – nếu không, chúng ta có nguy cơ rơi vào vòng xoáy của một “chế độ độc tài công nghệ”.

“Tôi kêu gọi cộng đồng các quốc gia toàn cầu hợp tác để thông qua một hiệp ước quốc tế mang tính ràng buộc nhằm quản lý việc phát triển và sử dụng trí tuệ nhân tạo dưới nhiều hình thức.”

Đức Giáo Hoàng giải thích rằng mối đe dọa của AI nảy sinh khi các nhà phát triển có “mong muốn lợi nhuận hoặc khao khát quyền lực” lấn át mong muốn tồn tại tự do và hòa bình của một người.

“Phẩm giá vốn có của mỗi con người […] phải hỗ trợ cho sự phát triển của các công nghệ mới và đóng vai trò là tiêu chí không thể chối cãi để đánh giá chúng […] để tiến bộ kỹ thuật số có thể diễn ra với sự tôn trọng thích đáng đối với công lý và đóng góp cho sự nghiệp hòa bình.” .”

Ông nói thêm rằng những công nghệ không thực hiện được điều này sẽ “làm trầm trọng thêm sự bất bình đẳng và xung đột” và do đó, không bao giờ có thể được coi là tiến bộ thực sự.

Trong khi đó, sự xuất hiện của tin tức giả do AI tạo ra là một “vấn đề nghiêm trọng”, Đức Giáo Hoàng nói thêm, điều này có thể dẫn đến sự mất lòng tin ngày càng tăng đối với các phương tiện truyền thông.

Giáo hoàng gần đây đã trở thành nạn nhân của AI sáng tạo khi một hình ảnh giả mạo chụp ông mặc chiếc áo khoác phồng màu trắng sang trọng được lan truyền rộng rãi vào tháng 3.

Bức ảnh giả do AI tạo ra của Giáo hoàng. nguồn: Quả cầu Boston

Tuy nhiên, Đức Thánh Cha Phanxicô cũng thừa nhận những lợi ích của AI trong việc cho phép sản xuất hiệu quả hơn, vận chuyển dễ dàng hơn và thị trường sẵn sàng hơn, cũng như một cuộc cách mạng trong quá trình tích lũy, tổ chức và xác nhận dữ liệu.

Nhưng ông cũng lo ngại rằng AI sẽ mang lại lợi ích cho những người kiểm soát nó và khiến một phần lớn dân số không có việc làm để trang trải cuộc sống:

“Có nguy cơ đáng kể về lợi ích không tương xứng cho một số ít với cái giá là sự bần cùng hóa của nhiều người.”

Đức Thánh Cha Phanxicô từ lâu đã cảnh báo về việc lạm dụng các công nghệ mới nổi, đồng thời nhấn mạnh rằng “các nguyên tắc đạo đức cả lý thuyết và thực tiễn” cần phải được đưa vào chúng. Tuy nhiên, ông thường được coi là người am hiểu công nghệ và có tầm nhìn xa hơn những người tiền nhiệm.

Những nhận xét gần đây của Đức Thánh Cha Phanxicô được đưa ra sau một năm phản đối kịch liệt từ khắp nơi trên thế giới về những mối nguy hiểm tiềm ẩn của AI.

Các nhà lãnh đạo công nghệ, chẳng hạn như Giám đốc điều hành Tesla Elon Musk và đồng sáng lập Apple Steve Wozniak, đã bày tỏ lo ngại về tốc độ phát triển của AI. Nó đã thúc đẩy họ cùng hơn 2.600 nhà lãnh đạo và nhà nghiên cứu công nghệ ký đơn thỉnh cầu tạm dừng phát triển AI vào tháng 3 năm 2023, chia sẻ lo ngại rằng AI tiên tiến hơn GPT-4 có thể gây ra “rủi ro sâu sắc cho xã hội và nhân loại”.

Tổng thống Hoa Kỳ Joe Biden cũng bày tỏ quan ngại. Chính quyền của ông đã ban hành lệnh điều hành về “sự phát triển và sử dụng trí tuệ nhân tạo một cách an toàn, bảo mật và đáng tin cậy” vào cuối tháng 10 để giải quyết các rủi ro do AI gây ra.

Ngay cả các nhà làm phim và người nổi tiếng Hollywood cũng đang đưa ra quan điểm của mình về vấn đề này.

Vào tháng 7, nhà làm phim người Canada James Cameron cho biết ông đã cảnh báo về sự nguy hiểm của AI kể từ The Terminator , bộ phim do ông đạo diễn gần 40 năm trước.

Cameron nói với CTV News: “Tôi đã cảnh báo các bạn vào năm 1984 và các bạn không nghe.

“Tôi nghĩ việc vũ khí hóa AI là mối nguy hiểm lớn nhất […] Tôi nghĩ rằng chúng ta sẽ rơi vào tình trạng tương đương với một cuộc chạy đua vũ trang hạt nhân với AI, và nếu chúng ta không chế tạo nó, những kẻ khác chắc chắn sẽ làm như vậy.” xây dựng nó, và sau đó nó sẽ leo thang,” ông nói thêm.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Exit mobile version