Lưu trữ cho từ khóa: AI

Các nhà điều hành DeFi dự đoán DePIN và AI được định vị là “bộ đôi quyền lực” năm 2024

Công nghệ DePIN và AI đã được ca ngợi là những yếu tố thay đổi cuộc chơi trong nhiều ngành công nghiệp toàn cầu khác nhau và các giám đốc điều hành DeFi dự đoán rằng cùng nhau, chúng sẽ là “bộ đôi quyền lực” của năm nay.

Vào năm 2023, các mạng cơ sở hạ tầng vật lý phi tập trung (DePIN) bắt đầu thu hút được sự chú ý của các nhà sản xuất lớn trên toàn thế giới để tích hợp cơ sở hạ tầng thế giới vật lý với công nghệ blockchain.

DePIN là các giao thức blockchain sử dụng mã thông báo tiền điện tử để khuyến khích việc tạo và vận hành cơ sở hạ tầng vật lý theo cách phi tập trung. Nó ngày càng gắn liền với Internet of Things (IoT) .

Theo dữ liệu từ công ty tình báo tiếp thị tài sản kỹ thuật số Messari, thị trường DePIN hiện có mức định giá gần 2,2 nghìn tỷ USD, với quỹ đạo có thể đạt tới 3,5 nghìn tỷ USD trong 4 năm tới.

Công nghệ này đã tạo điều kiện thuận lợi cho sự phát triển như chuỗi khối Peaq Network mã hóa đội xe Tesla thông qua việc sử dụng công nghệ DePIN hoặc những nỗ lực gần đây của Bosch với Liên minh Châu Âu để xây dựng IoT phi tập trung.

Một số người thậm chí còn suy đoán rằng công nghệ DePIN sẽ là một trong những “khoản đầu tư tiền điện tử quan trọng nhất của thập kỷ này”. Tuy nhiên, sự xuất hiện và tích hợp rộng rãi của trí tuệ nhân tạo (AI) trong năm qua đã đặt ra câu hỏi về khả năng tương thích giữa hai công nghệ này.

Leonard Dorlöchter, Giám đốc điều hành của Peaq Network, nói với Cointelegraph rằng ông thấy lĩnh vực DePIN “sẽ nở rộ vào năm 2024”, vốn “vốn có liên quan đến sự bùng nổ AI”.

“Hãy nghĩ mà xem: AI cho phép máy móc hoạt động như các tác nhân kinh tế độc lập tạo ra giá trị trong thế giới thực và mô hình DePIN tạo ra khuôn khổ quyền sở hữu và phân phối giá trị cho điều đó, cho phép chủ sở hữu các thiết bị hỗ trợ AI kiếm tiền từ các hoạt động của họ.”

Dorlöchter gọi sự kết hợp DePIN/AI là “sự kết hợp tuyệt vời” và dự đoán năm 2024 sẽ là năm “thay đổi căn bản cách chúng ta quản lý và tương tác với các máy hỗ trợ AI”.

Hatu Sheikh, giám đốc tiếp thị của DAO Maker, cho biết DePIN và AI sẵn sàng trở thành “bộ đôi quyền lực” của năm 2024 vì chúng “bổ sung cho nhau theo cách hiệu quả nhất có thể”.

Sheikh đã chỉ ra cách DePIN nổi lên như một “giải pháp thay đổi cuộc chơi” nhằm giải quyết nhiều lỗi của các mô hình điện toán tập trung truyền thống để đạt được quy mô một cách an toàn.

Ông cho biết sức mạnh tính toán được tăng cường và tối ưu hóa mà DePIN cho phép sẽ phục vụ các thuật toán AI đòi hỏi lượng điện năng lớn.

“Một AI mạnh mẽ và tinh vi, được hỗ trợ bởi những khả năng nâng cao như vậy, sẵn sàng cách mạng hóa mọi ngành công nghiệp và lĩnh vực dịch vụ xung quanh chúng ta, bao gồm chăm sóc sức khỏe, sản xuất, tài chính và giải trí.”

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Ý coi quy định về AI là một trong những ưu tiên chính trong nhiệm kỳ chủ tịch G7

Thủ tướng Giorgia Meloni cho biết bà muốn tổ chức một phiên họp đặc biệt tập trung vào AI của các thành viên G7 trước hội nghị thượng đỉnh các nhà lãnh đạo đầu tiên dự kiến diễn ra vào tháng 6.

Ý, một trong những quốc gia châu Âu đầu tiên cấm chatbot phổ biến ChatGPT của OpenAI, sẽ đề cập đến chủ đề trí tuệ nhân tạo (AI) là một trong những ưu tiên của nhiệm kỳ chủ tịch Nhóm Bảy nước (G7), kéo dài từ tháng 1 đến tháng 12.

Vào ngày 4 tháng 12 năm 2023, Thủ tướng Ý Giorgia Meloni đã tổ chức một cuộc họp báo, trong đó bà vạch ra những ưu tiên chính của đất nước trong nhiệm kỳ chủ tịch G7 kéo dài 12 tháng. Chúng bao gồm hỗ trợ phát triển châu Phi, ủng hộ Ukraine và giải quyết các vấn đề xung quanh AI. Meloni nói về những thách thức do AI đặt ra:

“Tôi vô cùng lo ngại về tác động (của AI) đối với thị trường lao động […] Ngày nay chúng ta đang phải đối mặt với một cuộc cách mạng mà trí tuệ [con người] có nguy cơ bị thay thế.”

Trong khi Thủ tướng Ý không nói rõ những lo ngại cụ thể về AI, bà tiết lộ ý định tổ chức một phiên họp đặc biệt tập trung vào AI với các thành viên G7 trước hội nghị thượng đỉnh các nhà lãnh đạo đầu tiên vào tháng 6. Chủ đề về ảnh hưởng của AI đối với thị trường lao động đã khiến chính phủ Ý quan tâm một thời gian. Vào tháng 5 năm 2023, quốc gia này đã phân bổ 30 triệu euro (33 triệu USD) cho Fondo per la Repubblica Digitale (FRD) để nâng cao năng lực cho những người thất nghiệp và những người có công việc có nguy cơ bị tự động hóa và tiếp quản AI.

Vào tháng 3 năm 2023, Cơ quan bảo vệ dữ liệu của Ý đã ra lệnh giới hạn ngay lập tức việc xử lý dữ liệu đối với người dùng địa phương của OpenAI, công ty có trụ sở tại Hoa Kỳ đứng sau ChatGPT. Cơ quan này cũng lưu ý rằng thiếu cơ sở pháp lý để biện minh cho việc AI thu thập và lưu trữ hàng loạt dữ liệu cá nhân khi nó đào tạo các thuật toán của mình.

Lệnh cấm được dỡ bỏ một tháng sau đó khi ChatGPT đáp ứng được mọi yêu cầu. Tuy nhiên, vào tháng 11, Cơ quan bảo vệ dữ liệu Ý đã công bố khởi động một cuộc điều tra “tìm hiểu thực tế” , trong đó cơ quan này sẽ xem xét hoạt động thu thập dữ liệu để đào tạo các thuật toán trí tuệ nhân tạo (AI).

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

OpenAI ra mắt 'Nhóm chuẩn bị' cho sự an toàn của AI, đưa ra tiếng nói cuối cùng của hội đồng

OpenAI cho biết “Khuôn khổ chuẩn bị” mới của họ nhằm mục đích giúp bảo vệ khỏi “rủi ro thảm khốc” khi phát triển các hệ thống AI cấp cao.

Nhà phát triển trí tuệ nhân tạo (AI) OpenAI đã thông báo rằng họ sẽ triển khai “Khuôn khổ chuẩn bị”, bao gồm việc thành lập một nhóm đặc biệt để đánh giá và dự đoán rủi ro.

Vào ngày 18 tháng 12, công ty đã phát hành một bài đăng trên blog nói rằng “Nhóm Chuẩn bị” mới của họ sẽ là cầu nối kết nối các nhóm chính sách và an toàn làm việc trên OpenAI.

Nó cho biết các nhóm cung cấp gần như một hệ thống kiểu kiểm tra và cân bằng này sẽ giúp bảo vệ khỏi “những rủi ro thảm khốc” có thể do các mô hình ngày càng mạnh mẽ gây ra. OpenAI cho biết họ sẽ chỉ triển khai công nghệ của mình nếu nó được coi là an toàn.

Đề cương kế hoạch mới yêu cầu nhóm cố vấn mới xem xét các báo cáo an toàn, sau đó sẽ được gửi đến các giám đốc điều hành công ty và hội đồng quản trị OpenAI.

Trong khi các giám đốc điều hành chịu trách nhiệm về mặt kỹ thuật trong việc đưa ra các quyết định cuối cùng, kế hoạch mới cho phép hội đồng quản trị có quyền đảo ngược các quyết định về an toàn.

Điều này xảy ra sau khi OpenAI trải qua một loạt thay đổi vào tháng 11 với việc đột ngột sa thải và phục hồi chức vụ Giám đốc điều hành Sam Altman . Sau khi Altman gia nhập lại công ty, công ty đã đưa ra một tuyên bố nêu tên hội đồng quản trị mới, hiện bao gồm Bret Taylor làm chủ tịch, cũng như Larry Summers và Adam D’Angelo.

OpenAI ra mắt ChatGPT ra công chúng vào tháng 11 năm 2022 và kể từ đó, sự quan tâm đến AI ngày càng tăng cao, nhưng cũng có những lo ngại về những nguy hiểm mà nó có thể gây ra cho xã hội.

Vào tháng 7, các nhà phát triển AI hàng đầu, bao gồm OpenAI, Microsoft, Google và Anthropic, đã thành lập Diễn đàn Mô hình Biên giới, nhằm giám sát quá trình tự điều chỉnh trong việc tạo ra AI có trách nhiệm.

Tổng thống Hoa Kỳ Joe Biden đã ban hành một mệnh lệnh hành pháp vào tháng 10, đặt ra các tiêu chuẩn an toàn AI mới cho các công ty đang phát triển các mô hình cấp cao và việc triển khai chúng.

Trước lệnh điều hành của Biden, các nhà phát triển AI nổi tiếng, bao gồm cả OpenAI, đã được mời đến Nhà Trắng để cam kết phát triển các mô hình AI an toàn và minh bạch.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Giáo hoàng và cơ quan quản lý Mỹ cảnh báo rủi ro AI: Luật được giải mã

Người đứng đầu Giáo hội Công giáo cảnh báo nhân loại về mối nguy hiểm tiềm tàng của AI và giải thích những gì cần phải làm để kiểm soát nó.

Ngày nay, mọi người đều có quan điểm riêng về trí tuệ nhân tạo (AI) và những rủi ro tiềm ẩn của nó. Ngay cả Giáo hoàng Francis – người đứng đầu Giáo hội Công giáo – cũng đã cảnh báo nhân loại về những mối nguy hiểm tiềm tàng của AI và giải thích những gì cần phải làm để kiểm soát nó. Đức Thánh Cha muốn thấy một hiệp ước quốc tế quản lý AI để đảm bảo nó được phát triển và sử dụng một cách có đạo đức. Ông nói, nếu không, chúng ta có nguy cơ rơi vào vòng xoáy của “chế độ độc tài công nghệ”. Ông nói thêm , mối đe dọa của AI nảy sinh khi các nhà phát triển có “ham muốn lợi nhuận hoặc khao khát quyền lực” lấn át mong muốn tồn tại tự do và hòa bình.

Cảm giác tương tự cũng được bày tỏ bởi Hội đồng Giám sát Ổn định Tài chính (FSOC), bao gồm các cơ quan quản lý tài chính hàng đầu và do Bộ trưởng Tài chính Hoa Kỳ Janet Yellen làm chủ tịch. Trong báo cáo thường niên của mình, tổ chức này nhấn mạnh rằng AI tiềm ẩn những rủi ro cụ thể , chẳng hạn như rủi ro về an ninh mạng và mô hình. Nó đề nghị các công ty và cơ quan quản lý nâng cao kiến thức và khả năng của họ để giám sát sự đổi mới và sử dụng AI cũng như xác định các rủi ro mới nổi. Theo báo cáo, các công cụ AI cụ thể có tính kỹ thuật cao và phức tạp, đặt ra thách thức cho các tổ chức trong việc giải thích hoặc giám sát chúng một cách hiệu quả. Báo cáo cảnh báo rằng các công ty và cơ quan quản lý có thể bỏ qua các kết quả sai lệch hoặc không chính xác nếu không có sự hiểu biết toàn diện.

Ngay cả các thẩm phán ở Vương quốc Anh cũng đang cân nhắc những rủi ro khi sử dụng AI trong công việc của họ. Bốn thẩm phán cấp cao ở Anh đã ban hành hướng dẫn tư pháp cho AI, liên quan đến “việc sử dụng có trách nhiệm” của AI tại các tòa án và cơ quan xét xử. Hướng dẫn chỉ ra các trường hợp sử dụng AI có thể hữu ích, chủ yếu trong các khía cạnh quản trị như tóm tắt văn bản, viết bài thuyết trình và soạn email. Tuy nhiên, hầu hết các hướng dẫn đều cảnh báo các thẩm phán tránh sử dụng thông tin sai lệch được tạo ra thông qua các tìm kiếm và tóm tắt của AI, đồng thời cảnh giác với bất kỳ điều gì sai lệch do AI tạo ra dưới tên của họ. Đặc biệt không được khuyến khích sử dụng AI để nghiên cứu và phân tích pháp lý.

Tether tham gia FBI để chứng minh sự tuân thủ của mình

Tether, công ty đứng sau stablecoin Tether ( USDT ), đã tiết lộ những bức thư gửi tới các nhà lập pháp Hoa Kỳ giải quyết các yêu cầu can thiệp của Bộ Tư pháp (DOJ) về việc sử dụng bất hợp pháp stablecoin của họ. Các bức thư nhằm mục đích trả lời các cuộc gọi từ Thượng nghị sĩ Cynthia Lummis và Đại diện French Hill từ tháng 10, kêu gọi DOJ “đánh giá cẩn thận mức độ mà Binance và Tether đang cung cấp hỗ trợ vật chất và nguồn lực để hỗ trợ khủng bố”.

Tether tuyên bố rằng họ có chương trình Biết khách hàng của bạn, hệ thống giám sát giao dịch và “cách tiếp cận chủ động” để xác định các tài khoản và hoạt động đáng ngờ. Ngoài ra, Tether cho biết rằng việc đánh giá của khách hàng không kết thúc bằng việc đăng ký của họ và tuyên bố rằng họ sử dụng các công cụ giám sát giám sát để theo dõi hoạt động của khách hàng một cách liên tục. Công ty cũng tiết lộ rằng họ đã đưa Cục Điều tra Liên bang (FBI) vào nền tảng của mình như một phần trong nỗ lực hợp tác với cơ quan thực thi pháp luật.

Tiếp tục đọc

KuCoin sẽ cấm cư dân New York

Sàn giao dịch tiền điện tử KuCoin đã đồng ý trả 22 triệu đô la cho Bang New York và cấm cư dân bang sử dụng nền tảng của nó, theo quy định và lệnh đồng ý nộp lên Tòa án Tối cao New York. Ngoài ra, KuCoin “thừa nhận rằng nó tự đại diện là một ‘sàn giao dịch’ và không được đăng ký làm sàn giao dịch theo luật pháp của Bang New York.” Công ty đã đồng ý đóng tài khoản của tất cả người dùng cư trú tại New York trong vòng 120 ngày và ngăn chặn cư dân New York lấy tài khoản trong tương lai. Ngoài ra, nó sẽ hạn chế quyền truy cập rút tiền chỉ trong vòng 30 ngày, để lại 90 ngày còn lại để người dùng rút tiền.

Tiếp tục đọc

Bốn tội phạm tiền điện tử được liệt kê trong số các vụ án hàng đầu của IRS vào năm 2023

Đơn vị điều tra tội phạm của Sở Thuế vụ Hoa Kỳ đã liệt kê 4 trường hợp liên quan đến tiền điện tử trong số 10 “cuộc điều tra nổi bật và nổi bật nhất” vào năm 2023. Bốn trường hợp quan trọng vào năm 2023 liên quan đến việc thu giữ tiền điện tử, các hành vi lừa đảo, tiền bạc rửa tiền và các âm mưu khác. Tham gia vào cuộc điều tra cấp cao thứ ba trong năm qua là người đồng sáng lập OneCoin, Karl Sebastian Greenwood, người đã bị kết án 20 năm tù vào tháng 9 vì vai trò tiếp thị và bán một tài sản tiền điện tử lừa đảo.

Tiếp tục đọc

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Chính trị gia Hoa Kỳ sử dụng công cụ gọi chiến dịch AI trước cuộc bầu cử năm 2024: Báo cáo

Bot người gọi chiến dịch AI có tên Ashley và được đào tạo dựa trên dữ liệu internet, cho phép cô thực hiện vô số cuộc trò chuyện theo thời gian thực với cử tri.

Một nhà dân chủ Hoa Kỳ Shamaine Daniels đã tuyển dụng một tình nguyện viên chiến dịch trí tuệ nhân tạo (AI) để tranh cử vào Quốc hội trong cuộc bầu cử năm 2024 sắp tới.

Theo báo cáo từ Retuers, Daniels đang sử dụng “Ashley”, mà cô ấy nói là nhân viên ngân hàng qua điện thoại chính trị đầu tiên được hỗ trợ bởi công nghệ AI tổng hợp từ nhà phát triển Civox. Mặc dù những kẻ gọi tự động đã tồn tại được một thời gian nhưng không có phản hồi nào của Ashley được ghi lại trước.

Báo cáo cho biết cô ấy được xây dựng bằng công nghệ “tương tự” với công nghệ ChatGPT của OpenAI, cho phép Ashley có vô số cuộc trò chuyện trực tiếp, tùy chỉnh theo thời gian thực với cử tri.

Robot gọi điện AI đã tiếp cận hàng nghìn cử tri ở Pennsylvania với tư cách là một trong những tình nguyện viên trong chiến dịch tranh cử của Daniels.

Giám đốc điều hành của Civox Ilya Mouzykantskii dự đoán việc sử dụng tính năng gọi điện bằng AI sẽ “mở rộng quy mô nhanh chóng” và cho biết họ dự định thực hiện hàng chục nghìn cuộc gọi mỗi ngày vào cuối năm nay.

“Điều này sắp diễn ra trong cuộc bầu cử năm 2024 và nó đang diễn ra theo một cách rất lớn. … Tương lai là đây.”

Ashley được trao cho giọng nói giống như người máy và tiết lộ rằng cô ấy là robot AI khi nói chuyện với cử tri, mặc dù ở Mỹ không có yêu cầu pháp lý nào bắt cô ấy phải làm như vậy.

Civox chưa tiết lộ chính xác những mô hình AI tổng quát nào họ đang sử dụng, mặc dù họ cho biết họ đang sử dụng hơn 20 mô hình khác nhau, cả nguồn mở và độc quyền. Bot được đào tạo bằng cách sử dụng dữ liệu có sẵn trên internet.

Trước cuộc bầu cử năm 2024 ở Mỹ, việc sử dụng AI đã trở thành một chủ đề gây tranh cãi. Vào tháng 10, các thượng nghị sĩ Hoa Kỳ đã đề xuất một dự luật trừng phạt những người tạo ra hàng giả sâu do AI tạo ra trái phép .

Trước đó, các công ty phát triển công cụ AI cũng đã triển khai các biện pháp bảo vệ để ngăn chặn sự lan truyền thông tin giả mạo hoặc gây hiểu lầm. Google đã bắt buộc phải tiết lộ việc sử dụng AI trong các quảng cáo chiến dịch chính trị .

Trong khi đó, Meta, công ty mẹ của Instagram và Facebook, đã cấm sử dụng các công cụ tạo quảng cáo AI tổng quát cho các nhà quảng cáo chính trị vào đầu tháng 11.

Một nghiên cứu gần đây từ Trung tâm phân tích mối đe dọa của Microsoft, một đơn vị nghiên cứu của Microsoft, đã tiết lộ rằng việc sử dụng AI trên mạng xã hội có tiềm năng lớn tác động đến tâm lý của cử tri.

Một nghiên cứu khác ở châu Âu đã thử nghiệm chatbot Bing AI của Microsoft, hiện được đổi tên thành Copilot và phát hiện ra rằng nó tạo ra các câu trả lời sai về thông tin bầu cử trong 30% trường hợp.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

ChatGPT cho thấy những thành kiến về mặt địa lý trong các vấn đề công bằng môi trường: Báo cáo

Trong một nghiên cứu gần đây, người ta phát hiện ra rằng chatbot trí tuệ nhân tạo (AI) ChatGPT có những hạn chế trong việc cung cấp thông tin phù hợp với địa phương về các vấn đề công bằng môi trường.

Virginia Tech, một trường đại học ở Hoa Kỳ, đã xuất bản một báo cáo phác thảo những thành kiến tiềm ẩn trong công cụ trí tuệ nhân tạo (AI) ChatGPT, cho thấy sự khác biệt trong kết quả đầu ra của nó về các vấn đề công bằng môi trường ở các quận khác nhau.

Trong một báo cáo gần đây, các nhà nghiên cứu từ Virginia Tech đã cáo buộc rằng ChatGPT có những hạn chế trong việc cung cấp thông tin cụ thể theo khu vực liên quan đến các vấn đề công bằng môi trường.

Tuy nhiên, nghiên cứu đã xác định một xu hướng cho thấy thông tin có sẵn dễ dàng hơn ở các bang lớn hơn, đông dân hơn.

“Ở những bang có dân số thành thị lớn hơn như Delaware hay California, chưa đến 1% dân số sống ở các quận không thể nhận được thông tin cụ thể.”

Trong khi đó, những khu vực có dân số nhỏ hơn lại thiếu khả năng tiếp cận tương đương.

Báo cáo cho biết: “Ở các bang nông thôn như Idaho và New Hampshire, hơn 90% dân số sống ở các quận không thể nhận được thông tin cụ thể về địa phương”.

Nó còn trích dẫn thêm một giảng viên tên Kim từ Khoa Địa lý của Virginia Tech kêu gọi sự cần thiết phải nghiên cứu sâu hơn vì những định kiến đang được phát hiện.

Kim tuyên bố: “Mặc dù cần nhiều nghiên cứu hơn nhưng những phát hiện của chúng tôi cho thấy rằng những thành kiến về mặt địa lý hiện đang tồn tại trong mô hình ChatGPT”.

Bài viết nghiên cứu cũng bao gồm một bản đồ minh họa mức độ dân số Hoa Kỳ không được tiếp cận thông tin cụ thể theo vị trí về các vấn đề công bằng môi trường.

Bản đồ Hoa Kỳ hiển thị các khu vực nơi cư dân có thể xem (màu xanh) hoặc không thể xem (màu đỏ) thông tin cụ thể tại địa phương về các vấn đề công bằng môi trường. Nguồn: Virginia Tech

Điều này theo sau tin tức gần đây rằng các học giả đang phát hiện ra những thành kiến chính trị tiềm ẩn mà ChatGPT thể hiện trong thời gian gần đây.

Vào ngày 25 tháng 8, Cointelegraph đưa tin rằng các nhà nghiên cứu từ Vương quốc Anh và Brazil đã công bố một nghiên cứu tuyên bố các mô hình ngôn ngữ lớn (LLM) như văn bản đầu ra ChatGPT có chứa các lỗi và thành kiến có thể đánh lừa người đọc và có khả năng thúc đẩy các thành kiến chính trị do các phương tiện truyền thông truyền thống đưa ra .

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Hai cá nhân bị truy tố vì lừa đảo giao dịch tiền điện tử AI trị giá 25 triệu đô la: DOJ

Các bị cáo David Gilbert Saffron và Vincent Anthony Mazzotta Jr. bị cáo buộc đã lôi kéo tiền gửi của người dùng để đầu tư và sử dụng chúng cho các chi tiêu cá nhân xa hoa.

Bộ Tư pháp Hoa Kỳ (DOJ) đã truy tố hai cá nhân vì cáo buộc điều hành chương trình Ponzi giao dịch tiền điện tử trí tuệ nhân tạo (AI) trị giá 25 triệu đô la.

Theo thông báo ngày 12 tháng 12, David Gilbert Saffron, công dân Úc và Vincent Anthony Mazzotta Jr., cư dân Los Angeles, bị cáo buộc điều hành các chương trình giao dịch “đã hứa sai rằng sẽ sử dụng bot giao dịch tự động có trí tuệ nhân tạo để giao dịch các khoản đầu tư của nạn nhân vào thị trường tiền điện tử và kiếm tiền.” lợi nhuận cao.”

Tuy nhiên, sau khi nhận được tiền đặt cọc của người dùng, hai cá nhân này bị cáo buộc đã chi tiền cho “các chuyến bay phản lực tư nhân, chỗ ở khách sạn sang trọng, thuê biệt thự riêng, đầu bếp riêng và nhân viên bảo vệ riêng”.

Các bị cáo cũng bị buộc tội che giấu các khoản đầu tư tiền điện tử của nạn nhân thông qua hoán đổi giữa các chuỗi và sử dụng máy trộn tiền điện tử để trốn tránh bị phát hiện. Chương trình này hoạt động dưới nhiều tên khác nhau, chẳng hạn như Circle Society, Bitcoin Wealth Management, Omicron Trust, Mind Capital, Federal Crypto Reserve và Cloud9Capital.

“Saffron và Mazzotta bị buộc tội âm mưu phạm tội lừa đảo qua đường dây, lừa đảo qua đường dây, âm mưu cản trở công lý, âm mưu phạm tội rửa tiền và rửa tiền. Saffron cũng bị cáo buộc đã phạm trọng tội khi được trả tự do trước khi xét xử.”

Kể từ lệnh trừng phạt năm ngoái đối với máy trộn tiền điện tử Tornado Cash, DOJ Hoa Kỳ đã tập trung rộng rãi vào việc thúc đẩy sự tuân thủ của các thực thể blockchain. Vào ngày 9 tháng 12, DOJ đã tiết lộ các phương pháp giám sát việc tuân thủ của sàn giao dịch tiền điện tử Binance kể từ khi giải quyết 4,3 tỷ USD cho hoạt động rửa tiền và vi phạm lệnh trừng phạt của Hoa Kỳ.

Một số bộ phận trong bộ phận hình sự của DOJ sẽ giám sát chặt chẽ các hoạt động của sàn giao dịch, bao gồm bộ phận rửa tiền và thu hồi tài sản, bộ phận an ninh quốc gia, bộ phận phản gián và kiểm soát xuất khẩu, và văn phòng Luật sư Hoa Kỳ của Quận phía Tây Washington. .

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Robot hình người của Tesla hiện nhanh hơn 30%, nhẹ hơn 22 pound

Giám đốc điều hành Tesla, Elon Musk, đã tiết lộ nguyên mẫu mới của robot hình người, Optimus Gen 2. Nó có thể nhảy và tập squat.

Elon Musk, CEO của Tesla và chủ tịch điều hành của X (trước đây là Twitter), đã tiết lộ nguyên mẫu mới của robot hình người của Tesla, Optimus, nhẹ hơn và nhanh hơn các phiên bản trước. Musk đã chia sẻ video giới thiệu về Optimus Gen 2 thông qua tài khoản X của mình vào ngày 13 tháng 12.

Theo video, robot mới nhẹ hơn 22 pound so với Optimus Gen 1, trong khi cấu trúc bàn chân của nó mô phỏng giải phẫu con người, cải thiện khả năng giữ thăng bằng của máy và khả năng kiểm soát toàn bộ cơ thể. Optimus Gen 2 thực hiện một số động tác squat trong video để minh họa.

Máy có cảm biến xúc giác trên tất cả các ngón tay và có thể thao tác với các vật thể mỏng manh, được minh họa khi nó nhặt một quả trứng lên rồi đặt lại.

Nguyên mẫu Optimus đầu tiên của Tesla xuất hiện vào năm 2022. Robot ban đầu hầu như không thể bước về phía trước và có thể nhìn thấy bên trong của nó. Một phiên bản khác cần sự hỗ trợ từ các nhân viên để đứng vững. Vào mùa xuân năm 2023, Musk xuất bản một đoạn video về thế hệ robot tiếp theo do Tesla sản xuất đi lại tương đối tự do, lấy đồ vật từ thùng này và đặt chúng vào thùng khác.

Musk đã nhiều lần kêu gọi giám sát chặt chẽ hơn về trí tuệ nhân tạo (AI), tin rằng nó có thể “thông minh hơn tất cả con người về mọi mặt” trong tương lai.

Vào tháng 12, doanh nhân này tuyên bố rằng một “thần kỹ thuật số” sẽ khiến các vụ kiện bản quyền liên quan đến AI trở nên vô nghĩa . Trước đây, Musk đã dự đoán trí thông minh nhân tạo sẽ xuất hiện trước năm 2030, một ước tính mà nhiều chuyên gia trong ngành cho rằng là quá lạc quan.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Microsoft hợp tác với tổ chức lao động Hoa Kỳ để thúc đẩy phát triển AI tập trung vào người lao động

Sự hợp tác này sẽ ưu tiên quyền của người lao động và kết hợp ý kiến đóng góp của các nhà lãnh đạo lao động trong việc phát triển công nghệ.

Gã khổng lồ công nghệ Microsoft và Liên đoàn Lao động và Đại hội các tổ chức công nghiệp Hoa Kỳ (AFL-CIO) đã công bố mối quan hệ đối tác mới để thảo luận về cách trí tuệ nhân tạo (AI) có thể dự đoán nhu cầu của người lao động và đưa tiếng nói của họ vào quá trình phát triển và triển khai.

Theo AFL-CIO, mục tiêu của thỏa thuận bao gồm chia sẻ thông tin giữa các lãnh đạo lao động và người lao động về xu hướng AI, kết hợp quan điểm và kiến thức chuyên môn của người lao động trong việc phát triển AI, đồng thời giúp định hình chính sách công hỗ trợ các kỹ năng và nhu cầu công nghệ của người lao động tuyến đầu.

Chủ tịch Microsoft Brad Smith cho biết thỏa thuận này bao gồm nỗ lực hợp tác với các lãnh đạo lao động để đảm bảo AI mang lại lợi ích cho người lao động. Chủ tịch AFL-CIO Liz Shuler coi khuôn khổ trung lập và sự thừa nhận về chuyên môn của người lao động của Microsoft là tín hiệu cho thấy kỷ nguyên AI có thể thúc đẩy quan hệ đối tác quản lý lao động hiệu quả.

Vào năm 2022, Microsoft đã ký một thỏa thuận tương tự với Công nhân Truyền thông Hoa Kỳ, tập trung vào việc bảo vệ quyền tổ chức và thương lượng tập thể của người lao động tại Activision Blizzard. Vào thời điểm đó, gã khổng lồ công nghệ đang trong quá trình hoàn tất việc mua lại nhà sản xuất trò chơi điện tử.

Microsoft đã đầu tư 13 tỷ USD vào OpenAI – công ty AI phi lợi nhuận có trụ sở tại Hoa Kỳ đã tạo ra ChatGPT – và nắm giữ 49% cổ phần sở hữu. Tuy nhiên, nó không có quyền biểu quyết và tuyên bố không có quyền kiểm soát hoạt động đối với công ty. Microsoft cũng đã phát triển một nền tảng AI tổng quát, Azure, khai thác các sản phẩm GPT của OpenAI để mở rộng chức năng của nó.

Người lao động ở nhiều ngành công nghiệp đã bày tỏ lo ngại về tác động tiềm tàng của AI đối với công việc của họ. Trong lĩnh vực giải trí, các diễn viên Hollywood đã đình công vào tháng 7 để phản đối đề xuất AI của Liên minh các nhà sản xuất điện ảnh và truyền hình. Đề xuất ủng hộ những người thực hiện quét nền, trả thù lao cho họ trong một ngày và cấp cho các công ty toàn quyền sở hữu bản quét, hình ảnh và chân dung.

Sự xuất hiện của AI tạo sinh đã làm dấy lên mối lo ngại về tiềm năng tác động đáng kể của nó đến thị trường việc làm. Vào tháng 5, IBM ước tính AI có thể thay thế khoảng 7.800 việc làm tại công ty trong vòng 5 năm. Elon Musk, Giám đốc điều hành của SpaceX và xAI, còn đi xa hơn khi dự đoán rằng AI có thểloại bỏ hoàn toàn sự cần thiết của lực lượng lao động hiện đại .

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo CoinTelegraph

Exit mobile version