Lưu trữ cho từ khóa: AI

IBM mang điện toán lượng tử 'quy mô tiện ích' đến Nhật Bản khi Trung Quốc và Châu Âu đấu tranh để cạnh tranh

Các chuyên gia dự đoán lĩnh vực điện toán lượng tử toàn cầu sẽ tăng từ khoảng 930 triệu USD vào năm 2023 lên 6,5 tỷ USD vào năm 2030, nhưng một số thị trường toàn cầu có thể sẵn sàng tăng trưởng tốt hơn những thị trường khác.

IBM đã công bố hoàn thành việc lắp đặt hệ thống điện toán lượng tử 127 qubit tại Đại học Tokyo vào ngày 27 tháng 11. Theo công ty, điều này đánh dấu sự xuất hiện của hệ thống lượng tử “quy mô tiện ích” đầu tiên trong khu vực.

Hệ thống này được IBM mệnh danh là “Hệ thống lượng tử số một” và có bộ xử lý Eagle của công ty, được lắp đặt như một phần của mối quan hệ hợp tác nghiên cứu đang diễn ra giữa Nhật Bản và IBM. Theo một bài đăng trên blog của IBM, nó sẽ được sử dụng để tiến hành nghiên cứu trong nhiều lĩnh vực khác nhau bao gồm tin sinh học, khoa học vật liệu và tài chính.

Per Hiroaki Aihara, Phó chủ tịch điều hành, Đại học Tokyo:

“Lần đầu tiên bên ngoài Bắc Mỹ, một máy tính lượng tử với bộ xử lý 127 qubit hiện đã có sẵn để sử dụng độc quyền cho các thành viên QII. … Bằng cách thúc đẩy nghiên cứu trong nhiều lĩnh vực và hiện thực hóa việc triển khai xã hội các công nghệ liên quan đến lượng tử, chúng tôi mong muốn đóng góp rộng rãi cho một xã hội tương lai với sự đa dạng và hy vọng.”

Trong khi Nhật Bản và Đại học Tokyo gặt hái những lợi ích khi hợp tác với đối tác điện toán lượng tử của Hoa Kỳ, thì công ty công nghệ lớn thứ hai của Trung Quốc, Alibaba, đã quyết định đóng cửa phòng thí nghiệm điện toán lượng tử của riêng mình và được cho là sẽ tặng thiết bị của mình cho Đại học Chiết Giang.

Các phương tiện truyền thông địa phươngcho biết động thái của Alibaba là một biện pháp cắt giảm chi phí và hàng chục nhân viên liên quan đến phòng thí nghiệm nghiên cứu lượng tử đã bị sa thải. Điều này diễn ra sau việc hủy bỏ kế hoạch phát triển điện toán đám mây vào đầu tháng này, với việc Alibaba tuyên bố rằng lệnh cấm xuất khẩu một phần chip máy tính của Hoa Kỳ sang Trung Quốc đã góp phần gây ra “sự không chắc chắn”.

Theo ước tính từ Fortune Business Insights, lĩnh vực điện toán lượng tử dự kiến sẽ tăng hơn 5,5 tỷ USD từ năm 2023 đến năm 2030. Điều này khiến một số chuyên gia lo lắng về tình trạng nghiên cứu điện toán lượng tử ở các khu vực ngoài Mỹ và Trung Quốc.

Koen Bertels, người sáng lập máy gia tốc điện toán lượng tử QBee và là giáo sư tại Đại học Ghent ở Bỉ, gần đây cho rằng châu Âu đã thua trong cuộc đua AI và không thể thua trong lĩnh vực điện toán lượng tử.

Bertels viết: “Ngoài việc bị tụt hậu về tài chính, nhân tài và chiến lược, châu Âu không chỉ đang cạnh tranh với Mỹ”.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Hoa Kỳ, Anh và các quốc gia khác ký kết hướng dẫn AI 'an toàn theo thiết kế'

Các hướng dẫn đề xuất các biện pháp thực hành an ninh mạng mà các công ty AI nên thực hiện khi thiết kế, phát triển, triển khai và giám sát các mô hình AI.

Hoa Kỳ, Vương quốc Anh, Úc và 15 quốc gia khác đã đưa ra các hướng dẫn toàn cầu nhằm giúp bảo vệ các mô hình AI khỏi bị giả mạo, đồng thời kêu gọi các công ty làm cho mô hình của họ “an toàn theo thiết kế”.

Vào ngày 26 tháng 11, 18 quốc gia đã phát hành một tài liệu dài 20 trang nêu rõ cách các công ty AI nên xử lý an ninh mạng của họ khi phát triển hoặc sử dụng các mô hình AI, vì họ tuyên bố “bảo mật thường có thể là yếu tố cần cân nhắc thứ yếu” trong ngành có nhịp độ phát triển nhanh.

Các hướng dẫn này hầu hết bao gồm các khuyến nghị chung như duy trì sự kiểm soát chặt chẽ đối với cơ sở hạ tầng của mô hình AI, giám sát mọi hành vi giả mạo đối với các mô hình trước và sau khi phát hành cũng như đào tạo nhân viên về các rủi ro an ninh mạng.

Không được đề cập đến một số vấn đề gây tranh cãi nhất định trong không gian AI, bao gồm cả những biện pháp kiểm soát có thể có xung quanh việc sử dụng mô hình tạo hình ảnh và các phương pháp giả mạo hoặc thu thập dữ liệu sâu cũng như sử dụng trong các mô hình đào tạo – một vấn đề đã khiến nhiều công ty AI bị kiện vì vi phạm bản quyền yêu sách.

Bộ trưởng An ninh Nội địa Hoa Kỳ Alejandro Mayorkas cho biết trong một tuyên bố: “Chúng ta đang ở thời điểm bước ngoặt trong quá trình phát triển trí tuệ nhân tạo, đây có thể là công nghệ có ảnh hưởng lớn nhất trong thời đại chúng ta”. “An ninh mạng là chìa khóa để xây dựng các hệ thống AI an toàn, bảo mật và đáng tin cậy”.

Các hướng dẫn này tuân theo các sáng kiến khác của chính phủ liên quan đến AI, bao gồm cả chính phủ và các công ty AI họp tại Hội nghị thượng đỉnh về an toàn AI ở London vào đầu tháng này để điều phối một thỏa thuận về phát triển AI.

Trong khi đó, Liên minh Châu Âu đang công bố chi tiết về Đạo luật AI sẽ giám sát không gian và Tổng thống Hoa Kỳ Joe Biden đã ban hành lệnh hành pháp vào tháng 10 nhằm đặt ra các tiêu chuẩn về an toàn và bảo mật AI – mặc dù cả hai đều nhận thấy sự phản đối từ ngành AI khi tuyên bố rằng họ có thể kìm hãm sự đổi mới.

Các nước đồng ký kết hướng dẫn “an toàn theo thiết kế” mới bao gồm Canada, Pháp, Đức, Israel, Ý, Nhật Bản, New Zealand, Nigeria, Na Uy, Hàn Quốc và Singapore. Các công ty AI, bao gồm OpenAI, Microsoft, Google, Anthropic và Scal AI, cũng góp phần phát triển các hướng dẫn.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Thống đốc California kêu gọi đào tạo AI toàn tiểu bang

Trong một báo cáo gần đây, Thống đốc California Gavin Newsom nhấn mạnh tầm quan trọng của việc chuẩn bị cho thế hệ tiếp theo những kỹ năng cần thiết để phát triển mạnh trong nền kinh tế GenAI.

Thống đốc California Gavin Newsom đã nhấn mạnh tầm quan trọng của việc mọi người luôn đi đầu trong lĩnh vực trí tuệ nhân tạo tổng hợp (GenAI) bằng cách tiếp thu các kỹ năng mới và làm quen với công nghệ mới nổi.

Như đã nêu trong báo cáo , có đề xuất rằng cư dân California nên được tiếp cận các cơ hội giáo dục và đào tạo về GenAI, lưu ý:

“Để hỗ trợ lực lượng lao động chính quyền tiểu bang California và chuẩn bị cho thế hệ kỹ năng tiếp theo cần thiết để phát triển trong nền kinh tế GenAI, các cơ quan sẽ cung cấp đào tạo cho nhân viên chính phủ tiểu bang cách sử dụng GenAI đã được tiểu bang phê duyệt để đạt được kết quả công bằng.”

Nó tuyên bố rằng điều này được coi là cần thiết để ứng phó với tác động việc làm đáng chú ý được chỉ ra bởi các báo cáo gần đây về GenAI.

Báo cáo trích dẫn dự báo của Goldman Sachs, chỉ ra rằng GenAI dự kiến sẽ ảnh hưởng đến 300 triệu việc làm trên toàn thế giới, bất chấp khả năng đạt được mức tăng năng suất tiềm năng.

“Do đó, Tiểu bang phải dẫn đầu trong việc đào tạo và hỗ trợ người lao động, cho phép họ tham gia vào nền kinh tế AI và tạo ra nhu cầu cho các doanh nghiệp đặt trụ sở và tuyển dụng tại California,” nó lưu ý.

Nó cũng tuyên bố thêm rằng các sáng kiến giáo dục GenAI nên bắt đầu tại các cơ sở giáo dục đại học và trường dạy nghề.

Gần đây đã có một số báo cáo về tác động tiềm tàng của AI đối với việc làm trong nền kinh tế toàn cầu.

Vào ngày 12 tháng 7, Tổ chức Hợp tác và Phát triển Kinh tế (OECD) đã công bố một báo cáo phác thảo những công việc có nguy cơ cao nhất về AI.

Nghiên cứu tiếp tục coi “những công việc cổ trắng, kỹ năng cao” là những công việc tiếp xúc nhiều nhất với AI.

Hơn nữa, các biện pháp đo lường mức độ tiếp xúc với AI cho thấy các công cụ hiện có đã cho thấy sự tiến bộ nhất trong các lĩnh vực đòi hỏi “các nhiệm vụ nhận thức, không thường xuyên như sắp xếp thông tin, ghi nhớ và tốc độ nhận thức”.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

Chính phủ Ấn Độ chuẩn bị đưa ra các quy tắc chống lại mối đe dọa deepfake

Trong cuộc trò chuyện với các bên liên quan, Bộ trưởng Ashwini Vaishnaw đặt mục tiêu hoàn thiện các quy định về deepfake AI của chính phủ Ấn Độ trong những tuần tới.

Ấn Độ đang xây dựng các quy định để giám sát deepfake, Bộ trưởng Đường sắt, Truyền thông, Điện tử và Công nghệ thông tin Ashwini Vaishnaw cho biết vào ngày 23 tháng 11, mở rộng tuyên bố của Thủ tướng Narendra Modi một ngày trước đó về những lo ngại của ông về công nghệ.

Theo báo cáo của Reuters, trong các cuộc thảo luận với các học giả, hiệp hội ngành nghề và các công ty truyền thông xã hội, Vaishnaw cho biết chính phủ Ấn Độ đặt mục tiêu hoàn thành việc soạn thảo các quy định trong những tuần tới.

Deepfakes là các video hoặc bản ghi âm do trí tuệ nhân tạo (AI) tạo ra thực tế và thường có tính thuyết phục nhằm thao túng hoặc thay thế hình ảnh và giọng nói của một người trong video hoặc clip âm thanh hiện có. Trong những bình luận ban đầu tại hội nghị thượng đỉnh ảo G20, ông Modi đã kêu gọi các nhà lãnh đạo quốc tế hợp tác trong việc quản lý AI và bày tỏ lo lắng về những tác động bất lợi của deepfake đối với xã hội.

Trong báo cáo, Vaishnaw cho biết quy trình soạn thảo quy định sẽ xem xét các hình phạt đối với cá nhân tải nội dung lên và nền tảng mạng xã hội nơi nội dung đó được đăng. Sự phát triển này xảy ra khi các quốc gia trên toàn cầu đang nỗ lực thiết lập các quy định để quản lý AI.

Vào tháng 10, Tổng thống Hoa Kỳ Joe Biden đã ký một sắc lệnh hành pháp yêu cầu các nhà phát triển hệ thống AI gây rủi ro cho an ninh quốc gia, nền kinh tế, sức khỏe cộng đồng hoặc an toàn của Hoa Kỳ phải chia sẻ kết quả kiểm tra an toàn với chính phủ Hoa Kỳ trước khi chúng được công bố rộng rãi. .

Liên Hợp Quốc cũng đã thành lập một cơ quan cố vấn gồm 39 thành viên để giải quyết các thách thức quản trị trong lĩnh vực AI và các nhà lập pháp châu Âu đã soạn thảo các quy tắc dự thảo để có thể phê duyệt vào tháng tới. Vào tháng 11, Cơ quan Tình báo An ninh Canada – cơ quan tình báo quốc gia chính của Canada – đã nêu lên mối lo ngại về các chiến dịch thông tin sai lệch được thực hiện trên internet bằng cách sử dụng các kỹ thuật deepfake AI.

Vào tháng 8, cảnh sát Trung Quốc đã công bố giám sát chặt chẽ hơn lĩnh vực Web3 , với Jinfeng Sun, chính ủy của Cục An ninh Mạng, tiết lộ rằng đã có 79 trường hợp gian lận liên quan đến deepfake AI, chẳng hạn như mạo danh thông qua hoán đổi khuôn mặt kỹ thuật số, dẫn đến bắt giữ 515 cá nhân

Theo Cointelegraph

Liên minh công nghệ EU cảnh báo về việc quản lý AI quá mức trước khi hoàn tất Đạo luật AI của EU

Một nhóm gồm 33 doanh nghiệp và công ty công nghệ đã ký một bức thư chung gửi các cơ quan quản lý EU kêu gọi họ không quản lý quá mức các công nghệ AI mới nổi với cái giá phải trả là đổi mới.

Một nhóm doanh nghiệp và công ty công nghệ đã gửi một lá thư chung tới các cơ quan quản lý của Liên minh Châu Âu để cảnh báo về việc quản lý quá mức các hệ thống trí tuệ nhân tạo (AI) mạnh mẽ gây tổn hại cho sự đổi mới.

Bức thư , được gửi vào ngày 23 tháng 11 và có chữ ký của 33 công ty làm việc tại EU, nhấn mạnh rằng các quy định quá nghiêm ngặt đối với các mô hình nền tảng như ChatGPT của OpenAI và AI đa năng (GPAI) có thể thúc đẩy sự đổi mới cần thiết trong khu vực.

Nó nhấn mạnh dữ liệu cho thấy chỉ 8% công ty ở châu Âu sử dụng AI, không đạt gần với mục tiêu 75% của Ủy ban châu Âu vào năm 2030. Ngoài ra, chỉ có 3%kỳ lân AI trên thế giới đến từ EU.

“Khả năng cạnh tranh và ổn định tài chính của Châu Âu phụ thuộc nhiều vào khả năng của các công ty và công dân Châu Âu trong việc triển khai AI trong các lĩnh vực quan trọng như công nghệ xanh, y tế, sản xuất hoặc năng lượng.”

Các công ty nhấn mạnh rằng để châu Âu phát triển thành một “cường quốc kỹ thuật số toàn cầu”, họ cần các công ty dẫn đầu về AI thông qua các mô hình nền tảng và GPAI – hai công nghệ AI đang được xem xét kỹ lưỡng trong luật pháp sắp tới của EU.

“Chúng ta đừng loại bỏ chúng trước khi chúng có cơ hội mở rộng quy mô hoặc buộc chúng phải rời đi.”

Ngoài việc nhấn mạnh tầm quan trọng của việc không quản lý quá mức công nghệ, các công ty còn đề xuất giải pháp cho các nhà lãnh đạo EU.

Các đề xuất bao gồm giảm chi phí tuân thủ cho các công ty, tập trung vào việc điều chỉnh các trường hợp sử dụng có rủi ro cao chứ không phải các công nghệ cụ thể, đồng thời làm rõ những điểm chồng chéo trong luật hiện hành.

Sự phát triển này diễn ra khi EU đang nỗ lực hoàn thiện Đạo luật AI của EU mang tính bước ngoặt, ban đầu được thông qua vào tháng 6 và hiện đang được các quốc gia thành viên xem xét và sửa đổi.

Ngay sau khi đạo luật ban đầu được thông qua, một lá thư khác đã được ký bởi 160 giám đốc điều hành trong ngành công nghệ , cảnh báo các quan chức EU về tác động của các quy định AI quá nghiêm ngặt.

Theo Cointelegraph

Hồng Kông sử dụng AI để chống lại siêu vi khuẩn và kê đơn thuốc kháng sinh quá mức

Đại dịch COVID-19 đã làm tăng đáng kể số lượng đơn thuốc kháng sinh phổ rộng, dẫn đến sự phát triển tình trạng kháng kháng sinh ở các siêu vi khuẩn.

Cơ quan Quản lý Bệnh viện Hồng Kông đang lên kế hoạch giải quyết sự gia tăng đáng chú ý của hai loại siêu vi khuẩn – cầu khuẩn đường ruột kháng vancomycin và Candida auris – với sự trợ giúp của trí tuệ nhân tạo (AI).

Theo báo cáo ngày 24 tháng 11 của South China Morning Post trích dẫn cơ quan chức năng, sự gia tăng tỷ lệ phổ biến của các sinh vật đa kháng thuốc, hay siêu vi khuẩn, trên đảo xảy ra do sự phân bổ lại các nguồn lực nhằm chống lại đại dịch COVID-19 trong quá khứ. ba năm. Tiến sĩ Raymond Lai, giám đốc kiểm soát nhiễm trùng của cơ quan, nói với các nhà báo:

“Một số lượng đáng kể các khu cách ly đã được phân bổ cho bệnh nhân Covid-19, khiến có ít khu cách ly hơn dành cho những người bị nhiễm MDRO.”

Đại dịch COVID-19 cũng làm tăng đáng kể số lượng đơn thuốc kháng sinh phổ rộng, dẫn đến sự phát triển tình trạng kháng kháng sinh ở các siêu vi khuẩn. Theo cơ quan chức năng, tỷ lệ kháng kháng sinh của cầu khuẩn cầu khuẩn kháng vancomycin đã tăng từ 0,22% vào năm 2021 lên 1,2% vào năm 2023. Số bệnh nhân mang vi sinh vật này đã tăng từ dưới 40 vào năm 2021 lên khoảng 140 vào cuối tháng 9 năm 2023.

Được phát hiện ở Hồng Kông vào năm 2019, số người mang mầm bệnh Candida auris đã gia tăng, từ gần 200 vào năm 2020 lên hơn 300 vào ngày 31 tháng 10 năm 2023. Lai cảnh báo rằng khoảng 10% số người mang loại nấm này có thể tiến triển thành nhiễm trùng xâm lấn , có nguy cơ tử vong từ 53% đến 83,3%.

Để giải quyết vấn đề này, vào tháng 1 năm 2024, Cơ quan Quản lý Bệnh viện sẽ triển khai thí điểm AI tại Bệnh viện Prince of Wales ở Bệnh viện Sha Tin và Princess Margaret ở Kwai Chung. AI sẽ phân tích dữ liệu lâm sàng để xác định sự cần thiết của việc kê đơn thuốc kháng sinh. Nó sẽ bắt đầu từ một loại kháng sinh phổ biến duy nhất và sau đó mở rộng sang 8 loại khác và 17 bệnh viện công.

Đây không phải là lần đầu tiên AI được sử dụng để chống lại vấn đề kháng kháng sinh. Vào tháng 5 năm 2023, AI đã giúp các nhà nghiên cứu của Viện Công nghệ Massachusetts và Đại học McMaster xác định một loại kháng sinh mới có thể tiêu diệt vi khuẩn gây ra nhiều bệnh nhiễm trùng kháng thuốc, Acinetobacter baumannii.

TheoCointelegraph

NITDA của Nigeria ủng hộ việc tích hợp AI trong thanh toán để được công nhận toàn cầu

Giám đốc NITDA Kashifu Inuwa Abdullahi cho biết điều quan trọng là phải thực hiện các biện pháp chủ động để khai thác lợi ích của AI và giảm thiểu các mối đe dọa.

Trong nỗ lực nhằm nâng cao sự công nhận toàn cầu và sử dụng Hệ thống thanh toán Nigeria trong nước, tổng giám đốc (DG) của Cơ quan Phát triển Công nghệ Thông tin Quốc gia (NITDA), Kashifu Inuwa Abdullahi, đã nhấn mạnh tầm quan trọng của sự hợp tác giữa NITDA, Ngân hàng Trung ương của Nigeria (CBN) và các tổ chức tài chính.

Trong một cuộc phỏng vấn với Cointelegraph tại chương trình Rút lui của Bộ phận Quản lý Hệ thống Thanh toán năm 2023 của CBN, Inuwa cho biết sự hợp tác là cần thiết để tận dụng các công nghệ mới nổi như trí tuệ nhân tạo (AI) và phân tích dữ liệu để tăng cường thanh toán kỹ thuật số.

Inuwa cho biết công nghệ tài chính (fintech) đã cho thấy nó có thể giúp thúc đẩy hiệu suất của Nigeria trong các lĩnh vực công nghiệp và môi trường, xã hội và quản trị, đặc biệt là với việc áp dụng phương pháp tiếp cận quy định phát triển và tạo điều kiện cho các chính sách do hệ sinh thái công nghệ đồng tạo ra.

Hình ảnh Tổng giám đốc Cơ quan Phát triển Công nghệ Thông tin Quốc gia Kashifu Inuwa Abdullahi.

Inuwa cho biết điều quan trọng là phải thực hiện các biện pháp có chủ ý để thu được lợi ích và ngăn chặn các mối đe dọa sắp xảy ra của AI, đồng thời ông nhấn mạnh rằng NITDA sẽ hợp tác với CBN, cũng như với những tổ chức khác, trong việc điều chỉnh không gian AI. Ông nói thêm rằng nếu CBN áp dụng một công nghệ cụ thể thì khả năng phát triển nhanh chóng là rất cao.

Khi được hỏi về chiến lược của Nigeria xung quanh các cơ hội và mối đe dọa do trí tuệ nhân tạo gây ra, Inuwa giải thích rằng chính phủ liên bang đã ghi nhận quỹ đạo của các mô hình AI, vốn chứng kiến tỷ lệ tăng trưởng chuyển từ tuyến tính sang hình học. Ông nói thêm rằng chính phủ trước đây đã bắt đầu thực hiện chính sách trí tuệ nhân tạo thông qua cơ quan này và chính sách này sẽ sớm được công bố ra công chúng.

Chính sách AI này sẽ đóng vai trò là nền tảng để phác thảo các quy tắc và các cơ quan như NITDA, được giao nhiệm vụ thực hiện, sẽ thảo luận về các chiến lược, khuôn khổ và hướng dẫn để áp dụng và triển khai trí tuệ nhân tạo. Inuwa lưu ý:

“Mặc dù trí tuệ nhân tạo thường được coi là con dao hai lưỡi, tiềm năng và lợi ích là hữu hình nhưng không phải là không có nhiều mối đe dọa, và điều đó ngoài những thành kiến rất nhiều, tuy nhiên, cách tiếp cận quy định của chúng tôi luôn không ngăn cản sự đổi mới. .”

Inuwa, trong khi trích dẫn danh sách các chính sách khác của chính phủ liên bang đối với ngành, tuyên bố rằng các sáng kiến này thân thiện với hệ sinh thái khởi nghiệp.

Bộ trưởng Bộ Truyền thông, Đổi mới và Kinh tế Kỹ thuật số Nigeria, Bosun Tijani, gần đây đã công bố chương trình 3 triệu tài năng kỹ thuật (3MTT). Điều này nhằm mục đích mang lại cho hơn 1 triệu người đăng ký cơ hội tham gia khóa học AI cơ bản .

Theo Cointelegraph

Cơ quan quản lý Ý điều tra việc thu thập dữ liệu AI trực tuyến

Cơ quan bảo vệ dữ liệu Ý đã triển khai một cuộc thăm dò “tìm hiểu thực tế” về các hoạt động bảo mật của các trang web công cộng và tư nhân nhằm ngăn chặn việc thu thập dữ liệu AI.

Cơ quan bảo vệ dữ liệu Ý, cơ quan quản lý quyền riêng tư địa phương, đã công bố khởi động một cuộc điều tra “tìm hiểu thực tế” vào ngày 22 tháng 11, trong đó cơ quan này sẽ xem xét hoạt động thu thập dữ liệu để đào tạo các thuật toán trí tuệ nhân tạo (AI).

Cuộc điều tra nhằm mục đích xác minh việc áp dụng các biện pháp bảo mật thích hợp trên các trang web công cộng và tư nhân để ngăn chặn việc “quét web” dữ liệu cá nhân được sử dụng để đào tạo AI thông qua các bên thứ ba từ “những con nhện” của các nhà sản xuất thuật toán trí tuệ nhân tạo”.

Theo cơ quan quản lý, “cuộc khảo sát tìm hiểu thực tế” này áp dụng cho tất cả các đối tượng công và tư hoạt động với tư cách là bên kiểm soát dữ liệu, được thành lập ở Ý hoặc cung cấp các dịch vụ ở Ý cung cấp dữ liệu cá nhân có thể truy cập miễn phí trực tuyến.

Mặc dù không nêu tên các công ty cụ thể nhưng họ nói rằng “trên thực tế” họ đã biết rằng “nhiều nền tảng AI khác nhau” đang truy cập trang web nhằm mục đích thu thập số lượng lớn dữ liệu cá nhân. Họ nói rằng sau cuộc điều tra, họ sẽ thực hiện mọi biện pháp cần thiết “thậm chí là khẩn cấp”.

Vào tháng 7, Google đã gặp phải một vụ kiện tập thể ở Hoa Kỳ về chính sách quyền riêng tư thu thập dữ liệu AI mới trên các dịch vụ web của mình nhằm mục đích đào tạo thuật toán AI của riêng mình.

Các nhà quản lý Ý đã mời các chuyên gia, học giả trong ngành AI và những người khác tham gia vào quá trình này và chia sẻ quan điểm hoặc nhận xét trong vòng 60 ngày.

Cơ quan giám sát quyền riêng tư của Ý là một trong những cơ quan đầu tiên giám sát AI sau khi cấm chatbot AI nổi tiếng ChatGPT hoạt động ở Ý do vi phạm quyền riêng tư vào tháng 3 năm 2023. Vào tháng 5, Ý đã dành hàng triệu euro vào một quỹ dành riêng cho những người lao động có nguy cơ bị ảnh hưởng AI thay thế.

Đầu tuần này, Ý, Pháp và Đức đã ký một thỏa thuận về quy định AI trong tương lai, theo một tài liệu chung mà Reuters được xem. Thỏa thuận này dự kiến sẽ giúp tiếp tục các cuộc đàm phán tương tự ở cấp Liên minh châu Âu.

Ba nước ủng hộ ý tưởng tạo ra các cam kết tự nguyện cho các nhà cung cấp AI lớn và nhỏ ở Liên minh châu Âu.

Theo Cointelegraph

Tòa án vòng 5 Hoa Kỳ tìm kiếm quy định về việc sử dụng AI của luật sư trong hồ sơ pháp lý

Quy định được đề xuất sẽ áp dụng cho các luật sư và đương sự không có đại diện pháp lý xuất hiện trước tòa, buộc họ phải xác nhận rằng các hồ sơ được tạo ra thông qua sự trợ giúp của AI đã được đánh giá về độ chính xác.

Một tòa phúc thẩm liên bang ở New Orleans đang xem xét một đề xuất yêu cầu các luật sư xác nhận xem họ có sử dụng các chương trình trí tuệ nhân tạo để soạn thảo bản tóm tắt hay không, khẳng định đánh giá độc lập của con người về độ chính xác của văn bản do AI tạo ra hoặc không phụ thuộc vào AI trong đệ trình lên tòa án của họ.

Trong một thông báo đưa ra ngày 21 tháng 11, Tòa phúc thẩm khu vực số 5 của Hoa Kỳ đã tiết lộ điều có vẻ là quy tắc được đề xuất đầu tiên trong số 13 tòa phúc thẩm liên bang của quốc gia, tập trung vào việc quản lý việc sử dụng các công cụ AI tổng quát, bao gồm cả ChatGPT của OpenAI, bởi các luật sư có mặt trước đó. tòa án.

Ảnh chụp màn hình quy tắc Vòng tròn thứ 5 Nguồn: Tòa phúc thẩm vòng thứ năm

Quy định được đề xuất sẽ áp dụng cho các luật sư và đương sự không có đại diện pháp lý xuất hiện trước tòa, buộc họ phải xác nhận rằng nếu chương trình AI được sử dụng để tạo hồ sơ thì cả trích dẫn và phân tích pháp lý đều được đánh giá về độ chính xác. Các luật sư cung cấp thông tin không chính xác về việc tuân thủ quy tắc của họ có thể bị vô hiệu và các biện pháp trừng phạt có thể được áp dụng, như đã nêu trong quy tắc đề xuất. Vòng 5 mở cửa đón nhận phản hồi của công chúng về đề xuất này cho đến ngày 4 tháng 1.

Việc đưa ra quy tắc đề xuất trùng hợp với thời điểm các thẩm phán trên toàn quốc đang giải quyết sự phát triển nhanh chóng của các chương trình trí tuệ nhân tạo tổng hợp như ChatGPT. Họ đang xem xét sự cần thiết của các biện pháp bảo vệ khi kết hợp công nghệ đang phát triển này trong phòng xử án. Những thách thức liên quan đến việc luật sư sử dụng AI đã trở nên nổi bật vào tháng 6, khi hai luật sư từ New York phải đối mặt với các lệnh trừng phạt vì gửi một tài liệu pháp lý có chứa sáu trích dẫn trường hợp bịa đặt do ChatGPT đưa ra.

Vào tháng 10, Tòa án quận phía Đông Texas của Hoa Kỳ đã đưa ra một quy định có hiệu lực từ ngày 1 tháng 12, yêu cầu luật sư sử dụng các chương trình AI để “đánh giá và xác thực mọi nội dung do máy tính tạo ra”.

Theo các tuyên bố kèm theo việc sửa đổi quy tắc, tòa án nhấn mạnh rằng “thông thường, kết quả đầu ra của các công cụ như vậy có thể không chính xác về mặt thực tế hoặc về mặt pháp lý” và nhấn mạnh rằng công nghệ AI “không bao giờ nên thay thế khả năng tư duy trừu tượng và giải quyết vấn đề của luật sư”.

TheoCointelegraph

Exit mobile version