Với nội dung do AI tạo ra tiếp tục phát triển, sự ra đời của các công cụ đầu độc dữ liệu có khả năng bảo vệ tác phẩm của nghệ sĩ khỏi AI có thể là yếu tố thay đổi cuộc chơi.
Khi việc sử dụng trí tuệ nhân tạo (AI) đã tràn ngập không gian truyền thông sáng tạo – đặc biệt là nghệ thuật và thiết kế – định nghĩa về sở hữu trí tuệ (IP) dường như đang thay đổi theo thời gian thực khi ngày càng khó hiểu điều gì cấu thành đạo văn.
Trong năm qua, các nền tảng nghệ thuật do AI điều khiển đã đẩy các giới hạn về quyền sở hữu trí tuệ bằng cách sử dụng các bộ dữ liệu mở rộng để đào tạo , thường không có sự cho phép rõ ràng của các nghệ sĩ đã tạo ra các tác phẩm gốc.
Ví dụ: các nền tảng như dịch vụ DALL-E và Midjourney của OpenAI cung cấp các mô hình đăng ký, gián tiếp kiếm tiền từ tài liệu có bản quyền cấu thành nên bộ dữ liệu đào tạo của họ.
Về vấn đề này, một câu hỏi quan trọng đã xuất hiện: “Liệu các nền tảng này có hoạt động theo các tiêu chuẩn được thiết lập bởi học thuyết ‘sử dụng hợp lý’ hay không, trong phiên bản hiện tại, học thuyết này cho phép sử dụng tác phẩm có bản quyền để phê bình, bình luận, đưa tin, giảng dạy và nghiên cứu. mục đích?”
Gần đây, Getty Images, một nhà cung cấp ảnh stock lớn, đã khởi kiện chống lại Stability AI ở cả Hoa Kỳ và Vương quốc Anh. Getty đã cáo buộc chương trình tạo hình ảnh của Stability AI, Stable Diffusion, vi phạm luật bản quyền và nhãn hiệu bằng cách sử dụng hình ảnh từ danh mục của nó mà không được phép, đặc biệt là những hình ảnh có hình mờ.
Tuy nhiên, các nguyên đơn phải đưa ra bằng chứng toàn diện hơn để hỗ trợ cho yêu cầu của mình, điều này có thể tỏ ra thách thức vì AI của Stable Diffusion đã được đào tạo trên bộ nhớ đệm khổng lồ gồm hơn 12 tỷ bức ảnh nén.
Trong một trường hợp liên quan khác, các nghệ sĩ Sarah Andersen, Kelly McKernan và Karla Ortiz đã khởi xướng các thủ tục pháp lý chống lại Stable Diffusion, Midjourney và cộng đồng nghệ thuật trực tuyến DeviantArt vào tháng 1, cáo buộc các tổ chức này vi phạm quyền của “hàng triệu nghệ sĩ” bằng cách đào tạo các công cụ AI của họ bằng cách sử dụng năm tỷ hình ảnh được lấy từ web “mà không có sự đồng ý của các nghệ sĩ gốc”.
Phần mềm đầu độc AI
Đáp lại những phàn nàn của các nghệ sĩ có tác phẩm bị AI đạo văn, các nhà nghiên cứu tại Đại học Chicago gần đây đã phát hành một công cụ có tên Nightshade, cho phép các nghệ sĩ tích hợp những thay đổi không thể phát hiện được vào tác phẩm nghệ thuật của họ.
Những sửa đổi này, mặc dù mắt người không nhìn thấy được, nhưng có thể gây độc cho dữ liệu đào tạo AI. Hơn nữa, những thay đổi nhỏ về pixel có thể làm gián đoạn quá trình học tập của mô hình AI, dẫn đến việc ghi nhãn và nhận dạng không chính xác.
Ngay cả một số ít những hình ảnh này cũng có thể làm hỏng quá trình học tập của AI. Ví dụ: một thử nghiệm gần đây cho thấy rằng việc đưa vào vài chục hình ảnh bị trình bày sai cũng đủ làm giảm đáng kể đầu ra của Khuếch tán ổn định.
Nhóm Đại học Chicago trước đây đã phát triển công cụ riêng của mình có tên Glaze, nhằm che giấu phong cách của một nghệ sĩ khỏi sự phát hiện của AI. Sản phẩm mới của họ, Nightshade, dự kiến sẽ tích hợp với Glaze, mở rộng khả năng của nó hơn nữa.
Trong một cuộc phỏng vấn gần đây, Ben Zhao, nhà phát triển chính của Nightshade, nói rằng các công cụ như của ông sẽ giúp thúc đẩy các công ty hướng tới các hoạt động có đạo đức hơn. “Tôi nghĩ hiện tại có rất ít động lực để các công ty thay đổi cách họ đang hoạt động – nghĩa là ‘Mọi thứ dưới ánh mặt trời đều là của chúng tôi và bạn không thể làm gì được’. Tôi đoán chúng tôi chỉ đang thúc đẩy họ thêm một chút về mặt đạo đức và chúng tôi sẽ xem liệu điều đó có thực sự xảy ra hay không,” ông nói thêm.
Bất chấp tiềm năng của Nightshade trong việc bảo vệ các tác phẩm nghệ thuật trong tương lai, Zhao lưu ý rằng nền tảng này không thể hoàn tác các tác động đối với tác phẩm nghệ thuật đã được xử lý bởi các mô hình AI cũ hơn. Hơn nữa, có những lo ngại về khả năng phần mềm bị lạm dụng cho các mục đích xấu, chẳng hạn như làm ô nhiễm các máy tạo hình ảnh kỹ thuật số quy mô lớn.
Tuy nhiên, Zhao tự tin rằng trường hợp sử dụng thứ hai này sẽ gặp nhiều thách thức vì nó cần hàng nghìn mẫu bị nhiễm độc.
Trong khi nghệ sĩ độc lập Autumn Beverly tin rằng các công cụ như Nightshade và Glaze đã cho phép cô chia sẻ tác phẩm của mình trực tuyến một lần nữa mà không sợ bị lạm dụng, Marian Mazzone, một chuyên gia liên kết với Phòng thí nghiệm Nghệ thuật và Trí tuệ Nhân tạo tại Đại học Rutgers, cho rằng những công cụ đó có thể không. đưa ra giải pháp khắc phục lâu dài, đề xuất các nghệ sĩ nên theo đuổi cải cách pháp lý để giải quyết các vấn đề đang diễn ra liên quan đến hình ảnh do AI tạo ra.
Asif Kamal, Giám đốc điều hành của Artfi, một giải pháp Web3 để đầu tư vào mỹ thuật, nói với Cointelegraph rằng những người sáng tạo sử dụng các công cụ đầu độc dữ liệu AI đang thách thức các quan niệm truyền thống về quyền sở hữu và quyền tác giả, đồng thời thúc đẩy đánh giá lại bản quyền và kiểm soát sáng tạo:
“Việc sử dụng các công cụ đầu độc dữ liệu đang đặt ra các câu hỏi về pháp lý và đạo đức về việc đào tạo AI trên các tác phẩm nghệ thuật kỹ thuật số có sẵn công khai. Mọi người đang tranh luận về các vấn đề như bản quyền, sử dụng hợp lý và tôn trọng quyền của người sáng tạo ban đầu. Điều đó cho thấy, các công ty AI hiện đang nghiên cứu nhiều chiến lược khác nhau để giải quyết tác động của các công cụ đầu độc dữ liệu như Nightshade và Glaze đối với các mô hình học máy của họ. Điều này bao gồm cải thiện khả năng phòng thủ của họ, tăng cường xác thực dữ liệu và phát triển các thuật toán mạnh mẽ hơn để xác định và giảm thiểu các chiến lược đầu độc pixel.”
Yubo Ruan, người sáng lập ParaX, một nền tảng Web3 được hỗ trợ bởi tính năng trừu tượng hóa tài khoản và máy ảo không có kiến thức, nói với Cointelegraph rằng khi các nghệ sĩ tiếp tục áp dụng các công cụ đầu độc AI, cần phải hình dung lại nghệ thuật kỹ thuật số cấu thành như thế nào và quyền sở hữu của nó như thế nào và tính nguyên bản được xác định.
“Chúng ta cần đánh giá lại các khuôn khổ sở hữu trí tuệ ngày nay để phù hợp với sự phức tạp do các công nghệ này mang lại. Việc sử dụng các công cụ đầu độc dữ liệu đang làm nổi bật những lo ngại pháp lý về sự đồng ý và vi phạm bản quyền, cũng như các vấn đề đạo đức liên quan đến việc sử dụng tác phẩm nghệ thuật công cộng mà không đền bù hoặc thừa nhận một cách công bằng cho chủ sở hữu ban đầu của nó,” ông nói.
Kéo dài luật sở hữu trí tuệ đến giới hạn của chúng
Ngoài lĩnh vực nghệ thuật kỹ thuật số, tầm ảnh hưởng của Generative AI cũng đang được chú ý trên các lĩnh vực khác, bao gồm cả nội dung học thuật và video. Vào tháng 7, diễn viên hài Sarah Silverman, cùng với các tác giả Christopher Golden và Richard Kadrey, đã khởi kiện OpenAI và Meta tại tòa án quận của Hoa Kỳ, cáo buộc gã khổng lồ công nghệ vi phạm bản quyền.
Vụ kiện tuyên bố rằng cả ChatGPT của OpenAI và Llama của Meta đều được đào tạo về các tập dữ liệu có nguồn gốc từ các trang web “thư viện bóng tối” bất hợp pháp, được cho là có chứa các tác phẩm có bản quyền của nguyên đơn. Các vụ kiện chỉ ra các trường hợp cụ thể trong đó ChatGPT tóm tắt sách của họ mà không bao gồm thông tin quản lý bản quyền, sử dụng Bedwetter của Silverman, Ararat của Golden và Sandman Slim của Kadrey làm ví dụ chính.
Riêng biệt, vụ kiện chống lại Meta khẳng định rằng các mô hình Llama của công ty đã được đào tạo bằng cách sử dụng các bộ dữ liệu từ các nguồn gốc đáng nghi vấn tương tự, đặc biệt trích dẫn The Pile từ EleutherAI, được cho là bao gồm nội dung từ công cụ theo dõi riêng Bibliotik.
Các tác giả khẳng định rằng họ chưa bao giờ đồng ý cho tác phẩm của mình bị sử dụng theo cách như vậy và do đó đang yêu cầu bồi thường thiệt hại và bồi thường.
Khi chúng ta hướng tới một tương lai được thúc đẩy bởi công nghệ AI, nhiều công ty dường như đang phải vật lộn với đề xuất công nghệ khổng lồ do mô hình đang phát triển này đưa ra.
Trong khi các công ty như Adobe đã bắt đầu sử dụng nhãn hiệu để gắn cờ dữ liệu do AI tạo ra, các công ty như Google và Microsoft cho biết họ sẵn sàng đối mặt với mọi rắc rối pháp lý nếu khách hàng bị kiện vì vi phạm bản quyền khi sử dụng các sản phẩm AI tạo ra của họ.
Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk