Lưu trữ cho từ khóa: #GPU

Tìm hiểu hệ sinh thái AI đang phát triển của Web3

Mặc dù sự giao thoa giữa Web3 và AI có tiềm năng rất lớn nhưng vẫn còn rất nhiều nhầm lẫn về công nghệ mới nổi này trên thị trường hiện nay. David Attermann, tại M31 Capital, cho biết việc vạch ra chuỗi cung ứng GPU, các lớp công nghệ và bối cảnh cạnh tranh khác nhau có thể giúp các nhà đầu tư hiểu rõ hơn về hệ sinh thái và đưa ra quyết định đầu tư sáng suốt hơn.

Chỉ trong hơn một năm kể từ khi ChatGPT ra mắt lần đầu tiên, AI được cho là đã trở thành câu chuyện toàn cầu có ảnh hưởng nhất hiện nay. Thành công ban đầu của OpenAI đã thúc đẩy sự quan tâm của nhà đầu tư đối với các mô hình ngôn ngữ lớn (LLM) và ứng dụng AI, thu hút 25 tỷ USD tài trợ vào năm 2023 ( tăng 5 lần so với cùng kỳ năm ngoái!) , để theo đuổi cơ hội thị trường trị giá hàng nghìn tỷ USD tiềm năng.

Bạn đang đọc Crypto Long & Short , bản tin hàng tuần của chúng tôi cung cấp thông tin chi tiết, tin tức và phân tích dành cho nhà đầu tư chuyên nghiệp. Đăng ký tại đây để nhận nó trong hộp thư đến của bạn vào thứ Tư hàng tuần.

Như tôi đã viết trước đây , công nghệ AI và tiền điện tử bổ sung tốt cho nhau, vì vậy không có gì ngạc nhiên khi thấy một hệ sinh thái AI đang phát triển nổi lên trong Web3. Bất chấp mọi sự chú ý, tôi nhận thấy có rất nhiều nhầm lẫn về chức năng của các giao thức này, đâu là sự cường điệu so với thực tế và chúng khớp với nhau như thế nào. Báo cáo này sẽ vạch ra chuỗi cung ứng Web3 AI, xác định từng lớp trong nhóm công nghệ và khám phá các bối cảnh cạnh tranh khác nhau. Cuối cùng, bạn phải có hiểu biết cơ bản về cách hoạt động của hệ sinh thái và những điều cần chú ý tiếp theo.

Kho công nghệ AI của Web3

Lớp cơ sở hạ tầng

AI sáng tạo được hỗ trợ bởi LLM, chạy trên GPU hiệu suất cao. LLM có ba khối lượng công việc chính: đào tạo (tạo mô hình), tinh chỉnh (chuyên môn hóa lĩnh vực/chủ đề) và suy luận (chạy mô hình). Tôi đã phân chia lớp này thành GPU đa năng, GPU dành riêng cho ML và bộ tổng hợp GPU, được đặc trưng bởi khả năng khối lượng công việc và trường hợp sử dụng khác nhau. Các thị trường P2P này được khuyến khích bằng tiền điện tử để đảm bảo phân cấp an toàn, nhưng điều quan trọng cần lưu ý là quá trình xử lý GPU thực tế diễn ra ngoài chuỗi.

  • GPU đa năng: Được khuyến khích bằng tiền điện tử (phi tập trung) thị trường sức mạnh tính toán GPU có thể được sử dụng cho bất kỳ loại ứng dụng nào. Do tính chất có mục đích chung, tài nguyên điện toán chỉ phù hợp nhất cho suy luận mô hình (khối lượng công việc LLM được sử dụng nhiều nhất). Những người dẫn đầu danh mục ban đầu bao gồm Akash và Render, tuy nhiên, với nhiều người mới tham gia, không rõ sự khác biệt về giao thức sẽ diễn ra như thế nào. Mặc dù về mặt kỹ thuật, điện toán là một mặt hàng, nhưng nhu cầu của Web3 về điện toán dành riêng cho GPU, không được phép sẽ tiếp tục tăng theo cấp số nhân trong hơn một thập kỷ tới khi chúng ta tích hợp AI nhiều hơn vào cuộc sống hàng ngày. Những điểm khác biệt chính trong dài hạn sẽ là hiệu ứng phân phối và mạng lưới.
  • GPU dành riêng cho ML: Các thị trường này dành riêng cho máy học (ML) các ứng dụng và do đó có thể được sử dụng để huấn luyện mô hình, tinh chỉnh và suy luận. Không giống như các thị trường có mục đích chung, các giao thức này có thể phân biệt tốt hơn thông qua lớp phủ của phần mềm dành riêng cho ML, nhưng hiệu ứng phân phối và mạng cũng sẽ là yếu tố then chốt. Bittensor đã sớm dẫn đầu nhưng nhiều dự án sẽ sớm ra mắt.
  • Bộ tổng hợp GPU: Các thị trường này tổng hợp nguồn cung cấp GPU từ hai danh mục trước đó, điều phối mạng trừu tượng và lớp phủ với phần mềm dành riêng cho ML. Họ giống như Web2 VAR (đại lý có giá trị gia tăng) và có thể được coi là nhà phân phối sản phẩm. Các giao thức này cung cấp các giải pháp GPU hoàn chỉnh hơn có thể chạy đào tạo mô hình, tinh chỉnh và suy luận. Io.net là giao thức đầu tiên xuất hiện trong danh mục này, nhưng tôi hy vọng sẽ có nhiều đối thủ cạnh tranh hơn do nhu cầu phân phối GPU hợp nhất hơn.

Lớp phần mềm trung gian

Lớp trước cho phép truy cập không cần cấp phép vào GPU, nhưng cần có phần mềm trung gian để kết nối tài nguyên máy tính này với các hợp đồng thông minh trên chuỗi theo cách giảm thiểu độ tin cậy (tức là để sử dụng cho các ứng dụng Web3). Nhập bằng chứng không có kiến thức (ZKP), một phương pháp mật mã mà theo đó một bên (người chứng minh) có thể chứng minh cho một bên khác (người xác minh) rằng một tuyên bố đã cho là đúng, đồng thời tránh truyền đạt cho người xác minh bất kỳ thông tin nào ngoài sự thật của tuyên bố đó. Trong trường hợp của chúng tôi, “câu lệnh” là đầu ra của LLM với đầu vào cụ thể.

  • Xác minh suy luận không có kiến thức (ZK): Thị trường phi tập trung cho Trình xác minh ZKP đặt giá thầu để có cơ hội xác minh (để được bồi thường) rằng đầu ra suy luận được tạo ra chính xác bởi LLM mong muốn (trong khi vẫn giữ riêng tư dữ liệu và tham số mô hình). Mặc dù công nghệ ZK đã đi được một chặng đường dài nhưng ZK dành cho máy học (zkML) vẫn còn ở giai đoạn đầu và phải rẻ hơn, nhanh hơn để có thể áp dụng vào thực tế. Khi thực hiện được điều đó, nó có khả năng mở ra một cách đáng kể không gian thiết kế Web3 và AI, bằng cách cho phép các hợp đồng thông minh truy cập LLM theo cách phi tập trung. Mặc dù vẫn còn sớm, =nil;, Giza và RISC Zero dẫn đầu hoạt động của nhà phát triển trên GitHub. Các giao thức như Blockless được định vị tốt cho dù nhà cung cấp ZKP nào giành chiến thắng vì chúng hoạt động như các lớp tổng hợp & trừu tượng (phân phối ZKP).
  • Trung tâm ứng dụng và công cụ dành cho nhà phát triển: Ngoài ZKP, Web3 nhà phát triển yêu cầu công cụ, bộ công cụ phát triển phần mềm (SDK) và dịch vụ để xây dựng các ứng dụng một cách hiệu quả như tác nhân AI (thực thể phần mềm thực hiện các hoạt động thay mặt cho người dùng hoặc chương trình khác với mức độ tự chủ nhất định, sử dụng thể hiện mục tiêu của người dùng) và được hỗ trợ bởi AI chiến lược giao dịch tự động. Nhiều giao thức trong số này còn đóng vai trò là trung tâm ứng dụng, nơi người dùng có thể truy cập trực tiếp vào các ứng dụng đã hoàn thiện được xây dựng trên nền tảng của họ (phân phối ứng dụng). Các nhà lãnh đạo ban đầu bao gồm Bittensor, hiện lưu trữ 32 “mạng con” (ứng dụng AI) khác nhau và Fetch.ai , cung cấp nền tảng dịch vụ đầy đủ để phát triển các tác nhân AI cấp doanh nghiệp.

Lớp ứng dụng

Và cuối cùng, ở trên cùng của nhóm công nghệ, chúng tôi có các ứng dụng giao tiếp với người dùng tận dụng sức mạnh xử lý AI không cần cấp phép của Web3 (được hai lớp trước kích hoạt) để hoàn thành các tác vụ cụ thể cho nhiều trường hợp sử dụng khác nhau. Phần thị trường này vẫn còn non trẻ và vẫn dựa vào cơ sở hạ tầng tập trung, nhưng các ví dụ ban đầu bao gồm kiểm toán hợp đồng thông minh, chatbot dành riêng cho blockchain, trò chơi metaverse, tạo hình ảnh cũng như nền tảng giao dịch và quản lý rủi ro. Khi cơ sở hạ tầng cơ bản tiếp tục phát triển và ZKP trưởng thành, các ứng dụng AI thế hệ tiếp theo sẽ xuất hiện với chức năng mà ngày nay khó có thể tưởng tượng được. Không rõ liệu những người tham gia sớm có thể theo kịp hay không hay liệu những nhà lãnh đạo mới sẽ xuất hiện vào năm 2024 và hơn thế nữa hay không.

Triển vọng của nhà đầu tư: Mặc dù tôi lạc quan về toàn bộ nhóm công nghệ AI, nhưng tôi tin rằng các giao thức cơ sở hạ tầng và phần mềm trung gian là những khoản đầu tư tốt hơn hiện nay do không chắc chắn về cách chức năng AI sẽ phát triển theo thời gian. Dù có phát triển đến đâu, các ứng dụng Web3 AI chắc chắn sẽ yêu cầu sức mạnh GPU lớn, công nghệ ZKP cũng như các dịch vụ và công cụ dành cho nhà phát triển (tức là cơ sở hạ tầng & phần mềm trung gian).

Tiết lộ: M31 Capital có vị trí trong một số mã thông báo được đề cập trong bài viết này.

Tổng hợp và chỉnh sửa: ThS Phạm Mạnh Cường
Theo Coindesk

'107.000 GPU trong danh sách chờ' – Việc ra mắt Io.net beta thu hút các trung tâm dữ liệu, cụm GPU

‘107.000 GPU trong danh sách chờ’ – Việc ra mắt Io.net beta thu hút các trung tâm dữ liệu, cụm GPU

Mạng cơ sở hạ tầng vật lý phi tập trung được phát triển gần đây của Io.net đã chuyển sang giai đoạn thử nghiệm, cho phép các nhà cung cấp điện toán GPU kết nối vào nền tảng.

Hơn 100.000 đơn vị xử lý đồ họa (GPU) từ các trung tâm dữ liệu và công cụ khai thác tiền điện tử được thiết lập để kết nối với bản beta mạng cơ sở hạ tầng vật lý phi tập trung (DePIN) mới do io.net phát hành.

Như Cointelegraph đã báo cáo trước đây, công ty khởi nghiệp này đã phát triển một mạng lưới phi tập trung cung cấp sức mạnh tính toán GPU từ các trung tâm dữ liệu đa dạng về mặt địa lý, công cụ khai thác tiền điện tử và nhà cung cấp lưu trữ phi tập trung để cung cấp năng lượng cho máy học và điện toán trí tuệ nhân tạo (AI).

Công ty đã công bố ra mắt nền tảng beta của mình trong hội nghị Solana Breakpoint ở Amsterdam, trùng hợp với mối quan hệ đối tác mới được thành lập với Render Network.

Tory Green, giám đốc điều hành của io.net và Angela Yi, người đứng đầu bộ phận phát triển kinh doanh, đã nói chuyện riêng với Cointelegraph sau bài phát biểu quan trọng của Green tại hội nghị. Cặp đôi này đã phác thảo những điểm khác biệt quan trọng giữa DePIN của io.net và thị trường điện toán đám mây và GPU rộng hơn.

Green xác định các nhà cung cấp đám mây như Amazon Web Services (AWS) và Microsoft Azure là những đơn vị sở hữu nguồn cung cấp GPU và cho thuê chúng. Trong khi đó, các bộ tổng hợp GPU ngang hàng được tạo ra để giải quyết tình trạng thiếu GPU nhưng “nhanh chóng gặp phải những vấn đề tương tự”, giám đốc điều hành giải thích.

Ngành công nghiệp Web2 rộng lớn hơn tiếp tục tìm cách khai thác tính toán GPU từ các nguồn không được sử dụng đúng mức. Tuy nhiên, Green cho rằng không có nhà cung cấp cơ sở hạ tầng hiện tại nào phân cụm GPU giống như cách mà người sáng lập io.net Ahmad Shadid đã đi tiên phong.

“Vấn đề là chúng không thực sự tập trung lại. Chúng chủ yếu là các phiên bản đơn lẻ và mặc dù chúng có tùy chọn cụm trên trang web của mình nhưng có khả năng nhân viên bán hàng sẽ gọi đến tất cả các trung tâm dữ liệu khác nhau của họ để xem những gì có sẵn,” Green cho biết thêm.

Trong khi đó, các công ty Web3 như Render, Filecoin và Storj có các dịch vụ phi tập trung không tập trung vào học máy. Đây là một phần lợi ích tiềm năng của io.net đối với không gian Web3 như là cơ sở để các dịch vụ này khai thác.

Màu xanh lá cây chỉ ra các giải pháp tập trung vào AI như Akash Network, tập hợp trung bình từ 8 đến 32 GPU, cũng như Gensyn, là những nhà cung cấp dịch vụ gần nhất về mặt chức năng. Gensyn đang xây dựng giao thức điện toán học máy của riêng mình để cung cấp một “siêu cụm” tài nguyên máy tính ngang hàng.

Với cái nhìn tổng quan về ngành đã được thiết lập, Green tin rằng giải pháp của io.net mới lạ ở khả năng phân cụm trên các vị trí địa lý khác nhau trong vài phút. Tuyên bố này đã được thử nghiệm bởi Yi, người đã tạo ra một cụm GPU từ các mạng và địa điểm khác trong buổi demo trực tiếp trên sân khấu tại hội nghị Solana Breakpoint.

Giao diện người dùng của Io.net cho phép người dùng triển khai một cụm GPU từ các địa điểm và nhà cung cấp dịch vụ khác nhau trên toàn cầu. Nguồn: io.net

Về việc sử dụng chuỗi khối Solana để hỗ trợ thanh toán cho các nhà cung cấp điện toán GPU, Green và Yi tuyên bố rằng quy mô giao dịch và suy luận tuyệt đối mà io.net sẽ hỗ trợ sẽ không thể được xử lý bởi bất kỳ mạng nào khác.

Yi giải thích: “Nếu bạn là một nền tảng nghệ thuật sáng tạo và bạn có cơ sở người dùng luôn đưa ra lời nhắc cho bạn, mỗi khi những suy luận đó được đưa ra, các giao dịch vi mô đằng sau đó”.

“Vì vậy, bây giờ bạn có thể tưởng tượng quy mô tuyệt đối và quy mô của các giao dịch đang được thực hiện ở đó. Và đó là lý do tại sao chúng tôi cảm thấy Solana sẽ là đối tác tốt nhất cho chúng tôi.”

Sự hợp tác với Render, một mạng lưới DePIN được thành lập gồm các nhà cung cấp GPU phân tán, cung cấp các tài nguyên điện toán đã được triển khai trên nền tảng của nó cho io.net. Mạng của kết xuất chủ yếu nhằm mục đích tìm nguồn cung ứng điện toán kết xuất GPU với chi phí thấp hơn và tốc độ nhanh hơn so với các giải pháp đám mây tập trung.

Yi mô tả sự hợp tác này là một tình huống đôi bên cùng có lợi khi công ty đang tìm cách khai thác khả năng phân cụm của io.net để sử dụng tính toán GPU mà nó có quyền truy cập nhưng không thể sử dụng để kết xuất các ứng dụng.

Io.net sẽ thực hiện chương trình khuyến khích trị giá 700.000 USD dành cho các nhà cung cấp tài nguyên GPU, trong khi các nút Kết xuất có thể mở rộng công suất GPU hiện có của họ từ kết xuất đồ họa sang AI và ứng dụng học máy. Chương trình này nhắm đến người dùng có GPU cấp độ người tiêu dùng, được phân loại là phần cứng từ Nvidia RTX 4090 trở xuống.

Đối với thị trường rộng lớn hơn, Yi nhấn mạnh rằng nhiều trung tâm dữ liệu trên toàn thế giới đang chiếm một tỷ lệ đáng kể trong dung lượng GPU chưa được sử dụng hết. Một số vị trí trong số này có “hàng chục nghìn GPU cao cấp” đang không hoạt động:

“Họ chỉ sử dụng 12% đến 18% công suất GPU và họ thực sự không có cách nào để tận dụng công suất nhàn rỗi của mình. Đó là một thị trường rất kém hiệu quả.”

Cơ sở hạ tầng của Io.net sẽ chủ yếu phục vụ cho các kỹ sư và doanh nghiệp học máy có thể khai thác giao diện người dùng có tính mô-đun cao cho phép người dùng chọn số lượng GPU họ cần, vị trí, thông số bảo mật và các số liệu khác.

Theo Cointelegraph

Exit mobile version