所有語言
分享
引言
在数字化時代,人工智能(AI)已成為推動技術革新和社會進步的關鍵力量。AI的發展不僅僅是技術的進步,更是人類智慧的延伸。AI在過去一段時間風險投資行業和資本市場最為熱門的話題。
隨着區塊鏈技術的發展,去中心化AI(Decentralized AI)應運而生,本文將為您解讀去中心化AI的定義、架構以及它如何與人工智能行業協同作用。
去中心化AI的定義與架構
去中心化AI利用去中心化的計算資源和數據存儲,以分佈式方式訓練和使用AI模型,增強隱私性和安全性。其四層主要架構包括:
• 模型層:支持去中心化的AI模型開發、共享和交易,促進全球範圍內的協作和創新。這一層面的代表項目如Bittensor,它利用區塊鏈技術創建了一個全球範圍內的AI模型共享與協作平台。
• 訓練層:利用智能合約和去中心化技術,降低AI模型訓練的成本並簡化流程,提高訓練效率。這一層面的挑戰在於如何有效利用分佈式計算資源進行高效的模型訓練。
• 數據層:利用區塊鏈技術存儲和管理數據,確保數據的安全性和不可篡改性,同時賦予用戶對數據的完全控制權。這一層面的應用如去中心化的數據市場,它們通過區塊鏈技術實現了數據的透明交易和所有權確認。
• 算力層:通過去中心化GPU算力平台和帶寬支持,提供分佈式計算資源,支持AI模型的高效訓練和推理。這一層面的技術進步,如邊緣計算和分佈式GPU網絡,為AI模型的訓練和推理提供了新的解決方案。
去中心化AI代表項目
去中心化AI行業梳理:模型層
模型層:大模型參數量指數級增長,模型性能顯著提升,但進一步擴展模型規模帶來的收益正在逐漸減小。這一趨勢要求我們重新思考AI模型的發展方向,如何在保持性能的同時降低成本和資源消耗。
AI大模型的發展遵循“規模定律”,即模型性能與參數規模、數據集大小和計算量之間存在一定的關係。
當模型擴展到一定規模時,其在特定任務中的性能會突然顯著提升。隨着大模型參數量的增加,模型性能的提升幅度逐漸減小,如何平衡參數規模和模型性能將是未來發展的關鍵。
我們看到,AI大模型的API價格競爭加劇,多家廠商紛紛降價,以提高市場佔有率。然而,隨着大模型性能的同質化,API收入的持續性也面臨質疑。如何保持高用戶粘性並提高收入將是未來的一大挑戰。
端側模型的應用將通過減少數據精度和採用混合專家模型(MoE)架構來實現。模型量化技術可以將32位浮點數據壓縮為8位,從而顯著減少模型大小和內存消耗。通過這種方式,模型可以在端側設備上高效運行,推動AI技術的進一步普及。
總結:區塊鏈助力模型層提升AI模型的透明度、協作性和用戶參与度。
中心化AI行業梳理:訓練層
訓練層:大模型訓練要求高帶寬與低延遲的通信,去中心化算力網絡進行大模型嘗試存在可能性。這一層面的挑戰在於如何優化通信和計算資源的分配,以實現更高效的模型訓練。
去中心化算力網絡在大模型訓練中具有一定的潛力。儘管存在通信開銷過大的挑戰,但通過優化調度算法和壓縮傳輸數據量,可以顯著提高訓練效率。然而,如何在實際環境中克服網絡延遲和數據傳輸瓶頸,仍是去中心化訓練面臨的主要難題。
為了解決去中心化算力網絡中大模型訓練的瓶頸,我們可以採用數據壓縮、調度優化和局部更新與同步等技術。這些方法能夠減少通信開銷,提高訓練效率,使去中心化算力網絡在大模型訓練中成為一種可行的選擇。
零知識機器學習(zkML)結合了零知識證明和機器學習技術,允許在不暴露訓練數據和模型細節的情況下進行模型驗證和推理。這一技術特別適用於對數據保密性要求高的行業,如醫療和金融,能夠確保數據隱私的同時驗證AI模型的準確性和可靠性。
去中心化AI行業梳理:數據層
數據的隱私性和安全性成為AI發展的關鍵問題。去中心化數據存儲和處理技術為解決這些問題提供了新的思路。
數據存儲、數據索引和數據應用都是確保去中心化AI系統正常運作的關鍵環節。去中心化存儲平台如Filecoin和Arweave在數據安全和隱私保護方面提供了新的解決方案,並降低了存儲成本。
去中心化存儲案例:
自2020年以來,Arweave的數據存儲規模迅速增長,主要受到NFT市場和Web3應用需求的推動。通過Arweave,用戶可以實現去中心化永久數據存儲,解決了長期數據存儲的難題。
AO項目則進一步增強了Arweave生態系統,為用戶提供更強大的計算能力和更廣泛的應用場景。
在這頁中,我們對比了Arweave和Filecoin兩個去中心化存儲項目。Arweave通過一次性支付實現永久存儲,而Filecoin則採用按月支付的模式,側重於提供靈活的存儲服務。兩者在技術架構、業務規模和市場定位上各有優勢,用戶可以根據具體需求選擇適合的方案。
去中心化AI行業梳理:算力層
算力層:隨着AI模型的複雜度增加,對計算資源的需求也在不斷增長。去中心化算力網絡的出現,為AI模型的訓練和推理提供了新的資源配置方式。
去中心化的計算網絡(以及用於訓練和推理的專項計算網絡)是目前觀察下來 DeAI 賽道上最活躍和發展最快的領域。這與現實世界的基礎設施供應商截取了 AI 產業鏈的豐盛果實相一致。伴隨着 GPU 等算力資源短缺的狀態持續,有着算力資源硬件設備的廠商紛紛入局這個領域。
Aethir案例:
商業模式:算力租賃的雙邊市場
去中心化算力市場,本質上是利用 Web3 技術將網格計算的理念擴展到了一個具有經濟激勵、無需信任的環境之中。通過激勵 CPU 和 GPU 等資源提供方將閑置的算力貢獻到去中心化網絡中,從而形成有一定規模的去中心化算力服務市場;並連接算力資源的需求方(如模型提供商),以更低的成本、更靈活的方式,為其提供算力服務資源。去中心化算力市場,也是對中心化垄斷的雲服務供應商的一個挑戰。
去中心化算力市場根據其服務的類型可進一步分為:通用型和專用型。通用計算網絡像分散的雲一樣運行,為各種應用程序提供計算資源。專用型計算網絡主要為特定用途的計算網絡,針對特定用例量身定製。例如,Render Network 是一個專註於渲染工作負載的專用計算網絡;Gensyn 是一個專註於 ML 模型訓練的專用計算網絡;而 io.net 是通用計算網絡的一個示例。
對於 DeAI 而言,在去中心化基礎設施上訓練模型面臨的一個重要挑戰是大規模算力、帶寬限制和使用來自全球不同供應商的異構硬件導致的高延遲性。因此,一個專用型的 AI 計算網絡比通用型的計算網絡能提供更適配 AI 的功能。目前集中式訓練 ML 模型依然是最為高效和穩定的項目,但是這對項目方的資本實力提出了一個非常高的要求。
結語
去中心化AI作為一種新興的技術趨勢,正逐步展現出其在數據隱私、安全性和成本效益方面的優勢。在下一篇文章中,我們將探討去中心化AI面臨的風險與挑戰,以及未來的發展方向。