所有語言
分享
作者:Haotian
大家都清楚,AI大模型落地到金融、醫療、法律等垂直應用場景中最大的阻礙就一個:AI輸出結果存在的“幻覺”問題無法匹配需要精準度的實際應用場景。如何解決呢?最近, @Mira_Network 推出了公共測試網,給出了一套解決方案,我來說說咋回事:
首先,AI大模型工具存在“幻覺”的情況,大家都能有所感知,原因主要有兩點:
1、AI LLMs訓練數據不夠完整,儘管已有數據規模很龐大,但仍無法覆蓋一些小眾或專業領域的信息,這時候AI傾向於做“創造性補全”繼而導致一些實時性錯誤;
2、AI LLMs工作本質上都依賴“概率採樣”,它是識別訓練數據中的統計模式和相關性,而並非真正“理解”,因此概率採樣的隨機性、訓練和推理結果的不一致性等都會導致AI在處理高精度事實性問題存在偏差;
如何解決此問題呢?康奈爾大學ArXiv平台上發布了一篇通過多個模型共同驗證提高LLMs結果可靠性的方法。
簡單理解,就是先讓主模型生成結果,再集成多個驗證模型對該問題進行“多數表決分析”,從而可降低模型產生的“幻覺”。
在一系列的測試中發現,此方法可以把AI輸出的準確率提高至 95.6%。
既然如此,那肯定需要一個分佈式的驗證平台來管理並驗證主模型和驗證模型的協作交互過程,Mira Network就是這麼一個專門構建AI LLMs驗證的中間件網絡,在用戶和基礎AI模型之間構建了一個可靠的驗證層。
有了這套驗證層網絡的存在,就可以實現包括隱私保護、準確率保障、可擴展設計、標準化API接口等集成服務,可以憑藉減少AI LLMs輸出幻覺來擴大AI在各個細分應用場景的落地可能性,也是Crypto分佈式驗證網絡能夠作用到AI LLMs工程實現過程中的一次實踐。
比如,Mira Network分享了幾個在金融、教育、區塊鏈生態的案例可以佐證:
1)Gigabrain一個交易平台集成了Mira后,系統可以加一環驗證市場分析和預測的準確性,過濾掉不靠譜的建議,可提高AI交易信號的準確性,讓AI LLMs作用在DeFai場景更可靠一些;
2)Learnrite則利用mira驗證AI生成的標準化考試題目,讓教育機構能夠大規模利用AI生成內容,同時不影響教育測試的內容準確性,以維持嚴格的教育標準;
3)區塊鏈Kernel項目利用了Mira的LLM共識機制將其整合到了BNB生態系統當中,創建了去中心化驗證網絡DVN,使得區塊鏈上執行AI計算的準確性和安全性得到一定程度的保障。
以上。
其實,Mira Network提供的是中間件共識網絡服務,肯定不是讓AI應用能力增強的唯一途徑,事實上,通過數據端的訓練增強,通過多模態大模型的交互增強,以及通過ZKP、FHE、TEE等潛在密碼學技術的隱私計算增強等等都是可選路徑。但相較之下,Mira的解決方案貴在落地實踐快,且直接見效。
Note:個人對此項目的技術理念特別感興趣,從技術面看確實可以解決AI LLMs當下存在的應用落地問題,而且又能顯現Crypto分佈式共識網絡的補充價值,值不值得參与體驗,是不是個潛在擼毛機會,大家自行判斷。(公測體驗入口 https://klokapp.ai/?referral_code=SLD2DHAJ)具體技術細節實現邏輯,後續抽時間分析。