作者:郝天;來源:鏈上觀
最近,NEAR founder @ilblackdragon 將亮相英偉達AI大會的消息,讓NEAR公鏈賺足了眼球,市場價格走勢也喜人。不少朋友疑惑,NEAR鏈不是All in在做鏈抽象么,怎么莫名其妙就成了AI頭部公鏈了?接下來,分享下我的觀察,順帶科普下一些AI模型訓練知識:
1)NEAR創始人Illia Polosukhin有過較長時間的AI背景,是Transformer架構的共同構建者。而Transformer架構是如今LLMs大型語言模型訓練ChatGPT的基礎架構,足以證明NEAR老板在成立NEAR前確實有AI大模型系統的創建和領導經驗。
2)NRAR 曾在NEARCON 2023上推出過NEAR Tasks,目標是為了進行人工智能模型的的訓練和改進,簡單來說,模型訓練需求方(Vendor)可以在平臺發布任務請求,并上傳基礎數據素材,用戶(Tasker)可以參與進行任務答題,為數據進行文本標注和圖像識別等人工操作。任務完成后,平臺會給用戶NEAR代幣獎勵,而這些經過人工標注的數據會被用于訓練相應的AI模型。
比如:AI模型需要提高識別圖片中物體的能力,Vendor可以將大量圖片中帶有不同物體的原始圖片上傳到Tasks平臺,然后用戶手動標注圖片上上物體位置,就可以生成大量“圖片-物體位置”的數據,AI就可以用這些數據來自主學習來提高圖片識別能力。
乍一聽,NEAR Tasks不就是想社會化人工工程來為AI模型做基礎服務嘛,真有那么重要?在此加一點關于AI模型的科普知識。
通常情況下,一次完整的AI模型訓練,包括數據采集、數據預處理和標注、模型設計與訓練、模型調優、微調、模型驗證測試、模型部署、模型監控與更新等等過程,其中數據標注和預處理為人工部分,而模型訓練與優化為機器部分。
顯然,大部分人理解中的機器部分要明顯大于人工部分,畢竟顯得更高科技一些,但實際情況下,人工標注在整個模型訓練中至關重要。
人工標注可以為圖像中的對象(人、地點、事物)等添加標簽,供計算機提升視覺模型學習;人工標注還能將語音中的內容轉化為文本,并標注特定音節、單詞短語等幫助計算機進行語音識別模型訓練;人工標注還可以給文本添加一些快樂、悲傷、憤怒等情感標簽,讓人工智能增強情感分析技能等等。
不難看出,人工標注是機器開展深度學習模型的基礎,沒有高質量的標注數據,模型就無法高效學習,如果標注數據量不夠大,模型性能也會受到限制。
目前,AI微創領域有很多基于ChatGPT大模型進行二次微調或專項訓練的垂直方向,本質上都是在OpenAI的數據基礎上,額外增加新的數據源尤其是人工標注數據來施展模型訓練。
比如,醫療公司想基于醫學影像AI做模型訓練,為醫院提供一套在線AI問診服務,只需要將大量的原始醫學影像數據上傳到Task平臺,然后讓用戶去標注并完成任務,就產生了人工標注數據,再將這些數據對ChatGPT大模型進行微調和優化,就會讓這個通用AI工具變成垂直領域的專家。
不過,NEAR僅僅憑借Tasks平臺,就想成為AI 公鏈龍頭顯然還不夠,NEAR其實還在生態系統中進行AI Agent服務,用來自動執行用戶一切鏈上行為和操作,用戶只需授權就可以自由在市場中買賣資產。這有點類似Intent-centric,用AI自動化執行來提升用戶鏈上交互體驗。除此之外,NEAR強大的DA能力可以讓它在AI數據來源的可追溯性上發揮作用,追蹤AI模型訓練數據有效性和真實性。
總之,背靠高性能的鏈功能,NEAR做AI方向的技術延展和敘事引導,似乎要比純鏈抽象要不明覺厲多了。
半個月前我在分析NRAR鏈抽象時,就看到了NEAR鏈性能+團隊超強web2資源整合能力的優勢,萬萬沒想到,鏈抽象還沒有普及開來摘到果子,這一波AI賦能再一次把想象力放大了。
Note:長期關注還是得看NEAR在“鏈抽象”上的布局和產品推進,AI會是個不錯的加分項和牛市催化劑!