這是我的第349篇專欄文章(zhang)。
生成式人工智能GenAI是(shi)否存(cun)在泡沫?這個問題日(ri)益成為(wei)業界(jie)熱議的焦點(dian)。目前,全球對(dui)AI基礎(chu)設施的投資(zi)已到了(le)癲狂的成千上萬億美(mei)元(yuan)的規模,然而(er)大模型如何實現盈利卻始(shi)終沒有一個明確的答(da)案(an)。
在眾(zhong)說紛紜之(zhi)際,有一(yi)個領(ling)域的(de)(de)潛力卻常(chang)常(chang)被低估(gu),那(nei)就(jiu)是(shi)邊(bian)緣側的(de)(de)人工智能(Edge AI)。作為一(yi)個方興未艾的(de)(de)領(ling)域,邊(bian)緣AI與(yu)云端AI可謂迥然不(bu)同。那(nei)些在數據(ju)中心行之(zhi)有效的(de)(de)方法,不(bu)一(yi)定能夠適用(yong)于工業邊(bian)緣平臺,如安全攝像頭、機械臂(bei)或汽車等場景。
由于(yu)空間(jian)限制、功耗、預(yu)算、數據安(an)全(quan)以及實時性等要(yao)求,邊緣AI領域沒有(you)一刀(dao)切(qie)的解決方案。這意味(wei)著,沒有(you)任何一種方案能(neng)夠滿足所有(you)人工智能(neng)應用的需求,從云(yun)端AI過渡(du)到邊緣AI需要(yao)開發全(quan)新的模型(xing)。
研究(jiu)機構Counter Points的數據顯示,未(wei)來AIoT模(mo)塊(kuai)的計算能(neng)力將實現指(zhi)數級的大幅增長。據測算,未(wei)來七年內配(pei)備神經(jing)網絡處理單元(yuan)NPU的模(mo)塊(kuai)數量將達(da)到(dao)目前的31倍,這將催生大量創新應用的涌現。

面對(dui)如此蓬勃發展的(de)邊(bian)緣(yuan)AI市(shi)場,本文將對(dui)其進行深(shen)入剖析(xi)。筆者認為,邊(bian)緣(yuan)AI的(de)崛起將催生出全新的(de)商業模式(shi),而(er)去(qu)中(zhong)心化物理基礎設施網絡DePIN或許是(shi)幫(bang)助邊(bian)緣(yuan)AI避免(mian)盈利困境的(de)有效(xiao)解(jie)決(jue)方案(an)之一。

在人工智(zhi)能(neng)的(de)(de)世界里,終端(duan)側、邊緣側和云端(duan)扮演(yan)著截然不(bu)同的(de)(de)角色。它(ta)們在形態、功(gong)能(neng)和應用場景上的(de)(de)差異如此之大,以至于可以將其視(shi)為完全不(bu)同的(de)(de)實體。
正是基于這種認識,有業界人士提出了“聯合大模型”的理念,旨在將不同規(gui)模的AI模型分別部署于云、邊、端三個層面,以執行相關(guan)任(ren)務。
在終端側,微型機器學習(TinyML)正在崛起。TinyML是一種(zhong)優化機器學(xue)習模型(xing)的(de)技術(shu),使其能(neng)夠在資(zi)源受限的(de)設備(如(ru)微控制器)上高(gao)(gao)效運(yun)行。這(zhe)些模型(xing)通常(chang)體積小巧、運(yun)算高(gao)(gao)效,能(neng)夠勝任語音識別和傳感器數據分析等任務(wu)。
邊緣側的主角則是小型語言模型(SLM)。SLM指的是那些參數(shu)量低于100億(yi)的輕(qing)量級(ji)神經(jing)網絡模型。與(yu)大型模型相比,SLM以更少的參數(shu)和計算(suan)資(zi)源實現自然語言處理(如下圖所示)。此外,SLM通常(chang)是面向特定(ding)任務(wu)、應用(yong)或用(yong)例量身定(ding)制的。

至于云端,大型語言模型(LLM)無疑是其中的佼佼者。LLM是(shi)一種強大(da)的深度學習(xi)算法(fa),能(neng)夠執行各種自然(ran)語(yu)言處(chu)理(NLP)任務。得益于海量訓練(lian)數據和多個(ge)Transformer模型的使用(yong),LLM具備了識(shi)別、翻(fan)譯、預測乃至生(sheng)成文本等內(nei)容的驚人能(neng)力。
“聯合(he)語言模型”的(de)提出,正是(shi)為了充分利(li)用TinyML、SLM和LLM這三種技術,在保障隱(yin)私(si)性(xing)和安全性(xing)的(de)同時,為企業帶來切實價值。
TinyML以其超低成本和功耗的特點,非常適合在資源有限的設備(如物聯網終端和可穿戴硬件)上(shang)使用。
而(er)(er)SLM可(ke)以看作是LLM的(de)“迷(mi)你版(ban)”。相比動輒數(shu)百萬(wan)、數(shu)十億參(can)數(shu)的(de)GPT-4等大型模(mo)型,SLM的(de)運(yun)行規模(mo)要簡單得多。經過優化的(de)SLM能夠高效(xiao)處理較(jiao)為簡單的(de)任務(wu),而(er)(er)無需消(xiao)耗大量(liang)計算資源。
盡管規模不及LLM,SLM在實際應(ying)用(yong)中卻有(you)著不可小(xiao)覷的(de)作(zuo)用(yong)。從文本生成、問答到語言(yan)翻譯,SLM能夠勝任多種任務,只是(shi)在準確性(xing)和多功(gong)能性(xing)上可能稍遜一籌。
SLM的(de)優勢還體現在其訓練速度快、推理速度佳等方面。它在性能(neng)和(he)資源效率之(zhi)間取得了微(wei)妙的(de)平衡。參數數量的(de)減少,使得SLM的(de)訓練更加經濟高效;而將處理工作負載轉(zhuan)移到邊緣設(she)備(bei),則進一步降低(di)了基(ji)礎設(she)施和(he)運營成本。
BrainChip公司的實踐表明,綜合利用TinyML和SLM能夠取得顯著成效:模型參數數量減少50倍,訓練時間縮短30倍,多重累積運算(MAC)降低5000倍,而精度卻保持不變甚至有所提高。性能和功耗(hao)效率的(de)提升與模型效率成正比。
Tirias Research預測,如果到2028年,使用邊緣設備和終端硬件內的TinyML和SLM混合處理,從數據中心卸載20%的LLM工作負載,那么數據中心基礎設施和運營成本將下降150億美元,整體功耗需求也將降低800兆瓦。
隨著人工智能(neng)技(ji)術(shu)的(de)(de)(de)不(bu)斷發展(zhan),越來越多(duo)的(de)(de)(de)AI模型開始從云端數(shu)據中心向(xiang)邊緣(yuan)設備遷移。這種趨(qu)勢的(de)(de)(de)背后,是成(cheng)本、實時性和安全性等因素的(de)(de)(de)綜合考(kao)量。
在(zai)(zai)云端運行(xing)AI模(mo)型(xing)(xing),盡管能夠(gou)利用數(shu)(shu)據(ju)(ju)中心強大的算力資源,但往往面臨著高昂的費用、網絡延遲(chi)和(he)數(shu)(shu)據(ju)(ju)安全隱患(huan)等(deng)問題。相比之下,通(tong)過(guo)模(mo)型(xing)(xing)壓縮等(deng)優化(hua)技術(shu),將神經(jing)網絡模(mo)型(xing)(xing)部(bu)署在(zai)(zai)網絡邊緣(yuan)設(she)備(bei)上運行(xing),即邊緣(yuan)計算,則有望在(zai)(zai)保證性能的同時,大幅降(jiang)低成本和(he)延遲(chi),提高數(shu)(shu)據(ju)(ju)安全性。
然(ran)而(er),對于許多邊緣(yuan)應(ying)用場景而(er)言,簡單地(di)將數據中(zhong)心的解決方案“縮小”并非最佳選擇。在醫療保健、汽車、制造(zao)等關鍵領域,邊緣(yuan)AI應(ying)用通常專注于傳感器數據的實(shi)時(shi)處理,對模型(xing)的尺寸、精度和(he)執行效(xiao)率有著更高的要求。
這就催生了“EdgeGenAI”的概念,即在設備上執行的生成式AI。越來越多的硬件展示了EdgeGenAI的能力,高通、英偉達等芯片廠商紛(fen)紛(fen)展示(shi)了在移動端運(yun)行Stable Diffusion、LLaMA等模型的可能性,這(zhe)預(yu)示(shi)著EdgeGenAI已(yi)經到來(lai)。
根據Tirias Research的分析,隨著AI模型的不斷壓縮優化以及終端和邊緣設備算力的持續提升,越來越多的GenAI模型將能夠在設備端完成推理和執行。這意味(wei)著,適用于端側處理的模(mo)型規模(mo)將(jiang)(jiang)隨時間推移而不(bu)斷(duan)增加,設備本地(di)的AI處理能力將(jiang)(jiang)不(bu)斷(duan)拓展。
與此同時(shi),消(xiao)費(fei)類(lei)和(he)工(gong)業物聯網設(she)備所承(cheng)載的平(ping)均推理模(mo)型參數規模(mo)也在不斷(duan)增長。為了評估GenAI的發展前景和(he)總(zong)體擁有(you)成(cheng)本TCO,Tirias Research對(dui)不同類(lei)別的設(she)備進行了細(xi)分和(he)建模(mo),如下圖所示。
研究(jiu)發(fa)現(xian),在設備本(ben)地處理AI任務,不僅能(neng)夠(gou)顯著(zhu)降低響應延遲(chi),提(ti)升用戶體驗,還能(neng)夠(gou)有效緩解數(shu)據(ju)隱私和(he)安全(quan)問(wen)題。通過減(jian)少或消除與云端(duan)的數(shu)據(ju)交(jiao)互,敏感數(shu)據(ju)和(he)GenAI生成的結果(guo)都能(neng)夠(gou)在設備層(ceng)得到(dao)妥善保護,大大降低了隱私泄露(lu)和(he)網絡攻(gong)擊的風險。

不過,并非所(suo)有GenAI應用都適合完全在設備上處理(li)。受限于(yu)芯片算力、內存(cun)容(rong)量和功耗預(yu)算,許多大型模(mo)型仍然無法(fa)在單個(ge)設備上高(gao)效執行。
針(zhen)對這一問(wen)題(ti),“聯合大(da)模(mo)型”的(de)提出恰逢其時(shi)。
通過在(zai)設(she)備與云端(duan)之(zhi)間(jian)合理分(fen)配計(ji)算任務,這(zhe)種(zhong)混合計(ji)算模式能夠在(zai)降低(di)延(yan)遲、保(bao)護隱私的(de)同(tong)時,充(chong)分(fen)利用(yong)云端(duan)的(de)算力優勢。
例如(ru)(ru),在圖像生(sheng)成(cheng)應(ying)用中,初始圖像可以在設備上快速生(sheng)成(cheng),而后續的(de)增強和優(you)化則交由云端(duan)處理。在需(xu)要整合(he)多源數據(ju)(ju)的(de)場景,如(ru)(ru)實(shi)時地(di)圖更新,將本地(di)信息與云端(duan)模型結合(he)也能發揮協同效應(ying)。某些涉及專有數據(ju)(ju)的(de)行業應(ying)用,如(ru)(ru)工業和醫療(liao)領域,出于(yu)安全考慮(lv),也可能需(xu)要在云端(duan)完成(cheng)部分敏感計算任務。
據此,邊緣AI有望迎來爆發式增長,據Counter Point預測,到2030年,搭載AI算力的物聯網模塊將占整體出貨量的25%,遠高于2023年的6%。
在汽車領域,AI助手通過語音交互、導航引導和娛樂控制,正在重塑自動駕駛體驗;在零售行業,搭載AI模塊的智能POS終端憑借掌紋或人臉識別、行為分析等能力,助力客戶洞察、庫存管理和風險防控;在智能家居場景,集成AI功能的(de)路(lu)由器有(you)望成為照明、安防、能源(yuan)管(guan)理等子系統的(de)中樞。此(ci)外,無人(ren)機、工(gong)業(ye)手持設備、服務機器人(ren)等領域,也將(jiang)成為邊緣AI芯(xin)片的(de)主要應用陣地。

在人工(gong)智能的商業化進程(cheng)中,大型(xing)語言(yan)模型(xing)(LLM)的盈利之路一直(zhi)備受關注。
盡(jin)管(guan)生成(cheng)式AI初(chu)創企業(ye)頻(pin)頻(pin)獲得高額融資,估值(zhi)屢創新高(如下圖所示),但如何將技術優勢(shi)轉化為持續穩定的收入,仍是一個懸而未決的難題(ti)。

與(yu)此同(tong)時,隨(sui)著(zhu)AI模型不(bu)斷向邊緣遷移,嵌(qian)入(ru)式AI設(she)備的市場需求正(zheng)在(zai)快(kuai)速增長(chang)。在(zai)這一背景下(xia),去中(zhong)心化物理(li)基礎設(she)施網絡(DePIN)與(yu)邊緣AI的結合,有望為這一難題提供(gong)一個全新的解決思路。
DePIN的核心(xin)理念,是通過區塊(kuai)鏈技(ji)術和token經濟,將分(fen)散在(zai)全球(qiu)各地的物理設(she)(she)備連接起來,形成一個去(qu)中心(xin)化的資源(yuan)共享(xiang)網(wang)絡。在(zai)這個網(wang)絡中,設(she)(she)備所有者(zhe)可以(yi)將閑置的計算、存(cun)儲(chu)、帶寬等資源(yuan)出(chu)租給需求(qiu)方(fang),從而(er)獲得token激勵。而(er)需求(qiu)方(fang)則可以(yi)以(yi)更低(di)的成本、更高的靈活性(xing),獲得所需的基礎設(she)(she)施服務。
如果將DePIN的模式引入邊緣AI領域,可以極大地促進AI設備的普及和應用。
一方(fang)面(mian),設備(bei)(bei)制造商(shang)可(ke)以通過融入DePIN社(she)區,將AI設備(bei)(bei)預置到去中(zhong)心化網絡中(zhong),以資源共享(xiang)的(de)方(fang)式(shi)銷售(shou)設備(bei)(bei)使用(yong)權,而非一次(ci)性(xing)(xing)售(shou)賣(mai)硬件產品。這(zhe)種“設備(bei)(bei)即(ji)服務”的(de)模式(shi),將大大降低用(yong)戶的(de)前期采購成本,提升邊緣AI的(de)易用(yong)性(xing)(xing)。
另一(yi)方面,AI模型(xing)提供商也(ye)可以利用(yong)DePIN網絡(luo),將訓(xun)練(lian)好的模型(xing)以API的形式提供給設備所有者,并按(an)照調用(yong)量獲(huo)得(de)token收(shou)益。這種按(an)需付費的機制,將顯著降低邊緣AI的推理(li)成本,使中小企業和個人開發者也(ye)能夠負擔得(de)起高質量的AI服(fu)務。
某寵(chong)物(wu)(wu)智(zhi)能項(xiang)圈(quan)廠(chang)商的(de)(de)案例,為DePIN賦能邊緣AI提(ti)供了(le)一個(ge)生動的(de)(de)例證。該廠(chang)商計劃將智(zhi)能項(xiang)圈(quan)引入(ru)DePIN社(she)區,構建一個(ge)去中心化(hua)的(de)(de)寵(chong)物(wu)(wu)數據(ju)(ju)共享網絡。憑借項(xiang)圈(quan)內(nei)置(zhi)的(de)(de)活動監測和(he)定位跟蹤(zong)功能,海(hai)量的(de)(de)寵(chong)物(wu)(wu)行為數據(ju)(ju)將被(bei)采(cai)集和(he)流轉,成為寵(chong)物(wu)(wu)AI模型(xing)訓(xun)練的(de)(de)重要數據(ju)(ju)源。而寵(chong)物(wu)(wu)主人則(ze)可(ke)以選擇性地共享這些(xie)數據(ju)(ju),并獲(huo)得token激勵。
這一(yi)去中心化AI范式,不僅能夠(gou)顯著提(ti)(ti)升數據處理的實時性和(he)隱(yin)私性,更能夠(gou)為寵物(wu)AI模型的開(kai)發和(he)優(you)化提(ti)(ti)供源源不斷的數據支(zhi)持。
與此同時,該廠商(shang)還(huan)計劃(hua)開(kai)(kai)放(fang)項(xiang)圈的(de)(de)邊(bian)(bian)緣算力,允許第(di)三方開(kai)(kai)發者將(jiang)寵物AI模型部署(shu)到項(xiang)圈中(zhong),實現場景化的(de)(de)AI應(ying)(ying)用(yong),如異常行為檢測、情(qing)緒識別(bie)、安全區域(yu)預警等。這種“AI即(ji)插即(ji)用(yong)”的(de)(de)開(kai)(kai)放(fang)生(sheng)態,將(jiang)極(ji)大(da)地釋放(fang)邊(bian)(bian)緣AI的(de)(de)想象空間,催生(sheng)出一批(pi)以寵物為中(zhong)心的(de)(de)創新應(ying)(ying)用(yong)和服務。
DePIN與邊緣AI的結合,不僅為(wei)設備制造商開辟了新(xin)的銷售渠(qu)道和(he)盈利模式,也為(wei)AI企(qi)業(ye)搭建了一(yi)個海量(liang)數據聚合、模型(xing)快速部署的去中心化基礎(chu)設施。
隨著TinyML、SLM等(deng)技術的成(cheng)熟,AI模型(xing)正在從云端(duan)向邊緣大(da)規模遷移,催生(sheng)出(chu)EdgeGenAI等(deng)全新的應用形態。通過模型(xing)壓縮、混合計(ji)算等(deng)優化手段,百億級參數模型(xing)已經能(neng)夠在智能(neng)手機等(deng)終(zhong)端(duan)設備(bei)上高效運(yun)行。在萬物(wu)智聯的時(shi)代,邊緣AI將為汽車、零(ling)售、家居等(deng)行業賦能(neng),創造巨大(da)的商業價值。
不過,當前的(de)(de)邊緣(yuan)AI生態仍面臨著設備(bei)成本高、開發門檻高、盈利模式單一等挑戰(zhan)。去中心化(hua)(hua)物(wu)理(li)網絡(luo)DePIN的(de)(de)引入(ru),有(you)望通過將AI設備(bei)接(jie)入(ru)資(zi)源共(gong)享網絡(luo),建(jian)立按需付費(fei)機(ji)制,構建(jian)開放(fang)生態,從而有(you)效破解邊緣(yuan)AI的(de)(de)商業化(hua)(hua)困(kun)局(ju)。
參考資料:
Federated Language Models:SLMs at the Edge + Cloud LLMs,作者:Janakiram MSV,來源:thenewstack.io
Tiny but mighty:The Phi-3 small language models with big potential,作者:Sally Beatty,來源:微(wei)軟(ruan)