由AIGC趨勢(shi)掀起的新(xin)一輪(lun)AI競賽,已經到(dao)了白熱化階段。
就在人(ren)人(ren)爭相發大模型“秀肌肉”時,也有人(ren)不按套路出牌。
在(zai)亞馬遜云科(ke)技(ji)的最新發布上,雖然也首發了自研基礎大模型Titan,不過仔細琢磨就發現,這是“醉翁之意不在酒”,真正的主角是一個名(ming)叫Bedrock的AI平臺(tai)。
在這里可(ke)以直接通過API調用多個(ge)熱門生成(cheng)式AI大模型,包(bao)括(kuo)Stable Diffusion、Claude等。
有(you)聲音評價(jia)說,這一波操作是把生成式AI上云了,并且為自家大模型“打開格局(ju)”。
這既讓人意外,但(dan)也不意外。
畢竟是全球云計算行業的“頭號(hao)玩家”,一定(ding)會在AIGC這波趨勢中留(liu)下名字(zi)。
但從(cong)實際動向來(lai)看,不是(shi)盲從(cong)趨勢,而是(shi)基(ji)于自身定(ding)位(wei)和特(te)長,找到(dao)適合(he)的身位(wei)。
由此不禁好奇(qi),亞馬遜(xun)云科技究竟如何(he)靠Bedrock殺(sha)入AIGC戰局?這背后有哪些趨勢(shi)?AIGC產(chan)業如今(jin)發(fa)展地到底怎樣了?
想要理解巨頭最新發布背后(hou)的動(dong)因,還要先(xian)了解下發布的核心內容(rong)。
簡單(dan)理解,Bedrock就是(shi)一個集(ji)成了多(duo)種生成式AI模型(xing)的平臺。
在這里(li)可以通過API訪(fang)問的方式,快(kuai)速調用業(ye)內領先的大(da)(da)模(mo)型。如Stability AI、Anthropic、AI21 Labs和亞馬遜云科技自家(jia)的大(da)(da)模(mo)型。
即Stable Diffusion、Claude等(deng),都是大(da)家耳(er)熟能詳的生成式AI了(le)。
除了這(zhe)些(xie)“熟面孔”外,亞(ya)馬遜云(yun)科技首次推(tui)出了自研大語言(yan)模型Titan:
據介紹,目前Titan包括了兩(liang)個全新的大語言(yan)模型:
Titan text:專注于生成(cheng)式NLP任(ren)務,比如(ru)寫總(zong)結、創作博客、文字分(fen)類、對話和信息提(ti)取等(deng);
Titan Embeddings:用(yong)于搜(sou)索和個性化(hua)等,可將(jiang)文本輸入翻譯成包含語(yu)義(yi)的(de)嵌入編碼能(neng)夠讓搜(sou)索結(jie)果更相關(guan)和符(fu)合上下文語(yu)境,目前自家產品搜(sou)索中已經(jing)用(yong)上了類似模(mo)型。
這些模型都會(hui)在Bedrock上托管,可(ke)以按需調用(yong)或進行定制,無需管理(li)任何基礎(chu)設施。
舉例來說(shuo),用(yong)戶可以將基(ji)礎模(mo)型與Amazon SageMaker機(ji)器學習功能(neng)集(ji)成(cheng),使用(yong)Experiments測試不同(tong)模(mo)型和使用(yong)Pipelines大(da)規模(mo)管理基(ji)礎模(mo)型等。
其中(zhong)定制化是Bedrock比較重要的一個功能,它支持少樣本定制和微調大模型,最少僅需20個(ge)示例即可。
而且(qie)亞馬(ma)遜云科技(ji)強(qiang)調(diao),在訓練底層模(mo)型的過程(cheng)中不(bu)會使(shi)用(yong)任何用(yong)戶(hu)數(shu)據。并對所有數據都進行加密,不會離開用戶的虛擬私有網絡(VPC)。
平臺層向下,就是硬(ying)件基礎設(she)施。
作為云廠商,自然洞察到了這波最(zui)新AI趨勢下,對算力的巨(ju)大需求。
由此亞馬遜云科技也一并宣布了兩款自研芯片實例正式可用,一款針對訓練,一款針對推理。
首先是基于訓練芯片Trainium的Amazon EC2 Trn1n。
與其他同類實例(li)相比(bi),此前的Trn1節省的訓練成本已達50%。而通(tong)過在超(chao)大規模集群(UltraClusters)中(zhong)進行部署,還可以實現超過(guo)6 exaflops的計算能力,數據傳輸規(gui)模(mo)達到(dao)PB級。
這讓內部搜索團隊等用戶訓練大模型的時間從(cong)從幾(ji)個月縮短(duan)到(dao)了幾(ji)周甚至幾(ji)天。
專為網絡(luo)密集型大模(mo)型設(she)計的Trn1n實例,直接可提供高達(da)1600Gbps的網絡(luo)帶寬,總體性能比Trn1還要高出20%。
其次(ci)是用于推理(li)的Amazon EC2 Inf2實(shi)例。
亞(ya)馬遜云科技認(ren)為,隨著基礎(chu)模型進入大規模部署的階段,主要成本(ben)將轉移到模型微調和(he)推理。
Inf2實(shi)例由自研的推(tui)理專用芯片Inferentia2提供支持(chi),后者(zhe)在亞馬(ma)遜云科技去(qu)年的開發者(zhe)大會上首次亮相(Inferentia一代(dai)則(ze)問世于2018年)。
它(ta)專門針(zhen)對千億參數的(de)生成式大模型進(jin)行了優化:
與上(shang)一代相比(bi),吞(tun)吐量提高了4倍(bei),延遲降低了10倍(bei),并可(ke)支持大規(gui)模分布式推理;與同類實(shi)例相比(bi),每瓦性能比(bi)提高了50%。
除此之外,亞馬遜云科技還為(wei)普(pu)通開發(fa)者(zhe)推(tui)出了完(wan)全(quan)免費的輔助代碼編寫工具CodeWhisperer。
無論是面向行業用戶、還是C端用戶,亞馬遜云科技似乎都在想(xiang)辦法讓最新(xin)的AI趨勢(shi)離大家更近一(yi)點(dian)。
實際上,這也是目前(qian)很多(duo)AI大廠、科技巨頭正在推進的(de)事,只不過各家的(de)方法(fa)不盡相同。
那么,為(wei)什么需要(yao)搭建Bedrock這樣的AI平臺?它們會給行(xing)業帶來哪些影響?
由表(biao)及(ji)里(li),大概有兩層原因驅動。
首先(xian)是(shi)直接原因,行業需求。
生成(cheng)式AI將會形成(cheng)一個新市場,如今已是行業公認的(de)趨勢(shi)。
據(ju)Grand View Research估計(ji),到2030年,生成式(shi)AI的市場規模可能接近1100億(yi)美元。
這(zhe)意味著(zhu)在未來(lai)一段時間內,全球將會有大量的行業和企業,尋(xun)求將生成式AI接(jie)入到自家業務中。并且速(su)度要快,否則一不小心就會被彎道超(chao)車(che)。
比如亞馬遜云科技(ji)就(jiu)提(ti)到過(guo),過(guo)去一段(duan)時間里他們的(de)(de)客戶來問(wen)得最多(duo)的(de)(de)問(wen)題便是:
我怎么(me)能快速上車將它們(men)用到(dao)自己的業務中,但又(you)不(bu)用耗費太多(duo)精力和(he)money?
畢竟對于絕大部(bu)分(fen)企業來說,煉出一個自家大模型(xing)并不劃(hua)算(suan),背后(hou)要投入的人力(li)、物(wu)力(li)、時間,都(dou)太多了;更何況開(kai)發難度也很高。
實(shi)際上,很(hen)多(duo)廠商已經提供了API接(jie)口供行業用(yong)(yong)戶直接(jie)調用(yong)(yong),但這種方法還是要(yao)求用(yong)(yong)戶自己管理(li)基(ji)礎設施(shi);如果想要(yao)構建深入場(chang)景的定制(zhi)化(hua)模型(xing),也還是需(xu)要(yao)自己做開(kai)發(fa),整個流程不夠高效便捷。
由此云服(fu)務就被推到了臺前。
這種基于(yu)互聯網給企業(ye)提供基礎架構、平臺(tai)或軟件的服(fu)務,本身在靈(ling)活性、易用性和能(neng)力上都得(de)到了行業(ye)驗證,尤其(qi)大模型本身對云計算就有著天然的依賴性。
在生成式(shi)AI席(xi)卷而來(lai)時,不少聲音認(ren)為這也會為整個云(yun)計算(suan)行業帶來(lai)根本性的改變,云(yun)計算(suan)的主流(liu)商業模式(shi)會從傳統(tong)的IaaS變成MaaS。
而近期,越(yue)來越(yue)多(duo)AIGC玩家也(ye)在順勢推出自(zi)己云服(fu)務,兜售大模型能力。
那么亞馬遜云科技的(de)動作,則(ze)是(shi)給出(chu)了一種新范式,將多種大模型囊括在(zai)一起,放在(zai)一個大平臺底(di)座上,讓用戶的(de)可選擇性提(ti)升,同時發揮他們云廠商本身的(de)優勢,讓用戶的(de)調用和定制化過(guo)程(cheng)門檻更低(di)、效率更高,并(bing)在(zai)安(an)全性做出(chu)保障(zhang)。
更(geng)深層(ceng)次的原(yuan)因在于,給大模型加底座(zuo),能(neng)夠更(geng)進一步降本增(zeng)效(xiao),這本身就符合市場和(he)行業的發展要求。
參考數(shu)字化(hua)(hua)轉型浪潮的(de)(de)(de)演進(jin)過(guo)程,從(cong)最(zui)初的(de)(de)(de)無紙化(hua)(hua),到(dao)云計算的(de)(de)(de)使用(yong),本(ben)質上都是降本(ben)增效的(de)(de)(de)過(guo)程,讓企業(ye)可(ke)以在(zai)生產(chan)制造、推進(jin)業(ye)務(wu)的(de)(de)(de)過(guo)程中(zhong)更高效利用(yong)資(zi)源,降低生產(chan)運營成本(ben)。
最新一輪(lun)的生成(cheng)式AI浪(lang)潮,亦會(hui)如此(ci)。
只(zhi)是(shi)(shi)這一輪的(de)主(zhu)角(jiao)不再是(shi)(shi)計算(suan)機、云計算(suan),而是(shi)(shi)AI大模型。
未(wei)來一(yi)(yi)段(duan)時間內,Bedrock這(zhe)類AI平臺或(huo)許還會(hui)出現(xian)新玩家,并進一(yi)(yi)步形成一(yi)(yi)個賽道、成為AIGC產業中的一(yi)(yi)層結構。
亞(ya)馬(ma)遜(xun)云科技的做(zuo)法,正(zheng)是給(gei)大家(jia)示范(fan)了一下,科技巨頭在(zai)面對最新趨勢時,如何結合自(zi)身優勢找(zhao)到合適身位。
而除了大模(mo)型(xing)底(di)座,在近期或許(xu)還會衍生出一大批“新興物種”。比如(ru)當下軟(ruan)件(jian)應用在爭先恐后接入Chatbot,就有企業(ye)推出相應服務幫(bang)軟(ruan)件(jian)應用接入大模(mo)型(xing)能力。
可見(jian)在當下(xia)這個時(shi)刻,怎么把握(wo)機遇(yu)非常關鍵。
該怎么做?
前面提到,到2030年,全球生成式AI市場規模可能接近(jin)1100億(yi)美元這一巨大數字。
此(ci)等規(gui)模下,自然(ran)會涌現種(zhong)類空前豐富的玩家。
根據量(liang)子位(wei)智庫(ku)3月(yue)發布的(de)《AIGC產業全景報告》,無論(lun)玩(wan)家屬于(yu)初創公(gong)司還(huan)是互聯(lian)網(wang)巨頭、專門的(de)AI廠商/科研機構還(huan)是生態鏈(lian)場景公(gong)司,我們都可按基礎(chu)設施(shi)層(ceng)、模(mo)型層(ceng)和應用層(ceng)將它們分為三大類。
具體而言,基礎設(she)施(shi)(shi)層主要(yao)包含為行(xing)業(ye)提供數據、算(suan)力(li)、計算(suan)平臺、模型開發訓練平臺以(yi)及其他(ta)配(pei)套設(she)施(shi)(shi)的企業(ye)。
其中,比(bi)如光(guang)數(shu)據(ju)(ju)這一環(huan)就(jiu)分為(wei)數(shu)據(ju)(ju)提(ti)(ti)供(gong)商(shang)和數(shu)據(ju)(ju)服務商(shang),光(guang)數(shu)據(ju)(ju)提(ti)(ti)供(gong)商(shang)就(jiu)包括提(ti)(ti)供(gong)通用數(shu)據(ju)(ju)、垂(chui)直數(shu)據(ju)(ju)、特定業務下的(de)(de)標注數(shu)據(ju)(ju)、符合法規(gui)的(de)(de)審核數(shu)據(ju)(ju)等(deng)等(deng)。
對于算力平臺(tai)來說,智算中心這類算力集群(qun)、云服務(wu)商和硬件領域(yu)的芯片(pian)商也都是不(bu)可或(huo)缺的角色(se)。
模型(xing)層則主要(yao)分為專供底(di)層通用大模型(xing)和中(zhong)間層模型(xing)這兩類(lei)。
前者由于建設和提升迫切(qie)性最強,目前最受關注,吸(xi)引了一大批“火力”。
不過,它(ta)也相對最容易形(xing)(xing)成壁壘,因為人才(cai)、時(shi)間、數據(ju)和資金等(deng)多個(ge)方面都會形(xing)(xing)成制約。
值得注意的是(shi),如Hugging Face、魔搭ModelScope這樣的模型站玩家,也可以歸于(yu)這一類。
至(zhi)于中間層模型,則主打(da)垂(chui)直化、行業化和(he)細分化,可(ke)分為(wei):
(1)中間集成商(shang),主(zhu)要組合多個接口,形成新的大模型;
(2)行(xing)業(ye)大(da)模型(xing)商,由底層模型(xing)持有者進行(xing)端(duan)到端(duan)提供;
(3)以及二次開(kai)發商(shang),主要增加行業特色數據和(he)行業認知。
這類玩家比較適合具(ju)有特(te)定行業積累以及技術積累的(de)企業快(kuai)速進入(ru)。
最(zui)后,應用(yong)層。如果按照底層邏輯來看,可以分(fen)為(wei)生產可直接消費內容(rong)、結合底層系統生產含有附加(jia)價值內容(rong)、提(ti)供(gong)內容(rong)生產輔助工具、用于提(ti)供打包(bao)內(nei)容(rong)或解決(jue)方案(an)這四類。
如果基于(yu)模(mo)(mo)態分,則包括文(wen)本(ben)生(sheng)(sheng)成、圖像生(sheng)(sheng)成、音頻(pin)/視頻(pin)/跨模(mo)(mo)態、策(ce)略生(sheng)(sheng)成等等,其中文(wen)本(ben)生(sheng)(sheng)成又包括應用型、創(chuang)作型、交互型和輔助生(sheng)(sheng)成。
這(zhe)是創業最為友好(hao)的一(yi)層,當然,關鍵卡口還是模型(xing)層玩(wan)家。
具體分類暫且不(bu)表(biao)。
重(zhong)點是,從以上這(zhe)些(xie)內容我們可以看到,整個(ge)AIGC市場的(de)玩家方(fang)向確(que)實(shi)多如(ru)牛毛,而由于行業(ye)整體還(huan)處于培育摸索期,不管(guan)哪個位置都還遠談不上飽和,可謂機會多(duo)多(duo)。
那么,如何找到(dao)合適(shi)的位(wei)置就成了關(guan)鍵。
如亞馬(ma)遜云科(ke)技,作(zuo)為一家云廠商,偏就(jiu)盯準應用(yong)層(ceng),提供打包內容(rong)或解決方案,做上(shang)了(le)各類大模型的接(jie)入和改造平臺。
這(zhe)也傳遞了一(yi)個聲音,行業巨頭不一(yi)定非要都往(wang)大模型方(fang)向“卷”,根(gen)據市場(chang)需求(qiu)和自(zi)身實力出發,即使入局較慢(man)幾(ji)步,也能get恰到好處(chu)的落腳點(dian)。
據(ju)可靠消息(xi):5月25日將舉辦亞馬遜云科(ke)技大(da)模型及生成(cheng)式(shi)AI發布深度解讀大(da)會(hui),敬請期待(dai)。