由AIGC趨勢掀(xian)起的新一輪AI競賽,已經到了白熱(re)化階段。
就在(zai)人人爭相發大(da)模型“秀肌肉”時,也(ye)有人不按套路出牌。
在亞馬遜云科技的最新發布上,雖然也首發了自研基礎大模型Titan,不過仔細琢磨就發現,這是“醉翁之意不在酒”,真正的主角是一個名叫Bedrock的AI平臺。
在這里可以直接通過API調用多個熱門生成式AI大模(mo)型(xing),包括Stable Diffusion、Claude等。
有聲(sheng)音(yin)評價說,這一波操作是把生成式(shi)AI上(shang)云了(le),并且(qie)為自(zi)家大(da)模型(xing)“打開(kai)格局”。

這既讓人(ren)意外,但也(ye)不意外。
畢竟(jing)是(shi)全球云計算行(xing)業(ye)的“頭(tou)號玩家”,一(yi)定會在AIGC這波(bo)趨勢中留下名字。
但(dan)從實際動向(xiang)來看,不是(shi)盲從趨勢,而是(shi)基于(yu)自身定位(wei)和特長(chang),找到適合的身位(wei)。
由此(ci)不禁好奇,亞馬(ma)遜云科技究竟如(ru)何(he)靠Bedrock殺入AIGC戰局?這(zhe)背后有哪些趨勢?AIGC產(chan)業如(ru)今發展地到底怎樣了?
想要(yao)理解(jie)巨頭最新發布背后的動因,還要(yao)先了解(jie)下(xia)發布的核(he)心內容。
簡(jian)單理(li)解,Bedrock就是一(yi)個集成(cheng)了多(duo)種生成(cheng)式AI模(mo)型(xing)的(de)平臺(tai)。
在這里可以通過API訪問的方式,快速(su)調用(yong)業內領先的大(da)模(mo)型。如Stability AI、Anthropic、AI21 Labs和亞馬遜云(yun)科技自家(jia)的大(da)模(mo)型。
即Stable Diffusion、Claude等,都(dou)是大家耳熟能(neng)詳的生成式AI了。
除了(le)這些“熟面孔”外,亞馬(ma)遜云(yun)科技首次推出了(le)自(zi)研大語言模型(xing)Titan:
據介紹(shao),目(mu)前Titan包括了兩(liang)個全新的大語(yu)言模型:
Titan text:專注于生成式NLP任務,比(bi)如寫(xie)總(zong)結、創作博客(ke)、文字分(fen)類(lei)、對話(hua)和信息提取(qu)等;
Titan Embeddings:用于搜索(suo)和個(ge)性化等,可將文本輸(shu)入翻譯成包含語義的嵌入編碼能夠讓(rang)搜索(suo)結(jie)果(guo)更相(xiang)關和符合上下文語境,目前自家產(chan)品(pin)搜索(suo)中(zhong)已經用上了(le)類似模型。

這(zhe)些模(mo)型都會在Bedrock上托管,可(ke)以按(an)需調用或進(jin)行定(ding)制,無(wu)需管理(li)任何基礎設(she)施。
舉例(li)來說,用(yong)戶可(ke)以將基(ji)礎模型(xing)與Amazon SageMaker機器學習(xi)功能(neng)集成,使用(yong)Experiments測試不同模型(xing)和使用(yong)Pipelines大(da)規模管理基(ji)礎模型(xing)等。
其(qi)中定制化是Bedrock比較重要的一個功能,它支持少樣本定制和微調大模型,最少僅需20個示例即可。
而(er)且亞馬遜云科技強調,在訓(xun)練底層模(mo)型的(de)過程中不會使用任何用戶數據(ju)。并對所有數據都進行加密,不會離開用戶的虛擬私有網絡(VPC)。
平臺層向下,就是硬件基(ji)礎(chu)設施。
作為云(yun)廠商,自然洞察到了這波最新AI趨勢下(xia),對(dui)算力的巨(ju)大需(xu)求。
由此亞馬遜云科技也一并宣布了兩款自研芯片實例正式可用,一款針對訓練,一款針對推理。
首先(xian)是基于(yu)訓練(lian)芯片Trainium的Amazon EC2 Trn1n。
與其他(ta)同(tong)類實例相(xiang)比,此前的(de)Trn1節省(sheng)的(de)訓(xun)練(lian)成(cheng)本已達50%。而(er)通過在超(chao)大規(gui)模集群(UltraClusters)中進行部署(shu),還可以實現超過6 exaflops的計(ji)算能力,數據傳輸(shu)規模達到PB級(ji)。
這(zhe)讓(rang)內部(bu)搜索團隊等用戶訓練(lian)大模(mo)型的時間從(cong)從(cong)幾個月縮(suo)短到了幾周甚至(zhi)幾天。
專為網絡密(mi)集型大模型設計的Trn1n實(shi)例(li),直(zhi)接(jie)可(ke)提供高達(da)1600Gbps的網絡帶寬,總(zong)體性能比Trn1還要高出(chu)20%。
其次是用于推理(li)的Amazon EC2 Inf2實例。
亞(ya)馬(ma)遜云科技認(ren)為,隨著基礎模型(xing)進入大(da)規模部署的(de)階段,主要(yao)成本將轉移到模型微調和(he)推(tui)理。
Inf2實例由自研的(de)推理專用芯片Inferentia2提供(gong)支持,后者在(zai)亞馬遜云科技去年(nian)的(de)開發者大會(hui)上(shang)首(shou)次亮相(Inferentia一代(dai)則問世(shi)于(yu)2018年(nian))。
它(ta)專門針對千億(yi)參(can)數(shu)的(de)生成式(shi)大模型進行了優化(hua):
與上一代相(xiang)比(bi),吞吐量提高(gao)了4倍,延遲降低了10倍,并可支持(chi)大(da)規模分布式推理;與同類實(shi)例相(xiang)比(bi),每瓦(wa)性能比(bi)提高(gao)了50%。

除此(ci)之外,亞馬(ma)遜云科技(ji)還為普通開發者推(tui)出了完全免費的輔助代碼編寫工具CodeWhisperer。
無(wu)論是(shi)面向行(xing)業(ye)用(yong)戶、還是(shi)C端用(yong)戶,亞馬遜云科(ke)技似乎都在想辦(ban)法讓最新的AI趨勢離大家更近一點(dian)。
實(shi)際上,這也是(shi)目前很多AI大廠、科技巨(ju)頭正在推進的事,只不過(guo)各家的方法不盡相同。
那么,為(wei)什么需要(yao)搭建Bedrock這樣(yang)的AI平臺?它們會給(gei)行(xing)業帶來(lai)哪(na)些影響?
由表及里,大概有兩層原因(yin)驅動。
首先是直接(jie)原(yuan)因,行(xing)業(ye)需求。
生成式AI將會形成一(yi)個新市場,如今已是行(xing)業公(gong)認的趨勢。
據Grand View Research估計(ji),到(dao)2030年,生成式AI的(de)市場規模可能(neng)接近(jin)1100億美元。
這意(yi)味著在未來一段(duan)時間內,全球將(jiang)會有大量的行業和(he)企業,尋求(qiu)將(jiang)生成式AI接入(ru)到自家業務中。并且速(su)度(du)要(yao)快,否(fou)則一不小心就(jiu)會被彎道(dao)超車。
比如亞馬遜云科技就提到過,過去一段時間里他們的(de)客戶來(lai)問得最多的(de)問題便是(shi):
我怎么能快速上(shang)車將(jiang)它們用(yong)到自己的業(ye)務中,但(dan)又不用(yong)耗費太(tai)多精力和money?
畢竟對(dui)于絕大部(bu)分(fen)企(qi)業來(lai)說,煉出一(yi)個自家大模型并不劃算,背(bei)后要投入的人力(li)、物力(li)、時間(jian),都太多了;更何況開(kai)發難度也(ye)很高。
實(shi)際上,很多廠商已經提供(gong)了API接口供(gong)行(xing)業用(yong)戶直(zhi)接調(diao)用(yong),但(dan)這種方法還是(shi)要(yao)(yao)求用(yong)戶自(zi)己(ji)(ji)管理基礎設施;如果想要(yao)(yao)構建(jian)深入(ru)場景的定(ding)制化模型,也還是(shi)需要(yao)(yao)自(zi)己(ji)(ji)做(zuo)開(kai)發,整個流(liu)程(cheng)不夠高效便捷。
由(you)此云服務就(jiu)被推到了臺前。

這種基(ji)于互聯網給企業提供(gong)基(ji)礎(chu)架構、平臺或軟件的(de)服務,本身在靈活性、易用性和能力上(shang)都得到了行(xing)業驗證,尤其大(da)模(mo)型本身對云(yun)計算(suan)就有著(zhu)天然(ran)的(de)依賴性。
在生成式(shi)AI席卷而來時(shi),不少(shao)聲音(yin)認為(wei)這也(ye)會為(wei)整個云計(ji)算(suan)行(xing)業(ye)帶來根本性的改變,云計(ji)算(suan)的主流(liu)商業(ye)模(mo)式(shi)會從傳統的IaaS變成MaaS。
而(er)近期,越來越多AIGC玩家也(ye)在(zai)順勢推(tui)出自己云(yun)服務,兜售(shou)大模(mo)型能力(li)。
那么亞馬遜(xun)云(yun)科技的(de)動(dong)作,則(ze)是給出了一(yi)種(zhong)新范(fan)式,將多(duo)種(zhong)大(da)模型囊括(kuo)在一(yi)起,放在一(yi)個大(da)平臺(tai)底座上,讓(rang)用戶的(de)可(ke)選(xuan)擇性(xing)提升,同(tong)時發(fa)揮他們(men)云(yun)廠商本(ben)身的(de)優勢,讓(rang)用戶的(de)調用和定制(zhi)化過程(cheng)門(men)檻更低、效率更高,并(bing)在安(an)全(quan)性(xing)做出保障(zhang)。
更深(shen)層(ceng)次(ci)的原因在于(yu),給大模型加底座,能夠(gou)更進一步降(jiang)本增效,這本身就(jiu)符合(he)市場和(he)行(xing)業的發(fa)展要(yao)求。
參考數字(zi)化轉型(xing)浪潮的(de)演進(jin)過程(cheng),從最初的(de)無紙化,到云計算的(de)使用,本質上(shang)都是降本增效(xiao)的(de)過程(cheng),讓企業(ye)可以在生產制造、推(tui)進(jin)業(ye)務的(de)過程(cheng)中更高效(xiao)利用資源(yuan),降低(di)生產運(yun)營(ying)成(cheng)本。
最新一輪的生成(cheng)式AI浪潮,亦會如(ru)此。
只是(shi)這一輪(lun)的主角(jiao)不再是(shi)計算機、云計算,而是(shi)AI大(da)模(mo)型(xing)。
未來一(yi)段時(shi)間內,Bedrock這類AI平臺或許還會(hui)出(chu)現新玩家,并進一(yi)步形成一(yi)個賽道、成為AIGC產業中的一(yi)層結構(gou)。

亞(ya)馬(ma)遜云科技(ji)的做法,正是給(gei)大(da)家示范了(le)一下(xia),科技(ji)巨(ju)頭在面對最新(xin)趨勢時,如何結合(he)自身(shen)優勢找到(dao)合(he)適身(shen)位。
而(er)除(chu)了大模(mo)型底座,在(zai)近期(qi)或許還(huan)會衍生出一大批(pi)“新興物(wu)種”。比(bi)如當下軟件應用(yong)在(zai)爭(zheng)先恐后接(jie)入Chatbot,就有企(qi)業(ye)推出相應服務(wu)幫軟件應用(yong)接(jie)入大模(mo)型能力。
可見在(zai)當(dang)下這個時刻,怎么把(ba)握(wo)機(ji)遇非常關(guan)鍵。
該怎么做?
前面提到,到2030年,全(quan)球生成式(shi)AI市場規模可能接近1100億美元這(zhe)一巨大數(shu)字。
此等規模下,自然會涌現種類空前豐富的玩(wan)家。
根據量子(zi)位智庫3月發布的(de)《AIGC產業全(quan)景(jing)報告》,無論玩家屬(shu)于初創(chuang)公司還(huan)是(shi)互(hu)聯網巨(ju)頭、專門的(de)AI廠商/科(ke)研機構還(huan)是(shi)生態鏈場景(jing)公司,我們(men)都可按基礎設施(shi)層、模(mo)型層和(he)應(ying)用層將它們分為三大類。
具體而言(yan),基礎設施層主要包含為(wei)行業提供數據、算力(li)、計算平臺、模型開(kai)發訓練平臺以及其(qi)他(ta)配套設施的企業。

其中,比如(ru)光(guang)數(shu)(shu)據(ju)(ju)這一環就(jiu)分(fen)為(wei)數(shu)(shu)據(ju)(ju)提供商(shang)和數(shu)(shu)據(ju)(ju)服務(wu)商(shang),光(guang)數(shu)(shu)據(ju)(ju)提供商(shang)就(jiu)包括(kuo)提供通(tong)用數(shu)(shu)據(ju)(ju)、垂(chui)直數(shu)(shu)據(ju)(ju)、特定業務(wu)下(xia)的(de)標注數(shu)(shu)據(ju)(ju)、符合法規的(de)審核數(shu)(shu)據(ju)(ju)等等。
對于算力(li)平臺來說(shuo),智算中心這類算力(li)集(ji)群、云服務商和硬件領域的芯片商也都是不(bu)可或(huo)缺的角色(se)。
模型層則主(zhu)要(yao)分為專供底層通用(yong)大模型和中(zhong)間(jian)層模型這(zhe)兩類(lei)。
前(qian)者由于建設和提升(sheng)迫切性最強,目前(qian)最受(shou)關(guan)注,吸引了(le)一(yi)大批“火力(li)”。
不過,它也相(xiang)對最(zui)容易(yi)形(xing)成壁壘,因(yin)為人(ren)才、時間、數據和(he)資金等(deng)多個(ge)方面都會形(xing)成制約。
值得注意的是,如Hugging Face、魔搭ModelScope這(zhe)樣的模型(xing)站玩(wan)家,也(ye)可以歸于這(zhe)一(yi)類(lei)。
至于(yu)中(zhong)間層模型,則主(zhu)打垂直化、行業化和細(xi)分化,可分為:
(1)中(zhong)間集成商,主要組(zu)合(he)多個接口,形成新(xin)的大模型(xing);
(2)行(xing)業(ye)大模(mo)型商,由(you)底層模(mo)型持有(you)者進行(xing)端到端提供;
(3)以及二次開發(fa)商,主要增加行業(ye)特色(se)數據和行業(ye)認知。
這(zhe)類玩(wan)家(jia)比較適合具有特定行業積累以及技(ji)術(shu)積累的企業快速進入。
最后,應用層(ceng)。如果按照底(di)層(ceng)邏輯來(lai)看,可以(yi)分為生(sheng)產可直接(jie)消費(fei)內容、結合底(di)層(ceng)系統生(sheng)產含有附(fu)加價(jia)值內容、提(ti)供(gong)內容生(sheng)產輔(fu)助(zhu)工具、用于提供打包內容或解決方(fang)案這四類。
如果基(ji)于模態分,則包括文(wen)本生成(cheng)(cheng)、圖像(xiang)生成(cheng)(cheng)、音頻(pin)/視頻(pin)/跨模態、策略生成(cheng)(cheng)等等,其中文(wen)本生成(cheng)(cheng)又包括應用型、創作型、交互型和輔助生成(cheng)(cheng)。

這是創業最為友好的一層,當然,關(guan)鍵卡(ka)口(kou)還(huan)是模型層玩家。
具體分類暫且不表。
重點是,從(cong)以(yi)上這(zhe)些(xie)內容我(wo)們可以(yi)看到(dao),整個AIGC市場(chang)的玩家方向(xiang)確實多如牛毛,而由于(yu)行業整體(ti)還處(chu)于(yu)培育摸(mo)索(suo)期,不(bu)管哪個位置都(dou)還遠談不(bu)上飽和,可謂機會多多。
那么,如何找(zhao)到合適的位(wei)置就成了關(guan)鍵。
如亞馬遜云科(ke)技,作為一(yi)家云廠(chang)商,偏就盯準(zhun)應用層,提供打包(bao)內(nei)容或解決方(fang)案,做(zuo)上了各類大模型的接入和改造平臺。
這也傳(chuan)遞了一個(ge)聲(sheng)音(yin),行(xing)業巨頭不一定非要都(dou)往大模型方向“卷”,根(gen)據市場需(xu)求和自身實力(li)出發,即使(shi)入局較(jiao)慢幾步,也能get恰到好處(chu)的(de)落腳(jiao)點。
據可靠(kao)消息(xi):5月25日將舉辦(ban)亞馬遜云(yun)科技大(da)模型及生成式AI發(fa)布(bu)深(shen)度(du)解讀大(da)會,敬請期待。