国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

都在卷大模型底座,云計算一哥決定給底座造底座
作者 | 量子位2023-04-20

由AIGC趨勢掀(xian)起的新一輪AI競賽,已經到了白熱(re)化階段。

就在(zai)人人爭相發大(da)模型“秀肌肉”時,也(ye)有人不按套路出牌。

亞馬遜云科技的最新發布上,雖然也首發了自研基礎大模型Titan,不過仔細琢磨就發現,這是“醉翁之意不在酒”,真正的主角是一個名叫Bedrock的AI平臺

在這里可以直接通過API調用多個熱門生成式AI大模(mo)型(xing),包括Stable Diffusion、Claude等。

有聲(sheng)音(yin)評價說,這一波操作是把生成式(shi)AI上(shang)云了(le),并且(qie)為自(zi)家大(da)模型(xing)“打開(kai)格局”。

這既讓人(ren)意外,但也(ye)不意外。

畢竟(jing)是(shi)全球云計算行(xing)業(ye)的“頭(tou)號玩家”,一(yi)定會在AIGC這波(bo)趨勢中留下名字。

但(dan)從實際動向(xiang)來看,不是(shi)盲從趨勢,而是(shi)基于(yu)自身定位(wei)和特長(chang),找到適合的身位(wei)。

由此(ci)不禁好奇,亞馬(ma)遜云科技究竟如(ru)何(he)靠Bedrock殺入AIGC戰局?這(zhe)背后有哪些趨勢?AIGC產(chan)業如(ru)今發展地到底怎樣了?

亞馬遜云科技的AIGC打開方式

想要(yao)理解(jie)巨頭最新發布背后的動因,還要(yao)先了解(jie)下(xia)發布的核(he)心內容。

簡(jian)單理(li)解,Bedrock就是一(yi)個集成(cheng)了多(duo)種生成(cheng)式AI模(mo)型(xing)的(de)平臺(tai)。

在這里可以通過API訪問的方式,快速(su)調用(yong)業內領先的大(da)模(mo)型。如Stability AI、Anthropic、AI21 Labs和亞馬遜云(yun)科技自家(jia)的大(da)模(mo)型。

即Stable Diffusion、Claude等,都(dou)是大家耳熟能(neng)詳的生成式AI了。

除了(le)這些“熟面孔”外,亞馬(ma)遜云(yun)科技首次推出了(le)自(zi)研大語言模型(xing)Titan

據介紹(shao),目(mu)前Titan包括了兩(liang)個全新的大語(yu)言模型:

  • Titan text:專注于生成式NLP任務,比(bi)如寫(xie)總(zong)結、創作博客(ke)、文字分(fen)類(lei)、對話(hua)和信息提取(qu)等;

  • Titan Embeddings:用于搜索(suo)和個(ge)性化等,可將文本輸(shu)入翻譯成包含語義的嵌入編碼能夠讓(rang)搜索(suo)結(jie)果(guo)更相(xiang)關和符合上下文語境,目前自家產(chan)品(pin)搜索(suo)中(zhong)已經用上了(le)類似模型。

這(zhe)些模(mo)型都會在Bedrock上托管,可(ke)以按(an)需調用或進(jin)行定(ding)制,無(wu)需管理(li)任何基礎設(she)施。

舉例(li)來說,用(yong)戶可(ke)以將基(ji)礎模型(xing)與Amazon SageMaker機器學習(xi)功能(neng)集成,使用(yong)Experiments測試不同模型(xing)和使用(yong)Pipelines大(da)規模管理基(ji)礎模型(xing)等。

其(qi)中定制化是Bedrock比較重要的一個功能,它支持少樣本定制和微調大模型,最少僅需20個示例即可。

而(er)且亞馬遜云科技強調,在訓(xun)練底層模(mo)型的(de)過程中不會使用任何用戶數據(ju)。并對所有數據都進行加密,不會離開用戶的虛擬私有網絡(VPC)

平臺層向下,就是硬件基(ji)礎(chu)設施。

作為云(yun)廠商,自然洞察到了這波最新AI趨勢下(xia),對(dui)算力的巨(ju)大需(xu)求。

由此亞馬遜云科技也一并宣布了兩款自研芯片實例正式可用,一款針對訓練,一款針對推理。

首先(xian)是基于(yu)訓練(lian)芯片Trainium的Amazon EC2 Trn1n。

與其他(ta)同(tong)類實例相(xiang)比,此前的(de)Trn1節省(sheng)的(de)訓(xun)練(lian)成(cheng)本已達50%。而(er)通過在超(chao)大規(gui)模集群(UltraClusters)中進行部署(shu),還可以實現超過6 exaflops的計(ji)算能力,數據傳輸(shu)規模達到PB級(ji)。

這(zhe)讓(rang)內部(bu)搜索團隊等用戶訓練(lian)大模(mo)型的時間從(cong)從(cong)幾個月縮(suo)短到了幾周甚至(zhi)幾天

專為網絡密(mi)集型大模型設計的Trn1n實(shi)例(li),直(zhi)接(jie)可(ke)提供高達(da)1600Gbps的網絡帶寬,總(zong)體性能比Trn1還要高出(chu)20%。

其次是用于推理(li)的Amazon EC2 Inf2實例。

亞(ya)馬(ma)遜云科技認(ren)為,隨著基礎模型(xing)進入大(da)規模部署的(de)階段,主要(yao)成本將轉移到模型微調和(he)推(tui)理

Inf2實例由自研的(de)推理專用芯片Inferentia2提供(gong)支持,后者在(zai)亞馬遜云科技去年(nian)的(de)開發者大會(hui)上(shang)首(shou)次亮相(Inferentia一代(dai)則問世(shi)于(yu)2018年(nian))

它(ta)專門針對千億(yi)參(can)數(shu)的(de)生成式(shi)大模型進行了優化(hua):

與上一代相(xiang)比(bi),吞吐量提高(gao)了4倍,延遲降低了10倍,并可支持(chi)大(da)規模分布式推理;與同類實(shi)例相(xiang)比(bi),每瓦(wa)性能比(bi)提高(gao)了50%。

除此(ci)之外,亞馬(ma)遜云科技(ji)還為普通開發者推(tui)出了完全免費的輔助代碼編寫工具CodeWhisperer

無(wu)論是(shi)面向行(xing)業(ye)用(yong)戶、還是(shi)C端用(yong)戶,亞馬遜云科(ke)技似乎都在想辦(ban)法讓最新的AI趨勢離大家更近一點(dian)。

實(shi)際上,這也是(shi)目前很多AI大廠、科技巨(ju)頭正在推進的事,只不過(guo)各家的方法不盡相同。

那么,為(wei)什么需要(yao)搭建Bedrock這樣(yang)的AI平臺?它們會給(gei)行(xing)業帶來(lai)哪(na)些影響?

為什么需要大模型底座?

由表及里,大概有兩層原因(yin)驅動。

首先是直接(jie)原(yuan)因,行(xing)業(ye)需求

生成式AI將會形成一(yi)個新市場,如今已是行(xing)業公(gong)認的趨勢。

據Grand View Research估計(ji),到(dao)2030年,生成式AI的(de)市場規模可能(neng)接近(jin)1100億美元

這意(yi)味著在未來一段(duan)時間內,全球將(jiang)會有大量的行業和(he)企業,尋求(qiu)將(jiang)生成式AI接入(ru)到自家業務中。并且速(su)度(du)要(yao)快,否(fou)則一不小心就(jiu)會被彎道(dao)超車。

比如亞馬遜云科技就提到過,過去一段時間里他們的(de)客戶來(lai)問得最多的(de)問題便是(shi):

我怎么能快速上(shang)車將(jiang)它們用(yong)到自己的業(ye)務中,但(dan)又不用(yong)耗費太(tai)多精力和money?

畢竟對(dui)于絕大部(bu)分(fen)企(qi)業來(lai)說,煉出一(yi)個自家大模型并不劃算,背(bei)后要投入的人力(li)、物力(li)、時間(jian),都太多了;更何況開(kai)發難度也(ye)很高。

實(shi)際上,很多廠商已經提供(gong)了API接口供(gong)行(xing)業用(yong)戶直(zhi)接調(diao)用(yong),但(dan)這種方法還是(shi)要(yao)(yao)求用(yong)戶自(zi)己(ji)(ji)管理基礎設施;如果想要(yao)(yao)構建(jian)深入(ru)場景的定(ding)制化模型,也還是(shi)需要(yao)(yao)自(zi)己(ji)(ji)做(zuo)開(kai)發,整個流(liu)程(cheng)不夠高效便捷。

由(you)此云服務就(jiu)被推到了臺前。

這種基(ji)于互聯網給企業提供(gong)基(ji)礎(chu)架構、平臺或軟件的(de)服務,本身在靈活性、易用性和能力上(shang)都得到了行(xing)業驗證,尤其大(da)模(mo)型本身對云(yun)計算(suan)就有著(zhu)天然(ran)的(de)依賴性。

在生成式(shi)AI席卷而來時(shi),不少(shao)聲音(yin)認為(wei)這也(ye)會為(wei)整個云計(ji)算(suan)行(xing)業(ye)帶來根本性的改變,云計(ji)算(suan)的主流(liu)商業(ye)模(mo)式(shi)會從傳統的IaaS變成MaaS。

而(er)近期,越來越多AIGC玩家也(ye)在(zai)順勢推(tui)出自己云(yun)服務,兜售(shou)大模(mo)型能力(li)。

那么亞馬遜(xun)云(yun)科技的(de)動(dong)作,則(ze)是給出了一(yi)種(zhong)新范(fan)式,將多(duo)種(zhong)大(da)模型囊括(kuo)在一(yi)起,放在一(yi)個大(da)平臺(tai)底座上,讓(rang)用戶的(de)可(ke)選(xuan)擇性(xing)提升,同(tong)時發(fa)揮他們(men)云(yun)廠商本(ben)身的(de)優勢,讓(rang)用戶的(de)調用和定制(zhi)化過程(cheng)門(men)檻更低、效率更高,并(bing)在安(an)全(quan)性(xing)做出保障(zhang)。

更深(shen)層(ceng)次(ci)的原因在于(yu),給大模型加底座,能夠(gou)更進一步降(jiang)本增效,這本身就(jiu)符合(he)市場和(he)行(xing)業的發(fa)展要(yao)求

參考數字(zi)化轉型(xing)浪潮的(de)演進(jin)過程(cheng),從最初的(de)無紙化,到云計算的(de)使用,本質上(shang)都是降本增效(xiao)的(de)過程(cheng),讓企業(ye)可以在生產制造、推(tui)進(jin)業(ye)務的(de)過程(cheng)中更高效(xiao)利用資源(yuan),降低(di)生產運(yun)營(ying)成(cheng)本。

最新一輪的生成(cheng)式AI浪潮,亦會如(ru)此。

只是(shi)這一輪(lun)的主角(jiao)不再是(shi)計算機、云計算,而是(shi)AI大(da)模(mo)型(xing)。

未來一(yi)段時(shi)間內,Bedrock這類AI平臺或許還會(hui)出(chu)現新玩家,并進一(yi)步形成一(yi)個賽道、成為AIGC產業中的一(yi)層結構(gou)。

亞(ya)馬(ma)遜云科技(ji)的做法,正是給(gei)大(da)家示范了(le)一下(xia),科技(ji)巨(ju)頭在面對最新(xin)趨勢時,如何結合(he)自身(shen)優勢找到(dao)合(he)適身(shen)位。

而(er)除(chu)了大模(mo)型底座,在(zai)近期(qi)或許還(huan)會衍生出一大批(pi)“新興物(wu)種”。比(bi)如當下軟件應用(yong)在(zai)爭(zheng)先恐后接(jie)入Chatbot,就有企(qi)業(ye)推出相應服務(wu)幫軟件應用(yong)接(jie)入大模(mo)型能力。

可見在(zai)當(dang)下這個時刻,怎么把(ba)握(wo)機(ji)遇非常關(guan)鍵。

該怎么做?

AIGC玩家種類豐富,不一定都要“卷”大模型本身

前面提到,到2030年,全(quan)球生成式(shi)AI市場規模可能接近1100億美元這(zhe)一巨大數(shu)字。

此等規模下,自然會涌現種類空前豐富的玩(wan)家。

根據量子(zi)位智庫3月發布的(de)《AIGC產業全(quan)景(jing)報告》,無論玩家屬(shu)于初創(chuang)公司還(huan)是(shi)互(hu)聯網巨(ju)頭、專門的(de)AI廠商/科(ke)研機構還(huan)是(shi)生態鏈場景(jing)公司,我們(men)都可按基礎設施(shi)層、模(mo)型層和(he)應(ying)用層將它們分為三大類。

具體而言(yan),基礎設施層主要包含為(wei)行業提供數據、算力(li)、計算平臺、模型開(kai)發訓練平臺以及其(qi)他(ta)配套設施的企業。

其中,比如(ru)光(guang)數(shu)(shu)據(ju)(ju)這一環就(jiu)分(fen)為(wei)數(shu)(shu)據(ju)(ju)提供商(shang)和數(shu)(shu)據(ju)(ju)服務(wu)商(shang),光(guang)數(shu)(shu)據(ju)(ju)提供商(shang)就(jiu)包括(kuo)提供通(tong)用數(shu)(shu)據(ju)(ju)、垂(chui)直數(shu)(shu)據(ju)(ju)、特定業務(wu)下(xia)的(de)標注數(shu)(shu)據(ju)(ju)、符合法規的(de)審核數(shu)(shu)據(ju)(ju)等等。

對于算力(li)平臺來說(shuo),智算中心這類算力(li)集(ji)群、云服務商和硬件領域的芯片商也都是不(bu)可或(huo)缺的角色(se)。

模型層則主(zhu)要(yao)分為專供底層通用(yong)大模型和中(zhong)間(jian)層模型這(zhe)兩類(lei)。

前(qian)者由于建設和提升(sheng)迫切性最強,目前(qian)最受(shou)關(guan)注,吸引了(le)一(yi)大批“火力(li)”。

不過,它也相(xiang)對最(zui)容易(yi)形(xing)成壁壘,因(yin)為人(ren)才、時間、數據和(he)資金等(deng)多個(ge)方面都會形(xing)成制約。

值得注意的是,如Hugging Face、魔搭ModelScope這(zhe)樣的模型(xing)站玩(wan)家,也(ye)可以歸于這(zhe)一(yi)類(lei)。

至于(yu)中(zhong)間層模型,則主(zhu)打垂直化、行業化和細(xi)分化,可分為:

(1)中(zhong)間集成商,主要組(zu)合(he)多個接口,形成新(xin)的大模型(xing);

(2)行(xing)業(ye)大模(mo)型商,由(you)底層模(mo)型持有(you)者進行(xing)端到端提供;

(3)以及二次開發(fa)商,主要增加行業(ye)特色(se)數據和行業(ye)認知。

這(zhe)類玩(wan)家(jia)比較適合具有特定行業積累以及技(ji)術(shu)積累的企業快速進入。

最后,應用層(ceng)。如果按照底(di)層(ceng)邏輯來(lai)看,可以(yi)分為生(sheng)產可直接(jie)消費(fei)內容、結合底(di)層(ceng)系統生(sheng)產含有附(fu)加價(jia)值內容、提(ti)供(gong)內容生(sheng)產輔(fu)助(zhu)工具、用于提供打包內容或解決方(fang)案這四類。

如果基(ji)于模態分,則包括文(wen)本生成(cheng)(cheng)、圖像(xiang)生成(cheng)(cheng)、音頻(pin)/視頻(pin)/跨模態、策略生成(cheng)(cheng)等等,其中文(wen)本生成(cheng)(cheng)又包括應用型、創作型、交互型和輔助生成(cheng)(cheng)。

這是創業最為友好的一層,當然,關(guan)鍵卡(ka)口(kou)還(huan)是模型層玩家。

具體分類暫且不表。

重點是,從(cong)以(yi)上這(zhe)些(xie)內容我(wo)們可以(yi)看到(dao),整個AIGC市場(chang)的玩家方向(xiang)確實多如牛毛,而由于(yu)行業整體(ti)還處(chu)于(yu)培育摸(mo)索(suo)期,不(bu)管哪個位置都(dou)還遠談不(bu)上飽和,可謂機會多多。

那么,如何找(zhao)到合適的位(wei)置就成了關(guan)鍵。

如亞馬遜云科(ke)技,作為一(yi)家云廠(chang)商,偏就盯準(zhun)應用層,提供打包(bao)內(nei)容或解決方(fang)案,做(zuo)上了各類大模型的接入和改造平臺。

這也傳(chuan)遞了一個(ge)聲(sheng)音(yin),行(xing)業巨頭不一定非要都(dou)往大模型方向“卷”,根(gen)據市場需(xu)求和自身實力(li)出發,即使(shi)入局較(jiao)慢幾步,也能get恰到好處(chu)的(de)落腳(jiao)點。

據可靠(kao)消息(xi):5月25日將舉辦(ban)亞馬遜云(yun)科技大(da)模型及生成式AI發(fa)布(bu)深(shen)度(du)解讀大(da)會,敬請期待。

熱門文章
馬斯克星艦空中爆炸,但現場卻在歡呼?獨家向華為出售硬盤,希捷被美國罰款3億美元;特斯拉全自動駕駛今年亮相?
2023-04-20
X