国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

瘋狂的H100
作者 | 硅(gui)基(ji)研(yan)習社2023-09-05

2023年8月3日,華爾街和硅谷(gu)聯袂奉上了一件(jian)震撼業(ye)界的大事:讓一家創業(ye)公司拿(na)到23億美元的債務融資,抵押(ya)物則是當(dang)前全球最(zui)硬的通貨——H100顯卡。

這個(ge)大事件的(de)主(zhu)角叫做(zuo)CoreWeave,主(zhu)營業務是(shi)AI私有(you)云服務,簡單說(shuo)就是(shi)通過搭建擁有(you)大量GPU算力的(de)數據中心(xin),來給AI創業公司(si)和大型商業客(ke)戶(hu)提供算力基礎(chu)設施。CoreWeave累計(ji)融資5.8億美金,目前是(shi)B輪,估值20億美元。

CoreWeave成立(li)于2016年,創始人是(shi)三個華爾街大宗商品交易員。剛開始公(gong)司的(de)主(zhu)營業(ye)務(wu)只有一(yi)個:挖礦(kuang),采購大量GPU來組建(jian)礦(kuang)機中心,尤其是(shi)在(zai)幣(bi)圈低潮時,公(gong)司會逆(ni)周期囤大量顯卡,也因此跟英偉達建(jian)立(li)了鐵桿的(de)革(ge)命友誼(yi)。

圖片

CoreWeave三位聯合(he)創始(shi)人

2019年(nian),CoreWeave開(kai)始把這些礦(kuang)機改(gai)造(zao)成企業(ye)級數(shu)據中(zhong)心,向客(ke)戶(hu)提(ti)供AI云(yun)服務(wu),剛開(kai)始的生(sheng)意(yi)也(ye)不溫不火,但ChatGPT誕生(sheng)之(zhi)后,大模(mo)型的訓練和推理每天都在(zai)消耗(hao)大量(liang)算力,已經擁有(you)數(shu)萬張顯卡(當然(ran)未(wei)必是最(zui)新(xin)型號)的CoreWeave嗖(sou)的一下起飛,門口擠滿了客(ke)戶(hu)和風投。

但令人感到蹊蹺的(de)是:CoreWeave累(lei)計一共只(zhi)(zhi)融到了5.8億(yi)美(mei)金,賬面GPU的(de)凈值不會超過10億(yi)美(mei)元(yuan),甚至(zhi)公司整體估值也只(zhi)(zhi)有20億(yi)美(mei)元(yuan),但為何卻能通過抵押(ya)借到23億(yi)美(mei)元(yuan)呢?一向(xiang)精于算計、熱衷對(dui)抵押(ya)物(wu)價值膝蓋斬的(de)華爾街(jie),為何如(ru)此慷慨呢?

原因極有可(ke)能是(shi):CoreWeave雖然賬上還(huan)沒這么多顯卡,但它拿到了英偉達的供貨(huo)承諾,尤其是(shi)H100。

CoreWeave跟(gen)英(ying)偉(wei)達的(de)(de)鐵桿(gan)關系已經是(shi)硅(gui)谷公開的(de)(de)秘密。這種(zhong)鐵桿(gan)根(gen)源于CoreWeave對英(ying)偉(wei)達的(de)(de)毫(hao)無二心的(de)(de)忠誠和支持——只用(yong)英(ying)偉(wei)達的(de)(de)卡(ka)、堅決(jue)不(bu)自(zi)己(ji)造芯、顯卡(ka)賣不(bu)動時幫英(ying)偉(wei)達囤卡(ka)。對黃仁勛來說,這種(zhong)關系的(de)(de)含(han)金量,遠超跟(gen)微軟、Google和特(te)斯拉的(de)(de)那些塑料友情。

因此,盡管英偉達H100十分(fen)緊缺,英偉達還(huan)是(shi)把大(da)量新卡分(fen)配(pei)給了CoreWeave,甚至不(bu)惜限制(zhi)對(dui)亞馬遜和谷(gu)歌(ge)等大(da)廠(chang)的供應。黃(huang)仁勛在電話會(hui)議里夸贊:“一批新的GPU云服務提供商會(hui)崛起,其中最著名的是(shi) CoreWeave,他們做得非(fei)常好。”

而在喜提23億美(mei)金(jin)的(de)一周前,CoreWeave就已對外宣稱,將耗資16億美(mei)元在德州(zhou)建(jian)立一個(ge)占(zhan)地面積42,000 平方米的(de)數(shu)據中心。僅憑借跟英(ying)偉達之間(jian)的(de)關系(xi)和(he)優先配(pei)貨權,CoreWeave就可以把建(jian)數(shu)據中心的(de)錢(qian)從銀行里借出(chu)來——這種模式(shi),讓人想起了拿地后立馬找銀行貸款的(de)地產商。

所以可以這樣說:當下(xia)一份(fen)H100的供貨承諾(nuo),堪(kan)比房地產黃(huang)金(jin)時代(dai)的一紙土(tu)地批文(wen)。

一卡難求的H100

今年(nian)4月在(zai)接受采(cai)訪時,馬斯克(ke)抱(bao)怨道(dao)[2]:“現在(zai)似乎連狗都在(zai)買GPU。”

很諷刺的是,特斯拉早在2021年就發布了自研的D1芯片,由臺積電代工,采用7nm工藝,號稱能替代當時英偉達主流的A100。但2年過去了,英偉達推出了更為強大的H100,而特斯拉的D1沒有后續迭代,因此當馬斯克試圖組建自家的人工智能公司時,還是得乖乖地跪(gui)在黃(huang)老爺(ye)門前求卡。

H100在去年9月20日正式推出,由臺積電(dian)4N工藝代工。相較(jiao)于前任A100,H100單卡在推理速度上(shang)(shang)提(ti)升3.5倍(bei),在訓(xun)練(lian)速度上(shang)(shang)提(ti)升2.3倍(bei);如果用服務(wu)器集群運算的方式,訓(xun)練(lian)速度更(geng)是能提(ti)高到(dao)9倍(bei),原(yuan)本一個(ge)星(xing)期的工作量,現(xian)在只需要20個(ge)小時。

圖片

GH100 架構圖

相比A100,H100的(de)(de)(de)單(dan)卡(ka)價格更(geng)(geng)貴,大約是A100的(de)(de)(de)1.5~2倍左右,但訓(xun)練大模型的(de)(de)(de)效率卻提升了200%,這(zhe)樣這(zhe)算下來(lai)的(de)(de)(de)“單(dan)美元(yuan)性(xing)能”更(geng)(geng)高(gao)。如(ru)果搭配英偉達最新的(de)(de)(de)高(gao)速連(lian)接系統方案,每美元(yuan)的(de)(de)(de)GPU性(xing)能可能要高(gao)出 4-5 倍,因此受到客(ke)戶瘋狂追捧(peng)。

搶購H100的客戶,主要分成三類:

第一類(lei)是(shi)綜(zong)合型云計算(suan)巨頭,比如(ru)微軟Azure、谷(gu)歌GCP和(he)亞馬遜AWS這(zhe)樣的(de)云計算(suan)巨頭。他們的(de)特點是(shi)財大(da)氣粗,動輒就想“包圓”英偉(wei)達(da)的(de)產能,但每家(jia)也都藏著小(xiao)心思,對英偉(wei)達(da)的(de)近壟斷地位感到不滿,暗(an)地里自己(ji)研發芯(xin)片來降低成本(ben)。

第二(er)類是獨立的(de)云(yun)GPU服務(wu)商,典型公(gong)司(si)(si)如前(qian)文提到的(de)CoreWeave,以及Lambda、RunPod等。這類公(gong)司(si)(si)算力規模相對(dui)較小,但能夠提供(gong)差異化的(de)服務(wu),而(er)英偉(wei)達對(dui)這類公(gong)司(si)(si)也是大力扶(fu)持,甚至直接出錢投(tou)資了CoreWeave和Lambda,目的(de)很明確(que):給那些(xie)私(si)自造芯(xin)的(de)巨(ju)頭(tou)們(men)上眼(yan)藥(yao)。

第三類是自己(ji)(ji)在訓(xun)練LLM(大語言模型)的(de)(de)大小公(gong)司(si)。既包括Anthropic、Inflection、Midjourney這種初創公(gong)司(si),也有像蘋果、特斯拉、Meta這樣的(de)(de)科技巨頭。它們(men)通常(chang)一邊(bian)使用外部云服(fu)務商的(de)(de)算(suan)力,一邊(bian)自己(ji)(ji)采購GPU來(lai)自建爐灶(zao)——有錢的(de)(de)多(duo)買,沒錢的(de)(de)少買,主打一個豐儉由人。

在這(zhe)三類客戶中,微(wei)軟(ruan)Azure至少(shao)有(you)5萬(wan)(wan)(wan)張H100,谷歌手上大(da)概(gai)有(you)3萬(wan)(wan)(wan)張,Oracle大(da)概(gai)有(you)2萬(wan)(wan)(wan)張左右,而特斯拉和亞馬遜手上也至少(shao)拿有(you)1萬(wan)(wan)(wan)張左右,CoreWeave據稱有(you)3.5萬(wan)(wan)(wan)張的(de)額度承(cheng)諾(實(shi)際到(dao)貨(huo)大(da)概(gai)1萬(wan)(wan)(wan))。其(qi)他的(de)公司很少(shao)有(you)超過1萬(wan)(wan)(wan)張的(de)。

這三類客戶(hu)總共需要(yao)多少張(zhang)(zhang)H100呢?根據海外機構GPU Utils的(de)預測,H100當(dang)前需求大(da)概43.2萬(wan)(wan)張(zhang)(zhang)。其(qi)中OpenAI需要(yao)5萬(wan)(wan)張(zhang)(zhang)來訓練GPT-5,Inflection需求2.2萬(wan)(wan)張(zhang)(zhang),Meta則(ze)是(shi)2.5萬(wan)(wan)張(zhang)(zhang)(也有說法是(shi)10萬(wan)(wan)張(zhang)(zhang)),四大(da)公有云廠(chang)商(shang)每(mei)家都(dou)需要(yao)至少3萬(wan)(wan)張(zhang)(zhang),私有云行業則(ze)是(shi)10萬(wan)(wan)張(zhang)(zhang),而其(qi)他的(de)小模型廠(chang)商(shang)也有10萬(wan)(wan)張(zhang)(zhang)的(de)需求[3]。

英偉達2023年的H100出貨量大(da)概(gai)在50萬張左右,目前臺積電的產能(neng)仍在爬坡,到年底H100一卡難求的困境便會緩解。

但長期來(lai)看,H100的供需缺口會(hui)隨(sui)著AIGC的應(ying)用爆發而繼續水漲船高。根(gen)據金融時(shi)報(bao)的報(bao)道,2024年(nian)H100的出貨量將高達150萬張(zhang)-200萬張(zhang),相(xiang)比于今(jin)年(nian)的50萬張(zhang),提升3-4倍[4]。

而華爾街的(de)(de)預(yu)測則(ze)更(geng)為激進:美國投(tou)行Piper Sandler認為明年英(ying)偉達在數(shu)據中心上的(de)(de)營收將超過600億美元(yuan)(FY24Q2:103.2億美元(yuan)),按這(zhe)個(ge)數(shu)據倒推,A+H卡的(de)(de)出(chu)貨量接(jie)近300萬(wan)張(zhang)。

還(huan)有(you)更(geng)夸張(zhang)的(de)(de)估計。某H100服(fu)務(wu)器最(zui)大的(de)(de)代工廠(市占率70%-80%),從今年6月開(kai)始就陸續(xu)出貨了(le)H100的(de)(de)服(fu)務(wu)器,7月份產能陸續(xu)爬(pa)坡(po)。一份最(zui)近的(de)(de)調研(yan)顯示,這家代工廠認為2024年A+H卡的(de)(de)出貨量(liang)會在450萬張(zhang)~500萬張(zhang)之間(jian)。

這(zhe)對(dui)英偉(wei)達意味著“潑天(tian)的富(fu)貴”,因為H100的暴利程(cheng)度,是其他行業人(ren)難以想象的。

為了搞清H100有多暴利,我們不妨把它的物料成本(Bill of Materials, BOM)徹底拆解出來。

如(ru)圖所示,H100最(zui)通用的(de)版本H100 SXM采用的(de)是臺(tai)積(ji)電CoWoS的(de)7晶粒封(feng)裝(zhuang),6顆16G的(de)HBM3芯片分列兩排緊緊圍繞著中間的(de)邏輯芯片。

而這也構(gou)成(cheng)了H100最(zui)重(zhong)要的三個部分:邏(luo)輯芯片、HBM存儲芯片、CoWoS封(feng)裝,除此之外,還有諸(zhu)如PCB板以及其他的一(yi)些輔助器(qi)件,但價值量不(bu)高(gao)。

圖片

H100拆機圖

核心的(de)邏(luo)輯(ji)芯片(pian)尺寸是(shi)(shi)(shi)814mm^2,產自(zi)臺積(ji)電最(zui)先進的(de)臺南18號工廠,使用的(de)工藝節點則是(shi)(shi)(shi)“4N”,雖(sui)然名(ming)字上是(shi)(shi)(shi)4打頭,但實際上是(shi)(shi)(shi)5nm+。由于(yu)5nm的(de)下(xia)游,手機等領域(yu)的(de)景氣度不佳,因此(ci)臺積(ji)電在保供邏(luo)輯(ji)芯片(pian)上沒(mei)有任何問題(ti)。

而這塊(kuai)邏(luo)輯(ji)(ji)芯片(pian)是由12寸(cun)(面(mian)積70,695mm^2)的晶(jing)圓切(qie)割產生(sheng),理想狀態下可以(yi)切(qie)出86塊(kuai),但考慮到“4N”線80%的良(liang)率以(yi)及切(qie)割損耗,最后一張12寸(cun)晶(jing)圓只能切(qie)出65塊(kuai)的核心(xin)邏(luo)輯(ji)(ji)芯片(pian)。

這一塊核(he)心邏輯芯片的成本是多少呢?臺積電2023年一片12寸的晶圓對外(wai)報價是13,400美元(yuan),所以折算下來(lai)單塊大(da)概(gai)在200美元(yuan)左右。

接下來是(shi)6顆HBM3芯片,目前由SK海力(li)士(shi)獨供,這家起源(yuan)于現代電子的(de)企業,2002年幾乎要委身與(yu)美(mei)光(guang),憑借著政府的(de)輸(shu)血以及逆周期(qi)上(shang)(shang)產(chan)(chan)能的(de)戰略(lve),如今在HBM的(de)量產(chan)(chan)技術上(shang)(shang)至少領(ling)先美(mei)光(guang)3年(美(mei)光(guang)卡在HBM2e,海力(li)士(shi)2020年中期(qi)量產(chan)(chan))。

HBM的(de)具體價格(ge)(ge),各家都諱莫(mo)如深,但根據(ju)韓(han)媒(mei)的(de)說法,HBM目前是現有(you)DRAM產(chan)品(pin)的(de)5-6倍。而(er)現有(you)的(de)GDDR6 VRAM的(de)價格(ge)(ge)大概是每GB3美元,如此推算(suan)HBM的(de)價格(ge)(ge)是在(zai)每GB 15美元左右(you)。那一張H100 SXM在(zai)HBM上的(de)花費就是1500美元。

雖(sui)然今年(nian)HBM的(de)價格不斷上漲,英偉達、Meta的(de)高管(guan)也親(qin)赴海力士“督工”,可(ke)下(xia)半年(nian)三(san)星的(de)HBM3就能逐步量(liang)產(chan)出貨,再加上韓國雙雄祖傳(chuan)的(de)擴張血脈,想必到了明年(nian)HBM就不再是瓶頸。

而(er)真(zhen)正是(shi)瓶頸的(de)(de)(de)則(ze)(ze)是(shi)臺積(ji)電的(de)(de)(de)CoWoS封(feng)裝,這是(shi)一(yi)種2.5D的(de)(de)(de)封(feng)裝工藝(yi)。相比(bi)于(yu)直接(jie)在(zai)芯片上打(da)孔(TSV)、布(bu)線(RDL)的(de)(de)(de)3D封(feng)裝,CoWoS可以(yi)提供更好(hao)的(de)(de)(de)成本、散熱(re)以(yi)及吞吐(tu)帶寬(kuan),前兩(liang)(liang)者(zhe)對應HBM,后(hou)兩(liang)(liang)者(zhe)則(ze)(ze)是(shi)GPU的(de)(de)(de)關鍵。

所(suo)以想要高存力、高算力的(de)芯片,CoWoS就是封裝上(shang)的(de)唯(wei)一解。英偉達、AMD兩(liang)家的(de)四(si)款GPU都(dou)用上(shang)了CoWoS就是最好(hao)的(de)佐(zuo)證。

CoWoS的成本是多(duo)少(shao)呢?臺(tai)積(ji)電(dian)22年財報披露(lu)了CoWoS工藝占總營收(shou)7%,于是海外分析師(shi)Robert Castellano根據(ju)產能(neng),以(yi)及(ji)裸晶的尺寸推算(suan)出封裝一塊AI芯(xin)片能(neng)給臺(tai)積(ji)電(dian)帶來723美(mei)元的營收(shou)[6]。

因此(ci)把(ba)上述最(zui)大的(de)三塊成本項加總,合計在2,500美元左右,其中臺積(ji)電占了(le)$1,000(邏輯芯片+CoWoS)左右,SK海力士占了(le)1500美金(未來三星(xing)肯定(ding)會染指),再算上PCB等其他材料,整(zheng)體物料成本不超過3000美金。

那H100賣(mai)多(duo)少錢(qian)呢?35000美金(jin),直(zhi)接加了一個零,毛利率(lv)(lv)超過90%。過去(qu)10年(nian)英偉(wei)達(da)毛利率(lv)(lv)大概在60%上下(xia),現(xian)在受(shou)高毛利的A100/A800/H100的拉動,今年(nian)Q2英偉(wei)達(da)的毛利率(lv)(lv)已(yi)經站上了70%。

這有(you)點(dian)反常識:英偉達嚴重依賴(lai)臺積電(dian)的(de)代工,后者地(di)位無人撼動,甚至是唯一(yi)能卡英偉達脖子的(de)核(he)心環(huan)節。但這么一(yi)塊3.5萬(wan)美金的(de)卡,制造它的(de)臺積電(dian)只能拿1000美金,而(er)且只是收入,不是利(li)潤(run)。

不過,用毛利(li)率(lv)來定義暴利(li),對于芯片公司意(yi)義不大,要是(shi)(shi)從沙子開(kai)始算,那毛利(li)率(lv)更高。一(yi)(yi)張4N工藝(yi)的12寸(cun)晶圓,臺(tai)積電賣給誰(shui)都差不多是(shi)(shi)1.5萬(wan)美(mei)金一(yi)(yi)片,英(ying)偉達能加個(ge)零賣給客戶,自然有其訣(jue)竅。

這個訣竅的秘密在于:英(ying)偉(wei)達(da)本質(zhi)上(shang),是一個偽裝成硬件廠商的軟件公(gong)司(si)。

軟硬一體的護城河

英偉達最強大的武器(qi),就藏在毛利率減(jian)去(qu)凈利率的那一部分。

在(zai)本輪(lun)AI熱潮(chao)之前,英偉達的(de)(de)毛利率常年(nian)維(wei)持在(zai)65%上下,而凈(jing)利率通常只有(you)30%。而今年(nian)Q2受高毛利的(de)(de)A100/A800/H100的(de)(de)拉動,毛利率站(zhan)上70%,凈(jing)利率更是高達45.81%。

圖片

近 3 財年英偉達(NVIDIA)單(dan)季(ji)度毛利率與凈利率

英(ying)偉(wei)達目前(qian)在全球有(you)超過2萬(wan)名員工(gong),大(da)都是高薪的(de)軟硬件(jian)工(gong)程師,而根據(ju)(ju)美國獵(lie)聘Glassdoor的(de)數(shu)據(ju)(ju),這些崗位的(de)平均年薪基本都高于20萬(wan)美元/年。

圖片

近十個財年(nian)英(ying)偉達研發費用率(lv)

在過去的(de)十年(nian)(nian)里,英偉達研(yan)發(fa)支出的(de)絕對值保持著高速增長,而研(yan)發(fa)費用率穩態下(xia)也維(wei)持在20%以上(shang)。當然,如果某一(yi)年(nian)(nian)的(de)終(zhong)端需求(qiu)爆發(fa),比如2017年(nian)(nian)的(de)深度學習、21年(nian)(nian)的(de)挖礦、以及今(jin)年(nian)(nian)的(de)大語言模型,營收(shou)的(de)分母(mu)驟然抬(tai)升,研(yan)發(fa)費用率就會短暫的(de)跌倒(dao)20%,相應地(di)利潤也會非線性暴增。

而在(zai)英偉達研發的(de)這么(me)多項目中最關鍵的(de)無疑是CUDA。

03年為(wei)(wei)解決DirectX編程門檻(jian)過高的(de)問題,Ian Buck的(de)團隊推出了一款名為(wei)(wei)Brook的(de)編程模型,這(zhe)也是后來(lai)人們常(chang)說的(de)CUDA的(de)雛形(xing)。06年Buck加入英(ying)偉(wei)達,并說服黃仁勛研發CUDA[8]。

因為支(zhi)持(chi)C語言環境下的并行計(ji)算,使得CUDA一躍成為工程師的首選,也讓GPU走上了通用處(chu)理器(GPGPU)的道(dao)路。

在(zai)CUDA逐(zhu)漸(jian)成熟之后,Buck再(zai)次(ci)勸說黃(huang)仁勛,讓英偉達未來(lai)所有(you)的(de)GPU都必須支(zhi)持CUDA。06年CUDA立項,07年推(tui)出產品,當(dang)時英偉達的(de)年營收僅有(you)30億美元,卻(que)在(zai)CUDA上花費5億美金,到了(le)17年時,單在(zai)CUDA上的(de)研發支(zhi)出就已超過了(le)百億。

曾經有(you)位私有(you)云公(gong)司的CEO在接受采訪時說(shuo)過,他們(men)也不是沒想過轉(zhuan)去買AMD的卡(ka),但要(yao)把(ba)這些卡(ka)調試到正(zheng)常運(yun)轉(zhuan)至少需(xu)要(yao)兩個(ge)月(yue)的時間[3]。而為了縮(suo)短這兩個(ge)月(yue),英(ying)偉達投(tou)入上百億走了20年。

芯片(pian)行業浮(fu)沉大半(ban)個世紀(ji),從(cong)來沒有一(yi)家企業像英偉達一(yi)樣(yang),既賣硬件(jian)、也(ye)賣生(sheng)態,或(huo)者(zhe)按黃(huang)仁勛的(de)話(hua)來說:“賣的(de)是準系(xi)統”。因此,英偉達對標的(de)也(ye)的(de)確不(bu)是芯片(pian)領域的(de)那些先賢(xian)們,而是蘋果——另一(yi)家賣系(xi)統的(de)公司。

從07年推出CUDA,到成為全球最大的印鈔廠,英偉達(da)也并不是沒有(you)過對(dui)手。

08年(nian)(nian)(nian)當時芯片(pian)屆王者英(ying)特爾中(zhong)斷了(le)與英(ying)偉(wei)達(da)(da)在(zai)集顯項(xiang)目上的合作,推(tui)出自(zi)己的通用處理器(GPCPU),打算在(zai)PC 領域“劃(hua)江而治(zhi)”。可英(ying)偉(wei)達(da)(da)在(zai)隨后幾年(nian)(nian)(nian)的產品(pin)迭代中(zhong),硬是把自(zi)家處理器推(tui)廣到(dao)太空、金融、生物醫療等需要更強大計算能力的領域,于是10年(nian)(nian)(nian)英(ying)特爾眼看打壓(ya)無望,被迫取消了(le)獨(du)立顯卡計劃(hua)。

09年蘋(pin)果的開(kai)發(fa)團隊推出了OpenCL,希(xi)望能(neng)憑借著通用(yong)性在CUDA身上(shang)(shang)分一杯羹(geng)。但OpenCL在深度(du)學(xue)習的生態上(shang)(shang)遠不(bu)如(ru)CUDA,許多(duo)學(xue)習框架要么(me)是在CUDA發(fa)布之后,才會(hui)去(qu)支持(chi)OpenCL,要么(me)壓根不(bu)支持(chi)OpenCL。于是在深度(du)學(xue)習上(shang)(shang)的掉(diao)隊,使得OpenCL始終無法(fa)觸及(ji)更高(gao)附加值的業(ye)務(wu)。

15年AlphaGo開(kai)始在(zai)圍棋領(ling)域初露鋒芒,宣告人工(gong)智(zhi)能的時(shi)代(dai)已經來臨。此時(shi)的英特爾為了趕上這(zhe)最后一班車,把AMD的GPU裝入自(zi)己(ji)的系統芯片內。這(zhe)可(ke)是兩家公司自(zi)上世紀80年代(dai)以來的首次合作。可(ke)如今(jin)CPU老(lao)(lao)大(da)、老(lao)(lao)二+GPU老(lao)(lao)二的市值(zhi)之和僅是GPU老(lao)(lao)大(da)英偉達的1/4。

從目前看來,英偉達的(de)(de)(de)護城河(he)幾乎是(shi)牢不可摧。即使有不少大(da)客(ke)戶笑里藏(zang)刀,私下里在研發自(zi)己的(de)(de)(de)GPU,但憑借著龐大(da)的(de)(de)(de)生態和快速(su)的(de)(de)(de)迭代,這些大(da)客(ke)戶也(ye)無法(fa)撬動帝國(guo)的(de)(de)(de)裂縫,特(te)斯(si)拉就是(shi)明證(zheng)。英偉達的(de)(de)(de)印(yin)鈔機生意(yi),在可見的(de)(de)(de)未來還會(hui)持續。

可能唯一讓黃仁勛縈繞烏云(yun)的地(di)方(fang)(fang),便(bian)是(shi)那個(ge)客戶眾多、需求(qiu)旺盛(sheng)但H100賣不進去、但人家又在咬牙攻(gong)堅的地(di)方(fang)(fang)——這個(ge)地(di)方(fang)(fang)全世界只有一個(ge)。

熱門文章
近日,以“開放引領發展,合作共贏未來”為主題的2023中國國際服務貿易交易會(以下簡稱“服貿會”)于北京正式開幕。作為全球能源管理與自動化領域的數字化轉型專家,施耐德電氣隆重發布“1+3”服務創新成果
2023-09-05
X