2023年8月3日,華爾(er)街(jie)和硅谷聯袂奉上(shang)了(le)一(yi)(yi)件震撼業界的(de)大事:讓一(yi)(yi)家創業公司拿到23億美(mei)元的(de)債(zhai)務(wu)融資,抵(di)押物則(ze)是(shi)當前全球最(zui)硬的(de)通貨——H100顯卡。
這個大事件的(de)主(zhu)角叫(jiao)做CoreWeave,主(zhu)營業(ye)(ye)務(wu)是AI私有云服務(wu),簡(jian)單說就是通過搭建擁有大量GPU算力的(de)數據中心,來給AI創業(ye)(ye)公司和(he)大型商(shang)業(ye)(ye)客戶提(ti)供算力基(ji)礎(chu)設施。CoreWeave累(lei)計融資5.8億美(mei)金,目(mu)前是B輪(lun),估值20億美(mei)元。
CoreWeave成(cheng)立于2016年,創始(shi)人是(shi)三個(ge)華爾街(jie)大宗商品交易員。剛(gang)開始(shi)公司的(de)主(zhu)營業務只有(you)一個(ge):挖礦(kuang),采(cai)購大量GPU來組建礦(kuang)機(ji)中心,尤其(qi)是(shi)在(zai)幣圈(quan)低潮時,公司會逆周(zhou)期囤大量顯卡,也因此跟英偉達(da)建立了(le)鐵桿的(de)革命友誼。

CoreWeave三(san)位聯合創始(shi)人(ren)
2019年,CoreWeave開(kai)始把這些(xie)礦機改造(zao)成企(qi)業級數據中心,向客(ke)戶(hu)提供AI云服務,剛開(kai)始的生(sheng)意也不溫不火,但ChatGPT誕(dan)生(sheng)之(zhi)后,大模型(xing)的訓練和(he)推(tui)理每(mei)天都在(zai)消耗大量(liang)算力,已經擁有數萬張顯卡(當然未必是最(zui)新型(xing)號)的CoreWeave嗖的一下起飛,門口擠(ji)滿了客(ke)戶(hu)和(he)風投。
但(dan)令人感到蹊蹺的(de)是:CoreWeave累計一(yi)共只融到了5.8億(yi)(yi)美金,賬面GPU的(de)凈值(zhi)不會超過(guo)10億(yi)(yi)美元(yuan),甚至公司整體估值(zhi)也只有20億(yi)(yi)美元(yuan),但(dan)為何(he)(he)卻能(neng)通過(guo)抵(di)押借到23億(yi)(yi)美元(yuan)呢(ni)?一(yi)向精于算計、熱衷對抵(di)押物價值(zhi)膝蓋斬的(de)華爾(er)街,為何(he)(he)如此慷慨呢(ni)?
原(yuan)因極有可能是:CoreWeave雖然賬上還沒這么多顯(xian)卡,但它拿到了英偉達的供貨承諾,尤其(qi)是H100。
CoreWeave跟英(ying)偉達(da)的(de)鐵(tie)桿關系已經是硅谷(gu)公開的(de)秘密。這種鐵(tie)桿根源于CoreWeave對(dui)英(ying)偉達(da)的(de)毫無二心的(de)忠誠和(he)支持——只用英(ying)偉達(da)的(de)卡、堅決不(bu)自己造芯、顯卡賣不(bu)動時(shi)幫英(ying)偉達(da)囤(dun)卡。對(dui)黃仁勛來說,這種關系的(de)含金量,遠超跟微軟、Google和(he)特斯拉的(de)那些(xie)塑料友情(qing)。
因此,盡管(guan)英偉達H100十分(fen)緊缺,英偉達還是(shi)把大量新卡分(fen)配給(gei)了CoreWeave,甚(shen)至不惜限制對(dui)亞馬遜和谷(gu)歌(ge)等大廠的(de)(de)供(gong)應。黃仁(ren)勛在(zai)電話會議里夸贊:“一批新的(de)(de)GPU云(yun)服務提供(gong)商會崛起,其中(zhong)最著名的(de)(de)是(shi) CoreWeave,他們做(zuo)得非(fei)常(chang)好(hao)。”
而在喜(xi)提23億美(mei)金的(de)一(yi)(yi)周前,CoreWeave就已(yi)對外宣稱,將耗(hao)資(zi)16億美(mei)元在德州建(jian)立一(yi)(yi)個占地面積42,000 平方(fang)米(mi)的(de)數(shu)據(ju)中(zhong)(zhong)心。僅憑借跟英偉(wei)達之間的(de)關系和優先配貨權,CoreWeave就可(ke)以把建(jian)數(shu)據(ju)中(zhong)(zhong)心的(de)錢從銀行里借出來——這(zhe)種模式,讓人想起了(le)拿地后立馬找銀行貸款的(de)地產商(shang)。
所以可(ke)以這樣說:當(dang)下一(yi)份H100的供(gong)貨承(cheng)諾,堪比房地產黃金(jin)時代(dai)的一(yi)紙土(tu)地批文。
一卡難求的H100
今年4月在接受采(cai)訪時,馬斯克抱(bao)怨道[2]:“現在似乎連狗都在買GPU。”
很諷刺的是,特斯拉早在2021年就發布了自研的D1芯片,由臺積電代工,采用7nm工藝,號稱能替代當時英偉達主流的A100。但2年過去了,英偉達推出了更為強大的H100,而特斯拉的D1沒有后續迭代,因此當馬斯克試圖組建自家的人工智能公司(si)時(shi),還(huan)是得乖(guai)乖(guai)地跪在黃老爺門前求卡。
H100在(zai)去年9月20日正式推出(chu),由臺積電4N工藝(yi)代工。相(xiang)較于(yu)前任A100,H100單卡在(zai)推理速度上提(ti)升(sheng)3.5倍(bei)(bei),在(zai)訓練速度上提(ti)升(sheng)2.3倍(bei)(bei);如(ru)果(guo)用服務器集群運(yun)算的(de)方式,訓練速度更是能提(ti)高到9倍(bei)(bei),原本一個(ge)星(xing)期的(de)工作量(liang),現(xian)在(zai)只需要20個(ge)小時(shi)。

GH100 架構圖
相(xiang)比A100,H100的單卡(ka)價格更貴,大約是A100的1.5~2倍左右,但訓練(lian)大模(mo)型的效率卻提升(sheng)了200%,這樣這算下來的“單美元性能”更高。如(ru)果搭配英偉達(da)最新的高速連接系統方案(an),每美元的GPU性能可能要高出 4-5 倍,因(yin)此受到客戶瘋狂(kuang)追(zhui)捧。
搶購H100的客戶,主(zhu)要(yao)分成三類:
第一類是(shi)綜合型云計算巨頭,比如微軟Azure、谷歌(ge)GCP和亞(ya)馬(ma)遜(xun)AWS這樣(yang)的云計算巨頭。他們(men)的特點是(shi)財大氣粗,動輒就想“包(bao)圓”英偉達(da)(da)的產能,但每家也都藏著小心思,對英偉達(da)(da)的近(jin)壟(long)斷地位感(gan)到不滿,暗地里自己研發芯片來降低成(cheng)本。
第(di)二(er)類是獨立的云(yun)GPU服務商,典型公司(si)如前文提(ti)到的CoreWeave,以及Lambda、RunPod等。這(zhe)類公司(si)算力(li)規(gui)模(mo)相對(dui)較小,但能夠提(ti)供差(cha)異化的服務,而英偉達對(dui)這(zhe)類公司(si)也是大力(li)扶持,甚(shen)至(zhi)直接(jie)出(chu)錢(qian)投資了(le)CoreWeave和(he)Lambda,目的很明(ming)確:給那些私自造(zao)芯的巨頭們上眼(yan)藥。
第(di)三類是自(zi)己在訓練LLM(大語(yu)言模型(xing))的(de)大小公(gong)司(si)。既(ji)包括Anthropic、Inflection、Midjourney這(zhe)種初創(chuang)公(gong)司(si),也有像蘋果、特斯拉、Meta這(zhe)樣的(de)科技(ji)巨(ju)頭(tou)。它們通常一(yi)(yi)邊使用(yong)外部云(yun)服務商的(de)算(suan)力,一(yi)(yi)邊自(zi)己采購GPU來(lai)自(zi)建爐灶——有錢的(de)多買,沒錢的(de)少買,主打一(yi)(yi)個豐儉由(you)人(ren)。
在這三(san)類(lei)客戶中,微軟Azure至少(shao)有(you)(you)5萬(wan)張H100,谷歌手(shou)上(shang)大(da)概(gai)(gai)有(you)(you)3萬(wan)張,Oracle大(da)概(gai)(gai)有(you)(you)2萬(wan)張左右,而特(te)斯拉和亞馬遜手(shou)上(shang)也至少(shao)拿有(you)(you)1萬(wan)張左右,CoreWeave據(ju)稱(cheng)有(you)(you)3.5萬(wan)張的額度承諾(nuo)(實際到(dao)貨大(da)概(gai)(gai)1萬(wan))。其他的公司很少(shao)有(you)(you)超過1萬(wan)張的。
這(zhe)三類客(ke)戶總共需(xu)要(yao)多(duo)少(shao)張(zhang)H100呢?根據海外(wai)機(ji)構(gou)GPU Utils的預測,H100當前(qian)需(xu)求大概(gai)43.2萬(wan)張(zhang)。其中OpenAI需(xu)要(yao)5萬(wan)張(zhang)來訓練GPT-5,Inflection需(xu)求2.2萬(wan)張(zhang),Meta則是(shi)2.5萬(wan)張(zhang)(也有(you)說法是(shi)10萬(wan)張(zhang)),四大公有(you)云廠(chang)商(shang)每家都需(xu)要(yao)至(zhi)少(shao)3萬(wan)張(zhang),私有(you)云行業則是(shi)10萬(wan)張(zhang),而其他的小模型廠(chang)商(shang)也有(you)10萬(wan)張(zhang)的需(xu)求[3]。
英偉達2023年(nian)的H100出(chu)貨(huo)量大概在50萬張左右,目前臺積電的產能(neng)仍在爬坡,到年(nian)底H100一(yi)卡難求的困(kun)境便會緩解(jie)。
但長期來看,H100的(de)供需缺(que)口會隨著AIGC的(de)應(ying)用爆發(fa)而繼續(xu)水(shui)漲船高(gao)。根據金融時報(bao)(bao)的(de)報(bao)(bao)道,2024年H100的(de)出貨量將高(gao)達150萬張-200萬張,相比于(yu)今年的(de)50萬張,提升3-4倍[4]。
而華爾街(jie)的預測則更為激(ji)進:美國投行Piper Sandler認為明年(nian)英偉(wei)達在(zai)數據中心上(shang)的營收將超過600億(yi)(yi)美元(FY24Q2:103.2億(yi)(yi)美元),按這個數據倒推,A+H卡的出貨量接近300萬張(zhang)。
還有更夸張的(de)(de)估計。某H100服務器最大的(de)(de)代工廠(市占率70%-80%),從今年(nian)6月開始就(jiu)陸(lu)續出(chu)貨了H100的(de)(de)服務器,7月份(fen)產能陸(lu)續爬(pa)坡。一份(fen)最近的(de)(de)調研顯示,這家(jia)代工廠認(ren)為2024年(nian)A+H卡(ka)的(de)(de)出(chu)貨量會(hui)在450萬張~500萬張之間。
這對(dui)英偉達意味著(zhu)“潑天的富(fu)貴”,因為H100的暴利程度,是其(qi)他(ta)行業(ye)人難以想(xiang)象的。
為了搞清H100有多暴利,我們不妨把它的物料成本(Bill of Materials, BOM)徹底拆解出來。
如(ru)圖所(suo)示,H100最通用的(de)版本H100 SXM采用的(de)是臺積電CoWoS的(de)7晶粒(li)封裝,6顆(ke)16G的(de)HBM3芯片(pian)分列兩排(pai)緊緊圍繞著中(zhong)間的(de)邏輯芯片(pian)。
而這也構成了H100最重要的(de)(de)三個部分:邏輯芯片、HBM存儲芯片、CoWoS封裝,除此之外,還有諸如PCB板以及其他的(de)(de)一些輔助(zhu)器件,但價值量不高(gao)。

H100拆機圖
核心的(de)邏輯芯(xin)片尺(chi)寸(cun)是814mm^2,產(chan)自臺(tai)積(ji)(ji)電最(zui)先進的(de)臺(tai)南(nan)18號工廠(chang),使用的(de)工藝節點則是“4N”,雖(sui)然名字上是4打頭,但(dan)實(shi)際(ji)上是5nm+。由于5nm的(de)下游(you),手機等領(ling)域的(de)景氣度不佳(jia),因(yin)此臺(tai)積(ji)(ji)電在保(bao)供邏輯芯(xin)片上沒有任何問題(ti)。
而這(zhe)塊邏輯芯(xin)片是由(you)12寸(面積(ji)70,695mm^2)的晶圓(yuan)切(qie)(qie)割產生,理想狀態下可以切(qie)(qie)出86塊,但考慮到(dao)“4N”線80%的良率(lv)以及切(qie)(qie)割損耗,最后(hou)一張12寸晶圓(yuan)只能切(qie)(qie)出65塊的核心邏輯芯(xin)片。
這一塊(kuai)核心邏輯芯片的成(cheng)本是(shi)多(duo)少呢?臺積電2023年一片12寸的晶圓對外報價是(shi)13,400美元(yuan),所以折算下來單(dan)塊(kuai)大概在(zai)200美元(yuan)左右。
接下來(lai)是6顆HBM3芯片(pian),目前由SK海力(li)士獨供,這家(jia)起源于現代(dai)電子(zi)的(de)企業(ye),2002年(nian)幾乎要委身與美(mei)光,憑借(jie)著政(zheng)府的(de)輸血以及(ji)逆(ni)周期上(shang)產能的(de)戰略(lve),如今在(zai)HBM的(de)量(liang)產技術上(shang)至(zhi)少領(ling)先美(mei)光3年(nian)(美(mei)光卡在(zai)HBM2e,海力(li)士2020年(nian)中期量(liang)產)。
HBM的(de)(de)(de)具(ju)體價(jia)格(ge),各(ge)家都(dou)諱莫如深(shen),但根據韓(han)媒的(de)(de)(de)說法,HBM目前是(shi)(shi)現(xian)有DRAM產品(pin)的(de)(de)(de)5-6倍。而現(xian)有的(de)(de)(de)GDDR6 VRAM的(de)(de)(de)價(jia)格(ge)大(da)概是(shi)(shi)每GB3美(mei)元(yuan)(yuan),如此推算(suan)HBM的(de)(de)(de)價(jia)格(ge)是(shi)(shi)在每GB 15美(mei)元(yuan)(yuan)左(zuo)右。那一張H100 SXM在HBM上(shang)的(de)(de)(de)花費就是(shi)(shi)1500美(mei)元(yuan)(yuan)。
雖然今(jin)年(nian)HBM的(de)(de)價格不斷上漲,英偉達(da)、Meta的(de)(de)高(gao)管也親赴(fu)海力士“督工”,可下半年(nian)三星的(de)(de)HBM3就(jiu)能逐(zhu)步(bu)量產出(chu)貨,再加上韓國雙雄祖傳(chuan)的(de)(de)擴張血脈,想必到(dao)了明年(nian)HBM就(jiu)不再是瓶頸(jing)。
而真(zhen)正是(shi)瓶頸(jing)的(de)(de)(de)則是(shi)臺積電(dian)的(de)(de)(de)CoWoS封(feng)裝(zhuang),這是(shi)一種2.5D的(de)(de)(de)封(feng)裝(zhuang)工藝。相比于直接在(zai)芯片上(shang)打孔(TSV)、布線(RDL)的(de)(de)(de)3D封(feng)裝(zhuang),CoWoS可以提(ti)供更好的(de)(de)(de)成本、散熱以及吞吐帶(dai)寬,前(qian)兩者對應HBM,后兩者則是(shi)GPU的(de)(de)(de)關鍵。
所以想要高存力、高算(suan)力的(de)芯片,CoWoS就(jiu)是封(feng)裝上的(de)唯一解。英(ying)偉達、AMD兩家(jia)的(de)四款GPU都用上了CoWoS就(jiu)是最(zui)好的(de)佐證。
CoWoS的成本(ben)是多(duo)少呢?臺(tai)積(ji)電22年財報(bao)披露了(le)CoWoS工藝占總營(ying)收7%,于是海外分析師Robert Castellano根據(ju)產能(neng),以及裸晶的尺寸推算出(chu)封裝一塊(kuai)AI芯(xin)片能(neng)給(gei)臺(tai)積(ji)電帶(dai)來723美(mei)元的營(ying)收[6]。
因此把上(shang)述最大(da)的(de)三(san)塊成本項加總,合(he)計(ji)在2,500美(mei)元左(zuo)右,其中臺(tai)積電占(zhan)了$1,000(邏輯芯片+CoWoS)左(zuo)右,SK海力士占(zhan)了1500美(mei)金(jin)(未來三(san)星肯定會(hui)染指),再算上(shang)PCB等其他材料,整體物(wu)料成本不(bu)超過(guo)3000美(mei)金(jin)。
那H100賣多少(shao)錢呢?35000美金,直(zhi)接加了一個零(ling),毛(mao)利(li)率(lv)(lv)超(chao)過(guo)90%。過(guo)去10年(nian)英(ying)偉達(da)毛(mao)利(li)率(lv)(lv)大(da)概(gai)在(zai)60%上下,現在(zai)受高毛(mao)利(li)的A100/A800/H100的拉動,今年(nian)Q2英(ying)偉達(da)的毛(mao)利(li)率(lv)(lv)已經(jing)站上了70%。
這有點反常識(shi):英(ying)偉(wei)達(da)嚴(yan)重依賴臺(tai)積(ji)電(dian)的代工,后者地位無人撼動,甚至是(shi)(shi)唯一能卡英(ying)偉(wei)達(da)脖子的核心環節。但這么(me)一塊3.5萬(wan)美金的卡,制(zhi)造它的臺(tai)積(ji)電(dian)只能拿(na)1000美金,而且只是(shi)(shi)收(shou)入,不是(shi)(shi)利潤。
不(bu)過,用毛利率來定義暴利,對于芯片(pian)公(gong)司意義不(bu)大,要是(shi)從沙子開(kai)始算,那毛利率更高。一張4N工藝的12寸(cun)晶圓,臺(tai)積電賣(mai)給(gei)誰都差不(bu)多是(shi)1.5萬美金一片(pian),英(ying)偉達能加個(ge)零賣(mai)給(gei)客戶,自然有其(qi)訣竅。
這個訣(jue)竅的(de)秘密在(zai)于:英(ying)偉達(da)本質上,是(shi)一個偽裝(zhuang)成硬件廠商的(de)軟件公司。
軟硬一體的護城河
英偉達最強(qiang)大的武器(qi),就藏在毛利率減去凈利率的那一部分。
在本輪AI熱潮之前(qian),英(ying)偉達(da)的(de)毛(mao)利(li)率常年(nian)維(wei)持在65%上下(xia),而(er)凈(jing)利(li)率通常只(zhi)有30%。而(er)今年(nian)Q2受高毛(mao)利(li)的(de)A100/A800/H100的(de)拉動,毛(mao)利(li)率站上70%,凈(jing)利(li)率更是高達(da)45.81%。

近 3 財(cai)年(nian)英偉達(NVIDIA)單季度(du)毛利率(lv)與(yu)凈利率(lv)
英(ying)偉達目(mu)前在全球有超過2萬(wan)名員(yuan)工,大都(dou)是高(gao)薪的(de)軟硬件工程師,而(er)根據美國獵(lie)聘Glassdoor的(de)數據,這些(xie)崗位的(de)平均(jun)年薪基本都(dou)高(gao)于20萬(wan)美元/年。

近十個財年英偉達研發費用率
在(zai)過去的十年(nian)里,英偉達(da)研發支出的絕(jue)對(dui)值保持著高速增長,而研發費用率穩(wen)態下(xia)也(ye)維(wei)持在(zai)20%以(yi)上(shang)。當然,如果某(mou)一年(nian)的終(zhong)端需(xu)求爆(bao)發,比如2017年(nian)的深(shen)度學習、21年(nian)的挖礦、以(yi)及(ji)今年(nian)的大語言模(mo)型,營收的分母驟然抬升,研發費用率就會短暫的跌倒20%,相(xiang)應(ying)地利潤也(ye)會非線(xian)性暴增。
而(er)在英偉達研發(fa)的這么多(duo)項目中最關鍵(jian)的無疑是CUDA。
03年(nian)為解(jie)決(jue)DirectX編程門檻過高的問(wen)題,Ian Buck的團隊推出(chu)了一款名為Brook的編程模型(xing),這也(ye)是(shi)后來人們常說的CUDA的雛形。06年(nian)Buck加入英偉達(da),并說服(fu)黃仁勛研發CUDA[8]。
因為支持C語言環(huan)境下的(de)并行計算(suan),使(shi)得CUDA一躍成為工程師的(de)首(shou)選,也讓GPU走上(shang)了通(tong)用處理器(GPGPU)的(de)道路。
在CUDA逐(zhu)漸(jian)成熟之后,Buck再次(ci)勸說黃(huang)仁勛(xun),讓英偉達未來所有(you)的GPU都必須支(zhi)持(chi)CUDA。06年(nian)CUDA立項,07年(nian)推(tui)出(chu)產品(pin),當(dang)時英偉達的年(nian)營收(shou)僅有(you)30億美(mei)元,卻在CUDA上(shang)花費(fei)5億美(mei)金,到了17年(nian)時,單在CUDA上(shang)的研發支(zhi)出(chu)就已超(chao)過了百(bai)億。
曾(ceng)經有(you)位(wei)私(si)有(you)云公司(si)的CEO在(zai)接受采訪時(shi)(shi)說(shuo)過,他們也不是沒想過轉去買AMD的卡(ka),但要(yao)把這些(xie)卡(ka)調(diao)試到正常(chang)運轉至少需要(yao)兩個月(yue)的時(shi)(shi)間[3]。而為了縮短這兩個月(yue),英(ying)偉達投入上(shang)百億走(zou)了20年。
芯片行業浮沉大半個世(shi)紀,從來(lai)沒(mei)有(you)一家企業像英(ying)偉(wei)達一樣,既(ji)賣(mai)(mai)硬件(jian)、也(ye)賣(mai)(mai)生(sheng)態,或(huo)者按黃仁勛的(de)話來(lai)說(shuo):“賣(mai)(mai)的(de)是(shi)準系(xi)統”。因(yin)此,英(ying)偉(wei)達對(dui)標的(de)也(ye)的(de)確不是(shi)芯片領域的(de)那些先賢們,而是(shi)蘋果——另一家賣(mai)(mai)系(xi)統的(de)公司。
從(cong)07年推出CUDA,到成為全球最(zui)大(da)的印鈔廠,英偉達(da)也并不是沒有過對手。
08年(nian)當時芯片屆王者英特爾(er)中(zhong)斷(duan)了(le)與英偉(wei)達在(zai)集顯項目上的(de)(de)合作(zuo),推出(chu)自(zi)己的(de)(de)通用(yong)處(chu)理(li)器(GPCPU),打算在(zai)PC 領域“劃江而治(zhi)”。可英偉(wei)達在(zai)隨后(hou)幾年(nian)的(de)(de)產品迭代(dai)中(zhong),硬是(shi)把自(zi)家處(chu)理(li)器推廣(guang)到太空、金融、生物醫療等需要更強大計算能力(li)的(de)(de)領域,于是(shi)10年(nian)英特爾(er)眼看打壓無望,被迫取消了(le)獨立(li)顯卡計劃。
09年蘋果的(de)開發(fa)團隊(dui)推出了OpenCL,希望能憑借著通用性在CUDA身(shen)上分(fen)一杯羹。但(dan)OpenCL在深度(du)學(xue)習(xi)的(de)生態上遠不(bu)(bu)如CUDA,許多(duo)學(xue)習(xi)框架(jia)要(yao)么是在CUDA發(fa)布之后,才會去支持(chi)OpenCL,要(yao)么壓根不(bu)(bu)支持(chi)OpenCL。于是在深度(du)學(xue)習(xi)上的(de)掉(diao)隊(dui),使得OpenCL始終無法觸及更(geng)高(gao)附加(jia)值的(de)業(ye)務。
15年(nian)AlphaGo開始在圍棋領域初露(lu)鋒芒,宣告(gao)人工智能的(de)時(shi)代(dai)已經(jing)來臨(lin)。此時(shi)的(de)英特爾為了(le)趕上(shang)這最后一班(ban)車,把(ba)AMD的(de)GPU裝入自己的(de)系統芯片(pian)內。這可是(shi)兩家公(gong)司自上(shang)世紀80年(nian)代(dai)以來的(de)首次(ci)合(he)作。可如(ru)今CPU老(lao)(lao)(lao)大(da)、老(lao)(lao)(lao)二+GPU老(lao)(lao)(lao)二的(de)市值之和僅是(shi)GPU老(lao)(lao)(lao)大(da)英偉達的(de)1/4。
從目(mu)前(qian)看來(lai),英偉達(da)的(de)護城河(he)幾(ji)乎是牢不可摧。即使有不少大(da)客戶笑里藏(zang)刀,私下里在研(yan)發自(zi)己的(de)GPU,但憑借(jie)著(zhu)龐(pang)大(da)的(de)生態和快速的(de)迭代,這些大(da)客戶也(ye)無(wu)法撬動帝國的(de)裂(lie)縫,特斯(si)拉就(jiu)是明證(zheng)。英偉達(da)的(de)印鈔機(ji)生意,在可見的(de)未(wei)來(lai)還會持續。
可能唯一讓黃(huang)仁勛縈繞烏云的地方,便是那個客戶眾多、需求旺盛但(dan)H100賣不進去、但(dan)人家又在咬牙攻(gong)堅的地方——這個地方全(quan)世界只有一個。