生成式人工智能正在迅速拓寬其應用邊界,你可能以為它還只是一個聊天機器人,實際上,生成式AI已經能“造”芯片了。
近日,紐約大學坦登工程學院的研究人員通過與AI“對話”,首次實現了由人工智能來設計一種微處理器芯片。
該團隊用“史無前例”描述此項研究。據稱,這項成果的發布表明——生成式人工智能在硬件設計領域具備極高的潛在應用價值,這不僅會對整個半導體芯片的研發起到加速作用,同時意味著“高不可攀”的半導體芯片設計門檻也會降低,甚至并非專門擁有該領域技術技能的人也可以參與其中。
作為(wei)參與(yu)者之一(yi),紐(niu)約(yue)大學坦(tan)登工(gong)程學院電氣(qi)與(yu)計算機工(gong)程系(xi)、紐(niu)約(yue)大學網(wang)絡安全中心助理教授哈蒙德?皮(pi)爾斯博士(Dr. Hammond Pearce)自己坦(tan)言,“我(wo)根本不是(shi)芯片設(she)計專(zhuan)家,這(zhe)是(shi)我(wo)設(she)計的第(di)一(yi)塊芯片,這(zhe)也正(zheng)是(shi)為(wei)什么(me)我(wo)覺得(de)它會(hui)如此令人印象深刻(ke)的原(yuan)因。”
目前該項研(yan)究已經(jing)發布在arxiv預印(yin)本平(ping)臺上(shang),論(lun)文題為ChipChat:對話式硬件(jian)設計(ji)的機遇(yu)與挑戰(zhan)。
在論文中,研究團隊(dui)展示了兩名硬(ying)件工程師(shi)如何通(tong)過用英(ying)語(yu)與(yu)GPT-4“交(jiao)流”,進而(er)設計出新型微處理架(jia)構并送去制造的過程。
他們到底如何(he)完(wan)成ChipChat項目研究的?一起(qi)來看(kan)看(kan)。
一個“好奇”翻開了生成式AI的另一面
ChipChat項目(mu)的啟(qi)動或許只是源(yuan)于一個“好奇”。
人工智能潮涌下,多數人對于大語言模型(LLM)的理解仍然停留在“好玩”,但皮爾斯博士顯然并不這么認為。ChipChat項目就是要探索——現有的生成式AI大語言模型在硬件設計領域的能力和局限性。
一般來說,開(kai)發(fa)任何類型(xing)的(de)(de)硬(ying)件(jian)(jian),包括(kuo)芯片在內,都需(xu)要(yao)從(cong)常(chang)用語(yu)言(yan)的(de)(de)需(xu)求(qiu)(qiu)描述(shu)開(kai)始,然后通過需(xu)求(qiu)(qiu)對(dui)(dui)接,再(zai)讓專業的(de)(de)工(gong)(gong)程師(shi)用適合開(kai)發(fa)的(de)(de)語(yu)言(yan)對(dui)(dui)硬(ying)件(jian)(jian)進行(xing)描述(shu)。在上述(shu)過程中,我們需(xu)要(yao)將(jiang)自(zi)然語(yu)言(yan)描述(shu)轉換成硬(ying)件(jian)(jian)描述(shu)語(yu)言(yan) (HDL),比如Verilog,這使得只有少數經多年培訓的(de)(de)工(gong)(gong)程師(shi)才能上手。
ChipChat項目(mu)正(zheng)是面向該問題探索解決途徑。為此(ci),研(yan)究團(tuan)隊計劃(hua)先通(tong)過(guo)對(dui)話的方式(shi)讓(rang)AI生(sheng)成相應代碼(ma),然后對(dui)代碼(ma)加以(yi)檢驗,直到確認無誤后,他(ta)們再(zai)將編寫的Verilog交付工廠進行生(sheng)產;
基于上述思(si)路,他們用提(ti)示詞一同測試了OpenAI旗下ChatGPT的4和3.5版,以及谷歌(ge)的Bard和HuggingChat一共4種生(sheng)成式對話AI,通過(guo)對話方式提(ti)供提(ti)示詞,讓它們設(she)計一個8位(wei)移(yi)位(wei)寄存器。
這4個大語言(yan)模(mo)型均為近期(qi)熱門角(jiao)色,其(qi)中,GPT-4發布(bu)于今(jin)年3月(yue)份,3.5版本的推(tui)出時間(jian)是在去(qu)年11月(yue)。HuggingChat是來自Huggingface平(ping)臺的開(kai)源對話模(mo)型,推(tui)出時間(jian)為今(jin)年4月(yue)。
初步測試顯示,Bard和HuggingChat兩個模型在測試中對話生成設計一直未能滿足設計要求,研究團隊嘗試5次仍未能達標。相比下,兩個版本ChatGPT的設計初步滿足了設計規格要求。即便(bian)發生(sheng)錯誤,經過調(diao)試,ChatGPT亦能自行調(diao)整代碼,以(yi)達到人(ren)類要求:
更進(jin)一步,研究團隊(dui)讓(rang)兩個版本(ben)的ChatGPT面向更多(duo)需求進(jin)行(xing)相關設(she)計,再依(yi)靠模擬反饋結果進(jin)行(xing)調試。
這其中,“NFN”為(wei)無需(xu)反饋(kui)直接完成任務;“TF”指的是AI依據機器運行結果反饋(kui),最終調整(zheng)好了結果;“SHF”及“AHF”,為(wei)簡單與復雜(za)的人類(lei)反饋(kui)指導下AI完成了任務;倘若會話超過25條(tiao)消息或需(xu)要人類(lei)上手,則視為(wei)失敗,即“FAIL”。
具體如下圖。能看出GPT-4表現明顯好于更早版本,面對諸多基準測試失敗情況很少,且對話輪數也明顯少于GPT-3.5。
在前面(mian)基(ji)礎(chu)上(shang),研究者們通過(guo)124次對(dui)話(hua)成(cheng)功(gong)讓GPT-4設計出一(yi)個8位累加器微處(chu)理器,經由Skywater 130nm shuttle進行制造(zao)。團(tuan)隊聲(sheng)稱,這項研究標志著大語言模型設計的 IC 首(shou)次真正投入生產。
但值得一提的是,即便表現最好(hao)的GPT-4仍然(ran)耗費了研究者很多時間調試、不(bu)斷給提示詞,有(you)的代碼生成(cheng)了數十次(ci)。
且研究者承認,目前如果沒有人類提示,AI還不能獨立進行芯片設計,但作者仍然認為,它可以在設計通用模塊時節省工程師們的時間。此外,他們還需要進一步測試來識別和解決 AI 用于芯片設計所涉及的安全問題。
生成式AI應用于芯片設計并非首次
介紹(shao)下本文的作者(zhe)們(men)。
哈蒙德?皮(pi)爾斯博士是(shi)紐(niu)約大學(xue)坦登工(gong)程學(xue)院電氣(qi)與計(ji)算(suan)機工(gong)程系、紐(niu)約大學(xue)網絡安(an)全中心的(de)研究助(zhu)理(li)教授,主(zhu)攻方(fang)向為信息物理(li)系統(cyber-physical systems,CPS)及其(qi)網絡安(an)全,同時(shi)兼顧研究機器(qi)學(xue)習在該領域(yu)設計(ji)和應用中潛(qian)在的(de)影響。
除了前述(shu)提(ti)到的皮爾(er)斯博士(shi),ChipChat項目(mu)的其(qi)他成員也均來(lai)自于紐約(yue)大學坦登工(gong)程學院,包括拉梅(mei)什·卡(ka)里教授(Ramesh Karri)、研(yan)究所副教授希(xi)達(da)赫·加爾(er)格(Siddharth Garg)和博士(shi)生(sheng)杰森(sen)·布(bu)洛克洛夫(Jason Blocklove)。
拉梅(mei)什?卡里教授(shou)是洪堡獎學金的獲得者(zhe)(the recipient of the Humboldt Fellowship)和(he)美(mei)國國家科(ke)學基金會(hui)職業(ye)將獲得者(zhe)(the National Science Foundation CAREER Award),在紐約大(da)學坦登工程學院電氣和(he)計(ji)算(suan)機工程系任教授(shou)。迄今(jin)為止,他已經發布期刊和(he)會(hui)議出版物超(chao)200件,包括(kuo)多次(ci)在IEEE上發表署名文章。
希達赫?加爾格在紐約(yue)大(da)學(xue)坦登工程(cheng)學(xue)院ECE研究所任副教授一(yi)職,其(qi)研究方向是(shi)機器學(xue)習、網絡安全和計(ji)算機硬件設(she)計(ji)。2015年,Siddharth Garg獲得美國國家(jia)科學(xue)基金會職業(ye)獎。同時(shi),他在計(ji)算機工程(cheng)和計(ji)算機硬件領域的多(duo)個頂級(ji)會議(yi)的技術(shu)計(ji)劃委員會任職,并擔(dan)任IEEE和ACM多(duo)個期(qi)刊的審稿人。
以上大牛們的嘗試雖然聽起來新潮,但事實上將AI應用于包括芯片在內的硬件設計已經并非一個新概念。早在2021年時(shi),谷歌團隊曾發布論文《A graph placement methodology for fast chip design》,其中就介(jie)紹了一(yi)種(zhong)用于芯片(pian)版(ban)面規劃的深度(du)強化(hua)學習方案。
通過(guo)該方法(fa)自動進行(xing)芯片版面(mian)(mian)規(gui)劃,所需時(shi)(shi)間可(ke)以(yi)壓縮到6小(xiao)時(shi)(shi)以(yi)內,且(qie)設(she)計出來的芯片在關鍵指標,如功耗、性能以(yi)及芯片面(mian)(mian)積等,均可(ke)相媲美(mei)人(ren)類設(she)計的產品,甚至有過(guo)之而(er)無不(bu)及。
彼時,該團隊還透露(lu)這一(yi)方(fang)法將會用在設(she)計下(xia)一(yi)代人工智能(neng)加速器(qi)上(shang),并且相(xiang)比人類成果而言,可為每(mei)代加速器(qi)設(she)計節省數千小時。
除了谷歌之外,英偉達、三星、新(xin)思、Cadence等都(dou)在積極探索如何用深度(du)強化學習設計芯片電路(lu)。
在英偉達相關(guan)研(yan)究人員(yuan)發布的(de)(de)論文《PrefixRL:Optimization of Parallel Prefix Circuits using Deep Reinforcement Learning》中提出了(le)PrefixRL,該(gai)方法不僅證明AI可以從頭開(kai)始(shi)設(she)計(ji)電路,而且比EDA工(gong)具(ju)設(she)計(ji)的(de)(de)更小(xiao)、更快。
在英偉達最新的Hopper架(jia)構中,就擁有13000個AI設計的電路的實例。
值得補充的是(shi),人工智能三巨頭(tou)之一的LeCun最近(jin)在連線(xian)智源大(da)會(hui)演講(jiang)中,重申(shen)了自己一如既往的觀點(dian):“基于自監督(du)的語言(yan)模型無(wu)法獲得關(guan)于真實世界的知(zhi)(zhi)識”。他繼續補充道:“人類有許多(duo)知(zhi)(zhi)識是(shi)目前無(wu)法被語言(yan)系統所觸達的”。由此可見,對話AI到底能不能參(can)與芯(xin)片及硬件設(she)計,目前還未達成共識。
參考資(zi)料:
1.《Chip-Chat: Challenges and Opportunities in Conversational Hardware Design》,Jason Blocklove, Siddharth Garg, Ramesh Karri, Hammond Pearce
2.《Chip Chat: Conversations with AI models can help create microprocessing chips, NYU Tandon researchers discover》,NYU TANDON
3.《Exclusive Interview: NYU Team Taps ChatGPT to Design Processor From Scratch》,Jake Hertz