国产人妻精品区一区二区,国产农村妇女毛片精品久久,JAPANESE日本丰满少妇,日本公妇理伦a片,射精专区一区二区朝鲜

“具身智能十五大重點方向”明確產業發展熱點,上下游合力推動具身時代到來
作者 | 物聯(lian)網智(zhi)庫2025-04-03

從去年下半年到現在,具身智能的熱度一直不減。眾多企業紛紛入局具身智能賽道,同時,今年具身智能概念也首次被寫入政府工作報告,這標志著這一技術已成為科技競爭的“關鍵領域”,也是未來大國之間人工智能博(bo)弈的(de)焦點。在頂(ding)層(ceng)政策的(de)助推和企(qi)業們的(de)積極布局下,中(zhong)國(guo)具身智能(neng)產業正在呈現蓬勃發(fa)展之勢。

根(gen)據頭豹研究院的(de)數據,2023 年,中國具身智(zhi)能(neng)市(shi)場規(gui)模達 1572.7 億元。隨(sui)著大模型端的(de)技術(shu)突破,具身智(zhi)能(neng)市(shi)場規(gui)模預計將(jiang)以 16.5% 的(de)復(fu)合年增長率(lv)增長至 2027 年的(de) 2259 億元。

長期以來,應用落地的痛點一直困擾著機器人產業鏈,而現在,在終端側AI技術與硬件加速融合發展的驅動下,具身智能概念讓整個產業正在超出預期地快速發展。智能機器人作為最通用的具身智能終端形態,在模型技術、多模態交互感知技術等一系列前沿科技的加持下,正在推動AI向能夠理解、推理并與物理世界互動的智能發展。英偉達黃仁勛曾多次表示,AI技術終局在物理AI,AI時代下一個浪潮是“具身智能”時代。

在這(zhe)樣(yang)的大(da)背景下,不久前由中國(guo)人工智(zhi)(zhi)(zhi)能(neng)(neng)學會(CAAI)主辦第(di)二屆(jie)中國(guo)具身(shen)智(zhi)(zhi)(zhi)能(neng)(neng)大(da)會(CEAI 2025)在北京舉辦。本屆(jie)大(da)會發布了(le)“具身(shen)智(zhi)(zhi)(zhi)能(neng)(neng)十五(wu)大(da)重(zhong)點方(fang)向”,為國(guo)內蓬勃(bo)發展(zhan)中的具身(shen)智(zhi)(zhi)(zhi)能(neng)(neng)賽道指明(ming)了(le)后(hou)續(xu)發展(zhan)的重(zhong)要細分方(fang)向。

“具身智能十五大重點方向”是國內首次系統性地梳理具身智能技術的發展路線圖,這十五個重點方向分別為:多模態具身感知、具身自主學習、具身大模型、具身世界模型構建、具身操作、具身導航與路徑規劃、具身人機協同、群體具身智能、具身知識推理、具身智能仿真平臺、具身智能仿真到真實環境的遷移與泛化、具身智能安全、具身對話與交互、具身強化學習與自適應控制以及具身意識與情感。

這里將其分為五大類,其中,感知與交互是智能化基礎,決策與控制是行動的核心,協作與系統推動規模化應用,基礎技術支撐加速研發進程,安全與倫理保障可持續性。需要說(shuo)明的(de)(de)是具身機器人是多學科多技術(shu)(shu)交叉(cha)的(de)(de)領域,很多技術(shu)(shu)方(fang)向存在重疊(die),這里的(de)(de)分類只按照(zhao)技術(shu)(shu)側重稍做區(qu)分。

在今天(tian)這篇文(wen)章中,我們(men)一起按上述分類梳(shu)理這十五(wu)大(da)重點方向,看看如(ru)何在具身(shen)智能(neng)時代(dai)抓住這些前沿底層(ceng)技術發(fa)展脈絡。

具身智能交互,感知仍舊先行

感知與交互是智能化基礎,這一方向包括:多模態具身感知、具身對話與交互和具身知識推理。

作為集前沿科學技術于一身的產品,具身機器人的感知層、決策層、執行層等等每一類技術框架里都有著大量可智能化的空間。多模態具身感知是傳統機器人向具身機器人升級的重要一環,是具身智能機器人的基礎能力。具身智能機器(qi)人需(xu)要一(yi)整套完整的多(duo)(duo)模態具身感(gan)知系統,通過多(duo)(duo)維度的感(gan)知數(shu)據收集,帶動(dong)運動(dong)控(kong)制的范式變化。

除了(le)IMU、編碼(ma)器等內部本體(ti)感(gan)(gan)(gan)知,多模態感(gan)(gan)(gan)知強(qiang)調(diao)機(ji)器人能盡可能實(shi)(shi)現擬人的(de)五感(gan)(gan)(gan)。目前(qian)除了(le)嗅(xiu)覺(jue)感(gan)(gan)(gan)知方向進(jin)展(zhan)(zhan)稍慢,視(shi)、觸(chu)、聽、語言(yan)感(gan)(gan)(gan)知等方向均有了(le)明顯的(de)智能化(hua)(hua)提升。AI+3D視(shi)覺(jue)已經發(fa)展(zhan)(zhan)了(le)很多年,是將(jiang)AI與(yu)傳感(gan)(gan)(gan)結合得較為成(cheng)熟的(de)賽道(dao)。以往更多的(de)是在實(shi)(shi)時收集真(zhen)實(shi)(shi)數(shu)據(ju)后不斷在云端(duan)優化(hua)(hua)視(shi)覺(jue)算法(fa)。端(duan)側AI的(de)興(xing)起,開(kai)始直(zhi)接在端(duan)側進(jin)行數(shu)據(ju)處理(li),降低了(le)可能因傳輸數(shu)據(ju)造成(cheng)的(de)延遲與(yu)可靠性問題。

觸(chu)覺(jue)方向(xiang)上,國內(nei)有帕西尼感(gan)知(zhi)、他山(shan)科技、漢威科技等廠(chang)商在向(xiang)多(duo)(duo)模(mo)態(tai)觸(chu)覺(jue)感(gan)知(zhi)發力(li)。如帕西尼主研(yan)發的ITPU多(duo)(duo)維觸(chu)覺(jue)傳感(gan)技術,不局限(xian)于傳統觸(chu)覺(jue)傳感(gan)器(qi)的單(dan)一感(gan)知(zhi),實(shi)現了多(duo)(duo)維陣列力(li)感(gan)知(zhi)及材質、溫度、紋理等多(duo)(duo)模(mo)態(tai)物理屬性感(gan)知(zhi)。

模(mo)(mo)型技術的(de)提(ti)升在自然語(yu)言(yan)處理(li)NLP領(ling)域(yu)上的(de)優(you)勢也被機器(qi)人(ren)充分應(ying)用起(qi)來(lai)。借助端側(ce)或(huo)云端的(de)模(mo)(mo)型進(jin)行自然語(yu)言(yan)識別來(lai)做語(yu)音(yin)(yin)交互、語(yu)音(yin)(yin)喚(huan)醒(xing)、聊天(tian)問答等功能已(yi)經開始向機器(qi)人(ren)應(ying)用滲透(tou)。移遠的(de)機器(qi)人(ren)端側(ce)大模(mo)(mo)型解決方案就是很好的(de)例子,服(fu)務機器(qi)人(ren)可實現1s以(yi)內的(de)語(yu)義(yi)識別,解碼速率(lv)超過15 tokens/s。從(cong)KWS語(yu)音(yin)(yin)喚(huan)醒(xing)到VAD人(ren)聲檢測(ce),再到ASR語(yu)音(yin)(yin)識別,最后(hou)通過TTS語(yu)音(yin)(yin)播報,移遠大模(mo)(mo)型解決方案在全(quan)語(yu)音(yin)(yin)鏈路上實現了無縫銜接與(yu)高效運(yun)行。

在(zai)(zai)多(duo)模態感(gan)(gan)(gan)知與交互功能的(de)支持下服務機(ji)器人(ren)得以準確理解用戶(hu)意圖,并以清晰(xi)自(zi)然的(de)語音(yin)進(jin)行(xing)反饋,在(zai)(zai)交互體驗(yan)和(he)智能服務上遠勝于(yu)傳統(tong)的(de)服務機(ji)器人(ren)。移遠通信在(zai)(zai)近期(qi)受訪時也表(biao)示后續會基于(yu)控制器,為機(ji)器人(ren)集成更(geng)多(duo)外圍感(gan)(gan)(gan)知器件,用多(duo)維的(de)感(gan)(gan)(gan)知來不斷(duan)賦予(yu)機(ji)器人(ren)更(geng)類人(ren)的(de)感(gan)(gan)(gan)知與交互能力。

交互(hu)的前提是(shi)充(chong)分的感知(zhi),借助實時、精準、多(duo)模態的感知(zhi)技術,機(ji)器人才能拓展更多(duo)自如(ru)的AI交互(hu)功能。

具身對話與交互與(yu)自然(ran)語(yu)言(yan)處理(li)(li)NLP密切(qie)相關(guan),結(jie)合(he)語(yu)義(yi)理(li)(li)解(jie)與(yu)物理(li)(li)反饋(kui),在大模型的(de)(de)(de)(de)支持下進行沉浸式(shi)交(jiao)互。隨著該方向(xiang)的(de)(de)(de)(de)持續推動,具(ju)身對話與(yu)交(jiao)互應該更鼓勵通過持續的(de)(de)(de)(de)交(jiao)互,自然(ran)形成雙向(xiang)、多模態(tai)的(de)(de)(de)(de)交(jiao)流(liu)方式(shi),即(ji)人(ren)類和機器人(ren)可(ke)以(yi)共(gong)同塑造交(jiao)流(liu)氛圍,并不(bu)斷改進具(ju)身機器人(ren)非結(jie)構化(hua)的(de)(de)(de)(de)交(jiao)流(liu)能力。

非結構化(hua)交流(liu)能(neng)力是具(ju)身對(dui)話(hua)交互(hu)的愿景(jing),現階段(duan)完成更(geng)自然更(geng)擬人(ren)的交互(hu)是亟需(xu)的。目前不少(shao)廠商針對(dui)智能(neng)陪伴(ban)機器人(ren)的核心需(xu)求在這方(fang)面的能(neng)力升級,如廣(guang)和通(tong)(tong)(tong)最近發(fa)布的星云系列,就通(tong)(tong)(tong)過(guo)外接攝像(xiang)頭、麥克(ke)風(feng)等傳感器,星云解決方(fang)案通(tong)(tong)(tong)過(guo)多模態感知可實(shi)(shi)時解析(xi)用(yong)戶(hu)動作(zuo)、表情與(yu)語(yu)音(yin)意(yi)圖,并通(tong)(tong)(tong)過(guo)端側7B模型支持個性化(hua)對(dui)話(hua)生成與(yu)情感識別(bie),實(shi)(shi)現更(geng)自然的“擬人(ren)化(hua)”情感交互(hu)。

在多模態感知到多模態交互的過程中,涉及到具身知識推理,即讓機器人能(neng)夠(gou)結合先驗(yan)知(zhi)識與(yu)實(shi)時感知(zhi)數據,利用知(zhi)識庫中的(de)結構化知(zhi)識(如物(wu)理規律、操作流程、語義關系等),提升對復雜任(ren)(ren)務的(de)邏輯推理能(neng)力。其核心(xin)在于(yu)將抽象(xiang)知(zhi)識(如常識、領域規則)與(yu)具身多模(mo)態感知(zhi)(如視覺、觸(chu)覺)深(shen)度(du)融(rong)合,以支持動態環境下的(de)任(ren)(ren)務規劃與(yu)交(jiao)互(hu)執行。

決策與控制塑造行動核心,協作與系統推動具身規模化應用

決策與控制方向上包括:具身自主學習、具身強化學習與自適應控制、具身導航與路徑規劃、具身操作;協作與系統方向上包括:具身人機協同、群體具身智能。

具身導航路徑規劃以及具身操作是機(ji)器人(ren)執行側的(de)下(xia)一個發(fa)展(zhan)階(jie)段。自主導航(hang)(hang)與(yu)路徑規劃經過這些年的(de)發(fa)展(zhan)已經成(cheng)熟了很(hen)多(duo)。特(te)別是SLAM技(ji)術的(de)成(cheng)熟完(wan)善(shan)讓機(ji)器人(ren)在沒有(you)環(huan)境先驗信息(xi)的(de)情(qing)況下(xia)實現(xian)了未(wei)知地(di)圖內的(de)自主導航(hang)(hang)與(yu)規劃,讓很(hen)多(duo)商用機(ji)器人(ren)得以落地(di)應用,如巡檢(jian)機(ji)器人(ren)、送(song)餐機(ji)器人(ren)。值得注意的(de)是,具身導航(hang)(hang)時代,3D SLAM也(ye)在快速崛起。

具身智能設備的迅速普及將快速推動以SLAM為代表的各類導航傳感器的融合,在多傳感器信息融合的基礎上,通過智能模型優化路徑規劃,讓機器人導航向更自主更靈活的具身導航方向發展。為了實現性能更好的導航效果,我們也看到上游的芯片廠商(shang)會(hui)自(zi)研導航(hang)規劃(hua)算(suan)法(fa)(fa)將(jiang)算(suan)法(fa)(fa)在芯片層面硬件(jian)化,如一微半導體、芯明智能;傳(chuan)(chuan)感(gan)器(qi)廠商(shang)也有(you)不少將(jiang)導航(hang)算(suan)法(fa)(fa)與傳(chuan)(chuan)感(gan)器(qi)件(jian)打(da)包(bao)成模塊提供給下(xia)游(you)本體廠商(shang),如鐳(lei)神(shen)智能、AMS OSRAM、速騰聚創(chuang)。

機(ji)器(qi)人(ren)末(mo)端執行(xing)器(qi)的(de)具(ju)身操作其實(shi)(shi)無需贅述,重點在于(yu)具(ju)身智(zhi)能體如何基于(yu)多(duo)維度多(duo)模態(tai)感知信息生成(cheng)行(xing)動策略并(bing)實(shi)(shi)現(xian)精準執行(xing)。各類精密的(de)末(mo)端操作在今(jin)年亮相的(de)機(ji)器(qi)人(ren)中(zhong)已經(jing)有了(le)很多(duo)展(zhan)示,后(hou)續如何拓展(zhan)具(ju)身機(ji)器(qi)人(ren)多(duo)樣化工作能力(li),持續增強基礎動作模型能力(li),從而實(shi)(shi)現(xian)更廣泛的(de)場景應用(yong)是落地關(guan)鍵點。

機器人具身自主學習、具身強化學習與自適應控制是底層技術的(de)(de)長(chang)期積累,具(ju)(ju)身自主學(xue)(xue)習通(tong)過(guo)試錯與(yu)環(huan)(huan)境(jing)反(fan)饋優化(hua)策略,根據反(fan)饋信息來調整(zheng)自己的(de)(de)行為。具(ju)(ju)身自主學(xue)(xue)習方法在(zai)(zai)(zai)(zai)機(ji)(ji)(ji)器(qi)人(ren)多個模塊都(dou)有(you)廣泛的(de)(de)應(ying)(ying)(ying)用,例如在(zai)(zai)(zai)(zai)機(ji)(ji)(ji)器(qi)人(ren)導航中(zhong),機(ji)(ji)(ji)器(qi)人(ren)可(ke)以通(tong)過(guo)感知周(zhou)圍的(de)(de)環(huan)(huan)境(jing)和(he)障(zhang)礙(ai)物(wu)(wu),學(xue)(xue)習到(dao)(dao)如何(he)避開障(zhang)礙(ai)物(wu)(wu)并找到(dao)(dao)最佳路(lu)徑;在(zai)(zai)(zai)(zai)物(wu)(wu)體識(shi)別(bie)和(he)抓取(qu)任(ren)(ren)務(wu)(wu)中(zhong),機(ji)(ji)(ji)器(qi)人(ren)可(ke)以通(tong)過(guo)多模態(tai)模型感知物(wu)(wu)體的(de)(de)形狀、質地(di)(di)等(deng)特征(zheng),并不斷(duan)學(xue)(xue)習到(dao)(dao)如何(he)正確地(di)(di)抓取(qu)物(wu)(wu)體。在(zai)(zai)(zai)(zai)不斷(duan)的(de)(de)嘗試和(he)錯誤中(zhong),機(ji)(ji)(ji)器(qi)人(ren)自主學(xue)(xue)習到(dao)(dao)如何(he)有(you)效地(di)(di)與(yu)環(huan)(huan)境(jing)進(jin)行交(jiao)互(hu),并實現特定的(de)(de)任(ren)(ren)務(wu)(wu)。強化(hua)學(xue)(xue)習與(yu)自適(shi)(shi)應(ying)(ying)(ying)控制(zhi)更強調突破傳(chuan)統程(cheng)序化(hua)指(zhi)令限制(zhi),適(shi)(shi)應(ying)(ying)(ying)動態(tai)環(huan)(huan)境(jing)變化(hua),如柔性機(ji)(ji)(ji)器(qi)末端的(de)(de)實時調整(zheng)。在(zai)(zai)(zai)(zai)具(ju)(ju)身設(she)備落地(di)(di)階段(duan),適(shi)(shi)應(ying)(ying)(ying)動態(tai)環(huan)(huan)境(jing)變化(hua)的(de)(de)自適(shi)(shi)應(ying)(ying)(ying)控制(zhi)將發揮(hui)關鍵(jian)作用,確保機(ji)(ji)(ji)器(qi)人(ren)在(zai)(zai)(zai)(zai)復雜場(chang)景中(zhong)靈活應(ying)(ying)(ying)對各種(zhong)變化(hua)。

具(ju)身(shen)(shen)人機(ji)協同(tong)(tong)、群(qun)體(ti)(ti)具(ju)身(shen)(shen)智能將單(dan)個具(ju)身(shen)(shen)智能體(ti)(ti)擴展到多(duo)智能體(ti)(ti)協同(tong)(tong)以(yi)及(ji)人機(ji)協同(tong)(tong)作(zuo)業,通過群(qun)體(ti)(ti)智能算法實現(xian)高(gao)效協作(zuo),聚焦多(duo)機(ji)協同(tong)(tong)的復雜系統(tong)設(she)計,強(qiang)調交互(hu)性與(yu)規模化(hua)應用。智源研究院在大會上發布首個跨(kua)本體(ti)(ti)具(ju)身(shen)(shen)大小腦協作(zuo)框架RoboOS與(yu)開源具(ju)身(shen)(shen)大腦RoboBrain就(jiu)強(qiang)調可(ke)實現(xian)跨(kua)場景(jing)多(duo)任務輕量化(hua)快速部署與(yu)跨(kua)本體(ti)(ti)協作(zuo),推動單(dan)機(ji)智能邁向群(qun)體(ti)(ti)智能。

具(ju)(ju)身智能技術的(de)(de)持續演(yan)進,不僅(jin)提升了機(ji)器人的(de)(de)個體(ti)能力(li),更在多智能體(ti)協同中展現出強大潛力(li)。隨著算法優化與硬件升級,群體(ti)具(ju)(ju)身智能的(de)(de)完善將推動智能制造與人機(ji)協作邁向新高度。

基礎模型技術與底層框架平臺推動具身技術邁入物理AI終局

基礎技術的快速迭代加速著具身技術的應用,在十五個方向中包括了:具身大模型、具身世界模型構建、具身智能仿真平臺、仿真到真實環境的遷移與泛化。

模(mo)型(xing)(xing)技術自然是具(ju)身(shen)(shen)智能實現的(de)(de)基石,在其他技術方(fang)向(xiang)上,也或多或少(shao)能看見模(mo)型(xing)(xing)技術的(de)(de)影子(zi)。面向(xiang)具(ju)身(shen)(shen)智能應用領(ling)域的(de)(de)多模(mo)態具(ju)身(shen)(shen)大(da)模(mo)型(xing)(xing),能夠幫助機(ji)(ji)(ji)器人(ren)真正(zheng)理解這個世界,對人(ren)類發出的(de)(de)指令進行拆解、邏輯(ji)推(tui)理和規劃決策(ce),再(zai)分配給(gei)不同(tong)的(de)(de)小腦(nao)模(mo)型(xing)(xing)來執(zhi)行。具(ju)身(shen)(shen)大(da)模(mo)型(xing)(xing)是全球諸(zhu)多機(ji)(ji)(ji)器人(ren)公司和研究機(ji)(ji)(ji)構追(zhui)捧(peng)的(de)(de)前沿課題。

此前(qian)Figure發布的Helix,內置擁有70億參(can)數的開源端側(ce)互聯(lian)網(wang)預訓練視覺語言模(mo)(mo)型(xing)用(yong)(yong)(yong)(yong)于(yu)處理語音和視覺信息(xi),和8000萬(wan)參(can)數的AI模(mo)(mo)型(xing)用(yong)(yong)(yong)(yong)于(yu)將指令轉化(hua)(hua)為精確的機器(qi)人(ren)動作;智元機器(qi)人(ren)發布的通(tong)用(yong)(yong)(yong)(yong)具身(shen)(shen)基座大(da)(da)模(mo)(mo)型(xing)智元啟元大(da)(da)模(mo)(mo)型(xing)則(ze)憑借強大(da)(da)的泛化(hua)(hua)能力(li),能夠在極(ji)少的數據甚至(zhi)零樣本下泛化(hua)(hua)到新(xin)場景、新(xin)任務,降低具身(shen)(shen)大(da)(da)模(mo)(mo)型(xing)的使用(yong)(yong)(yong)(yong)門檻;不久前(qian)優艾智合(he)聯(lian)合(he)西(xi)安交(jiao)大(da)(da)具身(shen)(shen)智能機器(qi)人(ren)研究院團(tuan)隊構建的“一腦(nao)多態”的具身(shen)(shen)智能大(da)(da)模(mo)(mo)型(xing),同樣采用(yong)(yong)(yong)(yong)多模(mo)(mo)態通(tong)用(yong)(yong)(yong)(yong)基座大(da)(da)模(mo)(mo)型(xing),還加上了(le)“一腦(nao)多態”端側(ce)具身(shen)(shen)模(mo)(mo)型(xing)的混(hun)合(he)架(jia)構;魔法原子近期(qi)也公開了(le)首個具身(shen)(shen)智能大(da)(da)模(mo)(mo)型(xing)“原子萬(wan)象(xiang)”。

對于帶有執行功能的具身機器人終端側設備來說,構建多模態具身大模型是通往高階智能的必經之路。與此同時,多模態具身大模型和硬件算力的適配,則是能否真正應用起具身大模型能力的重點,也是推進具身設備落地的關鍵。

數據融合后高復雜性需要恰當的計算資源讓整個具身大模型系統運轉起來。多模態具身模型與硬件算力的結合正在積極涌現,眾多具身端側大模型紛紛與英偉達、紫光展銳、高通、瑞芯微、英特爾等算力硬件廠商展開深度合作,釋放具身大模型潛力。具身模型與硬件算力結合落地,讓具身智能設備進入商用的步伐加速。

在物聯網智庫近期的采訪中,也了解到不少算力模組廠商如移遠通信、廣和通、比鄰智聯等,正在積極布局機器人模型“大小腦”,通過算力、模型、連接多方面的工程化能力加速下游機器人本體廠商應用起AI能力。

具身世界模型根據英偉達官網的(de)(de)定義,即理(li)(li)解現(xian)實(shi)世(shi)界(jie)(jie)動態的(de)(de)生(sheng)成(cheng)式AI模(mo)(mo)型,能夠(gou)理(li)(li)解現(xian)實(shi)世(shi)界(jie)(jie)環境的(de)(de)物(wu)理(li)(li)特性,從而(er)對運(yun)動、應力以及感官數據中的(de)(de)空間關系等動態進行表(biao)示和預測(ce)。在終局的(de)(de)物(wu)理(li)(li)AI世(shi)界(jie)(jie),具身世(shi)界(jie)(jie)模(mo)(mo)型是連接(jie)虛擬與現(xian)實(shi)的(de)(de)橋梁,是能夠(gou)表(biao)征(zheng)世(shi)界(jie)(jie)運(yun)作邏(luo)輯的(de)(de)空間智能。

以(yi)NVIDIA面向物(wu)理AI發布的(de)(de)“世(shi)界(jie)基(ji)礎模型(xing)(xing)”Cosmos為例,它(ta)能(neng)通過生成合(he)成數據(ju)(ju),使用(yong)包括文本、圖像、視頻和運動在(zai)內(nei)的(de)(de)輸入數據(ju)(ju)來生成和仿(fang)真虛擬(ni)世(shi)界(jie),以(yi)準確模擬(ni)場景中物(wu)體的(de)(de)空間關(guan)系及其(qi)物(wu)理交互。目前具(ju)(ju)身世(shi)界(jie)模型(xing)(xing)正處于初(chu)步(bu)發展(zhan)階段,但不可否(fou)認的(de)(de)是構建具(ju)(ju)身世(shi)界(jie)模型(xing)(xing)在(zai)具(ju)(ju)身環境的(de)(de)訓練決策中起著至關(guan)重要的(de)(de)作用(yong),它(ta)讓現(xian)實(shi)(shi)世(shi)界(jie)中原(yuan)本成本高昂依賴真實(shi)(shi)數據(ju)(ju)的(de)(de)模擬(ni)在(zai)虛擬(ni)環境和數據(ju)(ju)下成為可能(neng)。

涉及到大量虛擬數據構建與仿真,具身智能仿真平臺、仿真到真實環境的遷移與泛化自然是具身智(zhi)能重要(yao)的(de)(de)(de)(de)研究方向。筆(bi)者在此前(qian)的(de)(de)(de)(de)文章《機(ji)(ji)器人(ren)(ren)與模型(xing)深度融合開(kai)啟智(zhi)能升(sheng)級下半場,智(zhi)能終(zhong)端(duan)的(de)(de)(de)(de)未來終(zhong)局是物理AI》中也提到過,“和傳(chuan)統(tong)模型(xing)不(bu)一(yi)樣,機(ji)(ji)器人(ren)(ren)世(shi)界模型(xing)所(suo)需的(de)(de)(de)(de)訓練數(shu)據(ju)需要(yao)精確標定來進行學習和泛化,而且很難(nan)(nan)從現實世(shi)界完成(cheng)龐大的(de)(de)(de)(de)采集量(liang)且采集后多模態數(shu)據(ju)很難(nan)(nan)標定,度量(liang)不(bu)一(yi)這些數(shu)據(ju)就(jiu)(jiu)無法被模型(xing)利用。從Sim到Real也就(jiu)(jiu)成(cheng)了更有效率的(de)(de)(de)(de)一(yi)條路(lu)”。

在這些重點技術(shu)方(fang)向(xiang)上,世界(jie)基(ji)(ji)礎(chu)模(mo)型(xing)提供物理世界(jie)知識和高(gao)仿真數(shu)據(ju),奠定泛(fan)化(hua)基(ji)(ji)礎(chu),端側的具(ju)身大模(mo)型(xing)經細化(hua)、壓縮及(ji)多模(mo)態(tai)融合優化(hua),適配具(ju)身設備算(suan)力需求充分釋放應用潛(qian)力,共同推動著(zhu)具(ju)身智能邁入物理AI終局。

寫在最后

在最后一個分類中,是和安全與倫理相關的具身智能安全、具身意識與情感。目前這一塊的(de)建設還比較稀缺,且(qie)具身(shen)機器人還沒有進化到具備(bei)意識與情感的(de)階段,但(dan)未(wei)雨綢繆提前布局總是好的(de),確保具身(shen)技術應(ying)用符合倫理規范并規避潛在風險,是未(wei)來具身(shen)智(zhi)能設備(bei)可持續(xu)發展的(de)必要(yao)條件。

具身(shen)智(zhi)能十五大重點方(fang)向,囊括從底(di)層感知到(dao)高(gao)層決(jue)策、從單機(ji)到(dao)系統、從技術突破(po)到(dao)社(she)會(hui)落地的(de)(de)完整(zheng)鏈條。這些方(fang)向的(de)(de)明確為后續(xu)具身(shen)智(zhi)能產(chan)業鏈布(bu)局(ju)提供(gong)了參考,在模型技術、算力硬件、運(yun)控技術、感知技術等(deng)基礎(chu)軟(ruan)硬件協同(tong)發展的(de)(de)推(tui)動(dong)下,國(guo)內具身(shen)智(zhi)能將逐步(bu)實現(xian)從概念到(dao)實際落地應(ying)用的(de)(de)跨越。


沒有關鍵詞
熱門文章
小慕有話說在全球宏觀經濟面臨下行壓力、國際貿易摩擦持續升級、產業鏈區域流動等背景下,2024年全球電子半導體產業呈現出需求結構性復蘇與供應鏈深度調整的雙重特征。在人工智能、消費電子與電動汽車和新能源等
2025-04-03
X