2021年(nian)10月25日(ri),特斯拉(la)市(shi)(shi)值站(zhan)上(shang)萬(wan)億美(mei)金,成為美(mei)股第五家市(shi)(shi)值破萬(wan)億的企(qi)業(ye),幾乎超(chao)過美(mei)股全部主要車企(qi)市(shi)(shi)值的總(zong)和。特斯拉(la)在資本市(shi)(shi)場(chang)的成功,刺激著(zhu)投資者的神經(jing),也促使市(shi)(shi)場(chang)再一次將視野聚焦在自動駕(jia)駛(shi)領域,進(jin)一步思(si)考自動駕(jia)駛(shi)技術路線的發(fa)展(zhan)方(fang)向(xiang)。
本文希望從技術角度客觀分析和回答以下問題:自動駕駛等級提升需要解決什么關鍵問題?怎樣的自動駕駛方案更加具有實現大規模無人駕駛的可能性?自動駕駛作為現實世界的AI問題,難點在哪里?以上問題促使我們理性客觀地思考該如何去實現自動駕駛——這一承載了太多期望、不斷挑撥大眾神經的技術生產力變革,從而推動行業冷靜且務實地向前發展。
隨著自(zi)動駕(jia)駛等級的(de)(de)不斷提(ti)高,控制權(quan)和(he)責(ze)任主(zhu)體逐(zhu)漸(jian)從駕(jia)駛員轉換為(wei)車(che)輛(liang),智(zhi)(zhi)駕(jia)系(xi)(xi)統(tong)的(de)(de)定位也將由(you)擴增人的(de)(de)感(gan)知能力到接管(guan)車(che)輛(liang)自(zi)主(zhu)駕(jia)駛。由(you)此對(dui)(dui)智(zhi)(zhi)駕(jia)系(xi)(xi)統(tong)之(zhi)于物理世(shi)(shi)界環(huan)境理解的(de)(de)要求完全不同(tong),將由(you)對(dui)(dui)物理世(shi)(shi)界部分(fen)信息的(de)(de)提(ti)取(qu)提(ti)升到事無巨細的(de)(de)全面感(gan)知與理解。而這種變(bian)化,首要就是對(dui)(dui)2D圖像(xiang)成(cheng)像(xiang)與3D建模(mo)的(de)(de)越(yue)來越(yue)高的(de)(de)要求:1)更(geng)高分(fen)辨率和(he)環(huan)境適應度(du)的(de)(de)2D圖像(xiang)成(cheng)像(xiang);2)對(dui)(dui)物理世(shi)(shi)界準確且稠密的(de)(de)實時(shi)3D建模(mo)。
Camera是(shi)自(zi)(zi)動(dong)駕(jia)駛感知物理世界最重(zhong)要的(de)(de)傳(chuan)感器,其分(fen)(fen)(fen)辨(bian)率(lv)的(de)(de)提(ti)(ti)升將極(ji)大(da)(da)的(de)(de)提(ti)(ti)升圖像(xiang)的(de)(de)信息承載(zai)(zai)量(liang),使(shi)得(de)自(zi)(zi)動(dong)駕(jia)駛系統(tong)能夠感知更(geng)(geng)加細節和(he)更(geng)(geng)遠距離的(de)(de)行車(che)環境。當前主流自(zi)(zi)動(dong)駕(jia)駛前視攝像(xiang)頭的(de)(de)分(fen)(fen)(fen)辨(bian)率(lv)已經到800萬(wan)像(xiang)素以上,而更(geng)(geng)高的(de)(de)分(fen)(fen)(fen)辨(bian)率(lv)也(ye)是(shi)未來必然發生(sheng)的(de)(de)事情。自(zi)(zi)動(dong)駕(jia)駛汽車(che)面臨的(de)(de)是(shi)一個開放性的(de)(de)外部環境,除(chu)了分(fen)(fen)(fen)辨(bian)率(lv)的(de)(de)提(ti)(ti)升,還需要提(ti)(ti)升自(zi)(zi)動(dong)駕(jia)駛在各種行車(che)路況下的(de)(de)圖像(xiang)成(cheng)(cheng)像(xiang)質(zhi)量(liang),比(bi)如不同(tong)的(de)(de)光線環境,傍晚、夜晚等(deng),不同(tong)的(de)(de)氣候環境,雨雪(xue)霧天等(deng)。相對(dui)于傳(chuan)統(tong)汽車(che)應用(yong)的(de)(de)車(che)載(zai)(zai)成(cheng)(cheng)像(xiang),自(zi)(zi)動(dong)駕(jia)駛對(dui)于車(che)載(zai)(zai)成(cheng)(cheng)像(xiang)質(zhi)量(liang)的(de)(de)要求將極(ji)大(da)(da)提(ti)(ti)升,如何(he)通過成(cheng)(cheng)像(xiang)計算獲取(qu)更(geng)(geng)高質(zhi)量(liang)的(de)(de)圖像(xiang)就成(cheng)(cheng)為一個要解決的(de)(de)關鍵性問題。
自動駕(jia)駛汽車在三維物理(li)世界中(zhong)運行,必(bi)然要(yao)(yao)求對物理(li)世界進行更(geng)加深(shen)刻的(de)(de)(de)(de)(de)三維理(li)解。當(dang)前的(de)(de)(de)(de)(de)高級別輔助駕(jia)駛在道(dao)路上不斷(duan)出現各種各樣(yang)的(de)(de)(de)(de)(de)事(shi)故,這(zhe)些事(shi)故的(de)(de)(de)(de)(de)發(fa)生很(hen)大程度上是由于(yu)沒有識別到未被(bei)樣(yang)本庫所覆蓋(gai)的(de)(de)(de)(de)(de)異(yi)形(xing)(xing)、非(fei)標等(deng)(deng)(deng)物體,比如(ru)一輛拉著一棵樹的(de)(de)(de)(de)(de)貨(huo)車等(deng)(deng)(deng),而這(zhe)些corner case是無法(fa)被(bei)窮(qiong)盡(jin)的(de)(de)(de)(de)(de)。對于(yu)行車環境的(de)(de)(de)(de)(de)實時(shi)稠(chou)密3D建模不僅可以(yi)識別異(yi)形(xing)(xing)和(he)非(fei)標等(deng)(deng)(deng)物體,還能(neng)判斷(duan)路面坑(keng)洼與起伏,這(zhe)無疑(yi)將大大提升自動駕(jia)駛的(de)(de)(de)(de)(de)安(an)全級別。當(dang)前自動駕(jia)駛的(de)(de)(de)(de)(de)3D環境感知(zhi),主要(yao)(yao)依賴激光(guang)雷達(da)(da)等(deng)(deng)(deng)主動投射測量(liang)裝置,但其在分辨(bian)率上遠低于(yu)Camera,也(ye)不具備(bei)顏色信(xin)息。隨著深(shen)度學習的(de)(de)(de)(de)(de)發(fa)展,單目(mu)深(shen)度估計(ji)、雙目(mu)立體視(shi)覺、SFM、MVS等(deng)(deng)(deng)問(wen)題已(yi)經可以(yi)被(bei)深(shen)度神經網絡所建模,從而可以(yi)基(ji)于(yu)多(duo)(duo)目(mu)視(shi)覺通過AI的(de)(de)(de)(de)(de)方法(fa)實時(shi)生成3D點云,其視(shi)覺點云天然與圖(tu)(tu)像對齊,并(bing)且(qie)其分辨(bian)率也(ye)能(neng)達(da)(da)到圖(tu)(tu)像分辨(bian)率的(de)(de)(de)(de)(de)級別。因此(ci),如(ru)何通過多(duo)(duo)目(mu)視(shi)覺實現高分辨(bian)率的(de)(de)(de)(de)(de)實時(shi)稠(chou)密3D建模,即視(shi)覺雷達(da)(da),是另(ling)外一個要(yao)(yao)解決的(de)(de)(de)(de)(de)關鍵(jian)性問(wen)題。
視(shi)覺傳(chuan)(chuan)感器(qi)(qi)的(de)(de)(de)(de)信息承載量極(ji)高(gao),目前遠未被充分挖掘,但無(wu)論2D圖像(xiang)成(cheng)像(xiang)還(huan)是實時(shi)稠(chou)密(mi)3D建模都需要強(qiang)有力的(de)(de)(de)(de)算(suan)(suan)法(fa)和(he)算(suan)(suan)力進(jin)行(xing)支撐(cheng),這需要算(suan)(suan)法(fa)和(he)算(suan)(suan)力進(jin)行(xing)協同設計。視(shi)覺傳(chuan)(chuan)感器(qi)(qi)+算(suan)(suan)力+算(suan)(suan)法(fa)的(de)(de)(de)(de)傳(chuan)(chuan)感器(qi)(qi)計算(suan)(suan)模式,將更加本(ben)質的(de)(de)(de)(de)推動解決自動駕駛當前面(mian)(mian)臨的(de)(de)(de)(de)關(guan)鍵(jian)問題,即從(cong)2D和(he)3D層面(mian)(mian)對物理(li)(li)世界進(jin)行(xing)事無(wu)巨細的(de)(de)(de)(de)感知與理(li)(li)解。
鑒(jian)智機器人核心團隊(dui)擁有超過(guo)十年的圖(tu)像處(chu)理(li)、AI算法(fa)和算力設計的行業經(jing)驗,將以視覺傳感(gan)器為核心,通過(guo)解決(jue)車載(zai)ISP、視覺雷(lei)達等(deng)視覺傳感(gan)器2D、3D成像的核心問題,打(da)造更加強大的自(zi)動駕(jia)駛之眼,從而(er)推動自(zi)動駕(jia)駛安全等(deng)級(ji)的提(ti)升。
1.1 從手機ISP到車載ISP
ISP(Image Signal Processor)是(shi)指通過(guo)一系列(lie)數(shu)(shu)字圖像(xiang)處理(li)算法完成對數(shu)(shu)字圖像(xiang)的(de)成像(xiang)處理(li)。在攝像(xiang)機成像(xiang)的(de)整(zheng)個(ge)(ge)環節(jie)中,ISP負(fu)責接(jie)收感(gan)光元(yuan)件的(de)原始信號數(shu)(shu)據,可以理(li)解為整(zheng)個(ge)(ge)攝像(xiang)機圖像(xiang)輸出的(de)第一步處理(li)流程。ISP在提(ti)高圖像(xiang)質(zhi)量、增強數(shu)(shu)據的(de)一致性(xing)等(deng)方面有(you)著極其關(guan)鍵的(de)作用。
得益于智能手機的發展和手機攝像頭像素越來越高,手機ISP在過去幾年得到了快速的發展和進步,手機拍照和錄像的質量也越來越高,甚至到了驚艷的地步。比如在夜晚等場景,可以拍到比人眼看到的更清晰、光照更充足、色彩更豐富的照片;比如在進出隧道等光照變化劇烈的場景,也可以錄制出比人眼表現更穩定、更清晰的視頻。這些效果除了源于手機攝像頭硬件上的升級,專門的AI ISP處理算法和處理芯片也起到了至關重要的作用。
隨著自(zi)動(dong)駕駛(shi)對(dui)車載(zai)成像質量的階躍式提(ti)升需求,車載(zai)ISP,特別是(shi)針對(dui)駕駛(shi)場景優化的AI ISP處理(li)算法和(he)處理(li)芯片(pian),將(jiang)迎(ying)來爆發(fa)式的發(fa)展(zhan)。AI在(zai)車載(zai)ISP整個流程中將(jiang)變得越(yue)來越(yue)重要(yao),特別是(shi)在(zai)降噪、去(qu)模糊(hu)、HDR等問題上(shang),可以在(zai)夜晚、陽光(guang)直(zhi)射、進出(chu)隧道等暗光(guang)、強光(guang)、高動(dong)態場景得到遠超人(ren)眼(yan)的成像效果,同時最大程度上(shang)解決由Sensor引起的噪點(dian)、模糊(hu)等問題。將(jiang)AI計算前置(zhi)在(zai)ISP計算Pipeline中,通過流式計算,使得ISP的計算Pipeline不被(bei)打斷,也將(jiang)大大提(ti)升AI ISP的性能(neng)功耗(hao)比。
鑒(jian)智機器(qi)人擁有全鏈路的芯(xin)片級ISP IP的設(she)計(ji)能力,將解(jie)決(jue)ISP特別是AI ISP在車(che)載場景的核心問(wen)題,讓(rang)車(che)載攝像(xiang)(xiang)頭(tou)成(cheng)像(xiang)(xiang)更清(qing)晰(xi),從而進一步提高視覺雷達(da)點云生(sheng)成(cheng)和圖像(xiang)(xiang)語(yu)義感知等后續任務的準(zhun)確(que)性。
圖1:鑒智(zhi)機器人(ren)擁有全(quan)鏈路的ISP算法和算法硬核化設計能力
1.2 從2D感知到視覺雷達
面(mian)對大規模自動(dong)駕駛,對3D點云(yun)(yun)的(de)信息稠密程度、場(chang)景泛化性(xing)、性(xing)能可擴展性(xing)方面(mian)提出了更(geng)高的(de)要(yao)求。基于視覺(jue)雷(lei)達(da),通過雙目或者多目立(li)體視覺(jue)計算(suan),產(chan)生(sheng)實時(shi)稠密的(de)3D點云(yun)(yun)是更(geng)優(you)的(de)方式。
雙目立(li)體視(shi)覺是(shi)機(ji)(ji)器視(shi)覺的(de)(de)一(yi)種重(zhong)要(yao)形式(shi),與人眼類似,它是(shi)基于(yu)視(shi)差原(yuan)理(li),通過計算圖(tu)(tu)像對(dui)應(ying)點間(jian)的(de)(de)位置偏差,來獲取物體三維幾(ji)何(he)信息的(de)(de)方法,和基于(yu)TOF、結構光(guang)原(yuan)理(li)的(de)(de)深度相機(ji)(ji)不同(tong),它不對(dui)外主動投射光(guang)源,完(wan)全依靠拍攝的(de)(de)兩(liang)張圖(tu)(tu)片(彩色RGB或(huo)者(zhe)灰度圖(tu)(tu))來計算深度。
傳統(tong)的(de)(de)雙(shuang)目立體(ti)(ti)(ti)匹(pi)配算(suan)法(fa)針對弱紋理、反光等區域(yu)效果(guo)比(bi)較差,同時對于物體(ti)(ti)(ti)語(yu)義信息利用(yong)(yong)比(bi)較少(shao),算(suan)法(fa)適用(yong)(yong)范圍具有(you)局(ju)限性,點云效果(guo)上限比(bi)較明(ming)顯。隨著深度學習技術的(de)(de)發(fa)展,基(ji)于CNN、Cost Volume、Transformer的(de)(de)立體(ti)(ti)(ti)匹(pi)配算(suan)法(fa)展現出來了(le)(le)極強的(de)(de)算(suan)法(fa)效果(guo)和潛力(li)。目前知名(ming)自動駕駛數據集KITTI上的(de)(de)立體(ti)(ti)(ti)匹(pi)配任務(wu)排名(ming)靠前的(de)(de)基(ji)本都是基(ji)于深度學習的(de)(de)算(suan)法(fa)。基(ji)于深度學習的(de)(de)雙(shuang)目立體(ti)(ti)(ti)匹(pi)配算(suan)法(fa)對于計算(suan)芯片的(de)(de)AI算(suan)力(li)提出了(le)(le)比(bi)較高的(de)(de)要求,對于研(yan)發(fa)模(mo)式也提出了(le)(le)新(xin)的(de)(de)要求,需(xu)要從(cong)傳統(tong)的(de)(de)雙(shuang)目相機研(yan)發(fa)模(mo)式變成以(yi)AI為(wei)核心(xin)、軟硬結合、數據驅動的(de)(de)研(yan)發(fa)模(mo)式。
從雙目立體視覺(jue)更進(jin)一(yi)步,充分利用相(xiang)(xiang)機的(de)運動信(xin)息和多(duo)個相(xiang)(xiang)機間的(de)幾何約束,通過相(xiang)(xiang)機姿(zi)態估計(ji)(ji)、深度(du)(du)估計(ji)(ji)、光流估計(ji)(ji)、MVS等(deng)(deng)算(suan)法(fa)(fa),以及任務(wu)之間互相(xiang)(xiang)監督的(de)一(yi)系列自監督算(suan)法(fa)(fa),可(ke)以得(de)到360度(du)(du)的(de)點云數據,也(ye)就是視覺(jue)雷達,從而形成(cheng)與圖(tu)像分辨率相(xiang)(xiang)匹配的(de)稠密點云。同時,以攝像頭+算(suan)力+算(suan)法(fa)(fa)為核心(xin)的(de)視覺(jue)雷達,還具有產(chan)業鏈成(cheng)熟可(ke)控(kong)、成(cheng)本(ben)可(ke)控(kong)、器(qi)件(jian)穩(wen)定性(xing)有保證、滿(man)足車規(gui)(gui)等(deng)(deng)優(you)勢,更容(rong)易(yi)實現大規(gui)(gui)模(mo)前裝(zhuang)量(liang)產(chan)上(shang)車使用。
圖2:鑒智機器(qi)人視覺(jue)雷達(da)Roadmap
自(zi)動(dong)駕駛的(de)大腦(nao)負責從感知到決策的(de)駕駛全流程(cheng),也是(shi)(shi)自(zi)動(dong)駕駛最(zui)復雜、最(zui)核(he)心和難(nan)度最(zui)高的(de)部分。傳統的(de)以規(gui)(gui)則為(wei)核(he)心的(de)軟件1.0工程(cheng)化(hua)系統,在(zai)可維護性、擴(kuo)展性和進(jin)化(hua)性上都具有一定的(de)局限性。以AI和軟件2.0為(wei)核(he)心,全流程(cheng)數據驅動(dong)的(de)感知、預測、規(gui)(gui)控算法和強單(dan)車智能的(de)解決方案(an),無(wu)(wu)疑是(shi)(shi)實現大規(gui)(gui)模無(wu)(wu)人駕駛更可行(xing)的(de)方案(an)。
鑒智機器人核(he)心團隊在(zai)AI算法和應用、軟件2.0的(de)(de)(de)基礎設施、數(shu)據驅(qu)動的(de)(de)(de)大規(gui)模實(shi)踐上擁有豐富(fu)的(de)(de)(de)經(jing)驗,將(jiang)通過全(quan)流(liu)程(cheng)數(shu)據驅(qu)動的(de)(de)(de)自動駕駛(shi)大腦(nao),建(jian)立強單(dan)車智能(neng),從而降(jiang)低對外部基礎設施的(de)(de)(de)依(yi)賴,更加利于自動駕駛(shi)的(de)(de)(de)復(fu)制與推(tui)廣。
2.1 深度學習帶來的2D感知技術突破
感(gan)(gan)知是(shi)(shi)自(zi)(zi)動駕(jia)駛獲取信息(xi)的(de)第(di)一步, 所謂感(gan)(gan)知是(shi)(shi)指通過攝像頭或其他傳(chuan)感(gan)(gan)器識(shi)別(bie)(bie)所看到(dao)的(de)物體并理解該物體是(shi)(shi)什么(me),這對(dui)自(zi)(zi)動駕(jia)駛是(shi)(shi)至關(guan)重(zhong)要的(de)環節。自(zi)(zi)動駕(jia)駛車輛(liang)首先是(shi)(shi)要識(shi)別(bie)(bie)車道線,然后還要識(shi)別(bie)(bie)紅(hong)綠燈、標志牌,除此(ci)之外就是(shi)(shi)識(shi)別(bie)(bie)障礙物比如前(qian)后左(zuo)右有(you)沒有(you)車輛(liang),有(you)沒有(you)行人,才能夠進一步規劃(hua)行駛路線。
過去十年是人工智能技術的黃金十年,深度學習改變了計算機視覺整個領域,也帶來了2D感知各個方向技術的突破。2D感知主要有圖像分類、圖像(物體)識別、細粒度識別(人臉識別)等方向,所采用的技術也從最早的模板匹配、線性分類到現在所廣泛使用的深層卷積神經網絡,再到最近刷新各大視覺任務榜單的Transformer。隨著硬件計算能力的不斷提升、算法范式的不斷改進、可利用數據資源的不斷增長,基于攝像頭的2D感知已經成為了乘用車智能駕駛的主流方案,同時也成為了很多解決方案的核心差異點。
鑒智機器人(ren)核心團隊在(zai)國(guo)內最早基于深度學習在(zai)2D視(shi)覺感(gan)(gan)知各個(ge)方向開展系統性研究和(he)大(da)規(gui)模落地應用,在(zai)眾多全球最具影響力的2D感(gan)(gan)知AI比賽和(he)評測中獲得冠軍(jun),發(fa)表頂(ding)級會議和(he)期刊論文幾十(shi)余(yu)篇,在(zai)多個(ge)業務領域(yu)實現了(le)人(ren)工智能(neng)2D感(gan)(gan)知技(ji)術(shu)的大(da)規(gui)模應用落地。
(a)目標(biao)檢測(ce)、人體骨骼點 | (b)全景分割 |
(c)360°視覺感知 | (d)單目測距 |
圖3:鑒智機器人在(zai)2D感(gan)知方(fang)向具有(you)世界一(yi)流的(de)核心能力
2.2 從2D感知到4D感知
如果說2D感(gan)(gan)知還是在(zai)平面上檢測(ce)、識別、分割(ge)物(wu)體,那么加入(ru)深度信息后,基礎的(de)2D感(gan)(gan)知即轉化(hua)為3D感(gan)(gan)知。如果進一步在(zai)3D的(de)基礎上加入(ru)時(shi)間(jian)這一維度,進化(hua)得到的(de)則是4D感(gan)(gan)知。在(zai)自動駕駛領域,4D感(gan)(gan)知可以完(wan)整且連(lian)續的(de)探測(ce)車(che)輛周圍的(de)物(wu)體。
基于深度學習和三維視覺技術(shu)不斷發(fa)展,隨著(zhu)Cost Volume、Optical Flow、differentiable Homography、Transformer等技術(shu)的成熟,以(yi)及多傳感(gan)器融(rong)合(he)、眾包重建(jian)、稠密(mi)重建(jian)、自動標注等方(fang)向不斷發(fa)展,可以(yi)高效率(lv)的提(ti)供(gong)高質量、大規模的4D場景數據,端到端的4D感(gan)知正(zheng)在(zai)成為技術(shu)趨勢。相比于傳統的2D感(gan)知+后(hou)融(rong)合(he)的方(fang)案(an),端到端的4D感(gan)知擁有很(hen)多優勢,可以(yi)解決測距抖動較大、多攝像頭拼接(jie)不準(zhun)確、時序結(jie)果(guo)不穩定、迭代效率(lv)較低等一系列問題。
更進(jin)(jin)一步(bu),基于端到(dao)端的(de)(de)4D感知,可以進(jin)(jin)行更好的(de)(de)4D預測(ce),一方面可對于交通(tong)參與者進(jin)(jin)行更優的(de)(de)運動軌跡(ji)預測(ce),從而實現性能更加優異(yi)的(de)(de)規劃控制(zhi);另(ling)一方面可對于道路行駛區(qu)域預測(ce)更加精(jing)細(xi)的(de)(de)3D結構化信(xin)息,在線生成(cheng)局(ju)部實時3D地(di)圖,降低對高精(jing)地(di)圖等基礎(chu)設施的(de)(de)依(yi)賴。
圖4:鑒智機器人針對復雜路口駕駛場景的4D感知結果
自動駕(jia)(jia)(jia)(jia)駛被認(ren)為是目(mu)前最重(zhong)要的(de)硬科技(ji)創(chuang)新之一(yi)。在汽(qi)(qi)車(che)(che)行業百年未有(you)之大變革的(de)歷史性(xing)時(shi)刻,中(zhong)國由(you)于(yu)在電動汽(qi)(qi)車(che)(che)領域(yu)的(de)提(ti)前布局、全面(mian)開花,以及完整產業鏈的(de)巨大優勢(shi),國內企業在自動駕(jia)(jia)(jia)(jia)駛方(fang)向(xiang)擁(yong)有(you)非常(chang)好的(de)機會和產業優勢(shi),有(you)機會通過電動化和智能化實現(xian)百年汽(qi)(qi)車(che)(che)工業這(zhe)一(yi)最重(zhong)要的(de)支柱產業的(de)超車(che)(che)和領先。但自動駕(jia)(jia)(jia)(jia)駛的(de)發展速度仍(reng)然低(di)于(yu)大眾和市場(chang)的(de)預(yu)期,這(zhe)里存在若干(gan)影響(xiang)自動駕(jia)(jia)(jia)(jia)駛等級提(ti)升的(de)關鍵性(xing)問題(ti)亟(ji)待(dai)解(jie)決,鑒智機器人基(ji)于(yu)自身在AI算法、AI算力層面(mian)的(de)積(ji)累(lei),致(zhi)力于(yu)解(jie)決自動駕(jia)(jia)(jia)(jia)駛成像計(ji)算和下一(yi)代自動駕(jia)(jia)(jia)(jia)駛方(fang)案的(de)關鍵性(xing)問題(ti),從而推動自動駕(jia)(jia)(jia)(jia)駛的(de)創(chuang)新發展。
來(lai)源:機器之(zhi)心Pro