2025 年初,DeepSeek 憑借其高效能、低成本的開(kai)源特性迅速引(yin)爆市場。
此前,以大模型為代表的 AI 在邊緣和端側推理應用存在諸多挑戰,比如邊緣側的計算能力與存儲容量難以滿足大模型的微調和推理需求,模型壓縮與輕量化可能導致精度損失從而影響業務結果等……而隨著算法技術的不斷進步,包括模型量化、剪枝、蒸餾等模型壓縮算法的發展,以及專為端側部署設計的軟硬件平臺的出現,AI 大模型在端側設備的部署變得更加高效便捷——DeepSeek-R1 正是其中的突破性選手。
具體(ti)而言,DeepSeek-R1 通過高(gao)(gao)效蒸餾技(ji)術,將(jiang)大模型的推理能力遷移到更小(xiao)、更高(gao)(gao)效的版(ban)本(ben)(ben)中(zhong)。這一突破使(shi)其小(xiao)尺寸版(ban)本(ben)(ben)在保持卓越性能的同(tong)時,顯著降低了(le)模型體(ti)積和計算資源需求,成(cheng)為端側部署(shu)的理想選擇。
當 AI 大模型從云端下沉至邊側,一場“端側 AI 革命”正悄然展開。在這場革命中,通信模組作為連接物理世界與數字世界的核心紐帶發揮著至關重要的作用,成為產業關注的焦點。2025 年,在 DeepSeek 浪潮的引領下,智聯網產業或將迎來“端側 AI 元年”。
近日,我們能看到包括美格智能、廣和通、移遠通信、芯訊通在內的多家物聯網模組(zu)企業(ye)紛(fen)紛(fen)發布了(le)旗下(xia) AI 模組(zu)適配 DeepSeek 的(de)消息,筆者(zhe)整理如下(xia):
美格智能

1 月 26 日,美格智能在官微發布消息稱,其研發團隊結合 AIMO 智能體、高算力 AI 模組的異構計算能力,結合多款模型量化、部署、功耗優化 Know-how,正在加速開發 DeepSeek-R1 模型在端側落地應用及端云結合整體方案。
超低功耗:首(shou)先持續對(dui) DeepSeek-R1 模(mo)型的推理(li)延遲進行優化,保證模(mo)型在高(gao)算力模(mo)組軟硬件環境下的超低功耗運(yun)行。
開發工具鏈:不斷進行工具鏈打通(tong),模組(zu)內嵌的 SNPE 引擎直接支(zhi)持 DeepSeek-R1 模型(xing)的 ONNX/TFLite 格式,大(da)模型(xing)適配周(zhou)期將大(da)幅縮短。
端云協同:結合動(dong)(dong)態卸(xie)載技術,根據任務復雜度自(zi)動(dong)(dong)分配(pei)端側與邊(bian)緣計算資源,保障實時性(xing)與能(neng)效平衡。為客戶提供端云協同(tong)模(mo)板,面(mian)向開(kai)發者提供動(dong)(dong)態任務分配(pei)框架,簡單配(pei)置即可實現“本地優先,云端兜底”。
同時,公(gong)司將結(jie)合美格智(zhi)能(neng)自研(yan)的 AIMO 智(zhi)能(neng)體及 DeepSeek-R1 模型的基礎能(neng)力,開(kai)發面(mian)向工業智(zhi)能(neng)化、座(zuo)艙智(zhi)能(neng)體、智(zhi)能(neng)無(wu)人(ren)機、機器(qi)人(ren)等領域的 AI Agent 應(ying)用。
受 DeepSeek 概念影響,1 月 24 日至 2 月 10 日,美格智能股價區間漲幅達 77.20%。
廣和通

2 月 10 日,廣和通在官微發布消息,稱其高算力 AI 模組及解決方案全面支持小尺寸的 DeepSeek-R1 模型,高效且靈活地構建深度學習體系,不僅保護數據隱私,更大大提升終端推理和運算能力。
面(mian)向更廣泛(fan)的行(xing)業端側 AI 應用,廣和通將積(ji)極推動 DeepSeek 等優質模型(xing)在高、中、低(di)算力 AI 模組(zu)及解決方案部署,提供不(bu)同參數模型(xing)服務,進一步降低(di)端側 AI 的門檻,并優化成(cheng)本(ben),幫助客戶快速增強終端 AI 推理(li)能力,賦能更廣泛(fan)的物(wu)聯網設備實現 AI 化。
移遠通信

2 月 12 日,移遠通信在官微發布消息,宣布其搭載高通 QCS8550 平臺的邊緣計算模組 SG885G,成功實現了 DeepSeek-R1 蒸餾小模型的穩定運行。實測(ce)數據顯示,其(qi)生成 Tokens 的(de)速度超過每秒(miao) 40 個 Tokens,且未來(lai)隨著(zhu)性能(neng)的(de)不斷優化,速度還將進一步(bu)提(ti)升,為(wei)智能(neng)終端(duan)設(she)備帶來(lai)更(geng)強大(da)的(de) AI 能(neng)力。此(ci)外,在成功(gong)實現 DeepSeek 模型端(duan)側(ce)運行的(de)基(ji)礎(chu)上,移遠通信還完成了該(gai)模型的(de)針對性微(wei)調,并應用于自身(shen)的(de)大(da)模型解決方案(an)中,為(wei)客戶提(ti)供更(geng)精準、更(geng)高效的(de)端(duan)側(ce) AI 服務。
據悉,搭載 DeepSeek 模型的移遠邊緣計算模組和解決方案,不僅適用于消費類和工業類機器人領域,還可廣泛應用于智能座艙、機器視覺、個性化虛擬助理、平板電腦、老人監護、智能家居、AI 玩具及可穿戴設(she)備等多(duo)元(yuan)化場景。
芯訊通

2 月 12 日,芯訊通 SIMcom 官微發布消息稱,芯訊通高算力 AI 模組 SIM9650L 已實測跑通 DeepSeek R1 模型,AI 算力超過 14Tops,能夠高效地幫助客戶終端搭建深度學習體系。
目前,芯(xin)訊通(tong)正在(zai)開展相關(guan)技術研究(jiu)接入豆包等其他大(da)模(mo)(mo)型,積極探索更多深(shen)度應(ying)用(yong)。AI 大(da)模(mo)(mo)型爆火(huo)背(bei)后,是產業智能化(hua)對價(jia)值創(chuang)造的本質需求,芯(xin)訊通(tong)將以通(tong)信模(mo)(mo)組為支(zhi)點,通(tong)過“模(mo)(mo)組+算(suan)法(fa)+場景”的深(shen)度融合,讓(rang)端(duan)側 AI 真正落地(di)。
有方科技
2 月 13 日,面對“公司是否針對 DeepSeek 相關模型開展了模型適配及端側部署工作”的問題,有方科技在投資者關系平臺上答復表示,公司依托于自身物聯感知體系“云-管-端”架構建立的優勢,積極融合物聯網與人工智能技術,在 Deepseek 模型上,公司一方面正在云側基于模型融合公司運管服云平臺開發城域物聯感知模型,另一方面也正在端側開展模型與模組的適配工作,但目前還處于在研狀態,尚未產生收入。
值得強調(diao)的(de)是,雖然不(bu)少模組企業因布局端(duan)側 AI,股價迎(ying)來(lai)大幅上(shang)漲,但尚(shang)(shang)且無(wu)法判斷相關概念(nian)股是否(fou)真(zhen)正受益于(yu)(yu) DeepSeek 的(de)技(ji)術(shu)突(tu)破,還是僅(jin)僅(jin)在蹭熱點?許多產(chan)品都處于(yu)(yu)早期研(yan)發階段,尚(shang)(shang)未產(chan)生明確訂(ding)單,未來(lai)是否(fou)能產(chan)生收入(ru)(ru)及產(chan)生多少收入(ru)(ru)受市場(chang)需求和公司市場(chang)拓展進度影(ying)響,具有很強的(de)不(bu)確定性,尚(shang)(shang)有賴于(yu)(yu)應用端(duan)和最終用戶的(de)檢驗。
而智聯網模組企(qi)業以(yi)及(ji)整個產業鏈上下游要想進一步將拓展端側 AI 能力,還需要克服以(yi)下挑戰:
首先是計算資源受限問題。這包含三(san)個維度(du):第一(yi)是(shi)算(suan)力限制(zhi)(zhi),端(duan)側設備(bei)(如嵌入(ru)式系統、移動設備(bei)、工(gong)業(ye)設備(bei)等(deng))通(tong)(tong)常受制(zhi)(zhi)于處理(li)器性能(neng),無(wu)法匹(pi)配云端(duan)數(shu)(shu)據(ju)中(zhong)心的(de) GPU、TPU 等(deng)高性能(neng)計算(suan)單元;第二是(shi)存儲(chu)和內存限制(zhi)(zhi),端(duan)側設備(bei)的(de)存儲(chu)容量有限,無(wu)法容納大規(gui)模的(de) AI 模型和數(shu)(shu)據(ju)集;第三(san)是(shi)能(neng)耗(hao)限制(zhi)(zhi),端(duan)側設備(bei)通(tong)(tong)常依賴電池或(huo)低功耗(hao)架構,難以支持高功耗(hao)的(de) AI 推理(li)任務。
如今(jin),DeepSeek 為解決計(ji)算資(zi)源受(shou)限挑戰提出了(le)突破性的(de)思路。DeepSeek 是一個具有 6710 億參(can)數的(de)大型(xing)語言模型(xing),其基于預訓練的(de)開(kai)源模型(xing)(如 LLaMA)進(jin)行改進(jin)和微調,推出了(le)多個精簡版本(參(can)數從(cong) 15 億到 700 億不等),降低(di)了(le)對硬件資(zi)源的(de)要(yao)求,使(shi)其能夠(gou)在資(zi)源受(shou)限的(de)設(she)備上運(yun)行。
未來,在 DeepSeek 的啟發的引領下,更多類似的模型或將被陸續推出,從而給端側 AI 帶來無窮的想象力。對此,模組企業需要持續優化平臺部署,大幅縮短新模型的落地周期,從而賦能終端側真正享受到 AI 帶來的受益。
然后是端云協同部署問題。如今,關(guan)(guan)于邊緣(yuan)(yuan)(yuan)和(he)云(yun)端哪個是理(li)(li)想工作(zuo)負載(zai)位置(zhi)的爭論(lun),已經逐漸被現實的共生關(guan)(guan)系(xi)所取代——云(yun)端(Cloud)負責高性能計(ji)算、大(da)數(shu)據(ju)(ju)存儲、深度學習訓練等任務;邊緣(yuan)(yuan)(yuan)(Edge)靠近數(shu)據(ju)(ju)源,負責實時(shi)推(tui)理(li)(li)、數(shu)據(ju)(ju)預處理(li)(li)、流(liu)(liu)式計(ji)算等;端側(ce)(Device)處理(li)(li)本地任務,如智能手機、傳(chuan)感器、IoT設備的輕量化(hua)推(tui)理(li)(li)……隨著(zhu)跨云(yun)、邊緣(yuan)(yuan)(yuan)和(he)數(shu)據(ju)(ju)中心的高效數(shu)據(ju)(ju)處理(li)(li)和(he)流(liu)(liu)動需求不斷(duan)增長(chang),混合(he)邊緣(yuan)(yuan)(yuan)-云(yun)的應用趨勢將繼續提升。
對智聯網解決方案提供商而言,未來需要以協同化的架構,進一步合理劃分云、邊、端計算任務,確保在保證性能的同時優化能耗和數據同步效率。
最后是應用場景適配與生態建設問題。不同應(ying)用(yong)場景(智能家居、智能制造(zao)、自動(dong)駕駛(shi)等)對(dui)計算能力、功耗、隱(yin)私等有不同需求,對(dui)此,模組企(qi)業需要定制化產品和服(fu)務。
美格智能提及,未來將推出面向 AI 場(chang)景的訂(ding)閱(yue)服務,針對中(zhong)小型的 B 端或 C 端客(ke)戶,推出“端側(ce) AI 能力包”,與大模(mo)型廠商合作(zuo),針對 Token 輸(shu)(shu)入/輸(shu)(shu)出數(shu)量(liang)、不同類型模(mo)型調(diao)用、流(liu)量(liang)費(fei)用等領域(yu),推出一體化端側(ce) AI Turn-key 方(fang)案。
總體而言,雖然道路是波折的,但前途是光明的。根據 Market.us 的預測,從2022 年至2032 年,全球端側 AI 市場空間將從 152 億美元提升至 1436 億美元,年復合增長率達 25.9%。
而隨著端(duan)側 AI 的進一步深(shen)入落地,我們將(jiang)看到除(chu)手機(ji)、PC、智能眼鏡、耳機(ji)等傳統設備(bei)外,家電、機(ji)器人、教育(yu)辦公設備(bei)、玩具(ju)等也將(jiang)深(shen)度集成(cheng)(cheng) AI 功能,形成(cheng)(cheng)“萬物皆可 AI 化”的生態(tai)。
回顧模(mo)組的發展(zhan)歷程(cheng),標(biao)準(zhun)通(tong)(tong)信(xin)模(mo)組從 1.0 時(shi)(shi)代(dai)的純通(tong)(tong)信(xin)能(neng)(neng)力,到 2.0 時(shi)(shi)代(dai)利用 Open CPU 技(ji)術替(ti)代(dai)外(wai)部 MCU,實現一些簡(jian)單(dan)的邏輯(ji)控制能(neng)(neng)力,到 3.0 時(shi)(shi)代(dai)的同時(shi)(shi)具備 4G/5G 高速(su)通(tong)(tong)信(xin)能(neng)(neng)力以及內置智(zhi)(zhi)能(neng)(neng)化操作系統(tong)和(he)(he)豐富的外(wai)設接口。復雜系統(tong)的智(zhi)(zhi)能(neng)(neng)模(mo)組經歷了(le)史無前例的快速(su)發展(zhan),大大加(jia)速(su)了(le)傳統(tong)行業的信(xin)息化和(he)(he)智(zhi)(zhi)能(neng)(neng)化的改造進(jin)程(cheng)。
而在模組不斷進化迭(die)代的(de)過(guo)程中,市場迎來過(guo)“春風”,也經歷過(guo)“寒冬”。Counterpoint 數(shu)據(ju)顯示,受需(xu)求減少(shao)影響,2023 年(nian)全球(qiu)物聯網模組出貨(huo)量首次(ci)出現下(xia)滑,同(tong)比(bi)下(xia)降2%,但2024年(nian)隨(sui)著庫存(cun)水(shui)平正常(chang)化和智能電表、POS、汽車等領域(yu)需(xu)求增(zeng)加,模組市場有望下(xia)半年(nian)恢(hui)復增(zeng)長。伴隨(sui) 5G、AIoT 等技術應(ying)用,預計(ji) 2025 年(nian)市場將出現大幅增(zeng)長。
如(ru)今(jin),端側 AI 概念的爆發又為(wei)模(mo)組市場注入了新的動力(li),在此影響下,整個(ge)市場的“回暖(nuan)”或許會比預期中(zhong)來得更早一些。
參考資料:
美格(ge)智(zhi)(zhi)能AIMO智(zhi)(zhi)能體+DeepSeek-R1模型(xing),AI應用(yong)的iPhone時刻來(lai)了(le),美格(ge)智(zhi)(zhi)能
移遠通(tong)信邊緣計(ji)算模組(zu)成功運行DeepSeek模型,以(yi)領先(xian)的工(gong)程能力加速端側AI落地,移遠通(tong)信
芯訊(xun)通(tong)高(gao)算(suan)力(li)AI模組SIM9650L實測(ce)跑通(tong)DeepSeek R1模型,芯訊(xun)通(tong)
正在端側(ce)開展Deepseek模(mo)型與模(mo)組的適(shi)配工(gong)作,有方科(ke)技(ji)
端側AI元(yuan)年爆(bao)發!廣和通AI模組及解決(jue)方案全面支持(chi)DeepSeek-R1蒸餾模型,廣和通
廣和通/美格/移遠/日海紛紛布局,一文盤點算力模組現狀、挑戰和前景,物聯網智庫
戴爾副總裁:五大趨勢將(jiang)定義智(zhi)能邊(bian)緣的(de)發(fa)展(zhan),戴爾