作者:彭昭(智次方創(chuàng)始人、云和資本聯(lián)合創(chuàng)始合伙人),物聯(lián)網(wǎng)智庫 原創(chuàng)
這是我的第349篇專欄文章。
生成式人工智能GenAI是否存在泡沫?這個問題日益成為業(yè)界熱議的焦點。目前,全球?qū)I基礎(chǔ)設(shè)施的投資已到了癲狂的成千上萬億美元的規(guī)模,然而大模型如何實現(xiàn)盈利卻始終沒有一個明確的答案。
在眾說紛紜之際,有一個領(lǐng)域的潛力卻常常被低估,那就是邊緣側(cè)的人工智能(Edge AI)。作為一個方興未艾的領(lǐng)域,邊緣AI與云端AI可謂迥然不同。那些在數(shù)據(jù)中心行之有效的方法,不一定能夠適用于工業(yè)邊緣平臺,如安全攝像頭、機械臂或汽車等場景。
由于空間限制、功耗、預(yù)算、數(shù)據(jù)安全以及實時性等要求,邊緣AI領(lǐng)域沒有一刀切的解決方案。這意味著,沒有任何一種方案能夠滿足所有人工智能應(yīng)用的需求,從云端AI過渡到邊緣AI需要開發(fā)全新的模型。
研究機構(gòu)Counter Points的數(shù)據(jù)顯示,未來AIoT模塊的計算能力將實現(xiàn)指數(shù)級的大幅增長。據(jù)測算,未來七年內(nèi)配備神經(jīng)網(wǎng)絡(luò)處理單元NPU的模塊數(shù)量將達到目前的31倍,這將催生大量創(chuàng)新應(yīng)用的涌現(xiàn)。
面對如此蓬勃發(fā)展的邊緣AI市場,本文將對其進行深入剖析。筆者認為,邊緣AI的崛起將催生出全新的商業(yè)模式,而去中心化物理基礎(chǔ)設(shè)施網(wǎng)絡(luò)DePIN或許是幫助邊緣AI避免盈利困境的有效解決方案之一。
TinyML、SLM與LLM:聯(lián)合語言模型的“三駕馬車”
在人工智能的世界里,終端側(cè)、邊緣側(cè)和云端扮演著截然不同的角色。它們在形態(tài)、功能和應(yīng)用場景上的差異如此之大,以至于可以將其視為完全不同的實體。
正是基于這種認識,有業(yè)界人士提出了“聯(lián)合大模型”的理念,旨在將不同規(guī)模的AI模型分別部署于云、邊、端三個層面,以執(zhí)行相關(guān)任務(wù)。
在終端側(cè),微型機器學(xué)習(xí)(TinyML)正在崛起。TinyML是一種優(yōu)化機器學(xué)習(xí)模型的技術(shù),使其能夠在資源受限的設(shè)備(如微控制器)上高效運行。這些模型通常體積小巧、運算高效,能夠勝任語音識別和傳感器數(shù)據(jù)分析等任務(wù)。
邊緣側(cè)的主角則是小型語言模型(SLM)。SLM指的是那些參數(shù)量低于100億的輕量級神經(jīng)網(wǎng)絡(luò)模型。與大型模型相比,SLM以更少的參數(shù)和計算資源實現(xiàn)自然語言處理。此外,SLM通常是面向特定任務(wù)、應(yīng)用或用例量身定制的。
至于云端,大型語言模型(LLM)無疑是其中的佼佼者。LLM是一種強大的深度學(xué)習(xí)算法,能夠執(zhí)行各種自然語言處理(NLP)任務(wù)。得益于海量訓(xùn)練數(shù)據(jù)和多個Transformer模型的使用,LLM具備了識別、翻譯、預(yù)測乃至生成文本等內(nèi)容的驚人能力。
“聯(lián)合語言模型”的提出,正是為了充分利用TinyML、SLM和LLM這三種技術(shù),在保障隱私性和安全性的同時,為企業(yè)帶來切實價值。
TinyML以其超低成本和功耗的特點,非常適合在資源有限的設(shè)備(如物聯(lián)網(wǎng)終端和可穿戴硬件)上使用。
而SLM可以看作是LLM的“迷你版”。相比動輒數(shù)百萬、數(shù)十億參數(shù)的GPT-4等大型模型,SLM的運行規(guī)模要簡單得多。經(jīng)過優(yōu)化的SLM能夠高效處理較為簡單的任務(wù),而無需消耗大量計算資源。
盡管規(guī)模不及LLM,SLM在實際應(yīng)用中卻有著不可小覷的作用。從文本生成、問答到語言翻譯,SLM能夠勝任多種任務(wù),只是在準(zhǔn)確性和多功能性上可能稍遜一籌。
SLM的優(yōu)勢還體現(xiàn)在其訓(xùn)練速度快、推理速度佳等方面。它在性能和資源效率之間取得了微妙的平衡。參數(shù)數(shù)量的減少,使得SLM的訓(xùn)練更加經(jīng)濟高效;而將處理工作負載轉(zhuǎn)移到邊緣設(shè)備,則進一步降低了基礎(chǔ)設(shè)施和運營成本。
BrainChip公司的實踐表明,綜合利用TinyML和SLM能夠取得顯著成效:模型參數(shù)數(shù)量減少50倍,訓(xùn)練時間縮短30倍,多重累積運算(MAC)降低5000倍,而精度卻保持不變甚至有所提高。性能和功耗效率的提升與模型效率成正比。
Tirias Research預(yù)測,如果到2028年,使用邊緣設(shè)備和終端硬件內(nèi)的TinyML和SLM混合處理,從數(shù)據(jù)中心卸載20%的LLM工作負載,那么數(shù)據(jù)中心基礎(chǔ)設(shè)施和運營成本將下降150億美元,整體功耗需求也將降低800兆瓦。
從云端到邊緣:GenAI遷移的必經(jīng)之路
隨著人工智能技術(shù)的不斷發(fā)展,越來越多的AI模型開始從云端數(shù)據(jù)中心向邊緣設(shè)備遷移。這種趨勢的背后,是成本、實時性和安全性等因素的綜合考量。
在云端運行AI模型,盡管能夠利用數(shù)據(jù)中心強大的算力資源,但往往面臨著高昂的費用、網(wǎng)絡(luò)延遲和數(shù)據(jù)安全隱患等問題。相比之下,通過模型壓縮等優(yōu)化技術(shù),將神經(jīng)網(wǎng)絡(luò)模型部署在網(wǎng)絡(luò)邊緣設(shè)備上運行,即邊緣計算,則有望在保證性能的同時,大幅降低成本和延遲,提高數(shù)據(jù)安全性。
然而,對于許多邊緣應(yīng)用場景而言,簡單地將數(shù)據(jù)中心的解決方案“縮小”并非最佳選擇。在醫(yī)療保健、汽車、制造等關(guān)鍵領(lǐng)域,邊緣AI應(yīng)用通常專注于傳感器數(shù)據(jù)的實時處理,對模型的尺寸、精度和執(zhí)行效率有著更高的要求。
這就催生了“EdgeGenAI”的概念,即在設(shè)備上執(zhí)行的生成式AI。越來越多的硬件展示了EdgeGenAI的能力,高通、英偉達等芯片廠商紛紛展示了在移動端運行Stable Diffusion、LLaMA等模型的可能性,這預(yù)示著EdgeGenAI已經(jīng)到來。
根據(jù)Tirias Research的分析,隨著AI模型的不斷壓縮優(yōu)化以及終端和邊緣設(shè)備算力的持續(xù)提升,越來越多的GenAI模型將能夠在設(shè)備端完成推理和執(zhí)行。這意味著,適用于端側(cè)處理的模型規(guī)模將隨時間推移而不斷增加,設(shè)備本地的AI處理能力將不斷拓展。
與此同時,消費類和工業(yè)物聯(lián)網(wǎng)設(shè)備所承載的平均推理模型參數(shù)規(guī)模也在不斷增長。為了評估GenAI的發(fā)展前景和總體擁有成本TCO,Tirias Research對不同類別的設(shè)備進行了細分和建模,如下圖所示。
研究發(fā)現(xiàn),在設(shè)備本地處理AI任務(wù),不僅能夠顯著降低響應(yīng)延遲,提升用戶體驗,還能夠有效緩解數(shù)據(jù)隱私和安全問題。通過減少或消除與云端的數(shù)據(jù)交互,敏感數(shù)據(jù)和GenAI生成的結(jié)果都能夠在設(shè)備層得到妥善保護,大大降低了隱私泄露和網(wǎng)絡(luò)攻擊的風(fēng)險。
不過,并非所有GenAI應(yīng)用都適合完全在設(shè)備上處理。受限于芯片算力、內(nèi)存容量和功耗預(yù)算,許多大型模型仍然無法在單個設(shè)備上高效執(zhí)行。
針對這一問題,“聯(lián)合大模型”的提出恰逢其時。
通過在設(shè)備與云端之間合理分配計算任務(wù),這種混合計算模式能夠在降低延遲、保護隱私的同時,充分利用云端的算力優(yōu)勢。
例如,在圖像生成應(yīng)用中,初始圖像可以在設(shè)備上快速生成,而后續(xù)的增強和優(yōu)化則交由云端處理。在需要整合多源數(shù)據(jù)的場景,如實時地圖更新,將本地信息與云端模型結(jié)合也能發(fā)揮協(xié)同效應(yīng)。某些涉及專有數(shù)據(jù)的行業(yè)應(yīng)用,如工業(yè)和醫(yī)療領(lǐng)域,出于安全考慮,也可能需要在云端完成部分敏感計算任務(wù)。
據(jù)此,邊緣AI有望迎來爆發(fā)式增長,據(jù)Counter Point預(yù)測,到2030年,搭載AI算力的物聯(lián)網(wǎng)模塊將占整體出貨量的25%,遠高于2023年的6%。
在汽車領(lǐng)域,AI助手通過語音交互、導(dǎo)航引導(dǎo)和娛樂控制,正在重塑自動駕駛體驗;在零售行業(yè),搭載AI模塊的智能POS終端憑借掌紋或人臉識別、行為分析等能力,助力客戶洞察、庫存管理和風(fēng)險防控;在智能家居場景,集成AI功能的路由器有望成為照明、安防、能源管理等子系統(tǒng)的中樞。此外,無人機、工業(yè)手持設(shè)備、服務(wù)機器人等領(lǐng)域,也將成為邊緣AI芯片的主要應(yīng)用陣地。
DePIN賦能邊緣AI,開創(chuàng)盈利新模式
在人工智能的商業(yè)化進程中,大型語言模型(LLM)的盈利之路一直備受關(guān)注。
盡管生成式AI初創(chuàng)企業(yè)頻頻獲得高額融資,估值屢創(chuàng)新高(如下圖所示),但如何將技術(shù)優(yōu)勢轉(zhuǎn)化為持續(xù)穩(wěn)定的收入,仍是一個懸而未決的難題。
與此同時,隨著AI模型不斷向邊緣遷移,嵌入式AI設(shè)備的市場需求正在快速增長。在這一背景下,去中心化物理基礎(chǔ)設(shè)施網(wǎng)絡(luò)(DePIN)與邊緣AI的結(jié)合,有望為這一難題提供一個全新的解決思路。
DePIN的核心理念,是通過區(qū)塊鏈技術(shù)和token經(jīng)濟,將分散在全球各地的物理設(shè)備連接起來,形成一個去中心化的資源共享網(wǎng)絡(luò)。在這個網(wǎng)絡(luò)中,設(shè)備所有者可以將閑置的計算、存儲、帶寬等資源出租給需求方,從而獲得token激勵。而需求方則可以以更低的成本、更高的靈活性,獲得所需的基礎(chǔ)設(shè)施服務(wù)。
如果將DePIN的模式引入邊緣AI領(lǐng)域,可以極大地促進AI設(shè)備的普及和應(yīng)用。
一方面,設(shè)備制造商可以通過融入DePIN社區(qū),將AI設(shè)備預(yù)置到去中心化網(wǎng)絡(luò)中,以資源共享的方式銷售設(shè)備使用權(quán),而非一次性售賣硬件產(chǎn)品。這種“設(shè)備即服務(wù)”的模式,將大大降低用戶的前期采購成本,提升邊緣AI的易用性。
另一方面,AI模型提供商也可以利用DePIN網(wǎng)絡(luò),將訓(xùn)練好的模型以API的形式提供給設(shè)備所有者,并按照調(diào)用量獲得token收益。這種按需付費的機制,將顯著降低邊緣AI的推理成本,使中小企業(yè)和個人開發(fā)者也能夠負擔(dān)得起高質(zhì)量的AI服務(wù)。
某寵物智能項圈廠商的案例,為DePIN賦能邊緣AI提供了一個生動的例證。該廠商計劃將智能項圈引入DePIN社區(qū),構(gòu)建一個去中心化的寵物數(shù)據(jù)共享網(wǎng)絡(luò)。憑借項圈內(nèi)置的活動監(jiān)測和定位跟蹤功能,海量的寵物行為數(shù)據(jù)將被采集和流轉(zhuǎn),成為寵物AI模型訓(xùn)練的重要數(shù)據(jù)源。而寵物主人則可以選擇性地共享這些數(shù)據(jù),并獲得token激勵。
這一去中心化AI范式,不僅能夠顯著提升數(shù)據(jù)處理的實時性和隱私性,更能夠為寵物AI模型的開發(fā)和優(yōu)化提供源源不斷的數(shù)據(jù)支持。
與此同時,該廠商還計劃開放項圈的邊緣算力,允許第三方開發(fā)者將寵物AI模型部署到項圈中,實現(xiàn)場景化的AI應(yīng)用,如異常行為檢測、情緒識別、安全區(qū)域預(yù)警等。這種“AI即插即用”的開放生態(tài),將極大地釋放邊緣AI的想象空間,催生出一批以寵物為中心的創(chuàng)新應(yīng)用和服務(wù)。
DePIN與邊緣AI的結(jié)合,不僅為設(shè)備制造商開辟了新的銷售渠道和盈利模式,也為AI企業(yè)搭建了一個海量數(shù)據(jù)聚合、模型快速部署的去中心化基礎(chǔ)設(shè)施。
寫在最后
隨著TinyML、SLM等技術(shù)的成熟,AI模型正在從云端向邊緣大規(guī)模遷移,催生出EdgeGenAI等全新的應(yīng)用形態(tài)。通過模型壓縮、混合計算等優(yōu)化手段,百億級參數(shù)模型已經(jīng)能夠在智能手機等終端設(shè)備上高效運行。在萬物智聯(lián)的時代,邊緣AI將為汽車、零售、家居等行業(yè)賦能,創(chuàng)造巨大的商業(yè)價值。
不過,當(dāng)前的邊緣AI生態(tài)仍面臨著設(shè)備成本高、開發(fā)門檻高、盈利模式單一等挑戰(zhàn)。去中心化物理網(wǎng)絡(luò)DePIN的引入,有望通過將AI設(shè)備接入資源共享網(wǎng)絡(luò),建立按需付費機制,構(gòu)建開放生態(tài),從而有效破解邊緣AI的商業(yè)化困局。
參考資料:
Federated Language Models:SLMs at the Edge + Cloud LLMs,作者:Janakiram MSV,來源:thenewstack.io
Tiny but mighty:The Phi-3 small language models with big potential,作者:Sally Beatty,來源:微軟