毫無疑問,Deepseek是春節(jié)期間最亮的那顆星,連篇累牘的報道已經汗牛充棟,我作為AI行業(yè)的邊緣人(MCU芯片只能算是AI應用領域的邊緣外圍),從我的觀察來分享一些個人看法和預測。
1、摩爾定律普適性
芯片行業(yè)最重要的定律,由1965年英特爾創(chuàng)始人摩爾提出,成為半導體技術最著名的發(fā)展規(guī)律,大意是集成電路上可容納的晶體管數(shù)目大約每隔 18-24 個月便會增加一倍,性能也將提升一倍,而價格卻保持不變。
2000年的時候,我在電信做互聯(lián)網骨干網的項目,記得當時采購EMC的磁盤陣列就花了200萬美元,總容量不過4T,而今天一個普通的硬盤容量都遠遠超過這個規(guī)格了。當時家庭撥號上網的Modem速率是28.8kbps,下載個圖片都費勁,現(xiàn)在家庭寬帶光纖入戶,已經沒有人關心速率到底是多少了。
Deepseek印證了,在AI算力領域,似乎也符合摩爾定律。即人工智能的算力成本會迅速降低,性能將不斷提升。看了最新的Cathie Wood采訪,木頭姐說,在DeepSeek之前,人工智能訓練成本每年下降75%,推理成本甚至下降85%到90%。
如果 AI 訓練成本的下降趨勢是 每年 4 倍,如果 DeepSeek-V3 的訓練成本比一年前開發(fā)的美國當前模型低約 8 倍,那其實完全符合正常趨勢。僅靠行業(yè)的正常發(fā)展,2024 年訓練一個模型的成本,理應比 2023 年低 3 到 4 倍。同時,訓練成本的下降也帶動了推理成本的下降。比如,Claude 3.5 Sonnet 相較 GPT-4 晚了 15 個月發(fā)布,但幾乎在所有基準測試中都勝出,同時 API 價格也下降了 約 10 倍。
按照這個趨勢走下去,那么大模型的收費商業(yè)模型似乎很難成立,OpenAI那個200美元的月費服務很快流產就是明證。大模型之間的內卷競爭加速,意味著大模型未來必然是免費的。
大模型和算力作為基礎架構,有點像運營商的帶寬建設,最終會近乎免費。想起互聯(lián)網初代的時候,電子郵箱也需要會員收費服務,后來就沒有后來了。
2、炮灰定律
這個定律名稱是我杜撰的,經驗來自過去二十年的互聯(lián)網歷史。
當某個行業(yè)成為熱點后,必然會有大量風險投資乃至傳統(tǒng)資金蜂擁而入,導致行業(yè)出現(xiàn)大批無序競爭者,最后經過一系列競爭整合,最終行業(yè)會整合到1-3家頭部企業(yè)中,但即使是行業(yè)No1也很有可能走不到最后。
比如說百團大戰(zhàn),硝煙散盡現(xiàn)在美團一家獨大,當初曾領跑的團購獨角獸們比如糯米團、拉手、F團等已經消失無蹤,其他幾百家團都已成為炮灰。網約車和共享單車大戰(zhàn),也是一樣的結果。
行業(yè)賽道處于快速迭代過程中的時候,領先者往往沒有太多護城河可以防守,技術快速演進時很容易被突然冒出的意外事件打垮,當年網絡視頻網站流量前三位除了優(yōu)酷土豆外還有一家56,結果在一夜之間被黑垮掉。OpenAI目前雖然還暫時沒有對手,但是能不能存活到最后我看并沒有把握。
還有一種情況是整個熱門賽道被全滅,某個熱門技術方向突然不成立了,比如某個投資機構押注元宇宙賽道,八年前All in了所有的VR頭盔廠家,結果可想而知,自己都成為了時代的浪花。
AI大模型賽道,國內有名有姓的廠商也已超過百家,頭部的五六家格局漸漸形成,Deepseek異軍突起,其實是遠超業(yè)內業(yè)外人士的預見的,之前沒有投資機構關注DS,就是證明。技術快速變化的時候,不管是OpenAI,還是Sora,還是Deepseek,都可能只有三分鐘熱度。
沒有投資機構裹挾的Deepseek能走出來,也說明在無腦機構熱錢喂出來的公司,往往反而會動作走樣,為了迎合資本做出錯誤的決策。
3、杰文斯悖論
根據杰文斯悖論,當某種資源的使用效率提高后,雖然單次使用時消耗更少,但因為成本降低、使用更方便,反而可能讓人們用得更多,導致整體消耗量反而上升。
Anthropic 的CEO認為各公司在訓練強大的AI模型上的投入不斷增加,盡管成本曲線會周期性下移,訓練特定智能水平模型的成本也在迅速下降。然而節(jié)省下來的成本又被投入到使用相同巨額預算開發(fā)更智能的模型中。
Deepseek短期看似乎降低了市場對算力的需求,但是中長期看成本降低后大量新應用出現(xiàn),對算力的需求會指數(shù)級激增。
電腦、手機和互聯(lián)網的發(fā)展歷史基本上都是這么過來的,硬件和應用相互刺激,市場迅速擴大,用戶普及下沉,增量市場蛋糕出現(xiàn),比如前幾年手機資費增速降費后,智能手機普及下鄉(xiāng),PDD和某音迅速從三四線城市和農村崛起,續(xù)寫了當年淘寶彎道超車易趣的歷史。
4、ToB/ToC
AI算力成本大幅降低后,無疑將是AI應用的時代,誰將受益最大?
C端市場里的消費電子(智能眼鏡)、人形機器人、智能駕駛確實是主流看法,但我更看好B端應用市場,主要原因是C端全部被互聯(lián)網巨頭和終端巨頭卡位了,其他公司進入的機會基本上被封死了。
推理成本降低將帶來極大的利好。推理成本的降低意味著企業(yè)能夠更高效、更經濟地部署AI模型,而無需承擔昂貴的訓練成本。因此,那些專注于AI推理的公司——例如云計算服務提供商、邊緣計算公司,以及AI應用企業(yè)——都可能迎來強勁的市場需求增長。
有了AI算力支撐,所有的政府機構和企業(yè)都需要對所有工作流程進行重組,以提升效率和降低成本。PLTR的模式已經走在了前面,從Palantir的業(yè)務來說,目前主要是超大B端客戶,前20大客戶占了40%的營收,最小的客戶也要200萬美金,業(yè)務屬性有30%偏向定制化服務。大型企業(yè)先行,中小企業(yè)跟進,未來會出現(xiàn)更多針對行業(yè)客戶的AI應用。
AI流程重組應該算是第四次企業(yè)流程重組浪潮,之前三次流程重組風口分別是:
1)1990年代,IT初次進入企業(yè),財務電算化和MIS管理
2)2000年代,互聯(lián)網進入企業(yè)
3)2010年代,移動互聯(lián)網進入企業(yè)
5、去IOE化
IOE是三個國外大的廠商的縮寫,I是IBM ,O是Oracle,E是EMC。當初所有的IT的基礎建設幾乎都是由這3家公司來提供的。阿里巴巴首先提出逐步去除對IBM小型機、Oracle數(shù)據庫及EMC存儲設備的依賴,取而代之的是成本更低、更靈活的X86服務器和開源軟件解決方案,從而實現(xiàn)技術自主、成本控制和系統(tǒng)架構的優(yōu)化。
國外去IOE的鼻祖是谷歌,谷歌自己起家的數(shù)據中心里,幾乎都是自己組裝的X86服務器和自研廉價設備和開源系統(tǒng)。
開源的Deepseek降低了企業(yè)部署AI基礎設施的成本和技術門檻,對于普及企業(yè)AI應用將是很大的助力,也可以通過自研和國產替代,去掉傳統(tǒng)的產品模式,變成徹底靈活的互聯(lián)網服務模式。意味著哪怕用一堆破設備,哪怕沒有頂尖的英偉達GPU,也可以自己DIY取勝。
開源vs閉源,通過開源迅速打開市占率,Deepseek不會是最后一個,與企業(yè)傾向于部署私有云的需求不謀而合。
6、贏家通吃法則
產業(yè)鏈是殘酷的,通行的法則是誰占主導地位,誰吞噬利潤。最典型的例子是果鏈,蘋果吃掉了最多的利潤,當然蘋果的供應商也得到了合理的利潤,相比而言給其他品牌手機供貨的供應商就更慘了點。
相應的供應鏈還有汽車(新勢力)、電池(寧德)、PC(聯(lián)想)、小家電(小米),服務和內容行業(yè)的供應鏈有電商(阿里)、游戲(騰訊)、視頻(抖音)、音樂(騰訊)等。在AI整個供應鏈上,目前英偉達占據主導地位,但是隨著應用的崛起,是否會讓出主導地位只是遲早的事情。
至于在AI整個供應鏈上,英偉達及其上游臺積電、下游服務器(配件如CPO、液冷等)、大模型、行業(yè)應用平臺、邊緣側設備、集成商,誰主沉浮,就看誰更稀缺,誰更能抓住客戶了。
7、MCU是否能搭上AI的車?
最近幾天,各行各業(yè)都在宣布爭相接入Deepseek,生怕錯過了這班車。正好蹭一下熱度,我司AG32 MCU采用的開發(fā)工具是開源的VSCode,已經實現(xiàn)通過插件方式接入Deepseek進行輔助開發(fā)編程,實現(xiàn)代碼的補全、生成、查錯和對話等功能,甚至可以通過我們官方提供的例程來生成需要的代碼,提升編程效率。
2024年也被稱為MCU的AI元年,將邊緣AI技術融入MCU是各家廠商都在關注的話題。
邊緣AI技術可以使MCU兼顧更高性能的數(shù)據處理任務,實現(xiàn)實時決策功能。例如,在智能工控領域,需要系統(tǒng)執(zhí)行太陽能和儲能系統(tǒng)中的電弧故障檢測,以及用于預測性維護的電機軸承故障檢測等功能,邊緣AI幫助MCU對設備和傳感器收集的數(shù)據進行實時分析和處理,提供更準確的決策,使系統(tǒng)實現(xiàn)更高的故障檢測準確率。
以上這些應用肯定不是AI MCU應用的全部,只不過是歐洲MCU大廠以其貧乏的想象力所能想到的一些有限場景。未來的MCU AI創(chuàng)新應用一定會在中國大放異彩并讓歐美原廠大跌眼鏡。
物聯(lián)網、邊緣計算等應用場景對MCU性能要求的不斷攀升,需要MCU在有限的功耗預算內實現(xiàn)高性能計算。MCU自身計算資源與存儲空間受限,實現(xiàn)高算力 AI功能更是難上加難。輕量級AI框架才是MCU需要的技術,螺螄殼里做道場,能否做出適合邊緣推理的類似Deepseek這樣節(jié)省算力和功耗的算力模型,可能是AI MCU能否跑出來的關鍵點。
跟訓練市場相比,LoT終端的邊緣推理需求的數(shù)量級大得多得多(百億朝上),MCU作為不起眼的小器件,承擔的是最后一米的活兒,可以稱得上是螞蟻雄兵,也許市場還未關注到這一步,但是早晚會發(fā)生。