谷歌與Open AI“AI大戰(zhàn)”的真正交火將會在2024年。
2023年最后一個月,谷歌發(fā)布了原生多模態(tài)大模型Gemini,稱其在大語言模型領域的32個常用測試指標里,有30項領先于GPT-4。Gemini針對不同任務設定了Nano、Pro、Ultra三個版本,目前上線的只是Gemini Pro版,“頂配”Gemini Ultra將于2024年初推出。隨后,谷歌發(fā)布2023年度AI研究總結,給出“全面碾壓OpenAI”的萬字長文。
OpenAI首席執(zhí)行官山姆·奧特曼公布的圣誕愿望清單,可以理解為OpenAI的“應戰(zhàn)書”,并透露將在2024年推出GPT-5。
外界評論,2024年全球AI大模型比拼的焦點是GPT-5和Gemini Ultra,雖然目前兩個模型都還被“捂”在閨中,無法直接比較,但模型之爭背后的數據、算力、生態(tài)的全方位較量已經開始。
1月11日凌晨,OpenAI的GPT Store(GPT應用商店) 正式上線,首先面向付費用戶開放,最終將直接進行創(chuàng)收。這意味著“App Store”商業(yè)模式引入大模型領域。也是在這幾天,谷歌DeepMind宣布了SARA-RT、RT-Trajectory、AutoRT三項具身智能成果。
2024年元旦剛過,OpenAI與谷歌AI之爭火藥味彌漫,一場關于AI核心基礎的變革山雨欲來。
round1:多模態(tài)數據,誰擁有更多?
2024年大模型的競爭焦點,業(yè)界的共識是“多模態(tài)模型”,無論是GPT-5還是Gemini Ultra,都主打“多模態(tài)”,這意味著訓練這些模型需要海量高質量的視頻、音頻、圖片等數據。
谷歌和Open AI,誰更擁有源源不斷的此類資源?
360集團創(chuàng)始人、董事長周鴻祎在與甲子光年創(chuàng)始人兼CEO張一甲的對話中表示,“人才密度、算力密度和數據質量的高低是決定通用大模型勝負的關鍵,谷歌的人才不是問題,算力也不是問題,在數據方面擁有搜索、YouTube和Android生態(tài)系統(tǒng)”。有消息稱,谷歌訓練Gemini時所用的數據量是GPT-4的兩倍之多。
Open AI同樣擁有自己的生態(tài)。如果說搜索、短視頻是互聯網時代的“超級應用”,大模型時代,殺手級應用很可能是“AI智能體”,從這個意義上看,Open AI的GPT商店有可能建立龐大的“AI超級應用”。據悉,目前用戶自定義構建的ChatGPT助手已超過300萬個。
接下來,數據競爭的焦點有可能是機器數據。螞蟻集團副總裁、金融大模型負責人王曉航表示:“有一種說法是預計2025年左右,全世界50%左右的數據會來自感知和傳感等IoT(物聯網)數據,這部分數據能產生新的能力?!蹦壳暗臄祿碓从趥鹘y(tǒng)計算平臺,如PC、服務器、手機和平板電腦,嵌入式數據則來源于極其廣泛的設備類型。
因此,大模型與硬件結合將成為2024年重要的創(chuàng)新方向,也將創(chuàng)造智能硬件新物種。去年11月,由山姆·奧特曼投資的智能穿戴設備公司推出一個基于大模型的智能穿戴設備AI Pin,有人稱其“有可能取代智能手機”。AI Pin將于2024年3月批量上市。
基于此,我們就很好理解,為什么谷歌Gemini大模型也包括了Nano版本。“當手機上的傳感器都跟大模型整合,會產生非常多的應用場景,谷歌推出Gemini Nano版本,能夠在終端、手機等各種設備上部署,與安卓系統(tǒng)緊密聯系在一起?!敝茗櫟t表示。
Pixel 8 Pro 在錄音機應用中使用 Gemini Nano 來總結會議音頻,即使沒有網絡連接也可以實現
大模型的目標不僅在于理解文本、圖片、視頻,它必須真正理解物理世界。谷歌Deep Mind首席執(zhí)行官德米斯·哈斯比斯表示:“谷歌DeepMind已經在研究如何將Gemini與機器人技術結合,與世界進行物理交互,真正的多模態(tài)需要包括觸摸和觸覺的反饋?!?/p>
2024年元旦剛過,谷歌DeepMind又拿出了SARA-RT、RT-Trajectory、AutoRT三項機器人與大模型結合的成果,其中AutoRT是一個機器人數據收集系統(tǒng),可以一次管理20個機器人。而在此前,OpenAI也投資了一家人形機器人公司1X。谷歌與OpenAI,誰都不愿錯失任何一個有可能產生AI爆品的機會。
Round2:算力是關鍵底座,誰主動權更大?
在谷歌發(fā)布Gemini大模型時,特別強調自家的TPU(AI專用張量處理器)v4和v5e對大規(guī)模訓練的給力支撐。為何?因為算力資源是AI的關鍵基礎設施,是AI研究、AI模型訓練、AI商業(yè)應用的關鍵利器。有信息透露,谷歌訓練Gemini 1.0時所用算力是OpenAI訓練GPT-4的四到五倍。谷歌除了想凸顯自身的算力優(yōu)勢,還要做算力服務的生意。當天,谷歌還發(fā)布了號稱“迄今為止最強大、最高效、可擴展的TPU系統(tǒng)”Cloud TPU v5p,將用于開發(fā)更高層次的AI大模型。
在大多數基準測試中,Gemini 的性能都超越了 GPT-4
谷歌這樣做當然也希望“打臉”O(jiān)penAI——就在谷歌發(fā)布Gemini前,OpenAI宣布暫停ChatGPT Plus付費新用戶的注冊,此前還出現了ChatGPT周期性的宕機。直到去年12月中旬,?山姆·奧特曼才發(fā)文稱:“我們重新啟動了ChatGPT Plus付費訂閱的注冊,感謝您的耐心等待,同時我們找到了更多的GPU?!?/p>
山姆·奧特曼沒有說明,其GPU究竟來自英偉達還是微軟,但至少承認了一件事:OpenAI缺算力。盡管OpenAI的“好伙伴”微軟已推出AI專用處理器,OpenAI也用上了,甚至還挖來了前谷歌TPU負責人主管OpenAI的硬件,但短期來看,其算力資源仍無法與谷歌相提并論。有報道稱,即便OpenAI在兩年內將GPU的總數增加四倍,依然無法趕上谷歌的算力資源,目前OpenAI 、Meta、CoreWeave、甲骨文、亞馬遜的GPU總和,仍小于谷歌所擁有的TPU v5的數量。
算力資源的差距有可能在2024年改變谷歌與OpenAI模型差距,因為擁有更多的算力資源意味著能進行更多的試驗、更快的迭代模型。按照SemiAnalysis預測,到2024年年底,谷歌模型訓練的AI算力資源有可能是OpenAI的20倍。
業(yè)界也有人說,缺算力花錢買就好了,OpenAI正在啟動新一輪融資,并不缺錢,自己賺錢能力也蒸蒸日上。最新消息顯示,OpenAI近期年化收入突破16億美元,主要收入來源包括ChatGPT Plus會員服務、API模型訪問以及與微軟的合作,預計到2024年底OpenAI年化收入可達50億美元。
更何況,剛剛上線的GPT Store,帶來OpenAI新的商業(yè)變現的想象空間。
不過,小冰公司CEO李笛認為:“GPT Store的建立不是為了商業(yè)模式,更是為了收集究竟什么樣的GPT落地應用是有效的,是為了從開發(fā)者處獲得想法和靈感。”這樣看起來,OpenAI建立GPT Store的目的并不單純,那么開發(fā)者會不會把好的創(chuàng)意拿出來,就是未知數。瀾碼科技創(chuàng)始人、CEO周健也認為,當前GPT-4的能力對于發(fā)展GPT store還存在瓶頸,GPT Store開發(fā)者是否能夠做出用戶愿意買單的應用,需要等到OpenAI發(fā)布GPT-5后才知。
更何況,目前情況看,芯片并不是想買就能買到,OpenAI更不希望淪為GPU和云計算公司的“打工人”。目前看,OpenAI與微軟的關系依然牢固,微軟也拿到了OpenAI無投票資格的董事會成員資格,但福布斯卻預測,2024年OpenAI與微軟就有可能走向分手,“隨著OpenAI大到蠶食微軟客戶”。OpenAI還在尋找英偉達之外其他途徑來解決眼下算力不足的問題,包括最近與AMD洽談合作的可能性,也自主研發(fā)芯片、評估潛在收購目標。
基于種種不確定性,OpenAI希望將更多的“算力主動權”掌握在自己手里。最近,OpenAI與人工智能芯片初創(chuàng)公司Rain AI在2019年簽署的一份意向書被曝出,OpenAI將購買該公司總價值5100萬美元的NPU芯片,而在此前,山姆·奧特曼自己也投資了這家公司。這一舉動引起廣泛關注,因為Rain AI的NPU芯片采用神經擬態(tài)技術,模仿人腦的結構和功能,被認為具有低成本高能效的潛力,有望為OpenAI提供所需的硬件支持。
與Rain AI的這一交易,被視為OpenAI為確保其AI項目的芯片和硬件供應而進行的關鍵舉措之一。但事實上這家芯片創(chuàng)業(yè)公司給出的出貨時間至少要到2024年底。算力的差距,可能在2024年成為OpenAI與谷歌AI競爭的“關鍵變量”。
Round3:醞釀底層變革,誰先實現AGI?
更或許,谷歌與OpenAI的真正較量并不是GPT-5和Gemini Ultra,而是誰先實現AGI(通用人工智能)。
目前看,無論是GPT還是Gemini 都基于Transformer 架構。谷歌團隊在2017年發(fā)表的論文《Attention Is All ?You ?Need》提出了Transformer 架構,如今的主流大模型產品,大多基于該架構。有人分析,谷歌擁有原創(chuàng)AI架構、算力、數據、技術、人才等顯著優(yōu)勢,但其推出的Gemini也就僅領先GPT-4一點點,這或許意味著Transformer架構存在天花板。
Google DeepMind資深工程師盧一峰在與美國工程院院士張宏江對話中坦言,“現在的Transformer架構已經比當年有了很大的優(yōu)化和改進”,從2016年到現在,整個業(yè)界在軟件、硬件和數據方面對Transformer架構進行了許多組合優(yōu)化,“已經將其推進到了一個局部最優(yōu)狀態(tài)”?!拔艺J為我們可以繼續(xù)改進它,還有很大的空間,但要顯著改變它則有一定難度。?這個難度在于這幾個維度已經彼此交織在一起?!北R一峰說。
需要有新的架構來“接力”這場AI加速跑。
福布斯在最近出爐的《2024年十大AI趨勢預測》指出,“盡管我們不認為Transformer架構在2024年將消失,但確信將出現新一代更先進的AI架構替代方案,而且新的替代架構將會在2024年得到真正的應用?!备2妓乖陬A測中提及了斯坦福大學的Chris Ré實驗室正在構建一種新的模型架構,這種架構可隨序列長度以次二次方的方式擴展(而不是像Transformer那樣以四次方的方式擴展)。將使得人工智能模型計算密度更低,并能更好的處理長序列。“替代候選”還包括麻省理工學院開發(fā)的液態(tài)神經網絡以及由Transformer聯合發(fā)明人之一Llion
Jones所創(chuàng)公司推出的Sakana架構。據悉,目前Transformer架構的五位共同發(fā)明者均已離開了谷歌,開啟了各自的AI創(chuàng)新創(chuàng)業(yè)之旅,這些親手孕育了Transformer的人有可能就是Transformer的“掘墓人”。
此外,隨著大模型能力的不斷演進,需要帶來“跨越式變革”的未來計算,量子計算機或許是硬件“接盤”方案。創(chuàng)世伙伴資本主管合伙人周煒表示:“量子計算擅長的就是處理排列組合、并發(fā)的問題,當量子計算與大模型結合在一起能夠解決很多問題。”
“首先,人工智能領域的算法,大部分屬于并行計算范疇。而量子計算機擅長進行并行計算,因為它可以同時計算和存儲0、1兩種狀態(tài),無需像電子計算機那樣消耗額外的計算資源,譬如串聯多個計算單元,或將計算任務在時間上并列。計算任務越復雜,量子計算就越具備優(yōu)勢。其次,運行ChatGPT所需的硬件條件,同樣也十分適合導入當前體積龐大的量子計算機,二者都需要安裝在高度集成的計算中心里,由一支專業(yè)化技術團隊進行管理支撐?!敝袊F代國際關系研究院科技與網絡安全研究所人工智能項目負責人譚笑間表示。
2022年,來自谷歌、微軟、加州理工學院等機構的研究者從原理上證明了“量子優(yōu)勢”在預測可觀測變量、量子主成分分析以及量子機器學習中確實存在。量子計算與人工智能兩大前沿技術合流的趨勢正在變得越來越明朗。在量子計算、量子機器學習方面,谷歌是先行者。如果量子計算機能夠成為未來AI硬件的替代方案,谷歌無疑擁有比OpenAI更多的優(yōu)勢。
谷歌會比OpenAI更快實現AGI嗎?亦或,最先實現AGI的既不是谷歌也不是OpenAI,而是另外其他公司?一切皆有可能。
作者丨特約撰稿??李佳師,編輯丨邱江勇,美編丨馬利亞,監(jiān)制丨連曉東