來源:雷科技AI硬件組?|?編輯:冬日果醬?|?排版:JINX
就在本周,全球存儲(chǔ)芯片巨頭 SK 海力士宣布了最新一輪超過 1000 億元人民幣的投資,計(jì)劃用于擴(kuò)大包括 HBM(高帶寬內(nèi)存)在內(nèi)的下一代 DRAM 的產(chǎn)能。
一點(diǎn)也不意外。
過去一年半,從 ChatGPT 到 Sora 一次又一次刷新了人們對(duì)于人工智能的認(rèn)知。而且從目前來看,Claude 3 的震撼發(fā)布,GPT-5 流出的信息,似乎說明大語言模型(以下簡稱「大模型」)的智力涌現(xiàn)沒有絲毫放緩的跡象。
這讓 GPU「采購戰(zhàn)爭」變得愈演愈烈,連帶著臺(tái)積電的 CoWos 以及 HBM 產(chǎn)能也成為了絕對(duì)意義的「搶手貨」。但大模型在「爭奪」的其實(shí)不只是 HBM。
隨著手機(jī)、PC 等計(jì)算終端開始積極引入大模型,甚至出現(xiàn)了一系列基于大模型打造的 AI 原生終端,消費(fèi)電子產(chǎn)品對(duì)于 DRAM(內(nèi)存)、NAND(閃存)的需求也在變多、變大。
從 GPT-3.5 到 Llama 3,大模型要繼續(xù)帶飛存儲(chǔ)芯片
當(dāng)?shù)貢r(shí)間 4 月 18 日,Meta 發(fā)布了最新的開源大模型 Llama 3,再次奪回了開源大模型的「王座」。但值得注意的是,Llama 3 的強(qiáng)大很大程度上離不開 15 萬億 Token 的訓(xùn)練數(shù)據(jù),這不僅是小公司難以企及的規(guī)模,甚至比谷歌之前開源的 Gemma 大模型:
還多出一倍不止。
從 GPT-3.5 到 Llama 3,時(shí)至今日,大模型的智力涌現(xiàn)依然依托于 Scaling laws(OpenAI 提出)指導(dǎo)下的大力出奇跡,對(duì)算力和數(shù)據(jù)有著近乎沒有上限的需求。這直接孕育了海量的 GPU 需求,也帶動(dòng)了 HBM 的需求。
根據(jù)國外研究機(jī)構(gòu)的拆解,英偉達(dá)力推的 H100 NVL 版本配備了 12 個(gè) 16GB HBM 堆棧,而單顆 16GB HBM 堆棧,成本就高達(dá) 240 美元。也就是說,僅僅 HBM 的成本就逼近 3000 美元,毫無疑問超過了制造和封裝,是 H100 成本中最貴的一項(xiàng)。
即便如此,SK 海力士、美光 2024 年的 HBM 產(chǎn)能,也早被英偉達(dá)、AMD、英特爾、谷歌、微軟等半導(dǎo)體廠商預(yù)訂一空。
高昂的定價(jià)和供不應(yīng)求的訂單,也讓 HBM 廠商賺得盆滿鍋滿。4 月 25 日剛公布的財(cái)報(bào)顯示,SK 海力士今年第一季度營業(yè)利潤為 2.8860 萬億韓元(約合人民幣 151.8 億元),不僅扭虧為盈,而且比起已經(jīng)很樂觀的市場預(yù)期:
還高出 30%。
要知道,這還是產(chǎn)能遠(yuǎn)遠(yuǎn)無法滿足需求的情況。
而另一方面,大模型預(yù)訓(xùn)練最重要的一步就是語料庫的采集。如果企業(yè)需要利用私有數(shù)據(jù)重新訓(xùn)練模型,同樣也要經(jīng)過數(shù)據(jù)收集、清洗等步驟。
不僅如此,涉及數(shù)據(jù)就不可避免要涉及「數(shù)據(jù)怎么存儲(chǔ)、怎么管理、怎么保證數(shù)據(jù)安全,」聯(lián)想凌拓首席執(zhí)行官陸大昕在年初的一次演講中表示,「這些都是后續(xù)大模型建設(shè)中的剛需?!?/p>
所以不難想象,伴隨大模型進(jìn)一步從數(shù)據(jù)中心擴(kuò)散到更多、更分散的服務(wù)器,以及大模型應(yīng)用的擴(kuò)展和普及,需要更大的數(shù)據(jù)存儲(chǔ)容量。這也就不奇怪,已經(jīng)有大量廠商正在面向 AI 需求打造數(shù)據(jù)存儲(chǔ)產(chǎn)品和解決方案。
國內(nèi)知名存儲(chǔ)廠商江波龍董事長蔡華波還在 2024 中國閃存市場峰會(huì)上表示:
江波龍要從存儲(chǔ)模組廠向半導(dǎo)體品牌公司做轉(zhuǎn)型,經(jīng)營模式從原有的價(jià)差模式向服務(wù)模式轉(zhuǎn)型。
AI 硬件元年,終端吞噬存儲(chǔ)芯片
都說 2024 年是 AI 硬件元年,其實(shí)并不夸張。不只是很多人都聽過的 AI 手機(jī)、AI PC,還有大量硬件產(chǎn)品,包括智能眼鏡、電視乃至產(chǎn)品形態(tài)更新穎的 AI 原生終端,都在 2024 年集體亮相。
盡管很多產(chǎn)品在擁抱 AI 的過程中含有不少「水分」,比如可能只是接入了類 ChatGPT 的生成式 AI 聊天機(jī)器人,或者只是引入云端大模型的能力。但從「AI 消除」到「AI 通話/閱讀摘要」,我們也要承認(rèn),基于背后的大模型,生成式 AI 的確開始改變我們的數(shù)字體驗(yàn)。
同時(shí),不管是手機(jī)還是 PC 廠商都認(rèn)同端側(cè)大模型的勢(shì)在必行,只有結(jié)合端側(cè)和云端大模型,計(jì)算終端的體驗(yàn)才能發(fā)生革命性的演變。但與此相對(duì)的是,端側(cè)算力和存儲(chǔ)配置也變得前所未有地重要。
君不見,江波龍上個(gè)月就宣布將與西部數(shù)據(jù)「加強(qiáng)合作關(guān)系,積極探索并共同支持下一代基于人工智能的移動(dòng)終端存儲(chǔ)和應(yīng)用的市場機(jī)遇?!垢唧w地說,江波龍要與西部數(shù)據(jù)聯(lián)手面向手機(jī)市場提供「領(lǐng)先的定制化嵌入式存儲(chǔ)解決方案」——也就是閃存,對(duì)應(yīng)到手機(jī)上就是存儲(chǔ)空間。
不僅如此,從財(cái)報(bào)公布的數(shù)據(jù)來看,截止 3 月 31 日,江波龍的存貨賬面金額猛然上升至 76 億元,同比增長了 28%。按照江波龍的說法,存貨增長主要是因?yàn)閼?zhàn)略備貨增加。但顯然,更根本的原因是江波龍看好大模型在手機(jī)和 PC 等主要計(jì)算終端上的落地,必然需要更大的存儲(chǔ)配置。
當(dāng)然也不只是江波龍,前文提到的 SK 海力士以及三星都在向手機(jī)、PC 市場提供更大甚至更高帶寬的內(nèi)存,還計(jì)劃參考 HBM,在 LPDDR 基礎(chǔ)上引入新的堆疊和封裝方式。
從數(shù)據(jù)中心到計(jì)算終端,這一輪席卷全球的 AI 浪潮不僅在助推存儲(chǔ)芯片行業(yè)走出寒冬,也在將行業(yè)引向一個(gè)全新的周期。
寫在最后
如果你相信大模型一定是未來,一定會(huì)走進(jìn)千行百業(yè),走進(jìn)千家萬戶,那毫無疑問的是,存儲(chǔ)芯片也一定是未來。
說到底,作為推動(dòng) AI 進(jìn)化的三個(gè)核心要素之一,隨著 AI 的逐步落地和普及,數(shù)據(jù)一定需要更大、更快的內(nèi)存和閃存,也需要更適合 AI 時(shí)代的存儲(chǔ)解決方案。
這是挑戰(zhàn),也是機(jī)遇。
盡管 SK 海力士、三星、美光三大存儲(chǔ)芯片巨頭在技術(shù)、資本、人才上的優(yōu)勢(shì)不言而喻,也幾乎壟斷了 HBM 供應(yīng)。但對(duì)于包括江波龍?jiān)趦?nèi)的國產(chǎn)存儲(chǔ)廠商來說,面向 AI 需求的儲(chǔ)存解決方案依然是一個(gè)全新的領(lǐng)域,不管在個(gè)人移動(dòng)終端上,還是在企業(yè)級(jí)市場上。
同時(shí),這里也孕育了全新的可能。