2024年大型云端CSPs,如Microsoft、Google、Meta、AWS等廠商,將仍為采購高階主打訓練用AI server的主力客群,以作為LLM及AI建模基礎。待2024年CSPs逐步完成建置一定數(shù)量AI訓練用server基礎設施后,2025年將更積極從云端往邊緣AI拓展,包含發(fā)展較為小型LLM模型,以及建置邊緣AI server,促其企業(yè)客戶在制造、金融、醫(yī)療、商務等各領(lǐng)域應用落地。
此外,因AI PC或NB在計算機設備基本架構(gòu)組成與AI server較為相近,具有一定程度運算能力、可運行較小型LLM及GenAI等運用,有望成為CSPs連接云端AI基礎設施及邊緣AI小型訓練或推理應用的最后一里路。
觀察近期芯片廠在AI PC的布局,Intel的Lunar Lake及AMD的Strix Point都是在本月COMPUTEX展會首次發(fā)布的SoC,并都符合AI PC標準,故盡管Lunar Lake及Strix Point所配套的PC機種分別預計于今年第四季及今年第三季才上市,PC OEM會場工作人員僅以口頭說明該兩類機種的規(guī)格表現(xiàn),但該兩款SoC及所搭載的PC機種仍為活動中市場主要關(guān)注焦點。
在品牌端,ASUS及Acer繼5月推出搭載Qualcomm Snapdragon X Elite的機種后,也在COMPUTEX展會期間推出搭載Lunar Lake、Strix Point的機種,MSI僅推出搭載Lunar Lake、Strix Point的機種;新款AI PC建議售價落于US$1,399-1,899區(qū)間。
TrendForce集邦咨詢認為,2025年隨著AI應用完善、能處理復雜任務、提供更好的用戶體驗并提高生產(chǎn)力,將帶動消費者對于更智能、更高效的終端設備需求迅速增長,AI NB滲透率將快速成長至20.4%的水位,預期AI NB浪潮亦將帶動DRAM Content增長。
TrendForce集邦咨詢預估,NB DRAM平均搭載容量將自2023年的10.5GB年增12%至2024年的11.8GB。展望2025年,隨AI NB滲透率自2024年的1%提升至2025年的20.4%,且AI NB皆搭載16GB以上DRAM,將至少帶動整體平均搭載容量增長0.8GB,增幅至少為7%。
TrendForce集邦咨詢認為,AI NB除了帶動NB DRAM平均搭載容量提升外,還將帶動省電、高頻率存儲器的需求。在這種情況下,相較于DDR,LPDDR更能凸顯其優(yōu)勢,因而加速LPDDR替代DDR的趨勢。對原本追求可擴展性的DDR、SO-DIMM方案而言,轉(zhuǎn)換至同屬模塊的LPDDR、LPCAMM方案亦為LPDDR on board之外的選項之一。