加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • ?01、英偉達(dá):兩年12款GPU
    • AMD為生成式AI和大規(guī)模AI系統(tǒng)的可靠替代者
    • AMD市場會有小幅上漲
    • 更多的挑戰(zhàn)即將到來
  • 推薦器件
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

2024年AI芯片,競爭加劇

02/18 09:30
3097
閱讀需 15 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

作者:豐寧

作為人工智能領(lǐng)域的領(lǐng)軍企業(yè),英偉達(dá)有著強(qiáng)大的技術(shù)實(shí)力和廣泛的應(yīng)用場景,在過去一年中,生成式 AI 的需求爆發(fā)為其帶來了巨大的增長機(jī)遇。

根據(jù)富國銀行的統(tǒng)計,英偉達(dá)目前在數(shù)據(jù)中心AI市場擁有98%的市場份額,而AMD僅有1.2%的市場份額,英特爾則只有不到1%。由于英偉達(dá)的AI芯片價格高昂,且存在著供應(yīng)不足的問題,這也迫使一些客戶希望選擇其他的替代產(chǎn)品。在競爭對手林立的同時,英偉達(dá)也正不斷推動產(chǎn)品研發(fā)和加快更新迭代速度。

?01、英偉達(dá):兩年12款GPU

近日,servethehome披露了英偉達(dá)的數(shù)據(jù)中心產(chǎn)品路線圖,展示了英偉達(dá)面向人工智能市場的產(chǎn)品規(guī)劃,將推出H200、B100和?X100 等多款GPU。

英偉達(dá)正計劃增加面向數(shù)據(jù)中心市場的產(chǎn)品種類,推出多款面向AI計算和HPC的產(chǎn)品,讓不同的客戶可以有針對性購買產(chǎn)品,降低購買芯片難度。通過架構(gòu)圖可以看到,未來英偉達(dá)將會對基于Arm 架構(gòu)的產(chǎn)品和基于x86架構(gòu)的產(chǎn)品分開。

H200:2024 年第二季度開始供貨

2023年11 月 13 日,英偉達(dá)宣布推出 NVIDIA HGX H200,為全球領(lǐng)先的 AI 計算平臺帶來強(qiáng)大動力。該平臺基于 NVIDIA Hoppe 架構(gòu),配備 NVIDIA H200 Tensor Core GPU 和高級內(nèi)存,可處理生成 AI 和高性能計算工作負(fù)載的海量數(shù)據(jù)。H200 將于 2024 年第二季度開始向全球系統(tǒng)制造商和云服務(wù)提供商供貨。NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 具有更快、更大的內(nèi)存,可加速生成式 AI 和大型語言模型,同時推進(jìn) HPC 工作負(fù)載的科學(xué)計算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。英偉達(dá)表示,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。

L40S:2023年秋季推出

L40S是英偉達(dá)最強(qiáng)大的GPU之一,其在2023年推出,其旨在處理下一代數(shù)據(jù)中心工作負(fù)載:生成式AI、大型語言模型(LLM)推理和訓(xùn)練,3D圖形渲染、科學(xué)模擬等場景。與前一代GPU(如A100和H100)相比,L40S在推理性能上提高了高達(dá)5倍,在實(shí)時光線追蹤(RT)性能上提高了2倍。內(nèi)存方面,它配備48GB的GDDR6內(nèi)存,還加入了對ECC的支持,在高性能計算環(huán)境中維護(hù)數(shù)據(jù)完整性還是很重要的。L40S配備超過18,000個CUDA核心,這些并行處理器是處理復(fù)雜計算任務(wù)的關(guān)鍵。L40S更注重可視化方面的編解碼能力,而H100則更專注于解碼。盡管H100的速度更快,但價格也更高。

GH200/GH200NVL:2024年第二季度投

2023年8月,英偉達(dá)宣布推出新一代GH200 Grace Hopper超級芯片,新芯片將于2024年第二季投產(chǎn)。NVIDIA GH200,結(jié)合了H200 GPU和Grace CPU,將Hopper架構(gòu)GPU和Arm架構(gòu)Grace CPU結(jié)合,使用了NVLink-C2C將兩者連接起來。每個Grace Hopper Superchip包含了624GB的內(nèi)存,其中有144GB的HBM3e和480GB的LPDDR5x內(nèi)存。GH200和GH200NVL將使用基于Arm 的 CPU 和 Hopper 解決大型語言模型的訓(xùn)練和推理問題。GH200NVL采用了NVL技術(shù),具有更好的數(shù)據(jù)傳輸速度。此外,“B”系列GPU也有望在2024年下半年推出,替代之前的第九代GPU Hopper。

B100、B40、GB200、GB200NVL也將在2024推出

英偉達(dá)計劃推出用基于x86架構(gòu)的B100接替H200,計劃用基于ARM架構(gòu)的推理芯片GB200替代 GH200。此外,英偉達(dá)也規(guī)劃了B40產(chǎn)品來替代L40S,以提供更好的面向企業(yè)客戶的AI推理解決方案。根據(jù)英偉達(dá)公布的信息,該公司計劃于 2024 年發(fā)布 Blackwell 架構(gòu),而采用該架構(gòu)的 B100 GPU 芯片預(yù)計將大幅提高處理能力,初步評估數(shù)據(jù)表明,與現(xiàn)有采用 Hopper 架構(gòu)的 H200 系列相比,性能提升超過 100%。這些性能提升在 AI 相關(guān)任務(wù)中尤為明顯,B100 在 GPT-3 175B 推理性能基準(zhǔn)測試中的熟練程度就證明了這一點(diǎn)。

X100計劃2025 年發(fā)布

英偉達(dá)還披露了 X100 芯片的計劃,計劃于 2025 年發(fā)布,該芯片將擴(kuò)大產(chǎn)品范圍,包括企業(yè)用途的 X40 和 GX200,在 Superchip 配置中結(jié)合 CPU 和 GPU 功能。同樣,GB200預(yù)計將效仿B100,融入超級芯片概念。

從英偉達(dá)的產(chǎn)品路線來看,在未來1-2 年,AI 芯片市場將再次天翻地覆。

AMD為生成式AI和大規(guī)模AI系統(tǒng)的可靠替代者

在英偉達(dá)占據(jù)絕對地位的AI芯片領(lǐng)域中,AMD是為數(shù)不多具備可訓(xùn)練和部署AI的高端GPU公司之一,業(yè)界將其定位為生成式AI和大規(guī)模AI系統(tǒng)的可靠替代者。AMD與英偉達(dá)展開競爭的戰(zhàn)略之一,就包括功能強(qiáng)大的MI300系列加速芯片。當(dāng)前,AMD 正在通過更強(qiáng)大的 GPU、以及創(chuàng)新的CPU+GPU平臺直接挑戰(zhàn)英偉達(dá)H100的主導(dǎo)地位。AMD最新發(fā)布的MI300目前包括兩大系列,MI300X系列是一款大型GPU,擁有領(lǐng)先的生成式AI所需的內(nèi)存帶寬、大語言模型所需的訓(xùn)練和推理性能;MI300A系列集成CPU+GPU,基于最新的CDNA 3架構(gòu)和Zen 4 CPU,可以為HPC和AI工作負(fù)載提供突破性能。毫無疑問,MI300不僅僅是新一代AI加速芯片,也是AMD對下一代高性能計算的愿景。

MI300X 加速卡已在2023年推出

AMD MI300X 擁有最多 8 個 XCD 核心,304 組 CU 單元,8 組 HBM3 核心,內(nèi)存容量最大可達(dá) 192GB,相當(dāng)于英偉達(dá)H100(80GB)的2.4 倍,同時HBM內(nèi)存帶寬高達(dá)5.3TB/s,Infinity Fabric總線帶寬896GB/s。擁有大量板載內(nèi)存的優(yōu)點(diǎn)是,只需更少的GPU 來運(yùn)行內(nèi)存中的大模型,省去跨越更多GPU的功耗和硬件成本。2023年12 月,AMD 在推出旗艦 MI300X 加速卡之外,還宣布 Instinct MI300A APU 已進(jìn)入量產(chǎn)階段,預(yù)估2024年開始交付,上市后有望成為世界上最快的 HPC 解決方案。

MI300A:預(yù)估2024年開始交付

MI300A 是全球首款適用于HPC和AI的數(shù)據(jù)中心APU,結(jié)合了CDNA 3 GPU內(nèi)核、最新的基于AMD“Zen 4” x86的CPU內(nèi)核以及128GB HBM3 內(nèi)存,通過3D封裝和第四代AMD Infinity架構(gòu),可提供HPC和AI工作負(fù)載所需的性能。與上一代 AMD Instinct MI250X5 相比,運(yùn)行HPC和AI工作負(fù)載,F(xiàn)P32每瓦性能為1.9 倍。能源效率對于HPC和AI領(lǐng)域至關(guān)重要,因?yàn)檫@些應(yīng)用中充斥著數(shù)據(jù)和資源極其密集的工作負(fù)載。MI300A APU將CPU和GPU核心集成在一個封裝中,可提供高效的平臺,同時還可提供加速最新的AI模型所需的訓(xùn)練性能。在AMD內(nèi)部,能源效率的創(chuàng)新目標(biāo)定位為30×25,即2020-2025年,將服務(wù)器處理器和AI加速器的能效提高30倍。

AMD市場會有小幅上漲

綜合來看,全球AI熱潮在2023年開始爆發(fā),2024年將繼續(xù)成為業(yè)界的焦點(diǎn)。與2023年不同的是,過去在AI HPC領(lǐng)域占據(jù)主導(dǎo)地位的英偉達(dá),今年將面臨AMD MI300系列產(chǎn)品的挑戰(zhàn)。由于微軟、Meta等云端服務(wù)大廠在一兩年前就開始陸續(xù)預(yù)訂英偉達(dá)的MI300系列產(chǎn)品,并要求ODM廠商開始設(shè)計專用的AI服務(wù)器,使用MI300系列產(chǎn)品線,以分散風(fēng)險和降低成本。

業(yè)界預(yù)計,今年AMD的MI300系列芯片市場需求至少達(dá)到40萬顆,如果臺積電提供更多的產(chǎn)能支持,甚至有機(jī)會達(dá)到60萬顆。AMD的CEO蘇姿豐在圣何塞舉辦的AMD Advancing AI活動上談到,包括GPU、FPGA等在內(nèi)的數(shù)據(jù)中心加速芯片,未來四年每年將以50%以上的速度增長,從2023年的300億市場規(guī)模,到2027年將超過1500億。她表示,從業(yè)多年,這種創(chuàng)新速度比她以往見到的任何技術(shù)都快。

根據(jù)富國銀行的預(yù)測,AMD雖然在2023年的AI芯片的營收僅為4.61億美元,但是2024年將有望增長到21億美元,將有望拿到4.2%的市場份額。英特爾也可能拿到將近2%的市場份額。這將導(dǎo)致英偉達(dá)的市場份額可能將小幅下滑到94%。

不過,根據(jù)蘇姿豐在1月30日的電話會議上公布的數(shù)據(jù)顯示,AMD在2023年四季度的AI芯片營收已經(jīng)超越此前預(yù)測的4億美元,同時2024年AMD的AI芯片營收預(yù)計也將達(dá)到35億美元,高于先前預(yù)測的20億美元。如果,AMD的預(yù)測數(shù)據(jù)準(zhǔn)確的話,那么其2024年在AI芯片市場的份額有望進(jìn)一步提高。當(dāng)然,英偉達(dá)也并不會放任其在AI市場的壟斷地位受到侵蝕。

在目前的人工智能智能加速芯片市場,英偉達(dá)的A100/H100系列AI GPU雖然價格高昂,但一直是市場的首選。今年英偉達(dá)更為強(qiáng)大的Hopper H200和Blackwell B100也將會上市。

而根據(jù)一些研究機(jī)構(gòu)的預(yù)測,英偉達(dá)計劃今年銷售約 150 萬至 200 萬個 AI GPU,這可能將是其2023年銷量的三倍,這也意味著英偉達(dá)將會徹底解決供應(yīng)的瓶頸問題,面對AMD和英特爾的競爭,屆時英偉達(dá)的價格策略可能也會有所調(diào)整。

更多的挑戰(zhàn)即將到來

英偉達(dá)要面對的不僅僅是AMD,如今自研AI芯片的風(fēng)潮正在科技巨頭之間興起。今年2月,科技巨頭Meta Platforms對外證實(shí),該公司計劃今年在其數(shù)據(jù)中心部署最新的自研定制芯片,并將與其他GPU芯片協(xié)調(diào)工作,旨在支持其 AI 大模型發(fā)展。

研究機(jī)構(gòu)SemiAnalysis創(chuàng)始人Dylan Patel表示,考慮到Meta的運(yùn)營規(guī)模,一旦大規(guī)模成功部署自研芯片,有望將每年節(jié)省數(shù)億美元能源成本,以及數(shù)十億美元芯片采購成本。

OpenAI也開始尋求數(shù)十億美元的資金來建設(shè)人工智能芯片工廠網(wǎng)絡(luò)。外媒報道,OpenAI正在探索制造自己的人工智能芯片。并且Open AI的網(wǎng)站開始招募硬件相關(guān)的人才,官方網(wǎng)站上有數(shù)個軟硬件協(xié)同設(shè)計的職位在招聘,同時在去年九月OpenAI還招募了人工智能編譯器領(lǐng)域的著名牛人Andrew Tulloch加入,這似乎也在印證OpenAI自研芯片方面的投入。

不止是Meta和OpenAI,據(jù)The Information統(tǒng)計,截至目前,全球有超過18家用于 AI 大模型訓(xùn)練和推理的芯片設(shè)計初創(chuàng)公司,包括Cerebras、Graphcore、壁仞科技、摩爾線程、d-Matrix等,融資總額已超過60億美元,企業(yè)整體估值共計超過250億美元(約合1792.95億元人民幣)。這些公司背后的投資方包括紅杉資本、OpenAI、五源資本、字節(jié)跳動等。

如果加上微軟、英特爾、AMD等科技巨頭和芯片龍頭的“造芯”行動,對標(biāo)英偉達(dá)的 AI 芯片企業(yè)數(shù)量最終就將超過20家。如此來看,盡管英偉達(dá)在數(shù)據(jù)中心、游戲和人工智能加速器等關(guān)鍵增長領(lǐng)域保持著引人注目的技術(shù)領(lǐng)導(dǎo)地位,但公司面臨越來越多的競爭威脅。2024年英偉達(dá)也必然會面臨更大的挑戰(zhàn)。

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風(fēng)險等級 參考價格 更多信息
AT91SAM9G20B-CU 1 Atmel Corporation RISC Microcontroller, 32-Bit, FAST, ARM9 CPU, 400MHz, CMOS, PBGA217, 15 X 15 MM, 0.80 MM PITCH, GREEN, MO-205, LFBGA-217

ECAD模型

下載ECAD模型
$11.13 查看
STM32F407VET6 1 STMicroelectronics High-performance foundation line, Arm Cortex-M4 core with DSP and FPU, 512 Kbytes of Flash memory, 168 MHz CPU, ART Accelerator, Ethernet, FSMC

ECAD模型

下載ECAD模型
$16.69 查看
STM32F405RGT6W 1 STMicroelectronics High-performance foundation line, Arm Cortex-M4 core with DSP and FPU, 1 Mbyte of Flash memory, 168 MHz CPU, ART Accelerator

ECAD模型

下載ECAD模型
$14.1 查看
AMD

AMD

AMD公司成立于1969年,總部位于美國加利福尼亞州桑尼維爾。AMD(NYSE: AMD)是一家創(chuàng)新的科技公司,致力于與客戶及合作伙伴緊密合作,開發(fā)下一代面向商用、家用和游戲領(lǐng)域的計算和圖形處理解決方案。

AMD公司成立于1969年,總部位于美國加利福尼亞州桑尼維爾。AMD(NYSE: AMD)是一家創(chuàng)新的科技公司,致力于與客戶及合作伙伴緊密合作,開發(fā)下一代面向商用、家用和游戲領(lǐng)域的計算和圖形處理解決方案。收起

查看更多

相關(guān)推薦

電子產(chǎn)業(yè)圖譜

公眾號:半導(dǎo)體產(chǎn)業(yè)縱橫。立足產(chǎn)業(yè)視角,提供及時、專業(yè)、深度的前沿洞見、技術(shù)速遞、趨勢解析,鏈接產(chǎn)業(yè)資源,構(gòu)建IC生態(tài)圈,賦能中國半導(dǎo)體產(chǎn)業(yè),我們一直在路上。