加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入

AI訓(xùn)練

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論
  • AI模型訓(xùn)練【偏差/方差】與【欠擬合/過擬合】
    AI模型訓(xùn)練【偏差/方差】與【欠擬合/過擬合】
    在我們拿到一個數(shù)據(jù)集,高高興興準(zhǔn)備訓(xùn)練一個模型時,會遇到欠擬合或過擬合的問題,業(yè)內(nèi)也喜歡用偏差和方差這兩指標(biāo)去定義它們,那這些詞什么意思呢?有什么方法能避免/解決 欠擬合和過擬合呢?這其實是非常非?;A(chǔ)的概念,但是其實即使是業(yè)內(nèi)人士很難一下子把它們完全講明白,并列出全面的解決方法,本文為你最通俗地解答。
  • 強攻GPU,TPU芯片一夜躥紅
    強攻GPU,TPU芯片一夜躥紅
    自ChatGPT爆火之后,AI大模型的研發(fā)層出不窮,而在這場“百模大戰(zhàn)”激戰(zhàn)正酣之際,美國芯片公司英偉達(dá)卻憑借其GPU在大模型計算中的出色發(fā)揮賺得盆滿缽滿。
  • AI 2.0時代,服務(wù)器DDR5底層架構(gòu)迎來變革
    DDR5 內(nèi)存模塊是第一個在內(nèi)存模塊上集成PMIC的主要內(nèi)存類型,未來,隨著對更高性能和電源效率的需求不斷增長,可能會定義新型內(nèi)存模塊。而且,這些模塊很有可能繼續(xù)在模塊上集成 PMIC,以進一步優(yōu)化電源管理并提高整體系統(tǒng)性能。
  • H100利用率飆升至75%!英偉達(dá)親自下場FlashAttention三代升級,比標(biāo)準(zhǔn)注意力快16倍
    H100利用率飆升至75%!英偉達(dá)親自下場FlashAttention三代升級,比標(biāo)準(zhǔn)注意力快16倍
    大模型訓(xùn)練推理神作,又更新了!主流大模型都在用的FlashAttention,剛剛升級第三代。時隔一年,F(xiàn)lashAttention-3已經(jīng)全方位升級。訓(xùn)練速度提升1.5-2倍,F(xiàn)P16下計算吞吐量高達(dá)740TFLOPs/s,達(dá)理論最大吞吐量75%,更充分利用計算資源,此前只能做到35%。
  • 臺達(dá)研究院闕志克:降伏AI訓(xùn)練“吃電怪獸”靠誰?
    臺達(dá)研究院闕志克:降伏AI訓(xùn)練“吃電怪獸”靠誰?
    數(shù)據(jù)中心機房內(nèi),一排排機柜內(nèi)線纜虬結(jié)、風(fēng)扇呼嘯,燈光閃爍,徹夜不息……當(dāng)前,這樣的數(shù)據(jù)中心已經(jīng)遍及世界各地,并仍然在世界頭部科技廠商的引領(lǐng)下不斷增長。僅在今年6月內(nèi),微軟就已宣布將在瑞典、馬來西亞、西班牙等國家投資建設(shè)數(shù)據(jù)中心,項目投資總金額超140億美元;同時,英偉達(dá)計劃在未來5年內(nèi)投資3萬億美元建設(shè)數(shù)據(jù)中心;亞馬遜云科技則規(guī)劃在未來15年內(nèi)投入約1500億美元用于全球數(shù)據(jù)中心的建設(shè)與運營……