加入星計劃,您可以享受以下權益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入

人工智能

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

電路方案

查看更多

設計資料

查看更多
  • 2025存儲前瞻:用存儲加速AI,高性能SSD普適化
    2025存儲前瞻:用存儲加速AI,高性能SSD普適化
    縱觀2024年,存儲技術升級已經(jīng)給AI計算、云端應用帶來了諸多便利,從年初鎧俠首款量產(chǎn)車規(guī)級UFS 4.0推動行業(yè)發(fā)展,到RM、PM和XG系列SSD與HPE攜手登陸國際空間站,再到推出容量高達2Tb的第八代BiCS FLASH? QLC,展示下一代前瞻性的光學結(jié)構SSD,鎧俠與合作伙伴一起,不僅滿足了時下的存儲應用需求,并已經(jīng)為未來存儲鋪墊全新的技術可行性。 更大容量的存儲 AI計算對企業(yè)級存儲提
  • NeuroBlade在亞馬遜(Amazon) EC2 F2 實例上加速下一代數(shù)據(jù)分析
    數(shù)據(jù)分析加速領域的領導者NeuroBlade宣布其已經(jīng)與亞馬遜云科技(AWS)最新發(fā)布的Amazon Elastic Compute Cloud (Amazon EC2) F2實例實現(xiàn)集成,該實例采用了AMD FPGA與EPYC CPU技術。此次合作通過NeuroBlade創(chuàng)新的數(shù)據(jù)分析加速技術,為云原生數(shù)據(jù)分析工作負載帶來了前所未有的性能和效率。 在EC2 F2實例上部署NeuroBlade加速
  • 豆包大模型高速增長背后,至強6處理器和火山引擎實現(xiàn)云+AI的交融創(chuàng)新
    中國信通院發(fā)布的《2024全球數(shù)字經(jīng)濟白皮書》顯示,2023年至2024年第一季度,中國共涌現(xiàn)出71家AI獨角獸企業(yè),其中大模型數(shù)量占比高達36%,即478個。隨著基礎通用大模型的能力上限被不斷刷新,算力成本、功耗、技術門檻、行業(yè)落地等問題與挑戰(zhàn)也越來越突出,如何從底層算力、平臺、應用場景等維度尋求破局,成為大模型落地的關鍵。 對于企業(yè)來說,如何更好地迎接以大模型為基礎的AI時代?這其實需要在性價
  • 2個月,11億大模型大單,訊飛狂賺
    2個月,11億大模型大單,訊飛狂賺
    12月25日消息,今天,山東泰安市肥城人工智能行業(yè)大模型應用基地項目中標候選人公示,訊飛智元中標,投標金額約1.59億元,訊飛智元是科大訊飛旗下全資子公司。
  • 智算行業(yè)巨變:從二元模式進化到三元模式
    智算行業(yè)巨變:從二元模式進化到三元模式
    智算行業(yè),正從二元模式向三元模式轉(zhuǎn)變。但目前還沒有形成成熟的業(yè)務模式,大家對三元模式下算力三方的理解和定位,均有所不同。今天拋磚引玉,談談我們的看法。