加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入

大型語言模型

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論
  • 研華本地大型語言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
    研華本地大型語言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
    工業(yè)物聯(lián)網(wǎng)領(lǐng)域的全球供應(yīng)商研華科技近日公布,其自主研發(fā)的“AIR-520本地大型語言模型(LLM)邊緣AI服務(wù)器”榮獲“第33屆臺灣精品獎”銀獎! 今年,研華有六款產(chǎn)品獲得了中國臺灣精品獎,其中兩款獲得了享有盛譽(yù)的銀獎。這一出色的成績凸顯了業(yè)界對研華智能系統(tǒng)和嵌入式平臺在工業(yè)物聯(lián)網(wǎng)領(lǐng)域的認(rèn)可。研華表示將繼續(xù)整合人工智能驅(qū)動的行業(yè)解決方案和領(lǐng)域?qū)I(yè)知識,加速數(shù)字化轉(zhuǎn)型,為客戶推動工業(yè)智能的發(fā)展。 研
  • 產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國內(nèi)大模型第一
    產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國內(nèi)大模型第一
    目前生成式AI產(chǎn)業(yè)尚處于發(fā)展的初期階段。中國工程院院士、北京大學(xué)博雅講席教授高文指出,如果將人工智能的發(fā)展與人類成長相類比,那么通用人工智能目前可能僅處于蹣跚學(xué)步的幼兒階段。但從應(yīng)用的角度來看,人工智能已經(jīng)能夠解決生產(chǎn)、社會及服務(wù)領(lǐng)域的問題,因此可以先行投入使用,無需等待其達(dá)到完美狀態(tài)。
  • 職場人必備丨AI術(shù)語小詞典(7)
    職場人必備丨AI術(shù)語小詞典(7)
    接著上一期的AI術(shù)語小詞典,文檔君又如期而至,來給大家科普啦~推斷是機(jī)器學(xué)習(xí)模型在訓(xùn)練后對新數(shù)據(jù)進(jìn)行預(yù)測或分類的過程。在推斷階段,模型會使用在訓(xùn)練階段學(xué)習(xí)到的參數(shù)和規(guī)則,對輸入數(shù)據(jù)進(jìn)行計算和分析,然后輸出預(yù)測結(jié)果。推斷通常發(fā)生在模型部署后,用于處理實際應(yīng)用中的數(shù)據(jù)。推斷的性能和準(zhǔn)確性是衡量模型好壞的重要指標(biāo)之一。
  • 大模型已基本解決幻覺問題?
    大模型已基本解決幻覺問題?
    你是否經(jīng)歷過大語言模型一本正經(jīng)“胡說八道”?大模型在發(fā)展初期的幻覺問題尤為嚴(yán)重,所回答問題基本屬于“已讀亂回”,至于哪家企業(yè)的大模型不在本文探討之列,大家心知肚明,更重要的是大語言模型的幻覺問題有了最新進(jìn)展。其實大語言模型發(fā)展到今天,面臨的不止“幻覺”這一個挑戰(zhàn),如未來隨著數(shù)據(jù)量的巨增,必須要進(jìn)行模型壓縮與優(yōu)化;多模態(tài)模型與大語言模型的結(jié)合,將自然語言處理與計算機(jī)視覺、語音處理等多模態(tài)信息相結(jié)合,擴(kuò)大應(yīng)用場景。
  • 2024AI+研發(fā)數(shù)字(AiDD)峰會深圳站圓滿收官!
    11月8-9日,為期兩天的AI+研發(fā)數(shù)字(AiDD)峰會在深圳灣萬麗酒店圓滿收官!本屆峰會由AiDD峰會組委會和深圳市軟件行業(yè)協(xié)會聯(lián)合主辦,承辦單位為國內(nèi)領(lǐng)先的專業(yè)數(shù)字人才發(fā)展平臺中智凱靈。 本屆峰會以“AI驅(qū)動研發(fā)變革,助力企業(yè)降本增效”為主題。邀請了來自百度、阿里、騰訊、華為、網(wǎng)易、360、字節(jié)跳動、快手、微軟、去哪兒、中興、等頭部互聯(lián)網(wǎng)企業(yè),以及各大高校的一線從業(yè)者和技術(shù)專家?guī)碜钋把氐闹黝}
  • 曝OpenAI新旗艦?zāi)P汀半y產(chǎn)”,或明年年初發(fā)布
    曝OpenAI新旗艦?zāi)P汀半y產(chǎn)”,或明年年初發(fā)布
    11月11日消息,據(jù)The Information報道,OpenAI的GPT系列模型改進(jìn)速度放緩,公司正調(diào)整策略以應(yīng)對這一挑戰(zhàn)。據(jù)OpenAI員工透露,下一代旗艦?zāi)P蚈rion已完成約20%的訓(xùn)練。Orion在語言任務(wù)上表現(xiàn)出色,但在編碼等方面未超越GPT-4,且運(yùn)行成本偏高,提升幅度低于預(yù)期。此外,Orion在明年年初發(fā)布時,可能不會沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。
  • 大語言模型上車后,你的車機(jī)真的好用了嗎?
    大語言模型上車后,你的車機(jī)真的好用了嗎?
    去年號稱大模型技術(shù)元年,智能座艙的演進(jìn)進(jìn)入了新階段:大語言模型上車。智能座艙通過運(yùn)用大模型,將提供千人千面的語音識別、娛樂信息,以及駕駛輔助的個性化定制服務(wù),讓座艙具有了深度進(jìn)化的能力。
  • 如果強(qiáng)化學(xué)習(xí)是問題,大模型是否是「答案」?
    如果強(qiáng)化學(xué)習(xí)是問題,大模型是否是「答案」?
    “強(qiáng)化學(xué)習(xí)讓大模型具有了思考能力,大模型為強(qiáng)化學(xué)習(xí)提供了更開闊的思路?!? 在當(dāng)今大模型推動的新一波人工智能的快速發(fā)展浪潮中,大模型和強(qiáng)化學(xué)習(xí)技術(shù)的結(jié)合成為研究和產(chǎn)業(yè)界的焦點。尤其最近OpenAI最新模型o1的發(fā)布,強(qiáng)化學(xué)習(xí)成為o1的靈魂,更是印證了強(qiáng)化學(xué)習(xí)的潛力。大模型憑借其強(qiáng)大的數(shù)據(jù)處理能力,為強(qiáng)化學(xué)習(xí)提供了豐富的知識。這種結(jié)合不僅極大地擴(kuò)展了人工智能在處理復(fù)雜問題上的能力,也為強(qiáng)化學(xué)習(xí)帶來了更深層次的洞察力和更高效的決策過程。
  • 大模型應(yīng)用開發(fā)-走進(jìn)大模型應(yīng)用
    大模型應(yīng)用開發(fā)-走進(jìn)大模型應(yīng)用
    在人工智能的浩瀚星空中,大模型就像是那顆閃耀的北極星,不僅指引著科技的發(fā)展方向,也照亮了我們對未來的無限暢想。
  • 小模型“反卷”大模型?適用才是真王道!
    小模型“反卷”大模型?適用才是真王道!
    隨著“千模大戰(zhàn)”接近尾聲,由大模型掀起的算力競賽也逐漸進(jìn)入“下半場”,由“建算力”過渡到“用算力”上。不同于大模型的參數(shù)量大、成本高、部署復(fù)雜,以“小而美”著稱的小模型為行業(yè)提供了新選擇。
  • 一文搞懂大語言模型的發(fā)展歷程和未來應(yīng)用場景!
    一文搞懂大語言模型的發(fā)展歷程和未來應(yīng)用場景!
    “IT有得聊”是機(jī)械工業(yè)出版社旗下IT專業(yè)資訊和服務(wù)平臺,致力于幫助讀者在廣義的IT領(lǐng)域里,掌握更專業(yè)、更實用的知識與技能,快速提升職場競爭力。點擊藍(lán)色微信名可快速關(guān)注我們!
  • 艾體寶洞察丨透過語義緩存,實現(xiàn)更快、更智能的LLM應(yīng)用程序
    本文探討了語義緩存在提升大型語言模型(LLM)應(yīng)用程序性能中的關(guān)鍵作用。與傳統(tǒng)緩存不同,語義緩存理解用戶查詢背后的語義,提供更快、更相關(guān)的響應(yīng)。這種技術(shù)通過嵌入模型、矢量搜索等組件,顯著提高了自動化客戶支持、實時翻譯等應(yīng)用的效率,為企業(yè)優(yōu)化操作和提升用戶體驗提供了新路徑。
  • 大語言模型有什么用途?
    大語言模型有什么用途?
    大語言模型能夠識別、總結(jié)、翻譯、預(yù)測和生成文本及其它形式的內(nèi)容。AI 應(yīng)用正在被應(yīng)用于總結(jié)文章、撰寫故事和進(jìn)行長對話,而大語言模型在其中發(fā)揮了重要作用。大語言模型(LLM)是一種深度學(xué)習(xí)算法,能夠基于從海量數(shù)據(jù)集中獲得的知識,識別、總結(jié)、翻譯、預(yù)測和生成文本以及其它形式的內(nèi)容。
  • rLLM:使用大型語言模型進(jìn)行關(guān)系表學(xué)習(xí)
    本文 rLLM: Relational Table Learning with LLMs 介紹了rLLM(relationLLM)項目,該項目旨在提供一個平臺,用于快速開發(fā)基于大型語言模型(LLMs)的關(guān)系表學(xué)習(xí)(RTL)方法。
  • 中國AI長卷(三):算法生根
    中國AI長卷(三):算法生根
    “中美AI差距究竟有幾年?”這個問題困擾了不少人,也有很多聲音嘗試將中美AI實力進(jìn)行比較。其中,算法,一定是評判的首要標(biāo)準(zhǔn)。中美AI算法究竟是什么水平?我們可以用“第七個燒餅”來理解。ChatGPT就是AI的“第七個燒餅”。深度學(xué)習(xí)算法的熱潮持續(xù)了十多年,終于在LLM(大語言模型)能涌現(xiàn)之后,看到了實現(xiàn)通用人工智能的曙光。就像一個饑餓的人,連續(xù)吃了六個燒餅都沒吃飽,直到吃完了第七個燒餅,終于覺得飽了。
  • 大型語言模型的10大現(xiàn)實應(yīng)用
    大型語言模型的10大現(xiàn)實應(yīng)用
    人類還是人工智能?將越來越難以分辨!?大型語言模型可以寫故事、回答問題,甚至還能講笑話,幾乎就像一個真實的人。正是它們的創(chuàng)造力和數(shù)據(jù)的結(jié)合,讓我們正在進(jìn)入一個新時代。
  • 比H100快20倍還更便宜!英偉達(dá)的“掘墓人”出現(xiàn)了?
    比H100快20倍還更便宜!英偉達(dá)的“掘墓人”出現(xiàn)了?
    6月27日消息,芯片初創(chuàng)公司Etched近日宣布推出了一款針對 Transformer架構(gòu)專用的ASIC芯片 “Sohu”,并聲稱其在AI大語言模型(LLM)推理性能方面擊敗了英偉達(dá)(NVIDIA)最新的B200 GPU,AI性能達(dá)到了H100的20倍。這也意味著Sohu芯片將可以大幅降低現(xiàn)有AI數(shù)據(jù)中心的采購成本和安裝成本。
  • 你知道開發(fā)一個大型語言模型需要涉及哪些知識嗎?
    你知道開發(fā)一個大型語言模型需要涉及什么嗎?大型語言模型是生成式人工智能應(yīng)用的支柱,理解創(chuàng)建這些大型語言模型需要什么是非常重要的。
  • 生成式 AI 醫(yī)療加速發(fā)展:數(shù)十家公司采用 Meta Llama 3 NIM
    生成式 AI 醫(yī)療加速發(fā)展:數(shù)十家公司采用 Meta Llama 3 NIM
    Meta 的開放大語言模型(已優(yōu)化并可作為 NVIDIA NIM 下載)為數(shù)字健康和生命科學(xué)工作流提供動力支持。
  • 畢昇大模型應(yīng)用開發(fā)平臺+浪潮信息AIStation,讓大模型定制更簡單
    北京2024年6月5日?/美通社/ -- 近日,畢昇大模型應(yīng)用開發(fā)平臺與浪潮信息AIStation智能業(yè)務(wù)生產(chǎn)創(chuàng)新平臺完成兼容性互認(rèn)證?;诋厱N和浪潮信息AIStation,用戶通過預(yù)置的畢昇助手與技能模板,使用簡單直觀的表單填寫方式,即可高效利用企業(yè)自有數(shù)據(jù),快速開發(fā)貼合真實業(yè)務(wù)場景的大模型應(yīng)用,加速大模型在智能問答、報告生成、自動化、數(shù)據(jù)分析等典型行業(yè)場景的落地。 畢昇大模型應(yīng)用開發(fā)平臺由元腦

正在努力加載...