加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴(kuò)散
  • 作品版權(quán)保護(hù)
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 01、大模型競爭的本質(zhì)是終端心智和應(yīng)用場景多元化
    • 02、豆包“擊穿最低價”,大模型或?qū)⑦M(jìn)入新浪潮
    • 03、豆包“遇上”火山方舟,一場大模型的自我革新
  • 推薦器件
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

悶聲狂奔一年,字節(jié)大模型的進(jìn)階之路

05/21 11:00
1098
閱讀需 18 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

作者 | 代聰飛,編輯 | 林覺民

大模型比行業(yè)便宜百倍,字節(jié)打的什么算盤?”?? ? ? ? ? ? ? ?

2024 年初,字節(jié)跳動 CEO 梁汝波在年會中提到,公司層面的半年度技術(shù)回顧里,2023 年才出現(xiàn) GPT 相關(guān)討論。作為對比,業(yè)內(nèi)做得比較好的大模型創(chuàng)業(yè)公司基本在 2018 年到 2021 年之間已經(jīng)創(chuàng)立。

一位字節(jié)員工曾告訴雷峰網(wǎng),直到 2023 年 2 月,字節(jié)才開始探索大模型。彼時,國內(nèi)一些更早入局的大廠已經(jīng)準(zhǔn)備對外發(fā)布大模型。

簡而言之,這場由 Open AI 在 2022 年底發(fā)布 ChatGPT 3.5 而掀起的“大模型”盛宴,字節(jié)沒有成為最早的“入場嘉賓”。

過去一年多的時間里,字節(jié)在 AI,尤其是自研大模型領(lǐng)域,始終頗為低調(diào),但這并不妨礙業(yè)內(nèi)的期待。不少從業(yè)者在被問及最看好國內(nèi)哪家公司的大模型產(chǎn)品時,都曾向雷峰網(wǎng)提及字節(jié)。

其中原因也不難理解,無論從人才密度、GPU 資源,還是技術(shù)積累各個層面,字節(jié)都有著足夠的優(yōu)勢。誠然,字節(jié)不是最早參與到大模型研究的公司,但卻是為數(shù)不多在技術(shù)積累和 GPU 資源等維度都有著深厚積淀的公司。

移動互聯(lián)網(wǎng)初期,今日頭條便通過對算法推薦的成熟應(yīng)用,突破新聞門戶網(wǎng)站的束縛。從此,信息流產(chǎn)品成為各家互聯(lián)網(wǎng)公司追逐的模仿對象。

在大模型訓(xùn)練必不可少的 GPU 卡方面,雷峰網(wǎng)去年在字節(jié)的大模型野心,藏在一艘「方舟」里已經(jīng)提到,調(diào)研顯示,字節(jié)的 GPU 卡在目前國內(nèi)眾多云廠商中排名 Top 3,并將其歸因于抖音業(yè)務(wù)推薦平臺的不斷升級,以及火山引擎使用抖音同源機(jī)器學(xué)習(xí)平臺對外服務(wù)的需求。

如今,字節(jié)終于揭開自研大模型的“神秘面紗”。5月15日,火山引擎春季Force·原動力大會上,字節(jié)跳動首次對外正式發(fā)布自研大模型:豆包大模型(原云雀大模型)家族集體亮相。

盡管不少圈內(nèi)人已經(jīng)聽聞字節(jié)的大模型或創(chuàng)新低價格,但當(dāng)火山引擎總裁譚待正式對外宣布價格時,豆包大模型還是給 AI 界來了一點小小的“字節(jié)式”震撼。

01、大模型競爭的本質(zhì)是終端心智和應(yīng)用場景多元化

年初有媒體發(fā)文指出:“抖音旗下的 AIGC 應(yīng)用豆包月活 1756.9 萬,超越 1212.5 萬月活的文心一言。”

根據(jù) QuestMobile 最新數(shù)據(jù),2024 年 3 月,豆包月活用戶已達(dá)到 2328.2 萬,甩開文心一言近千萬。文心一言以及天工、訊飛星火、Kimi智能助手月活躍用戶分別為1466.1萬、966.1萬、620.4萬、589.7萬。

當(dāng)時,本文作者身邊也看到過不少安利豆包產(chǎn)品的用戶。部分帶娃家長直言:“豆包太有趣了,現(xiàn)在孩子每晚回來都要跟豆包對話一會兒,問各種問題?!?/p>

移動互聯(lián)網(wǎng)時代,字節(jié)跳動做出了今日頭條、抖音這樣的全民產(chǎn)品;大模型浪潮起來以后,不少人都坐等一個 AI 時代的抖音。

無論業(yè)內(nèi)人士把大模型談的多“花”,其歸根到底,還是要讓所有的普通人用起來,而不是僅限于圈內(nèi)的狂歡。從這個角度來看,大模型競爭的本質(zhì),是終端心智的爭奪。

就眼下的情況來看,豆包毫無疑問有這個潛力和機(jī)會。這款去年才推出的產(chǎn)品,僅僅用不到一年就已經(jīng)顯示出在同類產(chǎn)品中強(qiáng)大的競爭力。

在 5 月 15 號的火山引擎春季Force·原動力大會上,字節(jié)跳動產(chǎn)品與戰(zhàn)略副總裁朱駿分享了豆包 APP 的一些趣事和思考。

比如,關(guān)于這個看起來一點“科技感”沒有的名字,有用戶解釋為抖音的官方bot——“抖bot”的諧音;還有用戶解釋為“都包了”,工作生活學(xué)習(xí)的需求都包了。

以至于后來,在被問到豆包名字的含義,朱駿也會用這兩個答案。

實際上,正式命名以前,字節(jié)的大模型團(tuán)隊有一個期望,產(chǎn)品的名字,能夠像用戶對一個親密朋友日常稱呼的昵稱。在這個方向下,團(tuán)隊列了很多名字,很快選中豆包。朱駿風(fēng)趣地說到:“反正以后如果有更好的名字也還可以改嘛?!?/p>

用戶數(shù)方面,豆包官方數(shù)據(jù)顯示,其移動和桌面雙端月活躍用戶已經(jīng)超過 2600 萬。同時,這些用戶共同創(chuàng)造了 800 多萬個智能體。

發(fā)布會上,字節(jié)首次對外披露了其自研的底座大模型,取名為豆包大模型,也就是此前一直被外界提及的云雀大模型。

豆包 APP,只是豆包大模型應(yīng)用的一個側(cè)面。

基于豆包大模型,字節(jié)跳動還打造了 AI 應(yīng)用開發(fā)平臺“扣子”、互動娛樂應(yīng)用“貓箱”、AI 分身創(chuàng)作應(yīng)用“星繪”等一系列產(chǎn)品。

此外,抖音、番茄小說、飛書、巨量引擎等 50 余個業(yè)務(wù)也都已經(jīng)接入豆包大模型,用以提升效率和優(yōu)化產(chǎn)品體驗。這些產(chǎn)品中不乏億級的用戶和內(nèi)容,抖音每天有 7 億多用戶以及豐富的圖文短視頻內(nèi)容,番茄小說每天也有近 1 億用戶。

這還僅僅是字節(jié)內(nèi)部產(chǎn)品的使用。

悄然間,OPPO小布助手、榮耀 MagicBook 的 YOYO 助理、華碩筆記本電腦豆叮AI助手、極氪汽車的座艙大模型等均已接入字節(jié)的大模型服務(wù)。

基于豆包大模型,字節(jié)在今年2月上線了 AI 應(yīng)用開發(fā)平臺“扣子”。僅僅三個月過去,招商銀行、海底撈火鍋、超級猩猩、獵聘、飛鶴等企業(yè)已經(jīng)在扣子上搭建智能體并應(yīng)用。復(fù)旦大學(xué)、浙江大學(xué)等名校也為課程和實驗室搭建了 AI“助教”。

從 C 端的豆包 APP 用戶,到 B 端的千行百業(yè),豆包大模型不僅使用量大,應(yīng)用場景之豐富也可見一斑。根據(jù)火山引擎總裁譚待介紹,目前,豆包大模型日均處理文本 1200 億 Tokens,生成 3000 萬張圖片。

業(yè)內(nèi)普遍認(rèn)為,一般而言,大模型的使用量越大,效果也就越好,這給了豆包大模型更大的底氣。“大的使用量,才能打磨出好模型。”譚待也直言。

02、豆包“擊穿最低價”,大模型或?qū)⑦M(jìn)入新浪潮

無論是 C 端用戶使用體驗,還是 B 端應(yīng)用場景,真正落地成為全民應(yīng)用的基礎(chǔ)都需要足夠低的價格。

這就好比,4G 網(wǎng)絡(luò)普及加速了流量成本降低,并促成智能手機(jī)的普及,又進(jìn)一步加速了視頻等終端 APP 的爆發(fā)式增長。

對于當(dāng)下企業(yè)而言,使用大模型能夠促成效率的提升幾乎是確認(rèn)的,但大模型的投入一直以來都非常大,而企業(yè)在投入一個新的創(chuàng)新領(lǐng)域時,必然首先要考慮成本問題。

或許正是由于價格因素,過去一年多,大模型雖然引發(fā)了全行業(yè)的熱潮,但真正投入使用的仍然只有少數(shù)企業(yè)。

在這一背景下,豆包大模型此次官宣的價格能夠成為行業(yè)焦點也就不足為奇了。

5月15日的發(fā)布會上,譚待宣布豆包大模型價格的那一瞬間,掌聲響徹整個會場,也將這場發(fā)布會推向高潮。

豆包大模型的價格有多驚人?

豆包主力模型 Pro-32k 版本模型推理輸入價格只有 0.0008元/千Tokens,0.8 厘就能處理 1500 多個漢字,比行業(yè)同等模型便宜 99.3%;128k 型號價格為 0.005元/千Tokens,比行業(yè)價格低 95.8%。

更形象的說法是,根據(jù)火山引擎公布的價格計算,以 Pro-32k 版本為例,一元錢就能買到 125 萬 Tokens,大約 200 萬個漢字,相當(dāng)于三本《三國演義》。

看到這樣的價格,不少人覺得,豆包大模型在“以虧損換市場”。但在會后的媒體采訪中,譚待表示:“用虧損換收入是不可持續(xù)的,我們從來不走這條路子。敢于定價這么低,是因為我們對優(yōu)化推理成本的技術(shù)能力很有信心。

關(guān)于為什么定這樣的價格,譚待表示是基于兩方面因素:一是能做到,二是需要這么做。

一方面,通過模型結(jié)構(gòu)的優(yōu)化、分布式推理、混合調(diào)度等舉措,極大壓低了大模型的推理成本。模型調(diào)用量越大,成本優(yōu)化空間就越大。以字節(jié)業(yè)務(wù)為例,飛書的主要流量高峰在工作時間,抖音在下班后休閑時間的流量更高,這些不同業(yè)務(wù)的大模型推理,能根據(jù)業(yè)務(wù)特點錯峰使用,把資源利用率跑得很高,就可以降低成本。

另一方面,今年以來,大模型能力得到極大提升以后,應(yīng)用將是一個非常重要的環(huán)節(jié)。當(dāng)下市場,很多企業(yè)有嘗試大模型的想法,但因為不確定性的風(fēng)險,多少有些畏手畏腳。只有價格降低到一定程度,試錯成本足夠低,更多的企業(yè)才會加入到大模型的應(yīng)用中。

不久前,零一萬物 CEO 李開復(fù)表示,大模型推理成本每年降低十倍,這在過去兩年已經(jīng)發(fā)生,優(yōu)化得好更是可以降低二三十倍。

看來,字節(jié)對模型推理成本優(yōu)化的預(yù)期也是非常樂觀,降價所考慮的就是讓大模型盡快在更多應(yīng)用場景落地。

以大模型應(yīng)用最廣泛的內(nèi)容產(chǎn)業(yè)為例,視頻平臺往往需要在浩如煙海的劇本中,篩選出優(yōu)質(zhì)且適合轉(zhuǎn)換成影視項目的劇本。

假設(shè),現(xiàn)在某公司計劃利用大模型做一個 AI 劇本助手,幫助平臺把幾十萬字的劇本提煉出核心要點,并進(jìn)一步評估劇本可行性。如果想打磨出足夠好的效果,可能需要 100 億 tokens 的推理輸入。過去,完成這一項目,負(fù)責(zé)人需要從公司申請 100 多萬預(yù)算,這對一個中小企業(yè)而言并不算少。現(xiàn)在,還是這件事,使用豆包大模型,則只需要 8000 塊錢。顯然,這是一個幾乎所有公司都能接受的價格。

換言之,曾經(jīng),很多創(chuàng)意想法可能因為大模型應(yīng)用成本被拒之門外;現(xiàn)在,豆包大模型將價格打下來以后,成本極低,企業(yè)和創(chuàng)業(yè)者們不再因此而受到束縛,就更有機(jī)會找到好的落地場景,整個行業(yè)的蛋糕也會越做越大,從而形成價格低→ 使用量大 →落地場景豐富→應(yīng)用效果好的正向循環(huán)。

經(jīng)濟(jì)學(xué)上,有一個專業(yè)術(shù)語叫做規(guī)模經(jīng)濟(jì),意為在一定產(chǎn)量范圍內(nèi),伴隨產(chǎn)量增加,平均成本不斷降低的現(xiàn)象。其原因在于,產(chǎn)量增加會帶來一個結(jié)果,每多生產(chǎn)一單位產(chǎn)品的成本(邊際成本)不斷降低。

回到科技領(lǐng)域,同樣存在類似的效應(yīng)。互聯(lián)網(wǎng)出現(xiàn)以后,流量成本不斷降低,信息的分發(fā)成本幾乎接近 0,今日頭條、抖音都是其中的受益者。而現(xiàn)在,大模型正在加速 AI 應(yīng)用的新一輪浪潮。

a16z 的合伙人 Martin Casado 曾在演講中提到,從基本的經(jīng)濟(jì)分析來看,大模型將創(chuàng)造的邊際成本降到了零,比如創(chuàng)建圖像和語言理解。

業(yè)內(nèi)都在期待大模型重塑互聯(lián)網(wǎng)產(chǎn)品,這一切的前提是,它的價格足夠低?,F(xiàn)在,豆包大模型已經(jīng)打了個樣。

03、豆包“遇上”火山方舟,一場大模型的自我革新

在驚訝于低價的同時,不少企業(yè)可能擔(dān)心模型的推理效果是否能夠滿足使用需求。

關(guān)于這一點擔(dān)憂,其實答案在前文中已經(jīng)有所暗示。不少用戶應(yīng)該都已經(jīng)使用過字節(jié)面向 C 端的 AIGC 產(chǎn)品豆包,效果如何相信每個人都有體會。若是效果不好,它的用戶數(shù)也不可能在短短一年間沖到同行業(yè)產(chǎn)品 TOP1。

又如,字節(jié)最近推出的 AI 分身創(chuàng)作產(chǎn)品星繪,大家也可以上手使用體驗。

除了 AI 原生應(yīng)用,抖音、今日頭條、飛書等不少字節(jié)的產(chǎn)品都大量的使用了大模型。今日頭條內(nèi)嵌的 AI 工具不僅為用戶提供了對話功能,還有筆記創(chuàng)作、夢境解讀、創(chuàng)業(yè)指導(dǎo)等能力。

如今,不少互聯(lián)網(wǎng)企業(yè)在發(fā)布大模型產(chǎn)品時,動輒喜歡加一句“超越 GPT 4”之類的說法。但整個發(fā)布會,豆包大模型都沒有提到 GPT,這反而顯示出譚待以及豆包整個團(tuán)隊的自信。

在被問及,豆包大模型和 Open AI、谷歌等海外公司的差別時,譚待笑著說道:“我可以很實事求是地講,openAI肯定還是全球第一, anthropic、Gemini 也都做得非常好,這個差距首先是要承認(rèn)的?!?/p>

與此同時,譚待也表示,雖然有差距,但是我們追的速度還是可以的。豆包的原生應(yīng)用和體驗越來越好,用戶量也越來越大,這是比較重要的。一個最佳實踐是,越來越多的人去做更多的應(yīng)用,反過來又可以驅(qū)動技術(shù)的進(jìn)步,從而形成一個正循環(huán)。而這些,國內(nèi)目前還沒有形成,但從今天以后,它可能會越來越快。

除了豆包等 C 端大模型產(chǎn)品,字節(jié)跳動還針對大模型推出了新一代 AI 應(yīng)用開發(fā)平臺——扣子專業(yè)版,具備低門檻、個性化、實時性、多模態(tài)等優(yōu)勢,并集合海量的 AI 資源、豐富的發(fā)布 API 服務(wù)。招商銀行、海底撈等不少傳統(tǒng)企業(yè),都成為扣子的用戶。

基于扣子和豆包大模型,招商銀行搭建了可以推薦餐飲優(yōu)惠門店的“掌上生活”bot,以及能匯總市場行情的“財富看點”bot。

通過使用豆包大模型,海底撈搭建了顧客評價分析模型,并將其應(yīng)用于服務(wù)質(zhì)量、菜品質(zhì)量、經(jīng)營管理的優(yōu)化迭代。

在下午大消費分論壇上,海底撈信息科技部負(fù)責(zé)人楊炫之分享了海底撈的 AI 系統(tǒng)建設(shè),他提到,AI 在餐飲企業(yè)的應(yīng)用主要包括三方面,基于圖文作業(yè)的重復(fù)性勞動(即廣告文案等)、成熟模型的預(yù)測類工作(貨品預(yù)測需求等)、相對開放的信息收集。

楊炫之在分享最后坦言,對于海底撈這樣的傳統(tǒng)企業(yè)而言,大模型帶給更多的是便利性,或者說我們基礎(chǔ)工作的替代,應(yīng)用范圍可能沒有那么大。

回到大模型服務(wù)側(cè),作為大模型服務(wù)平臺,火山方舟為模型訓(xùn)練、推理、評測、精調(diào)等提供了全方位功能和服務(wù)。在過往的一年多時間里,字節(jié)自身已經(jīng)充分使用體驗,支撐了字節(jié)的大模型的豐富生態(tài)。

火山方舟 2.0 版本,升級了插件、系統(tǒng)承載能力等多個維度。

以 RAG 知識庫插件為例,火山方舟 2.0 內(nèi)置了字節(jié)跳動多年實踐沉淀的大規(guī)模高性能向量檢索能力,百億級別數(shù)據(jù)可以實現(xiàn)毫秒級檢索,支持秒級索引流式更新,可以實現(xiàn)新增數(shù)據(jù)能夠?qū)崟r檢索。知識庫插件也內(nèi)置了豆包向量化模型,文檔解析環(huán)節(jié)集成了飛書優(yōu)秀的文檔解析能力,支持pdf、doc、ppt、excel、txt、markdown等多種復(fù)雜類型文檔解析能力。

系統(tǒng)承載能力方面,火山方舟 2.0 實現(xiàn)了萬卡公有云GPU資源池、5秒接入新建精調(diào)模型、3分鐘內(nèi)完成千卡擴(kuò)容等效果。

譚待表示,全新升級的火山方舟 2.0 不僅提供了抖音、今日頭條的搜索和內(nèi)容插件等豐富的生態(tài)資源,還有著充沛的算力資源和極致彈性,保障客戶的業(yè)務(wù)穩(wěn)定。

前文提到的扣子專業(yè)版,已經(jīng)集成在火山方舟,提供企業(yè)級 SLA 和高級特性。

回到起點,豆包已經(jīng)在 C 端取得了看起來還不錯的效果;在 B 端,豆包大模型一上線就因價格而廣受關(guān)注,火山方舟與豆包大模型會交出怎樣的答卷?

結(jié)果,或許已經(jīng)呼之欲出。

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風(fēng)險等級 參考價格 更多信息
MCF52258CAG66 1 Rochester Electronics LLC 32-BIT, FLASH, 66MHz, RISC MICROCONTROLLER, PQFP144, 20 X 20 MM, ROHS COMPLIANT, LQFP-144
$12.68 查看
STM32F030C8T6TR 1 STMicroelectronics Mainstream Arm Cortex-M0 Value line MCU with 64 Kbytes of Flash memory, 48 MHz CPU

ECAD模型

下載ECAD模型
$3.41 查看
MK10DX64VLH7 1 Freescale Semiconductor Kinetis K 32-bit MCU, ARM Cortex-M4 core, 64KB Flash, 72MHz, QFP 64
$6.77 查看

相關(guān)推薦

電子產(chǎn)業(yè)圖譜