首頁 > 科技要聞 > 科技> 正文

1毛錢1百萬token,寫2遍紅樓夢(mèng)!國(guó)產(chǎn)大模型下一步還想卷什么?

新智元 整合編輯:太平洋科技 發(fā)布于:2024-06-06 15:11

昨天智譜AI開放日上,新一代MaaS平臺(tái)2.0正式發(fā)布。

這次,GLM技術(shù)團(tuán)隊(duì)帶來的是從模型,到成本、企業(yè)定制模型,以及業(yè)務(wù)場(chǎng)景的全面升級(jí)。

令人驚喜的是,第四代GLM系列開源模型GLM-4 9B,官宣開源免費(fèi)用,還具備了多模態(tài)能力。同時(shí),新發(fā)布的GLM-4-AIR性能媲美此前的最大基座模型,且價(jià)格降至1元/M token。

在5月這波價(jià)格戰(zhàn)之后,國(guó)內(nèi)主流大模型API調(diào)用已經(jīng)直降超90%。

需要明白的是,即便token價(jià)格無限逼近零,企業(yè)需要搞清楚如何用才能發(fā)揮巨大業(yè)務(wù)價(jià)值。

否則,再便宜也是無用功。

這次的發(fā)布,直接將智譜AI帶入了商業(yè)化的最后一站。新一代MaaS平臺(tái)出場(chǎng),便是一個(gè)很好的起點(diǎn)。

大模型2024:既要落地,又要開源

如果說2023年是世界發(fā)現(xiàn)生成式AI的一年,那么,2024年才是企業(yè)真正使用GenAI,并從中獲得商業(yè)價(jià)值的一年。

麥肯錫最新的全球調(diào)查報(bào)告稱,65%的受訪者表示企業(yè)會(huì)經(jīng)常使用生成式AI。

而這個(gè)數(shù)字,比十個(gè)月前的調(diào)查(33%),幾乎翻了一番。

對(duì)于企業(yè)來說,從選用模型,到以低成本微調(diào)部署模型,并擁有靈活可用的全棧工具鏈,是讓GenAI走向落地必不可少的過程。

那些無法「造血」沒有自研模型的公司,就需要通過API、MaaS等平臺(tái),以便讓LLM融入工作流。

比如,法律AI初創(chuàng)公司Harvey,通過OpenAI API,為律師們微調(diào)定制了一個(gè)「案例法模型」。

而且,經(jīng)過測(cè)試,相較于GPT-4,有97%的律師更喜歡使用Harvey的模型。

而另一個(gè)典型的案例是,開源社區(qū)借助Llama 3之力,已經(jīng)大大加速GenAI在醫(yī)療領(lǐng)域的應(yīng)用。

在英偉達(dá)NIM推理微服務(wù)平臺(tái)支持下,醫(yī)療開發(fā)者利用Llama 3已經(jīng)開發(fā)出各種聊天助手、健康A(chǔ)PP等。

反觀國(guó)內(nèi),LLM落地究竟有多火,就從卷瘋的token價(jià)格戰(zhàn),可一瞥而知。

API價(jià)格,已經(jīng)卷瘋

而在國(guó)產(chǎn)大模型的戰(zhàn)場(chǎng)上,價(jià)格戰(zhàn)也在最近卷出新高。

智譜AI開放平臺(tái)的新用戶,登錄就送的500萬token直接漲到2500萬token

GLM-3-Turbo每千token從0.005元直降到0.001元

GLM-3 Turbo批處理API的價(jià)格也直接砍半,每千token砍到0.0005元

隨后,火山引擎祭出更勁爆價(jià)格——豆包的企業(yè)定價(jià)直接擊穿地心,千token低至0.0008元,比整個(gè)行業(yè)都便宜了99.3%。

智譜AI表示,基于技術(shù)突破、效率提升和成本控制三個(gè)因素綜合的結(jié)果。通過大模型價(jià)格調(diào)整,更好滿足開發(fā)者、客戶需求。

當(dāng)然,價(jià)格戰(zhàn)僅是智譜AI貫徹MaaS戰(zhàn)略中的一個(gè)「支點(diǎn)」。

大廠MaaS,如火如荼

大模型沸騰的熱度,也讓國(guó)內(nèi)廠商的MaaS發(fā)展如火如荼。

所謂MaaS,即用戶可以直接使用不同參數(shù)、不同規(guī)格的細(xì)分模型,來應(yīng)對(duì)千變?nèi)f化的應(yīng)用場(chǎng)景。

商業(yè)鏈路打通后,蜂擁而至的開發(fā)者,就會(huì)讓應(yīng)用商店持續(xù)繁榮,形成「馬太效應(yīng)」。

今天的OpenDay上,智譜AI宣布MaaS平臺(tái)不僅已經(jīng)擁有了30萬注冊(cè)用戶,而且模型的日均調(diào)用量也超過了400億token。

在下面這條曲線中可以看出,在過去6個(gè)月中,智譜每日API的消耗量,增長(zhǎng)了50倍以上。這正說明:已經(jīng)有越來越多的企業(yè),已經(jīng)真正把模型用到了日常工作中。

GLM-4的API調(diào)用量則,則達(dá)到了90倍的增長(zhǎng)。這也正說明,企業(yè)已經(jīng)開始利用模型能力進(jìn)入深水區(qū),解決一些真正復(fù)雜的問題。

而今年,大家開始對(duì)于大模型有了一些新的期待——除了更強(qiáng)大、更快的模型,用戶也開始對(duì)成本變得敏感。

模型升級(jí):0.1元寫2本《紅樓夢(mèng)》

如今,平臺(tái)上已經(jīng)全線接入新模型,由ChatGLM3-6B升級(jí)為GLM-4-9B,堪稱“最能打的小模型”,已經(jīng)全面超過了 Llama3-8B-Instruct。

在開放平臺(tái)上,它變成GLM-4 Flash版本,價(jià)格相對(duì)于GLM-3-Turbo再次降價(jià)10倍,僅僅0.1元,就可以擁有一百萬tokens,足夠?qū)憙杀舅拇竺耍?/span>

如果小模型不能滿足需求,新推出的GLM-4-Air性能更加強(qiáng)大。它的性能跟和此前的GLM-4-0116相仿,但價(jià)格僅為前者的百分之一!一百萬tokens,僅需一元。

而許多企業(yè)應(yīng)用到深水區(qū)時(shí),對(duì)速度也有極高的要求,在此基礎(chǔ)之上,智譜加入了極速版。

效果不變,但推理速度直升162%。71 token每秒,相當(dāng)于每秒可以直出100多個(gè)漢字!

并且,GLM-4-0116也同時(shí)升級(jí)了。

就在今天,智譜推出了GLM-4-0520,它的綜合能力,已經(jīng)提升了11.9%。

真正做過模型的應(yīng)用的人,都明白這意味著什么:雖然在數(shù)字上看來只是一點(diǎn)點(diǎn)的提升,但這已經(jīng)進(jìn)一步提升了模型的天花板,極大擴(kuò)展應(yīng)用的范圍,降低應(yīng)用的成本。

如今,智譜AI已經(jīng)擁有全模型矩陣。

無論是GLM-4V,還是CogView-3,降價(jià)都達(dá)到了50%-60%——一張圖只需一毛錢。

開放平臺(tái)升級(jí):3步訓(xùn)出一個(gè)私有模型

每個(gè)企業(yè)都希望構(gòu)建自己的私有模型。雖然開源生態(tài)讓模型訓(xùn)練門檻大幅降低,但對(duì)于絕大多數(shù)企業(yè),這個(gè)過程依然太復(fù)雜。

為此,智譜AI也全面升級(jí)了自己的平臺(tái),僅僅三步——準(zhǔn)備數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù)、部署模型,就能讓企業(yè)訓(xùn)出一個(gè)私有模型了!

這個(gè)過程中,不需要任何代碼功底。而且,GLM-4全系列模型都支持這樣的微調(diào)。

針對(duì)企業(yè),智譜AI提供了兩種模式:LoRA微調(diào)和全參微調(diào)。

LoRA微調(diào),可以說是性價(jià)比之王,用更低的成本達(dá)到較好的結(jié)果。

全參微調(diào),相當(dāng)于是探索模型微調(diào)的極限。

可以看到,訓(xùn)練成本可以降低到87%。在LoRA微調(diào)上,GLM-4每千token只需要四毛錢,GLM-4-Air則只需要三分錢。

比起訓(xùn)練千億模型動(dòng)輒需要的多臺(tái)A100、A800,顯然門檻已經(jīng)大幅降低。

而即使是全參微調(diào)的情況下,GLM-4每千token也只需要六毛錢,GLM-4-Air則只需要五分錢。

下面這個(gè)例子,是一個(gè)發(fā)生在客戶身上的真實(shí)實(shí)驗(yàn)。

客戶需要模型能夠提供某領(lǐng)域?qū)I(yè)化的咨詢服務(wù),于是,智譜AI嘗試為客戶做了微調(diào)。

他們選擇了6000條語料,折合下來是一千萬token。

訓(xùn)練后,模型的可用性從60%,直接上升到了89%!

這不是一個(gè)簡(jiǎn)單的提升,而是一個(gè)本質(zhì)性的飛躍,讓模型從不可用,變成了完全可用,進(jìn)一步探索了模型使用的邊界。

所以,這次微調(diào)的成本是多少?

答案令人驚詫——如果使用LoRA的話,成本僅為300元!即使選擇全參,也只需要500元。

這個(gè)具體的demo,可以讓我們深刻地體會(huì)到,如今訓(xùn)練出一個(gè)私有模型是多么容易。

另外,在AllTools的API平臺(tái)上,智能體的能力能讓大模型從解決一個(gè)單一任務(wù),變成處理一個(gè)復(fù)雜任務(wù)。

在企業(yè)端,這樣讓使用模型的能力大幅度放開。

從此,每一家企業(yè)都能制作自己的智能體,以及智能體平臺(tái)。

它可以讓模型更好拆解任務(wù),更好調(diào)用上下文function call的能力,還為企業(yè)提供了常用的一些智能體插件。

包括代碼解釋器、知識(shí)庫(kù)檢索增強(qiáng)、函數(shù)調(diào)用能力等等。

開放平臺(tái)地址:bigmodel.cn

國(guó)內(nèi)開源,影響世界

另一邊,國(guó)內(nèi)模型開源掀起的風(fēng)浪,已然波及到全世界。

而堅(jiān)持開源,是智譜AI一直以來的傳統(tǒng)。

他們不僅是國(guó)產(chǎn)LLM的領(lǐng)頭羊,也是大模型學(xué)術(shù)生態(tài)、開源生態(tài)中,不可忽視,首屈一指的中國(guó)力量。

目前為止,智譜AI已經(jīng)有三代模型全部開源。

6B系列開源模型,在Github上已累計(jì)獲得超過6萬star,相當(dāng)于Llama系列模型的star總數(shù),超過了Grok和其他所有模型;在Hugging Face上吸引了超過1300萬次下載,四周Hugging Face趨勢(shì)榜第一。

GPT-4發(fā)布的同一天,團(tuán)隊(duì)首次開源了ChatGLM-6B模型,隨后6月開源了二代6B模型,并首次引入GQA、FlashAttention技術(shù),將模型上下文擴(kuò)充到32K,并加速了生成速度。

緊接著10月,三代6B模型開源,支持128K上下文。

GLM-4 9B系列,免費(fèi)開源

今天,智譜帶來了第四代開源模型最新成果——GLM-4-9B。

顯然,這次開源模型最大的變化是,參數(shù)規(guī)模從6B升級(jí)到了9B,并首次擁有了多模態(tài)能力。

而且,基于強(qiáng)大基座模型,GLM-4-9B不僅擁有更強(qiáng)的基礎(chǔ)能力,更長(zhǎng)的上下文,更精準(zhǔn)的函數(shù)調(diào)用和All Tools能力。

比起上一代ChatGLM3-6B,在5倍的計(jì)算量下,GLM-4 9B的性能從61.4提升到了72.4,中英文綜合能力提升40%。

另外,在與訓(xùn)練量更多的Llama-3-8B-Instruct較量中,GLM-4-9B毫不遜色。

具體來說,英文方面,第四代模型小幅領(lǐng)先,而在中文學(xué)科方面實(shí)現(xiàn)了50%的提升。

1M上下文,一次讀完2本《紅樓夢(mèng)》

除此以外,GLM-4-9B的上下文從128K擴(kuò)展到了1M,可同時(shí)處理200萬字的輸入。

這相當(dāng)于,能夠一次讀完2本《紅樓夢(mèng)》,又或是125篇論文。

在長(zhǎng)度為128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。同時(shí),在長(zhǎng)度為1M的大海撈針測(cè)試中,GLM-4-9B-Chat-1M獲得了「全綠」的成績(jī)。

演示中,在1M版本模型中,輸入《三體》的三本全集,共90萬字的內(nèi)容。

然后,給模型prompt「請(qǐng)仔細(xì)閱讀上面的三部小說,如果讓你給這個(gè)小說寫第四部,你會(huì)怎么寫,請(qǐng)給出大綱」。

模型給出了比較合理的續(xù)寫規(guī)劃。

另外,GLM-4-9B函數(shù)調(diào)用能力,比上一代大幅提升40%。

在UC伯克利函數(shù)調(diào)用Leaderboard上,9B模型函數(shù)調(diào)用能力,即可媲美GPT-4-Turbo。

智譜AI在開源倉(cāng)庫(kù)中,還提供了一個(gè)完整的All Tools Demo,開發(fā)者可以在本地?fù)碛幸粋(gè)輕量級(jí)的清言平替。

比如,先用網(wǎng)頁搜索「馬拉松的世界紀(jì)錄」,然后用代碼解釋器去計(jì)算「跑步平均速度」。

搜索世界紀(jì)錄

計(jì)算平均速度

All Tools還有非常多的組合,開發(fā)者可以自行去探索。

多模態(tài)比肩GPT-4V

除了文本模型,這次一并開源了多模態(tài)模型GLM-4V-9B。

最新模型采用了與CogVLM2相似的架構(gòu)設(shè)計(jì),能夠處理高達(dá)1120 x 1120分辨率的輸入,并通過降采樣技術(shù)有效減少了token的開銷。

與CogVLM的不同之處在于,GLM-4V-9B并沒有通過引入額外的視覺專家來增加參數(shù)量,而是采用了直接混合文本和圖片數(shù)據(jù)的方式進(jìn)行訓(xùn)練。

這種訓(xùn)練方法使得GLM-4V-9B模型能夠同時(shí)具備強(qiáng)大的文本和視覺處理能力,實(shí)現(xiàn)了真正的多模態(tài)學(xué)習(xí)。

它能夠以13B總參數(shù)激活量,超越了一眾多模態(tài)模型,甚至比肩GPT-4V。

不如看看,GLM-4V-9B在實(shí)際任務(wù)中的表現(xiàn)。

比如,讓模型去識(shí)別T恤上的公式印花——麥克斯韋方程式。

你甚至,還可以追問關(guān)于方程組的細(xì)節(jié),模型可以憑借自己的文本能力完成回答。

這從另一方面印證了,并沒有因?yàn)橐攵嗄B(tài)能力,而喪失模型原本的文本能力。

在下面這個(gè)例子中,是截取清華大學(xué)網(wǎng)絡(luò)學(xué)堂的一個(gè)網(wǎng)頁截圖,并要求模型翻譯成HTML代碼。

GLM-4V-9B就可以識(shí)別出其中元素,并翻譯成相應(yīng)的代碼。

整體來說,GLM-4-9B模型共有9.4B參數(shù),是在10T的高質(zhì)量多語言數(shù)據(jù)上,完成了預(yù)訓(xùn)練,幾乎利用了所有網(wǎng)頁數(shù)據(jù)。

其數(shù)據(jù)量是ChatGLM3-6B模型的3倍還要多。

與此同時(shí),智譜AI采用了FP8精度進(jìn)行高效的預(yù)訓(xùn)練并成功收斂,比起上一代模型,訓(xùn)練效率提升3.5倍。

由此,智譜AI將參數(shù)規(guī)模從6B擴(kuò)展至9B,并將預(yù)訓(xùn)練計(jì)算量增加了5倍。

基于文本基座,打造的多模態(tài)模型GLM-4V-9B,完全融合了文本和視覺模型,并與GPT-4V不相上下。

成立于2019年,智譜AI用了4年的時(shí)間從一家明星創(chuàng)業(yè)公司,躋身為國(guó)內(nèi)頭部AI獨(dú)角獸。

一直以來,外界對(duì)智譜的印象是,清華系國(guó)家隊(duì),全面對(duì)標(biāo)OpenAI技術(shù)領(lǐng)先,to B氣質(zhì)強(qiáng)烈。

智譜不僅在大模型的能力上向OpenAI看齊,而且在投資領(lǐng)域布局上也不遑多讓,深受資本青睞。

過去一年中,他們完成了3次基座大模型升級(jí)迭代,這次OpenDay 核心展示了面向AGI愿景的完整產(chǎn)品矩陣,透?jìng)鞒鑫磥砩虡I(yè)化的模式。

智譜AI正把MaaS商業(yè)模式提升到新的境界。MaaS平臺(tái)2.0的誕生,將會(huì)進(jìn)一步擴(kuò)大智譜生態(tài)朋友圈。

本文來源:新智元

新智元

網(wǎng)友評(píng)論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部