昨天智譜AI開放日上,新一代MaaS平臺(tái)2.0正式發(fā)布。 這次,GLM技術(shù)團(tuán)隊(duì)帶來的是從模型,到成本、企業(yè)定制模型,以及業(yè)務(wù)場(chǎng)景的全面升級(jí)。 令人驚喜的是,第四代GLM系列開源模型GLM-4 9B,官宣開源免費(fèi)用,還具備了多模態(tài)能力。同時(shí),新發(fā)布的GLM-4-AIR性能媲美此前的最大基座模型,且價(jià)格降至1元/M token。 在5月這波價(jià)格戰(zhàn)之后,國(guó)內(nèi)主流大模型API調(diào)用已經(jīng)直降超90%。 需要明白的是,即便token價(jià)格無限逼近零,企業(yè)需要搞清楚如何用才能發(fā)揮巨大業(yè)務(wù)價(jià)值。 否則,再便宜也是無用功。 這次的發(fā)布,直接將智譜AI帶入了商業(yè)化的最后一站。新一代MaaS平臺(tái)出場(chǎng),便是一個(gè)很好的起點(diǎn)。 大模型2024:既要落地,又要開源 如果說2023年是世界發(fā)現(xiàn)生成式AI的一年,那么,2024年才是企業(yè)真正使用GenAI,并從中獲得商業(yè)價(jià)值的一年。 麥肯錫最新的全球調(diào)查報(bào)告稱,65%的受訪者表示企業(yè)會(huì)經(jīng)常使用生成式AI。 而這個(gè)數(shù)字,比十個(gè)月前的調(diào)查(33%),幾乎翻了一番。 對(duì)于企業(yè)來說,從選用模型,到以低成本微調(diào)部署模型,并擁有靈活可用的全棧工具鏈,是讓GenAI走向落地必不可少的過程。 那些無法「造血」沒有自研模型的公司,就需要通過API、MaaS等平臺(tái),以便讓LLM融入工作流。 比如,法律AI初創(chuàng)公司Harvey,通過OpenAI API,為律師們微調(diào)定制了一個(gè)「案例法模型」。 而且,經(jīng)過測(cè)試,相較于GPT-4,有97%的律師更喜歡使用Harvey的模型。 而另一個(gè)典型的案例是,開源社區(qū)借助Llama 3之力,已經(jīng)大大加速GenAI在醫(yī)療領(lǐng)域的應(yīng)用。 在英偉達(dá)NIM推理微服務(wù)平臺(tái)支持下,醫(yī)療開發(fā)者利用Llama 3已經(jīng)開發(fā)出各種聊天助手、健康A(chǔ)PP等。 反觀國(guó)內(nèi),LLM落地究竟有多火,就從卷瘋的token價(jià)格戰(zhàn),可一瞥而知。 API價(jià)格,已經(jīng)卷瘋 而在國(guó)產(chǎn)大模型的戰(zhàn)場(chǎng)上,價(jià)格戰(zhàn)也在最近卷出新高。 智譜AI開放平臺(tái)的新用戶,登錄就送的500萬token直接漲到2500萬token GLM-3-Turbo每千token從0.005元直降到0.001元 GLM-3 Turbo批處理API的價(jià)格也直接砍半,每千token砍到0.0005元 隨后,火山引擎祭出更勁爆價(jià)格——豆包的企業(yè)定價(jià)直接擊穿地心,千token低至0.0008元,比整個(gè)行業(yè)都便宜了99.3%。 智譜AI表示,基于技術(shù)突破、效率提升和成本控制三個(gè)因素綜合的結(jié)果。通過大模型價(jià)格調(diào)整,更好滿足開發(fā)者、客戶需求。 當(dāng)然,價(jià)格戰(zhàn)僅是智譜AI貫徹MaaS戰(zhàn)略中的一個(gè)「支點(diǎn)」。 大廠MaaS,如火如荼 大模型沸騰的熱度,也讓國(guó)內(nèi)廠商的MaaS發(fā)展如火如荼。 所謂MaaS,即用戶可以直接使用不同參數(shù)、不同規(guī)格的細(xì)分模型,來應(yīng)對(duì)千變?nèi)f化的應(yīng)用場(chǎng)景。 商業(yè)鏈路打通后,蜂擁而至的開發(fā)者,就會(huì)讓應(yīng)用商店持續(xù)繁榮,形成「馬太效應(yīng)」。 今天的OpenDay上,智譜AI宣布MaaS平臺(tái)不僅已經(jīng)擁有了30萬注冊(cè)用戶,而且模型的日均調(diào)用量也超過了400億token。 在下面這條曲線中可以看出,在過去6個(gè)月中,智譜每日API的消耗量,增長(zhǎng)了50倍以上。這正說明:已經(jīng)有越來越多的企業(yè),已經(jīng)真正把模型用到了日常工作中。 GLM-4的API調(diào)用量則,則達(dá)到了90倍的增長(zhǎng)。這也正說明,企業(yè)已經(jīng)開始利用模型能力進(jìn)入深水區(qū),解決一些真正復(fù)雜的問題。 而今年,大家開始對(duì)于大模型有了一些新的期待——除了更強(qiáng)大、更快的模型,用戶也開始對(duì)成本變得敏感。 模型升級(jí):0.1元寫2本《紅樓夢(mèng)》如今,平臺(tái)上已經(jīng)全線接入新模型,由ChatGLM3-6B升級(jí)為GLM-4-9B,堪稱“最能打的小模型”,已經(jīng)全面超過了 Llama3-8B-Instruct。 在開放平臺(tái)上,它變成GLM-4 Flash版本,價(jià)格相對(duì)于GLM-3-Turbo再次降價(jià)10倍,僅僅0.1元,就可以擁有一百萬tokens,足夠?qū)憙杀舅拇竺耍?/span> 如果小模型不能滿足需求,新推出的GLM-4-Air性能更加強(qiáng)大。它的性能跟和此前的GLM-4-0116相仿,但價(jià)格僅為前者的百分之一!一百萬tokens,僅需一元。 而許多企業(yè)應(yīng)用到深水區(qū)時(shí),對(duì)速度也有極高的要求,在此基礎(chǔ)之上,智譜加入了極速版。 效果不變,但推理速度直升162%。71 token每秒,相當(dāng)于每秒可以直出100多個(gè)漢字! 并且,GLM-4-0116也同時(shí)升級(jí)了。 就在今天,智譜推出了GLM-4-0520,它的綜合能力,已經(jīng)提升了11.9%。 真正做過模型的應(yīng)用的人,都明白這意味著什么:雖然在數(shù)字上看來只是一點(diǎn)點(diǎn)的提升,但這已經(jīng)進(jìn)一步提升了模型的天花板,極大擴(kuò)展應(yīng)用的范圍,降低應(yīng)用的成本。 如今,智譜AI已經(jīng)擁有全模型矩陣。 無論是GLM-4V,還是CogView-3,降價(jià)都達(dá)到了50%-60%——一張圖只需一毛錢。 開放平臺(tái)升級(jí):3步訓(xùn)出一個(gè)私有模型每個(gè)企業(yè)都希望構(gòu)建自己的私有模型。雖然開源生態(tài)讓模型訓(xùn)練門檻大幅降低,但對(duì)于絕大多數(shù)企業(yè),這個(gè)過程依然太復(fù)雜。 為此,智譜AI也全面升級(jí)了自己的平臺(tái),僅僅三步——準(zhǔn)備數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù)、部署模型,就能讓企業(yè)訓(xùn)出一個(gè)私有模型了! 這個(gè)過程中,不需要任何代碼功底。而且,GLM-4全系列模型都支持這樣的微調(diào)。 針對(duì)企業(yè),智譜AI提供了兩種模式:LoRA微調(diào)和全參微調(diào)。 LoRA微調(diào),可以說是性價(jià)比之王,用更低的成本達(dá)到較好的結(jié)果。 全參微調(diào),相當(dāng)于是探索模型微調(diào)的極限。 可以看到,訓(xùn)練成本可以降低到87%。在LoRA微調(diào)上,GLM-4每千token只需要四毛錢,GLM-4-Air則只需要三分錢。 比起訓(xùn)練千億模型動(dòng)輒需要的多臺(tái)A100、A800,顯然門檻已經(jīng)大幅降低。 而即使是全參微調(diào)的情況下,GLM-4每千token也只需要六毛錢,GLM-4-Air則只需要五分錢。 下面這個(gè)例子,是一個(gè)發(fā)生在客戶身上的真實(shí)實(shí)驗(yàn)。 客戶需要模型能夠提供某領(lǐng)域?qū)I(yè)化的咨詢服務(wù),于是,智譜AI嘗試為客戶做了微調(diào)。 他們選擇了6000條語料,折合下來是一千萬token。 訓(xùn)練后,模型的可用性從60%,直接上升到了89%! 這不是一個(gè)簡(jiǎn)單的提升,而是一個(gè)本質(zhì)性的飛躍,讓模型從不可用,變成了完全可用,進(jìn)一步探索了模型使用的邊界。 所以,這次微調(diào)的成本是多少? 答案令人驚詫——如果使用LoRA的話,成本僅為300元!即使選擇全參,也只需要500元。 這個(gè)具體的demo,可以讓我們深刻地體會(huì)到,如今訓(xùn)練出一個(gè)私有模型是多么容易。 另外,在AllTools的API平臺(tái)上,智能體的能力能讓大模型從解決一個(gè)單一任務(wù),變成處理一個(gè)復(fù)雜任務(wù)。 在企業(yè)端,這樣讓使用模型的能力大幅度放開。 從此,每一家企業(yè)都能制作自己的智能體,以及智能體平臺(tái)。 它可以讓模型更好拆解任務(wù),更好調(diào)用上下文function call的能力,還為企業(yè)提供了常用的一些智能體插件。 包括代碼解釋器、知識(shí)庫(kù)檢索增強(qiáng)、函數(shù)調(diào)用能力等等。 開放平臺(tái)地址:bigmodel.cn 國(guó)內(nèi)開源,影響世界 另一邊,國(guó)內(nèi)模型開源掀起的風(fēng)浪,已然波及到全世界。 而堅(jiān)持開源,是智譜AI一直以來的傳統(tǒng)。 他們不僅是國(guó)產(chǎn)LLM的領(lǐng)頭羊,也是大模型學(xué)術(shù)生態(tài)、開源生態(tài)中,不可忽視,首屈一指的中國(guó)力量。 目前為止,智譜AI已經(jīng)有三代模型全部開源。 6B系列開源模型,在Github上已累計(jì)獲得超過6萬star,相當(dāng)于Llama系列模型的star總數(shù),超過了Grok和其他所有模型;在Hugging Face上吸引了超過1300萬次下載,四周Hugging Face趨勢(shì)榜第一。 GPT-4發(fā)布的同一天,團(tuán)隊(duì)首次開源了ChatGLM-6B模型,隨后6月開源了二代6B模型,并首次引入GQA、FlashAttention技術(shù),將模型上下文擴(kuò)充到32K,并加速了生成速度。 緊接著10月,三代6B模型開源,支持128K上下文。 GLM-4 9B系列,免費(fèi)開源今天,智譜帶來了第四代開源模型最新成果——GLM-4-9B。 顯然,這次開源模型最大的變化是,參數(shù)規(guī)模從6B升級(jí)到了9B,并首次擁有了多模態(tài)能力。 而且,基于強(qiáng)大基座模型,GLM-4-9B不僅擁有更強(qiáng)的基礎(chǔ)能力,更長(zhǎng)的上下文,更精準(zhǔn)的函數(shù)調(diào)用和All Tools能力。 比起上一代ChatGLM3-6B,在5倍的計(jì)算量下,GLM-4 9B的性能從61.4提升到了72.4,中英文綜合能力提升40%。 另外,在與訓(xùn)練量更多的Llama-3-8B-Instruct較量中,GLM-4-9B毫不遜色。 具體來說,英文方面,第四代模型小幅領(lǐng)先,而在中文學(xué)科方面實(shí)現(xiàn)了50%的提升。 1M上下文,一次讀完2本《紅樓夢(mèng)》除此以外,GLM-4-9B的上下文從128K擴(kuò)展到了1M,可同時(shí)處理200萬字的輸入。 這相當(dāng)于,能夠一次讀完2本《紅樓夢(mèng)》,又或是125篇論文。 在長(zhǎng)度為128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。同時(shí),在長(zhǎng)度為1M的大海撈針測(cè)試中,GLM-4-9B-Chat-1M獲得了「全綠」的成績(jī)。 演示中,在1M版本模型中,輸入《三體》的三本全集,共90萬字的內(nèi)容。 然后,給模型prompt「請(qǐng)仔細(xì)閱讀上面的三部小說,如果讓你給這個(gè)小說寫第四部,你會(huì)怎么寫,請(qǐng)給出大綱」。 模型給出了比較合理的續(xù)寫規(guī)劃。 另外,GLM-4-9B函數(shù)調(diào)用能力,比上一代大幅提升40%。 在UC伯克利函數(shù)調(diào)用Leaderboard上,9B模型函數(shù)調(diào)用能力,即可媲美GPT-4-Turbo。 智譜AI在開源倉(cāng)庫(kù)中,還提供了一個(gè)完整的All Tools Demo,開發(fā)者可以在本地?fù)碛幸粋(gè)輕量級(jí)的清言平替。 比如,先用網(wǎng)頁搜索「馬拉松的世界紀(jì)錄」,然后用代碼解釋器去計(jì)算「跑步平均速度」。 搜索世界紀(jì)錄 計(jì)算平均速度 All Tools還有非常多的組合,開發(fā)者可以自行去探索。 多模態(tài)比肩GPT-4V除了文本模型,這次一并開源了多模態(tài)模型GLM-4V-9B。 最新模型采用了與CogVLM2相似的架構(gòu)設(shè)計(jì),能夠處理高達(dá)1120 x 1120分辨率的輸入,并通過降采樣技術(shù)有效減少了token的開銷。 與CogVLM的不同之處在于,GLM-4V-9B并沒有通過引入額外的視覺專家來增加參數(shù)量,而是采用了直接混合文本和圖片數(shù)據(jù)的方式進(jìn)行訓(xùn)練。 這種訓(xùn)練方法使得GLM-4V-9B模型能夠同時(shí)具備強(qiáng)大的文本和視覺處理能力,實(shí)現(xiàn)了真正的多模態(tài)學(xué)習(xí)。 它能夠以13B總參數(shù)激活量,超越了一眾多模態(tài)模型,甚至比肩GPT-4V。 不如看看,GLM-4V-9B在實(shí)際任務(wù)中的表現(xiàn)。 比如,讓模型去識(shí)別T恤上的公式印花——麥克斯韋方程式。 你甚至,還可以追問關(guān)于方程組的細(xì)節(jié),模型可以憑借自己的文本能力完成回答。 這從另一方面印證了,并沒有因?yàn)橐攵嗄B(tài)能力,而喪失模型原本的文本能力。 在下面這個(gè)例子中,是截取清華大學(xué)網(wǎng)絡(luò)學(xué)堂的一個(gè)網(wǎng)頁截圖,并要求模型翻譯成HTML代碼。 GLM-4V-9B就可以識(shí)別出其中元素,并翻譯成相應(yīng)的代碼。 整體來說,GLM-4-9B模型共有9.4B參數(shù),是在10T的高質(zhì)量多語言數(shù)據(jù)上,完成了預(yù)訓(xùn)練,幾乎利用了所有網(wǎng)頁數(shù)據(jù)。 其數(shù)據(jù)量是ChatGLM3-6B模型的3倍還要多。 與此同時(shí),智譜AI采用了FP8精度進(jìn)行高效的預(yù)訓(xùn)練并成功收斂,比起上一代模型,訓(xùn)練效率提升3.5倍。 由此,智譜AI將參數(shù)規(guī)模從6B擴(kuò)展至9B,并將預(yù)訓(xùn)練計(jì)算量增加了5倍。 基于文本基座,打造的多模態(tài)模型GLM-4V-9B,完全融合了文本和視覺模型,并與GPT-4V不相上下。 成立于2019年,智譜AI用了4年的時(shí)間從一家明星創(chuàng)業(yè)公司,躋身為國(guó)內(nèi)頭部AI獨(dú)角獸。 一直以來,外界對(duì)智譜的印象是,清華系國(guó)家隊(duì),全面對(duì)標(biāo)OpenAI技術(shù)領(lǐng)先,to B氣質(zhì)強(qiáng)烈。 智譜不僅在大模型的能力上向OpenAI看齊,而且在投資領(lǐng)域布局上也不遑多讓,深受資本青睞。 過去一年中,他們完成了3次基座大模型升級(jí)迭代,這次OpenDay 核心展示了面向AGI愿景的完整產(chǎn)品矩陣,透?jìng)鞒鑫磥砩虡I(yè)化的模式。 智譜AI正把MaaS商業(yè)模式提升到新的境界。MaaS平臺(tái)2.0的誕生,將會(huì)進(jìn)一步擴(kuò)大智譜生態(tài)朋友圈。 本文來源:新智元 |
原創(chuàng)欄目
IT百科
網(wǎng)友評(píng)論
聚超值•精選