【天極網(wǎng)企業(yè)頻道】這兩年的阿里云表現(xiàn)頗為躁動(dòng):先是在政務(wù)云市場(chǎng)“失利”之后,為鞏固企業(yè)市場(chǎng),選擇一輪又一輪的云降價(jià);后是在“百模大戰(zhàn)”,大模型廠商各顯神通的背景下,又一次選擇降價(jià)策略,掀起新一輪大模型降價(jià)潮:
5月21日,阿里云宣布,通義千問(wèn)GPT-4級(jí)主力模型Qwen-Long的API輸入價(jià)格降至0.0005元/千Tokens,直降97%。
緊接著,百度發(fā)文稱,文心大模型兩款主力模型ENIRE?Speed和ENIRE?Lite全面免費(fèi)。阿里稱,大幅降低大模型推理價(jià)格,就是希望加速AI應(yīng)用的爆發(fā)。?
大模型進(jìn)入普惠時(shí)代?
雖然,阿里云將大模型降價(jià)推向高潮,但并不是大模型降價(jià)的“首創(chuàng)”。
5月13日,OpenAI舉行新品發(fā)布會(huì),并帶來(lái)一款名為GPT-4o的人工智能模型。OpenAI表示,GPT-4o在多模態(tài)方面能力強(qiáng)大,且用戶可以免費(fèi)使用。哪怕大模型再燒錢(qián),OpenAI也很執(zhí)著于降價(jià)。?
同樣不在乎錢(qián)的還有火山引擎,其推出的豆包大模型,大幅低于行業(yè)價(jià)格。據(jù)悉,豆包通用模型pro-32k的推理輸入價(jià)格為0.0008元/千Tokens。按當(dāng)時(shí)來(lái)講,比行業(yè)便宜99.3%。這波大模型降價(jià)潮,將席卷哪些廠商尚未可知,可以肯定的是,云大廠將無(wú)一幸免。?
為何?進(jìn)入2024年以來(lái),大模型競(jìng)爭(zhēng)主要集中于場(chǎng)景化應(yīng)用,比如月之暗面的長(zhǎng)文本,再比如網(wǎng)絡(luò)運(yùn)維領(lǐng)域的GPT產(chǎn)品等。
大模型廠商在各自賽道跑馬圈地,殊不知當(dāng)以阿里云、百度智能云、火山引擎為代表的大模型布局場(chǎng)景接近尾聲之時(shí),最有效的競(jìng)爭(zhēng)策略便是“降價(jià)”。
在此背景下,百模大戰(zhàn)格局將面臨全新洗牌,市場(chǎng)不再需要如此之多的玩家,這一點(diǎn)像極了滴滴與優(yōu)步的競(jìng)爭(zhēng)策略,通過(guò)燒錢(qián)入場(chǎng),進(jìn)而收獲市場(chǎng)。
而這一輪的重新洗牌之后,對(duì)于用戶或企業(yè)而言,最大的好處在于,大模型也正在進(jìn)入普惠時(shí)代,用戶開(kāi)始低價(jià)享受技術(shù)帶來(lái)的革新。
大模型為何能降價(jià)?
一個(gè)非常有意思的事情是,當(dāng)大家還在“糾結(jié)”于大模型訓(xùn)練與推理燒錢(qián)的時(shí)候,大模型已經(jīng)開(kāi)始降價(jià)了。
相關(guān)數(shù)據(jù)顯示,飛槳平臺(tái)在萬(wàn)卡集群訓(xùn)練出來(lái)的文心大模型4.0版本,推理成本預(yù)計(jì)是文心大模型3.5版本的8至10倍。其燒錢(qián)程度可見(jiàn)一斑。?
事實(shí)上,將大模型交付用戶使用之后,如果沒(méi)有大版本更新,那么主要消耗的是推理成本。有觀點(diǎn)認(rèn)為決定大模型推理成本的有三個(gè)因素:大模型的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)規(guī)模;大模型的推理部署,比如并行推理、量化、部署方式等;芯片和集群等硬件也將影響大模型的推理成本。
所以,只要參數(shù)規(guī)模小、大模型推理部署簡(jiǎn)單,以及硬件成本低,大模型降價(jià)并不是全無(wú)可能。與此同時(shí),頭部通用大模型廠商正在積極地開(kāi)展“成本瘦身”運(yùn)動(dòng):
微軟新公布的GPT-3支持的AI超級(jí)計(jì)算機(jī)在AI模型訓(xùn)練效率上實(shí)現(xiàn)了顯著突破,相較其他平臺(tái),其訓(xùn)練效率提升了高達(dá)16倍。這一顯著地提升不僅大幅減少了時(shí)間成本,還有效降低了潛在的風(fēng)險(xiǎn)成本,使得AI模型的研發(fā)和應(yīng)用變得更加高效和可行。?
盤(pán)古大模型在其2.0版本中,已經(jīng)前瞻性地采用了稀疏+稠密的創(chuàng)新架構(gòu),旨在降低模型的訓(xùn)練成本。這種架構(gòu)通過(guò)優(yōu)化計(jì)算資源的使用,提高了訓(xùn)練過(guò)程的效率,為AI模型的開(kāi)發(fā)和應(yīng)用提供了更為經(jīng)濟(jì)且高效的解決方案。
而文心一言在推出僅一個(gè)月后,通過(guò)技術(shù)革新,成功將其大模型的推理性能提升了近10倍。這一卓越的性能提升不僅帶來(lái)了更快速的推理速度,還顯著降低了推理成本,僅為原來(lái)的十分之一。?
賽迪顧問(wèn)人工智能與大數(shù)據(jù)研究中心常務(wù)副總經(jīng)理鄒德寶解釋道,價(jià)格的差異首先源于各家大模型在技術(shù)實(shí)力、應(yīng)用場(chǎng)景和訓(xùn)練成本等方面的不同。技術(shù)領(lǐng)先、功能強(qiáng)大的模型往往定價(jià)較高,而功能相對(duì)簡(jiǎn)單或訓(xùn)練成本較低的模型則定價(jià)較低。
此外,市場(chǎng)競(jìng)爭(zhēng)的激烈程度也是影響定價(jià)的重要因素。為了吸引更多客戶,一些模型廠商選擇降價(jià)策略,從而在市場(chǎng)中占據(jù)更有利的位置。
大廠賠錢(qián)搶市場(chǎng),小廠路在何方?
在競(jìng)爭(zhēng)日趨白熱化的大模型市場(chǎng)中,大廠憑借其雄厚的資本、深厚的技術(shù)積累以及規(guī)?;?jīng)營(yíng)的優(yōu)勢(shì),占據(jù)了主導(dǎo)地位。
火山引擎總裁譚待在訪談中明確指出,降低成本是推動(dòng)大模型迅速進(jìn)入“價(jià)值創(chuàng)造階段”的核心動(dòng)力,并且大規(guī)模地使用不僅能夠優(yōu)化模型,還能顯著減少模型推理的單位成本。?
當(dāng)前,大廠為搶占市場(chǎng)份額不惜以賠錢(qián)的代價(jià)進(jìn)行競(jìng)爭(zhēng),這無(wú)疑給小規(guī)模模型提供商帶來(lái)了巨大的生存壓力。
據(jù)統(tǒng)計(jì),截至2024年4月底,大模型相關(guān)項(xiàng)目的中標(biāo)公告已累計(jì)近200個(gè),遠(yuǎn)超過(guò)2023年的總數(shù)。面對(duì)大廠的強(qiáng)勢(shì)擠壓,初創(chuàng)企業(yè)的生存空間被嚴(yán)重壓縮。
價(jià)格戰(zhàn)雖然能在短期內(nèi)帶來(lái)市場(chǎng)份額的擴(kuò)張,但長(zhǎng)期來(lái)看,它可能壓縮企業(yè)的利潤(rùn)空間,影響行業(yè)的健康發(fā)展。
對(duì)于實(shí)力雄厚的大企業(yè)來(lái)說(shuō),價(jià)格戰(zhàn)是鞏固市場(chǎng)地位、實(shí)現(xiàn)規(guī)模效益的機(jī)遇;然而,對(duì)于規(guī)模較小、實(shí)力較弱的模型提供商而言,它們面臨的生存壓力將日益加劇。
寫(xiě)在最后
原以為在大模型部署的前期階段,廠商還是集中于探索場(chǎng)景化應(yīng)用于技術(shù)突破,價(jià)格戰(zhàn)將是后期采用的策略。
然而,在OpenAI、字節(jié)跳動(dòng)、阿里云、百度云的加碼下,大模型也迎來(lái)新一輪降價(jià)。?
在如此激烈的競(jìng)爭(zhēng)中,中小大模型企業(yè)需要尋找自己的發(fā)展道路。在數(shù)據(jù)、算法、算力等方面均不如頭部企業(yè)的情況下,差異化發(fā)展成為了關(guān)鍵。
它們可以選擇深耕某一細(xì)分領(lǐng)域的行業(yè)大模型,或者加速應(yīng)用的落地,通過(guò)獨(dú)特的價(jià)值和創(chuàng)新能力,為自己贏得一席之地。這些都是中小大模型企業(yè)當(dāng)前迫切需要解決的問(wèn)題。
- QQ:61149512