科技博主闌夕:大模型不光卷價格,還要卷并發快訊
豆包模型定價,千tokens推理輸入售價0.5厘,拿以前云雀模型的限流指標和模型單元價格來算。
豆包通用模型lite-4k/32k,千tokens推理輸入售價0.3厘;通義千問qwen-long,千tokens推理輸入售價0.5厘;百度文心ERNIE Speed、ERNIE Lite,宣布免費。
針對近期的大模型降價狂潮,科技博主闌夕發文稱:行業里說千Tokens價格,光低價還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價格降下去,吞吐還是小水管,那真是降了個寂寞。
以下是闌夕微博主要觀點:
豆包大模型打響價格戰已經過了一個星期,山雨欲來的效果還是挺明顯的,同行要么跟著一起降價,要么開始寫小作文陰陽,特別熱鬧。
有比較急的,拿以前云雀模型的限流指標和模型單元價格來算,暗戳戳說豆包實際使用價格要高。等火山引擎官網把不同版本、不同規格的銷售方案全部亮了出來,不管是預付費還是后付費都確實是擊穿地板的底價標準,瞬間打臉回去。
豆包模型定價,最值得關注的是把TPM(每分鐘token數)提到80萬,比同行(一般是10萬到30萬tokens)高幾倍。如果對話文本小,RPM(每分鐘請求數)上限1萬,能支持的并發量是同行(一般是60到120,輕量版是300到500)的幾十倍。其他大模型要不要跟?
行業里說千Tokens價格,光低價還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價格降下去,吞吐還是小水管,那真是降了個寂寞。
(關于免費)大模型的算力燒錢主要在訓練端,推理端的成本其實是每年都有幾十倍優化空間的。但再怎么優化,也不可能優化到0。
足夠便宜,但依然能賺錢,由此促成應用/商用市場的規模增長,包括OpenAI在內的主流大模型開發商,都是這么一個思路,可以不講武德,但是商業規律還是得敬畏的。
不管怎么說,大模型toB還在做大蛋糕的階段,有更多公司一起解決企業入局的成本門檻,也都算是共贏吧。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。