超聚變FusionOne AI單機(jī)跑滿血DeepSeek,吞吐性能飆升60%觀點(diǎn)

超聚變FusionOne AI大模型一體機(jī)通過軟硬協(xié)同,保障模型參數(shù)、過程KV高效運(yùn)行 數(shù)據(jù)、模型并行調(diào)度,成功打破了H20運(yùn)行DeepSeek滿血大模型的性能天花板。
如今,人工智能發(fā)展迅猛,大模型更是成為推動(dòng)AI技術(shù)進(jìn)步的“引擎”。然而,隨著模型參數(shù)量的激增,算力需求也呈指數(shù)級增長,如何高效、低成本地運(yùn)行大模型成為行業(yè)面臨的共同挑戰(zhàn)。
以DeepSeek R1滿血大模型為例,其參數(shù)量高達(dá)6710億,由于其采用了前沿的MLA注意力機(jī)制、共享專家和路由專家共同組成的混合專家(MoE)架構(gòu),在提升推理效能方面成果顯著,但是企業(yè)在實(shí)際應(yīng)用過程中,對大模型的性價(jià)比有著更為極致的追求。
近日,超聚變FusionOne AI大模型一體機(jī)通過軟硬協(xié)同,深度調(diào)優(yōu),成功打破了H20運(yùn)行DeepSeek滿血大模型的性能天花板。在模擬問題對話場景(上下文序列長度1K/1K)下,僅需1臺(tái)FusionServer G8600搭載8張H20硬件,即可流暢運(yùn)行DeepSeek R1滿血版,支持1024并發(fā)訪問數(shù),總吞吐量高達(dá)6335 token/s,性能領(lǐng)先業(yè)內(nèi)H20方案60%。其中,TPOT(Time per Output Token)時(shí)延相比業(yè)內(nèi)H20方案減少40%,單臺(tái)FusionOne AI大模型一體機(jī)即可支撐數(shù)千人規(guī)模企業(yè)使用,將單機(jī)H20運(yùn)行大模型的性能推向新高度。
軟硬協(xié)同調(diào)優(yōu),打破 H20 性能天花板
算力釋放,顯存最優(yōu)分配:通過內(nèi)核優(yōu)化,提升顯存空間利用率20%,KV cache池使用率提升至93%,保障模型參數(shù)、過程KV高效運(yùn)行
數(shù)據(jù)、模型并行調(diào)度:通過DP數(shù)據(jù)并行、TP模型張量并行技術(shù),調(diào)度多卡分布式并行計(jì)算,提升token產(chǎn)生的吞吐效率50%,有效提升計(jì)算效能
推理任務(wù)切片混合調(diào)度:Prefill階段(首token輸出階段任務(wù))長文本切片, 加速初始內(nèi)容生成速度,同時(shí)在每個(gè)切片計(jì)算過程中,混合調(diào)度Decode任務(wù)(后續(xù)token迭代生成任務(wù))并行運(yùn)行, 無需串行等待,提高資源利用率,降低TTFT(Time to First Token)和TPOT(Time per Output Token )。
超聚變FusionOne AI大模型一體機(jī)以極致成本、性能躍升的雙重突破,大幅降低DeepSeek-R1 671B模型的部署門檻,以普惠形態(tài)讓更多企業(yè)和科研機(jī)構(gòu)能夠輕松應(yīng)用。未來,超聚變將持續(xù)加大研發(fā)投入,聚焦AI算力優(yōu)化與應(yīng)用拓展,加速企業(yè)AI應(yīng)用落地。
*本文圖片均來源于網(wǎng)絡(luò)
僅代表個(gè)人觀點(diǎn),未經(jīng)授權(quán),任何人不得以任何方式使用,包括轉(zhuǎn)載、摘編、復(fù)制或建立鏡像。
部分圖片來自網(wǎng)絡(luò),且未核實(shí)版權(quán)歸屬,不作為商業(yè)用途,如有侵犯,請作者與我們聯(lián)系。
?AI產(chǎn)業(yè)新媒體;
?澎湃新聞科技榜單月度top5;
?文章長期“霸占”鈦媒體熱門文章排行榜TOP10;
?著有《人工智能 十萬個(gè)為什么》
?【重點(diǎn)關(guān)注領(lǐng)域】智能家電(含白電、黑電、智能手機(jī)、無人機(jī)等AIoT設(shè)備)、智能駕駛、AI+醫(yī)療、機(jī)器人、物聯(lián)網(wǎng)、AI+金融、AI+教育、AR/VR、云計(jì)算、開發(fā)者以及背后的芯片、算法等。
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。