應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

豆包提出全新稀疏模型架構(gòu) UltraMem,推理成本較 MoE 最高可降 83%

2025-02-13 09:12 IT之家

導(dǎo)讀:豆包大模型團(tuán)隊(duì)宣布,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)提出了全新的稀疏模型架構(gòu) UltraMem,該架構(gòu)有效解決了 MoE 推理時(shí)高額的訪存問題,推理速度較 MoE 架構(gòu)提升 2-6 倍,推理成本最高可降低 83%。

  2 月 12 日消息,豆包大模型團(tuán)隊(duì)宣布,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)提出了全新的稀疏模型架構(gòu) UltraMem,該架構(gòu)有效解決了 MoE 推理時(shí)高額的訪存問題,推理速度較 MoE 架構(gòu)提升 2-6 倍,推理成本最高可降低 83%。該研究還揭示了新架構(gòu)的 Scaling Law,證明其不僅具備優(yōu)異的 Scaling 特性,更在性能上超越了 MoE。

  實(shí)驗(yàn)結(jié)果表明,訓(xùn)練規(guī)模達(dá) 2000 萬 value 的 UltraMem 模型,在同等計(jì)算資源下可同時(shí)實(shí)現(xiàn)業(yè)界領(lǐng)先的推理速度和模型性能,為構(gòu)建數(shù)十億規(guī)模 value 或 expert 開辟了新路徑。

  據(jù)介紹,UltraMem 是一種同樣將計(jì)算和參數(shù)解耦的稀疏模型架構(gòu),在保證模型效果的前提下解決了推理的訪存問題。實(shí)驗(yàn)結(jié)果表明,在參數(shù)和激活條件相同的情況下,UltraMem在模型效果上超越了 MoE,并將推理速度提升了2-6倍。此外,在常見 batch size 規(guī)模下,UltraMem 的訪存成本幾乎與同計(jì)算量的 Dense 模型相當(dāng)。

  在 Transformer 架構(gòu)下,模型的性能與其參數(shù)數(shù)量和計(jì)算復(fù)雜度呈對(duì)數(shù)關(guān)系。隨著 LLM 規(guī)模不斷增大,推理成本會(huì)急劇增加,速度變慢。

  盡管 MoE 架構(gòu)已經(jīng)成功將計(jì)算和參數(shù)解耦,但在推理時(shí),較小的 batch size 就會(huì)激活全部專家,導(dǎo)致訪存急劇上升,進(jìn)而使推理延遲大幅增加。

  注:“MoE”指 Mixture of Experts(專家混合)架構(gòu),是一種用于提升模型性能和效率的架構(gòu)設(shè)計(jì)。在 MoE 架構(gòu)中,模型由多個(gè)子模型(專家)組成,每個(gè)專家負(fù)責(zé)處理輸入數(shù)據(jù)的一部分。在訓(xùn)練和推理過程中,根據(jù)輸入數(shù)據(jù)的特征,會(huì)選擇性地激活部分專家來進(jìn)行計(jì)算,從而實(shí)現(xiàn)計(jì)算和參數(shù)的解耦,提高模型的靈活性和效率。