據(jù)豆包大模型團隊消息,字節(jié)跳動豆包大模型Foundation團隊近期提出UltraMem,一種同樣將計算和參數(shù)解耦的稀疏模型架構(gòu),在保證模型效果的前提下解決了推理的訪存問題。據(jù)介紹,該架構(gòu)有效解決了MoE推理時高額的訪存問題,推理速度較MoE架構(gòu)提升2-6倍,推理成本最高可降低83%。(36氪)
據(jù)豆包大模型團隊消息,字節(jié)跳動豆包大模型Foundation團隊近期提出UltraMem,一種同樣將計算和參數(shù)解耦的稀疏模型架構(gòu),在保證模型效果的前提下解決了推理的訪存問題。據(jù)介紹,該架構(gòu)有效解決了MoE推理時高額的訪存問題,推理速度較MoE架構(gòu)提升2-6倍,推理成本最高可降低83%。(36氪)