中科院攻破MoE困境中科院让大模型更轻更快更聪明大模型参数量飙升至千亿、万亿级,

量子位看科技 2025-10-11 13:43:36

中科院攻破MoE困境中科院让大模型更轻更快更聪明

大模型参数量飙升至千亿、万亿级,却陷入“规模越大,效率越低” 困境?

中科院自动化所新研究给出破局方案——

首次让MoE专家告别“静态孤立”,开启动态“组队学习”。

具体而言,MoE本是大语言模型(LLM)实现参数量扩张且计算成本仅呈线性增长的核心路径,却长期受困于负载失衡、参数冗余、通信开销的“三难困境”,成为大模型落地部署的主要瓶颈。

而中科院自动化所的研究团队通过专家集群动态重组,不仅让大模型总参数量直降80%,负载方差降低至原来的三分之一,消耗内存更直逼轻量级传统稠密模型,更一举达成通信延迟、负载均衡、内存占用的三重优化,为大参数LLM的低成本部署提供了新路径。

0 阅读:2
量子位看科技

量子位看科技

感谢大家的关注