专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
目录
相关文章推荐
新机器视觉  ·  CCD(像素)与视觉系统的基础知识 ·  20 小时前  
爱可可-爱生活  ·  【Specification ... ·  昨天  
人工智能那点事  ·  粉丝已破百万!北大“韦神”突然开号?评论区成 ... ·  2 天前  
51好读  ›  专栏  ›  机器之心

Linear-MoE:线性注意力遇上混合专家的开源实践

机器之心  · 公众号  · AI  · 2025-05-29 19:38

正文

请到「今天看啥」查看全文


  • 项目地址:https://github.com/OpenSparseLLMs/Linear-MoE



    线性序列建模的崛起


    过去两年,线性序列建模技术取得了显著进展,其核心优势在于线性时间复杂度的训练和恒定内存占用的推理。


    这类模型主要分为三大类:线性注意力(Linear Attention)、状态空间模型(SSM)和线性 RNN(Linear RNN),代表性工作包括 Lightning Attention、GLA、Mamba2、RWKV 等。


    已有研究工作表明,这些模型实际上可以通过统一的递归形式进行表达,如下表所示。这也反映出,尽管三类方法分别出自不同的技术流派,但已逐渐收敛至统一的表达形式。



    混合专家 MoE 成为事实标准







    请到「今天看啥」查看全文