您的位置:首页 > 互联网

大模型新趋势之MoE:现状、挑战及研究方向_mof 模型

发布时间:2024-11-04 13:23:37  来源:互联网     背景:

2024年,全球主流企业加快推出MoE大模型,1-5月发布千亿以上大模型均采用MoE优化架构,且数量超过近三年总和。MoE大模型架构凭借平衡大模型训推成本和计算效率等优势,更适合处理大规模数据和复杂任务,已成谷歌、OpenAI、阿里、腾讯等企业控制成本、提升模型性能、应对大模型“价格战”的新方向。

MoE的内涵、优势、发展历程及主要玩家

MoE(Mixture of Experts,混合专家模型)是一种用于提升深度学习模型性能和效率的技术架构。其主要由一组专家模型和一个门控模型组成,核心思想是在处理任务时只激活部分专家模型,并通过门控模型控制专家模型的选择和加权混合。简言之,MoE在训练过程通过门控模型实现“因材施教”,进而在推理过程实现专家模型之间的“博采众长”。

图1 MoE架构原理示意图1

MoE的特征优势是专家化、动态化、稀疏化,在模型研发成本、训练/推理效率和整体性能之间实现最佳平衡。一是采用混合专家方法,各专家模型面向不同数据或任务进行针对性建模和处理,提升模型的准确性和专业能力,更好地适应多模态数据及复杂/特定任务计算。二是根据任务的需求灵活选择并组合适宜的专家模型,使得模型能够动态地适应不同的输入样本和任务场景,提高模型的灵活性、可解释性和表达能力。三是只激活或使用部分专家模型,减少不必要的计算,提升模型计算速度并降低算力需求。研究表明,与稠密模型相比,MoE+指令调优仅使用1/3算力就能提升大模型性能约45%,缩短训练时间2,且参数规模越大,效果越好。

MoE不是一种全新的技术,与Transformer融合迈过发展“拐点”。早期MoE主要作为一种集成学习方法,用于提升模型预测性能,如谷歌将MoE引入自然语言处理领域,提升机器翻译性能。2020年,谷歌Gshard首次将MoE引入Transformer构建分布式并行计算架构,打开MoE发展新思路。之后,MoE逐渐进入规模发展阶段,作为一种底层架构优化方法,与Transformer结合,陆续被用于推荐系统、自然语言处理、计算机视觉、多模态大模型等领域。

图2 MoE模型发展历程

基于Transformer的MoE已成大模型主流架构,国内外主流企业差异化推进MoE大模型布局和落地。2024年,全球MoE大模型数量呈爆发增长态势。据公开统计,2024年1-5月全球发布MoE大模型数量约20个,超2021-2023三年总量(约10个),且以多模态大模型为主(占比约90%)。谷歌、OpenAI、阿里、华为、腾讯等大型企业侧重利用MoE提升大模型性能和实用性。而Mistral AI、昆仑万维、MiniMax、幻方量化等初创企业侧重利用MoE低成本优势抢占AI市场。

表1 部分公司MoE大模型布局及发布情况

MoE发展仍面临挑战

ipad做mini显示器

 1.训练和微调面临稳定性和可靠性挑战。

训练阶段,MoE通过“条件计算”思想引入稀疏性,其将token分配给固定数量专家的离散特性带来专家负载均衡问题,容易导致某些专家被过度利用,而其他专家未被充分利用,从而影响专家的专业化,降低模型性能。虽然这一问题,目前可以通过合并辅助损失函数等来缓解,但仍会导致模型训练不稳定。微调阶段,与稠密模型相比,稀疏模型的微调更容易产生过拟合问题,容易导致泛化能力不足,影响模型整体性能,如拥有1.6T参数量的MoE预训练模型Switch Transformer,在SuperGLUE等常见基准上进行微调时,其整体性能却落后于较小的模型3。

 2.大规模分布式部署难且通信成本高。

深圳洪湖公园荷花几月份开

一方面,尽管MoE可以在模型参数总量不变的情况下降低计算需求,但仍需要将所有参数加载到内存中。因此,MoE对内存需求很高,需要将超大规模参数模型的专家层分别部署在不同设备以减少内存消耗,实际部署难度很大。另一方面,随着MoE模型的参数规模/复杂度不断提升,模型训练期间的高效通信越来越重要。而模型复杂度与通信开销之间的权衡一直是分布式训练的重大问题4。MoE模型中专家之间的数据交换、并行训练都需要机间all-to-all通信来实现,增加通信成本,且模型规模越大,通信成本越高。因此,在实际部署过程中,需要仔细设计通信策略和优化网络拓扑,降低通信延迟和潜在的网络拥塞。

 3.MoE架构存在原始缺陷、与现有架构集成难,部分关键技术仍有待攻关。

一是MoE仍存在知识混合、知识冗余等原始架构缺陷,容易导致专家同质化严重、专业化能力不足等问题。同时,根植于MoE的超参数调整、专家模型设计及协作、动态性适应数据变化、对数据噪声相对敏感等技术难题仍有待解决。二是MoE架构设计很复杂,涉及网络类型、专家数量选择等多个方面。目前FFN、LSTM、CNN、Attention和LoRA等多种网络架构已被用作专家模型,但各种网络类型专家混合仍属于新兴研究领域。三是将MoE集成到现有模型框架中对于降低现有模型升级成本、推进MoE广泛应用至关重要,但可能会损害模型性能,需要进一步优化并行预训练和推理策略。

富士康首款电动汽车

MoE未来重点研究方向

 1.通过优化MoE架构、改进门控算法等,提高模型性能和稳定性。

一是业界正在加快研发各种新型MoE架构,以提升模型性能或实用性。如清华和微软联合提出MH-MoE5,通过多头机制弥补MoE原始缺陷,实现专家激活率由8.33%提升至90.71% ,提升模型高效扩展能力;华为提出全新LocMoE架构,并将其嵌入盘古大模型,提升模型通用性、可解释性和易移植性等。二是多项研究表明,通过改进门控算法或调整训练策略,能有效提升MoE模型稳定性及性能,如AdvMoE通过算法优化将门控模型和专家模型分开训练,显著提高MoE模型的对抗鲁棒性和整体效率6;普林斯顿大学和Meta AI联合提出一种Lory方法,引入因果分段路由策略和基于相似性的数据批处理技术,提升了模型的效率和专家专业化能力7。

 2.构建分布式训练系统/软件工具,提升MoE模型训练效率、降低训练门槛。

清华团队发布FastMoE、FasterMoE、SmartMoE3等一系列分布式训练系统,相比直接使用PyTorch,FastMoE可将训练速度提升47倍;SmartMoE支持一键实现MoE模型分布式训练,并优化模型训练性能。微软的DeepSpeed9系统提供端到端MoE训练和推理解决方案,结合模型压缩等技术,可提供更快、更便宜的MoE模型推理服务,与同等质量的密集模型相比,可加速4.5倍,成本降低9倍。斯坦福大学、微软和谷歌联合推出的MegaBlocks系统,面向单个GPU上运行多个专家的场景,提升MoE训练效率,与最先进的Tutel库相比,端到端训练速度提升40%。

 3.利用模型蒸馏、硬件优化等技术,降低MoE模型部署难度。

一是通过模型蒸馏、任务级别路由等技术,保留模型性能同时降低模型复杂度。谷歌将Switch Transformer蒸馏回其对应的稠密模型,参数规模降低95%,成功保留了约30-40%的由稀疏性带来的性能提升,加快了预训练速度,且在推理过程中支持使用更小的模型。此外,通过任务级别路由技术将整个句子或任务直接路由到一个专家上面,或提取出用于特定服务的子网络,有助于简化模型结构。二是研究更适合稀疏计算的硬件优化技术,节省内存、加速计算。研究表明,块稀疏Flash Attention注意力机制可以进一步减少GPU内存访问次数,加快计算并节省显存;结合PagedAttention构建vLLM11(一种LLM推理加速系统),可实现KV缓存零浪费且支持各请求间共享KV缓存,从而降低内存使用,并实现高效内存管理。

mate50 卫星

 4.通过系统性优化、共享专家、通信结构设计等,降低通信成本。

一是通过系统性优化,平衡模型复杂度与通信开销,如ScMoE12使用一种通信重叠并行策略,克服分布式MoE模型中通信操作的固有依赖性对并行优化的阻碍,实现11%的训练速度提升、15%的推理速度提升,且通信时间仅为8×A800-NVLink场景中标准MoE的15%。二是利用共享专家方法,减少分布式系统之间的数据传输,如DeepSeekMoE13采用共享专家、细颗粒度专家分割等策略,可有效解决MoE中的参数冗余、路由崩溃等问题,且在145B参数下,仅需约28.5%的计算量即可达到DeepSeek 67B的性能水平。三是通过通信结构设计,提升通信效率,如SCoMoE通过结构化全连接通信,鼓励数据跨设备通信,结合标记聚类方法,提升了模型性能和效率。

结语

MoE为企业带来平衡算力成本和计算效率、加快万亿/十万亿模型参数规模扩展、提升大模型实用性等机遇,但也带来关键技术攻关、大规模工程部署、网络拓扑优化等挑战。未来应持续探索MoE架构设计、相关算法及策略改进、软硬件协同优化等技术,加快推动MoE模型研发和业务赋能。同时,结合MOE模型分布式部署,探索千亿/万亿参数规模大模型跨数据中心分布式训练试点验证。

注释

1.来源:论文《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》

2.参考论文:《Mixture-of-Experts Meets Instruction Tuning: A Winning Combination for Large Language Models》

3.参考论文:《St-moe: Designing stable and transferable sparse expert models》

4.参考论文:《Gshard: Scaling giant models with conditional computation and automatic sharding》

moshow 模型

5.参考论文:《Multi-Head Mixture-of-Experts》

6.参考论文:《Robust Mixture-of-Expert Training for Convolutional Neural Networks》

7.参考论文:《Lory: Fully Differentiable Mixture-of-Experts for Autoregressive Language Model Pre-training》

8.参考论文:《SMARTMoE: Effciently Training Sparsely-Activated Models through Combining Offine and Online Parallelization》

9.参考论文:《DeepSpeed-MoE: Advancing Mixture-of-Experts Inference and Training to Power Next-Generation AI Scale》

模型demo

10.参考论文:《Flashattention: Fast and memory-efficient exact attention with io-awareness》

11.参考论文:《Efficient Memory Management for Large Language Model Serving with PagedAttention》

moa模型

12.参考论文:《Shortcut-connected Expert Parallelism for Accelerating Mixture-of-Experts.》

13.参考论文:《Deepspeed-moe: Advancing mixture-of-experts inference and training to power next-generation ai scale.》


返回网站首页

本文评论
大学生找家教的app_良师家教APP打造不一样的大学生家教信息平台
  暑假来临,对于中小学生来说,尽情玩乐和假期作业总是一起出现。对于做家教的大学生而言,意味着有更多时间社会活动、勤工俭学。各类家教兼职群里也热闹起来,特别是大学生家...
日期:11-02
彻底重绘图标、动画 前奔驰首席设计师主抓外观-曝三星One UI 7大改
7月17日消息,据博主“i冰宇宙”的最新爆料,三星One UI 7将迎来大改,进行历史上首次重绘图标,而且下拉栏、系统动画都会改版。据悉,One UI经历了多次大版本迭代,但不论是外观还是功...
日期:07-17
2022北京通勤报告发布:平均50分钟 33万人要跨城上下班_2021北京通勤政策
你有在北京工作的朋友吗?听说过他们上下班通勤路上的传奇故事吗?百亿补贴不让下单什么是携程appi5 12600k有必要上z690吗快科技5月13日消息,日前北京交通发展研究院智能交通...
日期:05-13
microsoft app store_微软“你的手机”App 现已支持 Surface Duo
  6月21日消息 据MSPoweruser报道,目前微软的Your Phone应用程序已加入对Surface Duo的支持。         从推特网友Zac Bowden晒出的截图来看,“你的手机”应用程序...
日期:07-14
最轻薄潜望手机!OPPO Reno10 Pro 亮相_oppo比较轻薄的手机
快科技5月24日消息,OPPO Reno10系列亮相,这一代Reno系列标配长焦镜头,其中超大杯版本Reno10 Pro 配备了大底潜望长焦镜头。和其它潜望长焦手机相比,OPPO Reno10 Pro 的优势在于...
日期:05-24
淘宝双十一预售红包「天猫双十一内部福利清单曝光 2288元淘宝双十一红包怎么领」
双十一不知道怎么买便宜?你可能需要这份双十一内部福利清单。最近,网上曝出了一份双十一内部福利清单,商品打折前后价格一目了然,对于剁手党来说绝对是一省心利器。>>双十一内...
日期:11-08
小熊U租即将港交所上市 京东持股13.22%_小熊u租Ipo
10月9日消息,港交所信息显示,凌雄科技集团有限公司(小熊U租)日前通过港交所聆讯,即将在港交所主板挂牌上市,海通国际担任独家保荐人。据了解,小熊U租成立于2004年,最早以电脑组装服...
日期:10-14
骁龙8 Gen3万元机皇!三星Galaxy S24 /S24 Ultra曝光
快科技8月1日消息,博主i冰宇宙爆料,三星Galaxy S24 电池容量是4900毫安时,Galaxy S24 Ultra电池容量是5000毫安时。对比上一代,Galaxy S24 电池容量有小幅提升,Galaxy S24 Ultra...
日期:08-01
丰田“加价神车”半年销量暴跌30%!雷克萨斯ES又全面涨价(雷克萨斯es大降价)
作为丰田旗下的豪华汽车品牌,雷克萨斯一直的销量都很不错,特别是雷克萨斯ES,可以说是占据了雷克萨斯的半壁江山。即便是被网友疯狂吐槽“同级别动力最弱”,但也丝毫不影响该车的...
日期:08-19
青少年都在关心什么科学话题?这是腾讯看点120万用户的答案_关注青少年科学发现
  2020年1月12日,第二届腾讯青少年科学小会上,腾讯和《科学》杂志共同发布了“青少年科学看点榜单”,披露了2019年度青少年最关心的10个科学突破话题。此次榜单调研历时80天...
日期:02-19
新一轮工业革命!周鸿祎呼吁All in AI:2024将出现杀手级应用_周鸿祎 2021
快科技1月5日消息,今晚举办的2023年风马牛年终秀”上,360创始人周鸿祎呼吁All in AI,未来最大的创新机会在大模型。周鸿祎表示:大模型已经开启新一轮工业革命,不发展是最大的不安...
日期:01-06
中华财险为教育强国建设持续注入动力_中华财险简介
对于孩子们来说,能够接受更好的教育才是带动社会氛围的途径。中华财险为加强学生教育,专程组织各种公益活动。2020年十大科技趋势在“传承感恩 传递关爱”为主题的团队辅导活...
日期:08-07
网易LOFTER再回应头像生成器争议:确有侵权赔偿原作者1万「lofter头像挂件在哪」
今日,网易LOFTER再次发布其头像生成器”引发的争议说明,称功能测试仅为满足用户个性化头像需求,并无其他目的,更无盈利目的。官方表示,此功能的训练数据集来自于开源数据,未使用LO...
日期:03-07
史上最大AI版权案深度分析!OpenAI必败,还是纽约时报胜率为0?_copyright 版权
新智元报道编辑:编辑部【新智元导读】纽约时报一纸诉状把OpenAI和微软告上法庭,正式打响AI版权战第一枪。双方各有拥趸,资深媒体人总结全文诉状后,认为NYT的确理由充分;另一位大...
日期:12-29
每日优鲜美股上市「中概股周四收盘多数下跌 每日优鲜跌超18% 蔚来跌超10%」
  北京时间30日凌晨,美股周四收跌,标普500指数创年内最低收盘点位及2020年以来的盘中新低。英国央行紧急救市行动对市场的提振作用渐渐消失,避险情绪重新回归。投资者仍关注...
日期:10-03
马斯克的"读脑"设备首次植入人体,科学家期待什么?担忧什么?
2月4日消息,埃隆·马斯克(Elon Musk)创建的Neuralink旨在改变我们对脑机接口的认知,让科幻变成了现实。1月29日发布的消息中,马斯克宣布Neuralink已成功将其“读脑”设备首次植入...
日期:02-06
Roam将出席ABS 2024亚洲区块链峰会,展示全球WiFi漫游网络中的创新技术与成就
2024年8月6日-8月8日,亚洲较具影响力的峰会之一ABS2024亚洲区块链峰会将在台北举办,此次行业峰会的主题为“Prospering in the Plural World of AI and Web3”,本次活动汇集了...
日期:08-02
美股周五跌多还是涨多「美股周五:三大股指均跌超1%,热门中概股涨跌不一,B站涨近6%」
3月11日消息,美国时间周五,美股收盘主要股指全线下跌,跌幅均超1%。美国2月份非农就业报告发出好坏参半的信号,但美国硅谷银行的倒闭让投资者感到担心。道琼斯指数收于31909.64点...
日期:03-12
中国电信发布千亿参数星辰大模型  五大亮点点亮人工智能与数据产业发展合作论坛
通信世界网消息(CWW)11月10日,2023数字科技生态大会举办期间,中国电信在主论坛发布千亿参数星辰大模型及数据要素平台,并在人工智能与数据产业发展合作论坛上解读上述产品以及新...
日期:11-11
特斯拉起诉自媒体「最新!特斯拉在美遭起诉,被指虚假宣传自动驾驶技术」
据央视新闻,当地时间9月14日,特斯拉(TSLA,股价302.61美元,市值9482.2亿美元)公司在一项集体诉讼中被起诉,理由是其对自动驾驶进行虚假宣传。目前,美国加州北区地方法院已经受理这起...
日期:09-17