小米第二代大模型MiLM2 全面升级:性能提升45%、端侧部署突破,赋能“人车家”全生态
小米第二代大模型MiLM2 全面升级:性能提升45%、端侧部署突破,赋能“人车家”全生态小米公司近日宣布其自研大模型MiLM已升级至第二代(MiLM2),并展现出在性能、端侧部署和应用场景等方面的显著提升。作为小米“人车家全生态”战略的重要组成部分,MiLM2旨在为用户带来更智能、更便捷的体验
小米第二代大模型MiLM2 全面升级:性能提升45%、端侧部署突破,赋能“人车家”全生态
小米公司近日宣布其自研大模型MiLM已升级至第二代(MiLM2),并展现出在性能、端侧部署和应用场景等方面的显著提升。作为小米“人车家全生态”战略的重要组成部分,MiLM2旨在为用户带来更智能、更便捷的体验。
性能全面升级:参数规模扩充,能力大幅提升
MiLM2在参数规模上进行了向下和向上扩充,覆盖了从0.3B到30B的多个量级,以适应不同场景的资源限制和需求。相比于第一代,MiLM2在指令跟随、翻译、闲聊等关键能力上实现了平均超过45%的提升,并通过自主构建的通用能力评测集Mi-LLMBM2.0进行全方位评估。例如,MiLM2-1.3B和MiLM2-6B模型在十大能力上的效果均有大幅提升。值得一提的是,MiLM2-6B模型在闲聊、翻译等能力上,甚至在同参数规模的模型中展现出更优的性能。
端侧部署突破:轻量化模型落地,实现“云边端”结合
小米自研大模型团队在端侧部署方面取得了重要进展,将大模型能力带入更多终端设备。MiLM2-4B模型的推出,标志着小米成为业界首个在移动设备上成功运行4B参数量级大模型的公司。为了实现轻量化部署,小米研发了“TransAct大模型结构化剪枝方法”,仅用8%的训练计算量即可从6B模型剪枝至4B模型,显著提升训练效率。同时,小米还自研了“基于权重转移的端侧量化方法”和“基于Outliers分离的端侧量化方法”,有效降低了端侧量化的精度损失,相比于业界标准高通方案,量化损失下降了78%。
模型矩阵扩展:多场景应用,赋能“人车家”全生态
为了满足集团内部多元化的业务需求,MiLM2构建并不断扩充了自研大模型的模型矩阵,涵盖了0.3B、0.7B、1.3B、2.4B、4B、6B、13B、30B等多个参数量级,以适应不同场景的需求。
- 0.3B~6B:终端(on-device)场景,适用于低成本、特定任务,可以适配不同芯片及存储空间的终端设备,微调后效果可与百亿参数内开源模型相当。
- 6B、13B:任务明确场景,需要比6B以下参数模型提供更多零样本/上下文学习能力,支持多任务微调,微调后可达到几百亿开源模型的效果,展现出LLM涌现能力的潜力。
- 30B:云端场景,具备坚实的零样本/上下文学习能力和泛化能力,模型推理能力较好,可完成复杂的多任务,基本达到通用大模型水平。
此外,MiLM2系列还纳入了MoE(Mixture of Experts)结构的模型,例如MiLM2-0.7B×8和MiLM2-2B×8,通过并行处理多个“专家”模型来提高整体预测的准确度和效率。例如,MiLM2-2B×8在整体性能上与MiLM2-6B不相上下,但解码速度提升了50%,在保证性能的同时提升了运行效率。
应用落地:赋能澎湃OS、小爱同学、智能座舱等
小米第二代自研大模型所取得的成果已开始渗透到真实的业务场景和用户需求中,不仅帮助集团内部解决多样化的业务需求,实现工作提效,也已在澎湃OS、小爱同学、智能座舱、智能客服等产品中开始应用落地。例如,MiLM2的指令跟随能力可以帮助小爱同学更好地理解用户指令,提升交互体验;MiLM2的翻译能力可以为智能座舱提供更精准的语言翻译服务,提升驾驶体验。
标签: 小米 第二 大模型 MiLM2 全面 升级 性能 提升 端侧
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!