据彭博社援引知情人士消息,3月24日,蚂蚁集团成功利用阿里巴巴、华为等国产芯片,结合混合专家(MoE)架构,训练出参数规模达2900亿的大模型“Ling-Plus”。该模型性能与使用英伟达H800芯片训练的同类模型相当,同时训练成本降低了20%。这是继科大讯飞“星火大模型”之后,国产算力生态迎来的又一标志性成果。
针对外媒报道,蚂蚁集团向观察者网回应称,其持续优化不同芯片的性能,以降低AI应用成本,并取得了一定进展。蚂蚁方面表示,这些成果将逐步通过开源分享。根据蚂蚁集团Ling团队发布的论文,其自研的Ling系列模型在国产芯片(如壁仞科技、天数智芯、寒武纪等)支持下,训练1万亿Token的成本从635万元降至508万元,降幅达20%,性能仍可媲美阿里通义Qwen2.5-72B和DeepSeek-V2.5。
蚂蚁集团的这一技术突破,不仅在于自研性能领先的大模型,还提出了多项创新方法,以提升资源受限环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE大模型可在使用国产GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片的稠密模型及MoE模型相当。蚂蚁自研的百灵大模型于2023年通过备案,重点应用于生活服务、金融服务、医疗健康等领域。
与此同时,科大讯飞与华为联合团队宣布,成功在昇腾国产算力集群上实现MoE模型的大规模跨节点专家并行推理。这是业界首个完全基于国产算力的解决方案。通过算子融合、混合并行策略和通信计算并行优化等创新,科大讯飞在国产算力上实现了显著性能提升:单卡静态内存占用缩减至双机部署的1/4,效率提升75%,专家计算密度增加4倍,推理吞吐提升3.2倍,端到端时延降低50%。
科大讯飞表示,这一突破性方案将应用于讯飞星火深度推理模型的训练加速,预期训练时推理效率将提升200%。同时,基于该方案的推理引擎也实现了国产算力上DeepSeek-V3和R1的高效推理。
本文链接:http://www.28at.com/showinfo-27-138593-0.html蚂蚁集团与科大讯飞推动国产算力生态发展
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
上一篇: 江波龙拟赴港上市!净利暴涨160%!
下一篇: 飞凯材料子公司拟购JNC苏州公司及相关专利
标签: