当前位置:首页 > 元宇宙 > AI

元象发布中国最大 MoE 开源大模型:总参数 255B,激活参数 36B

来源: 责编: 时间:2024-09-18 08:56:41 34观看
导读 9 月 13 日消息,元象 XVERSE 发布中国最大 MoE 开源模型 XVERSE-MoE-A36B。该模型总参数 255B,激活参数 36B,官方号称效果能“大致达到”超过 100B 大模型的“跨级”性能跃升,同时训练时间减少 30%,推理性能提升 1

9 月 13 日消息,元象 XVERSE 发布中国最大 MoE 开源模型 XVERSE-MoE-A36B。5nt28资讯网——每日最新资讯28at.com

该模型总参数 255B,激活参数 36B,官方号称效果能“大致达到”超过 100B 大模型的“跨级”性能跃升,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。5nt28资讯网——每日最新资讯28at.com

MoE(Mixture of Experts)混合专家模型架构,将多个细分领域的专家模型组合成一个超级模型,在扩大模型规模的同时,保持模型性能最大化,甚至还能降低训练和推理的计算成本。谷歌 Gemini-1.5、OpenAI 的 GPT-4 、马斯克旗下 xAI 公司的 Grok 等大模型都使用了 MoE。5nt28资讯网——每日最新资讯28at.com

在多个评测中,元象 MoE 超过多个同类模型,包括国内千亿 MoE 模型 Skywork-MoE、传统 MoE 霸主 Mixtral-8x22B 以及 3140 亿参数的 MoE 开源模型 Grok-1-A86B 等。5nt28资讯网——每日最新资讯28at.com

5nt28资讯网——每日最新资讯28at.com

附相关链接:5nt28资讯网——每日最新资讯28at.com

Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B5nt28资讯网——每日最新资讯28at.com

魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B5nt28资讯网——每日最新资讯28at.com

Github:https://github.com/xverse-ai/XVERSE-MoE-A36B5nt28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-7301-0.html元象发布中国最大 MoE 开源大模型:总参数 255B,激活参数 36B

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: “AI 教母”李飞飞为新公司融资 2.3 亿美元,创业方向瞄准“空间智能”

下一篇: 美国银行谈 AI 热潮:当前仍处早期阶段,才相当于互联网的 1996 年

标签:
  • 热门焦点
Top