当前位置:首页 > 元宇宙 > AI

最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

来源: 责编: 时间:2024-09-01 11:48:07 37观看
导读 8 月 29 日消息,Zyphra 于 8 月 27 日发布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 亿参数,声称是端侧 SOTA 小语言模型,在 4bit 量化下内存占用低于 700MB。注:SOTA全称为 state-of-the-art,并不是特指某个具

8 月 29 日消息,Zyphra 于 8 月 27 日发布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 亿参数,声称是端侧 SOTA 小语言模型,在 4bit 量化下内存占用低于 700MB。LAf28资讯网——每日最新资讯28at.com

注:SOTA全称为 state-of-the-art,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好 / 最先进的模型。LAf28资讯网——每日最新资讯28at.com

LAf28资讯网——每日最新资讯28at.com

Zamba2-mini 1.2B 虽然尺寸不大,但媲美包括谷歌 Gemma-2B、Huggingface 的 SmolLM-1.7B、苹果的 OpenELM-1.1B 和微软的 Phi-1.5 等更大模型。LAf28资讯网——每日最新资讯28at.com

在推理任务中,Zamba2-mini 的卓越性能尤为显著,与 Phi3-3.8B 等模型相比,Zamba2-mini 的首次令牌时间(从输入到输出第一个 token 的延迟)是此前的二分之一,内存占用减少了 27%。LAf28资讯网——每日最新资讯28at.com

Zamba2-mini 1.2B 主要通过高度优化的架构实现,融合了不同神经网络设计的优势,既能保持大型密集变压器的高质量输出,又能以更小模型的计算和内存效率运行。LAf28资讯网——每日最新资讯28at.com

LAf28资讯网——每日最新资讯28at.com

与前代 Zamba1 相比,Zamba2-mini 的关键进步之一是集成了两个共享注意力层(attention layers)。LAf28资讯网——每日最新资讯28at.com

这种双层方法增强了模型在不同深度保持信息的能力,从而提高了整体性能。在共享注意力层中加入旋转位置嵌入也略微提高了性能,这表明 Zyphra 致力于在模型设计中进行渐进而有影响力的改进。LAf28资讯网——每日最新资讯28at.com

Zamba2-mini 是在一个包含三万亿个 token 的海量数据集上进行预训练的,该数据集来自 Zyda 和其他公开来源。LAf28资讯网——每日最新资讯28at.com

LAf28资讯网——每日最新资讯28at.com

这个庞大的数据集经过了严格的过滤和重复处理,以确保获得最高质量的训练数据,并在退火(annealing)阶段对其进一步完善,其中包括在 1000 亿个质量极高的 tokens 上进行训练。LAf28资讯网——每日最新资讯28at.com

Zyphra 已承诺使 Zamba2-mini 成为 Apache 2.0 许可下的开源模型。LAf28资讯网——每日最新资讯28at.com

附上参考地址LAf28资讯网——每日最新资讯28at.com

Zyphra Unveils Zamba2-mini: A State-of-the-Art Small Language Model Redefining On-Device AI with Unmatched Efficiency and PerformanceLAf28资讯网——每日最新资讯28at.com

Model Card for Zamba2-1.2BLAf28资讯网——每日最新资讯28at.com

Zamba2-mini (1.2B) LAf28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-45-6537-0.html最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 美年健康推出国内首款健康管理 AI 机器人“健康小美”,与华为云、润达医疗三方合作研发

下一篇: 中国科学院、阿里云发布首个月球专业大模型,撞击坑年代判别准确率超 80%

标签:
  • 热门焦点
Top