大语言模型 (LLM) 已经在多个领域展示出了卓越的性能和巨大的潜力,然而,要想真正发挥出这些模型的强大能力,需要强大的算力基础设施,而芯片是关键。
千呼万唤始出来,第五代英特尔 ®️至强 ®️可扩展处理器,它来了!
若是用一句话来概括它的特点,那就是 ——AI 味道越发得浓厚。
以训练、推理大模型为例:
・与第四代相比,训练性能提升多达 29%, 推理性能提升高达 42%;
・与第三代相比,AI 训练和推理性能提升高达 14 倍。
什么概念?
现在若是将不超过 200 亿参数的模型“投喂”给第五代至强 ®️可扩展处理器,那么时延将低到不超过 100 毫秒!
也就是说,现在在 CPU 上跑大模型,着实是更香了。
而这也仅是英特尔在此次发布中的一隅,还包括打破自家“祖制”、被称为四十年来最重大架构转变的酷睿™️Ultra。
此举亦是将 AI 的 power 注入到消费级 PC 中,用于加速本地的 AI 推理。
除此之外,具体到英特尔长期在各行各业扎根的 AI 实战应用,包括数据库、科学计算、生成式 AI、机器学习、云服务等等,也随着第五代至强 ®️可扩展处理器的到来,在其内置的如英特尔 ®️AMX、英特尔 ®️SGX / TDX 等其他内置加速器的帮助下,得到了更大的降本增效。
总而言之,纵观英特尔此次整场的发布,AI 可谓贯穿始终。
##最新英特尔处理器,AI 更 Power 了
我们先来继续深入了解一下第五代至强 ®️可扩展处理器披露的更多细节。
例如在性能优化方面,英特尔将各种参数做了以下提升:
・CPU 核心数量增加到 64 个,单核性能更高,每个内核都具备 AI 加速功能
・采用全新 I / O 技术 (CXL、PCIe5),UPI 速度提升
・内存带宽从 4800 MT/s提高至 5600 MT/s
我们再来纵向,与英特尔前两代产品做个比较,那么性能提升的结果是这样的:
・与上一代产品相比,相同热设计功耗下平均性能提升 21%; 与第三代产品比,平均性能提升 87%。
・与上一代产品相比,内存带宽提升高达 16%, 三级缓存容量提升至近 3 倍之多。
不难看出,第五代至强 ®️可扩展处理器与“前任们”相比,在规格与性能上着实是有了不小的提升。
但英特尔可不仅仅是披露,而是已经将第五代至强 ®️可扩展处理器用起来,并把实打实的使用效果展示了出来。
例如在大模型的推理方面,京东云便在现场展示了搭载第五代至强 ®️可扩展处理器的新一代自研服务器所呈现的能力 ——
全部以超过 20% 的性能提升“姿势”亮相!
具体而言,京东云与上一代自研服务器有了如下的性能提升:
・整机性能提升达 123%;
・AI 计算机视觉推理性能提升至 138%;
・Llama 2 推理性能提升至 151%。
这也再一次证明了在五代至强 ®️上搞大模型,是越发得吃香了。
而除了大模型之外,像涉及 AI 的各种细分领域,如整机算力、内存宽带、视频处理等等,也有同样的实测结果。
这份结果则是来自采用了第五代英特尔 ® 至强 ® 可扩展处理器的火山引擎 ——
其全新升级的第三代弹性计算实例,整机算力提升 39%; 应用性能最高提升 43%。
而且在性能提升的基础上,据火山引擎透露,通过其独有的潮汐资源并池能力,构建了百万核弹性资源池,能够用近似包月的成本提供按量使用体验,上云成本更低了!
这是由于使用内置于第五代至强 ®️可扩展处理器中的加速器时,可将每瓦性能平均提升 10 倍;在能耗低至 105W 的同时,也有已针对工作负载优化的高能效 SKU。
可以说是实打实的降本增效了。
在云计算和安全性方面,亮出实测体验的同样是来自国内的大厂 —— 阿里云。
在搭载第五代英特尔 ® 至强 ® 可扩展处理器及其内置的英特尔 ®AMX、英特尔 ®TDX 加速引擎后,阿里云打造了“生成式 AI 模型及数据保护“的创新实践,使第 8 代 ECS 实例在安全性和 AI 性能上都获得了显著提升,且保持实例价格不变,普惠客户。
包括推理性能提高 25%、QAT 加解密性能提升 20%、数据库性能提升 25%, 以及音视频性能提升 15%。
值得一提的是,内置的英特尔 ®️SGX / TDX 还可以为企业分别提供更强也更易用的应用隔离能力和虚拟机 (VM) 层面的隔离和保密性,为现有应用提供了一条更简便的向可信执行环境迁移的路径。
以及第五代英特尔 ® 至强 ® 可扩展处理器在软件和引脚上是与上一代兼容的,还可以大大减少测试和验证工作。
总的来说,第五代至强 ® 可扩展处理器可谓“诚意满满”、表现非常亮眼,而它背后所透露出来的,正是英特尔在 AI 领域一直都非常重视落地的态度。
##背后是一部 AI 落地史
事实上,作为服务器 / 工作端芯片,英特尔 ® 至强 ® 可扩展处理器从 2017 年第一代产品开始就利用英特尔 ®️AVX-512 技术的矢量运算能力对 AI 进行加速上的尝试;而 2018 年在第二代至强 ®️可扩展处理器中导入深度学习加速技术 (DL Boost) 更是让至强成为“CPU 跑 AI”的代名词;在之后第三代到第五代至强 ®️可扩展处理器的演进中,从 BF16 的增添再到英特尔 ®️AMX 的入驻,可以说英特尔一直在充分利用 CPU 资源的道路上深耕,以求每一代处理器 CPU 都能支持各行各业推进 AI 实战。
起先是在传统行业。
例如第二代至强 ®️就发力智能制造,帮助企业解决海量实时数据处理挑战,提升生产线系统效率,完成“肉眼可见”的产能扩展。
随后,至强 ® 可扩展处理器开始在大模型界大展身手。
在 AlphaFold2 掀起的蛋白质折叠预测热潮之中,第三代和第四代至强 ® 可扩展处理器连续接力,不断优化端到端通量能力。实现比 GPU 更具性价比的加速方案,直接拉低 AI for Science 的入场门槛。
这其中就有从第四代开始内置于 CPU 中,面向深度学习应用推出的创新 AI 加速引擎 —— 英特尔 ®AMX 的功劳。作为矩阵相关的加速器,它能显著加速基于 CPU 平台的深度学习推理和训练,提升 AI 整体性能,对 INT8、BF16 等低精度数据类型都有着良好的支持。
与此同时,在大模型时代的 OCR 技术应用,也被第四代至强 ® 可扩展处理器赋予了新的“灵魂”,准确率飙升、响应延迟更低。
同样,就在不久之前,借助第四代至强 ®️可扩展处理器在 NLP 上的优化,专攻医疗行业的大语言模型也成功以较低成本在医疗机构部署落地。
在 AI 技术越来越深入各行各业的大趋势之下,至强 ® 可扩展处理器让我们看到,它所代表的 CPU 解法完全能够有所作为、能够让不少 AI 应用在部署更为广泛、获取更加容易、应用门槛也更低的 CPU 平台上获得实实在在的落地开花。
第五代至强 ® 可扩展处理器的发布,则让这个进程更进一步。
当然 ——
这一成绩的背后,确实是因为大家对“在 CPU 上跑 AI”这件事上有需求,以及它本身也有极其深厚的价值和优势。
先说需求,无论是传统企业推进智能化改造,还是 AI for Science、生成式 AI 等新兴技术的蓬勃发展,都需要强大的算力来驱动。
但大家面临的局势却是: 专门的加速芯片供不应求,采购难不说,成本也十分高昂,因此还远远不够普及。
于是一部分人自然将目光投向 CPU:
这个现实中最为“触手可及”的硬件,如果直接加以利用,岂不是事半功倍?
这就引出 CPU 的价值和优势。
就拿当下热门话题生成式 AI 来说,如果想在生产环境中普及这一能力,就得尽可能地控制成本。
相比训练来说,AI 的推理对算力资源需求没有那么夸张,交给 CPU 完全能够胜任 —— 不仅延迟更低,能效也更高。
像一些行业和业务,推理任务没有那么繁重,选择 CPU 无疑更具性价比。
此外,利用 CPU 直接进行部署还能让企业充分利用既有 IT 基础设施,避免异构平台的部署难题。
以上,我们也就能够理解: 在传统架构中引入 AI 加速,就是 CPU 在这个时代的新宿命。
而英特尔做的,就是竭尽全力帮大家挖掘、释放其中的价值。
##驾驭整个 AI 管线,且不止 CPU
最后,我们再回到今天的主角: 第五代英特尔 ® 至强 ® 可扩展处理器。
实话说,如果和专门的 GPU 或 AI 加速芯片相比,它可能确实还不够炫,但主打亲民、易用 (开箱即用,配套的软件和生态越发完善)。
更值得我们注意的是,就算在有专用加速器的场合,CPU 无论是从数据预处理,还是模型开发和优化,再到部署和使用,也可以成为 AI pipeline 的一部分。
其中尤其在数据预处理阶段,它已可以称得上是主角的存在。
无论是以 GB 还是 TB 计,甚至更大的数据集,基于至强 ® 可扩展处理器所打造的服务器,都能通过支持更大内存、减少 I / O 操作等优势,提供高效的处理和分析,节省 AI 开发中这一最琐碎耗时任务的时间。
基于以上,我们也不得不感叹,如今英特尔在谈 AI 时,话题更多样化了。
再加上它在 GPU 和专门的 AI 加速芯片上也有布局,“武器库”里的选择也更多了,火力覆盖的能力也更全面了。
毫无疑问,这一切,都指向英特尔全面加速 AI 的决心。
即用一系列具有性价比的产品组合来快速满足不同行业的 AI 落地需求。
AI 落地时代开始了,英特尔的机会也来了?
本文链接:http://www.28at.com/showinfo-26-52926-0.htmlCPU 也可以完美运行大模型 英特尔第五代至强重磅发布
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com