【ITBEAR】9月19日消息,在2024杭州云栖大会上,阿里云CTO周靖人揭示了公司在AI时代的新动向。他表示,阿里云正致力于树立AI基础设施的全新标杆,通过全面技术架构体系的升级,力求将数据中心变革为一台超级计算机,从而为各类AI应用提供强劲、高效的算力支持。
据ITBEAR了解,此次大会上,阿里云不仅展示了其在AI基础设施领域的最新进展,还重磅发布了通义大模型的年度更新。新推出的基础模型在性能上已可媲美业界领先的GPT-4o,同时开源了Qwen2.5系列模型,该系列凭借强大的性能已跻身至全球顶级模型群之列。
周靖人强调,随着AI时代的来临,对基础设施的性能和效率要求日益严苛。为此,阿里云以AI为核心,对底层硬件、计算、存储等关键组件进行了全面重构,并与AI场景深度融合,旨在加速模型的开发与部署,从而打造适应AI时代需求的最强基础设施。
在大会现场,阿里云还展示了其全系列产品家族的AI驱动升级。新发布的磐久AI服务器以其强大的单机16卡支持能力和高达1.5T的显存容量吸引了众多目光。同时,阿里云还推出了GPU容器算力服务,通过创新的拓扑感知调度技术,显著提升了计算效率。此外,高性能网络架构HPN7.0和CPFS文件存储的亮相,也进一步彰显了阿里云在AI基础设施领域的领先实力。
周靖人指出,过去两年来模型尺寸的激增并未带来算力成本的同步上升,反而呈现出持续下降的趋势,这得益于AI基础设施的全面革新。他表示,阿里云将持续投入先进AI基础设施的建设,以推动大模型技术在各行各业的广泛应用。
值得一提的是,阿里云还宣布了通义千问三款主力模型的降价措施,降幅高达85%,显著降低了企业使用大模型的门槛。这一举措预计将进一步加速大模型技术的普及和应用。
目前,已有众多企业客户接入通义大模型,并在生物医药、工业仿真等领域展现出广阔的应用前景。随着AI算力需求的持续增长,特别是推理市场的即将爆发,阿里云已做好充分准备,迎接新一轮的AI浪潮。
在开放大模型方面,阿里云也取得了显著进展。通过不断扩展大模型的能力边界,并在数学、代码及推理等能力上持续突破,阿里云已建立起涵盖全模态的通义大模型家族。此次大会上,开源的Qwen2.5系列模型及其百款衍生模型的发布,更是将大模型的开源推向了新的高度。
最后,周靖人表示,阿里云将始终致力于推动AI技术的创新与应用,助力企业和开发者以更低的成本享受AI带来的便利与高效。
#阿里云# #AI基础设施# #通义大模型# #Qwen2.5# #AI算力#
本文链接:http://www.28at.com/showinfo-45-7341-0.html阿里云CTO周靖人放大招:AI大基建全面升级,技术革新引领未来!
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com