当前位置:首页 > 科技  > 芯片

微软与NVIDIA扩大云端AI合作,加速硬件创新

来源: 责编: 时间:2023-11-20 17:13:46 186观看
导读微软Azure正在导入更多采用NVIDIA H100的虚拟机器,以增强其AI工作负载的处理能力。H100是NVIDIA最新的AI处理器,具有PCIe为基础的H100 GPU,通过NVLink连接的一对处理器,拥有近4个petaFLOPS的AI运算能力和188GB更快的HBM3

微软Azure正在导入更多采用NVIDIA H100的虚拟机器,以增强其AI工作负载的处理能力。H100是NVIDIA最新的AI处理器,具有PCIe为基础的H100 GPU,通过NVLink连接的一对处理器,拥有近4个petaFLOPS的AI运算能力和188GB更快的HBM3存储器。taj28资讯网——每日最新资讯28at.com


taj28资讯网——每日最新资讯28at.com

此次合作不仅有助于提升微软Azure在AI领域的竞争力,也进一步巩固了NVIDIA在云端AI硬件市场的领先地位。随着AI技术的快速发展和应用的广泛普及,云端AI运算的需求也在持续增长。此次微软与NVIDIA的合作,无疑将推动云端AI硬件的创新和发展。taj28资讯网——每日最新资讯28at.com


taj28资讯网——每日最新资讯28at.com

此外,微软还计划在2024年将新的NVIDIA H200 Tensor Core GPU加入其Azure系列中。H200 GPU是专为加速最大的AI工作负载所设计,包括大型语言模型(LLM)及生成式AI模型。它采用新一代HBM3e存储器,显着增加存储器容量和带宽。相较于H100,H200 GPU将提供141GB HBM3e存储器和4.8TB/s峰值存储器带宽,分别较H100增加1.8倍、1.4倍。taj28资讯网——每日最新资讯28at.com


taj28资讯网——每日最新资讯28at.com

同时,为了帮助开发人员在其Windows PC上运行和配置AI模型,微软发布了Windows AI Studio。这是一个全新的开发工具,让开发者可以在其中存取AI模型、并对其进行调整,以满足其需求。同时,NVIDIA也发布了TensorRT-LLM更新,最初针对Windows推出这项更新,作为在H100 GPU上更有效运行LLM的一种方式。不过,此次最新更新将TensorRT-LLM导入搭载GeForce RTX 30和40系列GPU的PC上。这意味着更多的开发者和公司可以使用先进的AI硬件来训练和运行他们的模型。taj28资讯网——每日最新资讯28at.com


taj28资讯网——每日最新资讯28at.com

此次微软与NVIDIA的深度合作,不仅在技术层面提供了更加高效和强大的支持,也预示着云端AI硬件未来的发展趋势。随着技术的不断进步和应用场景的不断扩展,云端AI硬件的创新和发展将会更加快速和多样化。taj28资讯网——每日最新资讯28at.com


taj28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-27-31508-0.html微软与NVIDIA扩大云端AI合作,加速硬件创新

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 裕日车稳步发展,2024年新车上市

下一篇: 基于第四代英特尔®至强®可扩展处理器的浪潮云海超融合压缩和纠删功能设计

标签:
  • 热门焦点
Top