微软Azure正在导入更多采用NVIDIA H100的虚拟机器,以增强其AI工作负载的处理能力。H100是NVIDIA最新的AI处理器,具有PCIe为基础的H100 GPU,通过NVLink连接的一对处理器,拥有近4个petaFLOPS的AI运算能力和188GB更快的HBM3存储器。
此次合作不仅有助于提升微软Azure在AI领域的竞争力,也进一步巩固了NVIDIA在云端AI硬件市场的领先地位。随着AI技术的快速发展和应用的广泛普及,云端AI运算的需求也在持续增长。此次微软与NVIDIA的合作,无疑将推动云端AI硬件的创新和发展。
此外,微软还计划在2024年将新的NVIDIA H200 Tensor Core GPU加入其Azure系列中。H200 GPU是专为加速最大的AI工作负载所设计,包括大型语言模型(LLM)及生成式AI模型。它采用新一代HBM3e存储器,显着增加存储器容量和带宽。相较于H100,H200 GPU将提供141GB HBM3e存储器和4.8TB/s峰值存储器带宽,分别较H100增加1.8倍、1.4倍。
同时,为了帮助开发人员在其Windows PC上运行和配置AI模型,微软发布了Windows AI Studio。这是一个全新的开发工具,让开发者可以在其中存取AI模型、并对其进行调整,以满足其需求。同时,NVIDIA也发布了TensorRT-LLM更新,最初针对Windows推出这项更新,作为在H100 GPU上更有效运行LLM的一种方式。不过,此次最新更新将TensorRT-LLM导入搭载GeForce RTX 30和40系列GPU的PC上。这意味着更多的开发者和公司可以使用先进的AI硬件来训练和运行他们的模型。
此次微软与NVIDIA的深度合作,不仅在技术层面提供了更加高效和强大的支持,也预示着云端AI硬件未来的发展趋势。随着技术的不断进步和应用场景的不断扩展,云端AI硬件的创新和发展将会更加快速和多样化。
本文链接:http://www.28at.com/showinfo-27-31508-0.html微软与NVIDIA扩大云端AI合作,加速硬件创新
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
上一篇: 裕日车稳步发展,2024年新车上市