ictimes消息,11月14日,NVIDIA宣布推出全新的NVIDIA HGX H200,为全球领先的AI计算平台Hopper注入新活力。HGX H200平台以NVIDIA Hopper架构为基础,搭载了NVIDIA H200 Tensor Core GPU和卓越的显存配置,可轻松应对生成式AI与高性能计算工作负载的庞大数据需求。
NVIDIA H200 是首款采用 HBM3e 技术的 GPU,其强大的运行速度和更大的显存容量将进一步推动生成式 AI 与大语言模型的发展,同时强化了用于 HPC 工作负载的科学计算能力。HBM3e 的助力使得 NVIDIA H200 提供了高达 4.8 TB/秒的传输速度,141GB 的显存容量相比上一代架构的 NVIDIA A100 几乎翻了一倍,带宽也增加了 2.4 倍。这款创新性 GPU 将于 2024 年第二季度开始,由全球领先的服务器制造商和云服务提供商陆续提供搭载。
NVIDIA 超大规模和高性能计算副总裁 Ian Buck 指出:“要实现生成式 AI 和 HPC 应用的智能化,必须借助大型、快速的 GPU 显存来高速、高效地处理海量数据。
相较于前代架构,NVIDIA Hopper架构实现了前所未有的性能提升。H100通过持续的软件升级,包括最近发布的NVIDIA TensorRT™-LLM等强大的开源库,不断提升其性能标准。而H200的推出将带来更进一步的性能飞跃,例如在700亿参数的LLM——Llama 2上的推理速度比H100提高了近一倍。随着未来软件的持续升级,H200有望实现更大的性能优势与提升。
NVIDIA H200 服务器主板将提供四路和八路两种选择,与 HGX H100 系统的硬件和软件完全兼容。此外,它还可以支持今年 8 月发布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper™ 超级芯片。这些特性使得 H200 能够适应各类数据中心环境,包括本地、云、混合云和边缘。
NVIDIA H200预计将于2024年第二季度开始进入市场,并计划通过全球范围内的系统制造商和云服务提供商进行广泛推广。
本文链接:http://www.28at.com/showinfo-27-26470-0.htmlNVIDIA推出新品,为全球领先AI产业注入新活力
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
上一篇: SK海力士出货量达到每年1亿颗
下一篇: SK海力士向Vivo提供芯片