11月13日,英伟达正式宣布,在目前最强AI(人工智能)芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与H100相互兼容,在推理速度上几乎达到了H100的两倍。H200预计将于明年二季度开始交付,英伟达尚未公布其价格。
H200引人瞩目的地方在于,它是首款搭载HBM3E的GPU,这种速度更快、容量更大的存储器将加速生成式人工智能(generative AI)和大型语言模型(LLM),同时提升科学运算的高效能运算工作负载。
相较于A100,H200的存储器速度达每秒4.8 TB,存储容量几乎翻倍,带宽增加了2.4倍。
NVIDIA宣布,全球服务器制造商和云端服务供应商将在2024年第2季开始出货搭载H200的系统。
H200将提供包含四路和八路配置的HGX H200服务器主机板,与HGX 100系统兼容。此外,H200还可与NVIDIA GH200 Grace Hopper超级芯片搭配使用,该芯片于2023年8月推出,采用HBM3E。
HGX H200采用NVIDIA NVLink和NVSwitch高速互连技术,可为各种应用工作负载提供高效能,包括对超过1750亿个参数的最大模型进行大型语言模型训练和推断。
英伟达还透露,下一代Blackwell B100 GPU也将在2024年推出,性能已经“望不到头”。
本文链接:http://www.28at.com/showinfo-27-25944-0.htmlNVIDIA推出HGX H200,效能大幅提升
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
上一篇: 台积电预计明年CoWoS将增产20%