在当地时间11月13日,英伟达(NVIDIA)宣布推出NVIDIA HGX™ H200,这款新产品旨在为全球领先的AI计算平台提供更强大的动力,计划从2024年第二季度开始在全球系统制造商和云服务提供商处提供。
H200采用了基于NVIDIA Hopper™架构的设计,搭载了NVIDIA H200 Tensor Core GPU,具备高级内存,可处理大规模数据,特别适用于生成式AI和高性能计算工作负载。与H100相比,据介绍,NVIDIA H200在推理Llama2模型时的速度几乎提升了两倍。测试结果显示,基于Meta的Llama 2大模型的输出速度大约是H100的两倍。
尽管英伟达目前尚未透露H200的具体价格,但根据《CNBC》报道,上一代H100的价格估计在每个2.5万美元至4万美元之间。英伟达发言人Kristin Uchiyama透露,最终的定价将由NVIDIA的制造伙伴决定。
在这次发布的H200中,首次采用了HBM3e存储器规格,这使得GPU的存储器带宽从H100的每秒3.35TB提高到4.8TB,提升了1.4倍,存储器总容量也从H100的80GB提高到141GB,容量提升了1.8倍。
此外,据业内人士透露,三星电子计划从明年1月开始向英伟达供应高带宽内存HBM3,这将被应用在英伟达的图形处理单元(GPU)上。英伟达高性能运算产品副总裁Ian Buck表示,整合更快、更广泛的HBM存储器有助于提升对运算要求较高的任务的性能,包括生成式AI模型和高性能运算应用程式,同时优化GPU的使用率和效率。
本文链接:http://www.28at.com/showinfo-27-26491-0.html英伟达:H200输出速度约H100的两倍
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
下一篇: 两大晶圆厂表示消费电子市场需求正在恢复