当前位置:首页 > 科技  > 芯片

英伟达:H200输出速度约H100的两倍

来源: 责编: 时间:2023-11-16 09:40:32 187观看
导读在当地时间11月13日,英伟达(NVIDIA)宣布推出NVIDIA HGX™ H200,这款新产品旨在为全球领先的AI计算平台提供更强大的动力,计划从2024年第二季度开始在全球系统制造商和云服务提供商处提供。H200采用了基于NVIDIA Hopper™架

在当地时间11月13日,英伟达(NVIDIA)宣布推出NVIDIA HGX™ H200,这款新产品旨在为全球领先的AI计算平台提供更强大的动力,计划从2024年第二季度开始在全球系统制造商和云服务提供商处提供。AHh28资讯网——每日最新资讯28at.com


AHh28资讯网——每日最新资讯28at.com

H200采用了基于NVIDIA Hopper™架构的设计,搭载了NVIDIA H200 Tensor Core GPU,具备高级内存,可处理大规模数据,特别适用于生成式AI和高性能计算工作负载。与H100相比,据介绍,NVIDIA H200在推理Llama2模型时的速度几乎提升了两倍。测试结果显示,基于Meta的Llama 2大模型的输出速度大约是H100的两倍。AHh28资讯网——每日最新资讯28at.com


AHh28资讯网——每日最新资讯28at.com

尽管英伟达目前尚未透露H200的具体价格,但根据《CNBC》报道,上一代H100的价格估计在每个2.5万美元至4万美元之间。英伟达发言人Kristin Uchiyama透露,最终的定价将由NVIDIA的制造伙伴决定。AHh28资讯网——每日最新资讯28at.com


AHh28资讯网——每日最新资讯28at.com

在这次发布的H200中,首次采用了HBM3e存储器规格,这使得GPU的存储器带宽从H100的每秒3.35TB提高到4.8TB,提升了1.4倍,存储器总容量也从H100的80GB提高到141GB,容量提升了1.8倍。AHh28资讯网——每日最新资讯28at.com


AHh28资讯网——每日最新资讯28at.com

此外,据业内人士透露,三星电子计划从明年1月开始向英伟达供应高带宽内存HBM3,这将被应用在英伟达的图形处理单元(GPU)上。英伟达高性能运算产品副总裁Ian Buck表示,整合更快、更广泛的HBM存储器有助于提升对运算要求较高的任务的性能,包括生成式AI模型和高性能运算应用程式,同时优化GPU的使用率和效率。AHh28资讯网——每日最新资讯28at.com


AHh28资讯网——每日最新资讯28at.com

本文链接:http://www.28at.com/showinfo-27-26491-0.html英伟达:H200输出速度约H100的两倍

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com

上一篇: 欧盟通过《关键原材料法案》,以降低对中国的依赖

下一篇: 两大晶圆厂表示消费电子市场需求正在恢复

标签:
  • 热门焦点
Top