由于国内大型语言模型(LLM)的爆发式增长,AI算力基础硬件设施无法满足需求,导致国内科技大厂如腾讯、阿里巴巴、华为等纷纷向算力租赁业者求助。其中,国内网络安全厂商也跨界提供GPU算力租赁服务。
据报道,由于NVIDIA多款高端人工智能(AI)GPU芯片出口受限,国内科技大厂在AI算力告急的情况下,不得不向国内算力租赁业者求助。国内算力租赁大厂汇纳科技公告称,由于算力需求大幅增加、算力资源持续紧张,该公司内建NVIDIA A100芯片的高消能服务器算力供应,收费将上调100%。
在市场涌现出的强大需求下,拥有GPU资源的企业也纷纷下海,跨界布局算力租赁。一家网络安全一线大厂相关人士向媒体表示,该公司也在做算力租赁,主要以NVIDIA的A100/A800加速卡为主。
由于ChatGPT引发的大型语言模型(LLM)风潮横扫国内市场,LLM训练的参数量与训练时的数据量双双提升后,亟需更大的算力布局。但当AI推论情境和需求成长后,国内的算力基础硬件设施无法跟上LLM的需求爆发。
由于NVIDIA高端AI GPU遭到美国政府断供,再加上新一代国内特供版芯片还不确定,在当前国内的AI算力告急下,厂商瞄准多元算力,表示国内本土芯片已在不断升级中,将和国产高端芯片业者保持密切联系。
尽管包括华为昇腾、壁仞科技、摩尔线程等国内本土芯片业者陆续获得厂商采用测试的机会,但对于国内AI服务器发展熟稔的浪潮信息资深副总裁刘军,日前在“2023年人工智能计算大会”(AICC 2023)上坦承,要实现多元算力的挑战不小。刘军指出,全球高端AI训练芯片目前已经超过40款左右,但因为每家厂商在开发过程中采用的技术路线不一样,所以在接口互连等方面还存在较多不兼容之处,这也使得AI算力系统整个开发配置周期拉长、定制化开发投资过大、从既有厂商迁移到国内本土方案的转换时间过久等挑战。
本文链接:http://www.28at.com/showinfo-27-38260-0.html国内AI算力租赁需求激增,NVIDIA加速卡涨价成常态
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com