随着生成式人工智能(Generative AI)的快速发展,运算设备的升级已成为必然趋势。然而,服务器所需的GPU芯片和CoWoS封装产能等关键部件的供应紧张状况,正在对技术的实际应用造成影响。DIGITIMES研究中心资深分析师萧圣伦指出,这一供应紧张状况预计在2024年得到缓解,届时AI服务器出货量预计将突破百万台。
在近日举行的DIGITIMES供应链高峰会上,主题为“生成式AI与供应链:机会与挑战”的首日会议重点关注了半导体供应链。DIGITIMES Research的分析师团队以及亚马逊(Amazon)旗下AWS、超微半导体(AMD)、邓白氏(Dun & Bradstreet)、是德科技、NetApp等企业代表分别从各自角度深入剖析了生成式AI浪潮带来的机会与挑战。
萧圣伦深入分析了服务器产业、云服务、芯片制造等产业之间的紧密联系。他强调,由于生成式AI与大型语言模型(LLM)相关需求的爆发,大型云端业者和服务器品牌商都加入了AI服务器的军备竞赛。采购的重点主要集中在使用高带宽存储器(HBM)的高端AI服务器。
当前,GPU的供应紧张状况仍然存在,缺口约为20%。然而,这一情况预计在2024年得到改善。同时,封装GPU和HBM所需的CoWoS产能也在逐步增加。除了台积电,其他如美商Amkor、韩国的三星电子(Samsung Electronics)的CoWoS产能供应也在逐步增加。预计到2024年中前,全球CoWoS产能将比现在增加2倍甚至更多。
萧圣伦预测,2024年AI服务器出货量将突破100万台,占整体服务器市场的约7%。
DIGITIMES的数据显示,含有GPU加速的高端AI服务器主要被超大规模云服务商采购,2023年美国业者占据了95.3%的市场份额,其中微软的需求最为显著;而国内云服务商仅掌握2.9%的市场份额,其他企业合计占比更低,只有1.8%。
随着GPU供应状况在2024年的改善,包括产能增加和新款GPU的上市,企业能够获取的高端AI服务器数量预计将从1.8%增长到10.8%。同时,美国云服务业者对高端AI服务器的掌握将降低到82.8%,而国内云服务业者将掌握1.1%,来自中东的订单也预计将成长至5.3%。
另外,科技巨头也在竞相开发自家的AI专用芯片。其中,Google TPU已迈入第五代,计划于2024年第一季度问世;AWS开发的Trainium和Inferentia系列芯片也在持续迭代;Tesla芯片Dojo D1将于2024年问世。这些公司和博通(Broadcom)、Marvell、世芯电子合作开发相关技术,而ODM业者如广达、英业达、工业富联、纬颖、纬创、美超微(Supermicro)也将受益于此。
微软的第一代AI芯片(代号Athena)可能将于2024年下半年推出,据传将与创意电子合作;而Meta的第一代AI芯片(MTIA)将于2025年问世。这些都在表明,随着生成式AI的快速发展,全球供应链正在不断适应并积极应对这一变革。
本文链接:http://www.28at.com/showinfo-27-25517-0.html生成式AI推动服务器升级,供应短缺预计在2024年缓解
声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。邮件:2376512515@qq.com
下一篇: 中国台湾企业助力印度实现“设计大国”梦想