- 亿玖动态
- 行业资讯
TrendForce集邦咨询|NVIDIA Blackwell高耗能推动散热需求,预估2024年底液冷方案渗透率将达10%
发布时间:2024-07-31
随着人工智能技术的快速发展,对高效能的AI服务器(AI Server)的需求日益增长,而散热技术成为确保这些服务器稳定运行的关键因素。TrendForce集邦咨询的最新报告指出,NVIDIA计划在2024年底前推出其新一代平台Blackwell,预计将推动液冷散热方案的渗透率达到10%。
NVIDIA的Blackwell平台预计将在2025年正式投入量产,取代现有的Hopper平台,成为高端GPU的主力方案。这一平台的推出将对AI Server的散热技术提出更高要求,特别是对于功耗高达1,000W以上的B200和GB200系列AI Server。例如,HGX机种每台可装载8颗GPU,而GB200 NVL机种每柜可装载36颗或72颗GPU,这将显著增加能耗并推动液冷供应链的发展。
为了应对这一挑战,TrendForce集邦咨询指出,初期GB200 NVL36架构将采用气冷和液冷并行方案,而NVL72则因散热需求更高,将优先采用液冷方案。液冷散热系统的关键组成部分包括水冷板、冷却分配系统(CDU)、分歧管、快接头和风扇背门等。其中,CDU作为调节冷却剂流量的核心系统,对于确保机柜温度控制在预设TDP范围内至关重要。
目前,Vertiv(维谛技术)是NVIDIA AI方案的主要CDU供应商,而其他供应商如奇鋐、双鸿、台达电和CoolIT等也在进行持续的测试和验证。展望2025年,GB200的出货量预计将达到6万柜,这将使Blackwell平台成为市场的主流选择,并占据NVIDIA高端GPU市场的逾8成份额。
然而,终端客户在采用GB200 Rack的过程中仍面临一些挑战。例如,NVL72需要更完善的液冷散热方案,而液冷机柜设计更适合新建数据中心,涉及到土地和建筑规划等复杂程序。此外,云端服务业者(CSPs)可能不希望被单一供应商限制,可能会选择搭载x86 CPU架构的HGX或MGX机种,或扩大自研ASIC AI Server基础设施,以满足更低成本或特定AI应用场景的需求。
随着AI技术的不断进步和对高性能计算的需求增长,散热技术尤其是液冷方案将成为AI Server发展的关键。NVIDIA的Blackwell平台的推出预计将进一步推动这一趋势,同时也将带来新的挑战和机遇。