「热点资讯」微乐家乡麻将外卦神器载安装-哔哩哔哩
系列详细:功夫熊猫麻将,桂乐广西麻将,极火麻将,网易麻将,哥哥打大A,手机棋牌,开心泉州麻将小程序,闲来陕西麻将,多乐贵阳捉鸡,微乐二七王,辅牌器(插件购买)助赢神器。
在经济领域,事态演变的节奏往往表现为一个悖论其发展进程初期较预期更为缓慢,而一旦临界点被突破,其变化速度则会远超预期阈值。
鲁迪多恩布什
在过去一整年的时间里,始终贯穿了两条全球性的核心主题,一个是以生成式AI为代表的人工智能技术,一个是以绿色能源为代表的能源技术,尤其是在全球数以万计资金的大规模算力基础设施投入背景下,能源需求大增,算力产业也因此成为这一周期下的最大产业受益者。
据中国IDC圈不完全统计,截止2024年12月31日,中国智算中心建设项目已将近700个,由此催生的一系列机遇、挑战与变化正接踵而来,随着2025年的来临,身处算力产业中的我们又将面临什么?
新年伊始,中国IDC圈将与您一起拉开2025年的算力序幕,带来「2025年算力产业十大趋势」:
趋势一:猛烈的能源需求与可持续的算力基础设施
进入2025年,以数据中心为代表的算力产业面临着前所未有的可持续性挑战。OpenAI CEO Sam Altman指出,充沛的智能需要建立在强大的能源基础之上。的确,能源不仅是人工智能的基石,更是所有算力基础设施的命脉。全球范围内,包含10万卡(H100 GPU)甚至千兆瓦级规模的超大规模集群正在加速建设,算力基础设施的能源需求持续攀升,这对能源供应和环境可持续性构成严峻考验。
电力消耗方面,专业机构预测,2025年全球科技巨头拥有的芯片数量将高达1240万块(等效H100 GPU),其折算功耗超过1万MW,耗电量惊人。此外,科技巨头购买GPU芯片还需承担每年数以千万美元计的电力成本。据测算,一个拥有20480块GPU的数据中心集群,在80%利用率和1.25PUE条件下,每年理论耗电量高达249,185 GWh。
水资源消耗同样不容忽视。加州大学河滨分校和德克萨斯大学阿灵顿分校的研究人员估算,到2027年,AI基础设施的全球水资源需求将超过丹麦全年用水量,相当于英国用水量的一半。
在全球双碳政策背景下,构建可持续的算力基础设施势在必行。为实现可持续发展目标,PUE亦需向更加精细化的方向演进,例如对机柜内IT设备功耗进行更精准的统计监测与管理,以便在猛烈的能源需求到来前,尽早构建可持续的算力基础设施。
趋势二:芯片的极速迭代与算力基础设施的性能需求
2025年,英伟达下一代GPU GB300可能会出现多个关键硬件规格变化:引入GPU插槽、增设冷板模块并采用更高功率电源模块(独立电源架)等等。而这些背后的核心驱动因素是对算力效率和商业回报。显然,AI持续爆发正对全球算力基础设施的弹性提出更高要求。
以GPT-4为例,该模型参数规模庞大,计算复杂度极高,对底层算力基础设施提出了严峻挑战。
如图所示的GPT-4性能估算,清晰地展现了不同硬件配置下性能的显著差异。对比H100和GB200等不同硬件配置驱动GPT-4的性能,采用GB200 Scale-Up 64配置的盈利能力是H100 Scale-Up 8配置的6倍。这意味着在相同投入下,新一代算力基础设施能提供更高的算力效率与商业回报,而这些都基于更具弹性的设计与硬件迭代。
对IDC厂商来说,面向AI爆发与IT的快速迭代,如何让长达5年甚至更长的数据中心建设具有弹性正在受到更多市场关注。
对算力核心设备厂商来说同样面临巨大挑战,光子学技术的先驱、Ayar Labs首席执行官Mark Wade就对此表示过明确的担忧:"铜互连已经无法以经济的方式支持AI工作负载。业界现在面临一个情况,即硬件构建者需要大幅提高这些系统的成本效益吞吐量。否则,我们都将走向类似于互联网泡沫破裂的崩溃。"。
趋势三:Agent等推理加速渗透与多元智算需求
进入2025年,大模型训练的放缓并没能阻止AI热潮的延续,以Agent为代表的AI推理需求正在进一步加速算力基础设施建设。尤其Agent带来的异步互动特性(与用户或其他系统进行非实时的交互)将大幅消耗token数量,进而对AI算力基础设施形成更加强烈的依赖。
与此同时,混合云市场份额也将因Agent特有的工作状态需求获得大幅提升。届时,从算力供给结构来看,AI算力中将有75%用于推理,25%用于训练。
趋势四:强化算电协同与创新节能技术
在全球范围内,各国从政府到大型企业都在投入可持续能源建设以支持算力产业发展,持续强化以数据中心为代表的算电协同,并催生一系列创新技能技术的诞生。一方面,算力增长需要大量电力能源支持,另一方面,能源电力系统转型也需要算力提升对新能源消纳的能力和比例,最终创新技能技术成为算力与电力的一致需求。
展望2025,在这一趋势下,算力和电力协同模式将会在各种创新节能技术趋势下迎来发展机遇,尤其核电正在受到全球各国政府及科技巨头关注。
近年来,由中国主导的一场清洁能源技术热潮就是其中一个重要表现,中国太阳能电池板和电网储能应用都显著超出市场预期。2023年中国是风电和太阳能发电增长占全球新增太阳能发电量的51%、新增风力发电量占60%。德国加速推进能源转型,目前全国50%应用绿电,住宅面积、屋顶光伏覆盖将不能低于30%。英国正通过Sizewell C项目加速扩展核能发电。
与此同时,微软、谷歌、亚马逊、Meta等科技巨头在各地建立数据中心同时,也开始纷纷合作开发核电项目(如SMR等),用于保证未来AI算力基础设施的能源持续供应。国内外都广泛采用多种模式展开,包括绿电直供、源网荷储一体化、绿电交易(包括欧美的电力购买协议Power Purchase Agreement,PPA等)、隔墙售电等等。
与此同时,通过创新算法、硬件材料等创新技术降低数据中心能耗等方式也广泛存在,比如密歇根大学(University of Michigan)、华盛顿大学(University of Washington)与加州大学圣地亚哥分校(UC San Diego)的研发团队开发的创新算法,可以调节大模型训练阶段功耗降低30%用电量。与此同时,采用更加耐高温或冷却需求更低的服务器材料也称为更多数据中心的选择,据专业机构估算,数据中心每提高1摄氏度,就能节省5%左右的电力成本。
趋势五:高密度的架构与高企的网络成本
生成式AI的全面爆发正推动机架功率密度的持续上升。目前,科技巨头所建设的AI算力基础设施平均密度为每机架36kW,未来有望达到50kW以上,且AI超大规模集群需求预计更将达到每机架100kW。
与此同时,为了支持大模型的高带宽低延时需求,同时考虑到降低成本和故障,数据中心中的芯片与芯片、服务器与服务器之间的距离要求越来越紧密,算力硬件密度需求也由此出现。尤其是AI数据中心(智算中心)大规模建设之后,未来将普遍面临网络成本高企。
随着AI应用的爆发,未来智算中心在运行中将不得不考虑网络成本问题。从传统的南北向流量,到如今智算中心中高达80%以上的东西向流量,如何保证在大规模训练推理时不会出现大幅性能损耗成为关注重点。
趋势六:液冷共识与连续混合制冷模式
知名半导体机构SemiAnalysis在其2024年10月发布的《Datacenter Anatomy Part 1:Electrical Systems》报告中指出:任何无法提供更高密度液体冷却能力的数据中心,将无法为客户带来显著的性能与总拥有成本(TCO)改进,最终将在生成式AI的竞争中落后。
液冷技术已存在多年,但高成本、漏液可能损坏部件等问题曾阻碍其与风冷竞争,直到如今冷却需求达到风冷近乎极限且低效的程度。然而,这并不意味着风冷即将退出历史舞台,相反,通过对服务器CPU功耗与散热解决方案关系的可以看出,风冷与液冷将在很长一段时间内并存,形成一种混合模式。
从服务器高度(U)和CPU插槽功耗(W)来看,不同散热方式有其适用范围:
低功耗(350W):通常采用风冷,成本低、结构简单、维护方便,适用于对计算性能要求不高的场景,服务器高度从1U到6U+均可应用。
中等功耗(350W-1500W):更适合闭环液冷,随功耗增加,服务器高度通常为2U及以上。
高功耗(1500W):需采用更复杂的开环液冷,服务器通常需要较高机箱空间(6U+)。
液冷散热效率虽高,但成本、结构复杂性及维护难度也相对较高,对于低功耗服务器而言并不经济。即使液冷技术未来发展普及,其成本和复杂性仍高于风冷。不同类型的液冷方案(如闭环和开环)也分别适用于不同功耗范围,体现了散热技术多样性并存的趋势。散热技术的演进(如3D均热板、高密度冷却等)提高了散热效率,使风冷和液冷都能应对更高功耗,促进了风液混合模式的长期共存。
趋势七:AI生产力的降临与超级算力场景的诞生
过去一年来,AI生产力依然局限于小场景应用,真正的AI生产力繁荣需要三大因素的共同作用:公司在AI领域大规模资本支出+算力及软件价格的大幅下降+AI技术有效融入核心产品服务。
进入2025年,这一趋势有望初具雏形,以Agent应用、自动驾驶为代表的超级算力场景有望陆续到来,要充分释放人工智能的潜力,需要进行更根本性的变革
据巴莱克银行2024年10月22日报告《Whats Next in AI? A Framework for Thinking About Inference Compute》透露,根据预测,到2026年消费者人工智能应用如果能够突破10亿日活跃用户(DAU),并且Agent在企业业务中有超过5%的渗透率,则需要至少142B ExaFLOPs
(约150,000,000,000,000 P)的AI算力生成五千万亿个token。
趋势八:数据中心的供电挑战与能源波动控制
AI算力基础设施的电力需求激增,正在给数据中心供电带来持续挑战。虽然全球数据中心总用电量自2015年以来保持稳定,但工作负载却增加了一倍多,这主要得益于效率提升和基础设施改进。但随着AI爆发,正在对工作负载带来包括能源波动问题在内的诸多全新挑战,尤其是新能源供电方面。
智算中心中的AI训练工作负载非常耗电且波动剧烈。AI硬件的运行功率通常接近其热设计功率(TDP),每台AI服务器现在都超过了10kW。当前智算中心负载波动剧烈,可达50%以上,甚至瞬间超过150%或200%。因此,需重新评估UPS抗过载能力、系统架构以及制冷方案。例如,传统的PID控制制冷方式可能无法有效应对智算中心负载的快速变化,需要探索新的解决方案。此外,我国在新能源供电方面也明确要求未来达到10%以上的自备出力(自备电厂的输出功率),目前传统能源的自备出力基本上在70%以上。
此外,为应对供电挑战,数据中心也正在采用多种供电方案,比如,长期来看,高压直流(HVDC)等技术可以减少能量损耗,提高供电稳定性。
趋势九:算力租赁逻辑与IDC商业模式重构
包括算力出海演进与国产化趋势临近、token economics与智算中心生态逻辑
年度专题 2025年算力产业十大趋势
即日起,中国IDC圈将陆续为您带来「2025年算力产业十大趋势」更多精彩内容,敬请期待。
扫描上方二维码即可免费订阅合集。
查看心情排行你看到此篇文章的感受是:
评论