文:泽平宏观团队
摘要
随着Deepseek、Grok等大模型不断升级,全球人工智能产业迎来了巨大变革。2025年初,幻方发布的Deepseek-R1大模型,以极具竞争力的成本实现了相当卓越性能,这极大地激发了国内AI产业的投资热情,AIDC人工智能数据中心产业由此进入黄金发展期。
AIDC是传统IDC在AI算力驱动下的升级形态,核心是提供AI所需算力、数据和算法服务,堪称智能时代的“算力工厂”。与IDC相比,AIDC在算力密度、散热技术上差异显著,以满足AI高算力、高稳定性需求。政策端,国家算力摸底推动资源向高效企业集中,加速中小厂商出清。
本轮AIDC的发展浪潮主要围绕两条核心主线展开:
主线一:训练端、推理端算力需求双重爆发。
一方面,Deepseek-R1等大模型的涌现显著降低AI发展门槛,引发算力需求激增,形成“效率提升-成本下降-需求扩张”的杰文斯悖论循环。
另一方面,AI技术正从GenAI向Agentic AI、Physical AI演进,Agent智能体在编程、智能驾驶、A2A等复杂场景的应用正快速普及。
展望未来,人形机器人的落地以及AI for Science的深入应用,将带来可观的增量算力需求。同时,多模态大模型驱动的现象级应用(如AI视频生成、对话)亦值得重点关注,其爆发式增长将显著拉动算力消耗。
主线二:全球云厂商加速资本开支。
云厂商作为支撑AI应用的关键载体,资本开支直接决定了算力供给与技术落地的进程。从海外云厂商资本开支看,头部四家合计超3000亿美元,同比增长超30%。从中国云厂商资本开支看,阿里、腾讯、百度等国内厂商的资本开支正在提速。
2025年,在Deepseek推动下,国内AI叙事显著升温,国内云厂商资本开支有望迎来强劲增长拐点。阿里巴巴集团CEO吴泳铭表示,在云和AI的基础设施投入预计将超越过去十年的总和。这一战略表态可以被认为是国内AI投资趋势的催化剂,未来AIDC的投资建设将迎来新一轮增长浪潮,成为推动AI产业发展的重要基石。
目录
1 AIDC:AI发展的“猛禽发动机”
1.1 AIDC历史:从IDC到AIDC
1.2 AIDC变化:与IDC的差异哪?
1.3 AIDC用在哪:AIDC主要用于AI模型的训推用
1.4 AIDC政策端:算力摸底减少市场低效供给
2 中国进入“AI+”叙事期,云厂商推动AIDC建设
2.1 Deepseek加速AI平权,大模型爆发带动算力需求
2.2 新兴场景:Agent、智能驾驶元年,释放增量算力需求
2.3 全球云厂商资本开支提速,中国AI叙事加快AIDC建设
3 AIDC产业链:黄金发展新周期
3.1 AI芯片:H20封禁,国产加速替代
3.2 液冷:AI芯片功耗提升,带动散热需求
3.3 柴油发电机:AIDC的最后防线
3.4 可控核聚变:算力的尽头是电力
正文
1AIDC:AI发展的“猛禽发动机”
AIDC(人工智能数据中心,Artificial Intelligence Data Center)是传统IDC(互联网数据中心,Internet Data Center)在AI算力需求驱动下的升级形态,其核心是基于最新人工智能理论,采用领先的人工智能计算架构,提供AI应用所需算力服务、数据服务和算法服务的新型算力基础设施。
简言之,IDC是数字经济的“通用仓储”,满足广泛数字化需求,而AIDC是智能时代的“算力工厂”。
1.1 AIDC历史:从IDC到AIDC
回顾过去几十年的发展历程,数据中心正走向智算数据中心。
技术萌芽期(1990年代):基础设施转型的起点。随着TCP/IP协议的全球普及和万维网技术的突破,全球信息化基础设施进入转型期。国内早期的分布式数据处理节点开始聚合,形成现代数据中心的雏形。这一阶段以技术探索为主导,基础设施部署呈现密度快速提升、覆盖范围扩张的特征,虽然规模较小,但为后续发展奠定了网络协议和基础架构的技术基础,标志着中国数据中心产业的萌芽。
产业化培育期(2000-2010年):双轨模式的形成。进入2000年,中国信息化建设迎来黄金发展期,互联网应用从单一的门户网站向电商、社交等多元化场景拓展,推动基础设施服务标准升级。市场分化出两条清晰路径:企业级私有数据中心(EDC)满足大型企业个性化需求,第三方托管的互联网数据中心(IDC)开启商业化服务模式。此阶段以区域性分散部署的中小规模设施为主,初步构建起数字化经济的基础架构,形成"政企自建+第三方托管"的双轨发展格局,产业集中度较低但市场化进程加速。
云转型期(2010-2020年):集约化发展的变革。虚拟化技术的成熟引发IT资源供给模式革命,超大规模集群架构替代传统离散部署。行业竞争格局呈现三足鼎立:1)基础电信运营商依托网络资源优势布局基础设施;2)专业IDC服务商强化定制化服务能力;3)云服务巨头(如阿里云、腾讯云)通过技术创新引领行业方向。产业重心向T3+以上高等级数据中心转移。
智能算力增长期(2020年至今):结构性升级的新周期。
在AI技术革命与数据要素市场化的双重驱动下,数据中心产业发生结构性变革。需求端呈现两极分化:超大规模数据中心聚焦基础存储与通用计算,满足云计算、大数据等普惠需求;异构算力中心专注AI训练推理等专业场景,适配深度学习、大模型训练等高算力密度需求。具备全栈服务能力的第三方运营商凭借敏捷交付体系和技术中台优势快速扩张,行业集中度持续提升,标志着数据中心从"云化基础设施"向"智能算力枢纽"的战略升级。
四个阶段的演进本质上是技术驱动-需求升级-模式创新的螺旋上升过程。从早期技术导入形成产业雏形,到市场化驱动双轨发展,再到云化技术引发集约化变革,最终在AI和数据要素时代实现算力结构优化。每个阶段的核心矛盾不同,技术萌芽期解决"有没有",产业化培育期解决"市场化",云化转型期解决"效率提升",智能算力期解决"结构升级"。
1.2 AIDC变化:与IDC的差异哪?
AIDC与IDC的本质差异源于AI算力需求对基础设施的重塑,其中有两大核心变化:
1)算力密度与功耗层面,IDC以通用服务器为主,单机柜功率密度较低(4-8kW),而AIDC需部署高功率GPU/TPU服务器,单机柜功率达传统IDC的5-10倍(10-100kW以上),硬件投入成本更高,但单位算力效率显著提升;
2)散热技术层面,IDC多采用风冷技术,而AIDC因高功率密度需引入液冷方案(如冷板式或浸没式冷却),以降低PUE值(电能使用效率),同时满足长时间高负载运行的稳定性需求。根据英伟达,H200在高负载任务下产生的热量较前代产品增加了约30%,为确保其稳定运行和持续高性能输出,引入了液冷散热技术。实验对比显示,液冷散热效率较传统风冷提升了约50%。
1.3 AIDC用在哪:AIDC主要用于AI模型的训推用
AI模型的全面应用,是从训练到推理多环节紧密协作的过程。这个过程包括基础模型预训练、行业或企业模型的二次训练以及场景模型的微调,最终实现模型在实际环境中的部署与推理应用。AIDC最主要的是要围绕AI模型训练、推理和应用来规划设计和实施。
基础模型预训练:大型互联网企业与专注大模型研发的公司,以构建通用基础模型为核心目标,其AIDC建设需打造具备十万甚至百万量级算力卡的超大规模集群平台。这类企业在训练过程中需处理万亿级Token数据,涵盖文本、图像、音视频等多模态信息,以实现模型对通用知识的深度学习。
行业模型二次训练:行业头部企业基于通用基础模型,叠加行业专属数据进行二次训练,以构建适配金融、医疗、制造等垂直领域的行业模型。此类训练虽数据规模降至数亿级Token,但仍需数百至数千张 NPU/GPU 算力卡支撑,且需解决行业数据的合规处理、特征提取及模型参数优化问题。
模型微调与推理:多数企业将AIDC作为模型微调与推理的核心平台,结合自身业务场景数据对基础模型或行业模型进行针对性优化,使其满足客户服务、智能决策、自动化生产等具体需求。推理环节对AIDC的性能指标提出精细要求:面向个人用户的ToC服务需降低延迟以提升交互体验,面向企业客户的ToB服务强调高并发处理能力与稳定性,而企业内部应用则更注重算力使用效率与数据安全性。
1.4 AIDC政策端:算力摸底减少市场低效供给
国家层面算力摸底,减少市场低效供给。4月16日,地方发改委《关于开展算力摸底有关工作的通知》已下发,通知显示,摸底工作涉及已建、在建和拟建算力中心项目,摸底数据将作为国家算⼒资源统筹布局的重要依据。根据IDC圈统计,2025年一季度,我国大陆共165个智算中心项目出现新动态,分布在29个省份,除37个未披露投资额的项目外,128个项目总规划投资总额超过4300亿元。项目状态方面,58%的项目处于已审批筹建状态、33%处于在建或即将投产状态、仅10%处于已投产/试运行状态。
根据《全国数据资源调查报告(2024年)》,2024年,全国算力总规模达到280EFLOPS(每秒百亿亿次浮点运算),智能算力规模达90EFLOPS,占比提升至32%,为海量数据计算提供智能底座。其中,中央企业算力规模增长近3倍,智能算力占比为40.22%;数据技术企业算力规模同比增长近1倍,智能算力占比为43.63%。根据IDC预计,2025年中国智能算力规模将达到1,037.3EFLOPS,2028年将达到2,781.9EFLOPS,2023-2028年中国智能算力规模和通用算力规模的五年年复合增长率分别达46.2%和18.8%。
回顾历史,本次算力摸底可以认为是此前政策延续。自2020年《关于加快构建全国一体化大数据中心协同创新体系的指导意见》发布以来,国家持续推动算力资源统筹,清退“小散老旧”数据中心,2022年进一步明确PUE≤1.3的能效标准,淘汰高耗能低效产能。此次摸底将细化到“已建、在建、拟建”算力中心,动态掌握算力规模(如智算/通算占比)、利用率、能耗等指标,为国家层面统筹东西部资源匹配提供数据支撑。
我国数据中心投资主体主要包括互联网大厂、运营商、地方政府、第三方IDC厂商。算力摸底政策是国家层面推动算力基础设施高质量发展的关键一步,通过数据驱动的精准调控,将有效遏制盲目建设,引导资源向技术领先、运营高效的头部企业集中。
短期内可能加剧中小厂商出清,但长期看,龙头第三方IDC厂商和具备全栈能力的科技企业将主导市场,推动中国算力产业从“规模扩张”转向“价值提升”。
2 中国进入“AI+”叙事期,云厂商推动AIDC建设
2.1 Deepseek加速AI平权,大模型爆发带动算力需求
2025年初,Deepseek带动国内大语言模型爆发。DeepSeek的引人注目之处在于它克服了计算能力的限制。DeepSeek专注于算法效率,而非单纯的计算能力竞争。有效降低了中国AI发展的门槛,中国突破美国的科技制裁限制,进而加速AI平权,使得算力需求在中国爆发。
2025年5月,DeepSeek团队的新论文《Inference-Time Scaling for Generalist Reward Modeling》发布,引入了一种自我原则点评调优(SPCT)的方法,基于此方法推出DeepSeek GRM模型,27B的参数能跑出目前R1模型671B参数相当的性能。
从实验结果来看,DeepSeek GRM模型进一步压缩的硬件需求,采用128块A100-80G GPU训练,训练成本仅仅为R1的1/6;推理阶段无需长链式推理的重复计算,降低了算力与显存的需求,推理能耗为R1模型的17%左右,大大降低了模型本地化部署的成本。DeepSeek R2有望在近期内发布,此次GRM模型的发布或是其算法创新的雏形,DeepSeek R2的发布或将加速AI在各行各业普及。
效率提升→成本下降→应用普及→需求激增→资源紧张,杰文斯悖论式的循环,在AI行业正在兑现。
杰文斯在《煤炭问题》一书中提出杰文斯悖论,其核心内涵在于,技术进步带来的资源利用效率提升未必会降低资源总消耗量,反而可能促使资源总需求呈现增长态势。其内在机制植根于需求端对成本变化的强敏感性。当资源获取成本因效率提升而下降时,市场需求的扩张幅度往往会超越技术进步带来的节约效应,最终导致总消耗反增。
以19世纪英国蒸汽机革命为例,通过改良燃烧效率使煤炭利用率大幅提升,非但没有减少煤炭消耗,反而因工业生产规模的指数级扩张,催生了冶铁、纺织、运输等多领域的用煤需求爆发,最终推动煤炭总消耗量迎来跨越式增长,我们认为AI产业对于算力需求亦是如此。
除此之外,我们认为训练端算力需求,后续值得期待。从近期的大模型迭代趋势来看,预训练(Pre-training)阶段的Scaling Law的放缓趋势。但我们认为预训练的算力需求仍有上升空间。
今年下半年全球大模型的迭代,会重回预训练上来,无论是模型参数的增加,数据集的增加,还是模型优化,如GPT-5、Grok4、Claude 4等。同时后训练(Post-training)的算力需求也值得关注。
2.2 新兴场景:Agent、智能驾驶元年,释放增量算力需求
AI产业正从AI Chatbot转向AI Agent。从AlexNet到ChatGPT,是从检索的计算方式转变为生成的计算方式。而当AI从ChatGPT那种靠预测下一个tokens、大概率出现幻觉的生成式AI,迈向Deep Research、Manus这样的Agentic AI应用时,每一层计算都不同,所需要的tokens比想象的多100倍。因为在Agentic AI应用中,上一个token是下一个token生成时输入的上下文、是感知、规划、行动的一步步推理。
回顾AI Agent的产业发展,AI Agent的发展轨迹恰似积木搭建的过程,需要将分散的技术模块精准拼接,方能构建完整的智能体形态。早期阶段,大模型智能性、多模态推理、代码生成能力、工具调用机制、Token经济体系及算力支撑等核心模块长期处于孤立发展状态,单一技术因缺乏协同闭环而难以转化为实际行动能力,导致Agent始终停留在“智能理论超前、落地执行滞后”的功能割裂阶段。
当下产业环境已发生关键转变:以MCP为代表的工具调用协议完成标准化建构,为跨工具交互提供了统一技术语言;大模型代码生成能力突破产业级应用标准,能够支撑复杂业务逻辑的自动化实现;而Token调用成本的指数级下降,更从经济层面破除了大规模智能交互的落地壁垒。在技术标准统一化、开发框架工程化、核心能力实用化、应用成本亲民化的多重驱动下,曾经散落的技术积木正按照产业级协同标准完成有机拼接,推动AI Agent从功能碎片迈向具备完整行动能力的智能体闭环,AI Agent进入爆发元年。
我们看来,Agent发展也存在预期差,Agent对于普罗大众来说可能感知不到,但它在特定场景、特定人群的使用量增长尤为迅速,比如Coding Agent、Manus、智能招聘Agent等。Manus使用客群大多集中在海外,因此实际增速可能比感知的要快一些。
进一步来看,大模型自身能力决定着,AI Agent的智能高度和应用边界。随着它变得越来越智能、应用越来越广泛,更多的算力需求也随之而来。
Physical AI拥有更多的算力需求。AI已经经历了三代技术范式的转移。最早是判别式AI(语音识别、图像识别),接着是生成式AI,然后就是当下我们身处的Agentic AI,未来会是影响物理世界的Physical AI,也就是智能驾驶、人形机器人。
为了训练“全自动驾驶”神经网络,DOJO 2性能预计指数级增长。特斯拉DOJO总计算能力或超100exaflops,超10万英伟达H100/H200 AI芯片提供算力支持,旨在训练其“全自动驾驶”神经网络。特斯拉通过全球超200万辆车辆实时回传数据,构建了全球最大的自动驾驶数据库。依托Dojo超算中心,每天完成海量数据训练。Dojo 2将于2026年发布,特斯拉希望将其计算机容量提高10倍。
国内新势力自建智算中心快速追赶应对算力挑战。理想汽车的理想智算中心算力已达到8100 PFLOPS,华为车BU云智算中心的乾崑ADS3.0在算力方面已达到7500 PFLOPS。2025年小鹏云端的算力将会达到1000PFLOPS以上。
对于后续的算力增量需求,人形机器人、AI for Science的落地带来的算力需求值得期待。还需关注多模态大模型带来的现象级AI应用的算力需求,如AI视频对话等。
2.3 全球云厂商资本开支提速,中国AI叙事加快AIDC建设
云厂商作为支撑AI应用的关键载体,资本开支(Capex)直接决定了算力供给与技术落地的进程。
2022年底,OpenAI正式推出ChatGPT,成为生成式AI爆发的导火索,迅速点燃全球AI技术革命的热潮,由此为分水岭,进入AI大模型时代。自2023年起,北美科技巨头纷纷将AI列为战略核心,通过大幅增加资本开支,加速AIDC建设。微软、亚马逊、谷歌与Meta的资本投入呈现显著增长态势,在AI领域的布局力度空前。
相较之下,中国企业在AI发展初期面临双重挑战:一方面,高端AI算力芯片的进口受到限制;另一方面,中国企业虽然在AI领域的资本开支增速较快,但投入的绝对值仍处于较低水平。
转折点出现在2025年1月,幻方发布的Deepseek R1大模型,以极具竞争力的成本实现了与ChatGPT-4o相当的卓越性能,由此国内芯片、模型、应用形成闭环,这极大地激发了国内AI产业的投资热情。
未来AIDC的投资建设将迎来新一轮增长浪潮,成为推动AI产业发展的重要基石。
从海外云厂商资本开支看,头部四家合计超3000亿美元,同比增长超30%。Meta预计将2025年的资本开支规划由之前的600-650亿美元提升到640-720亿美元,用于加大数据中心投资来支持AI发展以及要增加基础设施硬件的投资。微软预计2025财年投入800亿美元用于AI数据中心建设;亚马逊计划2025年投资超过1000亿美元,同比增速约29%,主要用于AI基础设施,以支持其云计算服务和AI服务的需求;谷歌预计2025年资本开支达750亿美元,同比增速约43%,主要用于AI基础设施的建设。
从中国云厂商资本开支看,与海外相比,阿里、腾讯、百度等国内厂商的资本开支正在提速。2025年在Deepseek推动下开启AI叙事,国内云厂商资本开支有望大幅增长。
据新华社报道“阿里巴巴集团CEO吴泳铭24日宣布,未来三年,阿里将投入超过3800亿元,用于建设云和AI硬件基础设施,总额超过去十年总和”,意味着年均资本开支1300亿元。根据阿里巴巴财报,2024年资本开支总额为767亿元,预计2025年的资本开支增量约1300-767=533亿元。
2025年三大运营商资本开支计划合计达到2898亿元,但额度“不设限”。中国电信2025年预计算力投资同比增长22%。中国电信同时表示,今年算力投资将根据需求灵活调整不设限。中国移动方面在算力领域投资373亿元,占资本开支的比例提升到25%,对于推理资源将根据市场需求进行投资,不设上限。中国联通预计算力投资同比增长28%,预算安排将根据智算和6G等需求,以及国内外发展趋势,及时调整投资规模。
字节跳动算力投入明显加大。2024年的资本开支达800亿人民币,2025年有望达到1600亿元,大部分投向算力采购和IDC基础设施建设。根据Omdia,2024年字节和腾讯预计采购英伟达H系列算力卡合计约46万块,分别均采购了约23万块,仅次于微软采购量。
3 AIDC产业链:黄金发展新周期
AIDC产业链贯穿多个环节,从AI芯片、服务器等硬件设计制造,到基础设施建设,再到智算服务供应,以及生成式AI大模型研发和行业应用。
在产业链中,AIDC资本开支大头仍在IT侧,服务器是算力承载的核心硬件。服务器约占IT侧成本的70%;非IT侧主要为供电系统相关,其次为制冷系统相关,供电系统相关(柴油发电机组、电力用户站、UPS、配电柜)和制冷系统相关(冷水机组、精密空调、冷却塔)分别占69%和18%。
3.1 AI芯片:H20封禁,国产加速替代
美国对英伟达“特供”中国市场的AI芯片H20实施出口管制,自2025年4月14日起无限期生效。此举导致英伟达预计2026财年计提55亿美元相关费用,并加剧国内市场对高性能算力芯片的供需矛盾。
国产替代“以量补质”实现性能赶超。2025年4月,华为推出的CloudMatrix 384正式于芜湖数据中心上线,产品由384颗昇腾901C芯片组成,算力达300PFLOPS。华为以超5倍于英伟达GB200 NVL72的芯片数量构建AI算力集群CloudMatrix 384,实现了相当于该集群1.7倍的性能表现。尽管昇腾芯片单卡性能与Blackwell芯片仍有差距,但CloudMatrix集群性能已实现对英伟达NVL72的超越。
AI大模型所仰赖的集群式算力特征,为国产AI算力产品孕育出全新发展契机。尽管现阶段中国大陆晶圆厂的先进制程工艺与国际一流厂商尚存差距,单颗AI芯片性能提升面临瓶颈,但依托高速网络设备实现多芯片算力堆叠,国产AI算力集群产品得以达成与海外竞品的性能对标。这种“以量补质”的集群化发展模式,正逐步成为国产算力产业破局突围的关键路径,为在制程工艺受限背景下实现技术追赶提供了有效解决方案。
对于算力芯片对AIDC需求压制,需要持续关注英伟达对于中国市场推出的新款定制降级芯片进展,以及国产芯片的放量速度。
3.2 液冷:AI芯片功耗提升,带动散热需求
AI芯片性能迭代带动功耗激增,液冷技术成为散热刚需。以英伟达H100为例,其热点功耗密度达1.5W/cm²,远超风冷0.3W/cm²的上限,若强行使用风冷需扩大机柜间距50%,导致空间利用率下降40%,显著推升土地和基建成本,液冷凭借热传导效率(液体比空气高1000-3000倍)成为必然选择。
根据英伟达估计,液冷数据中心的PUE(能源使用效率)可以达到1.15,远低于风冷数据中心的1.6。工信部《新型数据中心发展三年行动计划》要求2025年全国数据中心平均PUE降至1.5以下,单机柜功率超30kW必须强制采用液冷,并设定PUE≤1.3的准入红线,倒逼液冷技术普及。
根据IDC预计,2028年中国液冷服务器市场将达到105亿美元,2023-2028年五年年复合增长率将达到48.3%。中长期看,AI算力密度提升与ESG要求深化将驱动液冷从“可选”迈向“必选”。
3.3 柴油发电机:AIDC的最后防线
柴油发电机组作为数据中心电力冗余体系的核心设备,承担着应急备用电源“最后保障”的关键角色。数据中心供电系统通常采用“电网+UPS+柴发”三级保障架构:UPS凭借毫秒级切换能力实现市电中断时的瞬时电力接续,但其储能容量有限(仅能维持数分钟至数十分钟);柴发则在UPS续航耗尽后启动,以大功率、长时供能特性(可持续供电数小时至数天),成为数据中心应对长时间停电事故的唯一可靠备份电源,二者通过“瞬时响应+持续供能”的功能互补,构建起完整的电力保障链条。
柴发产业链具备技术壁垒高、扩产周期长的显著特征。扩产需要全产业链扩,由于柴发产业链长,要求标准高、工艺复杂,供应商导入严格,一个节点的扩产不及预期,都将拖累这条产业链的扩产进度。而且大功率机组(1.6-2MW)对发动机、控制系统等核心部件的技术要求严苛,国内具备规模化交付能力的企业少。
智算中心大型化有望推动柴油发电机需求曲线更加陡峭。AI算力需求爆发推动数据中心建设加速,全球数据中心柴发冗余配置率从80%提升至120%-150%,当单柜功率密度从20kW跃升至50-100kW,将带动大功率机组需求同比增长150%。供需错配背景下,柴发设备价格已进入涨价周期,行业呈现量利齐升格局。
3.4 可控核聚变:算力的尽头是电力
人工智能大模型技术的研发和应用带来了更高的能耗需求。从AI对能源的需求来看,数据中心作为AI运行的核心载体,其电力消耗正经历迅猛增长。如OpenAI的“星际之门”项目所预计的高达数千兆瓦的电力需求。
根据IDC,2024年人工智能数据中心IT能耗(含服务器、存储系统和网络)达到55.1TWh,2025年将增至77.7TWh,是2023年能耗量的两倍,2027年将增长至146.2TWh,2022-2027年五年年复合增长率为44.8%,五年间实现六倍增长。据Vertiv预测,以能耗为单位,2023-2029年全球新增智算中心总负载将达100GW,每年新增约13-20GW。在这一趋势下,保障电力供应尤为重要。
小型模块化反应堆(SMR)或是未来AIDC供电主力。在2025年中国春季核能论坛上,我国核能企业与AIDC应用方正式启动SMR为数据中心供电的示范项目前期技术论证与场景适配研究。与传统大型核反应堆相比,SMR有望凭借其灵活部署、低碳高效的特性,成为我国核电领域对接新型算力基础设施的重要增量市场,为AIDC提供稳定、低成本的基荷电源。
中国在可控核聚变领域实现多项里程碑式突破,为AIDC能源需求奠定技术基础。5月1日,根据合肥市官网,我国紧凑型聚变能实验装置(BEST)工程总装正式启动。5月4日,根据央视,大科学装置聚变堆主机关键系统综合研究设施“夸父”(CRAFT)项目,建设已经进入关键阶段,预计将于2025年年底全面建成。
5月以来核聚变催化不断,核能作为中国实现“双碳”目标、能源安全的重要战略方向,其可控核聚变及SMR是行业未来发展的重要增量,未来,SMR或将是除燃气轮机外的AIDC供电主力。