全球人工智能竞赛持续升温,数据中心作为算力基座已从后台走向风口浪尖。美国、欧盟密集出台能耗披露与能效监管新规,中国也在“东数西算”工程基础上加速推进绿色数据中心标准与国际互认。一边是技术狂飙,一边是公众对电力、水资源承载力的焦虑,如何维持平衡成为各国面对的共同命题。
美国智库“信息技术与创新基金会”(ITIF)4月发布报告,系统回应了关于AI数据中心的五大核心关切——从耗电、挤占电网、推高电价、威胁可靠性到用水压力。
文章指出,问题症结往往不在AI部署规模本身,而在衡量框架、市场设计与规划流程的滞后。虽然原文立足美国政策语境,但其揭示的技术治理逻辑具有普遍参照价值。对中国而言,既要警惕“算力焦虑”被简单化为限制发展的借口,也应从中汲取经验,以更精细的制度工具推动算力基础设施与绿色低碳协同演进。观察者网翻译全文,仅供读者参考,不代表本网站观点。
【文/霍丹·奥马尔,翻译/鲸生】
数十年来,数据中心一直是信息经济中默默无闻却坚实可靠的基础引擎,在全球商业和日常生活的后台持续运转。但随着人工智能(AI)的兴起,这些设施被骤然推至公众舆论和政治的聚光灯下。人们愈发担忧数据中心的扩张将对能源系统、水资源以及地方基础设施造成的影响。然而,对这些焦虑情绪的根本成因,各界理解尚不透彻,且常常错误归因。至于政策应对措施则往往针对AI部署的规模,而非其系统性影响。
本报告审视了相关争论中五个最为重大的论断——涵盖电力使用、电网接入、电价、供电可靠性以及水资源的影响——并得出一致结论:核心挑战并非AI基础设施本身,而是用于衡量、定价和管理其影响的制度框架。推动这些框架的现代化,既能保护普通家庭与社区、强化电网性能、减少环境影响,又能允许AI基础设施建设以支撑美国竞争力和创新力的方式有序扩张。
引言
在塑造相关立法提案、监管行动和公众舆论的争论中,有五大论断居于核心地位:
1. AI工作负载耗电过多。
2. AI工作负载挤占了有限电网容量的其他用途。
3. AI工作负载将推高居民电费。
4. AI工作负载威胁电网的供电可靠性。
5. AI工作负载给地方水资源带来压力。
这些论断的提出各有其缘由。在某些情况下,批评者确实指出了真实存在的物理压力——如更剧烈的用电尖峰、波动更大的热负荷——但采取的应对方式却较为生硬,例如设置禁令或容量上限,而非能够直接应对这些压力的技术和运营解决方案。在另一些情况下,批评者指向的问题确实值得关切,例如居民电费上涨,但对原因的诊断却有误,将其归咎于数据中心的需求,而非主导电网成本回收与转嫁方式的市场设计规则。还有一些情况中,批评更多反映了对大规模AI部署的笼统式反对,而非一种清晰界定的、有经验证据支撑的系统性风险。
本报告将逐一审视上述各项论断。
第一,关于AI数据中心耗电过多的担忧。虽然AI工作负载确实增加了电力需求,但数据中心并非全球电力需求增长的主要、次要甚至第三级驱动因素。更重要的是,电力使用本身并非一个政策问题,除非它导致了某种具体的负面影响,例如居民用电成本的上升、电网可靠性降低或环境损害。将电力消耗本身视为问题,可能导致政策矛头错误地指向规模而非实际影响。为确保政策制定者在评估能源使用时着眼于实际结果而非吸引眼球的数字,国会应指示美国国家标准与技术研究院(NIST)和能源部(DOE)开发“单位工作能耗”指标体系,以衡量相对于产出效率的电力使用情况,并支持推动此类标准的国际协调统一。
第二,关于AI数据中心挤占有限电网容量其他用途的担忧。数据中心在“抢占”电网这一说法,暗示其需求正在挤占更具社会价值的电力用途,并默认这些工作负载本身的社会效益较低。这并非公允的评价。数据中心支撑着广泛的经济与公共利益,而关于其在新增需求中占比的广泛引用数据,往往依赖并网申请队列信息,但由于其中存在大量投机性和重复性申请,这些数据高估了实际所需的容量。这并非否认美国电网正面临压力。政策制定者应将重点放在降低所有项目——无论是清洁能源、医院、住房还是数据中心——接入电网的难度上,而非限制某一类需求。国会应要求公用事业公司公开报告融合AI与自动化技术的队列管理最佳实践;联邦能源管理委员会(FERC)应将电网运营商的成本回收机制与可量化的并网审批研究周期缩短情况挂钩;国会还应利用联邦税收抵免和贷款计划,激励并网申请的自动化处理。
第三,关于AI数据中心将推高居民电费的担忧。认为数据中心增长必然导致居民电费上涨的观点,错判了问题的根源。如果数据中心需求在本质上会推高居民用电成本,那么类似的需求增长应在不同地区产生相近的价格涨幅。但事实并非如此。在某些地区,公用事业公司基于对未来需求的预测向发电商支付容量预留费,这意味着仅凭预测的AI负荷增长就可能立即引发居民成本上升——甚至在单个数据中心尚未动工之前。而在其他地区,发电商仅按实际输送的电量获取报酬,因此类似的需求增长并不会带来同样的价格冲击。
造成差异的关键不在于数据中心增加了多少需求,而在于市场规则决定了这些成本何时、以何种方式转嫁给居民用户。当前的美国电价结构还假设需求在很大程度上不具弹性,但许多AI工作负载实际上可以根据价格信号在时间或地点上进行调整。政策制定者应支持具备电网感知能力的负荷灵活调度,使大规模用电负荷能够在电网压力峰值时段调整用电行为,从而减少对最昂贵电源的依赖,并抑制本会传导至居民端的电价飙升。
第四,关于AI数据中心威胁电网可靠性的担忧。AI工作负载确实带来了新的运行挑战,尤其体现在其用电需求高度波动且变化极快。风险源于这类负荷模式与并非为应对快速波动而设计的电网基础设施之间的互动方式。要解决这一问题,需要确保大规模用电负荷以有利于系统稳定性的方式管理其电力消耗。国会应支持制定一项行业行为准则,内容涵盖负荷平滑、现场电力缓冲及功率变化率控制等方面。国会还应指示FERC将有利的并网条款与遵守此类标准挂钩,并鼓励保险公司向证明合规的运营商提供更优惠的保费。
第五,关于AI数据中心给地方水资源带来压力的担忧。相关讨论常聚焦于数据中心使用了多少水,但用水本身并不等同于对水资源造成损害。关键问题在于水资源从何处抽取、如何被使用,以及是否以维持当地生态系统的方式回归环境。许多数据中心运营商已采取措施管理和补充其用水,但用水消耗与回补量衡量方式的差异,导致难以评估其实际影响或比较不同运营商之间的表现。
国会应指示美国国家环境保护局(EPA)与NIST协调,建立一套标准化的水资源核算框架,明确规定必须衡量的指标以及回补量的核实方法,以确保不同运营商之间报告的一致性和可比性。国会还应指示EPA识别水资源压力较高的区域——即数据中心取水风险最大的地区,并在这些地区激励采用低取水冷却技术和提高用水效率。政策制定者也应支持将数据中心整合到区域供热系统中,以对其废热进行再利用。
什么是数据中心?
数据中心是用于管理、存储、处理和传输海量数字信息的设施。它们支撑着从电子邮件、视频流媒体、云存储等日常服务,到处理银行交易、政府文件和大规模商业运营的企业级系统在内的各类应用。越来越多数据中心也在支持包括人工智能在内的更高强度计算任务。
这些工作负载的复杂性和强度各异,但它们都依赖相同的核心基础设施:用于处理数据的服务器机架、用于传输数据的高速光纤网络、用于维持温度稳定的冷却系统,以及保障全天候不间断运行的稳定、大容量电力供应。在AI出现之前,企业设计的大多数数据中心旨在处理模式相对可预测、电力需求适中的混合型工作负载。
图1展示了一个典型数据中心的构成——从电力和数据如何进入建筑,到内部的设备,再到支持和保障其运行的系统。理解这一基础架构,对于认识AI如何开始对其形成冲击至关重要。
图1一个典型数据中心的常见基础设施,包括服务器大厅、后备柴油发电机到变电站、输电线等
如图所示,数据中心不仅仅是一栋装满服务器的建筑。它是一个将电力、连接、冷却和人员紧密整合在一起的系统,以确保不间断运行。电力通过高压输电线进入,在园区内的变电站进行转换,然后分配到设施各处。为防范断电,现场还安装了备用发电机和电池系统。
光纤网络线缆将数据中心连接到互联网、集群中的其他数据中心,或同时连接两者,使其能够快速、安全地交换信息。在建筑内部,数据大厅容纳着处理和存储数据的计算与网络设备。这些机器会产生大量热量,因此设施还包含冷却系统和环境控制设备以维持温度稳定。
整个场地由围栏进行物理防护,并由信息技术专业人员、工程师和设施管理人员组成的团队负责监控和维护运营。部分空间被划为办公和辅助功能区,但整个设施的核心是围绕提供稳定、不间断的存储和计算能力而构建的。
并非所有数据中心都采用相同的建设标准。大多数可归入以下三类之一:企业级、主机托管或超大规模。企业级数据中心是为单一组织服务的私有设施。其所有者通常是非科技类公司,如银行、保险公司和政府机构,它们需要安全地在内部存储和处理数据。
主机托管数据中心是多家公司租用空间来安置其计算设备的共享设施。每家租户自带服务器并管理自己的IT系统,但依赖主机托管服务商提供其他一切服务,如电力、冷却、物理安防和网络接入。主机托管数据中心服务从初创公司到大型零售商再到政府机构在内的广泛客户群。
最后,超大规模数据中心旨在满足亚马逊、谷歌、Meta、微软等全球科技公司及其客户的需求。其中一些由使用它们的科技公司直接拥有和运营;另一些则由第三方供应商建造并出租。无论哪种情况,超大规模数据中心均针对效率、模块化和性能进行了优化,现已成为市场中增长最快的部分。