生成式人工智能需要大量的电、水,老化的美国电网无法承受负荷

省钱田田 2024-08-01 01:38:33

国际快递 · 清关 · 代拍

海外古董 · 艺术品 · 名画 · 名表

【FuninUSA.NET综合报道】得益于人工智能的蓬勃发展,新的数据中心如雨后春笋般涌现,企业建造数据中心的速度可谓一日千里。这就对运行和冷却内部服务器的电力产生了巨大需求。现在,人们越来越担心,美国能否为人工智能的广泛应用提供足够的电力,以及我们老化的电网能否承受得起这一负荷。

Arm公司汽车部门主管迪皮蒂-瓦查尼(Dipti Vachani)说:“如果我们现在不开始以不同的方式思考电力问题,我们将永远无法实现我们的梦想。这家芯片公司的低功耗处理器越来越受到谷歌、微软、甲骨文和亚马逊等超大规模企业的青睐,这正是因为它们可以将数据中心的功耗降低15%。”

Nvidia的最新 AI芯片Grace Blackwell采用了基于Arm的CPU,该公司称其运行生成式AI模型的功耗比上一代产品低25倍。

Vachani说:“节省每一度电的设计与试图最大限度提高性能的设计有着本质的不同。”

这种通过提高计算效率来降低功耗的策略,也就是常说的“每瓦多工作/more work per watt”,是解决人工智能能源危机的一个办法。但这还远远不够。

根据高盛集团的一份报告,一次查询所消耗的能源是一次典型的谷歌搜索的近10倍。生成一张人工智能图像的耗电量相当于为智能手机充电。

这个问题并不新鲜。2019年的估算发现,训练一个大型语言模型产生的二氧化碳相当于五辆汽油动力汽车整个生命周期的二氧化碳排放量。

为适应这种巨大的电力消耗而建设数据中心的超大规模企业也看到了排放量的飙升。谷歌最新的环境报告显示,从2019年到2023年,温室气体排放量增加了近50%,部分原因是数据中心的能耗,不过谷歌也表示,其数据中心的能效是普通数据中心的1.8倍。从2020年到2024年,微软的排放量增加了近 30%,部分原因也是数据中心。

在堪萨斯城,Meta公司正在建设一个以人工智能为重点的数据中心,那里的电力需求非常高,以至于关闭一家燃煤发电厂的计划被搁置。

追逐动力

全球有8000多个数据中心,其中美国的数据中心最为集中。由于人工智能的发展,到本十年末,美国的数据中心数量将大大增加。波士顿咨询公司预计,到 2030年,对数据中心的需求将每年增长15%-20%,届时数据中心预计将占美国总耗电量的16%。而在2022年OpenAI的ChatGPT发布之前,这一比例仅为 2.5%,相当于美国三分之二家庭的用电量。

CNBC访问了硅谷的一个数据中心,以了解该行业如何应对这种快速增长,以及在哪里可以找到足够的电力来实现这一目标。

Vantage Data Center 北美和亚太地区执行副总裁杰夫-滕奇(Jeff Tench)说:“我们认为,人工智能特定应用的需求量将与云计算的需求量相当,甚至超过历史上的需求量。”

许多大型科技公司都与 Vantage这样的公司签订了服务器托管合同。Tench 说,Vantage数据中心的用电量通常高达64兆瓦,相当于数万户家庭的用电量。

“其中许多数据中心都被单个客户占用,他们将整个空间租给他们。当我们考虑人工智能应用时,这些数字可能会大幅增长,达到数百兆瓦,”Tench说。

CNBC访问Vantage的加利福尼亚州圣克拉拉市,长期以来一直是美国数据中心集群的热点地区之一,靠近数据需求量大的客户。从屋顶可以看到Nvidia的总部。滕奇说,由于“该地区电力供应不足”,北加州的数据中心发展“放缓”。

Vantage正在俄亥俄州、德克萨斯州和佐治亚州建设新的园区。

Tench说:“该行业本身正在寻找可以就近利用可再生能源(风能或太阳能)和其他基础设施的地方,无论是将燃煤电厂转化为天然气的激励计划的一部分,还是越来越多地寻求从核设施获取电力的方法”。

一些人工智能公司和数据中心正在尝试现场发电的方法。

OpenAI首席执行官山姆-阿尔特曼(Sam Altman)一直在强调这一需求。最近,他投资了一家太阳能初创公司,该公司生产集装箱大小的模块,模块上装有电池板和储能装置。Altman还投资了核裂变初创公司Oklo,该公司的目标是制造安装在A型框架结构中的微型核反应堆;他还投资了核聚变初创公司 Helion。

微软去年与Helion签订协议,将于2028年开始购买其核聚变电力。谷歌与一家地热初创公司合作,该公司表示,其下一个工厂将从地下获取足够的电力来运行一个大型数据中心。Vantage公司最近在弗吉尼亚州建造了一座100兆瓦的天然气发电厂,为其一个数据中心提供电力,使其完全脱离电网。

加固电网

老化的电网往往不具备处理负荷的能力,即使在可以产生足够电力的地方也是如此。瓶颈在于如何将电力从发电地点输送到用电地点。一种解决方案是增加数百或数千英里的输电线路。

加州大学河滨分校电气与计算机工程系副教授任少磊说:“这样做成本很高,而且耗时很长,有时成本会通过增加水电费的方式转嫁给居民。”

一项耗资52亿美元、旨在将线路扩展到弗吉尼亚州一个被称为“数据中心胡同”的地区的计划遭到了当地纳税人的反对,他们不希望看到自己的账单因该项目而增加。

另一种解决方案是使用预测软件来减少电网最薄弱环节之一变压器的故障。

VIE Technologies 首席执行官拉胡尔-查特韦迪(Rahul Chaturvedi)说:“所有发电都必须经过变压器。”

变压器的平均使用年限也达到了38年,因此它们是造成停电的常见原因。更换变压器既昂贵又缓慢。VIE制造了一种小型传感器,可以安装在变压器上,预测故障,并确定哪些变压器可以承受更大的负荷,以便将负荷从有故障风险的变压器上转移开。

Chaturvedi说,自ChatGPT于2022年发布以来,业务量已经增长了两倍,明年有望再增长两倍或三倍。

冷却服务器

根据REN的研究,到2027年,生成式人工智能数据中心还将需要42亿至66 亿立方米的取水量来保持冷却。这比半个英国的年用水总量还要多。

“每个人都在担心人工智能是能源密集型的。当我们不再做核电方面的白痴时,我们就能解决这个问题,不是吗?这是可以解决的。”Burnt Island Ventures的管理合伙人汤姆-弗格森(Tom Ferguson)说:“水是限制人工智能发展的根本因素。”

REN的研究团队发现,每10-50次ChatGPT提示就能消耗掉一个标准16盎司水瓶中的水量。

这些水大部分用于蒸发冷却,但Vantage的圣克拉拉数据中心拥有大型空调设备,无需取水即可冷却大楼。

另一种解决方案是使用液体直接冷却芯片。

“对于很多数据中心来说,这需要大量的改造。”Vantage的Tench说:“就我们Vantage而言,大约六年前,我们采用了一种设计,使我们能够利用数据大厅楼层的冷水循环系统。”

苹果、三星和高通等公司都宣传过设备上人工智能的好处,它能让耗电的查询远离云端,也远离电力紧张的数据中心。

“这些数据中心能支持多少人工智能,我们就能拥有多少人工智能。这可能比人们所期望的要少。”Tench说:“但归根结底,很多人都在努力寻找方法,以解除一些供应限制。”

欢迎到FuninUSA.NET论坛讨论

0 阅读:5

省钱田田

简介:感谢大家的关注