AI和人类抢水电!答20题“喝”一瓶水,单月用电量抵17万家庭1年

  • 商洛在线
  • 2023-08-10 15:36:31
  • 来源:金融界

AI还没抢掉你的工作,可能就先抢了你的水和电。


【资料图】

2023年,ChatGPT一经亮相便震惊全球,各产业掀起了一股所谓的“AI技术革命”。不过别高兴得太早,变革背后,还有一个问题没有解决。

人们发现,原来ChatGPT比大家想象中更耗水,更耗电。

据《彭博商业周刊》近期报道,美国加州大学的研究显示,微软在美国的数据中心光是训练GPT-3,每个月就要消耗70万公升的水,而且,这还没包括发电用水。

至于耗电,OpenAI仅仅在2023年1月的用电量,就相当于17.5万个丹麦家庭一年的用电量。而这只是1月份的情况,如果将来应用范围更广,消耗的电量会更多。

专家们警告,如果不把能耗问题解决,未来,AI恐怕要和人类争夺资源了。

“口渴”的AI

“口渴”的AI聊天机器人,用水量有多大呢?

研究人员发现,当下流行的大型语言模型,不管是OpenAI的ChatGPT还是谷歌的Bard,都需要大量的服务器来提供足够的数据,以训练强大的程序。

这些服务器机房因为长时间运作,需要保持凉爽,以防止设备发生故障。为此,各数据中心需要大量的水来进行降温,而且必须用干净的淡水资源,以避免设备腐蚀或者细菌滋生。

以大热的ChatGPT为例,每回答用户20个问题,就需要消耗约500多毫升水,来用于冷却硬件。

虽然500多毫升的水并不算多,仅相当于一瓶普通矿泉水,但ChatGPT在全球拥有数十亿用户,消耗的总水量就非常吓人了。

今年,美国科罗拉多大学河滨分校和德克萨斯大学阿灵顿分校的研究人员,分享了一篇名为“让AI不那么渴”的论文。该论文指出,微软仅在训练GPT-3时,就消耗了70万升多的水。这相当于填充核反应堆冷却塔所需的水量,足以生产370辆宝马汽车,或者320辆特斯拉电动汽车。

该论文的研究人员担心,若是无法改善这种情况,到本世纪末,美国近一半的淡水流域将无法满足AI每月的用水需求。

不要以为搬到别的国家就没事了。该论文的研究员也指出,若是未来微软在位于亚洲的、更大的数据中心训练模型,水量消耗会增加三倍。

消耗全球50%电力?

除了用水量巨大,这些AI聊天机器人的用电量也相当可怕。

牛津大学网路研究所教授沃切特表示,每训练一次ChatGPT,就可能得花费可供126个丹麦家庭使用1年的能源,而这仅仅是训练AI模型的前期电力,仅占模型实际使用时所消耗电力的40%。

加拿大基础设施公司QScale联合创办人布沙尔和其团队还表示,OpenAI仅在今年1月的用电量,相当于17.5万个丹麦家庭一年的用电量。

至于谷歌的AI,每年耗电量已达2.3太瓦时,相当于美国亚特兰大城市所有家庭1年用电量。

沃切特表示,仅2012年至2018年间,花在发展AI的能源就增加了30万倍,它们对气候变化的影响,远远大于其它产业。

在欧洲,根据爱尔兰中央统计局的数据,爱尔兰70个数据中心,就消耗了全国14%的电力;在美国,全球数据中心重镇北维吉尼亚州,在今年前3个月,由于用电量需求大,每一单位的电费增长了7.7%。

数据中心本来就是庞大的“吃电怪兽”,如今,AI让它们更耗电。

未来,ChatGPT势必会被大规模商业化:随着人们训练更多、应用更多,对水资源和电力的消耗也会越来越惊人。

目前AI的能源消耗占全球能源消耗总量的3%左右。有专家预计,到2025年,AI将消耗15%的全球电力供应。

更有甚者担忧,未来,AI消耗的电力会达到全球总电力的30%-50%,这还不包括加密货币的用电量。

AI一边帮助人类社会运作得一丝不苟,一边却在无节制地消耗能源。

美国劳伦斯伯克利国家实验室表示,过去20年,各大科技巨头致力于提高数据中心效率,以此来控制能耗的增长。但研究表明,现在的能效措施,可能无法满足未来数据中心的需求。

“如果某些AI继续发展下去,将会给世界造成灾难性后果。人类最终将与AI争夺能源资源。”一篇刊登在《AI Magazine》上的文章担忧,AI终究将朝利己方向演进,并与人类抢夺能源。

本文源自:时代周报

作者:马欢

标签:



推荐More