群发资讯网

The Verge前两天发了一篇很长的报道,讲的是AI数据中心的环境代价。看完之

The Verge前两天发了一篇很长的报道,讲的是AI数据中心的环境代价。

看完之后我沉默了很久。

事情是这样的,NAACP(美国全国有色人种协进会)最近对马斯克的AI公司xAI提起了一项诉讼,指控他们在孟菲斯建设的数据中心违反了环保法规,违规运行燃气轮机发电。

但这次诉讼的切入点很有意思,它不只是说「你们污染环境了」,而是指向了一个更深的问题:这些数据中心,通常建在低收入社区和少数族裔社区附近。

换句话说,AI发展的环境代价,不是均匀分摊的,而是由最弱势的群体在承担。

1️⃣ AI的能源账单比你想象的恐怖得多

先说一些数字,训练GPT-3大约消耗了1287兆瓦时的电力,训练PaLM消耗了3640兆瓦时。

训练一个大型AI模型的耗电量,相当于几百个普通家庭一年的用电。

但这还只是训练阶段,模型部署之后每天在跑推理,那个消耗是持续性的。

而且随着用户量增长,数据中心的规模也在持续扩张。Meta、谷歌、微软这些公司都在规划兆瓦级别的数据中心集群。

不过谷歌那边确实在做一些努力,他们承诺2030年实现数据中心100%使用可再生能源,也在用算法优化来降低AI模型的能耗。但这些承诺能不能兑现,外界持保留态度,毕竟目标年份还远着呢。

2️⃣ 更容易被忽视的问题是水

电力大家都在讨论,但用水量很少被提到。

数据中心需要大量的水来做冷却,这个需求量大到什么程度呢?据一些研究估算,训练一个大型AI模型的用水量可以达到数百万加仑。

这件事在水资源本来就紧张的地区的冲击尤其大。

美国西部的一些数据中心选址,当地居民已经在为水权问题头疼了,现在又来了一个超级吃水的大家伙。而且冷却水在蒸发之后不能完全回收利用,属于真正的消耗性用水。

更值得关注的是NAACP诉讼中提到的环境正义问题。

数据中心的选址往往不是随机的,它们倾向于建在土地便宜、法规宽松、社区议价能力弱的地方。而这些地方,大概率是低收入社区。

就是说,最弱势的群体在替整个科技行业的环境代价买单。

3️⃣ 这不是一个可以靠技术乐观主义糊弄过去的问题

当然,AI行业也不是完全没在想办法。

硬件端,大家在研发更节能的芯片架构。算法端,模型压缩和知识蒸馏技术可以在保持性能的同时降低推理成本。甚至有人提出用数据中心产生的废热给周边社区供暖,这个想法听着挺美好的。

但说实话,这些技术进步的速度能不能追上AI发展的速度,我持谨慎态度。

因为现在行业的竞争逻辑是「先把模型做大做强再说」,环保问题永远排在商业利益后面。除非有更强有力的监管介入,或者市场本身开始用脚投票,否则这个趋势很难逆转。

我们享受着越来越智能的工具,但很少有人会去想,每一次跟AI的对话背后,都有真实的环境成本。AI产业会开始认真面对自己的环境账单吗?还是继续假装这个问题不存在?