2026年,美国科技公司计划砸7650亿美元建AI数据中心,超过瑞典全年的经济产出。但40%的项目已经延期:电力不够,工人不够,周边居民也不乐意。
硅谷创投教父Peter Thiel押注了一个听起来荒诞的方案:把数据中心扔进大海。
他领投了一家叫Panthalassa的公司,累计融资2.1亿美元。这家公司要造的东西长这样:一个巨大的钢球,漂在太平洋上,球体下方伸出一根管状结构插入水中。海浪推动海水沿管道上涌,灌入球体内的加压水库,再释放出来驱动涡轮发电机。发出来的电不往岸上送,直接喂给球里装的AI芯片。芯片算完的结果,通过卫星链路传回陆地上的客户手里。
美国宾夕法尼亚大学计算机架构工程师Benjamin Lee一句话点破了这个设计的核心逻辑:Panthalassa把能源传输问题变成了数据传输问题。
传电缆到海中央太贵,那就别传电了。电在哪发,算力就搁哪,只把算完的结果传回来。结果是数据,数据可以走卫星。
这个钢球还有个附带好处:散热。陆地数据中心吞掉大量电力和淡水来给芯片降温,而海水温度天然低,直接拿来冷却,连空调费都省了。Lee说,海基计算在散热上可能有碾压性的优势。
最新一代原型叫Ocean-3,长约85米,竖起来跟伦敦大本钟差不多高。计划2026年下半年在北太平洋实测。在它之前,Ocean-1在2021年下水,Ocean-2在2024年2月于华盛顿州近海完成了三周海试。创始人Garth Sheldon-Coulson对CBS说,他最终想部署数千个这样的节点。
数千个钢球散布在大洋上跑AI,这幅画面确实壮观,但问题也摆在那。
一大瓶颈是带宽。卫星链路每个终端大约能跑几百兆比特每秒,回答用户的提问够用。
但如果多个节点需要协同处理更大的AI任务,节点之间的通信延迟和带宽限制就会成为瓶颈。更大批量的数据传输甚至可能得靠船把硬盘运过去。这种方案极不可能替代传统数据中心,充其量在某些场景下有用。
维护是另一道坎。Panthalassa的招聘启事写得很明确:节点必须在最恶劣的海洋条件下存活超过十年,且无需人类维护或干预。节点还要能自主航行、自行推进,虽然初期部署大概率还是得靠船拖过去。在大洋深处修一台坏掉的机器,难度和成本都不是陆地上能比的。说白了,他们要把数据中心从一个需要精心伺候的精密设施,改造成一种可以批量投放的耗材式资产。
把计算设备放进海里这件事,以前有人试过。最著名的是微软2015年启动的Project Natick,把服务器封装后沉入海底。2018年的测试表明,密封的海水冷却系统有可能实现低于陆地机房的故障率。但微软最终没有商业化这个方案。
中国倒是先走了一步。海南岛附近已经部署了商用海底数据中心,上海近海也在建设风力供电的水下数据中心。新加坡的Keppel公司则开始建造浮式数据中心。但这些方案都没有离开近海,仍然绑在陆地电网或固定锚位上。
Panthalassa比这些前辈都更激进:它不只是把服务器泡在水里降温,而是要让节点漂在远洋自己发电、自己算、自己回传。整套系统对陆地基础设施的依赖压到了最低。
但硅谷愿意往里扔2.1亿美元,放在当下的背景里一点也不奇怪。7650亿美元的AI基建计划正被电力短缺、劳动力不足和居民抗议三面夹击,四成项目延期。陆地上建不动,就得往别处想办法。
至少,把数据中心扔到海里,总比扔到太空里要靠谱一点吧。
~~~~~~
图为Panthalassa 的浮动 AI “节点”,由一个巨大的白色球体组成,球体下方连接着一个延伸至水面以下的垂直结构,图源:Panthalassa
信源:Hsu, Jeremy. "Silicon Valley bets $200M on AI data centers floating in the ocean." Ars Technica, 5 May 2026
