前两天,“AI教父”Geoffrey Hinton和谷歌首席科学家Jeff Dean在NeurIPS大会对话,备受行业关注
这场对话内容,如同像一部浓缩的AI历史,既回溯关键原点,也揭示未来方向。
Hinton现场回忆,他们的AlexNet模型竟然是在学生Alex父母家的卧室里,用两块GPU训练的,电费还是家里人付的。
“我们那时候甚至没有意识到,算力会如此持续地扩展。”Hinton坦诚道。
而二十年后的今天,AI行业已成为全球科技版图的重心。仅在2024年,亚马逊、微软、谷歌、Meta这四家巨头在AI相关资本上的投入已接近3000亿美元。
这一切究竟是如何发生的?未来AI竞争与机遇又会在哪?

2012年,Hinton的学生Alex Krizhevsky正在父母的卧室里训练一个名为AlexNet的图像识别模型。
当时,他们使用的不过是两块NVIDIA GPU板,插在家用电脑上。Hinton笑着回忆:“好消息是GPU卡的钱我们出了,但他父母支付了电费。我这么做当然是为了给多伦多大学省钱。”
这个看似微小的场景,却奠定了深度学习的地位。AlexNet在ImageNet竞赛中准确率远超对手,证明了算力对于AI研究的决定性意义。
与此同时,在谷歌内部,Jeff Dean正在进行一场完全不同的计算。他回忆:“我在餐巾纸上做了一次计算:如果未来全球有1亿人每天用语音助手,每人说3分钟话,仅这一个应用就需要让谷歌的服务器总量翻倍。”
这是AI规模化的物理成本问题。
Hinton补充道:“我记得刚从大学过来不久,有一次我们的计算资源用完了。我记得Jeff拿起电话,我只听到他那头的对话:‘嗯,是的,两百万应该够了。’我当时心想,我在大学里,要想申请到两百万美元的计算资源,那得花好几年时间去写经费申请。”
这场餐桌边的对话最终催生了TPU项目。
TPU,谷歌定制AI芯片。Jeff Dean直截了当地告诉当时的CFO:“我们得自己造硬件,现在就要。”
算力狂飙:从CPU到TPU的技术路线图
Jeff Dean的决策不是一时兴起。早在1990年,他在做本科论文时就开始探索用并行算法训练神经网络。
他用的是32处理器超立方体计算机,却犯了一个错误:“我分了32份算力,却只用了10个神经元。”
二十年后,这个早期经验为TPU设计奠定了基础。2015年,第一代TPU专注于推理,而非训练,比同期CPU和GPU的推理能效高出30-80倍。
直至2017年的TPU v2,谷歌才开始在自研硬件上大规模训练模型。
今天,全球AI芯片路线已经分化为不同路径。
通用GPU以英伟达为代表,生态开放、适配性强,成为大多数AI公司的首选;专用ASIC以谷歌TPU为代表,在特定场景深度优化,能效比极高;云端专用芯片如AWS的Trainium,与云服务深度集成,服务于企业级客户;边缘AI芯片则专注于低功耗和端侧优化,广泛应用于手机、汽车和物联网设备。
不同的技术路线反映了AI计算需求的多样性,也预示着未来市场格局的复杂竞争。
如今,TPU已进化到第七代。Pathways系统让一个Python进程能统一调度分布在跨城市数据中心的数万颗TPU芯片,就像操作一台超大型计算机。
Hinton对此深有感触:“2012年左右,我们买了一块新的Titan显卡。系统管理员在安装时动作有点慢,我计算了一下,如果我从1986年开始在一台Lisp机器上运行一个神经网络,那么这块新显卡只需一分钟就能赶上它全部的计算成果。”
逆袭之路:从“红色警报”到谷歌王者归来时间回到2017年。在谷歌大脑团队,一篇题为《Attention Is All You Need》的论文悄然发表,它提出的Transformer架构彻底改变了序列建模的基本范式。
论文的核心作者团队当时可能并未完全意识到,他们正在为一场即将到来的AI革命奠定最关键的技术基石。
2022年底,当ChatGPT横空出世时,曾在AI领域处于领先地位的谷歌陷入了被动。
外界评论称,ChatGPT的成功让谷歌内部拉响了“红色警报”。
但事实并非如此简单。
Jeff Dean澄清道:“在ChatGPT发布前,谷歌内部已经有一个聊天机器人,8万员工在用。”
问题在于,谷歌被搜索业务的思维限制住了,太过纠结准确性和“幻觉”问题,反而忽视了聊天机器人能做许多非搜索的事情。
更关键的是组织问题:当时Google有三个团队在各自训练模型——Brain、Research和DeepMind。每个团队的算力都不够大,也各自为战。
ChatGPT上线一周后,Jeff Dean写了一页纸的备忘录,核心内容是:“我们应该整合起来,强强联手,组建一个专门的团队,目标是打造全球最顶尖的多模态模型,并集中投入我们的计算资源。”
于是,Gemini团队就此诞生。算力、模型、人才第一次真正集中到一个目标上。
技术突破往往不是技术问题,而是组织问题。
规模化之后:AI 未来的三大门槛当AI模型已经能够运行起来,也能用在现实中,接下来的突破点是什么?Hinton和Dean指出,还有三道看不见的门槛需要跨越。
首先是能效问题:规模化的物理极限。AI模型越来越大,带来的直接后果是越来越贵、越来越耗电。Gemini的训练动用了上万颗TPU芯片。每一次模型升级,意味着消耗更多电力、时间和预算。
虽然Google早在2013年就通过自研TPU把推理能效提升了30-80倍,但今天这个问题变得更为严峻。
其次是记忆问题:上下文的深度限制。目前的模型上下文窗口,最强的也不过几百万个token。正如Dean所言:“现在的模型理解力,仍然受限于一次能看到多少信息。就像人一次只能翻5页书,AI也只能看一段、忘一段。”
Dean的思路是:让模型能覆盖数十亿甚至万亿个token。这背后的挑战不仅是算法优化,芯片本身的注意力计算架构也需要重新设计。
然而,这种“记忆缺陷”问题,在AI落地服务中更为明显。
针对这一痛点问题,红熊AI研发的“记忆熊”,则依托的底层记忆科学技术,模拟人类大脑的记忆机制,通过创新的“记忆调度”“自我反思”和“智能遗忘”三大引擎,实现对知识图谱的动态管理与优化,赋予AI如同人类一样的记忆,极大提升了AI在应用中深度个性化与精准度,有效解决了大模型“记忆”困境。
第三是创造问题:从模仿到联想。Hinton最关注的是AI能否进行联想思考。
他解释道:“训练这些大模型,实际上是把海量知识压进一个相对有限的空间里。你必须找到不同事物之间的共同点,才能压得进去。”
这意味着,AI在训练过程中会自动学到许多人类没意识到的类比。Hinton推测:“也许某个模型发现了希腊文学和量子力学之间的共同结构。人类专家可能永远都不会把它们放在一起看。”
超越竞争:AI 正重塑全球经济版图2025年,英伟达跃升为全球首个市值5万亿美元的公司。这不仅是估值的突破,更是世界对未来生产范式的投票——算力正成为一种新的战略资产,取代移动互联网时代的流量与终端。
在全球AI领域中,几个关键现象值得关注。首先是四大科技巨头在AI相关资本开支上接近3000亿美元,标志着AI基础设施建设进入史无前例的高潮。在中国市场,百度AI搜索月活达到3.82亿,表明AI正在重塑信息入口,从输入式交互转向委托式代理。同时,全球AI应用中的Token消耗量在两年内增长近十倍,显示AI应用普及程度呈指数级增长。
大模型已经不只是“会不会做题”的问题。最新一代模型如GPT-5.2,已能在GDPval评测中,在44个职业领域横跨对美国GDP贡献度最高的9个核心行业,直接生成可交付的工作成果。
在“初级投行分析师”电子表格建模测试中,GPT-5.2的综合得分达到68.4%,完成同类任务的速度约为人类专家的3倍,而综合成本仅为人类的约1%。
Hinton展望道:“未来二十年,没有人能真正预料到它的影响,尤其是对社会的影响。许多工作将要消失,但我们不确定是否会创造出足够的新工作来替代它们。”
他特别关注医疗和教育领域:“在医疗领域,如果你让医生的效率提高十倍,我们每个人得到的将是十倍的医疗服务,而不是只需要十分之一的医生。教育也是如此。”
新周期的开始:AI 技术竞争的新维度今天的AI竞争已经不再局限于“谁会聊天”,而是谁能提供真正高效、低成本、可靠的智能服务。
Google最新推出的Gemini 3 Flash被称为“卷王”,其综合性能超过上一代旗舰模型,推理速度提升约3倍,而价格却显著降低。Google CEO桑达尔·皮查伊直言:“Gemini 3 Flash证明,速度和规模无须以牺牲智能为代价。”
相比之下,Claude Sonnet 4.5的输出价格是15美元/百万Tokens,GPT-5.2的输出是14美元/百万Tokens,是Gemini 3 Flash定价的近5倍。
硬件层面,AI专用芯片的竞争日趋激烈。苹果、高通、华为等巨头正构建“云-边-端”协同的AI生态,不具备本地AI能力的设备将被淘汰。
Hinton也在思考更根本的计算方式改变。他透露:“在谷歌的最后几年里,我一直在思考如何尝试进行模拟计算。这样,我们就可以使用跟大脑一样的功率(30瓦),来运行大型语言模型,而不是一兆瓦的功率。”
未来,AI竞争的核心维度将超越模型参数或芯片算力,转向如何利用规模化智能,去解决那些真正复杂、昂贵且对人类至关重要的问题——无论是十倍效率的医疗,还是重新定义的教育......
Hinton与Dean的对话提醒我们:当一个技术浪潮席卷一切时,其最持久的遗产,不在于它建造了多庞大的帝国,而在于它最终选择为什么样的社会需求而服务。