Google 最近在 AI 领域的动作,开始明显和 OpenAI 分叉了,而这条路线的关键人物是 Demis Hassabis。人工智能googleopenAI OpenAI 的路线:核心仍是:通用大模型 + 对话式入口强调模型能力提升速度、产品化效率(ChatGPT、API、Agent)AI 主要存在形态:屏幕里的助手、工具与代理优势:节奏快、产品心智强隐忧:对物理世界理解仍高度依赖“语言抽象”Google / DeepMind 的路线(Demis Hassabis 主导):核心押注:世界模型(World Model)而非聊天机器人AI 不只“会说”,而是能感知、理解、预测真实世界载体不局限在 App,而是走向终端级硬件(2026 智能眼镜)优势:长期主义、科学导向、硬件与生态协同隐忧:商业化节奏慢、内部协同复杂Hassabis 并不是传统意义上的产品经理型 CEO。他是国际象棋神童出身的神经科学家,早年参与过游戏设计,后来转向大脑研究,最终创立 DeepMind。AlphaGo、AlphaFold 背后,都是他对同一件事的执念:用计算系统去建模现实世界的运行规律。这也解释了他为什么并不急于在“聊天机器人”赛道和 OpenAI 正面硬拼。Bloomberg 披露的信息显示,Google 内部正在推进一条更偏长期主义的路线:- 2026 年推出 AI 智能眼镜,与三星合作- 目标不是复刻 Google Glass,而是让 AI 成为理解现实世界的感知层- 技术核心是 “世界模型”,而不是更会聊天的模型在 Hassabis 的设想里,真正有用的 AI,不只是回答问题,而是能记住你把钥匙放在哪、理解你眼前物体的空间关系,甚至预测物理运动的结果。这类能力,本质上不是语言问题,而是对现实世界的建模能力。这一点和 OpenAI 形成了清晰对照。ChatGPT 依然建立在文本智能之上,而 Google 试图把 AI 推向物理世界接口。即便是 Meta 的智能眼镜,目前更多也停留在“描述看到的内容”,还没触及物理逻辑层。Transformer 核心发明者 Noam Shazeer 去年回归 Google,并向 Hassabis 汇报。这种安排本身就说明,Google 正在刻意压低内部竞争,把技术路线收敛到同一个长期目标上,才有了近期 Gemini 3 在榜单上的提升。这更像一场“慢速反击”:OpenAI 跑得极快,Google 选择重做地基。如果 AI 的下半场不再是屏幕里的文字,而是现实世界的理解能力,那这场竞赛,可能才刚刚开始。而Google 正在做的这件事,其实和智能汽车的关系,比很多人想象得更直接。Demis Hassabis 押注的不是“更会聊天的 AI”,而是 世界模型——让系统理解真实世界的空间、物体和因果关系。这条路线,看起来像是在做 AI 智能眼镜,但它解决的,正是智能驾驶的核心难题。自动驾驶真正的瓶颈,从来不是算力或摄像头数量,而是:AI 是否能理解一个复杂、动态、充满不确定性的物理世界。Google2026 年推的 AI 眼镜,本质上是一个低速、可控的现实世界试验场:持续感知、三维建模、实时预测——这些能力,和高阶智能驾驶几乎是同一套问题。相比之下,当前大模型更多解决的是“车内交互”,而不是“车外世界”。前者让你和车更好沟通,后者决定车能不能真的自己开。如果说智能驾驶的上半场,是感知和规则工程,那下半场,拼的很可能就是谁先做出可泛化的世界模型。从这个角度看,Hassabis 的布局,并不是在“避开汽车”,而是在为智能汽车,重做地基。智能驾驶自动驾驶
