圣诞前夕,黄仁勋做出了一个“大胆”的决定:
英伟达计划花200亿美元收购AI芯片公司Groq。
作为英伟达历史上最大的收购,更让人惊讶的是,这笔收购超高的溢价率。
今年9月,Groq刚刚以69亿美元估值完成7.5亿美元融资。仅仅三个月后,英伟达给出的价码却是200 亿美元。
也就是说,黄仁勋为了拿下这家公司,愿意在短短一个季度内支付近3倍的溢价。从时间和价格看,这更像一次带着明确紧迫性的出手。
但如果只看基本面,这笔交易并不“合理”。
要知道,Groq今年的收入也只有1.725亿美元,市占率甚至还远远不到1%。
在过去几年里,试图挑战英伟达的 AI 芯片公司并不少见。无论是 Graphcore 还是其他AI芯片玩家,最终都没能对英伟达构成实质性威胁。
从这个角度看,Groq 并不像一个必须被“消灭”的对手。
问题恰恰在这里。为什么一个市占率不足1%的AI芯片公司,仍然值得英伟达付出200亿美元?在几乎已经确立绝对统治力的前提下,英伟达究竟在防御什么?
/ 01 /
一笔激进的交易:市占率不足1%,却溢价3倍
英伟达这次,几乎完整复刻了Meta买Scale AI、Amazon 买 Adept AI 时采用的套路,花了200亿美元拿走了 Groq的核心高管、关键工程团队,以及可直接使用的知识产权授权。在这笔收购里,英伟达拿到了 Groq 知识产权的非独家授权。未来,他们计划将其低延迟芯片整合进产品体系中。照英伟达内部的说法,Groq会“补齐”整个AI工厂架构的一部分。同时,公司CEO Jonathan Ross和总裁Sunny Madra以及其他工程团队成员将加入英伟达,帮助推进和扩展这项技术。Groq继续作为独立公司运营,由CFO Simon Edwards担任CEO,GroqCloud业务也继续运行。这种交易结构,核心考量只有两个:第一,足够高效,不用等完整收购的交易流程与整合周期。第二,也是更关键的,合规。在监管日益严苛的当下,这是规避或者减轻反垄断审查最有效的方式。当然,比起交易结构,最值得一说的还是交易价格。200亿美元,是英伟达历史上最大的收购。上一个纪录,是2019年英伟达以69亿美元收购Mellanox。不仅金额大,而且溢价极高。今年9月,Groq刚刚以69亿美元估值完成7.5亿美元融资,投资方包括BlackRock、三星、思科等。多家媒体当时都提到,Groq 并没有主动寻求出售。仅仅三个月后,英伟达给出的价码却是200 亿美元。这意味着,黄仁勋为了拿下这家公司,愿意在短短一个季度内支付近 3 倍的溢价。这就引出了一个看似矛盾的问题:Groq 真的已经强到,值得英伟达如此“迫切”地出手吗?从现实情况看,事实也并非如此。公开数据显示,2025 年 Groq 收入约 1.725 亿美元;而 Gartner 给出的 2024 年全球 AI 芯片市场规模约为 710 亿美元。换句话说,Groq 的市占率还不到1%,距离对英伟达构成现实威胁,仍然很远。从过去看,Groq也不是第一个试图撼动英伟达王座的挑战者。在Groq 之前,Graphcore、Mythic、Blaize、Habana……都试图挑战英伟达。其中,Graphcore 曾融资 7.1 亿美元,估值 27.7 亿美元,背后站着微软、三星、戴尔、红杉、柏基投资,一度被视为“欧洲 AI 芯片的希望”。但结果是,这些公司无一例外,都没能真正撼动英伟达。所以问题来了,一个市占率不足1%的对手,为何值得英伟达付出 200 亿美元?/ 02 /
供应链是壁垒,也是“软肋”
今年下半年,英伟达市值一度突破5 万亿美元后,股价出现了一轮明显回调。截至目前,NVIDIA 市值回落至约 4.58 万亿美元,基本回到今年 8 月的水平。这并不意味着市场突然看空英伟达,而是一个更微妙的变化正在发生:越来越多投资者开始问一个问题——英伟达还能否在所有 AI 阶段,都像过去那样,维持压倒性的领先?尤其是在推理芯片上。和训练芯片不同,推理芯片并不是“越强越好”,它更注重延迟、吞吐、成本之间的平衡。在大量实时场景中,用一颗昂贵、通用但功耗巨大的GPU,未必是最经济的选择。加上技术路线多样性,AI推理芯片竞争开始出现了更多变数。而Groq,恰恰是这一波推理芯片浪潮里,最激进的玩家之一,其核心产品是自研的AI 推理芯片LPU。Groq最与众不同的地方,在于对内存结构的选择:绕开HBM(高带宽内存),全面拥抱SRAM。这一选择,还是要从当下限制AI芯片发展的主要困境“内存墙”说起。如果把芯片想象成一个餐厅,那么内存就是仓库,处理器就相当于后厨。现在的困境是,厨师虽然炒菜很快,但去仓库取菜花的时间太久了。也就是说,内存的传输速度远远慢于处理器算力,导致芯片性能迟迟上不去。为了解决这个问题,包括英伟达在内的厂商,都在围绕“仓库(内存)”做文章。传统计算机所使用的内存,通常有两种:DRAM容量较大,但传输速度较慢,起主存作用;而SRAM容量较小,但传输速度极快,作为缓存发挥辅助作用。英伟达的解决思路是“修路”,引入了HBM。这就好比,在后厨旁边建一个传输带极快的小型中转仓,让外部内存尽量贴近芯片,让搬运这件事别那么慢。但代价也随之而来——HBM 本身昂贵,还必须配套硅中介层、CoWoS 等先进封装,整个系统复杂度和成本一起抬升。Groq则选择了另一条更激进的路。既然算力一直在等外部内存,那不如干脆不要外部内存。它彻底抛弃了外部内存,直接把所有数据都塞进芯片内部的SRAM 里。这就好比直接把食材堆在了灶台上。厨师伸手就能拿到菜,完全省去了去仓库搬运的时间。这种架构下,数据无需在芯片内外来回奔波,彻底消灭了“内存墙”。这样做虽然省事,也会带来新的问题。最直接的影响就是,成本太高。大模型对内存大小也有着很高的要求。参数量越大的模型,运行时所需要存储的数据也会更多。SRAM虽然快,但缺陷是容量小。Groq花了这么多年,也只能将LPU的容量提升至230MB。而一块H200的内存容量是141GB,两者间差了约628倍。这意味着,要装下更多的东西,就需要更多的空间。因此,在运行同样参数的模型时,需要用到的LPU数量就远远高于GPU。早在去年,前阿里技术副总裁贾扬清就给Groq算了一笔账:以运行LLaMA 70b模型为例,需要572张LPU,售价1144万美元;但如果换成H100,其实只需要8张,总价格在30万美元左右——所谓的“便宜”压根不成立。但即使如此,也丝毫不影响投资人的信心,最终就连英伟达也被迫“溢价”收购Groq。原因是,这玩意想象力太高了。这不仅是一种差异化的技术,更是一场供应链的突围。简单来说,这条路线还意外绕开了当下AI 芯片最难的两道关卡:HBM和CoWoS。今年10月,Groq CEO Jonathan Ross 在一次分享里提到一个观点:外界普遍认为英伟达的护城河是CUDA 软件生态,但这主要在训练端成立。在推理端,真正的护城河是“买方垄断”(Monopsony)。所谓“买方垄断”就是,当你作为唯一的大买家,反过来控制供给。而英伟达控制了全球绝大部分的HBM 和 CoWoS 产能。理论上,英伟达的GPU die(GPU 裸芯片),本身使用的工艺并不特殊,理论上一年可以制造数千万颗。但现实中,真正限制出货量的,不是晶圆,而是HBM和中介层的产能。这一点,在CoWoS 上体现得尤为明显。根据台积电规划,2025年CoWoS月产能大约在 6.5 万到 8 万片之间。而Morgan Stanley推算,其中60%以上被英伟达占用。CoWoS 的工作,是把算力芯片和多颗 HBM 堆叠在一块硅中介层上。这一步对对位精度、良率和产线调度的要求极高,而产能扩张速度,明显跟不上AI芯片需求的爆发。在“HBM + CoWoS” 路线下,一颗高端GPU的交付节奏,已经不完全由晶圆厂决定,而要同时等待内存厂、封装厂和测试良率一起配合。这反而构成了英伟达最容易被忽视的一道护城河。而Groq的路线一旦走通,意味着芯片生产的速度大大加快了。正如分析师Max Weinbach 在 X 上评价的那样:“当你不再依赖美光、三星、SK 海力士的 HBM,也不再被 CoWoS 产能牵着走,制造节奏和选择空间都会明显放大。比如英特尔在 18A、18A-PT 工艺上,本身就具备不错的 SRAM 单元优势。”/ 03 /
总结
对英伟达来说,收购Groq 的意义,并不在于“消灭一个推理芯片对手”。从现实层面看,Groq 今天的 LPU 并不具备直接竞争力。无论是成本还是规模,它都很难在替代 GPU。所以,英伟达出手并不是因为Groq已经威胁到它的销量。真正值得警惕的,是Groq代表的那条路线,可能动摇英伟达更深层的壁垒。在当下的AI 硬件体系里,HBM + CoWoS 等先进封装不仅是行业瓶颈,更是英伟达的优势来源。英伟达凭借规模和订单确定性,事实上占据了全球最稀缺的 HBM 与先进封装产能,形成一种“买方垄断”:别人就算有芯片设计,也未必拿得到足够的内存与封装资源把产品做出来、交付出来。换句话说,英伟达的领先不只来自CUDA 和架构,更来自它对供应链关键环节的优先占用与调度能力。这是一道隐形但极硬的护城河。Groq 验证了一条危险的路径:AI芯片制造其实可以不需要 HBM,也不需要 CoWoS。一旦这条路线跑通,意味着芯片制造的门槛被大幅降低,任何一家设计公司,通过英特尔等代工厂,也有可能大规模生产推理芯片。这对英伟达是致命的。如果算力变得像水电一样容易制造和获取,英伟达基于“稀缺性”建立的帝国将面临价值重估。从这个角度上说,这次200亿美元的收购,倒像是一种预防性动作:即便未来有人找到绕开这套体系的办法,那条新路也最好握在自己手里。文/林白