群发资讯网

蚂蚁的“算力底座”:中国AI正在悄悄变强

2025年11月8日,乌镇。世界互联网大会照常召开,但今年的会场上,一个消息悄然传开:蚂蚁集团已经部署了万卡规模的国产算

2025年11月8日,乌镇。

世界互联网大会照常召开,但今年的会场上,一个消息悄然传开:

蚂蚁集团已经部署了万卡规模的国产算力集群,训练和推理性能可以媲美国际主流水平。

听起来很技术?

其实这件事的意义,远不止“又一家公司买了上万张芯片”那么简单。

它背后藏着一条清晰的逻辑线:

当全球高端算力越来越难获取,中国企业怎么办?

是原地等待,还是自己想办法?

蚂蚁的选择,是后者。

要理解这件事的重要性,得先搞明白一个问题:为什么算力这么关键?

简单说,大模型就像一个超级聪明的学生,而算力就是它的“大脑健身房”。

没有足够强大的算力,再好的模型也练不出肌肉。

过去几年,全球顶尖AI模型的参数规模从百亿、千亿一路冲到万亿级别,训练数据动辄几十TB,这背后全靠海量算力支撑。

但问题来了:这些算力,长期被少数几家国外公司垄断。

尤其是高性能GPU,几乎成了英伟达的“独家生意”。

一旦供应受限,整个AI发展节奏就会被打乱。

2024年之后,这种风险不再是假设,而是现实。

在这种背景下,蚂蚁选择大规模采用国产算力,不是喊口号,而是实打实地跑通了整套流程:

从硬件部署、软件适配,到模型训练、上线应用,全部闭环完成。

更关键的是,他们做到了“稳定”和“高效”:

训练任务稳定性超过98%,推理延迟只比国际顶尖集群高8%左右。

这意味着,国产算力不再是“能用就行”的备胎,而是真正可以扛起核心业务的主力。

很多人可能觉得,“万卡”只是个数字。

但行业内都知道,把一万张国产GPU连在一起,并让它们高效协同工作,难度极高。

光有硬件堆砌远远不够,通信延迟、散热管理、任务调度、容错机制……任何一个环节出问题,整个集群就可能变成“昂贵的摆设”。

蚂蚁是怎么做到的?

公开信息显示,他们自研了一套“异构算力调度系统”,能动态分配不同厂商的国产GPU资源;

针对混合专家模型(MoE)的特点,开发了稀疏激活技术,让3000亿参数的大模型训练成本降低60%;

还通过演进式思维链等方法,在保证推理准确率的同时,大幅减少Token消耗。

这相当于让AI“少说废话,直奔主题”,既省资源又提效率。

这些技术细节听起来枯燥,但结果很实在:

过去模型迭代周期要30天,现在每周就能完成一次全量训练;

反欺诈模型识别准确率提升15%,每天拦截可疑交易超2亿元。

对普通用户来说,这意味着你扫码支付时,背后有一套强大而可靠的系统在默默守护你的资金安全;

你在线问诊时,AI能更快调取权威医疗知识给出参考建议。

更值得玩味的是,蚂蚁并没有把这套能力锁在自家围墙里。

骆骥在乌镇峰会上明确表示:“蚂蚁愿意开放算力调度技术,共同做大国产算力生态。”

目前,他们已与三家国产GPU厂商签订联合研发协议,百度飞桨、华为昇腾等平台也在积极适配。

这种“竞合”姿态,恰恰说明了一个成熟企业的格局:不追求独赢,而是推动整个水位上升。

当然,国产算力要全面“好用”,还有很长的路要走。

比如,部分开源框架对国产芯片的支持仍不完善,软件生态需要时间沉淀;

中小AI公司受限于成本,短期内难以复制蚂蚁的规模效应;

芯片本身的制程工艺、寿命、能效比,也还有提升空间。

但蚂蚁的实践至少证明了一件事:

国产算力已经跨过了“能不能用”的门槛,正在向“好不好用”迈进。

正如清华大学张钹院士所说:

“过去行业总怀疑国产芯片的稳定性,蚂蚁98%的训练成功率打破了这个偏见。”

这背后,是中国科技产业多年积累的结果。

从芯片设计、服务器制造,到操作系统、编译器、深度学习框架,整个链条正在一点点补强。

蚂蚁这样的头部企业率先投入、验证、优化,为后来者蹚出了一条可行路径。

有人可能会问:既然国际算力那么强,为什么非要自己搞?

答案其实很简单:多样性本身就是一种安全。

一个健康的科技生态,不应该过度依赖单一来源。

就像电力系统需要多个发电厂,交通网络需要多条主干道,AI时代的算力供给,也需要多元化的支撑。

蚂蚁的目标也不是“取代谁”,而是“多一个选择”。

骆骥说得清楚:“我们要做的不是替代英伟达,而是构建多元的算力供给体系。”

在全球AI竞争日益激烈的今天,这种务实而开放的态度,反而更具可持续性。

值得一提的是,蚂蚁的这套算力集群,已经全面应用于安全风控领域。

这可不是随便选的应用场景。

金融系统对稳定性、实时性、准确性的要求极高,稍有差池就可能造成巨大损失。

能在这样的场景下稳定运行,本身就是对技术实力的最好背书。

更进一步,这套能力已经开始向外溢出。

比如在医疗健康领域,蚂蚁推出的AGI原生应用AQ,已经服务近8亿医保码用户,连接5000家医院。

背后支撑它的,正是百灵大模型和国产算力集群。

这意味着,技术进步最终落到了老百姓的日常生活中:看病更方便、结算更快捷、服务更智能。

回过头看,蚂蚁这次在乌镇披露的信息,看似平静,实则意义深远。

它没有渲染危机,也没有鼓吹胜利,而是用一组具体的数据、几个落地的案例,展示了中国企业在关键技术领域的扎实进展。

这种“闷声做事”的风格,或许正是当下最需要的。

技术突破从来不是靠口号堆出来的,而是靠一行行代码、一次次调试、一场场压力测试累积而成。

蚂蚁花了数年时间打磨这套系统,现在终于可以说:我们做到了。

未来三年,蚂蚁计划将算力集群扩展到5万卡规模,并向生态伙伴开放服务。

这意味着,更多企业将有机会用上高性能、高稳定、自主可控的算力资源。

而随着工信部推动“重点行业国产算力占比超50%”的目标落地,整个AI基础设施的格局,或将迎来结构性变化。

当然,这条路不会一帆风顺。

技术迭代永无止境,国际竞争仍在加剧,生态建设需要耐心。

但至少现在,我们看到了一个清晰的信号:中国AI的“算力底座”,正在变得越来越厚实。

对于普通人来说,可能感受不到“万卡集群”的存在,但它确实在影响着我们的生活。

每一次安全的支付、每一次高效的问诊、每一次智能的推荐,背后都离不开强大算力的支撑。

而当这些算力来自我们自己的技术体系时,那种踏实感,是无法用金钱衡量的。

所以,别小看乌镇峰会上那句轻描淡写的“已部署万卡规模国产算力集群”。

它不是终点,而是一个新阶段的起点。中国AI,正在悄悄变强。