群发资讯网

记者问:“中美 AI 差距到底有多大?” 梁文锋毫不避讳、一针见血地回答:“表面

记者问:“中美 AI 差距到底有多大?” 梁文锋毫不避讳、一针见血地回答:“表面上中国 AI 与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的”。 当那个关于中美AI差距的问题被抛给梁文锋时,会场里的空气似乎凝固了一瞬。 所有的聚光灯都打在这个繁荣的行业表面:2025年,中国大模型的数量已经冲到了1500个以上,拿下全球第一;短视频AIGC的渗透率飙升至70%,把渗透率45%的美国甩在身后。 我们看似正在经历一场应用层面的狂欢,无论是办公室里的智能助手,还是马路上时刻运转的安防慧眼,AI的触角已经无处不在。 然而,一旦剥开这层喧嚣的表皮,露出的却是某种集体性的尴尬。这就好比我们在别人的地基上,用着别人画好的图纸,只是负责把墙砌得更漂亮些。 翻开那些引以为傲的国产模型,如果往代码的最深处挖掘,绝大多数的灵魂依然是2017年大洋彼岸发布的Transformer架构。 甚至在全球高引用的AGI研究成果里,美国独占其四,我们仅有一席之地。这种“只做装修、不管地基”的繁荣,本质上脆弱得不堪一击,因为制定规则的“出题人”从来不是我们。 更让人如鲠在喉的,是硬件层面的硬伤。美国设下的“小院高墙”里,英伟达H100芯片像一座大山横亘在前:1979TFLOPS的半精度算力和3350GB/s的显存带宽,构建了难以逾越的物理壁垒。 相比之下,国产最强战力华为昇腾910B,在某些核心算力指标上与前者存在着7.7倍的差距。 更要命的是那种无形的生态粘性,英伟达的CUDA生态就像一张致密的网,把开发者死死困住,迁移成本高达80%。 这也解释了为什么即便是性能腰斩的特供版H20芯片,2023年在华销售额还能逆势增长42%——为了活下去,大多数企业只能无奈地吞下这杯苦酒。 数据从不撒谎,却也最伤人。我们在应用侧的推理芯片国产化率虽然冲到了42%,但在决定未来的训练端,替代率仅仅卡在15%。 这意味着,每一次训练千亿参数的大模型,我们的时间和电费成本都在成倍增加。 这就是“拿来主义”的代价:以前觉得买比造划算,借比写快,结果到了紧要关头,人家只要稍微收紧地基的使用权,上层的摩天大楼就有崩塌的风险。 这种困境的根源,往往深埋在更隐秘的文化土壤里。在美国,像Google这样的巨头可以凭着“耐心资本”,哪怕发表一篇论文的背后是上百次死胡同里的尝试,也能获得认可。 但在国内,许多企业的研发节奏被季报和KPI追赶得喘不过气。一位做推理引擎的工程师曾面临这种窒息的博弈:是用开源代码拼凑三天上线,还是花半年在国产芯片上重写底层算子? 为了短期生存,绝大多数人选择了前者,继续做快乐的“拼装工”。 这种急功近利甚至蔓延到了高校,NeurIPS顶会论文数量虽然上去了,但我们的论文引用量占比仅为15.32%,远低于美国的29.52%,大部分是在做已知题型的“模拟考”,而非探索未知领域的原创题。 人才的流向更是令人扼腕。我们培养了全球近一半的顶尖AI研究人员,结果77%的博士毕业后选择留美。 甚至在那个惊艳全球的GPT-4核心团队里,虽然20%是华人面孔,但他们贡献智慧的阵地却是在大洋彼岸。自家辛辛苦苦浇灌的苗,最后结出的果实却成了别人的核心竞争力,这才是最痛的失血。 好在,并非所有人都甘愿在这个怪圈里打转。已经有一小群“头铁”的人开始尝试掰回方向盘。 就像那个试图摆脱依赖的团队,狠心砍掉了一半拼凑的代码,在国产算力的荒原上徒手开荒。 哪怕初期连个Demo都跑不通,哪怕投资人的电话催得比闹钟还勤,他们硬是顶住了那段至暗时刻。这种不计短期得失的死磕,最终换来了基于国产硬件的稳定复现。 这种“反骨”精神也在DeepSeek身上得到了验证。他们没有走传统的“堆算力”老路,而是在算法架构上死磕原创,最终实现了用不到GPT-4o二十分之一的训练成本,让性能挤进全球第一梯队。 这种技术自信还带来了连锁反应,代码一开源,不仅吸引了300%的开发者增量,还反向带动了寒武纪、海光等国产芯片的升级迭代。 就连华为昇腾910B,在经过针对性优化后,也能在智慧城市的视频分析场景下,跑出反超美国芯片30%的能效比。 这一桩桩案例正在释放一个信号:所谓的技术鸿沟,很多时候不是能力问题,而是选择问题。正如梁文锋所言,“有些探索是逃不掉的”。 与其在别人的赛道上把鞋跑烂,不如静下心来去烧制第一块属于自己的砖。 只有当更多的企业敢于哪怕花十年去磨像AlphaFold那样的一把剑,敢于把地基打在无人区,我们才有可能从那个小心翼翼的“答题者”,翻身成为定义未来的“出题人”。 信息源:《中国国情》