芯片这个事,我感觉咱们这边走对路子了!之前我就聊过,全球手机芯片过剩,海外公司布局了那么多芯片厂卖不出去。会出现这样的问题,本质上还是因为手机发展到了顶峰,弄出来那么多芯片没人用了。所以,对咱们来说,这种产能过剩的东西,其实不是重点,重点是能在未来竞争中占据主动权的东西。 就从当前来看的话,未来世界人工智能一定会占很大的比重,所以掌握AI算力芯片能力,很重要的。好在咱们这边这方面布局还是挺早,并且拿到了一些结果。 先说个实在的:手机芯片是存量竞争,AI芯片是增量革命。2025年胡润榜前三十的AI企业,有十四家在做算力芯片,寒武纪、摩尔线程这些名字可能不熟,但他们的GPU已经能给万亿参数大模型当“发动机”。 寒武纪去年营收翻了43倍,摩尔线程的旗舰芯片量产装机量破十万片,最狠的是沐曦,把全流程国产化的高端GPU卖到了港口、车企。 这些数字背后是个简单道理:手机芯片再牛,也就是给现有设备提速,AI芯片却是在创造新需求。 自动驾驶要每秒千亿次运算,智慧城市的摄像头需要实时分析,这些场景十年前想都不敢想。 为啥说咱们的布局早?2020年摩尔线程成立的时候,很多人还在争论“国产GPU能不能替代英伟达”,现在他们的智算卡已经能在集群里和H100掰手腕。 更关键的是场景落地:山东港口去年推出的专用AI芯片,把码头吊车的识别率提到98.3%,效率比进口方案高一半。 这种“专用化”思路特别聪明——手机芯片追求通用,AI芯片需要定制。 就像挖矿不需要全能电脑,而是要矿机,咱们的港口芯片、自动驾驶芯片,就是给特定场景造的“矿机”,性能不一定全球第一,但解决问题最直接。 这里有个容易忽略的点:算力过剩和产能过剩是两码事。全球手机芯片产能过剩,是因为需求到头了;AI算力的“过剩”,其实是超前布局。 2025年国内智算中心算力规模比2020年翻了20倍,可大模型训练的算力需求每年涨300%。 去年华为用昇腾芯片跑完全国产大模型,训练成本降了六成,这说明啥?不是咱们产能多了,而是找到了消化产能的新场景。 就像修路,提前修好的高速路看似空荡荡,等车流量上来就是生命线。 再说生态这事儿。英伟达的CUDA生态搞了二十年,咱们不可能从零开始。现在寒武纪、壁仞都在搞“兼容+创新”:底层对接CUDA降低迁移成本,上层开发自己的工具链。 最典型的是燧原科技,四代芯片迭代,把软件框架和硬件深度绑定,在金融风控场景里把推理效率提了40%。 这种“渐进式替代”比硬刚生态聪明——先让用户能用,再慢慢让用户好用。就像国产电动车,早年靠政策补贴活下去,现在靠智能驾驶反超,芯片这条路也是一样的逻辑。 还有个数据挺有意思:2025年国产AI芯片在国内市场的渗透率到了30%,但在自动驾驶、智慧城市这些新领域,渗透率超过50%。 这说明咱们没走“农村包围城市”的老路,而是直接在新战场和国际玩家平起平坐。比如地平线的征程芯片,已经装进了国内一半的L2级新车,蔚来、小鹏的下一代平台都在用国产方案。 这种场景驱动的创新,比单纯堆参数更实在——就像手机刚出来时,诺基亚比拼信号,苹果直接搞应用商店,赛道不同,胜负立判。 最后看政策和市场的协同。国家搞“东数西算”,把西部的绿电和东部的算力需求对接,去年新增的太阳能发电70%都给了数据中心。 这就好比当年建高铁,政府先把基建铺好,企业才有胆子投研发。 科创板允许未盈利的芯片企业上市,摩尔线程、壁仞去年募资超百亿,这些钱都砸进了研发——寒武纪去年研发投入占营收40%,沐曦的流片费用够买三艘航母。 这种“市场买单、政策托底”的模式,让咱们在AI芯片的马拉松里有了持续的后劲。 现在回头看,2023年美国禁售高端GPU的时候,很多人担心会卡脖子,结果2025年国产GPU已经能支撑全栈大模型。 这不是运气,是选对了赛道——手机芯片是红海,AI算力是蓝海;跟着别人走会被卡,自己开辟战场才能超车。 未来五年,随着自动驾驶、具身智能的爆发,AI芯片的需求还会翻几番,咱们现在的布局,正是为了抓住这场算力革命的先手棋。 毕竟,在新技术浪潮里,跑得早不如跑得对,跑得对不如跑得持续。

