

迈向长期智能时代,记忆是正确的赛道,更是长期的好生意。
内容/咏鹅
校对/莽夫
如果说过去两年,我们见证了AI在智商上的狂飙突进,从能下棋到能写诗、能编程、能解答复杂问题……那么一个尴尬的现实是,这个无所不知的天才,却长着一颗“金鱼脑袋”。
它记不住你昨天告诉它的项目需求,记不住你不吃香菜,记不住上一轮对话中达成的共识。每一次交互,都像一次重启。这导致了一个奇特的AI生产力悖论,模型越聪明,因“失忆”导致的重复劳动和沟通损耗就越大。
无论是技术视角还是商业视角,记忆能力已然成为模型继续进化的核心要素。“智能体的本质是认知的连续性和⾏为的累积性,要让AI真正具备⼈类式的智能,就必须让它拥有历史和⾃我。”记忆张量CTO李志宇道破了问题的核心。
正是基于这一判断,2023年,当整个行业仍沉浸在“参数量scaling”的狂欢中时,记忆张量团队却把赌注押在了一条少有人走的路,为AI构建一个可进化、可管理、可解释的长期记忆系统。
今年,他们交出了阶段性答卷MemOS(记忆操作系统),不仅在LoCoMo、LongMemEval等多项国际权威评测中全面登顶,更在真实的产业场景中验证了其作为下一代AI基础架构的无限潜力。
Part.1
AI的下一个分水岭,从多模态到记忆层
今天的AI智能体,看似能处理复杂任务,却始终被困在“即时性陷阱”中。每一次对话都从零开始,每一个任务都像初次见面;企业投入百万部署的AI员工,跑三个月就因“失忆”被退回人工处理;陪伴型AI聊十次仍记不住用户配餐不要主食;金融客服每天重复回答同一个客户相同的问题。这些问题的根源不是模型不够聪明,而是它没有过去。
这一困境已成为当前AI商业化的核心痛点,也是下一代AI竞争的分水岭。全球顶尖资本与科技巨头已形成共识,记忆是继大语言模型、多模态之后,AI Agent不可或缺的“关键支柱”。
Open AI CEO Altman称记忆是“令其难以入眠”的功能;Google加速Gemini Memory实验室推进;红杉合伙人Konstantine Buhler直言,记忆决定智能体能否持续自我认知与协作。
这些不约而同的战略押注背后,是技术阶段发展的必然,以及一套清晰的商业逻辑。

正如人类文明建立在对语言、经验、文化的传承和记忆之上,AI要真正走向智能,就必须跨越“从零开始”的原始状态。当前的AI已经完成了感知能力的构建,但认知能力仍严重缺失。而长期记忆是AI能够持续优化策略、理解用户偏好、真正实现“越用越聪明”的基石。
只有AI拥有记忆,才能记住用户的独特偏好、行为习惯与交互历史,从而提供独一无二的、连续性的服务。这种被深刻理解的体验,是让用户从偶尔使用转向高频依赖并形成强烈情感粘性的核心。
此外,持续学习的能力也决定了模型的生命周期价值。倘若一个模型的知识状态永远停留在训练截止的那个瞬间,每次知识更新都需要耗费资金进行全量重训或重构向量库,那么其商业价值必然会随着时间流逝而迅速衰减。
记忆层,恰恰是实现模型在真实交互场景中持续学习、自主进化的唯一现实路径,它能极大地延长模型的生命周期,使其从一次性的“快照”转变为一项可不断增值的长期资产。
更为重要的是,记忆层的标准化将决定未来AI基础设施的竞争格局。当几乎所有的AI应用,从智能客服、情感陪伴到复杂的企业级智能体都离不开记忆能力时,记忆就不再是每个应用自行开发的小功能模块。它将如同数据库之于传统软件、云服务之于企业数字化一样,无可争议地下沉为AI时代的基础设施,成为一个具有强大网络效应和极高技术壁垒的系统级标准。

谁能够率先定义并主导这一层,谁就将在下一代AI生态中掌握至关重要的话语权。
将这一全球趋势置于中国独特的市场语境下,其意义更为深远。在算力约束更强、企业对成本更敏感、监管合规要求更高的中国市场,简单复制“卷参数规模”的路线难言优势。
记忆层提供了一种结构性解决方案,它不要求企业必须拥有参数量最大的“巨无霸”模型,而是通过系统性的记忆增强,让现有模型变得更聪明、更持久,实现更高的智力效率。同时,它不仅天然契合金融、政企、工业等对“可控、可复现、可审计”有刚性需求的产业结构,也能适配新业态如陪伴、游戏场景的优化偏好。
这意味着,中国在AI基础设施层的全球竞争中,找到了一个差异化的入口,我们未必需要再去复制一个OpenAI,但我们完全有能力孕育出“AI时代的Oracle或Snowflake”。像记忆张量这样的公司,正是在这个宏大的叙事下,精准地卡位于下一代AI基础设施的核心枢纽。
Part.2
记忆张量的破局点,从系统断层到OS级解决方案
行业早已普遍意识到记忆的重要性,但过往的解决方案,大多像是在给一位失忆的天才“贴便利贴”。RAG向量库只是简单存储信息,无法实现知识共享;长上下文窗口容易导致语义稀释,难以支撑长期记忆;参数微调周期长达数周,无法适应动态知识更新。这些方案本质上是在解决信息存取问题,而不是构建经验体系。“行业的记忆大都是给产品用的,而不是给AI用的。”李志宇在访谈中指出,“它没能成为模型行为的一部分,也没能影响其策略、规划与长期状态。最大的空白是,记忆还没有被当成核心流转要素。”
MemOS的破局,正是从这一结构性空白处发力,从外挂补丁到原生内核,记忆从功能模块跃升为系统级能力,实现了一次根本性的范式转移。MemOS的先进性并非来自单一技术的突破,而是体现在三个层面相互关联的系统性创新上。

这彻底改变了记忆的生产方式。在传统模式下,记忆是应用层通过API调用的一段数据。而在MemOS中,记忆通过系统级的精细编排,实现了记忆的提纯、自蒸馏、去幻和动态更新。这意味着记忆不再是原始数据的简单堆砌,而是经过系统深度加工、提炼后形成的“MemCube”,可以被模型直接、高效地吸收利用,内化为其行为的一部分。
这一转变的意义,堪比数据库从早期的应用附属文件存储模块,演变为支撑整个信息时代的基础设施。记忆从此不再是AI的一个可选配件,而是所有期望实现长期智能的智能体所必须依赖的底层环境。
在工程实现维度,MemOS展现了工业级系统所必需的稳与快。任何系统级的创新,最终都要在效率与稳定性的熔炉中接受考验。在WAIC 2025发布的权威评测中,MemOS不仅在多项目标准确性上全面登顶,更在实现更优效果的同时,展现出极致的性能优化,其token开销比主流竞品最高节省了31.93%,响应时延更是降低了60%以上。
这一卓越表现的背后,是底层工程的深度优化。MemOS通过“算子级重写”,从根本上避免了传统RAG方案中大量存在的重复计算与冗余检索。同时,其智能调度策略确保了大模型这类重器只在处理复杂推理任务时才被激活,而诸如记忆抽取、偏好推断等高频任务,则由其自研的、成本极低的轻量级专用小模型高效完成。这种“大模型决策+小模型执行”的混合架构,使得整体算力成本可以降至原来的10%至30%,让长期智能从昂贵的前沿概念,变成了真正经济可行的产业技术。
在商业模式的构建上,记忆张量展现出清晰的战略定力,采用了双轮驱动的基础设施战略。一方面,通过API订阅服务,面向广大的开发者和应用团队,让他们能以极低的门槛,在几分钟内快速为自己的AI产品注入长期记忆与持续进化能力。另一方面,针对金融、政企等对数据安全、合规性和定制化要求极高的核心客户,提供企业级私有化部署。MemOS可以深度融入企业内部的复杂IT系统,提供从记忆管理框架、算子编排到多智能体协作的一整套能力。
这种独特的生态位选择,使其巧妙地避开了与科技巨头在模型层面的正面交锋,转而深耕于智能的纵深地带,构筑了一个不可或缺的价值节点。MemOS的雄心,不是去制造另一个更聪明的大脑,而是为所有现有的和未来的大脑,安装一个通用的、强大的海马体,让它们能够积累经验,真正地成长起来。
这一系列技术突破的背后,是记忆张量强大的团队支撑。从团队背景来看,记忆张量的核心成员兼具学术深度与商业落地能力。CEO熊飞宇主导构建过国内首个千亿级数字商业知识图谱,CTO李志宇的技术成果曾为阿里双十一大促带来数十亿营收,首席科学家杨泓康博士更是一位两年半就完成了普林斯顿应用数学博士学业的天才少年,在机器学习的基础理论研究方面有着极其深厚的积累,也是忆立方创新架构大模型的提出者。
目前,记忆张量已实现数千万商业签约,并获得孚腾资本、中金资本等近亿元投资。客户名单包括招商证券、中国银行、中国电信等头部国央企,验证了其在高要求场景下的落地能力。
Part.3
不只To B/C,更是To Future
我们观察到,在推进MemOS的商业化过程中有一个颇具时代意味的现象,最早敏锐感知到MemOS价值、主动寻求深度集成的,并不是传统意义上业务流程数字化最迫切的互联网公司,而是那些正在探索数字生命、新型游戏世界、陪伴式AI、具身智能体等新物种形态的创新团队。它们并非在寻找一次性的功能模块,而是在寻找构建未来智能生态底座的关键能力。这一趋势的背后,是智能形态的一次重大转折,从“任务式智能”走向“生命式智能”。在数字生命、虚拟角色、开放世界游戏、情感陪伴体等快速增长的赛道中,行业对AI的要求不再是短时聪明或对话能力,而是能够稳定演化、持续成长、具备长期记忆的人格一致性体系。MemOS为此提供了一套前所未有的生命级治理底座,让AI不再只是工具,而是真正可以拥有经历、偏好与成长轨迹的数字实体。
在新一代游戏与虚拟世界中,AI角色已从脚本NPC演化为“独立生命体”。它们需要记住玩家的行为,积累长期关系,基于共同经历不断改变性格、能力与剧情走向。MemOS让这些AI角色首次具备可回溯的成长轨迹与可管理的生命版本,开发者可以对角色的记忆、经历、情绪与演化过程进行结构化管理,使整个虚拟世界真正具备历史与演化动力学。
在陪伴式AI领域,对记忆的要求更为细腻。用户希望AI能够真正理解自己,并在时间尺度上保持稳定、深度、具备连续性的陪伴体验。MemOS提供的是一个可控且高度个性化的记忆体系,让每一个数字伴侣都能形成独立的偏好模型、关系模型与成长模型。每次聊天、共同经历的事件、情绪变化,都会形成可管理、可审计、可清理的生命数据,让AI从工具跃升为“关系实体”。
而在具身智能体中,记忆承载的是经验与技能的进化能力。一个机器人要真正融入家庭或工厂场景,需要记住布局、家庭成员的习惯、风险模式、最佳路径、历史任务结果等大量隐性知识。MemOS让这些经验能够被长期积累、版本化、迁移,让会学习、会复盘、会改进成为现实,机器人才首次具备类似“经验值”的内在成长体系。
在这些新兴且高速扩张的场景中,传统依赖prompt layering、固定规则或短时缓存的模式已经无法支撑“生命体级别”的连续智能。它们的局限性不仅体现在脆弱性和不稳定性,更体现在对成长与个性化的天然缺失。因此,行业迫切需要一个能够像操作系统一样,负责“生产记忆—存储记忆—调度记忆—治理记忆”的底座,让AI生命体拥有真正意义上的认知连续性。
当MemOS将记忆构建、人格稳定、行为进化、生命周期治理完整封装为系统级能力时,最先嗅到未来趋势的正是这些探索新物种形态的行业玩家。它们选择MemOS,不是为了应对某个短期需求,而是为了在未来十年数字生命与智能体生态的底层基础设施上,占据一次难得的先手优势。因为在这场由记忆驱动的智能进化中,MemOS已不再是一个系统,而是AI新物种得以成立的生命操作层。
但一个尖锐的问题同样摆在记忆张量这家创新公司面前。在巨头的阴影下,初创公司的窗口期还有多久?
记忆不是某个行业专属,而是所有模型、所有智能体都要依赖的结构性组件,当AI从单轮聪明走向长期智能时,记忆会成为必配层。而记忆张量在这条正确的赛道上,有着独特的“不可替代性”。
这种“不可替代性”源于三重壁垒。一是时间壁垒,当行业2025年才意识到记忆重要性时,记忆张量已深耕两年。MemOS的伪知识图谱检索增强、参数化偏好学习等组件,不是功能叠加而是体系化沉淀,巨头短期内难以补齐。
二是结构壁垒,MemOS是改变模型生产方式,让记忆成为模型行为的一部分,影响策略、规划、身份、偏好。这种OS级能力,绝非一个API接口能替代。
三是生态位壁垒,记忆张量定位在基础设施,它不跟巨头争用户,而是为所有模型、所有智能体提供记忆服务。当AI行业从单次调用转向生命周期管理,记忆就成了跨平台、跨模型的通用语言。这使其天然具备网络效应,用的人越多,记忆资产越有价值,迁移成本越高。
更具想象空间的是C端市场的探索。记忆张量推出的跨平台记忆插件MindDock,支持ChatGPT、Gemini等多平台的记忆同步与迁移,让用户在不同AI之间切换时无需重复自我介绍,真正实现“所有AI都记得同一个你”。这种记忆资产私有化的模式,不仅解决了用户被平台锁定的痛点,更打开了个人记忆管理的新赛道。

“记忆不是一个小功能”,李志宇强调,“它是未来所有Agent的基础设施。我们提前两年布局,踩中了时代节点。”
当基础模型的高墙被科技巨头越砌越高、护城河日益加深,记忆张量代表了一种全新的破局思路,不与巨头在模型的广度上正面抗衡,而是在智能的深度上构筑壁垒。
这家公司的价值,不仅在于其领先的技术和已验证的落地能力,更在于它精准地卡位了下一代AI生态的核心枢纽。当所有AI都需要记忆才能走向成熟时,提供记忆底层服务的记忆张量,将成为智能体时代的“卖铲人”。
虽然记忆的战争才刚刚开始,但记忆张量已经提前两年进入了阵地。
编者按✍️
技术细节之外,我们更关心一家公司的思考方式。在制作这篇内容的前期准备阶段,为了对记忆张量这家技术公司有更多之于数字之外的了解,我们对其CTO李志宇进行了采访。
他的很多答案,对大模型赛道的趋势认知和商业化理解有着深入的洞察和思考。以下是问答实录,希望能为各位读者带来帮助或灵感。
正见TrueView:在基础模型被巨头垄断的今天,像记忆张量这样的初创公司,靠什么在AI生态中占据一个不可替代的位置?属于你们的独特的优势是什么呢?
李志宇:其实我们能在如今的大模型生态里站住脚,很大一个原因是我们比别人更早看到“记忆”的重要性。在2023年、大家都沉浸在参数量Scaling的热潮里、都在比谁的模型更大、训练更猛的时候,我们反而冷静下来,开始投入做“让模型真正拥有记忆”这件事。当时很多人不理解,觉得这是“边角能力”;但我们看得很清楚——下一代智能体不可能靠堆参数就进化,长期记忆与持续学习一定会成为新的分水岭。
另外我们从一开始就坚持做体系化的研发,是真正把记忆当成底层能力来解决的。从记忆分层架构,到记忆提纯、自蒸馏、系统级的记忆算子编排,再到今天的MemOS,我们一路打磨下来,其实形成了很多巨头短期内补不上的结构性积累。大厂做不了,是因为要兼容现有路线、要照顾业务节奏,而我们这种小团队,反而能持续两三年在一条深水区里把事情做到极致。
最后,我觉得我们的优势不是和巨头比资源,而是比方向、比坚持、比打得深。记忆不是一个小功能,它是未来所有Agent的基础设施。我们提前两年开始布局,走到了今天这一步,某种意义上是踩中了时代的节点:当整个行业开始意识到“模型必须能够记住、必须能够进化”时,我们已经把体系打磨出来了。
正见TrueView:智能体需求端的爆发对记忆张量这些的初创公司来说是一个出发的好时机吗?
李志宇:我觉得智能体需求的爆发,确实是一个特别好的时间点,但它不是“风口”,更像是我们长期坚持的一条技术路线,刚好迎来了它的历史性窗口。过去两年大家都在做智能体,但真正能长期工作、能保持性格一致、能随着交互不断进化的Agent,其实都离不开一个底层能力——记忆。等大家意识到这个问题的时候,我们已经在这条路上深耕了两年,所以等于说时代的需求和我们的技术积累正好对上了。
其次,智能体的爆发不是把“产品机会”带给我们,而是把“基础设施机会”带给我们。因为越多的 Agent 就越需要统一的记忆管理框架:怎么存记忆、怎么更新、怎么防幻觉、怎么多 Agent 共享、怎么跨任务调度……这都不是巨头自己闭门能做好的东西,而是整个生态共同缺的能力。所以对我们来说,这波爆发不是一个短期的业务放量,而是记忆层成为AI系统结构性组件的开始。
正见TrueView:我们的产品和方案在具身智能体端的应用前景是怎样的?
李志宇:我认为在具身智能体(Embodied AI)这条线上,记忆的重要性会比纯软件Agent更大,因为具身智能体要在真实世界里长期和人交互、反复执行任务、从错误中学习,如果没有稳定、可进化的记忆体系,它很难真正变得“可靠”。而这恰好是我们最擅长的能力:让智能体不仅能感知和行动,还能记住经验、总结规律、持续改进策略。
从产品落地角度,我们的MemOS和记忆增强技术在具身智能里的价值主要有三点:
第一,连续任务的上下文保持,比如机器人执行清洁、装配、巡检,不需要每次重头理解环境,而是能从历史任务里学到“习惯”和“偏好”。
第二,安全性与可控性增强,记忆可以作为长期行为轨迹,让智能体的动作更可预测、更符合预期,也能及时纠偏。
第三,个性化与协作能力,具身智能体很可能不是单体,而是多Agent协同,记忆层能让它们共享经验、同步任务状态,完成更复杂的场景。
往前看,我觉得具身智能的发展路径跟人一样:从“能动”进化到“能学”,再进化到“能长期学习”。而长期学习的底层,只有记忆能提供。我们现在做的产品,本质上就是为未来的具身AI打造一个“长期经验系统”,这是一个跨模型、跨任务的长期基础设施机会。
正见TrueView:我们的客群定位是怎么样的?
李志宇:我们的客群定位其实很清晰:所有需要“长期记忆”和“持续进化能力”的AI应用方,都是我们的核心用户。今天的大模型能力虽然强,但只要涉及个性化、持续对话、多轮推理、长期任务,都会遇到“不会记”“记不准”“记不稳”的问题。所以从金融、政企服务,到陪伴类AI、智能客服,再到智能体和具身机器人,这些场景都是天然需要我们来补上记忆这一层的。
从企业类型来看,我们主要服务两类客户:
第一类是强场景方,比如金融、制造、医疗、游戏、教育,这些行业都有强需求去构建自己的智能体,但不想被巨头的模型黑箱绑架,需要一个能控、能落地、能进化的“记忆基础设施”。
第二类是有研发能力的模型/应用团队,他们已经有模型或智能体框架,但缺一个稳定、可扩展的记忆系统,希望通过MemOS快速具备长期记忆、用户偏好管理、任务状态跟踪等能力。
最后,从生态角度,我们瞄准的不是“某个行业的客户”,而是整个智能体时代的底层公用能力。只要未来的AI想变得更像“人”,想长期陪伴、长期学习、长期工作,那记忆就是不可或缺的,而我们恰好就是提供这一层的。
正见TrueView:商业模式可以透露吗?
李志宇:商业模式可以简单分享,我们走的是“双轮驱动”:一边是API订阅,另一边是企业级私有化部署。API订阅主要面向开发者、创业团队、应用方,只要他们需要让自己的模型或智能体具备长期记忆、个性化偏好、持续进化能力,都可以直接调用我们的云端接口,几分钟就能接入,非常轻量。同时,我们也有大量企业级客户,他们更关注数据安全、合规性和定制化,所以我们提供MemOS的私有化与本地化部署。在金融、政务、制造这些行业里,记忆系统常常要与企业内部系统深度集成,我们会给他们一整套的记忆管理框架、算子编排能力,以及多模型之间的记忆协作能力。
面向C端用户的订阅这块我们也在看,尤其是在AI陪伴、角色类应用方面。因为记忆对用户体验的提升是“直观且成瘾”的,用一次就回不去。但我们会比较稳地推进,倾向于和头部应用方一起做,而不是自己做ToC产品。
正见TrueView:低成本的低如何实现?
李志宇:我们之所以能做到低成本,核心不是“省”,而是把整个链路从系统到模型重做了一遍。
第一层是系统优化,我们在MemOS里把记忆相关的推理、检索、更新全部做了算子级别的重写,避免了传统RAG那种大量重复计算。再加上更智能的调度策略,让模型只在必要的时候参与推理,直接把应用成本砍掉一大截。
第二层是算法效率。传统做法是大的通用模型承担所有任务,但我们走的是“大模型决策+小模型执行”的路。像记忆抽取、记忆更新、偏好推断这些任务,都由我们自己训练的轻量级小模型完成。它们成本非常低,而且专门为记忆优化,既快又准。真正需要大模型的时候,再用大模型,这样整体算力成本可以做到原来的10%–30%。
最后一层来自模型侧,我们正在建设记忆专用的基模,就是让模型天生更擅长处理长期依赖、偏好、历史轨迹,而不是靠外部补丁去堆。这样的模型天然对KV Cache更友好,也能充分利用国产算力的并行能力。简单讲,就是更轻、更快、更能跑在便宜GPU上。
正见TrueView:记忆张量致力于“走出一条符合中国国情的全新大模型路线”,我们是如何理解中国国情的?
李志宇:我们理解的是一个很现实的问题:中国的产业结构、算力结构和应用结构,都和欧美完全不一样。国外的路线更多依赖超级算力中心、巨量预算和极端规模的统一大模型;但中国企业的需求非常碎片化、行业跨度大、对性价比敏感,同时又有极高的安全合规要求。所以我们理解的中国国情,就是要在有限算力、复杂场景和高安全性要求下,让大模型真正跑得起来、落得下去。
在这样的国情下,照搬“越大越好”的路线是行不通的。我们走的是另一条路线:以记忆为核心,用系统能力把模型做得更聪明,而不是单纯做得更大。记忆增强能让模型在更低的成本下拥有持续学习能力、长期上下文能力和更强的适应性,这种“模型+系统”的结构化能力,恰恰更适合中国大量行业对“精细化、定制化、可控化”的需求。换句话说,不是用一个巨无霸模型解决所有问题,而是让模型在场景中自己生长、自己进化。
最后,中国还有一个非常独特的特点:产业数字化基础好、落地场景丰富,但每个行业都不一样——金融有安全要求、制造有流程复杂性、政务讲合规、AI陪伴讲体验。大模型要真正普及,必须尊重这种多样性。而记忆体系和MemOS的本质,就是在统一底座之上,支持千行百业的差异化智能体生态。这就是我们理解并践行的“中国国情”:不是追求某一种技术指标,而是追求真正能规模化落地、能服务百业、能让企业可控可持续使用的AI路线。
正见TrueView:记忆增强与管理是一个正确的赛道,但会是一门好生意吗?
李志宇:我觉得记忆增强这件事,不仅是一个正确的技术方向,它本质上就是下一代AI的“刚需基础设施”。为什么?因为无论是智能体、AI客服、陪伴类应用,还是具身机器人,只要你希望它不是“一次性智能”,而是能长期工作、长期学习、长期陪伴,记忆就是必须的。今天所有应用的痛点——不稳定、不连续、不记人、不进化——全都指向同一个底层缺失:没有记忆。所以这不是可选项,而是AI走向规模化落地前必备的能力。
从商业上看,这反而是最好的生意类型:底层基础能力+全行业通用需求。记忆不是某个行业专属,而是所有模型、所有智能体都要依赖的,像数据库之于互联网、云之于企业一样属于“结构性组件”。当整个行业开始从单轮模型能力转向生命周期智能时,记忆会成为每个产品的必配层,这意味着我们的商业空间会随着智能体数量指数级增长,而不是随着单一业务起落波动。最后,更现实的一点是:记忆层的客户粘性极强。只要企业把业务逻辑、历史经验、用户行为、内部知识都积累在我们的记忆系统里,它的AI就会越用越聪明,迁移成本自然非常高。这类产品的商业价值不是卖算力,而是卖“持续进化的能力”,它天然具备长期复购、稳定订阅和深度集成的特点。
用一句话总结:记忆是正确的赛道,更是长期的好生意,因为未来所有有生命力的AI,都要靠它活下去,都要靠它成长起来,以应对不断变化的世界。