2026/4/6 9:53:56
网站建设
项目流程
网站建设品牌营销,开发一套程序多少钱,做外单网站有哪些,网站建设翻译在AI Agent技术迭代日新月异的当下#xff0c;开发者对大模型应用的认知边界正被持续打破。从早期聚焦提示工程#xff0c;钻研如何通过精准提问挖掘模型潜在能力#xff0c;到上下文工程成为行业热点#xff0c;伴随上下文窗口从8K逐步扩容至1M#xff0c;不少开发者陷入…在AI Agent技术迭代日新月异的当下开发者对大模型应用的认知边界正被持续打破。从早期聚焦提示工程钻研如何通过精准提问挖掘模型潜在能力到上下文工程成为行业热点伴随上下文窗口从8K逐步扩容至1M不少开发者陷入了“堆砌上下文就能实现Agent记忆”的认知误区。直到Manus、Anthropic等顶尖团队将文件系统file system、智能体技能agent skill等核心概念引入Agent架构设计上下文工程的局限性才逐渐暴露而独立记忆系统的重要性也随之被推至台前。近期我深度研读了AWS re:Invent 2025大会中关于memory的专题技术演讲同时结合MongoDB官方发布的《为何多智能体系统需要记忆工程》技术博客再搭配自身在大模型Agent开发中的实操经验终于彻底理清了上下文与记忆的核心差异也摸清了记忆工程的落地逻辑。“上下文Context不等于记忆Memory。”“大多数Agent的失败根源并非推理能力不足而是记忆系统的缺失。”“我们正试图用本质无状态的大语言模型去攻克高度有状态的现实世界问题。”“要构建可长期运行、能处理复杂任务甚至支持多智能体协作的系统必须跳出上下文工程的框架正式迈入记忆工程的新阶段。”本文是我基于上述权威资料与实操心得的梳理总结既拆解核心概念也贴合开发场景给出认知指引。无论你是刚入门大模型Agent的小白还是在开发中被“记忆”模块困住的程序员这篇内容都能帮你理清思路、避开误区LLM的内生局限与破局在谈论记忆之前我们需要先认清 LLM 的本质。作为一个推理引擎它在记忆层面存在三个结构性缺陷参数记忆的静态性对于模型来说世界在训练截止日那天就停止了。上下文窗口的临时性上下文窗口虽然变大了但它本质上只是工作记忆。一旦会话结束或超出窗口限制信息就会瞬间消失。无状态本质LLM本身没有跨会话的持久状态概念。它不知道你是谁除非你在每一次交互中都重新告诉它。更糟糕的是即便我们强行塞入海量上下文真正被有效利用的部分往往只有20-30%。随着输入长度增加模型的注意力会分散导致Lost in the Middle连简单的指令遵循能力都会退化。那么该如何解决呢我们可以向人类的认知架构取取经。人类大脑是一个极强的CPU但我们的工作记忆RAM非常有限。我们之所以能处理复杂任务是因为我们拥有强大的外置认知层——笔记、书籍、数据库。我们不强求记住所有而是擅长索引和检索。AI Agent 的进化方向正是如此从「全量上下文」转向「外挂记忆库」。这意味着我们不再追求把所有信息一次性塞进prompt而是构建一套持久化的记忆系统。**这套系统的价值在于连续性**它能确保 Agent 在与用户的第 100 次交互时依然能精准调用第 1 次交互时留下的关键线索从而产生真正的默契。走出误区从上下文工程到记忆工程这是最容易混淆的概念。下面明确一下定义上下文Context是指 LLM 在单次交互中能够处理的文本量。它是临时的、易失的本质上是工作记忆。记忆Memory是一种持久化的管理系统它能将无状态的Agent转变为能够学习、适应并保持连续性的实体。如上图所示上下文工程和记忆工程是紧密协作但截然不同的两个领域记忆工程负责构建持久的、智能的存储系统决定「保留什么」和「遗忘什么」。上下文工程则利用这些系统动态地筛选出与当前决策最相关的片段决定「让模型此刻看到什么」。上下文工程的现状与瓶颈目前许多Agent开发仍停留在上下文工程阶段。我们通过RAG、prompt优化等手段试图在有限的窗口内塞入更多信息。但上下文工程面临着垃圾场效应。如图所示随着对话进行上下文窗口会迅速变成一个充满了提示词、工具调用结果、错误尝试和无关元数据的垃圾场。这不仅极其昂贵Token 成本爆炸还会引入噪音导致模型幻觉。要解决这个问题仅仅优化怎么塞是不够的我们需要优化存什么——这就引出了记忆工程。记忆的进阶从私人助理到智能团队既然无限堆叠上下文行不通那么就可以针对不同的Agent形态设计差异化的记忆架构。根据MongoDB演讲者的定义AI Agent主要有三种应用模式它们对记忆的要求层层递进1、助手模式解决连贯性场景客服、私人助理。核心需求会话连贯性。需要记住用户的偏好、历史对话保持“人设”一致。记忆痛点一旦切断会话用户就像面对一个新客服一样需要重述问题。2、工作流模式解决鲁棒性场景自动化流程如 Dify、数据处理管道。核心需求逐步执行过程的记忆。需要记录检查点、中间状态和工具输出。记忆痛点如果任务中断Agent 能否从第 8 步继续而不是从第 1 步重头再来3、多智能体Deep Research模式解决一致性这里是记忆工程真正的挑战从构建单一助手转向多智能体系统时对记忆的需求发生了质的飞跃。研究显示多智能体系统的失败率高达 40%-80%其中大量的失败源于智能体间的不对齐。具体的失败模式包括工作重复Agent A 搜索了资料Agent B 不知道又去搜了一遍。状态不一致Agent A 认为任务已完成Agent B 认为还在进行中。通信爆炸为了同步信息Agent 之间疯狂对话消耗了海量 Token 却只为了解释背景。级联故障一个 Agent 的幻觉污染的上下文传播给了所有其他 Agent导致整个系统崩溃。解决这些问题的唯一途径就是构建一个结构化的、共享的记忆工程体系。记忆类型解剖分层管理我们不能把所有数据一股脑丢进数据库要像人类的大脑一样对记忆进行精密的分层管理。如上图可以清晰地看到一个成熟的记忆系统由三大板块构成短期记忆 (STM)、长期记忆 (LTM)以及连接两者的协调机制。1、短期记忆 (STM)系统的草稿纸这是Agent的前台接待处负责处理高频、瞬时的信息流。工作记忆即当前的上下文窗口。它负责当下的推理任务就像人脑的RAM容量有限随用随清。语义缓存这是降低成本的神器。如果用户曾问过“如何重置密码”系统直接从缓存层返回答案而无需再次调用昂贵的 LLM。 响应时间从 2秒 - 50毫秒Token成本降为0。2、长期记忆 (LTM)系统的硬盘这是 Agent 产生智能积累的核心区域。随着时间推移Agent会越来越聪明全靠这一层程序性记忆记录「怎么做」存储工作流状态、工具使用方法以及成功的任务路径SOP。这让 Agent 像老员工一样越干越熟练。情景记忆记录「发生了什么」存储历史对话日志和摘要。它提供了连续性的体验让Agent记得你们上周聊过的开心事。语义记忆记录「什么是真实的」存储事实知识库、实体信息如用户的职位、名字以及 Agent 自身的角色设定。3、架构升级从个人笔记到团队白板当场景升级到多智能体协作时仅仅只有个体的STM和LTM是不够的。我们需要引入第三层维度。Mikiko Bazeley提出的多智能体记忆架构如下图所示清晰地展示了如何通过引入外部共享记忆解决团队协作难题。在多Agent环境下记忆工程面临三个全新的挑战一致性、隔离性与并发性。1共享一致性引入白板机制 这是团队的实时会议室。定义一个实时的、共享的短期外部记忆区。作用所有的 Agent 都在这里交换情报、同步状态。它是动态的随任务结束而清空。场景当 Agent A 完成了步骤1它不需要给所有 Agent 汇报只需更新白板。Agent B 看一眼白板就知道自己该接手步骤2了。2跨Agent协调确立共识机制 这是团队的公司法和SOP。定义存储经过验证的团队规程的长期记忆区。作用当 Agent 之间产生分歧例如 A 说向左B 说向右时共识记忆是唯一的真理来源。人设记忆同时这里还存储了团队组织架构图定义了每个 Agent 的权限边界防止“财务 Agent”去修改“代码库”确保专业分工互不干扰。3隔离与隐私独立的上下文窗口 虽然有共享但每个Agent依然保留独立的短期内部记忆。财务Agent的草稿纸上不应该出现营销 Agent的头脑风暴记录。保持上下文的纯净和隔离是防止逻辑干扰和幻觉的关键。记忆工程的核心从生命周期到五大支柱明白了记忆的分类存什么接下来的核心问题是怎么存和怎么管记忆工程绝不仅仅是把数据丢进数据库。它是一门复杂的系统设计学科让Agent像生物一样建立起从原始数据到智慧经验的完整转换管道。1、数据炼金记忆的生命周期一个成熟的记忆系统数据不再是静态的记录而是一条流动的数据流。如下图所示原始数据需要经历一个完整的转换管道才能成为可用的记忆。在这个管道中每一个环节都至关重要聚合与过滤去噪不要把“你好”、“在吗”这种废话存入长期记忆。提炼利用 LLM 从嘈杂的交互中提取高价值信号例如“用户意图是重置密码”而非原始对话流。编码将信息转化为向量用于模糊语义搜索和结构化数据JSON/图数据库用于精确属性查询。存储元数据丰富化存入数据库时必须打上时间戳、来源、置信度等标签为后续的检索提供上下文。检索与组织动态索引根据时间顺序或主题相关性建立索引确保在正确的时间提取正确的信息。遗忘至关重要的一环遗忘不是系统的Bug而是Feature。系统需要智能地降低过时信息如去年的天气的权重。没有遗忘记忆就会变成垃圾场。这是不是和rag的流程很像呢老师经常强调学好rag是学习agent的基础2、工程落地指南记忆系统的五大支柱知道了原理如何构建这样一套复杂的系统呢MongoDB的技术团队为我们总结了工程落地的五大支柱。这五个维度构成了记忆工程的基石。1持久化写入上下文 多智能体系统必须超越上下文窗口拥有独立的持久化层。共享Todo列表这不仅仅是一个文本文件而是一个动态的状态机。所有Agent都能看到当前的目标进度确保劲往一处使。程序性记忆演进优秀的系统不仅记录发生了什么情景记忆还记录怎么做程序性记忆。随着项目进行系统应能自动更新工作流将成功的协作模式固化下来。2检索选择上下文 在多智能体环境中检索不再是简单的向量相似度匹配。基于 Agent 角色的查询当财务Agent查询“Q3数据”时它应该得到详细的报表而文案Agent查询同一关键词可能只需要一个总结数字。记忆系统必须理解谁在提问。时序协调紧急的信息如“数据库已锁死”必须拥有高优先级能够打断Agent的当前任务并注入其上下文而普通信息则应被缓存等待Agent空闲时获取。3优化压缩上下文 为了防止token成本指数级增长优化至关重要。分层摘要Agent A 和 Agent B 之间可能交互了 50 轮但对于 Agent C 来说它只需要知道“他们决定采用 Python 编写后端”。系统需要自动生成不同颗粒度的摘要。智能遗忘这是一种高级的生命周期管理。我们不直接删除数据而是降低其记忆强度。随着时间推移不再被激活的记忆会逐渐淡出检索范围就像人类的遗忘曲线一样。4分离隔离上下文 多智能体协作最怕大杂烩。领域隔离确保 Agent 专注于其专业领域的记忆。营销 Agent 不需要加载全量的技术架构文档这不仅节省 Token还能防止非专业领域的知识干扰决策减少幻觉。协调边界在系统层面需要有专门的记忆管理Agent来负责跨团队的记忆搬运而不是让每个工作Agent自己去翻阅所有档案。5整合同步上下文 这是多智能体系统最棘手的部分并发与一致性。原子操作当多个Agent试图同时更新共享记忆例如修改同一个PRD时系统必须支持原子操作要么全部更新成功要么全部失败回滚绝不能出现「写了一半」的脏数据。冲突解决机制当 Agent A 说“用户是男性”Agent B 说“用户是女性”时系统需要基于置信度、数据新鲜度或角色权威性来自动仲裁。记忆系统的评估回顾一下为什么要有记忆工程呢因为会有以下几种情况出现记忆失败遗忘、编造虚假记忆或存储过多噪音导致上下文退化和中毒。检索失败提取无关、过时或处于上下文中间的信息。工作流失败丢失状态、中断多步骤任务、循环或传播错误。协调失败代理冲突、重复工作或覆盖共享内存。那么有了记忆系统之后该如何判断是否成功呢MongoDB的技术团队提到一个优秀的记忆系统应该符合RBC 框架Reliable (可靠)不丢失任务状态推理可复现。Believable (可信)保持角色一致性建立用户信任。Capable (有能力)随着时间推移能扩展技能从经验中学习。或者也可以通过以下四个失败信号来判断此外也可以根据上面的五个支柱维度结合具体业务构建数据集进行评估。最后Mikiko Bazeley在演讲结尾留了三个建议首先你需要区分可见性与持久性。其次记忆必须通过模式来设计流程和评估循环。再者只有当记忆系统可靠且有用时智能体本身才能变得可靠且有用。AI 的未来不仅仅在于更强的模型更在于更强的记忆。它让Agent拥有了时间感拥有了经验更拥有了与小伙伴们并肩作战的信任基础。那么如何系统的去学习大模型LLM作为一名从业五年的资深大模型算法工程师我经常会收到一些评论和私信我是小白学习大模型该从哪里入手呢我自学没有方向怎么办这个地方我不会啊。如果你也有类似的经历一定要继续看下去这些问题啊也不是三言两语啊就能讲明白的。所以我综合了大模型的所有知识点给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢我就曾放空大脑以一个大模型小白的角度去重新解析它采用基础知识和实战项目相结合的教学方式历时3个月终于完成了这样的课程让你真正体会到什么是每一秒都在疯狂输出知识点。由于篇幅有限⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》扫码获取~为什么要学习大模型我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年人才缺口已超百万凸显培养不足。随着AI技术飞速发展预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。大模型学习指南路线汇总我们这套大模型资料呢会从基础篇、进阶篇和项目实战篇等三大方面来讲解。①.基础篇基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念用最易懂的方式带你入门大模型。②.进阶篇接下来是进阶篇你将掌握RAG、Agent、Langchain、大模型微调和私有化部署学习如何构建外挂知识库并和自己的企业相结合学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。③.实战篇实战篇会手把手带着大家练习企业级的落地项目已脱敏比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等从而帮助大家更好的应对大模型时代的挑战。④.福利篇最后呢会给大家一个小福利课程视频中的所有素材有搭建AI开发环境资料包还有学习计划表几十上百G素材、电子书和课件等等只要你能想到的素材我这里几乎都有。我已经全部上传到CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】相信我这套大模型系统教程将会是全网最齐全 最易懂的小白专用课