2026/4/6 9:12:17
网站建设
项目流程
宁德城乡住房建设厅网站,合肥学做网站app的学校,怎么提高网站关键字排名,小程序平台商城为何需要上下文工程#xff1f;
过去#xff0c;我们痴迷于打磨精准的提示词#xff0c;试图用完美的话术引导 LLM 输出。但随着智能体需要处理更多长周期的复杂任务#xff0c;单一的提示词已难以为继。
上下文工程应运而生#xff0c;它关注的不再是“如何写好一句话”…为何需要上下文工程过去我们痴迷于打磨精准的提示词试图用完美的话术引导 LLM 输出。但随着智能体需要处理更多长周期的复杂任务单一的提示词已难以为继。上下文工程应运而生它关注的不再是“如何写好一句话”而是“如何构建最优的信息集合”将系统指令、工具描述、领域知识、对话历史、外部记忆等要素以最高效的方式组织进 LLM 的上下文窗口从而稳定触发期望行为图 1 展示了提示工程和上下文工程的差异。Anthropic 在 2025 年 9 月发布了一篇文章《Effective context engineering for AI agents》【1】明确指出“构建语言模型应用正从寻找合适的词句转向回答更宏大的问题 —— 什么样的上下文配置最可能产生模型的期望行为”这种转变背后是 LLM 的核心特性上下文是有限但关键的资源模型的注意力如同人类的工作记忆需要精心分配和管理。Fig. 1 与写提示这种离散任务相比上下文工程是迭代的每次决定向模型传递什么内容时都需要进行策划阶段。长上下文为何会 “失效”尽管现代 LLM 的上下文窗口已扩展至 128K 甚至更大但长上下文带来的并非性能线性提升反而会引发性能衰减问题其核心症结在于上下文腐烂Context Rot【2】随着上下文窗口中 token 数量增加模型准确回忆和利用信息的能力会梯度下降。《上下文腐烂增加输入tokens如何影响大语言模型的性能》这一现象源于两大技术根源LLM 的 Transformer 架构约束LLM 基于 Transformer 架构构建其核心机制是每个 token 需关注上下文窗口中的所有其他 tokens 这会产生与 token 数量n成平方关系n²的成对关联。当上下文长度增加时模型捕捉这些海量成对关系的能力会被 “稀释”注意力资源被分散到过多关联中无法集中聚焦关键信息导致对早期或非核心信息的回忆精度下降。训练数据的分布偏差模型的注意力模式是从训练数据中习得的而训练数据中短序列的占比远高于长序列。这使得模型在学习过程中对长序列的 “全上下文依赖关系” 缺乏足够的训练经验也未形成专门适配长序列处理的参数配置。因此当面对超出常见训练长度的上下文时模型处理长距离信息关联的能力天然不足进一步加剧了上下文腐烂。在具体的应用过程中上下文腐烂可能会造成多种问题Drew Breunig 很好的概括了这些场景【3】上下文污染Context Poisoning模型产生幻觉幻觉信息混入上下文后持续影响后续输出。上下文干扰Context Distraction过量信息让模型难以聚焦核心任务模型会倾向于重复已有的动作而不是采纳新的计划。上下文混淆Context Confusion冗余信息误导模型判断。上下文冲突Context Clash上下文各部分信息相互矛盾。如何构建上下文工程告诉 agent “你是谁”在让 agent 工作之前我们得先让它知道自己该如何理解对话、拥有哪些工具、遵循什么流程等。Anthropic 在之前的文章中对agent的基础配置提出了三大组件系统提示平衡清晰度与灵活性图 2 给出了两个极端下的系统提示。在设计系统提示时应该避免过于僵化的硬编码规则和过于模糊的高层目标。最好采用结构化格式如背景信息、核心指令、工具指南、输出说明用最少的 token 定义完整行为边界。Fig. 2 两个极端的系统提示示例工具设计单一、清晰、无歧义“若人类工程师都无法判断用哪个工具AI更难做到。”类似于设计良好的代码库功能工具应自成体系并且对其预期用途极为清晰。输入参数同样应具描述性、明确无歧义并发挥模型固有优势。示例选择典型性优先于完整性不要堆砌边缘案例。与其在提示中塞满20个相似例子不如精选3-5个多样化、典型性的示例展现期望行为模式。过多相似案例会导致行为僵化Agent会盲目模仿而忽略当前场景的特殊性。上下文工程的四大操作LangChain 2025 年 7 月发布了一篇文章【4】将上下文工程归纳为四大核心操作如图 3 所示Fig. 3 上下文工程的一般类别1. 写入Write主动留存关键信息草稿纸Scratchpad存储会话内的中间思考、计划和临时数据如 Claude Code 的CLAUDE.md。长期记忆Memory将用户偏好、关键事实等跨会话有用信息存入向量数据库或知识图谱通过反思机制Reflexion和生成式记忆Generative Agents持续更新。2. 选择Select精准检索从草稿纸中按需读取中间结果。从长期记忆中检索情景记忆过往案例、程序性记忆操作步骤、语义记忆事实知识点。用 RAG 技术从工具集中筛选最相关工具。知识库选择结合向量检索、关键词检索、知识图谱的混合检索模式再经重排序提升信噪比。3. 压缩Compress去芜存菁上下文总结当上下文接近上限时总结关键决策、未解决问题和实现细节丢弃冗余结果。上下文修剪通过硬编码规则如保留最近 10 轮对话或轻量级裁剪器过滤无关信息。4. 隔离Isolate避免信息干扰多智能体架构Multi-agent主智能体协调多个子智能体每个子智能体专注子任务用独立上下文深入探索完成后返回浓缩摘要。沙箱环境Sandbox让智能体在隔离环境中执行代码或处理海量数据仅将关键结果返回主上下文。状态隔离State结构化智能体内部状态按需向 LLM 暴露相关字段隐藏暂时无需处理的信息。构建Manus的经验教训专注 AI 智能体构建的 Manus 团队在 2025 年 7 月分享了他们经过实战总结的宝贵经验【5】构建Manus的经验教训在文章的开头作者提到了在 Manus 项目的最初阶段团队需要抉择是使用微调模型还是上下文工程来构建产品。最终他们选择了后者。作者认为对于现代 AI 代理而言精心设计和管理上下文比微调模型本身更为关键它直接决定了代理的性能、成本和可扩展性。在更细致的工程方法论层面作者分享了数条在 Manus 的反复重构中汲取的经验教训围绕 KV 缓存进行设计 KV 缓存命中率是生产阶段 AI 智能体最重要的单一指标它直接影响延迟和成本。工具管理遮蔽而非移除Agent 需要运行的工具数量会爆炸式增长除非绝对必要否则应避免在迭代过程中动态增删工具。作为替代使用“遮蔽”策略通过上下文感知的状态机在解码时约束模型的输出阻止或强制其选择特定工具。将文件系统作为外部上下文128K 的超长上下文窗口在现实世界的智能体场景中往往也很容易超出限制。所以 Manus 将文件系统视为一种无限大、可持久化的“终极上下文”并且能被 Agent 直接操作。通过复述操控注意力通过复述任务目标来操控 Agent 的注意力避免 Agent 在长上下文或复杂任务中出现“中途遗忘”目标的情况。保留错误以促进学习不要隐藏代理犯下的错误。将失败的尝试保留在上下文中能够帮助模型适应并减少重复错误。避免少样本提示的陷阱如果上下文中的示例过于单一在涉及重复性决策或动作的任务中这可能会导致漂移、过度泛化有时还会产生幻觉。在上下文中需要引入受控的随机性例如不同的序列化模板、替代的措辞、顺序或格式上的微小噪音以助于打破模式并调整模型的注意力。前沿突破ACE 框架***论文来源***Zhang Q, Hu C, Upasani S, et al. Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models[J]. arXiv preprint arXiv:2510.04618, 2025.【6】斯坦福大学与 SambaNova Systems 等机构的研究团队提出了一种智能体化上下文工程Agentic Context EngineeringACE的新兴框架以解决传统的“上下文适配”通过修改输入而非模型权重来改善表现工作所面临的两大问题**简短化偏置Brevity Bias**许多提示词优化器的优化过程倾向于生成短而泛化的提示丢失领域细节与具体策略**上下文坍塌Context Collapse**大模型反复整体重写上下文导致信息不断压缩、细节流失性能骤降。三个“分工明确的角色”如图 4 所示ACE 将上下文视为不断演变的剧本随着时间的推移不断积累、细化和组织战略让模型随时能够参考。它引入了三个分工明确、协同工作的模块生成器Generator用户任务的实际执行者在任务的执行过程中会暴露出哪些方法有用哪些方法没用。反思器Reflector对生成器的执行过程进行分析提炼经验教训可多轮迭代优化。管理器Curator将反思得到的经验转化为增量条目合并到现有上下文中。Fig. 4 生成器负责执行任务并生成新的上下文反思器对上下文进行分析和评估管理器负责根据反思器的反馈更新上下文如何解决问题通过这三个分工明确的角色ACE 实现了 3 个关键设计**专用反思器 (Reflector)**将评估与洞察提取从上下文整理中分离保证经验的准确性避免“简短化偏置”。**增量式更新 (Delta Updates)**以局部增量条目的更新代替整体重写避免关键信息被压缩的同时还能节省成本。**增长-精炼机制(Grow-and-Refine)**新的条目增加时会自动删除前面的重复条目在持续扩展上下文的同时控制冗余。实验结果ACE 在 AppWorld 代理基准测试中平均性能超越强基线 10.6%在使用较小的开源模型DeepSeek-V3.1的情况下平均表现与排名第一的生产级智能体IBM CUGA基于GPT-4.1持平。在金融分析任务中平均性能也超越基线 8.6%还能够实现无需标签监督的自我改进。同时ACE 的平均适配延迟降低 86.9%所需的运行次数减少 75.1%token 成本降低 83.6%在保持性能的同时大幅降低了开销。总结借用 Andrej Karpathy 在 YC 的一个演讲中的类比如图 5 所示如果将 LLM 视作一个新型操作系统那 LLM 本身是 CPU 负责执行任务但本身不存储信息每一次推理都需要重新加载上下文上下文窗口就像 RAM 需要在有限的容量下确保 LLM 能够得到正确有效的信息。而上下文工程就是这个操作系统的内存管理器负责管理哪些数据和指令被加载到 RAM 中供 CPU 处理。Fig. 5 LLM as OS这也是为什么他说“上下文工程是一门精妙的艺术与科学它需要在上下文窗口中填入恰到好处的信息为下一步推理做准备。”随着科技技术的不断迭代模型本身的能力会不断变得强大。但模型对记忆、环境、反馈的需求不会因此而停止一个优秀的框架甚至能弥补模型原始能力的不足。而世界上不存在一劳永逸的完美框架上下文工程作为一门新兴的科学将不断带领智能体走向更远。AI时代未来的就业机会在哪里答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具到自然语言处理、计算机视觉、多模态等核心领域技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。掌握大模型技能就是把握高薪未来。那么普通人如何抓住大模型风口AI技术的普及对个人能力提出了新的要求在AI时代持续学习和适应新技术变得尤为重要。无论是企业还是个人都需要不断更新知识体系提升与AI协作的能力以适应不断变化的工作环境。因此这里给大家整理了一份《2025最新大模型全套学习资源》包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等带你从零基础入门到精通快速掌握大模型技术由于篇幅有限有需要的小伙伴可以扫码获取1. 成长路线图学习规划要学习一门新的技术作为新手一定要先学习成长路线图方向不对努力白费。这里我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。2. 大模型经典PDF书籍书籍和学习文档资料是学习大模型过程中必不可少的我们精选了一系列深入探讨大模型技术的书籍和学习文档它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。书籍含电子版PDF3. 大模型视频教程对于很多自学或者没有基础的同学来说书籍这些纯文字类的学习教材会觉得比较晦涩难以理解因此我们提供了丰富的大模型视频教程以动态、形象的方式展示技术概念帮助你更快、更轻松地掌握核心知识。4. 大模型项目实战学以致用当你的理论知识积累到一定程度就需要通过项目实战在实际操作中检验和巩固你所学到的知识同时为你找工作和职业发展打下坚实的基础。5. 大模型行业报告行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。6. 大模型面试题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我们将提供精心整理的大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。为什么大家都在学AI大模型随着AI技术的发展企业对人才的需求从“单一技术”转向 “AI行业”双背景。企业对人才的需求从“单一技术”转向 “AI行业”双背景。金融AI、制造AI、医疗AI等跨界岗位薪资涨幅达30%-50%。同时很多人面临优化裁员近期科技巨头英特尔裁员2万人传统岗位不断缩减因此转行AI势在必行这些资料有用吗这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。大模型全套学习资料已整理打包有需要的小伙伴可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】