龙门惠州网站建设温岭市建设规划局网站
2026/4/6 10:30:21 网站建设 项目流程
龙门惠州网站建设,温岭市建设规划局网站,中国建设银行网站首页企业,wordpress性能太差我们早已习惯在提示词、记忆窗口、外部检索器之间调参#xff0c;以期让模型理解更多上下文。 可在上海交大刘鹏飞团队的最新论文中#xff0c;上下文工程不再是工程师堆 token 的技巧#xff0c;而是一个可被形式化的科学对象。他们称之为 2.0 版本的上下文工程——意味着…我们早已习惯在提示词、记忆窗口、外部检索器之间调参以期让模型理解更多上下文。可在上海交大刘鹏飞团队的最新论文中上下文工程不再是工程师堆 token 的技巧而是一个可被形式化的科学对象。他们称之为 2.0 版本的上下文工程——意味着人机系统不再被动接收上下文而开始主动设计、加工与演化自己的语境结构。过去二十年里所谓上下文更像是外部条件地点、时间、任务状态、聊天历史。在 1.0 时代它是预设的触发条件——if location office → silence phone。到 LLM 出现后2.0 时代悄然到来系统不仅能读懂自然语言还能在对话、工具调用、记忆模块中动态构造自己的语境。上交大团队把这一阶段变化画成了一条长达四阶段的演化曲线从感知上下文到协同上下文再到自我生成与人类能力之上的层级的语境操控。他们指出这条曲线并非连续增长而是每一次技术范式的变化——从 HCI 到多模态感知再到 LLM 驱动的 Agent 系统每一代都在缩短“机器理解人类意图”的理解不确定性差异。换句话说上下文工程正成为新的智能阶段界标谁能更低不确定性地重建语境谁就更聪明。论文标题Context Engineering 2.0: The Context of Context Engineering论文链接https://arxiv.org/abs/2510.26493GitHub链接https://github.com/GAIR-NLP/Context-Engineering-2.0定义在哪里发生变化这篇论文的标题“The Context of Context Engineering”听起来几乎像一个悖论。作者却把它当成定义性动作他们要研究的不是怎么用上下文而是上下文本身的语境是什么。这种反身视角让整个研究变得像一面镜子——当系统试图理解 context它同时在暴露自己如何组织信息、选择特征、界定边界。▲ 图1. 上下文工程能力从 1.0 到 2.0 出现结构化本体作者强调上下文工程的关注点正在从消费语境转向对语境的构造。于是问题变得具体如果模型的推理能力、记忆系统、甚至人格都依赖上下文那上下文本身如何被定义、被设计、被优化作者团队试图给出一个可计算的答案。他们首先在理论框架部分建立了严密的数学定义。设 E 为所有实体用户、应用、环境等的集合F 为所有可用表征信息的空间则有接着所有“相关实体”的表征被并集成一个更高阶的整体这个集合 C就是系统的上下文。在这一处理下上下文从语义描述转化为可计算的对象。该定义构成了后续上下文工程 2.0 讨论的前提条件。写成函数之后CE 才真正成立在形式化部分中作者将上下文工程视为可施加变换的函数对象而不是推理前的描述集合。上下文工程被定义为从上下文集合 与具体任务 映射到一类上下文处理函数 并进一步展开为可组合的操作序列其中 代表作用在 上的上下文加工操作包括选择、抽取、重述、压缩与再编码等。在这一定义体系下系统不只消费上下文而能够在函数空间内部以算子级别对上下文结构进行组织与加工。▲ 表1. 1.0 与 2.0 的差别在于上下文从固定输入转为可操作对象。因此上下文工程的 2.0 位置并非来自模型规模变化而是来自定义域变化1.0 阶段主要聚焦于外界环境与交互轨迹的显式特征捕捉2.0 阶段则允许系统在内部表征空间内对 C 做结构性重写与组合。作者在这一基础上提出了记忆的分层结构用三个定义给出短期记忆、长期记忆与巩固过程。短期记忆为长期记忆为短期向长期的巩固过程定义为上述三个定义形成一个完整的时间尺度框架即时内容、高重要性内容、与能够跨任务保留的稳定内容得到明确区分。在此框架中上下文工程可以被视为一组对 C 的逐层加工与选择性固化机制其对象是上下文本身而非输入序列。为什么需要把内容转写为表达在上下文成为可计算对象之后论文把讨论进一步推进到如何在系统内部对它进行组织。这部分不是对操作范式的总结而是对上下文可以在哪些结构层上被改写的范围限定子系统边界、抽象层级、信息引用方式与跨主体可移植性等维度都被纳入上下文结构本身。▲ 图2. self-baking 的图示强调上下文从原始信息转化为可长期引用的结构表达。在 self-baking 的典型路径中原始内容如对话轮次、工具返回、检索片段并不会直接在 token 空间内长久保留而是被转写为二级表达摘要、schema 化引用、或可进一步被查指的引用单元。在这种机制下上下文的保留不再等价于让 token 堆积得更长而表现为将内容转写为更稳定的表达形式允许跨轮次引用在新的推理入口中被作为结构对象使用。与此对应context isolation 则表现在不同功能子单元拥有独立的上下文窗口各自维护特定任务相关的 C 局部切片并在调用链中只交换抽象后的结构而不交换 token 序列本身。因此多 agent 并不意味着复制对话而意味着以抽象后的上下文表达做通信单位。从第二段关于短期 / 长期记忆的定义出发这里给出的结构机制说明了上下文对象不仅可以被选入或选出还可以被重写成另一种存在形式。这意味着C 的表示不是固定的而是允许在系统内部经历结构层级转换。为什么共享的是结构而不是对话在使用侧作者关注的并不是上下文被读出多少 token而是哪些结构可以被不同主体访问、引用与再利用。当上下文具有显式结构时同一份 C 不必局限于一个对话线程或一个 agent它可以被导出为独立对象并在其它推理单元中作为输入入口使用。▲ 图3. 跨 agent 的上下文共享以结构化表达为交换单位而非 token 序列复制。在这种设置中一个系统内部的多个 agent 并不是在复制上下文窗口而是在共享上下文经过结构化后的表达层。每个 agent 对其本地上下文窗口的管理是独立的系统只在需要跨主体访问时导出二级表达。这使得上下文的生命周期不再与单一推理线程绑定而是可以跨多次调用、跨多个功能子单元被引用。同样的原则也适用于人机协作界面。论文中提到的 CLI 系统并不是把全文语境都塞给模型而是在操作过程中不断生成被可指称的二级结构计划、意图、候选方案、外部资源引用、或工具链状态。这些表达物随后成为推理入口再次被 agent 使用。因此使用不再是从上下文中读取 token而是从上下文对象空间中选择引用单元。这意味着 的作用范围超越了上下文窗口本身进入了跨主体引用、跨会话重用的层级。结语在这一体系中上下文不再依赖具体交互形式也不再依赖单一的 token 历史。它被给定了集合、算子、分层、转写、引用与导出等可计算属性这使得上下文可以从可观测表征转入可操作对象空间。因此上下文工程 2.0 这一提法并非对 prompt 手法的一次命名更新而是对模型外部因素与内部结构之间关系的重新界定推理行为依附于上下文而上下文本身是可以选择、转写、抽象、隔离与共享的。本文贡献在于把这一命题从经验层面的如何使用上下文收缩成了一个定义域明确的建模问题。这意味着讨论 context不再是人类要如何与模型说话而是系统在什么条件下承认一个结构是上下文。在该框架下讨论的对象限定为上下文结构本身而非交互策略层面的技巧。想入门 AI 大模型却找不到清晰方向备考大厂 AI 岗还在四处搜集零散资料别再浪费时间啦2025 年AI 大模型全套学习资料已整理完毕从学习路线到面试真题从工具教程到行业报告一站式覆盖你的所有需求现在全部免费分享扫码免费领取全部内容​一、学习必备100本大模型电子书26 份行业报告 600 套技术PPT帮你看透 AI 趋势想了解大模型的行业动态、商业落地案例大模型电子书这份资料帮你站在 “行业高度” 学 AI1. 100本大模型方向电子书2. 26 份行业研究报告覆盖多领域实践与趋势报告包含阿里、DeepSeek 等权威机构发布的核心内容涵盖职业趋势《AI 职业趋势报告》《中国 AI 人才粮仓模型解析》商业落地《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》领域细分《AGI 在金融领域的应用报告》《AI GC 实践案例集》行业监测《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。3. 600套技术大会 PPT听行业大咖讲实战PPT 整理自 2024-2025 年热门技术大会包含百度、腾讯、字节等企业的一线实践安全方向《端侧大模型的安全建设》《大模型驱动安全升级腾讯代码安全实践》产品与创新《大模型产品如何创新与创收》《AI 时代的新范式构建 AI 产品》多模态与 Agent《Step-Video 开源模型视频生成进展》《Agentic RAG 的现在与未来》工程落地《从原型到生产AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。二、求职必看大厂 AI 岗面试 “弹药库”300 真题 107 道面经直接抱走想冲字节、腾讯、阿里、蔚来等大厂 AI 岗这份面试资料帮你提前 “押题”拒绝临场慌1. 107 道大厂面经覆盖 Prompt、RAG、大模型应用工程师等热门岗位面经整理自 2021-2025 年真实面试场景包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题每道题都附带思路解析2. 102 道 AI 大模型真题直击大模型核心考点针对大模型专属考题从概念到实践全面覆盖帮你理清底层逻辑3. 97 道 LLMs 真题聚焦大型语言模型高频问题专门拆解 LLMs 的核心痛点与解决方案比如让很多人头疼的 “复读机问题”三、路线必明 AI 大模型学习路线图1 张图理清核心内容刚接触 AI 大模型不知道该从哪学起这份「AI大模型 学习路线图」直接帮你划重点不用再盲目摸索路线图涵盖 5 大核心板块从基础到进阶层层递进一步步带你从入门到进阶从理论到实战。L1阶段:启航篇丨极速破界AI新时代L1阶段了解大模型的基础知识以及大模型在各个行业的应用和分析学习理解大模型的核心原理、关键技术以及大模型应用场景。L2阶段攻坚篇丨RAG开发实战工坊L2阶段AI大模型RAG应用开发工程主要学习RAG检索增强生成包括Naive RAG、Advanced-RAG以及RAG性能评估还有GraphRAG在内的多个RAG热门项目的分析。L3阶段跃迁篇丨Agent智能体架构设计L3阶段大模型Agent应用架构进阶实现主要学习LangChain、 LIamaIndex框架也会学习到AutoGPT、 MetaGPT等多Agent系统打造Agent智能体。L4阶段精进篇丨模型微调与私有化部署L4阶段大模型的微调和私有化部署更加深入的探讨Transformer架构学习大模型的微调技术利用DeepSpeed、Lamam Factory等工具快速进行模型微调并通过Ollama、vLLM等推理部署框架实现模型的快速部署。L5阶段专题集丨特训篇 【录播课】四、资料领取全套内容免费抱走学 AI 不用再找第二份不管你是 0 基础想入门 AI 大模型还是有基础想冲刺大厂、了解行业趋势这份资料都能满足你现在只需按照提示操作就能免费领取扫码免费领取全部内容​2025 年想抓住 AI 大模型的风口别犹豫这份免费资料就是你的 “起跑线”

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询