2026/4/6 11:14:25
网站建设
项目流程
备案时候网站不能打开吗,dwcc怎么做网站,大学生网站建设结题报告,温州百度推广排名目录
1 LLM (大语言模型)
2 Transformer (自注意力机制)
3 Prompt (提示词)
4 理解API
5 Function Calling (函数调用)
6 Agent (智能体)
7 MCP (模型上下文协议)
8 A2A (Agent通信协议)
9 未来假想
本文尽量用最简单的方式, 帮读者理解 LLM, Transformer, Prompt, Function ca…目录1 LLM (大语言模型)2 Transformer (自注意力机制)3 Prompt (提示词)4 理解API5 Function Calling (函数调用)6 Agent (智能体)7 MCP (模型上下文协议)8 A2A (Agent通信协议)9 未来假想本文尽量用最简单的方式, 帮读者理解 LLM, Transformer, Prompt, Function calling, MCP, Agent, A2A 等这些基本概念。表述时不追求绝对准确, 尽量通俗易懂。部分内容有个人理解的成份, 内容难免疏漏, 欢迎指正。注意: 本文需要你有基本的代码阅读能力。当然非开发阅读也不会很困难。01 LLM (大语言模型)本质就是文字接龙。把问题当成输入把大模型当成函数把回答当成输出。大模型回答问题的过程就是一个循环执行函数的过程。另外有必要了解一下AI技术爆发于2023年ChatGPT经过了几次迭代才崭露头角。Transformer架构。参数爆发增长。人工干预奖励模型。思考题: 语言能代表智能吗?02 Transformer (自注意力机制)自注意力机制就是动态关联上下文的能力。如何实现的呢每个分词就是一个 token每个token 都有一个 Q, K, V 向量 (参数)Q 是查询向量K 是线索向量V 是答案向量推理的过程:当前token 的Q 与 前面所有的 K 计算权重每个 token 的V加权相加得到一个 token预测值选择 N 个与预测值最接近的 token, 掷骰子选择最简化示例: 小明吃完冰淇淋结果 肚子疼。首先分词及每个token的 Q, K, V向量。tokenQ查询K键V值语义解释小明[0.2, 0.3][0.5, -0.1][0.1, 0.4]人物主体吃完[-0.4, 0.6][0.3, 0.8][-0.2, 0.5]动作吃完冰淇淋[0.7, -0.5][-0.6, 0.9][0.9, -0.3]食物冷饮可能致腹泻结果[0.8, 0.2][0.2, -0.7][0.4, 0.1]结果需关联原因接着开始推理:1. 使用最后一个 token 的 Q“结果”的 Q 向量Q_current [0.8, 0.2]2. 计算 Q_current 与所有 K 的点积相似度点积公式Q·K q₁k₁ q₂k₂TokenK向量点积计算结果小明[0.5, -0.1]0.8 * 0.5 0.2*(-0.1) 0.4 - 0.020.38吃完[0.3, 0.8]0.8 * 0.3 0.2 * 0.8 0.24 0.160.4冰淇淋[-0.6, 0.9]0.8*(-0.6) 0.2 * 0.9 -0.48 0.18-0.3结果[0.2, -0.7]0.8 * 0.2 0.2*(-0.7) 0.16 - 0.140.023. Softmax 归一化得到注意力权重将点积结果输入 Softmax 函数Token点积指数值e^x权重小明0.38e^0.38 ≈ 1.461.46 / 2.74 ≈ 0.53吃完0.4e^0.40 ≈ 1.491.49 / 2.74 ≈ 0.54冰淇淋-0.3e^-0.30 ≈ 0.740.74 / 2.74 ≈ 0.27结果0.02e^0.02 ≈ 1.021.02 / 2.74 ≈ 0.374. 加权求和 V 向量生成上下文向量将权重与对应 V 向量相乘后相加Token权重V向量加权 V 向量小明0.53[0.1, 0.4]0.53*[0.1, 0.4] ≈ [0.053, 0.212]吃完0.54[-0.2, 0.5]0.54*[-0.2, 0.5] ≈ [-0.108, 0.27]冰淇淋0.27[0.9, -0.3]0.27*[0.9, -0.3] ≈ [0.243, -0.081]结果0.37[0.4, 0.1]0.37*[0.4, 0.1] ≈ [0.148, 0.037]最终上下文向量[0.053−0.1080.2430.148,0.2120.27−0.0810.037][0.336,0.438]5. 预测下一个 token模型将上下文向量 [0.336, 0.438] 与候选 token 的嵌入向量对比嵌入向量不作过多解释, 只要知道QKV三个向量可从嵌入向量计算得到即可候选词嵌入向量相似度点积概率肚子疼[0.3, 0.5]0.336 * 0.3 0.438 * 0.5 ≈ 0.101 0.219 0.320最大概率例如 65%头疼[0.2, 0.1]0.336 * 0.2 0.438 * 0.1 ≈ 0.067 0.044 0.111次之例如 20%开心[-0.5, 0.8]0.336*(-0.5) 0.438 * 0.8 ≈ -0.168 0.350 0.182较低例如 15%最终模型选择最高概率的 “肚子疼” 作为下一个 token。注意在实际场景中预测的下一个token是不确定的是因为有一个掷骰子的操作大模型会在概率最大的几个token中随机挑选一个作为最终输出。03 Prompt (提示词)对于这个词大家并不陌生。我们用chatGPT时经常会用到 “你是一个…”但你真的理解它吗与ai对话时的这种预设角色其实并不是严格意义上的 prompt。为什么这么说呢先看一下API。04 理解API我们前面提到过大语言模型的 本质就是文字接龙相对应的使用大模型也比较简单。可以参见deepseek的文字接龙 api 请求这里比较重要的几个部分需要理解:1. temperature 温度Temperature温度 是一个控制生成文本随机性和多样性的关键参数。它通过调整模型输出的概率分布直接影响生成内容的“保守”或“冒险”程度。看几个典型场景:场景温度代码生成/数学解题0数据抽取/分析1通用对话1.3翻译1.3创意类写作/诗歌创作1.52. tools 工具支持大模型对 function calling 的支持后面再详细介绍。3. 角色和信息这一部分是ai对话的主体。其中role 定义了四个角色。system 系统设定。user 用户回复。assistant 模型回答。tool 是配合function call工作的角色可以调用外部工具。回到前一章的问题ai对话时其实是user部分输入的内容所以system角色的设定内容才应该是严格意义上的Prompt。这有啥区别呢? (user 与 system?)个人一个合理的猜测: system的内容在Transformer推理中拥有较高的权重。所以拥有较高的响应优先级。4. 关于多轮对话因为LLM是无状态的。我们要时刻记得文字接龙的游戏因此在实际操作中也是这样的。在第一轮请求时传递给 API 的 messages 为。大模型回答。当用户发起第二轮问题时请求变成了这样05 Function Calling (函数调用)仅仅一个可以回答问题的机器人作用并不太大。要完成复杂的任务就需要大模型的输出是稳定的而且是可编程的。因此OpenAI 推出了 function calling的支持。也就是前面提到的 tools参数相关内容。1. 基本流程工具声明及用户输入模型检测到需要使用工具返回相关工具参数开发者根据方法名和参数调用相关工具方法将工具方法的返回值附加到请求中再次请求大模型得出最终结果The current temperature in Paris is 14°C (57.2°F).总结一下2. 实现原理(猜测)a. 实现方式一: prompt 遵循 (示例)提前设置规则:b. 实现方式二: 模型训练特定优化对结构化输出有特定要求可能需要特定训练吧。这个不太确定?06 Agent (智能体)包含: 大模型任务规划上下文记忆工具调用。它是大模型能力的拓展。其实只要对API进行简单的封装只要能完成特定任务都可以称为智能体。比如下面的例子:1. 创建AI客服系统通过上面的智能体调用工具的示例我们可以看到每接入一个工具都需要编写相应的接入代码。经常写代码的我们都知道这不是好的架构设计。 好的设计应该把动态改变的部分 ( tools的声名和调用分离出来 )做为一个独立的模块来拓展。这就有了大众追捧的 MCP: -----(哪有这么玄都是程序员的常规操作啊…)遵循这套协议可以实现工具与Agent的解耦。你的Agent 接入MCP协议的client sdk后。接入工具不再需要编写工具调用代码只需要注册 MCP Server就可以了。而MCP Server可由各个服务商独立提供。MCP Server做什么呢?声明提供的能力 ListTools。调用能力的方式 CallTool。来看一下MCP Server的部分代码 (红框中就是做上面两个事不难理解) :08 A2A (Agent通信协议)A2A本质是对 MCP协议的拓展按字面意思就是 Agent to Agent. 有兴趣的自己详细看吧。在这套协议下一个智能体要引入其它的智能体的能力也变得可插拔了。09未来假想如同蒸汽机电计算机这些伟大的技术一样。AI会成为下一个彻底改变人类生活工作方式的新技术。1. 现在AI编程能力越来越强程序员是不是要失业了?职业不会消失消失的只有人。但是AI编程的确会重塑整个行业。我预想几年后纯粹的业务代码工程师可能会消失。而会增加更多的AI编程工程师。AI编程工程师的职责是解决AI模糊性的问题。而工具的引入就是增加确定性的手段。我们程序员可以把自己的积累通过 mcp server的方式挂载到项目agent 上去。这样我们就可以解放双手去解决更多有挑战性的问题。2. 当前我们有哪些工作可以由AI来处理?理论上一切重复性的工作都可以交由AI完成。保险起见创造性的工作暂时可以只作为参考。日常的反馈分析。团队知识库。个人知识库。普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事02适学人群应届毕业生无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】