2026/4/6 9:10:13
网站建设
项目流程
做网站贵,北京王府井攻略,app首页设计效果图,网站建设入门基础LLM 原理是根据前面的 token 预测后面的 token#xff0c;Prompt 是最早输入的 token。
LLM 有一些配置也能影响模型输出。
参数
温度 Temperature
温度是 softmax 函数中的除数#xff0c;一般取值从 0 ~ 1#xff08;2#xff09;。
P(xi)ezi/T∑jezj/TP(x_i) \fra…LLM 原理是根据前面的 token 预测后面的 tokenPrompt 是最早输入的 token。LLM 有一些配置也能影响模型输出。参数温度 Temperature温度是 softmax 函数中的除数一般取值从 0 ~ 12。P(xi)ezi/T∑jezj/TP(x_i) \frac{e^{z_i / T}}{\sum_{j} e^{z_j / T}}P(xi)∑jezj/Tezi/T温度越低生成的结果越确定温度越高生成的结果越随机。在代码、数学、事实问题方面取低值文学创作、营销方面取高值。Top-K Top-PLLM 预测的下一堆 token 中是一群概率加起来为 1 的 tokenTop-K 表示挑选前 K 个概率最大的 tokenTop-P 表示挑选累计概率超过 P 的前 n 个 token。比如 token 对应的概率队列是 [0.4,0.3,0.2,0.1]Top-K 为 2 表示取 [0.4,0.3]Top-P 为 0.3 取 [0.4]。Top-P 也叫核采样一般只用这个如果两个都配置了则取两者结果的交集。输出长度输出长度表示回复 token 的长短缩小输出长度不会让输出更简洁只会截断输出。以上是常见的参数配置影响输出的还包含语气、措辞、上下文等这些可以在 Prompt 提示词中指定。提示词技巧样本在 cursor 的实践中提供样本比如说一堆指令效果更好。比如提供标准的 Service 代码规范如何。样本数量 3 ~ 5 个最佳目的是给 LLM 示例让他模仿样本要乱序比如判断情绪的 Prompt 中正面情绪和负面情绪的案例要打乱随机否则模型可能按照前三个是正面情绪、后两个是负面情绪的规律给答案。复杂场景要提供边界案例告诉 LLM 应该如何处理。提示词结构一个良好的 Prompt 应包含系统提示词System Prompting、角色提示词Role Prompting和上下文提示词Contextual Prompting。系统提示词提供整体的规则、输出规范比如以 josn 格式输出使用格式规范可以有效抑制 LLM 的幻觉问题这样 LLM 只用关注 json 内的值而不会过于随机的产出内容。角色提示词给 LLM 设置人设可以控制输出风格、语气和相关联的知识比如设置导游角色输出里就会有导游特有的额外信息。上下文提示词提供背景信息避免输出的内容过于空泛使回答更精确。提示词内容本身要是清晰的指令不要给模棱两可的话术。推理技巧后退一步提示Step-back Prompting后退一步指的是在回答所需的问题前先用一个提示词把上下文调整到合适的状态这样获得的回答更具体和实用。比如在 cursor 实践中有非常多的代码规范文档如果直接发起命令 “ 请根据规范生成....”生成的代码可能是没有遵循规范的解决方案就是先把所需的规范加载到对话的上下文中比如在生成代码前先说 “ 查找项目中 Dao 和 Service 的规范有哪些”再执行生成代码的命令。思维链Chain of Thought, CoT在数学、逻辑推理中如果让 LLM 给出答案大概率是猜的为此需要加一些中间步骤帮助 LLM 更好的推理。这个原理是 LLM 的本质上预测下一个 token如果在样本中给出完整的推理路径就会让 LLM 在模仿过程中也改动内部向量遵循特定的路径可以让结果更加准确。在这些 Prompt 中要把温度参数调低。自我一致性Self-consistency即使用同样的 Prompt 和模型多次运行根据运行结果投票选择相同答案最多的那种。这个技巧由于太费 token 使用的比较少。思维树Tree of Thoughts, ToT思维链是一条路径思维树就是多条路径。逻辑推理对模型来说是最困难的这和模型本身的能力关系更大使用这种技巧只能有限的增加推理能力。推理 行动Reason Act为 LLM 加上各种外挂比如 MCP、RAG、Agent 等让模型自行思考和决策由主模型和子模型和工具共同完成任务。比如在 cursor 中加入高德地图的 MCP 提供路线规划能力、加入搜索工具提供外网搜索能力等等。自动化提示工程APE让 AI 生成一个提示词工程的提示词在对话中口语化提供所需的上下文、目标等即可让 AI 按照规范生成特定的提示词。其他补充提供示例这是最直接有效的办法。简洁设计如果人类看不懂那 LLM 也不会理解。具体输出明确指定输出的格式、风格。指令由于约束即多告诉 LLM 需要 xxxx少说不要 xxxx。使用变量如 {city} 。示例打乱顺序。文档化Prompt 是一个不停迭代的过程建立个文档库像 git 一样记录变动的原因。学习资源推荐如果你想更深入地学习大模型以下是一些非常有价值的学习资源这些资源将帮助你从不同角度学习大模型提升你的实践能力。一、全套AGI大模型学习路线AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取二、640套AI大模型报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取三、AI大模型经典PDF籍随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取四、AI大模型商业化落地方案作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量。