Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么调优

Answer

以下是关于大模型 RAG 应用调优的相关内容:

  1. 整理知识库文档阶段:
    • 确定知识库包含的文档类型,如政策原文文档、业务积累的 QA、操作指引、产品说明等,并进行预处理。
    • 注重知识库本身质量,因其对最终效果影响重大,是大模型生成回答的原始语料。
    • 优化方向包括:
      • 文档格式:实践中根据场景测试不同格式(如 PDF、docx 等),一般 PDF 效果较好,因其格式信息简洁,对大模型干扰少,但也有说 docx 效果更优的。
      • 文档命名:尽量控制在 10 字左右,涵义简洁明了,避免无意义的数字、符号或缩写。
      • 文档语言:尽量统一为同一种,避免中英文混在一个 chunk 里导致向量化问题。
      • 文档内容:设置清晰的一二级标题,对特殊内容(如图片、表格、公式、超链接、附件、架构图、代码等)进行特殊处理。
      • 构建问答对:能达到更好效果,但耗费人力且需考虑运营成本。需根据具体场景和需求及处理成本实践,找到最适合的方式。
  2. Prompt 阶段:
    • 匹配出与问句向量最相似的 top k 个 chunk 后,将匹配文本和问句添加到配置好的 prompt 中提交给 LLM。
    • 进行 prompt 工程,选择最合适的 prompt 模板。
    • 根据相关论文,把 query 放到头部和尾部,把相似度大的文档放到 context 的两端,能提升回答效果。
  3. 召回 Top-K 阶段:
    • 开源框架检索返回的 Top K 按数据库中的顺序排序,保留原始数据库的上下文结构,但不一定是最优排序。
    • 当索引规模大时,精确度不高,可增加 top k 的大小(如从 10 个增加到 30 个),再用更精确的算法进行 rerank。具体可查看:https://www.zhihu.com/question/628651389/answer/3356678699
  4. LLM 生成答案阶段:
    • 最大影响因素是大语言模型本身的性能。
    • 选择大模型时,要在成本和收益间找到最佳平衡点,有些场景无需最好的大模型就能实现不错效果。
    • 有条件可对模型进行微调,使其更匹配自身场景。
Content generated by AI large model, please carefully verify (powered by aily)

References

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]如何调优[heading3]整理知识库文档阶段[content]在最开始,我们需要确定知识库包含哪些文档,比如政策原文文档、业务积累的QA、操作指引、产品说明等,并对这些文档进行预处理。知识库本身质量对最终效果的影响至关重要,这是大模型最终生成回答的原始语料。在此阶段,可以考虑以下优化方向:文档的格式:pdf、docx()等不同格式的文档,识别难度不一样。从目前公开的资料来看,一般PDF文档的效果会更好一些,因为pdf文档的格式信息相对来说较为简洁,对大模型干扰少。但也有说.docx的效果更优的,因此实践中还是要根据场景去测试。文档命名:尽量控制在10字左右,涵义简洁明了,避免标题中出现无意义的数字、符号或缩写。文档语言:尽量统一为同一种。因为embedding模型对于中英文、繁简体的支持可能不一样,如果文档不做处理,引擎会把中英文切到一个chunk里面,向量化之后有一半可能是乱码,有一半是没有用的数据。文档内容:设置可清晰识别的一二级标题,对难以处理的图片、表格、公式、超链接、附件、架构图、代码等进行特殊处理。构建问答对:因为最终的交互是问答的形式,所以在构建知识库时,如果能基于用户可能的提问方式,构建问答对,作为知识库原始数据,一般能达到更好的效果,但构建问答对的过程需要耗费较多人力,还需要考虑运营成本。需要注意的是,对知识库的处理是一个case by case的事情,并不存在一个放之四海而皆准的公式,需要根据具体的场景和需求以及处理成本去做大量实践,才能找到最适合自己的。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]如何调优[heading3]5、Prompt阶段[content]匹配出与问句向量最相似的top k个chunk之后,会将匹配出的文本和问句,一起添加到配置好的prompt中,提交给LLM。在这个阶段,可能需要一定的prompt工程,选择最合适的prompt模板。根据论文《Lost in the Middle:How Language Models Use Long Contexts》,大模型对上下文中间位置的知识点提取较差,因此在prompt中,把query放到头部和尾部,同时根据相似度,把相似度大的文档放到context的两端,能提升回答效果。[heading3]6、LLM生成答案[content]prompt提交给LLM后,LLM将生成回答,返回给用户。此时最大的影响因素就是大语言模型本身的性能。选择大模型时,也需要在成本和收益之间找到最佳平衡点,有些场景可能不需要最好的大模型,就可以实现还不错的效果。有条件的还可以对模型进行微调,使模型能力更加匹配自身的场景。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]如何调优[heading3]4、召回Top-K阶段Top k的排序方式:开源框架()检索返回的Top K,会按照它们在数据库中的顺序进行排序,目的是保留原始数据库的上下文结构。但开源框架返回的不一定是最优的排序,尤其是当索引有数百万或千万级别时,精确度一般不会太高。这时候可以增加top k的大小,比如从10个增加到30个,然后再使用更加精确的算法进行rerank。具体可查看:https://www.zhihu.com/question/628651389/answer/3356678699

Others are asking
COE团队需要什么AI能力,比如AI辅助编程;AI部署+和调优;AI智能体;AI提示词; OCR识别
COE 团队可能需要以下 AI 能力: 1. AI 辅助编程:虽然 AI CODING 目前适用于小场景和产品的第一个版本,但在复杂应用中可能存在需求理解错误导致产品出错的情况。 2. AI 部署和调优:涵盖服务器创建、搭建微信机器人到引入 coze API 的全过程,包括 Docker 部署、本地运行、RailWay 部署等多种方式。 3. AI 智能体:从最初只有对话框的 chatbot 到有更多交互方式,低代码或零代码的工作流等场景做得较好。例如以证件照为例,实现了相关智能体和交互。创建智能体工作流包括创建、编辑人设、编排设计等步骤。 4. AI 提示词:在编写系统提示词时需要用{{input}}作为参数引入,以使大模型知道需要生成与输入相关的结果。 5. OCR 识别:未提及相关具体内容。 同时,在图像能力方面,支持图片生成、图片识别、图生图等,可选择 Dal3、stable diffusion、replicate、midjourney、CogView3、vision 模型。具有丰富插件,支持个性化插件扩展,已实现多角色切换、文字险、敏感词过滤、聊天记录总结、文档总结和对话、联网搜索等插件。通过上传知识库文件可自定义专属机器人,作为数字分身、智能客服、私域助手使用,基于 LinkAI 实现。
2025-04-09
作为产品经理,如何完成生产级的提示词调优,保证ai功能的上线效果
作为产品经理,完成生产级的提示词调优以保证 AI 功能上线效果可参考以下内容: 1. 明确与大模型对话产品的提示词不同。对于大模型 API,要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。 2. 根据 BigModel 官网给出的请求示例,在请求中传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。 3. 构建相应的 API 请求内容: 设定系统提示词,定义基础任务。 设定用户提示词,提供具体任务数据,并要求大模型按 JSON 格式返回生成结果。需注意为确保大模型能有效进行内容总结,提示词中使用${}语法动态引用插件获取的网页数据(如标题、描述、正文等),在实际发送 API 请求时,这些变量会被替换为真实的网页内容。 4. 最后,根据文本总结类任务的通常经验与实际调试情况,设定其他 API 所需关键参数。如果缺少参数设定的经验,可以先询问 AI 文本总结类的模型 API 请求,temperature 设定多少合适,再逐步调试效果。 此外,在星流一站式 AI 设计工具中: 1. 提示词用于描绘想生成的画面,支持中英文输入。不同基础模型对输入语言有不同要求。 2. 写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。还可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,使用预设词组、辅助功能(如翻译、删除所有提示词、会员加速等)优化提示词。启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。
2025-03-11
如何进行提示词调优
以下是进行提示词调优的一些方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达需求,避免过于笼统。 2. 添加视觉参考:在提示词中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩,以生成期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:为避免意外输出,添加如分辨率、比例等限制性条件。 6. 分步骤构建提示词:将复杂需求拆解为逐步的子提示词,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究 AI 社区流行且有效的范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,并根据输出效果反馈持续完善,直至达到理想结果。 此外,在星流一站式 AI 设计工具中: 提示词用于描绘画面,支持中英文输入,不同模型对输入语言有不同要求。 写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。 可调整负面提示词,帮助 AI 理解不想生成的内容。 利用“加权重”功能让 AI 明白重点内容,还可对已有提示词权重进行编辑。 有翻译、删除所有提示词、会员加速等辅助功能。 在 Claude 中: 更明确地编写规则或添加新规则。 在提示词中添加类似示例和规范输出,展示给 Claude 如何正确处理示例。 当 Claude 在一种输入类型上表现良好时,尝试其他输入类型,包括边缘案例。 不断完善提示词,直到在代表性输入组上获得良好性能,建议进行“保留测试”。
2025-03-11
大模型调优
大模型调优的方法主要包括以下几个方面: 1. 更换大模型:例如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将默认的 embedding 模型如 LangChain Chatchat 的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项,重命名文件对结果提升不明显,但勾选该选项后回答的无关信息减少,效果有所提升。 从产品视角考虑大模型调优,主要从以下两个维度分析问题: 1. Context optimization(上下文优化):所创建的 LLM 应用若需要特定数据、系统和流程等预训练 LLM 中缺失的知识和信息,需进行上下文优化,如企业内部智能问答机器人,应将相关知识提供给大模型,RAG 是解决该问题的技术。 2. LLM optimization(大模型优化):在进行足够的 prompt 工程后,若 LLM 应用在垂直领域表现仍不足或希望输出特定格式风格等稳定性不及预期,可考虑微调,且需与良好的 prompt 工程结合。 大模型的安全保障可通过对齐,也叫指令调优实现,包括监督微调、获取 reward model 与进行强化学习调整输出分布。但即使如 GPT4 和 Claude 等模型已几乎不回复危险问题,Alignment 仍不足以防护所有安全问题,存在越狱现象。LLAMA2 专门使用安全有监督微调确保语言模型安全。强化学习能让模型根据人类反馈调整分布,面对训练分布外数据也可能学会拒绝不当回答。
2025-03-06
提示词调优产品
以下是关于提示词调优产品的相关信息: 针对性技巧: 从用户痛点、技术创新、市场竞争三个维度分析产品的差异化优势,并预测可能面临的发展瓶颈。 “说人话”优化技巧,目的是获得更容易理解的解释,例如用 8 岁小朋友能听懂的比喻解释复杂概念。 细节约束技巧,确保输出符合特定要求,如写一篇有具体要求的美食测评。 资源获取技巧,获得具体可行的工具或方法建议,如为职场人士推荐学习英语口语的 APP 及使用方法和时间分配等。 灵活组合使用这些技巧的要点是提供清晰的背景信息、设定具体的目标和要求、指定期望的输出形式、适时使用追问和反馈优化结果。 相关产品日报: XiaoHu.AI 日报 11 月 15 日: 优化提示词,通过链式思维等技术自动改进提示词,提升 AI 模型回答质量,具有示例增强、标准化、提示重写、预填充内容等功能特点,测试显示多标签分类准确率提升 30%,摘要任务可完全遵循字数要求,若提示缺少示例,Claude 会自动生成合成示例简化提示构建过程。 Context 推出基于“上下文引擎”的 AI 助手 Autopilot,核心功能是无缝集成用户工作流,支持计划文档生成、多步数据分析、财务建模和图表创建等任务,人机协作方面,面对不确定任务时 AI 会主动请求指导,支持任务并行处理,创新点在于在大项目中能“自我复制”生成多个微型代理协作完成复杂任务。 苹果发布 Final Cut Pro 11,新增多项 AI 功能,包括磁性遮罩(AI 自动识别人和物体,无需绿幕实现抠图)、自动生成字幕(语音转字幕,提高效率)、智能适配(裁剪视频为适合社交媒体的格式)、自动色彩增强(优化画面效果)、平滑慢动作(生成额外帧,改善慢动作视频流畅性)、语音去噪(消除背景噪音,提升对话清晰度)。
2025-02-27
如何调优大模型
以下是关于调优大模型的一些方法: 1. 更换大模型:比如从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能可能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者可能更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工对文件重命名,上传相同文件构建知识库,同时在构建时勾选【开启中文标题加强】选项。重命名文件对结果提升不明显,但勾选该选项后,回答的无关信息减少,效果有所提升。 5. Prompt 阶段:需要一定的 prompt 工程,选择最合适的 prompt 模板。根据相关论文,把 query 放到头部和尾部,同时把相似度大的文档放到 context 的两端,能提升回答效果。 6. LLM 生成答案:大模型本身的性能是最大影响因素。选择大模型时要在成本和收益间找最佳平衡点,有条件还可对模型进行微调以更匹配自身场景。
2024-12-12