Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何搭建大模型

Answer

搭建大模型需要注意以下几个方面:

  1. 认识到开发大模型应用的复杂性,许多细节和阶段在实际操作中才会逐渐显现,因此并非易事。
  2. 提示词设计需要精细工作,精心设计和调试是确保流程顺畅和应用有价值的关键,其直接影响模型输出质量和应用效果。
  3. 构建有效的大型语言模型应用需要:
    • 重视工程化,避免模型应用无法维护。
    • 根据项目需求选择合适的开发框架。
    • 了解业务深层次需求,设定流程环节以确保模型能解决实际问题。
    • 在每个环节精心设计提示词,引导模型提供准确有用的回复。
    • 确保应用在提供服务时遵守安全和伦理标准。
    • 通过不断测试和迭代优化模型性能和用户体验。
    • 成功部署后持续维护和更新,以适应需求变化。

掌握这些关键点,能确保构建的模型应用技术先进,真正解决用户问题并提供有价值的服务。此外,本次的彩蛋更新加入了“Emotion”字段,智能体构建专家会动态推理智能体情感设定,帮助制作更有情商的智能体。

Content generated by AI large model, please carefully verify (powered by aily)

References

RAG 提示工程(三):迈向工程化应用

在第三部分中,我们将深入探讨如何基于大模型构建模型应用。这一过程从框架选择到最终应用的搭建,涉及一系列复杂的步骤和环节。实际上,许多细节和阶段往往是在实际操作中才会逐渐显现出来。因此,开发一个大模型的应用绝非易事。在整个提示词设计层面,同样需要精细的工作。精心的设计和调试是确保整个流程顺畅运行的关键,也是保证最终应用具有实际价值的基础。这不仅仅是在对话窗口中输入文字,或者在聊天窗口中发送指令并接收输出那么简单。提示词的设计直接影响模型的输出质量和应用的实际效果。为了构建一个有效的大型语言模型应用,我们需要:1.不做工程化终究会让模型应用变得无法维护。2.根据项目需求选择一个合适的开发框架是非常关键的。3.了解业务背后的深层次需求,确保模型能够解决实际问题。根据了解到的业务需求设定流程环节。4.在每个环节中,精心设计提示词以引导模型提供准确和有用的回复。5.确保应用在提供服务的同时,遵守安全和伦理标准。6.通过不断的测试和迭代,优化模型性能和用户体验。7.成功部署应用后,还需要持续的维护和更新以适应不断变化的需求。通过这些关键点的掌握,我们可以确保构建的模型应用不仅在技术上是先进的,而且能够真正解决用户的问题,提供有价值的服务。

RAG提示工程系列(3)| 迈向工程化应用

在第三部分中,我们将深入探讨如何基于大模型构建模型应用。这一过程从框架选择到最终应用的搭建,涉及一系列复杂的步骤和环节。实际上,许多细节和阶段往往是在实际操作中才会逐渐显现出来。因此,开发一个大模型的应用绝非易事。在整个提示词设计层面,同样需要精细的工作。精心的设计和调试是确保整个流程顺畅运行的关键,也是保证最终应用具有实际价值的基础。这不仅仅是在对话窗口中输入文字,或者在聊天窗口中发送指令并接收输出那么简单。提示词的设计直接影响模型的输出质量和应用的实际效果。为了构建一个有效的大型语言模型应用,我们需要:1.不做工程化终究会让模型应用变得无法维护。2.根据项目需求选择一个合适的开发框架是非常关键的。3.了解业务背后的深层次需求,确保模型能够解决实际问题。根据了解到的业务需求设定流程环节。4.在每个环节中,精心设计提示词以引导模型提供准确和有用的回复。5.确保应用在提供服务的同时,遵守安全和伦理标准。6.通过不断的测试和迭代,优化模型性能和用户体验。7.成功部署应用后,还需要持续的维护和更新以适应不断变化的需求。通过这些关键点的掌握,我们可以确保构建的模型应用不仅在技术上是先进的,而且能够真正解决用户的问题,提供有价值的服务。[heading2]九、彩蛋更新[content]本次的彩蛋更新加入了“Emotion”字段,智能体构建专家将会动态推理智能体情感设定,帮助你制作一个更有情商的智能体。

RAG提示工程系列(3)| 迈向工程化应用

在第三部分中,我们将深入探讨如何基于大模型构建模型应用。这一过程从框架选择到最终应用的搭建,涉及一系列复杂的步骤和环节。实际上,许多细节和阶段往往是在实际操作中才会逐渐显现出来。因此,开发一个大模型的应用绝非易事。在整个提示词设计层面,同样需要精细的工作。精心的设计和调试是确保整个流程顺畅运行的关键,也是保证最终应用具有实际价值的基础。这不仅仅是在对话窗口中输入文字,或者在聊天窗口中发送指令并接收输出那么简单。提示词的设计直接影响模型的输出质量和应用的实际效果。为了构建一个有效的大型语言模型应用,我们需要:1.不做工程化终究会让模型应用变得无法维护。2.根据项目需求选择一个合适的开发框架是非常关键的。3.了解业务背后的深层次需求,确保模型能够解决实际问题。根据了解到的业务需求设定流程环节。4.在每个环节中,精心设计提示词以引导模型提供准确和有用的回复。5.确保应用在提供服务的同时,遵守安全和伦理标准。6.通过不断的测试和迭代,优化模型性能和用户体验。7.成功部署应用后,还需要持续的维护和更新以适应不断变化的需求。通过这些关键点的掌握,我们可以确保构建的模型应用不仅在技术上是先进的,而且能够真正解决用户的问题,提供有价值的服务。[heading2]九、彩蛋更新[content]本次的彩蛋更新加入了“Emotion”字段,智能体构建专家将会动态推理智能体情感设定,帮助你制作一个更有情商的智能体。

Others are asking
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
搭建在线知识库,在线客服
以下是关于搭建在线知识库和在线客服的相关内容: RAG 流程: 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。 在线检索是利用知识库和大模型进行查询的过程。 以构建智能问答客服为例,了解 RAG 流程中的“是什么”与“为什么”同等重要。 创建智能体: 手动清洗数据创建知识库: 点击创建知识库,创建画小二课程的 FAQ 知识库。 知识库的飞书在线文档中,每个问题和答案以“”分割。 选择飞书文档、自定义,输入“”,可编辑修改和删除。 点击添加 Bot,可在调试区测试效果。 本地文档: 注意拆分内容以提高训练数据准确度。 以画小二课程为例,先放入大章节名称内容,再按固定方式细化处理每个章节。 发布应用:点击发布,确保在 Bot 商店中能搜到。 开发:GLM 等大模型外接数据库: 项目启动:包括 web 启动(运行 web.py,显存不足调整模型参数,修改连接)、API 模式启动、命令行模式启动。 上传知识库:在左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色,如上传公司财报充当财务分析师、上传客服聊天记录充当智能客服等。MOSS 同理。
2025-04-13
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14