Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业级知识库

Answer

企业级知识库是一系列信息和知识的聚集。在 AI 时代,知识库的应用非常广泛。例如,使用飞书软件搭建的 AI 知识库,用户可以在飞书大群中与机器人对话获取资料。大模型并非 100%准确,会产生幻觉,主要原因包括训练数据有日期限制和无法感知公司内部私有数据。因此,知识库的出现是为了解决大模型数据准确性的问题,它可以让大模型额外学习外接知识库中的知识,从而精准回复用户。知识库在客服系统中有典型应用,公司可将用户问题及答案记录在文档中,以知识库形式投喂给大模型,使其能更准确回答用户问题。在实际操作中,可使用外贸大师产品的帮助文档进行演示,选择其中一个文档创建知识库,注意文档的分片策略会影响查询结果。

Content generated by AI large model, please carefully verify (powered by aily)

References

这可能是讲 Coze 的知识库最通俗易懂的文章了

大家好,我是大圣,一个致力于使用AI技术将自己打造为超级个体的程序员。对于知识库大家并不陌生,一系列的信息和知识聚集在一起就可以构成知识库。比如我最心爱的[通往AGI之路](https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e)就是一个使用飞书软件搭建的AI知识库。当你需要了解AI某一领域知识的时候,你只需要在AGI的飞书大群中,跟机器人对话就能获取对应的资料。而在我的[大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)也是以AI时代的知识库作为例子进行了讲解。

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

大模型并不是100%准确的,它会产生幻觉,主要是因为以下两点训练大模型的数据是有日期限制的,如果你询问大模型超出日期限制的问题,则大模型无法准确回答大模型的数据来源于互联网,如果是公司内部的私有数据,则大模型无法感知因此知识库的出现就是为了解决大模型的数据准确性的问题。大模型可以额外学习外接知识库中的知识,从而来精准回复用户。知识库中最典型的一个应用就是客服系统:公司可以将用户所有问题以及答案记录在文档中,然后以知识库的形式投喂给大模型。这样当用户通过自然语言询问问题时,大模型就可以根据知识库中的内容给出更加准确的回答。

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

这里我使用一款名为外贸大师产品的帮助文档进行演示。其帮助文档的地址为:[外贸大师使用秘籍· Yuque](https://www.yuque.com/charlotteyang/lbvyfu)为了简单,我选择其中一个文档来创建知识库:[购买后新人常见问题汇总·语雀](https://www.yuque.com/charlotteyang/lbvyfu/gvzs7qt313zg0svr)1.点击创建知识库1.从知识库中添加知识单元为了更好的检索效果,这个例子里使用Local doucuments的方式,并且上传的Markdown格式文档首先看下文档数据的格式:每个问题都是使用###作为开头(这是Markdown的语法)准备开始上传文件至此,一个完整的知识库就构建完成啦!接下来我们就可以去创建我们的产品资料问答机器人特别需要注意的是:文档的分片策略会严重影响查询的结果,这是当前RAG自身的方案原理导致的。

Others are asking
企业级rag系统开发框架
企业级 RAG 系统开发框架如下: 首先,通过数据预处理引擎(如 Unstructured)将企业无结构文件(如 PDF、幻灯片、文本文件)从数据孤岛(如 Google Drive 和 Notion)加载、转换为 LLM 可查询格式,并将这些文件“分块”成更小的文本块,以实现更精确的检索,然后作为向量嵌入和存储在数据库(如 Pinecone)中。 当用户提出问题时,系统会检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。LLM 会从检索到的上下文中合成答复返回给用户。 在实际生产中,AI 应用程序具有更复杂的流程,包含多个检索步骤和“提示链”,不同类型的任务并行执行多个“提示链”,然后将结果综合在一起生成最终输出。 RAG 是检索增强生成(Retrieval Augmented Generation)的简称,概括起来是知识检索+内容生成,主要组成包括数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。其核心在于能否将内容检索得又快又准。 RAG 的优势在于: 大语言模型技术存在输出结果不可预测、知识有截止日期、无法满足实际业务需求等问题,而 RAG 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。 RAG 可以和微调结合使用,两者并不冲突。微调适用于模型需要复制特定的结构、样式或格式时,RAG 适用于模型需要回答特定的询问或解决特定的信息检索任务。但 RAG 不适合教模型来理解广泛的领域或学习新的语言、格式或样式。 同时,通用的基础大模型无法满足实际业务需求的原因包括: 知识的局限性:模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。 幻觉问题:大模型基于数学概率的文字预测,存在提供虚假、过时、通用或低可信度信息的情况。 数据安全性:企业重视数据安全,不愿承担数据泄露风险将私域数据上传第三方平台训练。
2025-03-08
什么是AGI,如何在做企业级程序开发的工作中使用提高自己的工作效率
AGI 即通用人工智能(Artificial General Intelligence),指的是具备像人类一样广泛的认知能力和学习能力,可以执行多种复杂任务的人工智能。 在企业级程序开发工作中提高效率,可以考虑以下几点: 1. 利用自动化工具和脚本:例如自动化测试工具、代码生成工具等,减少重复性工作。 2. 采用敏捷开发方法:如 Scrum 或 Kanban,提高团队协作和项目管理效率。 3. 学习和应用新的编程语言和框架:选择适合项目需求的高效技术。 4. 优化代码结构和算法:提高程序的性能和运行效率。 5. 建立良好的代码规范和文档:便于团队成员理解和维护代码。 6. 利用云计算资源:根据需求灵活扩展计算和存储能力。 7. 持续学习和交流:参加技术社区和培训,了解行业最新动态和最佳实践。
2025-02-11
企业级应用集成AI大模型架构白皮书
以下是关于企业级应用集成 AI 大模型架构的相关内容: 从整体分层的角度来看,目前大模型整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。 2. 数据层:这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集。 3. 模型层:包括 LLm 或多模态模型。LLm 即 largelanguagemodel 大语言模型,例如 GPT,一般使用 transformer 算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,用户实际看到的地方。 此外,以下报告也涉及相关内容: 1. 量子位智库发布的《》概述了大模型技术在多个行业中的应用和发展趋势。强调大模型在编程、教育、医疗等领域的重要性,并预测其将推动生产力和创新服务的增长。大模型业务模式涵盖应用开发、模型 API 和模型服务,其中模型服务和 API 是核心。报告还讨论了大模型在不同地域和行业的落地情况,以及企业在大模型技术投资方面的需求。 2. 亿欧智库发布的《》聚焦于企业中人工智能大模型的应用和落地情况。报告涵盖了 AI 大模型在企业中的应用现状、发展趋势以及面临的挑战。它详细分析了 AI 技术如何推动企业创新、提高效率和降低成本,并探讨了不同行业如何利用 AI 大模型实现数字化转型。此外,白皮书还提供了关于如何克服实施过程中的障碍和最大化 AI 大模型价值的见解。 对于大模型 API,与大模型对话产品的提示词不同。对于大模型 API,需要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。根据 BigModel 官网给出的请求示例,可以看到需要在请求中传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。可以构建相应的 API 请求内容,包括设定系统提示词定义基础任务、设定用户提示词提供具体任务数据并要求大模型按 JSON 格式返回生成结果等。如果缺少参数设定的经验,也可以先询问 AI 文本总结类的模型 API 请求,temperature 设定多少合适,再逐步调试效果即可。
2025-02-06
企业级AI的现状如何了?
目前企业级 AI 的现状呈现出以下特点: 1. 应用方面:更多迁移到具体业务场景,企业重点放在自主构建应用程序上,如客户支持和内部聊天机器人等,同时也在尝试更新颖的应用,如编写消费品配方、缩小分子发现范围和进行销售推荐。 2. 资源配置和态度:企业对生成式 AI 的资源配置和态度在过去 6 个月发生显著变化,预算几乎增加两倍,将更多应用部署在较小的开源模型上,并将更多业务从早期实验转移到生产环境中。 3. 市场机会:生成式人工智能在 2023 年席卷消费市场,2024 年企业领域的收入机会预计数倍于消费市场。 4. 创新与挑战:基础模型的出现使企业构建自己的 AI 应用程序更易,但“GPT wrappers(GPT 套壳)”存在局限性。目前尚不清楚当更多面向企业的 AI 应用上市时情况是否会改变。那些能在“LLM+UI”公式之外创新,并帮助企业更好利用专有数据的应用将表现出色。 5. 赋能企业:许多公司正将 AI 融入工作流程以快速达成 KPI、扩张规模和降低成本。应用公司在 AI 50 强榜单中占据主导地位。不远的将来,有望看到 UX 和 UI 围绕 AI 的功能进行重新设计。
2025-01-11
万字长文带你使用Coze打造企业级 万字长文带你使用Coze打造企业级
以下是一些关于使用 Coze 打造企业级的相关资源: 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库(https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb ) 大聪明:保姆级教程:Coze 打工你躺平(https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb ) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent(https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb ) Coze“图像流”抢先体验(https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf ) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏(https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe ) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档(https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ ) 知识库相关: 官方文档:创建并使用知识库(https://www.coze.cn/docs/guides/use_knowledge ) 官方文档:知识库最佳实践(https://www.coze.cn/docs/guides/product_knowledge_bot ) 用 Coze 做一个基于知识库的 QA bot,TA 熟读了我所有的文章(https://zhuanlan.zhihu.com/p/699276883 ) 手把手教你如何用扣子(COZE)打造一个企业级的知识库机器人(https://zhuanlan.zhihu.com/p/695935995 ) Coze 汽车售后服务知识库 Bot 拆解(https://waytoagi.feishu.cn/wiki/N4wBwPY1oifcNJkZsyHc6McdnYg?renamingWikiNode=true )
2024-12-24
企业级的ai服务或者解决方案有哪些
以下是一些企业级的 AI 服务或解决方案: 1. 美国的 Zephyr AI 公司,于 2024 年 3 月 13 日完成 A 轮融资,融资金额 1.11 亿美元,主营 AI 药物发现和精准医疗。 2. Together AI 公司,2024 年 3 月 13 日完成 A 轮融资,融资金额 1.06 亿美元,从事 AI 基础设施和开源生成。 3. Glean 公司,2024 年 2 月 27 日完成 D 轮融资,融资金额 2.03 亿美元,专注于 AI 驱动企业搜索。 4. Figure 公司,2024 年 2 月 24 日完成 B 轮融资,融资金额 6.75 亿美元,业务为 AI 机器人。 5. Abridge 公司,2024 年 2 月 23 日完成 C 轮融资,融资金额 1.5 亿美元,从事 AI 医疗对话转录。 6. Recogni 公司,2024 年 2 月 20 日完成 C 轮融资,融资金额 1.02 亿美元,提供 AI 接口解决方案。 在 AI 应用方面: 1. AI 智能写作助手,如 Grammarly、秘塔写作猫,利用自然语言处理技术,市场规模达数十亿美元。 2. 淘宝拍照搜商品,通过图像识别和机器学习技术,市场规模达数百亿美元。 3. 小爱同学、Siri 等 AI 语音助手定制开发,运用语音识别和自然语言理解技术,市场规模在百亿美元以上。 4. Keep 智能训练计划,基于数据分析和机器学习,市场规模达数十亿美元。 5. 大众点评智能推荐,借助数据挖掘和自然语言处理,市场规模达百亿美元规模。 6. 阿里小蜜等电商客服,采用自然语言处理和机器学习技术,市场规模达数十亿美元。 影刀 RPA + AI Power 具有以下特点: 1. 功能亮点:集成丰富的 AI 组件及各种技能组件,拓展 AI 服务的能力边界,打造 AI Agent,如搜索引擎组件可让 AI 接入互联网获取实时信息,RPA 组件可直接调用影刀 RPA 客户端应用实现 AI 自动化操作。 2. 无缝多样的使用方式:提供网页分享、对话助理、API 集成等嵌入方式,方便企业在不同业务场景下灵活选择接入方式,打通分散的系统,实现便捷的 AI 交互。 3. 贴身的企业级服务支持:提供教学培训、技术答疑、场景共创等贴身服务,帮助企业把产品用起来,把 AI 落地下去,找到最佳实践,助力业务成功。
2024-12-19
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14