Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

企业RAG知识库的实施步骤

Answer

企业 RAG 知识库的实施步骤主要包括以下几个方面:

  1. 文档加载(Document Loading):从多种不同来源加载文档,如包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。
  2. 文本分割(Splitting):使用文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。
  3. 存储(Storage):存储涉及两个环节,一是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,二是将 Embedding 后的向量数据存储到向量数据库。
  4. 检索(Retrieval):数据进入向量数据库后,通过某种检索算法找到与输入问题相似的嵌入片。
  5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起生成更加合理的答案。

此外,构建知识库也是重要的步骤。

海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge

Content generated by AI large model, please carefully verify (powered by aily)

References

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading4]使用知识库[content]海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html国内官方文档:https://www.coze.cn/docs/guides/use_knowledge

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

张翼然:用AI为教师减负(3H).pdf

将芬兰人均可支配收入转换为人民币正在搜索网页Q美元人民币汇率最新正在阅读正在搜索网页Q1USD to RMB exchange rate July 2024正在阅读poundsteringliveY ychartsexchangerates.org编程入+5morepythor吕币等品income_usd=27241.063#2020*芬兰人均约可支配收入[美元exchange_rate=2024年7月美人民币汇income_rmb=exchange_nprint(f*芬兰人均可支配收入为{income_rmb:2f)人民币1)输出python芬兰人均可配收入约为198042.53人民币总结Gathered suficient information如何通过RAG知识库搭建课程助教号来源大模型Al课程助希冀-信息CC educg·1【InternLM实战营第二期笔记+blog.cs...3查看更多2blog.cs....2答案通过RAG(Retrieval Augmented Generation)知识库可以搭建智能课程助教系统主要步骤如下构建知识库

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
学习ai思路,完整步骤流程
以下是新手学习 AI 的完整步骤流程: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,以“Windsurf 零基础开发”为例,AI 开发网站的操作步骤如下: 1. 开发目标:以“Windsurf 学习共创社区”为例,借助 AI 能力快速构建现代化 Web 应用。 2. 技术选型:Vue + TypeScript。 3. 目标用户:零基础开发学习者。 4. 参考项目:Cursor101。 5. 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 在开发过程中,输入需求让 windsurf 进行 code,它会将开发思路讲解并给出环境命令,可能会出现报错,将报错信息返回给 cascade,经过自动检查后修复 bug,不断优化细节,如优化导航栏和首页,插入细节图片等。
2025-04-14
我要根据PPT开发一个网页,请详细提供操作步骤和选择哪一个AI工具更合适。
以下是根据 PPT 开发网页的详细操作步骤以及适用的 AI 工具: 一、生成 PDF 1. 将您的文件转换为 PDF 格式,其他文件格式也可行,但 PDF 效果更佳。 2. 若希望在文章中加入图片,需将图片转换为 Markdown 格式。 网络图片:直接复制图片的 URL,右键图片选择复制 URL,然后用 Markdown 格式写入文档。 自己的图片:使用图床服务(如 https://sm.ms/)托管图片,生成公链。 3. 插入视频:先将本地视频上传到公网(如 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项获取 URL,用 Markdown 格式写入。 二、适用的 AI 工具 1. 爱设计 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 2. MindShow 网址:https://www.mindshow.fun//home 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 3. Process ON 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制(相对耗时) 导入方式:复制最终大纲内容到本地 txt 文件,将后缀改为.md(若看不见后缀可自行搜索开启),打开 Xmind 软件导入 md 文件,在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢使用且无会员,可在某宝买一天会员。
2025-04-13
如果一个不懂技术的人学习AI,应该怎么做?请列定详细的步骤。
以下是一个不懂技术的人学习 AI 的详细步骤: 1. 了解 AI 基本概念 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛,如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试 理论学习之后,进行实践来巩固知识,尝试使用各种产品做出自己的作品。 在知识库中查看大家实践后的作品、文章分享,并分享自己实践后的成果。 5. 体验 AI 产品 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,还可以参考以下具体的开发示例: 1. 以“Windsurf 学习共创社区”为例,进行零基础开发网站 技术选型:Vue + TypeScript(无需先了解具体含义)。 目标用户:零基础开发学习者。 参考项目:Cursor101。 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 2. 搭建对接 GPT 大模型的微信聊天机器人 选用技术组件:极简未来平台、腾讯云轻量应用服务器、宝塔面板和 Docker。 按照详细的配置步骤操作:购买服务器、配置宝塔面板,部署 Docker 和 COW 组件,绑定微信号。 了解费用问题:包括极简未来平台的费用和腾讯云服务器的费用,以及如何通过积分和优惠降低成本。 掌握运维问题的解答:学会简单高效地管理和维护服务器和服务,以及遇到问题时的解决方案。 如果在学习过程中有任何不懂的地方,可以随时寻求帮助。同时,还可以加入免费的 AI Agent 共学群,获取更多玩法和经验分享以及最新的 AI 前沿资讯。
2025-03-28
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
微调大模型的优势与运用的功能场景是什么?微调具体步骤是?
微调大模型具有以下优势和运用的功能场景: 优势: 提高模型在特定任务中的性能:可以输入更多示例,经过微调的模型在特定任务中表现更好,虽然可能会失去一些通用性。 提高模型效率:实现更低的延迟和更低的成本,可通过专门化模型使用更小的模型,且只对输入输出对进行训练,舍弃示例或指令进一步改善延迟和成本。 功能场景:适用于需要在特定领域(如法律、医学等)获得更优表现的情况。 微调大模型的具体步骤如下: 从参数规模的角度,大模型的微调分成两条技术路线:全量微调(FFT)和参数高效微调(PEFT)。全量微调是对全量的模型参数进行全量的训练,PEFT 则只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 微调是在较小的、特定领域的数据集上继续大模型的训练过程,通过调整模型本身的参数来提高性能。 您可以参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2025-03-23
怎么搭建扣子智能体提取抖音文案并进行改写用到哪些插件,并给我配置参数与步骤图
以下是搭建扣子智能体提取抖音文案并进行改写所需的插件、配置参数及步骤: 1. 插件搭建: 点击个人空间,选择插件,点击创建插件。 插件名称:使用中文,根据需求起名。 插件描述:说明插件的用途和使用方法。 插件工具创建方式:选择云侧插件基于已有服务创建,填入所使用 API 的 URL。 在新的界面点击创建工具,填写工具的基本信息,如工具名称(只能使用字母、数字和下划线)、工具描述、工具路径(以“/”开始,若使用 path 方式传参,用“{}”包裹变量)、请求方法等,结束后点击保存并继续。 2. 配置输入参数: 点击新增参数,填写所有需要使用的参数,保存并继续。 3. 配置输出参数: 如果一切填写正确,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 填入汉字“张”,点击自动解析。 解析成功后显示解析成功,可看到输出参数已填好,然后点击保存并继续。 4. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,安仔使用 Coze 免费创建 24 小时英语陪练的步骤包括: 1. 打开扣子首页,点击左上角创建 AI Bot 按钮。 2. 在弹窗输入 Bot 相关信息。 3. 设计人设与回复逻辑,根据功能需求设计提示词。 4. 调整模型设置,如改为 20 轮对话记录。 5. 选择使用插件,如英文名言警句、Simple OCR 等。 6. 设置开场白和预置问题。 7. 设置语音,选择亲切的英语音色。
2025-03-18
我是一个普通本科的大二学生,学的是软件工程专业,但是我本身编程能力不是很好,我对ai拥有浓厚的兴趣,喜欢去学习并运用ai,我想未来all in ai并成为一个产品经理,我想给你分享一下我的计划,我想今年下半年考过英语四级,并且参加苹果26年的swift 学生挑战赛,我是零基础但是我愿意学习,希望你帮我制定一个包含实施策略、里程碑和最佳实践的详细框架,以帮助我有效地实现这些目标!
以下是为您制定的包含实施策略、里程碑和最佳实践的详细框架,以帮助您有效地实现目标: 一、英语四级考试 实施策略: 1. 制定学习计划,每天安排一定时间学习英语,包括词汇、语法、听力、阅读和写作。 2. 多做历年真题,熟悉考试题型和难度。 3. 参加英语学习社群或找学习伙伴,互相监督和鼓励。 里程碑: 1. 每月进行一次模拟考试,评估学习进度。 2. 两个月内完成词汇和语法的系统学习。 最佳实践: 1. 利用碎片时间背单词,如在公交车上、课间等。 2. 听力练习时,反复听同一篇材料,直到完全听懂。 3. 写作练习后请老师或同学帮忙批改,总结错误和不足。 二、参加苹果 26 年的 Swift 学生挑战赛 实施策略: 1. 从零基础开始学习 Swift 编程语言,通过在线课程、书籍等资源进行系统学习。 2. 参与相关的编程实践项目,提升实际操作能力。 3. 关注苹果官方网站和社区,了解挑战赛的最新动态和要求。 里程碑: 1. 三个月内掌握 Swift 编程语言的基础知识。 2. 半年内完成一个小型的 Swift 项目开发。 最佳实践: 1. 遇到问题及时在技术论坛或社区寻求帮助。 2. 定期回顾和总结所学知识,加深理解和记忆。 3. 参考优秀的 Swift 项目案例,学习他人的编程思路和技巧。 三、成为 AI 产品经理 实施策略: 1. 学习 AI 相关的基础知识,包括机器学习、深度学习等。 2. 了解产品经理的职责和工作流程,通过实践项目积累经验。 3. 关注行业动态,参加相关的研讨会和培训课程。 里程碑: 1. 一年内掌握 AI 基础知识和产品经理的基本技能。 2. 参与实际的 AI 项目开发,担任产品经理助理角色。 最佳实践: 1. 多与行业内的专业人士交流,获取经验和建议。 2. 不断提升自己的沟通和协调能力,以更好地推动项目进展。 3. 学会从用户需求出发,设计具有创新性和实用性的 AI 产品。 希望以上框架对您有所帮助,祝您顺利实现目标!
2025-03-01
AI Agent 企业实施的方案和案例
以下是一些关于 AI Agent 企业实施的方案和案例: 顺着推理引擎的思路,可让 LLM 自己做自动化的多步骤推理,其间能使用搜索引擎、调用工具及与其他 LLM 协作。最早实现此想法原型的是 AutoGPT 和 BabyAGI 两个开源的智能代理,它们给出了很好的解题思路,人类给出目标,LLM 自己分解子目标,调用外部工具,自我评估任务是否完成,逐步实现整体目标。如今,随着 LLM 的推理能力和速度提高,Agent 的思路已被很多创业公司和科技巨头用于产品中。例如,来自纽约的华人创业团队 Cognition AI 推出的可以像人类程序员一样自动写代码的 Agent,但因演示视频过于科幻而被揭露造假。Google 也在今年的 Next 与 I/O 大会上发布了自己的 Agent 战略,如从客服 Agent 到员工 Agent 再到代码 Agent,以及最新的 Google Plan Search,能自动多步骤执行搜索任务。 《爱分析:2024 年 AI Agent 实施的明路应用实践报告》指出,企业实施 AI Agent 的主要目标是降低运营成本,尤其是在知识库管理、数据分析、营销与客户服务等领域。 公司的核心产品“灵搭”平台是以自研 MultiAgent 架构为基础的企业级 AI Agent 平台,结合了多种技术,能理解并处理复杂的企业业务需求,提供多种解决方案。该平台具有多项优势,如适配多模型、灵活可视化构建、即时发布上线、安全访问控制、支持多 Agents 协作等。已与多家企业达成深度合作,主要服务电力能源行业,成功落地多个应用场景。 此外,《[2024 年工作趋势指数年度报告》揭示了人工智能在工作场所的情况。最近还上传了一些相关研究报告,如《[爱分析:2024 中国 AI Agent 市场研究报告》等。
2025-02-11
文档自动化的技术方案: OCR+NLP pipeline指的是什么,个人具体怎么实施
OCR(Optical Character Recognition,光学字符识别)+NLP(Natural Language Processing,自然语言处理)pipeline 是一种将 OCR 技术和 NLP 技术相结合的文档自动化处理流程。 OCR 用于将文档中的图像或扫描的文字转换为可编辑的文本。 NLP 则对转换后的文本进行分析、理解和处理,例如提取关键信息、分类、情感分析等。 对于个人实施 OCR + NLP pipeline,大致可以按照以下步骤进行: 1. 选择合适的 OCR 工具和服务:有许多开源和商业的 OCR 工具可供选择,根据您的需求和技术能力进行评估和选用。 2. 准备数据:收集和整理需要处理的文档,并确保其质量适合 OCR 处理。 3. 进行 OCR 处理:使用选定的 OCR 工具对文档进行转换。 4. 选择 NLP 框架和模型:根据具体的任务和需求,选择适合的 NLP 框架和预训练模型。 5. 数据预处理:对 OCR 输出的文本进行清洗、预处理,以便 NLP 模型能够更好地处理。 6. 训练和优化 NLP 模型(如果需要):如果通用模型不能满足需求,可以使用标注数据进行训练和优化。 7. 集成和部署:将 OCR 和 NLP 部分集成在一起,并部署到实际应用环境中。 需要注意的是,实施过程中可能会遇到一些技术挑战,例如文档格式的复杂性、OCR 识别的准确性、NLP 模型的适应性等,需要不断调试和优化。
2025-02-08
欧盟人工智能法案在实施中对我国未来立法的影响
欧盟人工智能法案在实施中对我国未来立法主要有以下影响: 1. 参考意义:我国与欧盟在人工智能立法方面处于“齐头并进”态势,且立法理念有共通之处,欧盟的《人工智能法案》对我国人工智能立法工作具有重要参考价值。 2. 产品调整:若AI项目有意拓展欧洲市场,可能因不同市场要求而需根据欧盟法案对产品进行调整。 3. 对中小企业的监管:我国法律制度在一般性规定基础上强化对大型企业监管,而欧盟法案顾及到中小企业弱势地位。将对中小企业的合规义务豁免及合规支持规定纳入我国未来人工智能立法,有利于形成公平竞争秩序,激发中小企业科技创新活力,避免过度监管。 4. 法律衔接:我国《个人信息保护法》规定可能对人工智能研发和部署使用中的个人信息处理形成合规障碍,而欧盟《人工智能法案》在不影响GDPR实施的情况下对涉及个人数据的处理进行了解释和衔接。我国若进行统一的人工智能立法,个人数据处理的合法性问题无法回避,可在立法中进行特别规定。
2025-01-02
案例:借助人工智能技术的诈骗 一、案例材料 1.背景资料 (1)近期全国范围内出现了一种新型电信诈骗——AI换脸诈骗,该诈骗利用AI人工智能,通过“换脸”和“拟声”技术模仿受害人的朋友或亲戚的声音和外貌,以此骗取受害者的信任,进行网络诈骗,近日包头警方就根据一起典型案例,向大家发出了防范AI换脸诈骗的警示。 财联社5月22日讯,据平安包头微信公众号消息,包头警方发布了一起利用人工智能(AI)实施电信诈骗的典型案例,一家福州市科技公司的法人代表郭先生竟在短短10分钟内被骗走了430万元人民币。
以下是关于 AI 的相关内容: 律师如何写好提示词用好 AI: 对于不具备理工科背景的文科生,可将 AI 视为黑箱,只需知道其能模仿人类思维理解和输出自然语言。AI 就像似人而非人的存在,与传统道教的驱神役鬼拘灵遣将有相似之处。提示词应是相对完善的“谈话方案”,成果在与 AI 的对话中产生,要接受其存在的“不稳定性”,并在对话中限缩自己思维的模糊地带。 AI 的应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 交通运输:(未具体阐述)
2024-12-25
我面临退休,想使用ai开展第二职业,该如何规划实施?
以下是为您规划使用 AI 开展第二职业的一些建议: 1. 深入了解 AI 领域:明确自己的兴趣点,比如是对 AI 提示词、AI 绘画、AI 智能体还是其他方面感兴趣。 2. 评估自身技能:确定自己现有的技能与 AI 领域的结合点,以及还需要提升哪些技能。 3. 学习与提升:根据职业目标,获取个性化的学习建议和资源,提升在 AI 领域的专业技能。 4. 选择研究课题:有意识地选择有潜力和市场需求的研究方向。 5. 宣传工作成果:让更多人了解您在 AI 领域的工作和成果。 6. 合作与交流:与能力强且您钦佩的人合作,学习他们的研究品味和思考方式。 7. 关注行业趋势:了解 AI 领域的最新发展和未来方向,比如更事实性不会产生幻觉的语言模型、可以使用工具与世界进行交互的多模态模型等。 8. 制定职业规划:明确短期和长期的职业目标,制定详细的发展计划。 同时,您可以利用一些职业规划服务产品,比如: 1. 对于学生和应届毕业生,可以通过产品了解 AI 技术在不同职业中的应用,评估兴趣和技能,选择合适职业路径并制定规划,根据职业目标获取个性化学习建议和资源提升技能。 2. 对于职场新人和职业转换者,可根据自身职业目标和市场需求制定发展计划,明确短期和长期目标,获取职业转型支持和必要技能培训资源。 3. 对于企业,可利用产品评估应聘者 AI 技能水平,为现有员工提供职业发展规划和技能提升建议,培养内部 AI 人才。 4. 对于教育机构,可将产品作为学生职业指导一部分,帮助了解 AI 领域职业机会和发展路径,优化课程设置提供针对性培训。 5. 对于职业咨询师,可将产品作为辅助工具为客户提供更精准规划建议和技能评估,基于产品数据提供更全面前瞻性指导。
2024-12-24