Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何建立个人知识库

Answer

建立个人知识库可以通过以下方式:

  1. 利用 GPT 打造个人知识库:
    • 使用 embeddings:将文本转换成向量,节省空间,可理解为索引。把大文本拆分成小文本块并转换为 embeddings 向量,保存在向量储存库中。当用户提问时,将问题转换为向量并与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。
    • 理解 embeddings:embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。
  2. 本地部署大模型以及搭建个人知识库:
    • 了解 RAG:利用大模型能力搭建知识库是 RAG 技术的应用。在大模型训练数据截止后,通过检索外部数据并在生成步骤中传递给 LLM。RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。
    • 文本加载器:将用户提供的文本加载到内存中,便于后续处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

Others are asking
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
如何打造个人知识库
以下是关于如何打造个人知识库的相关内容: 使用 GPT 打造个人知识库: 1. 利用 embeddings 技术:将文本转换成向量(一串数字),可理解为索引。把大文本拆分成若干小文本块(chunk),通过 embeddings API 转换为 embeddings 向量并保存,当用户提问时,将问题也转换为向量,比对查找距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于一篇万字长文拆分成多个文本块,如“文本块 1:本文作者:越山。xxxx。”等,当提问“此文作者是谁?”,通过比较 embeddings 向量可提取关联度高的文本块。 2. 理解 embeddings:embeddings 是浮点数字的向量(列表),向量之间的距离衡量关联性,小距离表示高关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。 3. 注意 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 此外,张翼然在“AI 引领未来课堂的探索与实践”中提到: 1. 学习有效收集、整理和检索信息来打造个人知识库。 2. 进行知识管理,通过实际操作体验工具在教学准备和科研中的应用。 3. 例如: 早晚速读朋友圈文章。 编写小代码、小脚本。 转换数据并呈现。 从图像和图形中提取数据。 翻译、改换风格。 总结视频内容。 私人导师,探究问题。 分新闻、观点、访谈、论文翻译来进行提炼。 用通义听悟整理录音笔记(https://tingwu.aliyun.com)。 用 React 实现选中即解释。 在本机跑大语言模型工具(https://ollama.com)。 选词翻译、解读、拓展(https://snapbox.app)。 与各种 AI 机器人聊天(https://opencat.app、https://chathub.gg/、https://www.elmo.chat/)。 用 Downie 下载视频或用 OBS 录制视频文件,开源免费屏幕录制工具 OBS 下载地址(https://obsproject.com/),Mac 用 Downie,Windows 推荐 IDM 淘宝数码荔枝店购买,用 losslessCut 快速切块。
2025-04-10
AI 自动安排批量设置工作任务的个人效率 app 推荐
目前在市场上,有一些可以实现 AI 自动安排批量设置工作任务以提升个人效率的应用程序,以下为您推荐几款: 1. Todoist:它具有强大的任务管理功能,支持设置优先级、提醒和分类,能帮助您合理规划工作任务。 2. Microsoft To Do:与微软生态系统紧密集成,方便您在不同设备上同步任务,并进行批量设置。 3. Trello:以看板的形式展示任务,直观清晰,便于批量安排和跟踪工作进度。 您可以根据自己的需求和使用习惯选择适合您的应用程序。
2025-04-07
个人AI助手可以有什么方向的应用
个人 AI 助手的应用方向广泛,包括但不限于以下几个方面: 1. 教育培训: 数字教师:如让牛顿亲自授课《牛顿运动定律》,让白居易讲述《长恨歌》背后的故事。可以与历史人物对话交流,不受时空限制,实现一对一辅导,提高学生参与感,还能根据学生情况提供定制化学习计划和资源,缓解教育资源不平等问题。 数字陪伴:作为孩子的玩伴,给予赞美等社会奖励,促进儿童成长和提高学习成绩。 2. 宠物相关: AI 宠物助手:基于自然语言处理和计算机视觉,帮助主人照顾宠物,如自动识别宠物情绪、提供饮食建议、监测健康状况等。 AI 宠物互动玩具:利用 AI 技术开发智能互动玩具,增强宠物娱乐体验,如会自主移动并引起宠物注意、会发声和互动的玩具等。 AI 宠物图像生成:使用生成式 AI 模型,根据文字描述生成宠物形象图像,帮助主人定制个性化形象。 AI 宠物医疗诊断:利用计算机视觉和机器学习技术,开发辅助诊断系统,通过分析症状图像和病历数据提供初步诊断建议。 AI 宠物行为分析:基于传感器数据和计算机视觉,分析宠物行为模式,帮助主人了解宠物需求和习性。 3. 信息检索与分析: Google Gemini 的 Deep Research:智能信息检索与分析工具,基于主题快速检索全网资源并生成综合报告,支持导出为 Google Docs 文档格式,适合学术研究、内容创作、行业分析等场景,整合了 Google 核心数据源,结合模型多模态处理能力,可处理大量上下文信息。 第四范式发布的桌面端 AI 搜索工具:基于人工智能技术的全能搜索助手,提升用户在本地文件、即时通信、网盘等各类在线应用中的搜索体验,可通过简单描述查询意图进行模糊搜索,支持实时预览搜索结果。
2025-04-01
想要生成克隆某个人的声音,然后做成视频,怎么做
要生成克隆某个人的声音并做成视频,您可以按照以下步骤进行操作: 声音克隆: 1. 准备一段需要克隆的音频(可以是类似屈原的古风声音,或自行录制一段)。 2. 打开网站:https://fish.audio/zhCN/train/newmodel/ 。 3. 上传准备好的音频,按照指引完成声音克隆。 4. 进入声音库选择需要使用的声音,将第一步生成的文案输入,使用克隆好的声音生成对应的音频文件。 5. 下载生成的音频文件备用。 视频合成: 1. 在网上下载“回答我”的原视频。 2. 打开 Viggle.ai 网站,登录后进入视频合成功能:https://viggle.ai/createmix 。 3. 上传“回答我”原视频和第二步生成的人物形象图,生成新版本的“回答我”视频。 4. 预览效果,满意后下载合成好的新视频。 视频剪辑: 1. 打开剪映软件(手机或电脑版均可)。 2. 导入第二步合成好的新视频和第一步生成的音频文件。 3. 将音频与视频时间轴对齐,确保声音和画面同步,添加字幕等。 4. 如需叠加特殊背景,可以导入自己的背景图(如楚国风景)。 5. 预览整个视频,检查效果,微调后导出最终视频(建议 MP4 格式)。 此外,您还可以参考以下工具: 数字人工具:开源且适合小白用户,特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS。模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤:下载 8G+3G 语音模型包,启动模型即可。GitHub:https://github.com/modstartlib/aigcpanel 官网:https://aigcpanel.com 。 希望这些信息对您有所帮助。
2025-03-30
问题定义: 1. 核心问题陈述:创作一份个人参赛的、以光伏业务中财务工作与AI结合进行业务赋能为主题的展示类参赛方案框架。 2. 关键上下文信息:公司举办AI创新大赛,个人参赛,主题方向为工作和AI结合限定在业务赋能,公司业务是光伏领域。 3. 问题的具体范围界定:聚焦光伏业务中财务工作与AI结合进行业务赋能的展示方案框架创作。 答案要求: 1. 内容范围: - 必须包含:整体参赛方案思路、光伏财务业务与AI结合的具体方向、展示方案大致框架。
很抱歉,您提供的知识库内容中没有与光伏业务中财务工作与 AI 结合进行业务赋能的参赛方案框架相关的信息。但以下是为您生成的一个可能的参赛方案框架示例: 一、整体参赛方案思路 本次参赛方案旨在探索如何将 AI 技术应用于光伏业务中的财务工作,以实现更高效、精准和智能化的业务赋能。通过深入分析光伏行业的特点和财务工作的需求,结合先进的 AI 技术,提出创新的解决方案,提升财务工作的效率和质量,为公司的光伏业务发展提供有力支持。 二、光伏财务业务与 AI 结合的具体方向 1. 财务预测与分析 利用机器学习算法对光伏项目的成本、收益进行预测,为投资决策提供数据支持。 分析市场趋势和政策变化对财务状况的影响,提前制定应对策略。 2. 风险评估与管理 运用大数据和人工智能技术,对光伏项目的风险进行实时监测和评估。 建立风险预警模型,及时发现潜在的财务风险。 3. 成本优化与控制 通过智能算法优化供应链管理,降低采购成本。 分析生产过程中的能耗数据,实现成本的精细化控制。 4. 财务报表自动化生成与审计 利用自然语言处理技术自动生成财务报表,提高工作效率。 运用 AI 辅助审计,提高审计的准确性和效率。 三、展示方案大致框架 1. 项目背景与目标 介绍光伏行业的发展现状和公司的业务情况。 阐述将财务工作与 AI 结合的目标和意义。 2. 技术方案与实现 详细介绍所采用的 AI 技术和算法。 展示技术方案的实现过程和关键步骤。 3. 应用案例与效果 分享实际应用案例,展示 AI 在财务工作中的具体应用场景。 分析应用效果,如成本降低、效率提升、风险控制等方面的成果。 4. 未来展望与挑战 展望 AI 在光伏财务领域的未来发展趋势。 探讨可能面临的挑战及应对策略。 5. 总结与结论 总结方案的核心内容和创新点。 强调对公司光伏业务的价值和贡献。 以上框架仅供参考,您可以根据实际情况进行进一步的细化和完善。
2025-03-28
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何建立知识库
以下是建立知识库的详细步骤: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库。 3. 给知识库起一个易于分辨的名字。 4. 点击添加文件,建议使用 Markdown 格式的文件。 5. 等待 Flowith 对文件进行抽取等处理。 6. 处理完毕后,可在知识库管理页面测试检索。 另外,还可以通过以下方式创建知识库并上传表格数据: 1. 在页面顶部进入知识库页面,单击创建知识库。 2. 在弹出的页面配置知识库名称、描述,单击确认(团队内知识库名称需唯一)。 3. 在单元页面,单击新增单元。 4. 在弹出的页面,选择表格格式,然后选择本地文件或 API 的方式完成数据上传。 在 Coze 中创建知识库: 1. 来到个人空间,找到知识库导航栏,点击创建知识库。 2. 选择知识库的格式(目前支持文档、表格、图片),填写相关信息。 3. 可选择本地文档、自定义的文档切割等。 4. 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:
2025-04-08
用ai建立知识库和直接使用ai有什么区别、
用 AI 建立知识库和直接使用 AI 主要有以下区别: 直接使用 AI 时,AI 生成的内容可能较为笼统模糊,就像遇到只会说“很急,今天就要”却不提供具体指导的领导。若想让 AI 成为得力助手,需对复杂任务进行拆解,提供方法论和定义输出格式。 建立知识库就如同为 AI 准备了“教科书”。知识库灵活,但偶尔会出现查不到内容而“猜题”的情况。例如,将《梦想与颠覆》卡牌等相关内容导入作为 AI 可调用的知识库,后续在创作中激活知识库,AI 会根据场景自动匹配库内素材,使输出更具针对性。 相比之下,微调类似于让 AI“自己真的学会了整本书”,答题更快更准,但训练成本高。微调适合高精度、长期任务,而知识库更适合临时查找、快速问答。
2025-03-30
如何从0到1建立dify
从 0 到 1 建立 Dify 的步骤如下: 1. 准备数据: 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集: 在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式: Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用: 将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化: 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 Dify 有以下两种使用方式: 1. 云服务版本。直接在官网 dify.ai 上注册账号使用。 2. 部署社区版。开源,可商用,但是不能作为多租户服务使用。对个人使用完全无限制。 部署前提条件:2 核 4G 云服务器一台(约 159 元)。 部署过程: 1. 参考 https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。 2. 这些命令在宝塔面板的终端安装。 3. 检查运行情况,如遇到问题(如 80 端口被占用),按照 AI 的方法解决。 4. 在浏览器输入公网 IP 进入,邮箱密码随便填,建立知识库并设置。 5. 选择模型,如智谱 AI,获取钥匙并复制保存。 6. 创建应用并测试发布。
2025-03-24
如何建立自己的知识库
建立自己的知识库可以参考以下几种方法: 1. 使用 flowith 指南: 拆解创作任务:将复杂任务拆解到合适颗粒度,提供方法论和定义输出格式。 建立定向知识库:将相关元知识导入 flowith 的知识花园,转化为文字上传,打开智能拆分模式,形成知识“种子”。激活知识库后,AI 会根据创作场景自动匹配库内素材,还可发布或分享知识库。 2. 基于 GPT 打造: 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT3.5 免费版交互容量有限。 理解 embeddings:embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 3. 用 Coze 免费打造微信 AI 机器人: 设计 AI 机器人,确定功能范围。 创建知识库:整理“关键字”与“AI 相关资料链接”的对应关系,支持多种文档类型,如本地文档、在线数据、飞书文档、Notion 等,可使用特殊分割符如“”便于自动切分数据。
2025-03-20
建立个人知识库的方法
以下是建立个人知识库的一些方法: 1. 使用 GPT 打造个人知识库: 利用 OpenAI 的 embedding API 解决方案。将文本拆分成若干小文本块(chunk),通过 embedding API 将其转换为 embeddings 向量,并在向量储存库中保存这些向量和文本块。当用户提出问题时,将问题转换为问题向量,与向量储存库中的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings:embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG(检索增强生成)技术:大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,通过检索外部数据,在生成步骤中将其传递给 LLM。RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据库存储)、检索和输出。 文本加载器:将用户提供的文本加载到内存中,便于后续处理。
2025-03-19