以下是关于本地部署大模型并微调建立本地知识库的详细步骤:
一、使用 AnythingLLM 进行本地知识库搭建
安装 AnythingLLM
构建本地知识库
二、张梦飞的全本地部署教程
三、智能纪要中的相关内容
在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。
总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)
我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。
[01:57:41](https://waytoagi.feishu.cn/minutes/obcnxm53m6nzpp16a89r5c8s?t=7061000)大模型及知识库使用讲解与问题解答本章节许键介绍模型API调用方法与知识库创建。告知获取API key位置及调用设置,详细讲解创建Rag应用(知识库)流程,包括上传非结构化文件、数据解析、切分段落等操作,还回答诸多问题,如知识库访问权限、智能体接收文档等,并提及作业是构建常用应用。[02:15:10](https://waytoagi.feishu.cn/minutes/obcnxm53m6nzpp16a89r5c8s?t=8110000)工作流创建、模型能力及相关问题探讨本章节主要讨论工作流相关问题。涉及历史版本功能,如对话流不支持上传文档,可向百练提需求;探讨了根据小说写序章、英文翻译、文字校对等工作流搭建;解释了模型能力、query概念;还提到工作流发布渠道、联网搜索网站设置及根据用户语言回复等内容。[02:22:50](https://waytoagi.feishu.cn/minutes/obcnxm53m6nzpp16a89r5c8s?t=8570000)通义千问相关应用及明天课程安排交流本章节主要讨论智能体相关内容,包括图片识别后让大语言模型回答防治方法,智能体应用及工作流概念、工具添加等。还提及明天将教Deepseek本地部署、蒸馏模型部署及微调,分享了发布智能体消耗token等情况,最后回答了一些问题并预告通义千问推理模型进展。