Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

在飞书中部署bot

Answer

在飞书中部署机器人(bot)的步骤如下:

  1. 配置事件订阅:点击事件订阅,在请求地址内填入机器人的 IP 地址和端口号(例如:http://ip:feishu_port),然后点击保存。
  2. 添加事件:点击下方的添加事件,搜索“接收消息”,选择“接收消息 v2.0”,然后确认添加。
  3. 版本管理与发布:需要点击版本管理与发布,点击创建版本,并申请线上发布。在飞书客户端查看审批消息,并审核通过。即可在飞书应用内和该机器人对话。

以上是在飞书中部署机器人的一般步骤,具体操作可能因机器人的类型和需求而有所不同。

Content generated by AI large model, please carefully verify (powered by aily)

References

熊猫大侠:基于COW框架的ChatBot实现步骤

1、点击事件订阅,在请求地址内填入http://ip:feishu_port,点击保存。2、点击下方的添加事件,搜索“接收消息”,选择“接收消息v2.0”,确认添加。3、需要点击版本管理与发布,点击创建版本,并申请线上发布,在飞书客户端查看审批消息,并审核通过。即可在飞书应用内和该机器人对话

熊猫大侠:基于COW框架的ChatBot实现步骤

1、点击事件订阅,在请求地址内填入http://ip:feishu_port,点击保存。2、点击下方的添加事件,搜索“接收消息”,选择“接收消息v2.0”,确认添加。3、需要点击版本管理与发布,点击创建版本,并申请线上发布,在飞书客户端查看审批消息,并审核通过。即可在飞书应用内和该机器人对话

大聪明:保姆级教程:Coze 打工你躺平

目标?没错,就是发布到飞书,然后在飞书里调用它尝试发布页面的右上角点发布发现飞书没有授权,得处理下,点配置配置飞书页面的右上角点发布这样就可以点发布了片刻功夫,便通过了在飞书里使用你可以在工作台里找到这个Bot,然后开始对话吧~它成功了!不过你仔细看,这里并没有严格按照我所说的来(可通过workflow解决)它是「Instructions」

Others are asking
deepseek 在飞书中的主要应用场景有哪些
DeepSeek 在飞书中的主要应用场景包括: 1. 自动翻译、改写、图片 OCR、AI 抓取等,关键流程为从 URL 抓取内容➝DeepSeek R1 翻译➝自动改写文章风格➝生成高质量文章,还包括文本翻译、图片翻译、AI 生成爆款标题。 2. 生成深度报告、信息检索、数据整理等。 3. 处理大规模代码,例如粘贴几千行代码并用 XML 包裹,或让 AI 编写代码、搜索相关代码库。 4. 与 Coze 智能体、飞书多维表格和字段捷径(Agent)组合,实现高效的数据抓取与批量 AI 处理,适用于社交媒体数据分析、AI 内容生成、情绪分析等。 5. 在专业场景提效、教育学术赋能、商业创新与生活服务等领域用途广泛,如辅助办公、教学设计、电商运营等。
2025-03-13
deepseek如何整合在飞书中
DeepSeek 整合在飞书中的相关信息如下: 2 月 19 日:《DeepSeek 最新论文科普解读:NSA,物美价廉的超长上下文方案》介绍了 DeepSeek 最新论文提出的“Native Sparse Attention”(NSA),一种高效的超长上下文方案,显著提升模型性能。《输入观点一键生成文案短视频》介绍了基于 Coze 平台的视频生成工作流,通过集成 DeepSeek R1 模型等技术,用户可通过表单输入主题观点自动生成短视频并推送至飞书消息。 2 月 10 日:《最好的致敬是学习:DeepSeekR1 赏析》专为非技术人群设计,介绍了 R1 和 V3 的技术亮点等。《DeepSeek 创新源于芯片封锁,Anthropic 或成最大输家;美国不是通过创新竞争,而是通过封锁竞争》探讨了 DeepSeek 的崛起及相关情况。《喂饭级教程:飞书多维表格+DeepSeek=10 倍速用 AI》介绍了将飞书多维表格与 DeepSeek R1 结合提升工作效率的方法。 获取字节火山 DeepSeek 系列 API 完整教程及使用方法:2 月 14 日 8 点有直播,直播结束可看回放。学习文档有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》。模板可在复制。创建账号时普通账号需自行升级或注册专业号。创建智能体时点击创建先完成一个智能体的创建。若已创建好推理点,可在 Bot 编排里直接看到和选择创建好的推理模型。测试可用后直接发布,注意发布到公共空间时他人使用 API 会消耗 Token,可设置为仅自己使用。若想搭建联网及复杂的工作流,可看《韦恩:被困在离线孤岛?DeepSeek 联网版我已经用扣子实现了!!不卡顿!!》。
2025-02-23
飞书中,如何接入deepseek
以下是关于在飞书中接入 DeepSeek 的相关信息: 学而思表示将接入 DeepSeek“深度思考模式”,预计将在 2 月内陆续于相关机型上线。 钉钉已经全面接入 DeepSeek 系列模型。 在飞书多维表格上调用 DeepSeek 的自定义 AI(DeepSeek 版)链接为:https://bytedance.larkoffice.com/base/extension/replit_3f6c0f185eac23fb ,支持 DeepSeek R1、V3 模型,支持 DeepSeek 官方、火山方舟、硅基流动三个服务商。 接入 DeepSeek 的步骤: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 Deepseek。 3. 认真阅读开场白之后,正式开始对话。
2025-02-09
扣子的智能体如何在飞书中创建一个可以和用户会话的账号
要在飞书中创建一个可以和用户会话的扣子智能体账号,您可以按照以下步骤进行操作: 1. 创建扣子的令牌: 在扣子官网左下角选择扣子 API。 在 API 令牌中选择“添加新令牌”。 给令牌起一个名字。 为了方便选择永久有效。 选择制定团队空间,可以是个人空间、也可以选择团队空间。 勾选所有权限。 保存好令牌的 Token,切勿向他人泄露。 2. 获取机器人 ID: 在个人空间中找到自己要接入到微信中的机器人,比如画小二智能小助手。 点击对应的机器人进入机器人编辑界面。 在浏览器地址栏的 bot/之后的数据就是该机器人的 Bot ID。 3. API 授权: 点击右上角发布。 会发现多了一个 Bot as API,勾选 Bot as API。 确定应用已经成功授权 Bot as API。 4. 服务器设置: chatgptonwechat(简称 CoW)项目是基于大模型的智能对话机器人,支持微信公众号、企业微信应用、飞书、钉钉接入,可选择多种模型,能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源,支持基于自有知识库定制企业 AI 应用。 点击“Docker”中的“编排模板”中的“添加”按钮。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”。 选择在“编排模板”里创建的“coze2openai”。 提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 5. 绑定微信: 需要提前准备一个闲置的微信,因为这种方法是非官方接口,有可能微信号会受到官方限制。 点击容器,可以看到运行的是两个服务。 点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。 手动刷新界面验证是否成功,点击“刷新日志”,看到 WeChat login success 提示微信登录成功。 为确保微信实时在线,点击“日志管理”的“wcandyaibot”的“刷新日志”,显示“wechat login seccess”则表示微信正常登录中。 6. 效果测试: 把绑定的微信号拉到群里或者单独对话,训练的数据越好,对话效果越好。您可以参考个人微信对话和微信群对话效果演示视频:
2024-11-19
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
AI chatbot、agent、copilot区别
AI chatbot、agent、copilot 主要有以下区别: 1. 定义和角色: Copilot:翻译成副驾驶、助手,在帮助用户解决问题时起辅助作用。 Agent:更像主驾驶、智能体,可根据任务目标自主思考和行动,具有更强的独立性和执行复杂任务的能力。 Chatbot:具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 核心功能: Copilot:更多地依赖于人类的指导和提示来完成任务,功能很大程度上局限于在给定框架内工作。 Agent:具有更高的自主性和决策能力,能够根据目标自主规划整个处理流程,并根据外部反馈进行自我迭代和调整。 3. 流程决策: Copilot:处理流程往往依赖于人类确定的静态流程,参与更多是在局部环节。 Agent:解决问题的流程由 AI 自主确定,是动态的,不仅可以自行规划任务步骤,还能根据执行过程中的反馈动态调整流程。 4. 应用范围: Copilot:主要用于处理简单、特定的任务,更多是作为工具或助手存在,需要人类引导和监督。 Agent:能够处理复杂、大型的任务,并在 LLM 薄弱的阶段使用工具或 API 等进行增强。 5. 开发重点: Copilot:主要依赖于 LLM 的性能,开发重点在于 Prompt Engineering。 Agent:同样依赖于 LLM 的性能,但开发重点在于 Flow Engineering,即在假定 LLM 足够强大的基础上,把外围的流程和框架系统化。 以下是一些 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及部署 Copilot 到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景方面表现出色。 以上信息由 AI 大模型生成,请仔细甄别。
2025-04-07
coze bot小白教程
以下是关于 Coze Bot 的小白教程: 1. 搭建您的第一个 AI Bot: 设定 Bot 的人设与回复逻辑后,为 Bot 配置对应的技能,以保证其可以按照预期完成目标任务。以获取 AI 新闻的 Bot 为例,需要为它添加一个搜索新闻的接口来获取 AI 相关的新闻。 在 Bot 编排页面的技能区域,单击插件功能对应的“+”图标。 在添加插件页面,选择阅读新闻>头条新闻>getToutiaoNews,然后单击新增。 修改人设与回复逻辑,指示 Bot 使用 getToutiaoNews 插件来搜索 AI 新闻。 (可选)为 Bot 添加开场白,让用户更好地了解 Bot 的功能。开场白功能目前支持豆包、微信公众号(服务号)。 2. 测试您的 Bot:配置好 Bot 后,在预览与调试区域中测试 Bot 是否符合预期。可单击清除图标清除对话记录。 3. 发布您的 Bot: 在 Bot 的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome 此外,还有以下相关教程: 1. 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好 二、注册 COZE:点击去注册账号:https://www.coze.com/ 。注册完成后登录,点击 Creat bot 进行后续操作。 三、注册 Discode:先注册:https://discord.com/ 。注册后登录,按照一系列步骤进行操作,注意保存 Coze_bot1 和 Coze_bot2 的:APPLICATION ID、TOKEN。 2. 大聪明:保姆级教程:Coze 打工你躺平 如何使用就是一把梭:先创建第一个 bot,然后不断精进,直到做出特定效果。 Step0:先跑起来,创建一个 Coze Bot,帮您查阅 Hacker News,并中文返回。打开 coze.cn/home,点创建 Bot,引入联网插件 WebPilot 后尝试联网询问新闻。
2025-03-23
sorabot怎么样
Sora 是 OpenAI 在 2024 年 2 月发布的文本到视频生成的 AI 模型。 其具有以下特点和相关情况: 足够惊艳,但关键问题仍需探讨。Sora 团队未明确表示已实现基于成熟的世界因果关系模型,而是用了世界模拟器的描述。顶尖学术圈对此较为严谨,Lecun 在世界政府峰会上不看好 Sora,指出其并非真正的世界模型,且仍会面临 GPT4 的巨大瓶颈。 自 ChatGPT 发布以来,人工智能技术标志着重大转变。Sora 能根据文本提示生成长达 1 分钟的高质量视频,具有准确解释和执行复杂人类指令的能力,能生成包含多个角色及复杂背景的详细场景,保持高视觉质量和视觉连贯性,克服了早期视频生成模型的一些限制,展示了作为世界模拟器的潜力。 基于公开的技术报告和逆向工程,有对其背景、技术、应用、挑战和未来方向的全面综述。涵盖了追溯发展、探究底层技术、描述在多行业中的应用和潜在影响、讨论主要挑战和局限性,以及对未来发展的探讨。
2025-03-20
chatbot
以下是关于 ChatBot 的相关内容: 1. 基于 COW 框架的 ChatBot 实现: 作者熊猫大侠介绍了基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信里实现。张梦飞同学写了更适合小白的使用教程,链接为:https://waytoagi.feishu.cn/wiki/A9w1wUcXSihF6XkeKVic8CXxnHb 。 实现内容包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等),常用开源插件的安装应用。 正式开始前需知道:本实现思路需接入大模型 API(API 单独付费)。存在风险与注意事项,如微信端有封号危险,不建议主力微信号接入;操作需依法合规,对大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。可选择多模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。有多种部署方法,如本地运行、服务器运行、Docker 的方式。 2. 打造聊天机器人“订餐机器人”: 建立自己的聊天机器人,称为“订餐机器人”,使用自动化方式收集用户提示和助手反馈来构建。用于比萨饼店接收订单。 定义“帮助函数”收集用户消息,避免手动输入。函数从用户界面收集提示并附加到称为上下文的列表中,每次使用该上下文调用模型。 模型和用户的反馈信息都会添加到上下文中,上下文会越来越长,模型据此决定下一步行动。 订餐机器人需等待收集整个订单,然后总结,并最后再次确认客户是否需要添加其他内容。若送货,需询问地址,最后收取支付款项。确保澄清所有选项、附加项和规格,以唯一地从菜单中识别出该项目。以简短、口语化和友好的方式回应。 可要求模型创建基于对话的 JSON 摘要,提交给订单系统。可对其进行定制,改变聊天机器人的行为。
2025-03-17
chatbot对话和AI搜索区别
Chatbot 对话和 AI 搜索存在以下区别: 1. 产品形态: Chatbot 主要交互是一个对话框+RAG 联网检索,如 ChatGPT、Kimi Chat 等。这类产品依赖大模型的理解能力提供问答服务,RAG 检索作为补充手段,弥补大模型在实时信息获取方面的不足。 AI 搜索产品主要交互是一个搜索框+搜索详情页,如 Perplexity、秘塔等。这类产品主要侧重点在检索,优先保证检索召回的信息质量,在首次回答的准确度方面有所要求,而对话(Chat)则作为补充步骤,方便用户对检索结果进行追问或二次检索。 2. 市场定位: 大部分产品聚焦在国内,如大模型厂商推出的 ChatBot 产品(智谱清言、Kimi Chat、百小应、海螺 AI 等),搜索厂商或创业团队推出的 AI 搜索产品(360 AI 搜索、秘塔、博查 AI、Miku 等)。 海外也有很多成熟的和新出的泛 AI 搜索产品(Perplexity、You、Phind 等),中国公司和团队也有面向全球市场的出海产品(ThinkAny、GenSpark、Devv 等)。市场定位的选择跟创始团队的背景或认知有关。 3. 搜索类型: 通用搜索:没有明显的受众倾向,任何人可以搜任何问题,都能得到一个相对还不错的搜索结果,如 Perplexity、ThinkAny。 垂直搜索:面向特定的人群或特定的领域,对特定的信息源做索引和优化,在某类问题的搜索上会有更好的结果,如 Devv 主要面向开发者人群,问编程相关的问题,搜索结果和回复准确度都比较高,问旅游或其他类型的问题,回答质量则不如通用搜索。 目前存在能联网检索的 AI,例如 ChatGPT Plus 用户现在可以开启 web browsing 功能实现联网,Perplexity 结合了 ChatGPT 式的问答和普通搜索引擎的功能,Bing Copilot 旨在简化在线查询和浏览活动,还有 You.com 和 Neeva AI 等搜索引擎,它们提供了基于人工智能的定制搜索体验,并保持用户数据的私密性。这些 AI 搜索工具的出现标志着在信息检索领域的一个重要发展,大幅提升了数据集命中预期,并为实际应用带来了更多可能性。但请注意内容由 AI 大模型生成,请仔细甄别。
2025-03-07
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化以生成细节更丰富的图片。此外,还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。这三个模型可通过关注公众号【白马与少年】,回复【SDXL】获取云盘下载链接。 2. 版本升级:要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:完成上述步骤后启动 webUI,即可在模型中看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型,填写提示词和常规参数(如尺寸设置为 10241024)进行生成。然后将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点再次点击生成。 5. 插件辅助:若觉得操作麻烦,可在扩展列表中搜索 refine 安装插件并重启,启用插件后可在文生图界面直接使用 refine 模型进行绘画。 另外,关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG,步骤包括导入依赖库(如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型)、从订阅源获取内容(通过指定函数从 RSS 订阅 url 提取内容,并将长文本拆分成较小的块附带相关元数据)、为文档内容生成向量(使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储),最终实现 RAG。
2025-04-13
我有秋叶整合包,然后需要怎么搭建本地部署?
以下是使用秋叶整合包搭建本地部署的步骤: 1. 下载整合包:可以从。 2. 复制启动器到下载仓库的目录下。 3. 打开启动器,可一键启动。如果有其他需求,可以在高级选项中调整配置。 显存优化根据显卡实际显存选择,不要超过当前显卡显存。xFormers 能极大地改善内存消耗和速度,建议开启。 4. 准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功。 如果报错提示缺少 Pytorch,则需要在启动器中点击配置。 5. Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新,同时注意插件的更新。 在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。 具体安装方法: 1. 打开整合包链接(https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru),下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择。 8. 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等待 SD 的主界面在网页上自动弹出。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。
2025-04-12
如何部署自己私人AI
部署自己私人 AI 可以参考以下几种方式: 通过云服务器、dify、智能微秘书来免费搭建微信机器人: 1. 在宝塔面板的终端安装相关命令,这些命令位于/root/dify/docker 目录下。 2. 检查运行的容器数量,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 3. 在浏览器地址栏输入公网 IP(去掉后面的:8888),进入后邮箱密码随便填,建立知识库并进行设置。 4. 选择模型,国内模型有免费额度可选,如智谱 ai,获取钥匙并复制保存,创建应用进行测试和发布。 基于 Hook 机制的微信 AI 机器人: 1. 将 Administrators 改成“wxid_dna83ykqawl222”。 2. 若有 FastGPT 或者 OpenAI 的 key,将 Ai_Lock 修改成“1”,并在 OpenAI 处添加模型 key;若没有,保持 Ai_Lock 为 0。 3. 修改后点击保存。 4. 返回 NGCbot 文件夹下,找到 main.py 文件双击运行。 5. 运行后会弹出微信登录框,正常登录微信,等待系统自动初始化必备文件。 6. 运行成功后,用“大号”给机器人发消息,拿到 wxid 并返回替换。 7. 添加完后,用小号登录,大号可对小号发号施令。 部署和训练自己的 AI 开源模型: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-11
DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)
以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容: 一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库 1. 将 Ollama 部署的模型接入 GARFlow 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。 2. 使用 Ollama 本地部署 DeepSeek 模型 先下载 Ollama 程序,官方网址:https://ollama.com/ 。 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。 若显卡是英伟达 2060Super,可选择 Deepseekr1:14b 的模型,根据自身独立显卡性能下载。 下载速度慢可按 Ctrl+C 强制退出重新下载。 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相关命令,下载好后直接退出终端。 二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |||||| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|| |满血版自部署 DeepSeekR1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21||
2025-04-10
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10