Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

注意Cursor 相关报错原因,如重复安装依赖项、重新创建文件

Answer

以下是关于 Cursor 相关报错原因及实践的一些内容:

  • 报错原因:
    • 重复安装依赖项。
    • 重新创建文件。
    • 导入的路径不对。
    • 错误导入已经废弃的文件。
    • 突破 AI 记忆的东西。
    • Cursor 缓存未更新。
  • 实践经验:
    • 前期描述好需求,在设置里注意 Rules for AI 的提示词。
    • 按照功能模块单独建立实现文档,包括深入理解需求、技术实现、测试等。
    • 学会看代码,了解每一步文件的作用,有助于提升技术理解。
    • 分阶段实现需求,效率更高,只考虑本阶段需求。
    • 主动思考,大语言模型有局限性,如在 Cursor 中可能出现报错排查指引错误的情况,需要人工强介入。
    • 注意细节操作,每次修改完代码要保存再运行,整体修改慎用,新增功能可新开对话,每个项目新建文件夹并将相关文件放在里面,代码中多带日志方便报错调试。
    • 进行单元测试时可能遇到安装缺失库进度慢、Cursor 工作位置错误导致关键文档放错位置和创建垃圾文件等问题。
Content generated by AI large model, please carefully verify (powered by aily)

References

白九龄:0基础,我用cursor做了一个微信小程序,结果。。。。

在设置里面,Rules for AI的提示词[heading4][heading4]2.按照功能模块单独建立实现文档[content]--深入理解需求--技术实现--测试这是我当初一个功能模块技术实现文档的内容[heading4]3.最重要是学会看代码[content]知道每一步这个文件到底是做什么的,这样你对技术上会有一些新的理解和提升[heading4]4.cursor相关报错原因[content]--重复安装依赖项--重新创建文件--导入的路径不对--错误导入已经废弃的文件--突破AI记忆的东西--cursor缓存未更新[heading2]?推广一波?[content]最后,当然要推广一波我千辛万苦开发的小程序《意图分析选择器》;啊,你问我为啥不叫原先的念选,或者天使恶魔选择器,当然是因为~~审核不让,说有侵权的风险呀。。。。。。。所以就。。。。。

Cursor小白速通:成为赤脚程序员

举例:分阶段实现,效率更高,只考虑本阶段需求即可。这个日历同步需求中,我分成了4个阶段数据能同步,API调用成功数据同步不重复,且新增、更新、删除都同步分类同步到不同日历中定时自动同步[heading3]3.4.3、主动思考,大语言模型也有局限性[content]大语言模型的缺陷,上下文窗口限制、幻觉,在Cursor里也有体现,虽然可以通过@文件、Claude3.5-sonnet模型等方式缓解。比如数据同步的时候,总是每次脚本执行后,数据重复同步到日历。排查对比了很久,发现是唯一ID的问题,但是使用Cursor报错排查的时候,总是给我指引说是唯一ID没有问题都存在。这个时候就需要人工强介入,不断思考问题到底能出在哪。[heading3]3.4.4、细节操作要注意[content]每次修改完代码要保存,再去运行,我好几次报错都是因为这个原因。整体修改慎用,改好了这个bug可能带来新bug。新增其他功能的时候,可以新开一个对话,要不然之前的上下文比较影响新代码生成和调试。每个项目都新建一个文件夹,相关文件都放在里面,执行的时候方便相对路径。代码中尽可能多带日志,报错的时候方便调试。

三个人,Cursor,和一场黑客松

我让Cursor基于需求文档开发我所负责的部分,大概1分钟(没错)就写完了第一版。就在我以为能马上进入调试期的时候,第一个麻烦开始了:为了进行单元测试,我们必须安装那些缺失的库;不确定是否因为我忘记给Terminal配置网络环境,安装进度特别慢,我很焦虑地看着它花了30分钟才完成了测试的前置准备。而在写单元测试脚本的时候,Cursor偶尔也忘记自己必须在指定文件夹下工作,导致一些关键的文档反复放错位置,并创建了很多垃圾文件。解决掉这些烦人的小问题后,跑了十来次运行→报错→AI改代码→运行→报错循环,终于通过了单元测试,此时元子和Lark也已经各自完成单元测试,激动人心的合并时刻到了。但是,哪有第一次就能跑通的代码?果不其然,合并后又需要安装环境,build再上传到Chrome后,又是30分钟过去了,此时,我满怀期待的点开了插件。[heading2]

Others are asking
coze 报错Pro call plugin too high 怎么解决
对于您提到的“coze 报错 Pro call plugin too high”的问题,可能是配置文件没有配置正确。建议您按照相关教程逐步检查配置文件。同时,即使是官方插件也可能存在不稳定的情况,您需要自己尝试找到适合当前场景的插件。另外,还需注意节点的命名、调用次数、引用情况、运行耗时和成功率等方面,以优化工作流的运行。
2025-03-19
我在用AI辅助学习新概念英语第二册,但是deep seek总是报错,我应该换成什么别的AI呢?
如果您在使用 Deep Seek 辅助学习新概念英语第二册时总是报错,可以考虑换成 Wenxiaobai.com 这个平台。它高速响应,完全免费,支持各种平台使用,与 Deep Seek 官网几乎相同,速度快且稳定性高,最新版本还支持文档与图片分析。
2025-03-12
用cursor做网页采集文章插件总是报错怎么办
当使用 Cursor 做网页采集文章插件总是报错时,您可以参考以下内容: 1. 技术架构方面: 采用前后端分离架构,后端基于 Coze 工作流构建业务逻辑,前端为 Chrome 浏览器插件,提供轻量级交互界面。 2. 工作流搭建方面: 配置核心组件,包括插件大模型、工作流总览、大模型节点提示词、输出节点 markdown 排版(注意 markdown 里图片的渲染格式),注意输出图片的变量用的是 contentUrl。 3. 可视化界面和 chrome 插件开发方面: 使用 Cursor 开发时,要有架构思维,懂得如何向 AI 描述想要的东西,在实践中学习。 对于 Coze 关键数据,要获取授权令牌(Token),掌握工作流调用方法。查看 Coze 的 api 开发文档,查看执行工作流的实例,需要两个关键参数,即令牌密钥和工作流开发代码。在工作流界面获取工作流 id,让 Cursor 根据相关内容写一个调用 Coze 工作流的服务,注意声明入参为 article_url 以及让 Cursor 注意中文编码。 4. 报错处理方面: 如果报错、解析结果不对,可以点击 Raw Response,查看报错或者返回值,再根据返回值调整配置输出参数。 希望以上内容对您有所帮助。
2025-02-06
K采样器报错
在 ComfyUI 中处理 K 采样器报错问题,您可以参考以下步骤: 1. 首先,在“K 采样器”处点击“右键”“新建节点”“采样器”,选择“K 采样器(高级)”。因为 SDXL 需要用到 base 和 refiner 两套模型,所以要将模型节点和采样器节点分别复制一份。 2. 为第一个 base 模型的采样器设置参数:添加噪波为 enable,确保打开以添加噪声;步数设置为 30,即迭代的总步数;结束降噪步数设为 20,表示前面 20 步将采用 base 模型进行运算;返回噪波设为 enable,以便将剩下的噪声传递给下一个 refiner 模型。 3. 将这个 base 的采样器传递到下一个 refiner 的采样器,并设置参数:添加噪波为 disable,因为是继承上一个采样器,所以不需要再添加噪声;运行后操作为 fixed,相当于锁定随机种子;步数同样设为 30;开始降噪步数设为 20;结束降噪步数设为 30,也可保持默认;返回噪波设为 disable,到这一步已结束。
2025-02-02
instant-id预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决方法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,因为 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 如果是在 macOS 系统中,二狗子的工作流 json 文件中用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
instantid预处理报错
以下是关于 InstantID 预处理报错的一些常见问题及解决办法: 1. 安装后出现报错问题:请查看。 2. 如果是 MacBook Pro M1 出现 InstantID 依赖的 onnxruntimegpu 无法安装的情况,由于 M1 没有 GPU,不能用 onnxruntimegpu 版本,silicon 是适配 M1 的加速版本。在文件路径 ComfyUI/custom_nodes/ComfyUI_InstantID 的 requirements.txt 文件中,把 onnxruntimegpu 替换为 onnxruntimesilicon 即可。双击用文本编辑器打开,替换保存。 3. 如果出现 Import failed:ComfyUIergouzinodes 的情况,在终端中输入 pip3 install colorama 即可。colorama 是一个用于在命令行界面中生成彩色文本和格式化输出的 Python 库。 4. 如果出现 Import failed:LayerMask:SegmentAnythingUltra V2 的情况,可在 GitHub 上给作者提,说明硬件和软件环境,按照作者回复下载最新的包重新安装。 5. 在 windows 系统和 macOS 系统中,二狗子的工作流 json 文件中,用的文件路径分隔符是反斜杠\\,macOS 系统无法识别,需要全部替换为正斜杠/,不然无法调用模型。
2025-01-01
如何使用cursor进行编程
以下是关于如何使用 Cursor 进行编程的相关信息: Cursor 旨在让您极其高效,是使用 AI 进行编码的最佳方式。您可以从代码库中获得最佳答案,参考特定文件或文档,一键使用模型中的代码。 它允许您使用指令编写代码,通过简单的提示就能更新整个类或函数。 Cursor 能通过预测您的下一个编辑,让您轻松完成更改。
2025-04-18
怎么使用cursor
以下是关于如何使用 Cursor 的详细介绍: 1. 访问 Cursor 官方网站:您可以通过 https://www.cursor.com/ 下载 Cursor。 2. 注册账号:使用您的邮箱(如 google、github、163、qq 邮箱)直接登录,也可接受二维码登录。 3. 安装中文包插件。 4. 配置相关设置: 在设置中进行 Rule for AI 配置。 按 ctrl/cmd+i 输入需求,例如“帮我做一个贪吃蛇游戏,在网页中玩”。 清晰表达需求,如详细说明游戏规则和逻辑,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等方面。 5. 使用第三方文档: Cursor 附带一组已爬取、索引的第三方文档,可通过@Docs 符号访问。 若要添加自定义文档,可通过@Docs>Add new doc 实现,粘贴所需文档的 URL 后,Cursor 将索引并学习该文档,您即可将其用作上下文。 在 Cursor Settings>Features>Docs 下可管理已添加的自定义文档,进行编辑、删除或添加新文档的操作。 希望以上内容对您有所帮助。
2025-04-18
对于用cursor来开发,有没有好好用prompt来使cursor变得更加好用
以下是关于如何用 prompt 使 Cursor 变得更好用的相关内容: 在 prompt 方面,Devin 有一个特别有帮助的文档(https://docs.devin.ai/learnaboutdevin/prompting),它会教您什么样的 prompt 在与 Devin 沟通时最有效,比如明确定义成功的标准,如跑通某个测试或访问某个链接能对得上等。将同样的原则应用到 Cursor 中,会发现 Cursor 变得聪明很多,能自主验证任务完成情况并进行迭代。 Cursor 在生成单测方面表现出色。相对 GPT 等工具,Cursor 解决了上下文缺失和难以实现增量更新的问题。它可以向量化整个代码仓库,在生成单测代码时能同时提供目标模块及对应的上下游模块代码,生成结果更精确。例如,使用适当的 Prompt 能返回基于 Vitest 的结果,调整成本较小。 Cursor 支持使用.cursorrules 文件设定项目的系统提示词,针对不同语言可设定不同的 Prompt。@AIChain 花生做了一个 Cursor 插件解决提示语管理问题,可选择不同的.cursorrules 文件,还可从 https://cursor.directory/ 和 https://cursorlist.com/ 寻找提示词。此外,还有一个提示语小技巧,给已有的提示语追加上特定规则,可使模型在搜索资源和思考时默认使用英语,回复转换成中文,或更灵活地根据提问语言进行回复。
2025-04-14
怎么使用cursor
以下是关于如何使用 Cursor 的详细介绍: 官方介绍: Cursor 是一款旨在让您极其高效的 AI 代码编辑工具,是使用 AI 进行编码的最佳方式。 您可以通过以下链接查看其实际操作: 它能够读懂您的数据库,从您的代码库中获得最佳答案,或参考特定文件或文档,并且一键使用模型中的代码。您还可以观看相关视频了解: 通过预测您的下一个编辑,让您轻松完成更改。您可以观看 进一步了解。 关于 Docs: Cursor 附带一组第三方文档,已爬取、索引并准备好用作上下文。您可以使用@Docs 符号访问它们。 如果要对尚未提供的自定义文档进行爬网和索引,可以通过@Docs>Add new doc 来实现。粘贴所需文档的 URL 后,将显示以下模式。然后 Cursor 将索引并学习文档,您将能够像任何其他文档一样将其用作上下文。 在 Cursor Settings>Features>Docs 下,您可以管理已添加的文档,包括编辑、删除或添加新文档。 0 编程基础入门极简使用指南: 1. 下载 cursor:https://www.cursor.com/ 2. 注册账号,直接拿自己的邮箱登录,如 google/github/163/qq 邮箱,直接接受二维码登录。 3. 安装中文包插件。 4. 参考相关教程: 5. 在设置中 Rule for AI 配置。 6. 按 ctrl/cmd+i 输入需求,例如:帮我做一个贪吃蛇游戏,在网页中玩。并清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则。
2025-04-13
运营同学怎么使用cursor
运营同学使用 Cursor 可以参考以下内容: 1. 检查使用情况:可以在页面上检查,也可在 Cursor 应用程序中的 Cursor Settings>General>Account 下,专业用户按“Manage Subscription”,商业用户按“Manage”。游标使用情况会根据订阅开始日期每月重置一次。 2. 入门步骤: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,直接接受二维码登录。 安装中文包插件 参考相关链接: 在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求。 3. 例如做一个贪吃蛇游戏在网页中玩的需求,要清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等方面的规则和逻辑。 4. Windows 系统用户在 Cursor 中配置时一定记得要用"cmd","/c"。输入相关提示词可获得执行结果和提取结果。但请注意请勿恶意爬取网页信息。
2025-04-11
有没有连接cursor和firebase的MCP
以下是关于连接 Cursor 和 Firebase 的 MCP 的相关内容: 1. 搭建本地 MCP: 明确说明需要实现的功能。 从核心功能开始,跑通之后再叠加额外功能。 Claude 思考后写下代码,在命令行 cmd 里运行服务器 python 文件,转到项目文件目录下运行。 将服务器接入到 Cursor 里,打开 Cursor 右上角设置/MCP,点击添加,配置文件 mcp.json,输入代码以安装服务器或以开发者模式安装,配置好后按 ctrl + S 保存。 回到设置界面,查看是否连接成功,未成功可点击刷新。 提问测试是否成功调用 MCP 工具。 2. MCP 前置准备工作(保姆级教程): 配置 MCP 客户端软件任选一个客户端软件配置即可,大致分为四步: 填入大模型 API 密钥。 找到 MCP 配置界面。 填入 MCP Server 对应的 json 脚本。 使用 MCP 。 配置 Cherry Studio(推荐):使用 2025 年 4 月发布的 1.1.17 版本,配置大模型 API,填入之前准备好的 AiHubMix 的 API 密钥,配置 MCP 。 配置 Cursor(推荐):若 Cursor Pro 在免费试用期,配置大模型 API 这一步可以不做;若不在免费试用期,可氪金或填入之前准备好的 AiHubMix 的 API 密钥,配置 MCP Server,填入 MCP Server 的 json 并保存,回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具,使用 MCP 时 Ctrl + Shift + L 新建对话,将模式设置为 Agent 。 配置 Claude Desktop:用文本编辑器打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存,重启 Claude Desktop 并查看 MCP Server 连接状态。 3. 从 0 开始开发第一个 MCP 服务: Cursor 和 Windsurf 不断更新,MCP 开发教程也在进化。 适合想快速入门 MCP、对 AI 开发感兴趣但没编程基础、不想写代码但想做开发的人群。 预计动手时间仅需 15 分钟。 可以开发实现加法运算等功能的 MCP Server,通过 MCP 让 AI 使用查询实时天气、联网搜索最新信息、调用私人数据库等强大工具,还能分享提示词。
2025-04-10
flux怎么提升生图速度需要哪些依赖
要提升 Flux 的生图速度,以下是一些相关的依赖和要点: 1. 条件引导:在去噪过程中,模型使用编码后的文本向量来引导图像生成,确保生成的图像与输入的文本描述相符。 2. 采样器:ComfyUI 提供了多种采样算法(如 Euler、DDIM、DPM++等)来控制去噪过程,不同的采样器可能会影响生成速度和结果。 3. Vae 编码:VAE 由编码器和解码器组成。编码器输入图像并输出表示其特征的概率分布,解码器将概率分布映射回图像空间。 4. 结果输出:ComfyUI 最终将生成的图像显示在界面上,用户可进行保存、编辑或用于其他目的。 5. 额外控制:ComfyUI 支持多种高级功能,如图像到图像、Lora、ControlNet、ipadapter 等。 6. 低配置方案:对于显存不够 16G 的情况,开源社区有优化方案。如 NF4 来自 controlnet 的作者,GGUF 包含多个版本。NF4 模型可从 https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 下载,放置在 ComfyUI/models/checkpoint/中,其配套节点插件可通过 git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git 获取。GGUF 模型可从 https://huggingface.co/city96/FLUX.1devgguf/tree/main 下载,配套节点插件为 https://github.com/city96/ComfyUIGGUF 。在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。使用精度优化的低配模型时,工作流和原版不同。相关生态发展迅速,有 Lora、Controlnet、IPadpter 等,字节最近发布的 Flux Hyper lora 可实现 8 步快速生图。
2024-12-09
怎样用ai创建精美的ui/ux原型图
以下是一些利用 AI 创建精美的 UI/UX 原型图的方法: 1. 利用 Agent 构建:通过基本的产品和运营概念,利用 Agent 构建完整的产品、架构、UX 设计文档集,并通过多次的 rerun 输出,进行多个 UI 方案的概念探索。一个 flow 能帮助产品经理一次性完成 idea 的脑暴、打磨、市场调研、竞争力分析、功能设计、架构、UE/UI 规范,到完成可交互的高保真原型,并且可以不断产出不同的 UX 原型供内部比较和概念用研。 2. 使用 Midjourney 进行 UI 设计: 直播礼物风格图标:在素材网站上找到喜欢的 icons 风格,然后喂图给机器人,并加上关键词,如“Gift icon, cartoon style, solid color background luminous effect, 3d –iw 1 –v 5 –q 2”,其中“Gift icon”可替换为其他关键词,如“beer icon”“Headphone icon”等。 主题应用 icons:关键词如“icon design, light texture, glow, Dribbble, 3D, frosted glass effect, 3D, ui, ux, –upbeta –q 2 –v 4”。 B 端图标:关键词如“喂图+A data icon, blue gradient frosted glass, frosted glass building, white transparent technology sense white city building scene, data line link, chip, OCrenderer, big data, industrial machinery, high detailight gray background with simple linear details, studio lighting, 3d, c4d, pure white background, 8k”。
2025-04-12
豆包如何创建智能体?
创建智能体的方法如下: 1. 通过 Coze 平台创建: 找到灵感:如果没有 Bot 灵感,可以查看获取灵感。 进行 Bot 创建: 打开扣子助手。 修改 Prompt,发送 Prompt1。 让扣子助手帮忙创建 Bot。 点击打开创建好的 Bot。 发布作品: 点击【发布】。 填写发布记录,发布到 Bot 商店。 复制智能体链接。 2. 在一枚扣子平台创建: 第一步,创建一个智能体,使用单 Agent 对话流模式。 编排对话流:点击创建一个新的对话流(记得要和智能体关联),编排相关流程。 测试:找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,查看数据是否成功。回到智能体的编排页面,同样进行测试,确保对话流执行成功。 发布:点发布后,只选择多维表格,然后进行配置。包括输出类型、输入类型等,完善上架信息,提交上架信息后,返回配置界面会显示已完成,即可完成最终的提交。 另外,在教学场景中使用豆包创建智能体时,例如让学生模拟杜甫进行回答,可设置相关 prompt,选择特定声音等,并通过学生小组讨论设计问题来进行教学。
2025-04-11
豆包如何创建智能体?
创建智能体的方法如下: 通过 Coze 平台创建: 找到灵感,可以查看获取。 进行 Bot 创建,通过扣子助手快速进行,包括修改 Prompt、让扣子助手帮忙创建 Bot 以及点击打开创建好的 Bot 等步骤。 发布作品,包括点击【发布】、填写发布记录并发布到 Bot 商店、复制智能体链接。 在一枚扣子平台创建: 第一步,创建一个智能体,使用单 Agent 对话流模式。 编排对话流,点击创建新的对话流并与智能体关联。 进行测试,找到一篇小红书笔记,试运行对话流。 发布,点发布后选择多维表格,进行配置,包括输出类型、输入类型等,完善上架信息并提交。 此外,还有在教学场景中使用豆包创建智能体的示例,如设定为杜甫的角色,并设定相关 prompt 和声音等。
2025-04-11
创建飞书ai机器人
创建飞书 AI 机器人的步骤如下: 1. 工作流搭建: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻。 2. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-04-11
想创建一个对话问答形式的课程智能体
以下是创建一个对话问答形式的课程智能体的相关内容: 一、创建智能体 1. 知识库 手动清洗数据:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据,自动清洗数据可能会出现数据不准的情况。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入后可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:本地 word 文件,注意拆分内容以提高训练数据准确度。画小二 80 节课程分为 11 个章节,不能一股脑全部放进去训练,应先将 11 章的大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,否则获取不到 API。 二、智谱 BigModel 共学营活动分享 活动内容包括使用 BigModel 搭建智能体并接入微信机器人,过程为将调试好的智能体机器人拉入微信群,由老师提问,机器人回答,挑选出色回答整理成问卷,群成员投票,根据得票数确定奖项。一等奖得主分享了对活动的理解和实践,包括从题出发的分析,认为考验机器人对问题的理解和回答准确性,真实对话场景一般为完整句子回复,根据回答真实性和有趣程度评分,可使用弱智吧问题测试提示词生成效果。 三、名字写对联教学——优秀创作者奖,百宝箱智能体 1. 智能体类型的选择:建议选择工作流的对话模式,支持工作流编排和携带历史对话记录,创建后切换为对话模式,注意在调整工作流节点前切换,否则会清空重置。 2. 确认分支情况:根据需求分析有两个特定分支(根据名字和祝福写对联、根据幸运数字写对联)和一个默认分支。 3. 用户意图识别:通过理解用户意图走不同分支,注意将意图介绍写清楚准确。 4. 幸运数字分支:用代码分支获取用户输入数字,匹配知识库并做赏析,代码中有容错机制。 5. 名字写祝福:根据用户输入的名字和祝福信息,提示词生成对应对联并输出,主要是提示词调试。 6. 通用兜底回复:在用户不符合前两个意图时进行友好回复,匹配知识库,结合匹配结果、历史记录和当前输入输出符合对话内容的回复。 7. 知识库:使用大模型生成 100 对对联,好看、经典、有意义。
2025-04-09
知识库的批量创建和调用
以下是关于知识库的批量创建和调用的详细信息: 使用知识库: 在 Bot 内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量、最小匹配度和调用方式(自动调用或按需调用)。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传表格数据: API 方式: 1. 在表格格式页签下,选择 API,然后单击下一步。 2. 单击新增 API。 3. 输入网址 URL 并选择数据的更新频率,然后单击下一步。 4. 输入单元名称或使用自动添加的名称,然后单击下一步。 5. 配置数据表信息后,单击下一步。 5.1 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 5.2 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 6. 查看表结构和数据,确认无误后单击下一步。 7. 完成上传后,单击确定。 自定义方式: 1. 在表格格式页面下,选择自定义,然后单击下一步。 2. 输入单元名称。 3. 在表结构区域添加字段,单击增加字段添加多个字段。 4. 设置列名,并选择指定列字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 5. 单击确定。 6. 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 创建文本型知识库: 目前支持 5 种导入类型:本地文档、在线数据、notion、飞书、自定义。 在线数据: 自动采集:支持从单个页面或批量从指定网站中导入内容。 添加单个页面的内容: 1. 添加方式:选择添加单个。 2. 更新频率:选择是否自动更新指定页面的内容及自动更新的频率。 3. 网址 URL:输入要采集内容的网址。 批量添加网页内容: 1. 添加方式:选择批量添加。 2. 根地址或网站地图:输入要批量添加的网页内容的根地址或 sitemap 地址,然后单击导入。 3. 导入成功后,单击确认。 手动采集:支持标注要采集的内容,内容上传成功率高。使用手动采集方式,需要先安装浏览器扩展程序。安装步骤,参考。 1. 在新增 URL 页面,选择手动采集。 2. 在弹出的页面输入要采集内容的网址,然后单击确认。 3. 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 4. 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。
2025-04-09