Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何开发MCP

Answer

MCP(模型上下文协议)是由 Anthropic 在 2024 年 11 月推出并开源的一项创新标准。它就像一个“转接头”或“通用插座”,其核心作用是统一不同的外部服务(如 Google Drive、GitHub、Slack、本地文件系统等),通过标准化接口与 AI 模型对接。

MCP 的好处包括:

  • 简化开发:一次整合,多次复用,不再重复开发。
  • 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。
  • 实时互动:长连接保证数据实时更新。
  • 安全可靠:内置标准化安全和权限控制。
  • 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。

与传统 API 相比,MCP 更适合需要上下文理解的场景,而传统 API 更适合需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性的场景。

开发 MCP 的步骤如下:

  1. 定义能力:明确 MCP 服务器提供的功能。
  2. 实现 MCP 层:按照协议标准进行开发。
  3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。
  4. 创建资源/工具:开发或连接数据源和服务。
  5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。

MCP 是一个典型的 CS 架构,对于有编程基础的同学来说容易理解。开发 MCP 前需要进行环境安装,包括下载并安装 Python(官网:https://www.python.org/),安装 uv(借助 uv 进行虚拟环境创建和依赖管理,它是一个 Python 依赖管理工具,采用 Rust 编写,兼有创建虚拟环境和包管理工具的功能,可以平替 pip,venv)。

Content generated by AI large model, please carefully verify (powered by aily)

References

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?

•简化开发:一次整合,多次复用,不再重复开发。•灵活性强:轻松切换AI模型或工具,无需复杂的重新配置。•实时互动:长连接保证数据实时更新。•安全可靠:内置标准化安全和权限控制。•扩展性强:AI系统扩展时,只需连接新的MCP服务器。[heading2]什么时候传统API更适合?[content]如果你的应用场景需要精准且严格受控的交互方式,那么传统API可能更合适。MCP提供广泛而灵活的动态能力,更适合需要上下文理解的场景,但不一定适用于严格受控的场合。[heading3]传统API更合适的场景:[content]•需要细粒度控制、功能严格限制;•更偏好紧耦合以提升性能;•希望最大化交互的可预测性。[heading2]如何开始使用MCP?[content]快速集成MCP的步骤:1.1.定义能力:明确你的MCP服务器提供哪些功能。2.2.实现MCP层:按照协议标准进行开发。3.3.选择通信方式:本地连接(标准输入输出)或远程连接(如WebSockets)。4.4.创建资源/工具:开发或连接你的数据源和服务。5.5.建立客户端连接:与MCP服务器建立安全稳定的连接。[heading2]总结[heading3]再次回顾什么是MCP:[content]•MCP:为AI模型统一连接数据与工具的标准接口。•API:传统的方式,每个服务单独连接,开发更复杂。什么是MCP?MCP让AI与外部数据、工具的连接变得更加标准化和高效。

缪斯:MCP 开发指南:从入门到实战

MCP是一个典型的CS架构,对于有编程基础的同学来说,很容易理解,因为开发中常见的MySql就是典型的CS架构,程序员日常开发过程中,会经常接触到CS架构的产品。本文不做太多关于MCP是什么的解释,尽最可能减少无关的噪音,只需要知道,MCP(Model Context Protocol)是一个标准化协议,通过客户端-服务端架构,让AI模型能够安全地调用工具、访问外部数据源,并实时获取信息。接下来我们通过极简单的案例,带大家手搓一个MCP客户端和服务端代码,来快速了解MCP是什么?:让AI根据你的输入自动规划并调用MCP服务端,给本地电脑创建一个文件,并写入一句话。如果这个案例你跑通了,你就会对MCP有一个初步的且正确的认知了。后面,你再去看网上其他关于MCP的大段文字科普,或者眼花缭乱的客户端配置MCP服务器的教程,再或者通过Dify等工作流与MCP结合,就会有种拨云见日,一览众山小的感觉。[heading3]环境安装[heading4]下载并安装python[content]官网:https://www.python.org/这里就不深入讲解如何安装了,不懂的同学网上找找教程。[heading4]安装uv[content]1.uv介绍MCP开发要求借助uv进行虚拟环境创建和依赖管理。uv是一个Python依赖管理工具,采用Rust编写,功能类似于pip,venv,但它更快、更高效,并且可以更好地管理Python虚拟环境和依赖项。也就是说他兼有了创建虚拟环境和包管理工具的功能,可以平替pip,venv。它完全兼容pip:支持requirements.txt和pyproject.toml依赖管理。跨平台:支持Windows、macOS和Linux。1.uv安装ctrl+r,打开命令行,输入一下命令安装uvuv常见使用命令可以自行问AI或百度,此处不再赘述。

银海:MCP是大模型的 USB x.0 接口

MCP全称模型上下文协议(Model Context Protocol),是由Anthropic(Claude模型的主体公司)在2024年11月推出并开源的一项创新标准,旨在让大语言模型能够无缝连接至第三方的数据源。该协议支持对接内容存储库、业务工具、开发环境等多种外部服务,从而赋能AI大模型获取更丰富的上下文信息,生成更加精准、相关且智能的回答。MCP就像转接头,统一不同服务供所有人使用MCP就像一个“转接头”或“通用插座”,它的核心作用是统一不同外部服务(如Google Drive、GitHub、Slack、本地文件系统等),通过标准化接口与AI模型对接。这样,开发者只需基于MCP规范开发一次“接口适配器”(MCP服务器),就能让所有兼容MCP的模型(MCP客户端)无缝接入,无需针对每个模型单独适配,大幅提升兼容性与开发效率。MCP里面还包含SSE(Server-Sent Events),是一种允许服务器向浏览器推送实时更新的技术。为AI模型量身定制的“USB-C接口”可以标准化地连接AI系统与各类外部工具和数据源传统的API就像不同的门和钥匙每扇门都需要自己的钥匙和特定的规则MCP与传统API关键区别:单一协议:MCP像一个统一接口,只要一次整合,就能连接多个服务。动态发现:AI模型能自动识别并使用可用的工具,不用提前写死每个接口。双向通信:MCP支持类似WebSockets的实时双向通信,模型不仅能查询数据,还能主动触发操作。

Others are asking
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,主要用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。其具有以下特点和优势: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现已成为一个开放协议,越来越多的企业和开发者开始采用。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 提供了更简单的集成方式。 但如果应用场景需要精准且严格受控的交互方式,传统 API 可能更合适,比如在需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性等场景。 若要开始使用 MCP,可参考以下快速集成步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说较容易理解。通过简单案例,如让 AI 根据输入自动规划并调用 MCP 服务端,给本地电脑创建文件并写入一句话,可对其有初步且正确的认知。
2025-04-18
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像为 AI 模型量身定制的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说容易理解,就像开发中常见的 MySQL 一样。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 能简化这一过程。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制;更偏好紧耦合以提升性能;希望最大化交互的可预测性。 要开始使用 MCP,可按以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总之,MCP 让 AI 与外部数据、工具的连接变得更加标准化和高效。
2025-04-14
mcp 的内容
MCP(模型上下文协议)是一种创新的开放协议,由 Anthropic 公司在 2024 年 11 月推出并开源。 其主要特点和功能包括: 统一了交互标准,是链接所有 AI 应用与工具的桥梁,兼容所有 AI 应用。 具有三大功能:工具(Tools),底层使用 Function call 实现,与 OpenAI 格式兼容;资源(Resources),为 AI 提供参考信息;提示词(Prompts),预设对话模板。 主要接口路径包括获取工具列表、调用工具、获取资源列表、读取资源内容、获取提示词列表、获取提示词内容等。 转换步骤包括客户端向 MCP 服务器请求工具列表,将 MCP 工具定义转换为 Function call 格式,发送 Function Call 定义给 LLM,接收 LLM 生成的 Function call,将 Function call 转为 MCP 工具调用,发送工具调用结果给 LLM。 MCP 就像一个“转接头”或“通用插座”,其核心作用是统一不同外部服务,通过标准化接口与 AI 模型对接。它与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 最早由 Anthropic 公司开发,目的是帮助 AI 模型(如 Claude)更容易地连接工具和数据源,现在已成为一个开放协议,被越来越多的企业和开发者采用,逐渐成为 AI 与工具互动的新标准。 官方文档:https://modelcontextprotocol.io/
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
我想找与高德地图MCP相关的教程
以下是为您整理的与高德地图 MCP 相关的教程内容: 1. 在 2025 年 4 月 3 日的智能纪要中,演示了通过 Figma 样式生成网页及整合新闻信息的操作过程,包括读取 Figma 样式、存储为公共样式、自动完成任务大闭环等,还计划打通多点连贯性,新建 news RSS 以整合信息。 2. 演示了 MCP 服务下的网页渲染生成及配置应用,提到模型 API 配置一次可反复调用,选择合适供应商和工具并填入密钥,展示了生成火星新闻页面的效果,探讨了交互问题,如添加网址跳转,还介绍了按需求文档开发页面的方式,最后打算尝试小程序开发,提及接入高德地图 API。 3. 新起项目相关安排及高德地图 API key 获取步骤,银海提议新建项目,创建新编辑页,建一个名为 PRD 点 MD 的需求文档,告知相关页面。还提到需要高德地图的 MCP 服务,因当前无高德,打算从豆哥市场获取。讨论了调用需 API key,介绍了获取 API key 的步骤,包括登录高德控制台,创建新应用并添加 key 等。 4. 银海关于获取 API key、连接高德 MCP 及后续开发需求说明,先是拿到高德 API key 并尝试在豆哥的高的 MCP 连接、测试,运行输入杭州未返回信息,先不管运行结果进行配置添加,添加成功后默认高德服务可行。之后要求阅读 PRD、NT 文档,按需求实现所有页面,如需用高德地图直接调用工具,部分文档内容可写进 PRD。 5. 观察其获取页面数据及实现 iOS 地图应用过程,先是等待程序读取页面信息,期间发现勾选后仍需重复 approve疑似有小 bug。之后程序获取到 5 个页面数据,准备实现 iOS 地图应用。提到实现 iOS 应用可用 switch 等编程语言,但希望写成 html 结构,不想用需 x code 运行的 switch,只需等待其实现即可。 6. 应用自动写页面与代码的过程及相关讨论,银海介绍应用开发进度,称可解放双手等待页面生成,目前 5 个页面框架已做好,样式在编写。还提到高德地图密钥未给,探讨地图渲染方式。指出代码无 rules 易截断,分享 cursor decore 网站,其中有诸多代码规范,建议配置 rules 提升代码可读性。 7. 黄叔用 AI 解决约会地点选择难题,使用 Windsurf+高德 MCP+32kw.com,只花了 20 分钟就完成了需求验证,并做出了相关网页,您可以通过 https://www.32kw.com/view/b109136 查看。
2025-04-11
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
runway的开发公司
Runway 是由一家总部位于旧金山的 AI 创业公司开发的。其在 2023 年初推出的 Gen2 代表了当前 AI 视频领域最前沿的模型。目前 Runway 支持在网页(https://runwayml.com/ )、iOS 访问,网页端目前支持 125 积分的免费试用额度(可生成约 105s 视频),iOS 则有 200 多,两端额度貌似并不同步。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
对于用cursor来开发,有没有好好用prompt来使cursor变得更加好用
以下是关于如何用 prompt 使 Cursor 变得更好用的相关内容: 在 prompt 方面,Devin 有一个特别有帮助的文档(https://docs.devin.ai/learnaboutdevin/prompting),它会教您什么样的 prompt 在与 Devin 沟通时最有效,比如明确定义成功的标准,如跑通某个测试或访问某个链接能对得上等。将同样的原则应用到 Cursor 中,会发现 Cursor 变得聪明很多,能自主验证任务完成情况并进行迭代。 Cursor 在生成单测方面表现出色。相对 GPT 等工具,Cursor 解决了上下文缺失和难以实现增量更新的问题。它可以向量化整个代码仓库,在生成单测代码时能同时提供目标模块及对应的上下游模块代码,生成结果更精确。例如,使用适当的 Prompt 能返回基于 Vitest 的结果,调整成本较小。 Cursor 支持使用.cursorrules 文件设定项目的系统提示词,针对不同语言可设定不同的 Prompt。@AIChain 花生做了一个 Cursor 插件解决提示语管理问题,可选择不同的.cursorrules 文件,还可从 https://cursor.directory/ 和 https://cursorlist.com/ 寻找提示词。此外,还有一个提示语小技巧,给已有的提示语追加上特定规则,可使模型在搜索资源和思考时默认使用英语,回复转换成中文,或更灵活地根据提问语言进行回复。
2025-04-14
我是一个前端开发人员,在工作中,我可以使用哪些ai工具提效
以下是一些适合前端开发人员在工作中提效的 AI 工具: 1. 辅助编程工具: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能快速提供代码建议。 通义灵码:阿里巴巴团队推出,提供多种编程辅助能力。 CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费编程助手,基于 130 亿参数的预训练大模型。 Cody:Sourcegraph 推出的代码编写助手,借助强大的代码语义索引和分析能力。 CodeFuse:蚂蚁集团支付宝团队推出的免费 AI 代码助手。 Codeium:通过提供代码建议等帮助提高编程效率和准确性。 更多辅助编程 AI 产品,可查看:https://www.waytoagi.com/category/65 。每个工具功能和适用场景不同,可根据需求选择。 2. 测试用例生成:AI 在生成测试用例方面具有显著优势,能自动化和智能化生成高覆盖率的测试用例,减少人工编写时间和成本。通过合理应用 AI 工具,可提高测试效率、增强测试覆盖率和发现潜在问题,从而提升软件质量和用户体验。 3. 网页原型图生成工具: 即时设计:https://js.design/ ,可在线使用的「专业 UI 设计工具」,注重云端文件管理和团队协作。 V0.dev:https://v0.dev/ ,Vercel Labs 推出的 AI 生成式用户界面系统,能通过文本或图像生成代码化的用户界面。 Wix: ,用户友好,无需编码知识即可创建和自定义网站,提供广泛模板和设计选择,以及多种功能。 Dora:https://www.dora.run/ ,通过一个 prompt,借助 AI 3D 动画生成强大网站。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-14