Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

介绍MCP的文件有哪些

Answer

以下是关于 MCP 的相关介绍文件:

  1. 官方文档:https://modelcontextprotocol.io/
  2. Cursor 文档中关于 MCP 的介绍:https://docs.cursor.com/context/model-context-protocol
  3. 社区网站:https://smithery.ai/

MCP 相关知识:

  1. MCP 本质是 Claude 官方推出的一个协议。纯 LLM 无法行动,MCP 工具可以充当其与现实世界交互的“手”,并反馈结果指导下一步行动。
  2. 模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景,可将其想象成 AI 领域的“USB-C 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。
  3. MCP 最早由 Anthropic 公司开发,现已成为开放协议,越来越多的企业和开发者开始采用。
  4. Anthropic 推出的 MCP 协议旨在规范和优化人工智能模型生成内容的方式,关注内容的安全性、合规性以及对用户的透明度,提供更为标准化的方法来管理 AI 模型输出。
Content generated by AI large model, please carefully verify (powered by aily)

References

Windsurf Wave3:MCP协议让AI直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab智能跳转、Turbo模式。

简单点,纯LLM无法行动,MCP工具可以充当他的手帮他和现实世界交互,并且反馈结果给他,指导下一步行动。MCP本质就是前面Claude官方推出来的一个协议,然后,下面两个是MCP官方文档和Curosr关于MCP的介绍:https://modelcontextprotocol.io/注意图中圈出来的四个,注意第四个:你可以利用LLM构建MCP,当然大部分比较有用的社区给我们构建好了,后文会提到。Cursor文档中也有配置MCP的介绍:https://docs.cursor.com/context/model-context-protocol因为不久前,Cursor加入了MCP支持。你知道的,原生网页工具和文档工具可能不够完美。你可以添加Brave Search、Puppeteer和Sequential Thinking这样的MCP工具让调试和搜索变得更顺畅。而比较热门的Playwright CDP。可以让AI控制浏览器变得简单。它是mcp-playwright的升级版。通过Chrome DevTools协议,连接已有的Chrome实例。可以自动化浏览器任务。填表单,截图,导航网页。还能执行JavaScript,监控控制台日志。不用启动新的浏览器会话。直接接入现有工作流。对开发者来说,这是个强大的自动化工具。让LLM和浏览器无缝配合。API测试也变得更简单。是的,没错,网站开发神器,你不需要每次去控制台复制或截图错误给他,他自己看:我们现在介绍如何便捷使用社区已经存在的MCP工具。先来看第一个社区网站:https://smithery.ai/

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?模型上下文协议(Model Context Protocol,简称MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。你可以把MCP想象成AI领域的“USB-C接口”,它能让不同的AI模型与外部工具和数据源轻松连接。本文将清晰地解释MCP的价值、工作原理,以及它与传统API的关键区别。[heading2]什么是MCP?[content]模型上下文协议(MCP)就像是为AI模型量身定制的“USB-C接口”,可以标准化地连接AI系统与各类外部工具和数据源。什么是MCP?就像USB-C接口让你的电脑更容易连接各种设备一样,MCP让AI模型更简单地获取数据、工具与服务。[heading2]为什么要用MCP,而不是传统的API?[content]通常,AI系统想连接外部工具时,需要单独整合多个不同的API。每个API都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。[heading3]为什么说传统API就像每扇门都有一把不同的钥匙?[content]打个比方:API就像不同的门,每扇门都需要自己的钥匙和特定的规则。为什么使用MCP而非传统API?传统的API要求开发者为每个服务或数据源单独编写代码和整合方案。[heading2]MCP背后是谁?[content]MCP最早由Anthropic↗[1]公司开发,目的是帮助AI模型(如Claude)更容易地连接工具和数据源。但现在,MCP已经成为一个开放协议,越来越多的企业和开发者开始采用它,这也让它逐渐成为AI与工具互动的新标准。

1月8日 社区动态速览

《[黄仁勋CES主题演讲完整内容:显卡、游戏、AI、自动驾驶、机器人、DGX](https://mp.weixin.qq.com/s/rHBRPXj5utZ5pdc_-6zDAg)》在CES 2025的主题演讲中,NVIDIA首席执行官黄仁勋回顾了公司发展历程,重点介绍了新一代RTX Blackwell显卡,支持AI与图形计算。演讲还涵盖了AI代理的应用及NVIDIA的Llama模型,强调其在企业中的潜力。此外,NVIDIA发布了物理AI基础模型Cosmos,以及与丰田的自动驾驶合作,展示了下一代汽车计算平台Thor的强大性能。《[已经验证了PMF的AI Coding,在国内的落地会有何不同?](https://mp.weixin.qq.com/s/KDeVGFgDbjS6RZUyx7kT6g)》2024年,AI编程领域如Cursor等公司迅速融资,显示出强劲的产品市场匹配(PMF)。AI助力代码生成,提升开发效率,正在改变程序员的工作习惯。技术的进步使得开发者能更快从0到1实现项目,市场空间大幅扩展。《[Anthropic新整的MCP协议是个啥?](https://mp.weixin.qq.com/s/blITLCReqoJKCogLc7kbfg)》Anthropic推出的MCP(Model Content Protocol)协议旨在规范和优化人工智能模型生成内容的方式。该协议关注内容的安全性、合规性以及对用户的透明度,旨在提供一种更为标准化的方法来管理AI模型输出。通过MCP,Anthropic希望提升用户体验,同时减少潜在的误用和风险。

Others are asking
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,主要用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。其具有以下特点和优势: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现已成为一个开放协议,越来越多的企业和开发者开始采用。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 提供了更简单的集成方式。 但如果应用场景需要精准且严格受控的交互方式,传统 API 可能更合适,比如在需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性等场景。 若要开始使用 MCP,可参考以下快速集成步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说较容易理解。通过简单案例,如让 AI 根据输入自动规划并调用 MCP 服务端,给本地电脑创建文件并写入一句话,可对其有初步且正确的认知。
2025-04-18
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像为 AI 模型量身定制的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说容易理解,就像开发中常见的 MySQL 一样。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 能简化这一过程。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制;更偏好紧耦合以提升性能;希望最大化交互的可预测性。 要开始使用 MCP,可按以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总之,MCP 让 AI 与外部数据、工具的连接变得更加标准化和高效。
2025-04-14
mcp 的内容
MCP(模型上下文协议)是一种创新的开放协议,由 Anthropic 公司在 2024 年 11 月推出并开源。 其主要特点和功能包括: 统一了交互标准,是链接所有 AI 应用与工具的桥梁,兼容所有 AI 应用。 具有三大功能:工具(Tools),底层使用 Function call 实现,与 OpenAI 格式兼容;资源(Resources),为 AI 提供参考信息;提示词(Prompts),预设对话模板。 主要接口路径包括获取工具列表、调用工具、获取资源列表、读取资源内容、获取提示词列表、获取提示词内容等。 转换步骤包括客户端向 MCP 服务器请求工具列表,将 MCP 工具定义转换为 Function call 格式,发送 Function Call 定义给 LLM,接收 LLM 生成的 Function call,将 Function call 转为 MCP 工具调用,发送工具调用结果给 LLM。 MCP 就像一个“转接头”或“通用插座”,其核心作用是统一不同外部服务,通过标准化接口与 AI 模型对接。它与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 最早由 Anthropic 公司开发,目的是帮助 AI 模型(如 Claude)更容易地连接工具和数据源,现在已成为一个开放协议,被越来越多的企业和开发者采用,逐渐成为 AI 与工具互动的新标准。 官方文档:https://modelcontextprotocol.io/
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
如何开发MCP
MCP(模型上下文协议)是由 Anthropic 在 2024 年 11 月推出并开源的一项创新标准。它就像一个“转接头”或“通用插座”,其核心作用是统一不同的外部服务(如 Google Drive、GitHub、Slack、本地文件系统等),通过标准化接口与 AI 模型对接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,MCP 更适合需要上下文理解的场景,而传统 API 更适合需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性的场景。 开发 MCP 的步骤如下: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的 CS 架构,对于有编程基础的同学来说容易理解。开发 MCP 前需要进行环境安装,包括下载并安装 Python(官网:https://www.python.org/),安装 uv(借助 uv 进行虚拟环境创建和依赖管理,它是一个 Python 依赖管理工具,采用 Rust 编写,兼有创建虚拟环境和包管理工具的功能,可以平替 pip,venv)。
2025-04-12
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
如何通过提交的pdf文件自动生成流程图。
目前在 AI 领域,直接通过提交的 PDF 文件自动生成流程图还存在一定的技术挑战。通常情况下,需要先将 PDF 文件中的内容进行解析和提取,然后利用专门的流程设计工具或软件来手动创建流程图。但随着技术的不断发展,未来可能会有更便捷和高效的方法来实现这一功能。
2025-04-13
需要优化工作规程文件,使用什么AI工具比较好
以下是一些可用于优化工作规程文件的 AI 工具及相关建议: 业务流程优化方面: 流程挖掘软件是一种常用的 AI 工具,它可以自动分析业务流程,并识别改进点。您需要先利用该工具分析当前的业务流程,收集关于业务流程的数据,如任务执行时间、顺序、参与者等,然后对收集到的数据进行分析,自动识别流程中的瓶颈、重复步骤或效率低下的环节。基于分析结果重新设计和优化流程,并将新设计的流程实施到日常业务中,持续监控其表现,根据实施结果和员工反馈进一步调整和优化流程。 文章润色方面: 以下是一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。 创建工作流文件方面: 可以使用 Cursor 和 MCP 来创建工作流文件。首先创建一个名为 workflow.md 的文件,写入明确的指令,避免模糊表达,任务越细分越好。然后在对话窗口中告诉 AI 各个文件的对应关系。在使用过程中,Cursor 会请求您允许使用 MCP,记得点“同意”,经过多轮同意后,它会开始执行生成页面。需要注意的是,必须要用 claude sonnet 3.7,3.5 版本实测不行。
2025-04-01
我想ai生成综述论文,但是ai会编造莫须有的文章 我想提供60个论文文件 ai又会偷懒不阅读所有文件 如何处理
目前对于您所提到的问题,还没有直接有效的通用解决方案。但您可以尝试以下几种方法来改善这种情况: 1. 对于 AI 编造莫须有文章的问题,您可以在输入提示中明确强调要求基于真实可靠的信息和数据进行生成,并对生成的内容进行仔细审查和验证。 2. 针对 AI 偷懒不阅读所有提供的 60 个论文文件的情况,您可以尝试将文件进行分类和整理,突出关键信息和重点内容,以便 AI 更容易识别和处理。同时,也可以尝试使用更先进、具有更强处理能力的 AI 工具。 需要注意的是,AI 技术仍在不断发展和完善中,可能无法完全满足您的所有需求,但通过不断的尝试和优化,有望获得更好的效果。
2025-03-19
长文本文件用哪个AI处理
对于处理长文本文件,以下是一些相关的 AI 工具和方法: 1. Whisper API:默认情况下仅支持小于 25MB 的文件。若文件更长,需将其分成小于 25MB 的块或使用压缩后格式。可使用 PyDub 开源 Python 软件包来拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。您还可以使用提示来提高 Whisper API 生成的转录质量,例如处理特定单词或缩略语的识别错误、保留分段文件的上下文、避免标点符号的省略等。 2. 通义千问的 Qwen2.51M 大模型:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。在上下文长度为 100 万 Tokens 的大海捞针任务中表现较好。对于更复杂的长上下文理解任务,可参考相关测试集。其优势包括长文本处理能力强、推理速度提升、上下文长度扩展等。开源平台有 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-03-18
金融业相关AI应用场景或AI技术介绍
在金融业中,AI 有以下应用场景和技术: 1. 风控和反欺诈:用于识别和阻止欺诈行为,降低金融机构的风险。 2. 信用评估:评估借款人的信用风险,帮助金融机构做出更好的贷款决策。 3. 投资分析:分析市场数据,辅助投资者做出更明智的投资决策。 4. 客户服务:提供 24/7 的客户服务,回答客户常见问题。 例如,Hebbia 获得近 1 亿美元 B 轮融资,其 AI 技术能够一次处理多达数百万份文档,在短时间内浏览数十亿份包括 PDF、PowerPoint、电子表格和转录内容等,并返回具体答案,主要面向金融服务公司,如对冲基金和投资银行,同时也适用于律师事务所等其他专业领域。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
介绍下即梦3.0的模型,为什么很多人说它好用
即梦 3.0 模型具有以下显著特点,这也是很多人认为它好用的原因: 1. 超真实: 质感提升:图片不再有磨皮过度的“假脸感”、“油腻感”,皮肤纹理、物品材质更自然。 情绪到位:人物表情不再僵硬或眼神空洞,能表现出更细腻、更有感染力的情绪,如开心、严肃、沮丧落泪等。 2. 超高清:默认能生成 1K 分辨率图片,还支持到 2K,画面更清晰,结构更准确。 3. 超专业: 影像大师:能更精准地理解电影类型(如恐怖片、爱情片、公路片)和镜头语言(如大特写、鱼眼镜头、俯视视角)。 动漫高手:动漫风格更多元(日漫、国漫、皮克斯风等),细节更丰富,色彩更统一,告别“抠图感”。 文字设计:不仅能准确生成大字、小字,还支持超多字体(细体、粗体、可爱体、毛笔字、涂鸦体等),排版更专业、更有设计感。 4. 超智能:能更好地理解自然语言描述,简单的指令也能出好图,支持“一句话 P 图”的自然语言编辑能力。 此外,即梦 3.0 在文字处理方面表现出色,不仅提升了大字的准确性、设计感和丰富度,还大幅解决了小字的稳定性问题。相比之下,在中文场景中,其他模型可能存在一些局限性,如 GPT4o 可能存在不识别某些中文字、难以生成特别设计感的字体等问题。而即梦 3.0 作为中文 AI 绘图模型,在中文的表现性上对国内用户更有用且友好。
2025-04-14
waytoagi 简单介绍
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能学习的中文知识库和社区平台: 旨在为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI 融合了独特的设计元素: 选择彩虹色作为主要的配色方案,代表多样性、包容性和创新。 标志性图案是一只鹿,与“路”谐音,象征着通往 AGI 未来的道路,寓意优雅与智慧。 选用简洁现代的非衬线字体,强调信息传达的清晰度和直接性。 此外,WaytoAGI 里有个离谱村: 是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易、更感兴趣。 参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。 离谱村是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,是灵魂的避风港,激励着每一个生命体发挥其无限的想象力,创造属于自己的独特生活方式。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14