Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

你能调用deepseekR1的API吗?

Answer

DeepSeek-R1 的 API 调用步骤如下:

  1. 首先到 DeepSeek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。
  2. 早期 DeepSeek 有赠送额度,如果没有赠送的余额,可以选择去充值。支持美元和人民币两种结算方式,以及各种个性化的充值方式。
  3. 创建一个 API key,注意,API key 只会出现一次,请及时保存下来。
  4. 接下来,下载 Cursor(https://www.cursor.com/),或者 VSCode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。
  5. 以 Cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roo-cline。
  6. 安装完后,打开三角箭头,就可以看到 Roo-Cline,选中并点击齿轮,进入设置,依次设置:
    • API Provider:选择 DeepSeek。
    • API Key:填入已创建的 key。
    • 模型:选择 DeepSeek-reasoner。
    • 语言偏好设置。
    • 小贴士:记得把 High-Risk 选项都打开,这样 AI 才能帮您自动生成文件。
  7. 最后做完所有不要忘记点击 Done 保存修改。
  8. 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
Content generated by AI large model, please carefully verify (powered by aily)

References

Yeadon:cursor杀手!?超强性价比开发方案曝光!DeepSeek-R1+Roo-Cline

首先到deepseek的官网(https://www.deepseek.com/)进入右上角的API开放平台早期deepseek是有赠送额度,如果像我一样没有赠送的余额,可以选择去充值支持美元和人民币两种结算方式,以及各种个性化的充值方式创建一个API key注意,API key只会出现一次请及时保存下来[heading3]设置代码编辑器[content]接下来,下载cursor(https://www.cursor.com/),或者vscode(https://code.visualstudio.com/),都没问题,只要代码编辑器可以下载插件即可接下来,以cursor作为代码编辑器为例,下载安装后,在插件页面搜索并安装Roo-cline安装完后,我们打开这个三角箭头,就可以看到Roo-Cline选中Roo-Cline,并点击齿轮,进入设置,依次设置配置基本参数:API Provider:选择DeepSeekAPI Key:填入已创建的key模型:选择DeepSeek-reasoner语言偏好设置小贴士:记得把High-Risk选项都打开,这样AI才能帮你自动生成文件哦!✨最后做完所有不要忘记点击Done保存修改在聊天框输入产品需求tips:输入需求后点击这个blingbling的星星,优化提示词最终,得到想要的结果,deepseek-r1的加持下基本上是一遍过,各种特效效果交互逻辑也都正确。画面也算优雅,交互效果也不错,是我想要的。

XiaoHu.AI日报

快手发布Q3财报:日活跃用户达4亿,总营收同比增长11.4%。AI视频产品“可灵”用户超500万,生成内容达5100万视频及1.5亿图片。商业化成果显著:可灵AI会员付费体系和API服务月流水超千万。可灵AI 1.5支持1080P视频创作,多种AI生成能力上线。?[https://x.com/imxiaohu/status/18](https://x.com/imxiaohu/status/1859238590712254755)[59238590712254755](https://x.com/imxiaohu/status/1859238590712254755)4⃣️?DeepSeek发布R1系列推理模型DeepSeek R1通过强化学习训练,推理中结合反思与验证,支持超长思维链推理。在数学、代码、复杂逻辑任务上媲美o1-preview,且在评测中表现超越GPT-4o。Lite预览版:表现强大,但因基座模型限制无法完全释放潜力,仅支持网页使用。正式版计划完全开源。?在线体验:[http://hat.deepseek.com](http://hat.deepseek.com)?[https://x.com/imxiaohu/status/1859234622598758400](https://x.com/imxiaohu/status/1859234622598758400)5⃣️?️ElevenLabs推出语言对话AI代理功能

XiaoHu.AI日报

快手发布Q3财报:日活跃用户达4亿,总营收同比增长11.4%。AI视频产品“可灵”用户超500万,生成内容达5100万视频及1.5亿图片。商业化成果显著:可灵AI会员付费体系和API服务月流水超千万。可灵AI 1.5支持1080P视频创作,多种AI生成能力上线。?[https://x.com/imxiaohu/status/18](https://x.com/imxiaohu/status/1859238590712254755)[59238590712254755](https://x.com/imxiaohu/status/1859238590712254755)4⃣️?DeepSeek发布R1系列推理模型DeepSeek R1通过强化学习训练,推理中结合反思与验证,支持超长思维链推理。在数学、代码、复杂逻辑任务上媲美o1-preview,且在评测中表现超越GPT-4o。Lite预览版:表现强大,但因基座模型限制无法完全释放潜力,仅支持网页使用。正式版计划完全开源。?在线体验:[http://hat.deepseek.com](http://hat.deepseek.com)?[https://x.com/imxiaohu/status/1859234622598758400](https://x.com/imxiaohu/status/1859234622598758400)5⃣️?️ElevenLabs推出语言对话AI代理功能

Others are asking
可灵api
ComfyUI GeminiAPI 相关内容如下: 用途:用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装: 1. 将此存储库克隆到 ComfyUI 的 custom_nodes 目录。 2. 安装所需依赖: 如果使用 ComfyUI 便携版。 如果使用自己的 Python 环境。 通过 ComfyUI Manager 安装: 1. 在 ComfyUI 中安装并打开 ComfyUI Manager。 2. 在 Manager 中搜索“Gemini API”。 3. 点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。 输入参数: prompt(必填):描述想要生成的图像的文本提示词。 api_key(必填):Google Gemini API 密钥(首次设置后会自动保存)。 model:模型选择。 width:生成图像的宽度(512 2048 像素)。 height:生成图像的高度(512 2048 像素)。 temperature:控制生成多样性的参数(0.0 2.0)。 seed(可选):随机种子,指定值可重现结果。 image(可选):参考图像输入,用于风格引导。 输出: image:生成的图像,可以连接到 ComfyUI 的其他节点。 API Respond:包含处理日志和 API 返回的文本信息。 使用场景: 创建独特的概念艺术。 基于文本描述生成图像。 使用参考图像创建风格一致的新图像。 基于图像的编辑操作。 API key 获取:在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,访问 https://aistudio.google.com/apikey?hl=zhcn 。 温度参数说明:温度值范围为 0.0 到 2.0,较低的温度(接近 0)生成更确定性、可预测的结果,较高的温度(接近 2)生成更多样化、创造性的结果,默认值 1.0 平衡确定性和创造性。 注意事项: API 可能有使用限制或费用,请查阅 Google 的官方文档。 图像生成质量和速度取决于 Google 的服务器状态和您的网络连接。 参考图像功能会将您的图像提供给 Google 服务,请注意隐私影响。 首次使用时需要输入 API 密钥,之后会自动存储在节点目录中的 gemini_api_key.txt 文件中。
2025-04-14
grok API能用在什么软件上
Grok API 可以用在以下软件上: 1. 扣子工作流:可以用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,还能参考相关教程将扣子接入微信机器人,但有微信封号风险。 2. 沉浸式翻译:由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,比如沉浸式翻译这个网页翻译工具。 3. 手机类 APP:比如通过快捷方式接入 Siri。 此外,xAI 发布的 Grok 3 API 提供了多个模型版本,如 grok3beta、mini、fast 等,满足不同场景需求,上下文窗口达 131K,支持图像输入输出,但当前不支持联网或实时访问外部网页与数据。
2025-04-12
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
api
以下是关于 API 的相关信息: ComfyUI GeminiAPI: 用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装:将存储库克隆到 ComfyUI 的 custom_nodes 目录,安装所需依赖(根据使用的 ComfyUI 版本有所不同)。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,搜索“Gemini API”并点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。输入参数包括必填的 prompt、api_key,可选的 model、width、height、temperature、seed、image 等。输出包括生成的图像和 API Respond。使用场景包括创建独特的概念艺术、基于文本描述生成图像、使用参考图像创建风格一致的新图像、基于图像的编辑操作。 API 与速率限制: 速率限制是 API 对用户或客户端在指定时间内访问服务器的次数施加的限制。 速率限制的原因包括防止滥用或误用 API、确保公平访问、管理基础设施负载等。 OpenAI 的 API 提供商在 API 使用方面有限制和规定,不同用户类型可获得不同的速率限制,若请求超过限制将返回错误响应。 关于 API 的一般性描述: API 就像是一个信差,接受一端的请求,告诉系统用户想要做的事情,然后把返回的信息发回。 学习使用 GPT 的 Action 工作流包括:确定想要的 GPT 及是否需要外部数据,寻找 API 文档或开发 API 以及编写 Action 里的 Schema 和 Prompt。 对 Action 感兴趣可以从系统了解和学习 API 相关知识、在网上寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续前进。
2025-03-29
API是什么意思有什么用
API 是应用程序编程接口(Application Programming Interface)的缩写。它是软件之间进行交互和数据交换的接口,使得开发者能够访问和使用另一个程序或服务的功能,而无需了解其内部实现的详细信息。 API 就像是一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 APIKey 是一种实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序尝试通过 API 与另一个程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。APIKey 帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,以及防止未经授权的访问。 要使用 API,通常需要去官网寻找 API 文档,API 的规则一般会写在网站的开发者相关页面或 API 文档里。例如,TMDB 的搜索电影 API 文档的网址是:https://developer.themoviedb.org/reference/searchmovie 。在 API 文档中,会详细告知如何使用相应的 API,包括请求方法、所需的查询参数等。您可以在文档中进行相关配置和操作。 登录网站寻找 Apikeys 创建新的密钥(记得保存好、不要泄露)。使用 APIKEY 可能需要单独充值,一共有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys 创建好您的 key 后记得复制保存。 2. 如果觉得充值比较麻烦可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA ,这个充值起来方便一些,模型选择也可以多一些。
2025-03-29
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
豆包如何切换deepseekR1大模型
要切换到 DeepseekR1 大模型,您可以参考以下步骤: 1. 对于新闻播报自动化工作流: 首先,输入新闻链接,系统会自动提取核心内容。添加网页图片链接提取插件,获取网页里的图片。 接着,利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。 然后,使用链接读取节点提取文字内容,并在提取链接后面接上一个大模型节点,使用 DeepseekR1 模型生成有吸引力的口播内容。 注意,DeepseekR1 基础版本限额使用,可在专业版手动接入。手动接入时,先点击 https://www.volcengine.com/experience/ark?utm_term=202502dsinvite&ac=DSASUQY5&rc=A6NPZ83H 领取 375 万 R1 模型的 tokens(手机用户可扫描二维码),再到 https://www.volcengine.com/,根据相关截图自行接入推理点。为了后续批处理,需将输出格式设置为 Array<String>格式。 2. 对于飞书多维表格相关操作: 可参考教程“”。 例如,在制作【AI 书单】时,可把图书的封面图复制到多维表格里,AI 能自动识别【书名和作者】;用字段捷径【AI 搜索】找到豆瓣评分;用字段捷径【自定义 AI 自动填充】识别图书的内容概述、适用人群、推荐理由;用【信息提取】分别把主题、核心观点、故事梗概、适用人群、推荐理由提取出来。
2025-02-27
deepseekR1解析
DeepSeek R1 相关的内容主要包括以下方面: 1. 1 月 27 日: 拾象的闭门学习讨论,涉及 DeepSeek 在全球 AI 社区的意义,包括技术突破与资源分配策略,突出了其长上下文能力、量化商业模式以及对 AI 生态系统的深远影响,重点分析了创新路径及中国在 AI 追赶中的潜力与挑战。 关于 DeepSeek 的研究和思考,深入解析其在架构和工程上的创新,如 MoE、MLA、MTP 和 FP8 混合精度训练,强调不是简单模仿,而是在工程和应用平衡中达成高效优化,对开源与闭源竞争进行深刻反思,并指出 AI 生态未来发展方向。 7B Model and 8K Examples: 如何用 8000 个示例炼出自我反思 AI。 2. 1 月 28 日: 拾象的讨论,包括 DeepSeek 对全球 AI 社区的影响,如技术突破、资源分配及其长上下文能力与商业模式,分析了中国在 AI 追赶过程中的潜力与挑战,探讨了创新路径及深远生态影响。 关于 DeepSeek 的研究与思考,重点解析在 MoE、MLA、MTP、FP8 混合精度训练等方面的创新,指出并非简单模仿,而是通过工程与应用的平衡实现高效优化,对开源与闭源的竞争作了深入反思,并展望了 AI 生态未来发展方向。 小模型、大数据:7B Model+8K 示例的自我反思 AI。 3. 1 月 26 日: DeepSeek R1 System Prompt,介绍了其身份、操作指南及能力范围,突出在中英双语处理上的专业性和对中国法律的合规性,强调 AI 辅助输出需以人类主导为前提,并通过特定标签实现逻辑清晰的响应。 公众号文章通过虚构故事结合真实案例,讲述 AI 在日常工作中的效率提升作用,描述 AI 如何分析意图、生成任务说明,并拆分复杂任务成结构化内容,强调最终成果需人工审核、拼接,并以人类主导全流程。
2025-02-06
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
单独调用知识库
以下是关于知识库的相关内容: 创建并使用知识库: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 Coze 打造 AI 私人提效助理实战知识库: 在上述步骤中创建好知识库后,就可以在智能体中配置知识库了。在 coze 主页,个人空间 > 项目开发中,打开一个需要添加知识库的智能体,可以选择配置“文本”、“表格”、“照片”三种知识库。下面以配置文本知识库作为例子。点击加号,选择在 1.3 中已经提前创建好的知识库,点击添加。下一步就是配置提示词,让智能体自动使用知识库回答问题。在进行大概地描述以后,点击右上角“优化”,可以自动优化提示词,获得更好的结果。最后,在网页最右方的“预览与调试”中,测试智能体是否正常调用知识库。 集合 Deepseek 提示词方法论: DeepSeek R1 提示词系统完全指南: 三、进阶控制技巧: 1. 思维链引导:分步标记法(请逐步思考:1. 问题分析→2. 方案设计→3. 风险评估)、苏格拉底式追问(在得出最终结论前,请先列举三个可能存在的认知偏差)。 2. 知识库调用:领域限定指令(基于 2023 版中国药典,说明头孢类药物的配伍禁忌)、文献引用模式(以 Nature 2022 年发表的论文为参考,解释 CRISPR Cas9 最新突破)。 3. 多模态输出。 四、高级调试策略: 1. 模糊指令优化: 问题类型:宽泛需求,修正方案:添加维度约束,示例对比:原句:"写小说"→修正:"创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构"。 问题类型:主观表述,修正方案:量化标准,示例对比:原句:"写得专业些"→修正:"符合 IEEE 论文格式,包含 5 项以上行业数据引用"。 2. 迭代优化法: 1. 首轮生成:获取基础内容。 2. 特征强化:请加强第三段的技术细节描述。 3. 风格调整:改用学术会议报告语气,添加结论部分。 4. 最终校验:检查时间逻辑一致性,列出可能的事实性错误。
2025-04-09
知识库的批量创建和调用
以下是关于知识库的批量创建和调用的详细信息: 使用知识库: 在 Bot 内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量、最小匹配度和调用方式(自动调用或按需调用)。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传表格数据: API 方式: 1. 在表格格式页签下,选择 API,然后单击下一步。 2. 单击新增 API。 3. 输入网址 URL 并选择数据的更新频率,然后单击下一步。 4. 输入单元名称或使用自动添加的名称,然后单击下一步。 5. 配置数据表信息后,单击下一步。 5.1 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 5.2 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 6. 查看表结构和数据,确认无误后单击下一步。 7. 完成上传后,单击确定。 自定义方式: 1. 在表格格式页面下,选择自定义,然后单击下一步。 2. 输入单元名称。 3. 在表结构区域添加字段,单击增加字段添加多个字段。 4. 设置列名,并选择指定列字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 5. 单击确定。 6. 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 创建文本型知识库: 目前支持 5 种导入类型:本地文档、在线数据、notion、飞书、自定义。 在线数据: 自动采集:支持从单个页面或批量从指定网站中导入内容。 添加单个页面的内容: 1. 添加方式:选择添加单个。 2. 更新频率:选择是否自动更新指定页面的内容及自动更新的频率。 3. 网址 URL:输入要采集内容的网址。 批量添加网页内容: 1. 添加方式:选择批量添加。 2. 根地址或网站地图:输入要批量添加的网页内容的根地址或 sitemap 地址,然后单击导入。 3. 导入成功后,单击确认。 手动采集:支持标注要采集的内容,内容上传成功率高。使用手动采集方式,需要先安装浏览器扩展程序。安装步骤,参考。 1. 在新增 URL 页面,选择手动采集。 2. 在弹出的页面输入要采集内容的网址,然后单击确认。 3. 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 4. 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。
2025-04-09
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
coze上提取视频文案的插件有哪些?都是怎么调用的
以下是关于在 coze 上提取视频文案的插件及调用方法: 1. 进入 coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 2. 在插件的 URL 部分,填入通过 ngrok 随机生成的 https 的链接地址。 3. 配置输出参数和 message 输出。 4. 测试后发布插件。 需要注意的是: 1. 如果在生产环境中已有准备好的 https 的 api,可直接接入。 2. 本案例中使用的是 coze 国内版,且案例中的 ngrok 仅供娱乐,在生产环境中勿用。
2025-04-01
如何综合运用插件、工作流、知识库,搭建满足各种需求的智能体,尤其是调用多个智能体,组成像Manus这样的工具?
要综合运用插件、工作流、知识库搭建满足各种需求的智能体,尤其是调用多个智能体组成类似 Manus 的工具,需要了解以下内容: 插件:插件如同一个工具箱,里面可放置一个或多个工具,称为 API。扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容的 API 及能处理多种任务的模型。若平台现有插件不符合需求,还可自行制作添加所需 API。 工作流:工作流类似可视化拼图游戏,可将插件、大语言模型、代码块等功能组合,创建复杂稳定的业务流程。工作流由多个节点组成,开始和结束节点有特殊作用,不同节点可能需要不同信息,包括引用前面节点信息或自行设定信息。 知识库:可上传私有文件作为回答参考。 智能体:智能体是对自定义操作的封装,用于解决特定场景问题。以 ChatGPT 的 GPTs 为例,包括描述作用和回复格式的提示词、作为回答参考的知识库、请求第三方 API 获取实时数据的外挂 API 以及个性化配置等。 例如,在“竖起耳朵听”的智能体中添加了插件和工作流的相关设置。创建智能体时,输入人设等信息,并配置工作流。但需注意,如工作流中使用的插件 api_token 为个人 token 时,不能直接发布,可将其作为工作流开始的输入,由用户购买后输入使用再发布。 此外,在 AI 搜索中,可预置 after_answer 钩子,将请求大模型的上下文和回答发给第三方插件整理成文章或思维导图等格式同步到第三方笔记软件。全流程中有很多节点可做 Hook 埋点,多个插件构成可插拔架构,常用功能可抽离成标准插件用于主流程或辅助流程,还可自定义智能体 Agent 等。
2025-03-29