Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

在使用openai api的时候,同一轮对话,需要每次都传system prompt吗?可以利用什么session id来减少system prompt的显示调用吗

Answer

在使用 OpenAI API 进行同一轮对话时,系统提示的使用并非每次都必须传递。系统提示在对话中类似于一个过滤器,大语言模型在回应新提示前会自动应用。一般来说,系统提示包括任务定义、输出格式和操作边界等部分,以确保大语言模型清楚任务、按要求格式化回答以及明确不应采取的行为。

另外,OpenAI 还推出了 Stateful API,开发者只需传入最新的对话记录,大模型会结合该记录和其维护的历史记录依据上下文产生新内容。Stateful API 的实现机制类似于 KV Cache,能指数级降低大模型应用的开销,提升计算速度。例如,在不使用 cache 的情况下,使用 GPT-2 生成 1000 个 Token 将耗时 56 秒,而使用 cache 的耗时则被降低为 11 秒。可以预期 Stateful API 会采用类似于 KV Cache 的机制,缓存用户对话的历史记录,并在每次 API 调用中,使用增量信息结合服务端的历史记录生成文本,以此降低计算规模。

但关于是否可以利用 session id 来减少系统提示的显示调用,目前提供的知识库中未提及相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

我如何夺冠新加坡首届 GPT-4 提示工程大赛-翻译自宝玉

将以ChatGPT为例进行说明。[heading3]关于系统提示的术语解释[content]首先,我们来厘清几个术语:在讨论ChatGPT时,这三个术语“系统提示”、“系统消息”和“自定义指令”几乎可以互换使用。这种用法让许多人(包括我自己)感到混淆,因此OpenAI发表了一篇[文章](https://help.openai.com/en/articles/8234522-chat-completions-api-system-message-vs-custom-instructions-in-ui),专门解释了这些术语。简要总结如下:“系统提示”和“系统消息”是通过Chat Completions API编程方式交互时使用的术语。而“自定义指令”则是在通过[https://chat.openai.com/](https://chat.openai.com/)的用户界面与ChatGPT交互时使用的术语。尽管这三个术语表达的是相同的概念,但不必因术语的使用而感到困扰。下面我们将统一使用“系统提示”这一术语。现在,让我们一探究竟![heading3]什么是系统提示?[content]在对话中,每当您提出一个新的提示时,系统提示就像是一个过滤器,大语言模型会在回应您的新提示之前自动应用这一过滤器。这意味着在对话中每次大语言模型给出回应时,都会考虑到这些系统提示。系统提示一般包括以下几个部分:任务定义:确保大语言模型(LLM)在整个对话中清楚自己的任务。输出格式:指导LLM如何格式化其回答。操作边界:明确LLM不应采取的行为。这些边界是LLM治理中新兴的一个方面,旨在界定LLM的操作范围。例如,系统提示可能是这样的:每一部分对应的内容如下图所示:

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

对于OpenAI,目前的目标很明确:就是all in AGI,一切研究围绕着探索通往AGI的路径。而商业模式上也很简单:SaaS,直接给API,接口设计内部自己决定,付多少钱用多少,不想用就不用,这样省去了很多产品设计,marketing,BD的时间,伺候甲方的时间(有比较可靠的消息称即使Microsoft的Copilot等产品也是直接用的API,没有花功夫做太多的定制),整个公司可以集中精力开发AGI。有人可能说:不是啊,OpenAI不是还有ChatGPT的用户界面,手机端语音聊天,以及GPTs吗?但是仔细想想,这几个部分OpenAI可以说是「非常不用心」了。比如ChatGPT Plus是怎么自动融合搜索,图片生成,代码调用等工具的?单独做了一套深度优化?不,答案是OpenAI给了一个巨大的prompt,让模型自己去选。OpenAI是怎么和各种第三方插件结合的,是单独做了匹配和接口?不,答案是直接让这些plugins描述自己是什么,然后模型自己调用,至于调用得对不对那就是另外一件事情了。这里最典的是最近OpenAI怎么实现「记忆」的,给大家看看OpenAI的完整prompt(李博杰提供的,每个人可以诱导ChatGPT说出这些,OpenAI也不在乎):OpenAI直接用prompt让GPT-4调用bio这个工具记录需要记忆的内容(「to=xxx」是调用内部工具的语法,比如"to=python"是GPT调用code interpreter的方式)。然后每次新的对话开始时,在prompt的最后直接加上所有之前的记录的内容(## Model Set Context)。就是这么简单粗暴。

OpenAI将在11月6日举办首次开发者大会

而使用Stateful API,开发者只需要传入最新的对话记录,大模型会结合该记录和其维护的历史记录,依据上下文产生新的文内容(图3)。Altman表示,基于Stateful API,用户不用再“Pay for the same tokens from the same conversation history again and again”。图3:Stateful OpenAI API其次,Stateful API的实现机制应类似于KV Cache。在Statful API的信息披露之后,X(Twitter)上就有开发者马上意识到Stateful API,类似于KV Cache机制,将有可能指数级(O(N^2 => O(N))降低大模型应用的开销(图4)。图4 Stateful API类似于KV CacheKV Cache旨在提升大模型的计算速度。在Transformer中,Key和Value用于计算“scaled dot-product attention”,其以矩阵的形式存在。在以GPT为代表的Decoder大模型中,没有KV Caching的情况下,每次计算新attention都会重复计算该token前面所有tokens的attentions,导致算力和时间的浪费。而KV Cache的作用就是缓存前面的计算结果,让大模型专注于新token的计算,下图详细比对了无/有KV Caching的计算过程(图5):图5:没有KV Caching vs有KV Caching**KV Cache对计算速度提升明显,例如,在不使用cache的情况下,使用GPT-2生成1000个Token将耗时56秒,而使用cache的耗时则被降低为11秒。可以预期的是,Stateful API应该会采用类似于KV Cache的机制,缓存用户对话的历史记录,并在每次API调用中,使用增量信息结合服务端的历史记录生成文本,并以此降低计算规模(图6)。图6:计算规模,Stateful vs Stateless

Others are asking
PromptEnhancer
以下是关于 PromptEnhancer 的相关信息: PromptEnhancer 是一款自动生成/优化 prompt 的工具。 在对最流行的“AI 提示生成器”的比较分析中,针对“作为一名 IT 学生,为我的高级项目提出想法;我想要关于学生帮助大学学生的想法”这一测试种子提示,PromptEnhancer 在实验中的成绩为 4 胜 0 负。 相关链接:https://flowgpt.com/prompt/sbuYQwUq_8v8fafR5zJuB
2025-04-20
能画技术路线图的prompt
以下是关于能画技术路线图的 prompt 相关内容: Midjourney Bot 的 Prompt 类型: 基本 Prompts:可以只是一个单词、短语或表情符号。 高级 Prompts:包括一个或多个图片 URL、多个文本短语以及一个或多个参数。其中,图片 URL 始终位于 prompt 的最前面,以影响完成结果的风格和内容。提示文字是对希望生成的图像的文本描述,精心编写的提示有助于生成惊艳的图像。参数可以改变生成图片的方式,需放在提示语的末尾。 ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,目前 Union 版本不建议权重调太高,结束时间也需注意。 Prompt engineering(提示工程): 开发测试用例:定义任务和成功标准后,创建多样化的测试用例,包括典型示例和边界情况,以确保提示具有鲁棒性。 设计初步提示:制定初步提示,概述任务定义、良好响应的特征及必要上下文,添加规范输入和输出的示例供参考。 根据测试用例测试提示:使用初步提示将测试用例输入,评估模型响应与预期输出和成功标准的一致性,使用一致的评分标准进行系统性的性能评估。
2025-04-19
整理会议纪要的prompt
以下是一些关于整理会议纪要的 prompt: 【?会议精要】整理生成高质量会议纪要,保证内容完整、准确且精炼。 会议记录员:将会议浓缩成简明摘要,包括讨论主题、重点内容、行动事项。 CEO 秘书会议纪要:专注于整理和生成高质量的会议纪要,确保会议目标和行动计划清晰明确。需严格遵守信息准确性,不对用户提供的信息做扩写,仅做信息整理,将一些明显的病句做微调。
2025-04-15
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
对于用cursor来开发,有没有好好用prompt来使cursor变得更加好用
以下是关于如何用 prompt 使 Cursor 变得更好用的相关内容: 在 prompt 方面,Devin 有一个特别有帮助的文档(https://docs.devin.ai/learnaboutdevin/prompting),它会教您什么样的 prompt 在与 Devin 沟通时最有效,比如明确定义成功的标准,如跑通某个测试或访问某个链接能对得上等。将同样的原则应用到 Cursor 中,会发现 Cursor 变得聪明很多,能自主验证任务完成情况并进行迭代。 Cursor 在生成单测方面表现出色。相对 GPT 等工具,Cursor 解决了上下文缺失和难以实现增量更新的问题。它可以向量化整个代码仓库,在生成单测代码时能同时提供目标模块及对应的上下游模块代码,生成结果更精确。例如,使用适当的 Prompt 能返回基于 Vitest 的结果,调整成本较小。 Cursor 支持使用.cursorrules 文件设定项目的系统提示词,针对不同语言可设定不同的 Prompt。@AIChain 花生做了一个 Cursor 插件解决提示语管理问题,可选择不同的.cursorrules 文件,还可从 https://cursor.directory/ 和 https://cursorlist.com/ 寻找提示词。此外,还有一个提示语小技巧,给已有的提示语追加上特定规则,可使模型在搜索资源和思考时默认使用英语,回复转换成中文,或更灵活地根据提问语言进行回复。
2025-04-14
有什么 prompt engineering 的好材料
以下是一些关于 prompt engineering 的好材料: 文本类 Prompt 网站: Learning Prompt:授人以渔,非常详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney,网址: FlowGPT:国外做的最大的 prompt 站,内容超全面,更新快,网址: ChatGPT Shortcut:ChatGPT 提示词网站,提供了非常多使用模板,简单修改即可指定输出,网址: ClickPrompt:轻松查看、分享和一键运行模型,创建 Prompt 并与其他人分享,网址: Prompt Extend:让 AI 帮你自动拓展 Prompt,网址: PromptPerfect:帮你自动优化提示词,你可以看到优化前后的对比,网址: PromptKnit:The best playground for prompt designers,网址: PromptPort(支持中文):AI Prompt 百科辞典,其中 prompts 是聚合了市场上大部分优质的 prompt 的词库,快速的寻找到用户需求 prompt,网址: Prompt Engineering Guide:GitHub 上点赞量非常高的提示工程指南,网址: Claude 3.7 核心提示词相关: 您可以在中找到他们往期开源的更多系统提示词,涵盖了从 Claude 3 Haiku 到现在所有的模型。 一泽 Eze 整理的相关学习资料: Claude 3.5 sonnet 内置提示词详细拆解与解说:https://mp.weixin.qq.com/s/0R4zgH3Gc5TAfAPY1oJU4A Anthropic 的三位顶级提示工程专家聊《如何当好的提示词工程师》:https://mp.weixin.qq.com/s/VP_auG0a3CzULlf_Eiz1sw 往期 Claude AI 核心系统提示词:https://docs.anthropic.com/en/releasenotes/systemprompts Claude 官方用户手册 提示工程指南:https://docs.anthropic.com/en/docs/buildwithclaude/promptengineering/overview Claude 官方提示库:https://docs.anthropic.com/en/promptlibrary/library 基本概念: 简单的提示词可以包含指令、问题等信息,也可以包含上下文、输入或示例等详细信息,以更好地指导模型获得更好的结果。 当使用 OpenAI 的聊天模型时,可以使用 system、user 和 assistant 三个不同的角色来构建 prompt,system 有助于设定 assistant 的整体行为。 提示工程就是探讨如何设计出最佳提示词,用于指导语言模型帮助我们高效完成某项任务。
2025-04-12
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
mermaid编辑工具
Mermaid 是一款用于创建各种图表的工具,它支持多种类型的图表,如思维导图、时序图、UML 图等。以下是关于 Mermaid 编辑工具的一些信息: 可以使用 Mermaid 语法创建简单的思维导图,例如:GRAPH CODE 判断 大语言模型 自然语言处理 机器学习 深度学习 执行 文本分析 情感分析 算法优化 神经网络 结束。 可用于将代码转化为图表,如在“code to diagram”的搜索结果中,Mermaid 不仅支持十几种图像,还提供了在线编辑器,生成器的网址为:https://mermaid.live/ 。 可以通过 ChatGPT 结合自然语法生成 Mermaid 图形语法,生成流程包括确定制作目标、通过自然语言描述逻辑、在线校验测试是否成功。例如,要求 ChatGPT 基于给定内容生成高速公路上车辆切入场景的时序图。
2025-03-25
"如何使用Midjourney"
以下是关于如何使用 Midjourney 的详细介绍: 1. “人物参考”功能: 在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;在强度 0(`cw 0`)时,只会关注面部,适合改变服装、发型等。 2. 喂图: 意义:从第一张起,可反复上传优化图片,来达到自己想要的图片。 过程:上传单张或者一组(4 到 5 张)到 Midjourney 输入框里,有两种方法: 点击输入框前方的加号上传。 鼠标选择图片或一组拖到软件里,回车,点击上传后的图片,在左下角“在浏览器打开链接“打开后复制浏览器上的链接,返回主界面,在输入框里“/imagine:粘贴刚才复制的链接+所描述的关键词。 常见问题:小白新手找不到输入框频道。解决方法是找到 Midjourney 白色图标,点击进去,找带数字结尾的频道,或者在自己社区里添加 Midjourney 机器人。 3. Midjourney V6 更新角色一致性命令“cref”: 官方说明:在提示后键入`cref URL`,其中 URL 是一个角色图像的网址。可以使用`cw`来修改参考的“强度”。 用途:这个功能在使用由 Midjourney 图像制作的角色时效果最佳,不适用于真实的人物/照片。 高级功能:可以使用多个 URL 来混合信息/来自多个图像的角色。 在网页 alpha(测试最初版)上的操作:拖动或粘贴图像到想象栏,有三个图标。选择这些图标设置它是一个图像提示,一个风格参考,还是一个角色参考。按住 Shift 键选择一个选项以将图像用于多个类别。 需注意,虽然 MJ V6 还处于 alpha 测试阶段,但这个和其他功能可能会突然更改,V6 官方 beta 版本即将推出。
2025-03-24
midjourney图怎么 放大
在 Midjourney 中,放大图像的方法如下: 放大(Upscale)将图像尺寸加倍: 精细放大(Subtle):放大图像同时尽量保持原样。 创意放大(Creative):在放大的同时会调整或改变图像中的某些细节。 操作时,您可以点击相应的按钮进行放大。例如,在生成的图像中,点击上面的 U 1 4 即可放大一张图。 另外,使用当前默认模型版本的中途图像的默认尺寸为 1024 x 1024 像素。您可以使用 upscale 工具将文件大小增加到 2048 x 2048 或 4096 x 4096 像素。在网络浏览器中打开 Midjourney 图像,或从 Midjourney.com 下载它们以获得最大文件大小。 需要注意的是,如果没看到放大相关的按钮,可能有以下原因: 1. 该图像已经在 Discord 中生成最满意的一张,不可再放大。 2. 在 More options 文字里没打上相应的对勾。
2025-03-21
Stable Diffusion、MidJourney、DALL·E 这些生成式AI工具有什么区别
Stable Diffusion、Midjourney 和 DALL·E 这三个生成式 AI 工具主要有以下区别: 1. 开源性:Stable Diffusion 是开源的,用户可以在任何高端计算机上运行。 2. 学习曲线:Midjourney 的学习曲线较低,只需键入特定的提示就能得到较好的结果。 3. 图像质量:Midjourney 被认为是 2023 年中期图像质量最好的系统。 4. 应用场景:Stable Diffusion 特别适合将 AI 与来自其他源的图像结合;Adobe Firefly 内置在各种 Adobe 产品中,但在质量方面落后于 DALL·E 和 Midjourney。 5. 训练数据:这些工具都是使用大量的内容数据集进行训练的,例如 Stable Diffusion 是在从网络上抓取的超过 50 亿的图像/标题对上进行训练的。 6. 所属公司:DALL·E 来自 OpenAI。 在使用方面: 1. Stable Diffusion 开始使用需要付出努力,因为要学会正确制作提示,但一旦掌握,能产生很好的结果。 2. DALL·E 已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠,但图像质量比 Midjourney 差。 3. Midjourney 需要 Discord,使用时需键入特定格式的提示。
2025-03-20
midjourney的平替
以下是关于 Midjourney 的相关信息: Midjourney V6 更新角色一致性命令“cref”:您可以仅描述环境、背景等,Midjourney 会努力将角色融入场景中,但可能会有不连贯的结果,此时可尝试更高值的样式化(如s 800)。场景唯一提示示例:在一个空荒地下,乌云密布的暴风雨天空下。cref https://my.image.host/joisstanding.jpg 。注意该命令适用于单一主题、单一角色的图像,若要添加多个角色,需使用平移按钮。将多个角色放置到单个画布上的最佳方法是使用平移功能将新画布与现有画布拼接,每个新画布部分都有自己的 cref。具体操作:1.使用/settings 将 Remix 打开,然后选择;2.选择包含第二个字符的图像,用 U 将其从网格中分离出来;3.寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个都会在现有图像中添加新图像,选择新角色前进方向并输入提示及其cref,缝合新画布,比如描绘两个人的开场提示。 训练 Midjourney 的 prompt:style<4a,4b or 4c>可在 Midjourney 模型版本 4 之间切换。stylize<number>或s<number>参数影响 Midjourney 默认美学风格应用于 Jobs 的强度。还有uplight 和upbeta 等参数。默认值(模型版本 5)包括纵横比、混沌、质量、种子、停止、样式化等,各有相应的默认值和范围。纵横比大于 2:1 为实验性的,可能产生不可预测的结果。不同模型版本和参数具有兼容性。
2025-03-18
可灵api
ComfyUI GeminiAPI 相关内容如下: 用途:用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装: 1. 将此存储库克隆到 ComfyUI 的 custom_nodes 目录。 2. 安装所需依赖: 如果使用 ComfyUI 便携版。 如果使用自己的 Python 环境。 通过 ComfyUI Manager 安装: 1. 在 ComfyUI 中安装并打开 ComfyUI Manager。 2. 在 Manager 中搜索“Gemini API”。 3. 点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。 输入参数: prompt(必填):描述想要生成的图像的文本提示词。 api_key(必填):Google Gemini API 密钥(首次设置后会自动保存)。 model:模型选择。 width:生成图像的宽度(512 2048 像素)。 height:生成图像的高度(512 2048 像素)。 temperature:控制生成多样性的参数(0.0 2.0)。 seed(可选):随机种子,指定值可重现结果。 image(可选):参考图像输入,用于风格引导。 输出: image:生成的图像,可以连接到 ComfyUI 的其他节点。 API Respond:包含处理日志和 API 返回的文本信息。 使用场景: 创建独特的概念艺术。 基于文本描述生成图像。 使用参考图像创建风格一致的新图像。 基于图像的编辑操作。 API key 获取:在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,访问 https://aistudio.google.com/apikey?hl=zhcn 。 温度参数说明:温度值范围为 0.0 到 2.0,较低的温度(接近 0)生成更确定性、可预测的结果,较高的温度(接近 2)生成更多样化、创造性的结果,默认值 1.0 平衡确定性和创造性。 注意事项: API 可能有使用限制或费用,请查阅 Google 的官方文档。 图像生成质量和速度取决于 Google 的服务器状态和您的网络连接。 参考图像功能会将您的图像提供给 Google 服务,请注意隐私影响。 首次使用时需要输入 API 密钥,之后会自动存储在节点目录中的 gemini_api_key.txt 文件中。
2025-04-14
grok API能用在什么软件上
Grok API 可以用在以下软件上: 1. 扣子工作流:可以用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,还能参考相关教程将扣子接入微信机器人,但有微信封号风险。 2. 沉浸式翻译:由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,比如沉浸式翻译这个网页翻译工具。 3. 手机类 APP:比如通过快捷方式接入 Siri。 此外,xAI 发布的 Grok 3 API 提供了多个模型版本,如 grok3beta、mini、fast 等,满足不同场景需求,上下文窗口达 131K,支持图像输入输出,但当前不支持联网或实时访问外部网页与数据。
2025-04-12
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
api
以下是关于 API 的相关信息: ComfyUI GeminiAPI: 用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装:将存储库克隆到 ComfyUI 的 custom_nodes 目录,安装所需依赖(根据使用的 ComfyUI 版本有所不同)。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,搜索“Gemini API”并点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。输入参数包括必填的 prompt、api_key,可选的 model、width、height、temperature、seed、image 等。输出包括生成的图像和 API Respond。使用场景包括创建独特的概念艺术、基于文本描述生成图像、使用参考图像创建风格一致的新图像、基于图像的编辑操作。 API 与速率限制: 速率限制是 API 对用户或客户端在指定时间内访问服务器的次数施加的限制。 速率限制的原因包括防止滥用或误用 API、确保公平访问、管理基础设施负载等。 OpenAI 的 API 提供商在 API 使用方面有限制和规定,不同用户类型可获得不同的速率限制,若请求超过限制将返回错误响应。 关于 API 的一般性描述: API 就像是一个信差,接受一端的请求,告诉系统用户想要做的事情,然后把返回的信息发回。 学习使用 GPT 的 Action 工作流包括:确定想要的 GPT 及是否需要外部数据,寻找 API 文档或开发 API 以及编写 Action 里的 Schema 和 Prompt。 对 Action 感兴趣可以从系统了解和学习 API 相关知识、在网上寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续前进。
2025-03-29
API是什么意思有什么用
API 是应用程序编程接口(Application Programming Interface)的缩写。它是软件之间进行交互和数据交换的接口,使得开发者能够访问和使用另一个程序或服务的功能,而无需了解其内部实现的详细信息。 API 就像是一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 APIKey 是一种实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序尝试通过 API 与另一个程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。APIKey 帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,以及防止未经授权的访问。 要使用 API,通常需要去官网寻找 API 文档,API 的规则一般会写在网站的开发者相关页面或 API 文档里。例如,TMDB 的搜索电影 API 文档的网址是:https://developer.themoviedb.org/reference/searchmovie 。在 API 文档中,会详细告知如何使用相应的 API,包括请求方法、所需的查询参数等。您可以在文档中进行相关配置和操作。 登录网站寻找 Apikeys 创建新的密钥(记得保存好、不要泄露)。使用 APIKEY 可能需要单独充值,一共有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys 创建好您的 key 后记得复制保存。 2. 如果觉得充值比较麻烦可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA ,这个充值起来方便一些,模型选择也可以多一些。
2025-03-29
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
OpenAI Operator, Anthropic Claude Coder
以下是关于 OpenAI Operator 和 Anthropic Claude Coder 的相关信息: 2025 年 Agent 领域的发展预测: 从对话助手到行动型智能体是 2025 年 Agent 技术的主流发展方向之一。计算机操作能力取得突破,传统大模型更多充当聊天助手,而 2025 年的突破在于让 Agent 直接“动手”操作电脑和网络环境。 Anthropic 在 2024 年底发布的 Claude 3.5 Sonnet 首次引入“Computer Use”能力,让 AI 像人一样通过视觉感知屏幕并操作鼠标键盘,实现了 AI 自主使用电脑的雏形。 OpenAI 在同期推出了代号“Operator”的 Agent 及其核心模型“计算机使用智能体”(CUA),使 GPT4 获得直接与图形界面交互的能力。CUA 通过强化学习将 GPT4 的视觉能力与高级推理相结合,训练 AI 可像人一样点击按钮、填表、滚动页面等。在 OpenAI 的测试中,CUA 在浏览器任务基准 WebArena 和 WebVoyager 上分别达到 38.1%和 87%的成功率,后者已接近人类水平。 其他相关信息: 宝玉日报 1 月 25 日: Deepseek 提示词框架包含四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。 Anthropic 的 Claude 可通过屏幕截图获取计算机视觉信息,计算光标移动的像素坐标,并执行点击、滚动等操作。 OpenAI Operator 利用虚拟主机和 Chrome 浏览器,通过 CUA 实现网页实时操作,支持复杂任务导航。 主要的大语言模型: OpenAI 系统包括 3.5 和 4 等,3.5 模型在 11 月启动了当前的 AI 热潮,4.0 模型在春季首次发布,功能更强大。新的变种使用插件连接到互联网和其他应用程序。Code Interpreter 是一个非常强大的 ChatGPT 版本,可以运行 Python 程序。未为 OpenAI 付费只能使用 3.5。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型,连接到互联网。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是 PaLM 2 模型。 Anthropic 发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口。
2025-04-01
openai官方文档
以下是关于 OpenAI 官方文档的相关信息: 对于刚入门学习提示词的朋友,建议先有一个大模型帐号并熟悉与之对话的方式。推荐的国产平替有 。 学习 prompt 必须看 OpenAI 的官方文档,相关链接有: 。 在 OpenAI 官方的说明文档(Documentation)中,为用户提供了若干项策略以帮助更好地使用 ChatGPT。例如策略一:编写清晰的说明,即在询问中包含详细信息以获得更多相关答复。因为大模型无法在有限信息中“猜测”用户意图,所以提问时不要惜字如金,多说一些内容、多提供一些信息能有效提高回复的质量和丰富性。文中还列举了多个例子进行说明。
2025-03-29
OpenAI o1、Claude Sonnet 3.7、Gemini 2.0 pro 哪个 AI 搜索能力更强?
OpenAI o1、Claude Sonnet 3.7 和 Gemini 2.0 pro 在不同方面具有各自的优势,难以简单地比较哪个的搜索能力更强。 OpenAI o1 推理能力强,适合作为架构师或算法顾问。 Claude Sonnet 3.7 擅长长上下文任务,在快速生成代码与网页设计方面表现出色。 Gemini 2.0 pro 长上下文支持较好(2M Tokens),适合代码反编译与混淆代码分析。 具体的搜索能力表现还会受到应用场景和具体任务的影响。
2025-03-21
openai deep research使用技巧
OpenAI 的 Deep Research 功能能够整合多源信息,进行复杂的信息查询与分析,并生成专业水准的报告,同时详细展示思考和搜索过程。目前,该功能仅支持文本输出,未来还将增加嵌入式图片、数据可视化等功能。使用入口为在 ChatGPT 输入框中选择「Deep Research」模式,输入问题后即可开始体验。 在 OpenAI 推出「Deep Research」功能一天后,Hugging Face 的工程师迅速联合推出了免费开源的版本 Open Deep Research,能自主浏览网页、滚动页面、处理文件,以及基于数据进行计算。使用入口为前往 Demo 网站(opendeepresearch.vercel.app)体验。 Deep Research 让 AI 自动完成多步骤研究任务,快速分析海量信息并生成专业报告,具备自动化信息汇总、文献引用与多领域适用性,适合科研、工程、金融等行业。目前向 Pro 用户开放,未来将扩展至 Plus 和 Team 用户,并提供更强大的功能。 该智能体基于优化版 OpenAI o3 模型,结合网络浏览和 Python 分析能力,实现高效研究,适用于科学、政策、工程等高强度知识工作,也能帮助购物者做复杂决策。Pro 用户已可使用,后续将逐步向 Plus、Team 和企业用户开放。
2025-03-08
openAI的deep research有哪些缺陷
OpenAI 的 Deep Research 存在以下一些缺陷: 1. 具有滞后性,在某些信息上无法做到及时更新。 2. 存在信息混乱的问题,无法完全替代人类的深度思考。
2025-03-03
Monica和Openai的记忆功能是如何让大模型产生记忆的?是什么原理?
大模型的记忆功能实现方式较为复杂,不同的模型可能有所不同。 OpenAI 的模型中,大模型 LLM 扮演了“大脑”的角色,其记忆功能可能通过“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构来实现。但需要注意的是,对于 ChatGPT 这类模型,实际上其本质上并没有直接的记忆功能。它能理解之前的交流内容,是因为每次将之前的对话内容作为新的输入重新提供给模型。这种记忆功能并非由大型模型直接实现,而是通过在别处进行存储来达成。 如果对话内容过长,可能会影响模型的整体性能。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,通常只能进行总结。
2025-03-01