Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Claude3/grok3/Gemini使用API调用时消耗token的价格是?

Answer

Claude 3 的 API 调用价格为:每百万输入 token 0.25 美元,每百万输出 token 1.25 美元。可以处理和分析 400 起最高法院案件或 2500 张图片只需 1 美元。相关链接:https://x.com/imxiaohu/status/1768284259792691366?s=20

Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

?Xiaohu.AI日报「3月14日」✨✨✨✨✨✨✨✨1⃣️?Claude 3 Haiku API发布:最快、性价比最高的型号。每百万输入token 0.25美元,每百万输出token 1.25美元。可以处理和分析400起最高法院案件或2500张图片只需1美元。?https://x.com/imxiaohu/status/1768284259792691366?s=202⃣️?Starship第三次飞行测试:SpaceX星际飞船成功发射进入预定轨道。重达5000吨,成为有史以来最大的飞行器。?https://x.com/imxiaohu/status/1768273741262520394?s=203⃣️?Midjourney禁止生成拜登和特朗普的图片:以应对美国总统选举,禁止生成拜登和特朗普的虚假图片。测试发现尝试生成特定图片时会收到警告。CEO David Holz强调不想在政治言论上花费太多时间。?https://x.com/imxiaohu/status/1768258401518362625?s=204⃣️?零一万物大模型开放API接口:1000,000 tokens最低6元。?https://x.com/imxiaohu/status/1768253143098540518?s=205⃣️?Muse Pro:一款专为iPad设计的AI实时画图应用:实现实时绘画,每一笔触即时转化为数字画面。支持图像快速增强和放大,适合直接打印。主要特色包括实时绘画、图像增强、直观设计与高级图层、自定义画笔。

XiaoHu.AI日报

?Xiaohu.AI日报「3月14日」✨✨✨✨✨✨✨✨1⃣️?Claude 3 Haiku API发布:最快、性价比最高的型号。每百万输入token 0.25美元,每百万输出token 1.25美元。可以处理和分析400起最高法院案件或2500张图片只需1美元。?https://x.com/imxiaohu/status/1768284259792691366?s=202⃣️?Starship第三次飞行测试:SpaceX星际飞船成功发射进入预定轨道。重达5000吨,成为有史以来最大的飞行器。?https://x.com/imxiaohu/status/1768273741262520394?s=203⃣️?Midjourney禁止生成拜登和特朗普的图片:以应对美国总统选举,禁止生成拜登和特朗普的虚假图片。测试发现尝试生成特定图片时会收到警告。CEO David Holz强调不想在政治言论上花费太多时间。?https://x.com/imxiaohu/status/1768258401518362625?s=204⃣️?零一万物大模型开放API接口:1000,000 tokens最低6元。?https://x.com/imxiaohu/status/1768253143098540518?s=205⃣️?Muse Pro:一款专为iPad设计的AI实时画图应用:实现实时绘画,每一笔触即时转化为数字画面。支持图像快速增强和放大,适合直接打印。主要特色包括实时绘画、图像增强、直观设计与高级图层、自定义画笔。

不懂代码,也能 3 小时打造并上架一款 AI 插件

纯靠词生卡Prompt完成卡片样式输出,固然是非常灵活的AI智能体方案。但倘若在最终落地产品中,还是每次都依赖大模型重新生成卡片的样式代码,反而会消耗大量的输出token,耗时且不经济。此外,在实际使用中,用户通常只固定使用一到两个常用模板,对自定义样式的需求并不频繁。所以在开发AI Share Card插件的过程中,我选择将模板生成功能设计为固定的代码组件,而让大模型专注于内容总结的功能。如果用户需要选择其他模板,则通过增加更多模板选项or自定义模板代码功能实现。如此一来,对AI大模型的要求就不会动辄需要像Claude 3.5 sonnet那样高不可攀的顶级模型。处理纯文本总结任务,仅需13B或更小参数的模型,加上精调的提示词,就能产生很好的结果。一旦明确模型的任务,AI API服务的选型要求就清晰了:1.较长的上下文窗口:内容总结类任务需要较大的上下文长度;2.响应速度要快、并发支持要高:以便在多人使用插件时,保持良好的性能表现;3.免费或尽量低价:减少模型token费用。经过简单调研后,AI Share Card选用的是GLM-4-flash(没恰饭。截至2024-12,长达128k的上下文窗口,完全免费的调用价格,200 RPM高并发支持,还要什么自行车?~)

Others are asking
claude3.7
Claude 3.7 Sonnet 深夜上线,在 AI 编程领域带来了重大突破。 其文笔在推理能力加持下表现出色,写出的内容更具真人感,剧情逻辑更顺畅。编程能力是其最突出的优势,非推理模型加持下的 Claude 3.5 已能与 o1 抗衡,Claude 3.7 更是远超其他模型。在遵循指令、一般推理、多模态能力和自主编码方面表现优异,加推理后在数学和科学方面进步显著。 让 Claude 3.7 Sonnet 玩宝可梦红这款经典游戏,它展现出很强的 AI 代理能力,成功挑战三个道馆馆主并赢得徽章,相比之前版本有质的飞跃。 此外,还有类似于 Cursor 的 Claude Code 这一 AI 编程工具,可搜索和阅读代码、编辑文件、编写和运行测试、提交并推送代码到 GitHub 及使用命令行工具,其手册详细,限量预览可查看:https://docs.anthropic.com/en/docs/agentsandtools/claudecode/overview 。对于初涉 AI 编程或无代码知识者,建议选择 Trae 或 Cursor 。 AI 圈进化迅速,Claude 3.7 Sonnet 再次拔高模型上限,这是 AI 时代令人兴奋又充满挑战的部分。 作者:卡兹克 投稿或爆料,请联系邮箱:wzglyay@gmail.com
2025-03-03
如何免费使用claude3.7
Claude 3.7 Sonnet 目前已经在 Claude.ai 平台上线,Web、iOS 和 Android 用户皆可免费体验。对于希望构建自定义 AI 解决方案的开发者,可以通过 Anthropic API、Amazon Bedrock 以及 Google Cloud 的 Vertex AI 进行访问。目前“扩展思考”模式还没有上线,所有人均可免费使用。此外,tree 接入 Claude 3.7 可免费使用,国内版 Claude 3.7 下周上线。在标准模式和扩展思考模式下,Claude 3.7 Sonnet 的价格与其前代产品相同:3 美元/百万输入 token,15 美元/百万输出 token——这其中包括了思考 token 的费用。
2025-02-28
Claude3.5免费的模型和付费的模型有什么区别
Claude 3.5 的免费模型和付费模型主要有以下区别: 1. 功能与性能:付费的 Opus 模型在某些方面可能具有更强大的功能和更出色的性能。 2. 访问权限:所有新用户有 14 天的 Pro 试用期,可访问所有 Pro 功能。14 天后未升级的用户将恢复为 Hobby 计划。 3. 快速请求:默认情况下,服务器会尝试给所有用户快速的高级模型请求,但高峰期时,用完快速高级积分的用户可能会被移到慢速池等待。若不想等待,可在设置页面添加更多请求。 4. 对话轮次:免费版本每小时的对话轮次有限制。 5. 费用:Pro 版本每月 20 美刀。 6. 注册要求:注册需要海外手机号。 7. 模型种类:免费用户可用 Claude 3 Sonnet 模型,订阅后可用 Opus 模型。
2024-10-26
Claude3 入口
Claude 3 是由 Anthropic 公司发布的 AI 模型系列,域名是 http://claude.ai ,包括 Haiku、Opus、Sonnet 三款模型。其具有高性能、多语言能力、突破性速度、视觉识别、减少错误率等特点。Opus 和 Sonnet 模型已上线,向全球 159 国开放,Haiku 模型即将推出。该系列模型提供实时反应,出色的多语言处理能力,减少错误拒绝并提升准确率,具有长期记忆能力。模型根据功能分别注重智能(Opus)、平衡(Sonnet)和速度(Haiku),并有明确的成本和适用场景。Claude 3 模型设计注重安全可靠,努力减少偏见,提高公正性和中立性,并已被评定为 AI 安全等级 2。在多个基准测试中取得了最先进的结果,在非英语语言的流畅度上有所提高,更适合全球受众。Claude 3 Opus 在推理、数学和编码方面设定了新的标准,Haiku 则是市场上最快速且成本最低的模型,同时具备视觉能力。通过多模态输入能力(文本输出)和工具使用(功能调用)提供了丰富的上下文和扩展用例。相关文档有简体中文版,且可编辑,但不要随便改动他人内容。Anthropic 公司宣称 Claude 3 全面超越 GPT4,具有多模态能力,推理能力和人类相当,速度更快更准确。其元数据包括标题、作者、链接、标签等。其核心观点与亮点在于介绍了模型家族在多方面的出色表现,并在安全性和社会影响方面进行了深入分析,致力于开发安全、负责任的 AI 系统,以支持多种应用场景。 您可以通过以下链接获取更多详细信息:https://wwwcdn.anthropic.com/de8ba9b01c9ab7cbabf5c33b80b7bbc618857627/Model_Claude_3.pdf
2024-09-28
grok3 有什么特点
Grok 3 具有以下特点: 1. 包含两个模型版本:Grok 3 和 Grok 3mini。 2. 在 AIME 和 GPQA 在内的基准测试中显著优于其他模型,在数学推理、代码处理、科学问题方面表现优秀。 3. 具备推理能力,在提供更多测试计算时间的情况下,优于 o1 和 R1。 4. 新增“Deep Search”能力,能深入了解用户目的,访问并交叉验证多个信息源,确保研究内容更准确,并公开执行搜索所采取的步骤。 5. 可以调用 Big Brain 功能,加强计算来解决问题。 6. 现场演示中能生成游戏设计方案。 7. 语音模式在大约一周内推出。 8. API 几周后推出。 9. 今天向所有 Premium+订阅者推出(IOS、网页版都有),完整版在网页版,APP 上的 Grok 3 有一定削弱。(还有单独会员叫:SuperGrok)今天所有该类用户都能用上。 10. Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3 。 在评测方面,Grok 3 在基准测试中领先,但与竞争模型差距不大,整体表现比其他模型高出约 1 2%。Andrej Karpathy 认为 Grok 3 + Thinking 比 DeepSeek R1 强一些,接近 OpenAI 顶级模型,在测试中成功解决了多个复杂问题,但“DeepSearch”能进行高质量的检索类问题回答,尚需改进。 地址:https://huggingface.co/smirki/UIGENT1Qwen7b
2025-02-26
grok3 ai什么时候可用
Grok 3 已于今天向所有 Premium+ 订阅者推出(包括 IOS 和网页版),完整版在网页版,APP 上的 Grok 3 有一定削弱。(还有单独会员叫:SuperGrok)今天所有该类用户都能用上。Grok 3 语音模式在大约一周内推出,Grok 3 API 几周后推出,Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3 。
2025-02-19
grok3 发布会亮点内容
Grok 3 发布会的亮点内容包括: 1. 包含两个模型版本:Grok 3 和 Grok 3mini。 2. 在 AIME 和 GPQA 在内的基准测试中显著优于其他模型,在数学推理、代码处理、科学问题方面表现优秀。 3. 具备推理能力,在提供更多测试计算时间的情况下,优于 o1 和 R1。 4. 今天向所有 Premium+订阅者推出(IOS、网页版都有),完整版在网页版,APP 上的 Grok 3 有一定削弱。 5. 新增“Deep Search”能力,能深入了解用户目的,访问并交叉验证多个信息源,确保研究内容准确,并公开执行搜索步骤。 6. 可以调用 Big Brain 功能加强计算来解决问题。 7. 现场演示中,Grok 3 可以生成游戏设计方案。 8. Grok 3 语音模式在大约一周内推出。 9. Grok 3 API 几周后推出。 10. Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3。
2025-02-19
可灵api
ComfyUI GeminiAPI 相关内容如下: 用途:用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装: 1. 将此存储库克隆到 ComfyUI 的 custom_nodes 目录。 2. 安装所需依赖: 如果使用 ComfyUI 便携版。 如果使用自己的 Python 环境。 通过 ComfyUI Manager 安装: 1. 在 ComfyUI 中安装并打开 ComfyUI Manager。 2. 在 Manager 中搜索“Gemini API”。 3. 点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。 输入参数: prompt(必填):描述想要生成的图像的文本提示词。 api_key(必填):Google Gemini API 密钥(首次设置后会自动保存)。 model:模型选择。 width:生成图像的宽度(512 2048 像素)。 height:生成图像的高度(512 2048 像素)。 temperature:控制生成多样性的参数(0.0 2.0)。 seed(可选):随机种子,指定值可重现结果。 image(可选):参考图像输入,用于风格引导。 输出: image:生成的图像,可以连接到 ComfyUI 的其他节点。 API Respond:包含处理日志和 API 返回的文本信息。 使用场景: 创建独特的概念艺术。 基于文本描述生成图像。 使用参考图像创建风格一致的新图像。 基于图像的编辑操作。 API key 获取:在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,访问 https://aistudio.google.com/apikey?hl=zhcn 。 温度参数说明:温度值范围为 0.0 到 2.0,较低的温度(接近 0)生成更确定性、可预测的结果,较高的温度(接近 2)生成更多样化、创造性的结果,默认值 1.0 平衡确定性和创造性。 注意事项: API 可能有使用限制或费用,请查阅 Google 的官方文档。 图像生成质量和速度取决于 Google 的服务器状态和您的网络连接。 参考图像功能会将您的图像提供给 Google 服务,请注意隐私影响。 首次使用时需要输入 API 密钥,之后会自动存储在节点目录中的 gemini_api_key.txt 文件中。
2025-04-14
grok API能用在什么软件上
Grok API 可以用在以下软件上: 1. 扣子工作流:可以用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,还能参考相关教程将扣子接入微信机器人,但有微信封号风险。 2. 沉浸式翻译:由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品可以用来填 APIKEY 调用的场景,比如沉浸式翻译这个网页翻译工具。 3. 手机类 APP:比如通过快捷方式接入 Siri。 此外,xAI 发布的 Grok 3 API 提供了多个模型版本,如 grok3beta、mini、fast 等,满足不同场景需求,上下文窗口达 131K,支持图像输入输出,但当前不支持联网或实时访问外部网页与数据。
2025-04-12
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
api
以下是关于 API 的相关信息: ComfyUI GeminiAPI: 用于在 ComfyUI 中调用 Google Gemini API。 安装说明: 手动安装:将存储库克隆到 ComfyUI 的 custom_nodes 目录,安装所需依赖(根据使用的 ComfyUI 版本有所不同)。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,搜索“Gemini API”并点击安装按钮,安装完成后重启 ComfyUI。 节点说明: Gemini 2.0 image:通过 Gemini API 生成图像的节点。输入参数包括必填的 prompt、api_key,可选的 model、width、height、temperature、seed、image 等。输出包括生成的图像和 API Respond。使用场景包括创建独特的概念艺术、基于文本描述生成图像、使用参考图像创建风格一致的新图像、基于图像的编辑操作。 API 与速率限制: 速率限制是 API 对用户或客户端在指定时间内访问服务器的次数施加的限制。 速率限制的原因包括防止滥用或误用 API、确保公平访问、管理基础设施负载等。 OpenAI 的 API 提供商在 API 使用方面有限制和规定,不同用户类型可获得不同的速率限制,若请求超过限制将返回错误响应。 关于 API 的一般性描述: API 就像是一个信差,接受一端的请求,告诉系统用户想要做的事情,然后把返回的信息发回。 学习使用 GPT 的 Action 工作流包括:确定想要的 GPT 及是否需要外部数据,寻找 API 文档或开发 API 以及编写 Action 里的 Schema 和 Prompt。 对 Action 感兴趣可以从系统了解和学习 API 相关知识、在网上寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续前进。
2025-03-29
API是什么意思有什么用
API 是应用程序编程接口(Application Programming Interface)的缩写。它是软件之间进行交互和数据交换的接口,使得开发者能够访问和使用另一个程序或服务的功能,而无需了解其内部实现的详细信息。 API 就像是一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 APIKey 是一种实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序尝试通过 API 与另一个程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。APIKey 帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,以及防止未经授权的访问。 要使用 API,通常需要去官网寻找 API 文档,API 的规则一般会写在网站的开发者相关页面或 API 文档里。例如,TMDB 的搜索电影 API 文档的网址是:https://developer.themoviedb.org/reference/searchmovie 。在 API 文档中,会详细告知如何使用相应的 API,包括请求方法、所需的查询参数等。您可以在文档中进行相关配置和操作。 登录网站寻找 Apikeys 创建新的密钥(记得保存好、不要泄露)。使用 APIKEY 可能需要单独充值,一共有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys 创建好您的 key 后记得复制保存。 2. 如果觉得充值比较麻烦可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA ,这个充值起来方便一些,模型选择也可以多一些。
2025-03-29
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
gemini-2.5目前是什么水平
Gemini 2.5 是一款全能思考模型,具有以下特点和优势: 多领域达到 SOTA 水平,逻辑、代码、任务处理能力大幅提升。 支持 100 万 tokens 上下文,具备强大的阅读能力。 统一架构原生多模态支持,图文音码协同处理,并非外挂而是原生融合。 您可以通过以下链接获取更多详细信息:https://www.xiaohu.ai/c/xiaohuai/googlegemini25proexperimental
2025-04-13
怎么使用gemini
使用 Gemini 的方法如下: 1. 申请 API key:在申请您的 API key,并将其填到 api_key.ini 中。该文件位于插件根目录下,默认名字是 api_key.ini.example,初次使用需将文件后缀改为.ini。用文本编辑软件打开,在 google_api_key=后面填入您的 API key 并保存。 2. 节点选项说明: api:使用的 Api。目前只有"geminiprovision"和"googlegemini"选项。 token_limit:生成提示词的最大 token 限制。 exclude_word:需要排除的关键词。 replace_with_word:替换 exclude_word 的关键词。 3. 使用方式: 通过 API 调用(需要一定技术基础)。 在 Google AI Studio 中使用:这是一个免费的在线平台。 登录方法: 第一步:打开浏览器访问 https://aistudio.google.com/prompts/new_chat 或下载 Gemini 应用(Android 或 iOS)。 第二步:登录您的 Google 账户。 第三步:在 model 选项处选择 Gemini 2.0 Flash Experimental 模型。 操作步骤: 上传图片。 输入指令,例如“把衣服改成蓝色”或者“给狗狗加个墨镜”等清晰明确的描述。 点击运行按钮等待处理结果。若不满意可修改指令再次尝试。 此外,Gemini 还具备实时视频功能,打开完整的 Gemini Live 界面,开启视频流后,界面右下角的按钮可切换到前置摄像头,能实时分析手机摄像头捕捉到的画面并回答相关问题。但此功能会在 3 月下旬作为谷歌 One AI 高级计划的一部分,向 Gemini 高级订阅用户逐步推送。
2025-04-11
阶跃星辰、通义千问、Gemini三个视频理解模型哪个收费更便宜
以下是阶跃星辰、通义千问、Gemini 三个视频理解模型的收费情况: 阶跃星辰:输入价格为 0.005~0.015 元/千 tokens,输出价格为 0.02~0.07 元/千 tokens。 通义千问:Qwenvlplus 模型调用价格为 0.008 元/千 tokens,训练价格为 0.03 元/千 tokens。 Gemini 未提及收费信息。 综上,从已有的信息来看,通义千问的收费相对可能更便宜,但具体还需根据您的使用情况和需求来判断。
2025-04-10
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
Gemini是用什么训练的
Gemini 是在 Google 的 TPU AI 加速器上训练的,似乎没有使用英伟达的 GPU。Google 还推出了全新的 Cloud TPU v5p 和 AI Hypercomputer 超级计算机,将加速 Gemini 的开发,使 AI 模型的训练更快。 Cloud TPU v5p 是目前 Google 最强大、可扩展和灵活的 AI 加速器。它在 TPU v4 的基础上提供了超过 2 倍的 FLOPS(浮点运算次数/秒)和 3 倍的高带宽内存(HBM)。TPU v5p 可以比前一代 TPU v4 更快地训练大型语言模型(LLM),对于嵌入密集型模型,其训练速度比 TPU v42 快 1.9 倍。TPU v5p 的可扩展性是 TPU v4 的 4 倍。 AI Hypercomputer 是一个突破性的超级计算机架构,它采用了集成的系统,包括性能优化的硬件、开放软件、领先的机器学习框架,以及灵活的消费模型。通过系统级协同设计来提高 AI 训练、调优和服务的效率和生产力。具有性能优化的计算、存储和网络硬件,建立在超大规模数据中心基础设施之上,利用高密度占地面积、液体冷却和 Jupiter 数据中心网络技术。通过开放软件使开发者能够调整、管理和动态编排 AI 训练和推理工作负载。提供了一系列灵活和动态的消费选择,包括传统的承诺使用折扣(CUD)、按需定价和现货定价,以及为 AI 工作负载量身定制的消费模型。 Gemini 模型是在一个既包含多模态又包含多语言的数据集上进行训练的。预训练数据集使用来自网络文档、书籍和代码的数据,并包括图像、音频和视频数据。使用 SentencePiece 分词器,发现在整个训练语料库的大样本上训练分词器可以改善推断的词汇,并进而提高模型性能。对所有数据集进行过滤,使用启发式规则和基于模型的分类器,还进行安全过滤以删除有害内容。从训练语料库中筛选出评估集。在训练过程中进行分阶段训练,通过增加领域相关数据的权重来改变混合组合,直到训练结束。
2025-03-26