Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

100 万 tokens 什么概念

Answer

100 万 tokens 具有以下重要意义和影响:

  • 算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力经历了从 Shannon 1948 提出的 2-gram 语言模型、到 1990 年代和 2000 年代的现代 n-gram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token 的发展历程。
  • 产品视角:长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化。
  • 具体应用:Gemini1.5 支持 100 万 token,可以一次性处理大量信息,比如 1 小时的视频,11 小时的音频,超过 30,000 行代码或超过 700,000 个单词的代码库。Claude-2-100 k 模型的上下文上限是 100k Tokens,即 100000 个 Token。ChatGPT-16 k 模型的上下文上限是 16k Tokens,即 16000 个 Token;ChatGPT-4-32 k 模型的上下文上限是 32k Tokens,即 32000 个 Token。Token 限制同时对一次性输入和一次对话的总体上下文长度生效,当达到上限时,会遗忘最前面的对话。若想直观查看 GPT 如何切分 token,可以打开[https://platform.openai.com/tokenizer]。此外,英文的 Token 占用相对于中文较少,因此很多中文长 Prompt 会被建议翻译成英文设定,然后要求中文输出。
Content generated by AI large model, please carefully verify (powered by aily)

References

Gemini1.5笔记 | 100万token上下文意味着什么

算法视角:更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能……对越来越长的上下文进行数据建模的能力follow了这个发展历程:从Shannon 1948提出的2-gram语言模型、到1990年代和2000年代的现代n-gram模型(5个上下文token),2010年代的循环神经网络(RNN)达到数百个token(Jozefowicz等),到2023年Anthropic将上下文扩展到几十万token。产品视角:长上下文意味着LLM理解能力增强。从提示词到RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和RAG,到大模型的超长下文,机器越来越像人了。提示词和RAG正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。One more thing:在公众号发送“1.5",获取Gemini1.5技术报告的中英文版。-END-

Gemini1.5笔记 | 100万token上下文意味着什么

原创李光华DavidLee David的AI全景图2024-02-25 18:58北京原文地址:https://mp.weixin.qq.com/s/JO3LrZTN0haIr6cNOAXhxAGemini1.5在2月15日的更新非常重磅,不然也不会触发OpenAI武器库中的Sora发布。继续践行Learn in public精神,分享一下当时看Gemini blog和技术报告的笔记。[heading3]1、Gemini1.5相比于Gemini1.0的主要更新:[content]1.5 Pro的质量与1.0 Ultra相当,而计算量却更少。支持100万token,可以以一次性处理大量信息:比如1小时的视频,11小时的音频,超过30,000行代码或超过700,000个单词的代码库。

小七姐:Prompt 喂饭级系列教程小白学习指南(三)

Claude-2-100 k模型的上下文上限是100k Token s,也就是100000个TokenChatGPT-16 k模型的上下文上限是16k Token s,也就是16000个TokenChatGPT-4-32 k模型的上下文上限是32k Token s,也就是32000个Token但似乎很多小伙伴不理解这个限制具体影响在哪些方面。所以我替你们问了一下GPT从回答可以看出,这个Token限制是同时对下述两者生效的:一次性输入一次对话的总体上下文长度,值得注意的是这个长度不是达到上限就停止对话,而是遗忘最前面的对话,你可以理解为鱼的记忆只有7秒,第8秒的时候他会忘记第1秒的事,第9秒的时候……(某些同学是不是恍然大悟了)三、怎么看我使用了多少Token如果我们想要直观的查看GPT是如何切分token的话,我们可以打开:[https://platform.openai.com/tokenizer](https://platform.openai.com/tokenizer)在下图可以看到实时生成的tokens消耗和对应字符数量请注意,GPT3和GPT3.5/4的token计算方式是不一样的。(GPT3用的编码是p50k/r50k,GPT3.5是cl100K_base)在这里值得注意的是,英文的Token占用相对于中文是少很多的,这也是为什么很多中文长Prompt会被建议翻译成英文设定,然后要求中文输出的原因。四、Token限制对Prompt编写有什么影响当你理解了前面的一、二、三之后,这个问题的答案应该已经在你脑子里有雏形了:

Others are asking
雪梅may的100天AI学习笔记
以下是关于雪梅 May 的 100 天 AI 学习笔记的相关内容: 作者介绍: 适合人群:适合纯 AI 小白,可参考日记了解学习路径。 学习模式:输入→模仿→自发创造。若对费曼学习法没自信,可尝试此模式。 学习内容:日记中的学习内容可能因 AI 节奏快而不适用,可去 waytoAGI 社区找感兴趣的最新内容。 学习时间:在半年多时间跨度中,有空时学习,并非每天依次进行。 学习状态:2024 年保持较好状态,不仅学 AI,还看了 33 本书。 费用情况:学习资源免费开源。 第九阶段:学以致用,开源分享 May 花时间复盘过去半年的学习日记,有很棒的发现。 学习路径:迈出第一步→大量学习输入→疯狂模仿→开始自己创造→学的越来越宽越来越杂→积累量变产生质变→开始分享。 特别是学习 coze 的路径:输入→模仿→自发创造,是真实实践得出的规律。 虽费曼学习法主张教会别人是最好学习方式,但开始时自学、输入为主。 现在有分享自信,写学习日记和感受已是分享,后续会有更多分享。 第十一阶段:寻找继续坚持下去的动力 从 24 年 5 月到 25 年 2 月,学完 100 天,仍未找到明确深耕方向。 学习中易遇瓶颈,需找正反馈,开源学习日记获加油是一种方式,还需更好的正反馈继续坚持。
2025-04-08
基于你的回答,对刚才所提到的三个部分再次展开详细叙述,要求每个部分的叙述字数不少于1000字
以下是对您提供的三个部分的详细叙述: 一、陶力文律师:拘灵遣将|不会写 Prompt(提示词)的道士不是好律师——关于律师如何写好提示词用好 AI 这件事 在这部分内容中,重点强调了律师在运用 AI 时写好提示词的重要性以及相关的写作技巧和方法。 首先,结构化内容组织至关重要。通过使用编号、子标题和列表等方式,能够使文章的逻辑更加清晰,便于读者快速把握重点和理解内容。例如,在阐述具体的法律条款和案例分析时,可以将相关要点有条理地罗列出来,增强文章的可读性。 其次,规定概述内容解读结语的结构能够使文章围绕主题展开,有始有终。在开始时对相关规定进行简要概括,让读者对整体框架有初步了解;然后对具体内容进行深入解读,帮助读者理解规定的内涵和适用范围;最后以结语总结,强调重点或提出展望。 再者,案例和挑战的结合能够使文章更具说服力和实用性。通过引入实际案例,能够让抽象的法律规定和理论变得具体可感,读者可以更直观地理解其在实际操作中的应用。同时,分析潜在挑战并提供解决方案,能够帮助律师在面对复杂情况时做出更明智的决策。 此外,结合法规和实际操作也是必不可少的。法规为律师的工作提供了依据和准则,而实际操作案例则展示了法规在具体情境中的应用。通过两者的结合,能够为律师提供全面、准确的指导,使其在运用 AI 时更加得心应手。 最后,商业术语的使用能够体现文章的专业性和针对性。在餐饮行业相关的法律写作中,运用特定的商业术语,能够准确传达信息,避免歧义,使文章更符合行业特点和需求。 二、AI 梦:一丹一世界(下)2025 年 2 月 8 日副本 这部分内容主要围绕摄影构图和色彩在 AI 绘画中的应用展开。 在摄影构图方面,三角形构图法以其独特的稳定性能够让画面更加平衡美观。一张照片可以同时满足多种构图法,且构图并非一定要严谨,关键是要能够突出主体、叙事并留白,避免画面杂乱。同时,中国化美学构图具有极简且丰富、主次分明的特点,虽然欣赏门槛低,但掌握运用起来有一定难度。重复构图作为一种强大的视觉工具,能够增强信息的传递。 在色彩方面,色彩在 AI 绘画中具有重要地位,是拉开作品差距的关键因素。色彩部分涵盖了色彩心理学、色环、配色方案等内容。色彩心理学表明颜色能够影响人的情绪,在市场营销等多个领域都有着重要作用。例如,年度流行色会影响相关的营销活动。不同的颜色如红、黄、蓝等能够表现出多种不同甚至相反的情绪。 三、AI 梦:一丹一世界(下)2025 年 2 月 8 日副本 此部分主要涉及 AI 炼丹直播共学课的相关内容。 会议开场简单介绍了会议的背景和基本情况。 在直播共学课的介绍中,提到了课程由未推 AGI 麦乐园和摩哒社区共同举办,教授使用 Lora 或 AI 生图软件生图,并回顾了首节课内容及回放渠道。同时,讲解了 AI 梦一单一世界比赛的要求,包括使用特定平台和底模训练 Lora,提交六张以上含多样画面的作品等。 在作图创作思路方面,分为三步:第一步确定主题,可依据 Lora 风格或通过制造反差来确定方向;第二步确定主体,如人、动物、建筑等,并进行角色设定的联想;第三步增添叙事感,通过设置有反差、反逻辑的画面和多个元素,避免画面单调无趣。 在图片创作思路之后,还探讨了图片构成因素中的构图。
2025-03-25
飞书多维表格中使用deepseek有100万tokens总量的限制?
飞书多维表格中使用 DeepSeek 有一定的 token 总量限制。DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动(算下来 5 元有 100 万)。即日起至北京时间 20250218 23:59:59,所有用户均可在方舟享受 DeepSeek 模型服务的价格优惠。 不同模型的 token 限制有所不同,例如 Claude2100 k 模型的上下文上限是 100k Tokens,即 100000 个 token;ChatGPT16 k 模型的上下文上限是 16k Tokens,即 16000 个 token;ChatGPT432 k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制同时对一次性输入和一次对话的总体上下文长度生效,不是达到上限就停止对话,而是会遗忘最前面的对话。 如果想直观查看 GPT 如何切分 token,可以打开,在其中可以看到实时生成的 tokens 消耗和对应字符数量。需要注意的是,英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。
2025-03-07
100天学ai
以下是关于 100 天学 AI 的相关内容: 作者介绍: 适合人群:适合纯 AI 小白,可参考此日记了解如何入手。 学习模式:输入→模仿→自发创造。若对费曼学习法没自信,可尝试此模式。 学习内容:日记中的学习内容因 AI 节奏快可能不适用,可去 waytoAGI 社区找感兴趣的最新内容。 学习时间:半年多时间跨度中有 100 天学习,并非依次每天进行,有空时学习。 学习状态:作者 2024 年学习状态好,不仅学 AI 还看了 33 本书。若觉得 100 天难做到,不必有压力,能学多少算多少。 费用情况:学习资源免费开源。 第九阶段:学以致用,开源分享 作者花时间复盘过去半年的学习日记,有很棒的发现。 学习路径:迈出第一步→大量的学习输入→疯狂的模仿→开始自己创造→学的越来越宽越来越杂→积累的量变产生质变→开始分享。 特别是学习 coze 的路径:输入→模仿→自发创造。 作者认为若能量更足、更有勇气,可更早输出倒逼输入,但不要为难自己,写学习日记和感受已是分享。 第十一阶段:寻找继续坚持下去的动力 作者从 24 年 5 月到 25 年 2 月学完 100 天,仍觉未找到明确深耕方向。 学习中易遇瓶颈,需找正反馈,开源学习日记获加油是一种方式,101 天后还需更好的正反馈方式。
2025-03-04
我是一名港口行业国有企业职工培训专员,想结合当前AI技术应用,出一份既涵盖管理人员序列、职能人员序列,又包括技能操作序列职工的,可直接执行的年度培训计划文案,字数不超过1000字。
以下是为您提供的一份结合当前 AI 技术应用的港口行业国有企业职工年度培训计划文案,希望对您有所帮助: 一、培训目标 提升管理人员、职能人员和技能操作序列职工在 AI 技术应用方面的知识和技能,增强企业整体竞争力。 二、培训对象 管理人员序列、职能人员序列、技能操作序列职工。 三、培训内容 1. 管理人员序列 AI 技术在企业管理中的应用趋势与案例分析。 基于 AI 的决策支持系统的使用与解读。 2. 职能人员序列 AI 办公软件的应用技巧,如自动化流程处理。 利用 AI 进行数据分析与报告生成。 3. 技能操作序列职工 港口智能化设备中 AI 技术的原理与操作维护。 基于 AI 的安全监控系统的操作与应急处理。 四、培训方式 1. 线上课程:利用网络平台提供相关课程,方便职工自主学习。 2. 线下讲座:邀请专家进行现场讲解和互动交流。 3. 实践操作:在实际工作场景中进行模拟训练和实际操作。 五、培训时间安排 1. 每月安排一次线上课程。 2. 每季度组织一次线下讲座。 3. 不定期进行实践操作培训,根据实际工作需求灵活安排。 六、培训效果评估 通过考试、实际操作考核、项目成果评估等方式,检验职工的学习成果,并将其与绩效考核挂钩,激励职工积极参与培训。
2025-02-28
雪梅May的Ai 100天学习笔记
以下是关于雪梅 May 的 AI 100 天学习笔记的相关内容: 作者介绍: 适合纯 AI 小白,可参考此日记,学习模式为输入→模仿→自发创造。 学习内容因 AI 节奏快可能不适用,可去 waytoAGI 社区找感兴趣的最新内容。 学习时间并非每天依次进行,有空就学,作者已进行到 90 天。 2024 年保持较好学习状态,不仅学 AI 还看了 33 本书。 学习资源免费开源。 第一阶段: DAY5 2024.5.26:开始使用 kimi,抱着每天问 100 个问题的心态调整思考模式,养成问 AI 问题的习惯,参考。 DAY6 2024.5.31:应朋友推荐学习吴恩达生成式人工智能课程,在 B 站搜索对应关键词有课程资源,学习笔记,抽空 3 天学完。 DAY7 2024.6.1:探索用 AI 解决真实问题,团队要写行业研究报告,尝试用 AI 帮忙。 2024 年 12 月 31 日历史更新(归档): ,日记分三个阶段,学习路线图适合新人参考。 ,Yann LeCun 直指当前 AI 根本局限,阐述不同技术路径。 ,强调将 AI 视为方法,用哲学视角构建理解与方法论。
2025-02-25
什么是tokens
在大语言模型领域,Token 通常用来表示文本数据中的一个单元。在不同的语境下,一个 Token 可能代表一个字、一个词,或者是一个句子。在英文中,一个 Token 通常是一个词或者是标点符号。在一些汉语处理系统中,一个 Token 可能是一个字,也可能是一个词。Token 是处理和理解文本数据的基本单元。 在深度学习的语言模型中,如 Transformer,输入的文本首先被切分成一系列的 Tokens。这些 Tokens 被转换成向量,然后被输入到神经网络中进行处理。因此,在这种情况下,Token 可以被理解为语言模型接收和处理的最小的信息单元。在训练过程中,每个 Token 会关联一个预测,这个预测可以是下一个 Token 的预测,也可以是该 Token 的属性预测,如词性、情感等。 训练 Token 的数量会影响模型的性能和准确性。更多的训练 Token 通常意味着更多的训练数据,这可能会提升模型的准确性和泛化能力。然而,处理更多的 Token 也会增加计算的复杂性和计算资源的需求。 很多同学把 Token 理解为中文语义里的“字节”,这种理解有一定的类比相似性,因为“字节”是计算机存储和处理数据的基本单元,而“Token”是语言模型处理文本信息的基本单元。但这种理解不够准确,“Token”在语言模型中的作用比“字节”在计算机中的作用更加复杂和多元。在大语言模型中,“Token”不仅代表文本数据中的一个单位,而且每个“Token”都可能携带了丰富的语义信息。比如,在处理一句话时,“Token”可能表示一个字,一个词,甚至一个短语,这些都可以被认为是语言的基本单元。同时,每个“Token”在模型中都有一个对应的向量表示,这个向量包含了该“Token”的语义信息、句法信息等。 Unicode 是一种在计算机上使用的字符编码,为每种语言中的每个字符设定了统一并且唯一的二进制编码,以满足跨语言、跨平台进行文本转换、处理的要求。例如中文中的“你”字对应特定的 Unicode 编码。GPT 实际是将我们输入的文字转换成 Token,然后通过 GPT 模型预测 Token,再将 Token 转换成文字,最后再输出给我们。通过 Token 的学习,能感觉到 ChatGPT 理解文本的方式和人类并不相同,它在以自己的方式理解这个世界。 在 ComfyUI SD3 中,如输入的文字描述会被转换为 Tokens(文本向量),其中包括使用 CLIPG/14、CLIPL/14、T5 XXL 等预训练文本编码器将描述文字转换为 Tokens,每个编码器生成 77 个 Token,总共 154 个 Token 等一系列处理过程。
2025-02-07
智谱 注册送2000万 tokens
智谱 BigModel 共学营第二期相关信息如下: 本期共学应用为人人可打造的微信助手。 注册智谱 Tokens:智谱 AI 开放平台的网址为 https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包有三种方式: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,直接充值现金,所有模型可适用的网址为 https://open.bigmodel.cn/finance/pay 。 共学营报名赠送资源包。 语言资源包:免费 GLM4Flash 语言模型/ 。 多模态资源包: 。 多模态资源包: 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 会议 ID:185 655 937 ,会议链接:https://vc.feishu.cn/j/185655937 ,共学营互动群。 BigModel 开放平台是智谱一站式的大模型开发及应用构建平台。基于智谱自研的全模型矩阵,面向企业客户及合作伙伴,支持多样化模型和自定义编排。平台提供即插即用的智能工具箱,包括 API 接口、模型微调及部署功能,同时具备流程编排以适应复杂业务场景。还提供免费、好用、高并发的 GLM4Flash 模型,0 元上手大模型,新用户注册登录即送 2000 万 Tokens,调用智谱全家桶模型。更多应用场景包括: 。
2024-12-05
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
各个大模型tokens价格
截止 2024 年 5 月,我查询到的大模型Token价格供您参考: !
2024-05-13
准确的讲述垂直大模型的概念,国内外的应用现状、场景,发展趋势,最好能附带图片。内容尽量详细、逻辑通顺。
垂直大模型是专注于特定领域的大模型,例如小语种交流、临床医学、AI 蛋白质结构预测等。 在国内,大模型分为通用模型如文心一言、讯飞星火等,处理自然语言;也有垂直模型专注特定领域。 大模型因其强大的语言理解和生成能力,在多个领域和应用场景中表现出色。比较火的应用场景包括: 1. 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助:代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 5. 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 6. 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成:如 DALLE 等模型可以根据文本描述生成相应的图像,甚至在未来可能扩展到视频内容的生成。 8. 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 9. 医疗和健康咨询:理解和回答医疗相关的问题,提供初步的健康建议和医疗信息查询服务。 10. 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务的门槛。 关于发展趋势,尽管当前市场以基础大模型为主,但将大模型与行业专业知识结合,以满足不同行业的需求,成为未来发展的关键。例如腾讯研究院的《行业大模型调研报告》指出,如何将大模型与行业专业知识结合是重点。同时,在发展过程中也需要注意其在隐私、安全和伦理方面的挑战。 很抱歉,暂时无法为您提供相关图片。
2025-04-11
用文生图来画插画风格的系统流程图、概念图有哪些快速上手的prompt、平台和教程
以下是关于用文生图来画插画风格的系统流程图、概念图的快速上手的 prompt、平台和教程: 平台:Tusiart Prompt 提示词: 用英文写您想要 AI 生成的内容,不用管语法,仅使用单词和短语的组合去表达需求,单词、短语之间用英文半角逗号隔开。 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 教程: 1. 定主题:确定您需要生成的图的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:按照主题找内容贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:在生成内容基础上,寻找内容重叠的 lora 以控制图片效果及质量。 4. ControlNet:可控制图片中特定图像,如人物姿态、特定文字等,高阶技能可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. 负向提示词 Negative Prompt:用英文写您想要 AI 避免产生的内容,单词和短语组合,中间用英文半角逗号隔开。 8. 采样算法:一般选 DPM++2M Karras,也可留意 checkpoint 详情页上模型作者推荐的采样器。 9. 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 辅助网站: 1. http://www.atoolbox.net/ :通过选项卡方式快速填写关键词信息。 2. https://ai.dawnmark.cn/ :每种参数有缩略图参考,更直观选择提示词。 3. https://civitai.com/ :可抄作业,复制图片的详细参数用于生成。 下次作图时,可先选择模板,点击倒数第二个按钮快速输入标准提示词。
2025-03-28
AI agt 是很么概念
AI Agent 是一种智能代理系统,具有以下特点和概念: 是从年前到现在比较火的概念,被认为是大模型未来的主要发展方向。 中间的“智能体”通常是 LLM 或大模型,通过为其增加工具、记忆、行动、规划这四个能力来实现。 目前行业里主要用到的是 langchain 框架,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。 准确来说,指的是一种智能代理系统,接近人类大脑,可形成记忆、达成行动规划、自动交互、主动预测。 目前其概念在市场上未达成共识,存在被滥用现象。 应用特点包括个性化,能随着用户使用了解用户习惯和想法并作出喜好预测;能自主完成任务,如 Auto GPT 可在用户输入目标后自主执行任务、递归开发和调试代码;能实现多 Agent 协作,如斯坦福大学的 SmallVille 项目。 应用大多集中在 2B 场景,面向个人消费者的产品少。 包括 Chain(通常一个 AI Agent 可能由多个 Chain 组成)、Router(可使用判定让 Agent 走向不同的 Chain)、Tool(Agent 上的一次工具调用)等概念。 例如微信虚拟女友中的 AI Agent 包括 Responser Agent(主 agent,用于回复用户)、Background Agent(背景 agent,用于推进角色当前状态)、Daily Agent(用于生成剧本、配套图片和每日朋友圈)。
2025-03-28
NLP相关概念
以下是关于 NLP 相关概念的详细介绍: 一、NLP、NLU、NLG 的关系 自然语言处理(NLP)中包含了自然语言理解(NLU)和自然语言生成(NLG)。 二、NLP 的定义 自然语言处理(Natural Language Processing,NLP)是研究人与计算机之间使用自然语言进行有效通信,希望机器能像人一样具备正常人的语言理解能力。有别于计算机语言,“自然语言”是人类发展过程中形成的一种信息交流方式,包括汉语、英语、法语等世界上所有的语种语言。“处理”包含理解、转化、生成等过程。“自然语言处理”就是指用计算机对自然语言的形、音、义等信息进行处理,即对字、词、句、篇章的输入、输出、识别、分析、理解、生成等的操作和加工,以实现人机间的信息交流。 三、NLP 的用途 如文字校对、信息检索、机器翻译、问答系统、聊天机器人、文章摘要、舆情监测、情绪分析等都涉及到 NLP 相关技术。 四、NLP 的技术原理 按照内容构成的层次,NLP 的基本技术原理可以分成 5 个层次: 1. 词法分析:找到词汇的各个词素,从中获得语言学信息。 2. 句法分析:对句子和短语的结构进行分析,目的是要找出词、短语等的相互关系以及各自在句中的作用。 3. 语义分析:找出词义、结构意义及其结合意义,从而确定语言所表达的真正含义或概念。 4. 篇章分析:分析篇章结构,识别不同部分之间的语义联系,结合内外部信息,在整体上理解篇章。 5. 内容生成 五、NLU 专注于让计算机理解人类语言的含义。NLU 系统试图理解句子和词语背后的含义,而不是仅仅处理单个词语。NLU 能够识别文本中的情感、意图和实体,并将其转化为计算机可以理解的结构化信息。 六、NLG 专注于让计算机生成人类可以理解的语言。NLG 系统将结构化数据转化为自然语言文本,例如新闻报道、产品描述、聊天机器人回复等。NLG 能够根据不同的需求和场景,生成不同风格和语气的文本。 七、NLP 任务 主要包含 3 大类任务: 1. 自然语言理解任务(NLU,Natural Language Understanding):特点是能看到完整上下文信息,然后做广义分类任务,典型任务如文本情感分析,词性标注,信息检索等。 2. 有条件自然语言生成任务(conditionedNLG,Natural Language Generation):特点是 seq2seq,典型任务例如机器翻译,自动摘要等。 3. 无条件自然语言生成任务(unconditionedNLG):特点是开放性的句子生成,典型任务如问答系统(QA)、对话机器人(ChatBot)等。一开始针对不同任务会使用不同的模型,后来发现 NLG 任务能通过 incontext learning + prompt 来完成 NLU 任务,于是逐渐收敛到了 NLG 任务。
2025-03-24
介绍AI基本概念和目前发展阶段
AI 的基本概念: 人工智能(AI)是指让计算机模拟人类智能的技术。 主要分支包括机器学习、深度学习、自然语言处理等,它们之间存在密切联系。 目前发展阶段: 已取得显著进展,如聊天机器人具备基本对话能力,能用于客户服务和简单查询响应。 推理者如 ChatGPT 能解决复杂问题并提供详细分析和意见。 智能体虽能执行部分自动化业务,但仍需人类参与。 创新者如谷歌 DeepMind 的 AlphaFold 模型能协助人类完成新发明。 最高级别的组织型 AI 能自动执行组织的全部业务流程,但尚未完全实现。 对于新手学习 AI: 建议阅读「」熟悉术语和基础概念。 浏览入门文章了解历史、应用和发展趋势。 在「」中找到初学者课程,特别推荐李宏毅老师的课程。 通过在线教育平台按自己节奏学习并获取证书。 根据兴趣选择特定模块深入学习,掌握提示词技巧。 理论学习后进行实践,尝试使用各种产品并分享实践成果。 体验如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人。 如果希望继续精进 AI: 了解 AI 背景知识,包括基础理论、历史发展。 掌握数学基础,如统计学、线性代数、概率论。 熟悉算法和模型,如监督学习、无监督学习、强化学习。 学会评估和调优模型性能。 了解神经网络基础,包括网络结构和激活函数。
2025-03-20
描述相关概念的时候需要给ai什么指令
以下是关于给 AI 描述相关概念时的一些指令示例: 在法律法规方面,如《人工智能法案》中,指令包括发布年度报告以评估法规实施情况、审查严重事件报告、协助建立监管沙箱、组织与相关机构的会议和咨询等。 对于 Midjourney 生成 UI 界面,若指定生成某个页面(如首页、登录页等),可添加页面指令描述,如“landing page”“Profile Page”等。对于社交平台,关键词“landing page”可生成社交平台的登录页设计;对于信息类,关键词“Profile Page”可生成人力资源类产品的个人资料页。 需要注意的是,目前 Midjourney 产出的设计图更适合在 APP 设计的初始阶段提供灵感和创意,直接落地开发仍有距离,但随着 AI 技术的迭代,这种距离有望缩短。
2025-03-16