Navigate to WaytoAGI Wiki →
Home/All Questions
如何生成提示词
以下是关于生成提示词的一些方法和示例: 1. 在使用某些插件时,可在其下方添加提示词以增加控制,例如规定所画内容必须是猫,或添加标准化的质量提示词,以获得更符合期望的图片。例如将大模型换成二次元“AnythingV5”,设定主题为“人物”,并填入相关提示词如“一个肥胖的人”。 2. 在主菜单中设定主题,如“风景”,并给出正向提示词如“房子”,然后在“工作流协助”中点击“生成一些提示词”,会随机生成多段提示词,可任选发送到上方生成并根据效果进行修改调整。 3. 参考艺术字生成的案例提示词,如“金色立体书法,‘立冬’,字体上覆盖着积雪,雪山背景,冬季场景,冰雪覆盖,枯树点缀,柔和光影,梦幻意境,温暖与寒冷对比,静谧氛围,传统文化,唯美中国风”等。 4. 对于 Midjourney 提示词生成器,可仿照 GPTs 里的 MJ prompt 进行修改,方便让 agent 帮助补全润色,例如“一个巨大鲸鱼头部的特写,鲸鱼的眼睛显示疲惫的神情,一个小女孩站在鲸鱼的旁边抚摸鲸鱼的脸,小女孩占画面比例很小,体现鲸鱼的巨大,吉卜力工作室风格”等示例。未来推理模型可能提升提示词的精准性。
2025-03-06
智能体
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体的定义: 智能体是一种自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分,包括规划、子目标和分解、反思和完善、记忆(短期记忆和长期记忆)、工具使用等。 智能体的类型: 1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。例如自动驾驶汽车。 3. 目标导向型智能体(Goalbased Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。例如金融交易智能体。 5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体。 智能体功能实现: 本智能体主要通过一个工作流实现,采用单 Agent(工作流模式)。工作流全景图按照市场分析报告内容划分,分成 7 个分支处理,每个分支调研并生成报告中的一部分,以发挥并行处理的效率。工作流主要节点包括文本处理节点、必应搜索节点、LinkerReader 节点、代码节点、大模型节点和结束节点。文本处理节点将用户输入与报告某一部分的主题拼装,形成用于网络搜索的关键词句。必应搜索节点根据指定的关键词句搜索相关网络内容。LinkerReader 节点从必应搜索到的网页链接中获取网页详细内容。在 LinkerReader 节点前的代码节点用于等待 2 3 秒,将众多 LinkerReader 节点的执行时间错开,避免拥塞。代码节点将搜索到的网页链接信息进行过滤,只保留网页名称、摘要、url 信息,以备后面大模型进行处理。大模型节点根据多个网页中获取的内容按照指定的格式生成报告内容,并根据代码过滤后的搜索摘要信息列表将引用链接加到报告内容中。结束节点将 7 部分大模型节点生成的内容拼接并流式输出。
2025-03-06
智能体
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体的定义: 智能体是一种自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分,包括规划、子目标和分解、反思和完善、记忆(短期记忆和长期记忆)、工具使用。 智能体的类型: 1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。例如自动驾驶汽车。 3. 目标导向型智能体(Goalbased Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。例如金融交易智能体。 5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体。 智能体功能实现: 本智能体主要通过一个工作流实现,采用单 Agent(工作流模式)。工作流全景图按照市场分析报告内容划分,分成 7 个分支处理,每个分支调研并生成报告中的一部分,以发挥并行处理的效率。工作流主要节点包括文本处理节点、必应搜索节点、LinkerReader 节点、在 LinkerReader 节点前的代码节点、代码节点、大模型节点和结束节点。文本处理节点将用户输入与报告某一部分的主题拼装,形成用于网络搜索的关键词句。必应搜索节点根据指定的关键词句搜索相关网络内容。LinkerReader 节点从必应搜索到的网页链接中获取网页详细内容。在 LinkerReader 节点前的代码节点用于等待 2 3 秒,错开众多 LinkerReader 节点的执行时间,避免拥塞。代码节点将搜索到的网页链接信息进行过滤,只保留网页名称、摘要、url 信息,以备后面大模型进行处理。大模型节点根据多个网页中获取的内容按照指定的格式生成报告内容,并根据代码过滤后的搜索摘要信息列表将引用链接加到报告内容中。结束节点将 7 部分大模型节点生成的内容拼接并流式输出。
2025-03-06
中文可以用sd吗
中文可以使用 Stable Diffusion(SD)。以下是使用 SD 制作中文文字的一些方法和步骤: 1. 将中文字做成白底黑字,存成图片样式。 2. 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 3. 输入关键词,如奶油的英文单词“Cream+Cake”(加强质感),反关键词:“Easynegative”(负能量),反复刷机,得到满意的效果即可。 4. 同理可输出 C4D 模型,可自由贴图材质效果,如“3d,blender,oc rendering”。 5. 如果希望有景深效果,也可以打开“depth”(增加阴影和质感)。 6. 打开高清修复,分辨率联系 1024 以上,步数:29 60。 SD 是 Stable Diffusion 的简称,是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。
2025-03-06
AGI是什么
AGI 即通用人工智能(Artificial General Intelligence),指的是能够像人类一样思考、学习和执行多种任务的人工智能系统。 目前对 AGI 的相关研究和讨论包括: OpenAI 通用人工智能的计划曾因埃隆·马斯克的诉讼而受到影响。 ChatGPT 是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具。 OpenAI 提出 AGI 有五个发展等级,分别为: 聊天机器人:具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者:具备人类推理水平,能够解决复杂问题,如 ChatGPT,能根据上下文和文件提供详细分析和意见。 智能体:不仅具备推理能力,还能执行全自动化业务,但目前许多产品仍需人类参与。 创新者:能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可预测蛋白质结构,加速科学研究和新药发现。 组织:最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,早期的模型则不具备这样的能力。
2025-03-06
b站的秋葉aaaki大佬对sd做过什么
B 站的秋葉 aaaki 大佬在 SD 方面的相关贡献包括: 1. 提供了 SD 的开源整合包和 LoRA 模型训练一键包。最新一次更新整合包版本为 v4.5,于 11 月更新。此整合包支持 SDXL,预装多种必须模型,无需安装 python、cuda、git,解压即用。获取方式为一键三连+关注私信发送“整合包”。 2. 其相关内容有助于用户了解 SD 的工作原理和基本功能,对于还未接触过 AI 绘画的朋友有启蒙作用。很多人在安装 SD 软件时会参考他的视频。 您可以通过以下链接获取更多相关资源: 整合包百度盘:https://pan.baidu.com/s/1MjO3CpsIvTQIDXplhE0OA?pwd=aaki LoRA 模型训练一键包百度盘:https://pan.baidu.com/s/1TBaoLkdJVjk_gPpqbUzZFw ,提取码:p8uy
2025-03-06
sd是哪位大佬做的
SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本的描述产生详细图像。Stable Diffusion 是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7)。源代码库:github.com/StabilityAI/stablediffusion 。我们可以通过一系列的工具搭建准备,使用 SD 进行想要的图片 AIGC 。 此外,还有与 SD 相关的 Fooocus,它使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。保留了 SD 的开源属性,可以部署到本地免费使用,在操作界面吸取了 Midjourney 简洁的特点,省去了 WebUI 中复杂的参数调节,让用户可以专注于提示和图像。配置要求为本地部署,需要不低于 8GB 的内存和 4GB 的英伟达显卡。Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus 。 另外,在 Video Battle 视频挑战中,有一种方法是使用 SD 的分支版本 CONTROLNET 大佬开发的 Forge,特点是支持图生视频、图生 SD,而且对低端显卡支持良好。下载链接为:https://github.com/lllyasviel/stablediffusionwebuiforge/releases/download/latest/webui_forge_cu121_torch21.7z ,解压后,优先运行 update.bat 进行升级,然后再运行 run.bat ,接着就打开了和 SD 基本一模一样的界面。核心区别在于 FORGE 增加了 2 个王炸功能,SVD【图生视频】和 Z123【图生 3D】。
2025-03-06
有哪些资源可以通过excel表格或者对话生成思维导图
以下是关于通过 Excel 表格或对话生成思维导图的资源介绍: 过去,ChatGPT 无法直接生成思维导图,面对复杂代码或长篇文章,需利用 AI 提炼后再用思维导图软件转换,较为繁琐。 如今有了 GPTs,可通过 Actions 调取第三方平台(如 Gapier)提供的 API 直接获取内容对应的思维导图。 具体案例包括: 1. 在 Action 中引入 Gapier 生成代码的思维导图。 2. 在 Action 中引入 Gapier 和 Webpilot 生成在线文档的思维导图。
2025-03-06
sd可以用中文输入吗
SD3stable diffusion3 已开源,艺术实现更自由。Qwen2 接上 SD3 Medium 支持中文输入,会自动优化并输出英文提示词。相关资源如下: 下载地址(huggingface 比较慢,多放几个百度云盘): 工作流:https://github.com/ZHOZHOZHO/ComfyUIWorkflowsZHO Qwen2 插件:https://github.com/ZHOZHOZHO/ComfyUIQwen2 SD3 dreambooth 脚本:https://github.com/huggingface/diffusers/blob/sd3/examples/dreambooth/README_sd3.md 、https://github.com/bghira/SimpleTuner/tree/feature/sd3 另外,关于 SD 做中文文字有持续更新的教程: 制作思路可参考 Nenly 同学的视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ 群友自制的详细视频教程步骤: 1. 将中文字做成白底黑字,存成图片样式。 2. 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 3. 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 4. 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 5. 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 6. 打开高清修复,分辨率联系 1024 以上,步数:2960。 当然 https://firefly.adobe.com/也可以,但 SD 感觉可操控性更强,尤其是中文字体。
2025-03-06
中文可用的ai制图
以下是一些中文可用的 AI 制图工具及使用步骤: 1. Creately 简介:在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。 功能:智能绘图功能,可自动连接和排列图形;丰富的模板库和预定义形状;实时协作功能,适合团队使用。 官网:https://creately.com/ 2. Whimsical 简介:专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。 功能:直观的用户界面,易于上手;支持拖放操作,快速绘制和修改图表;提供多种协作功能,适合团队工作。 官网:https://whimsical.com/ 3. Miro 简介:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。 功能:无缝协作,支持远程团队实时编辑;丰富的图表模板和工具;支持与其他项目管理工具(如 Jira、Trello)集成。 官网:https://miro.com/ 使用 AI 绘制示意图的步骤: 1. 选择工具:根据具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择适合需求的模板。 4. 添加内容:根据需求添加并编辑图形和文字,利用 AI 自动布局功能优化图表布局。 5. 协作和分享:若需要团队协作,可邀请团队成员一起编辑。完成后导出并分享图表。 此外,还有以下相关信息: AI 作图的创作方法与实操演示:趣味性可通过反差、反逻辑、超现实方式带来视觉冲击,美感需在美术基础不出错前提下形式与内容结合。纹身图创作要强调人机交互,对输出图片根据想象进行二次和多次微调,确定情绪、风格等锚点再发散联想。以魔法少女为例,发散联想其服饰、场景、相关元素等,并可采用反逻辑反差方式。提示词编写要用自然语言详细描述画面内容,避免废话词,Flux 对提示词的理解和可控性强。实操演示准备按赛题需求先确定中式或日式怪诞风格的创作引子,从汉服女孩入手,逐步联想其颜色、发型、妆容、配饰、表情、背景等元素编写提示词。还包括人物、动物、景观图像生成的讨论。 美图 WHEe 推出中文 AI 海报生成工具:支持文字可编辑图层,用户可拖动文字位置、更改字体并控制排版。内置模板,操作简单,适合小白与专业用户,效率提升显著。目前仍在内测中,支持体验申请。官网:http://whee.com 内测申请:https://oc.meitu.com/whee/5924/index.html 原推文:https://x.com/imxiaohu/status/1881235335595872470
2025-03-06