Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

为本地部署的stable diffusion增加中文提示词支持

Answer

要为本地部署的 Stable Diffusion 增加中文提示词支持,可以采取以下方法:

  1. 如果使用的秋叶整合包,里面包含提示词联想插件。输入简单字符如“1”,能看到下方联想热门提示词,适合英文不好、记不住单词的朋友。
  2. 一般情况可使用翻译软件,如 DeepL 翻译(网址:https://www.deepl.com/translator ,可下载客户端)或网易有道翻译(可通过 ctrl+alt+d 快速截图翻译),但复制粘贴来回切换较麻烦。
  3. 介绍自动翻译插件 prompt-all-in-one,安装方式:在扩展面板中搜索 prompt-all-in-one 直接安装,或把下载好的插件放在“……\sd-webui-aki-v4\extensions”路径文件夹下。安装完成后重启 webUI,可看到提示词区域变化。
    • 一排小图标中,第一个用来设置插件语言,直接设为简体中文。
    • 第二个图标是设置,点开后点击第一个云朵图标可设置翻译接口,点击第一行下拉菜单能选择翻译软件,有一些免费软件可任意选择并试验哪款翻译准确。

关于 Stable Diffusion 文生图写提示词:

  1. 下次作图时,先选模板,点击倒数第二个按钮可快速输入标准提示词。
  2. 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)等,通过这些详细提示词能更精确控制绘图。
  3. 新手可借助功能型辅助网站写提示词,如:
    • http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息。
    • https://ai.dawnmark.cn/ ,每种参数有缩略图参考,更直观选择提示词。
    • 还可去 C 站(https://civitai.com/)抄作业,每张图有详细参数,点击复制数据按钮,粘贴到正向提示词栏,点击生成按钮下第一个按键,Stable Diffusion 可自动匹配所有参数,但要注意图像作者使用的大模型和 LORA,也可取其中较好的描述词使用。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】提示词自动翻译插件prompt-all-in-one

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-29 20:00原文网址:https://mp.weixin.qq.com/s/q-IshiSRZiTiKGqDFGjD0g在Stable Diffusion中,我们输入的提示词只能识别英文的。如果使用的秋叶整合包的话,里面是已经包含了一个提示词联想插件的。比如我们输一个“1”,就能看到下方联想了一些热门的提示词,特别适合一些英文不好,记不住单词的朋友。而一般情况下,我们使用的都是翻译软件,将中文提示词翻译成英文。我用得比较多的是DeepL翻译,网址是https://www.deepl.com/translator,可以下载客户端使用。还有一个是“网易有道翻译”,因为它可以ctrl+alt+d快速截图翻译,所以用起来还蛮方便,可以快速查看别人关键词写的是什么。但不管是什么样的翻译软件,总归是要复制、粘贴来回切换,还是很麻烦的。所以,我就要来介绍一下今天的主角——自动翻译插件prompt-all-in-one。安装方式就是在扩展面板中搜索prompt-all-in-one,可以直接安装。或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以看到提示词区域变成了这个样子。我们一起来看一下这一排小图标。第一个是用来设置插件语言的,直接设置为简体中文就好了。第二个图标是设置,点开之后,点击第一个云朵图标就可以设置翻译接口。点击第一行下拉菜单,可以设置用哪个翻译软件。里面有这么一些免费的软件,可以任意选择,自己试验一下,哪一款翻译得比较准确就选哪个。

【SD】文生图怎么写提示词

下次作图的时候,只需要先选择你的模板,然后点击倒数第二个按钮,就能将这些标准提示词快速输入了。我们来看一下加入标准提示词后的效果,是不是好了很多。我们通常的描述逻辑是这样的:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,我们就能更精确的控制Stable Diffusion的绘图了。对于新手而言,我们还有一些功能型辅助网站来帮我们书写提示词。比如:http://www.atoolbox.net/。它可以通过选项卡的方式快速地填写关键词信息。还有:https://ai.dawnmark.cn/。它的每种参数都有缩略图可以参考,可以方便我们更加直观的选择提示词。还有一个方法就是去C站(https://civitai.com/)里面抄作业,每一张图都有详细的参数,我们可以点击下面的复制数据按钮。然后直接粘贴到正向提示词栏里,然后点击生成按钮下的第一个按键,Stable Diffusion就可以将所有的参数自动匹配了。不过,还要注意图像作者使用的大模型和LORA,不然即使参数一样,生成的图也会截然不同。我们也可以只取其中比较好的一些描述词使用,比如人物描写、背景描述、一些小元素或者是画面质感之类的。好了,我们讲到这里,大家应该已经基本了解了文生图的使用方法和逻辑了,采用正确的语法规则和思路能让我们得到更好效果的AI绘图,快练习起来吧。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号

Prompts(提示词)

|标题|作者|分类|说明|prompt|链接地址|封面|SourceID||-|-|-|-|-|-|-|-||Stable Diffusion prompt助理||图像|充当一位有艺术气息的Stable Diffusion prompt助理|#Role:Stable Diffusion prompt助理<br>你来充当一位有艺术气息的Stable Diffusion prompt助理。<br><br>##任务<br>我用自然语言告诉你要生成的prompt的主题,你的任务是根据这个主题想象一幅完整的画面,然后转化成一份详细的、高质量的prompt,让Stable Diffusion可以生成高质量的图像。<br><br>##背景介绍<br>Stable Diffusion是一款利用深度学习的文生图模型,支持通过使用prompt来产生新的图像,描述要包含或省略的元素。<br><br>##prompt概念<br>-完整的prompt包含“**Prompt:**”和"**Negative Prompt:**"两部分。<br>-prompt用来描述图像,由普通常见的单词构成,使用英文半角","做为分|[李继刚等的prompt最佳实践](https://waytoagi.feishu.cn/wiki/JTjPweIUWiXjppkKGBwcu6QsnGd#JSbvdcDM7oKmLAxmEdscJXEDnug)||NzMyODM4MDQ2MjgyNzY4Mzg2ODpyZWNiQWJSN0VlOmRlNDYxMTM3ZDE4Y2I4MzU1ZGZiZmNiYjMwMTUwYWM5OjE6SDRzSUFBQUpib2dBL3dBQ0FQMy9lMzBEQUVPL3BxTUNBQUFB|

Others are asking
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
stable diffusion是runway和goole联合开的吗
Stable Diffusion(简称 SD)不是由 Runway 和 Google 联合开发的,而是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。 Stable Diffusion 是 2022 年发布的深度学习文本到图像生成模型,其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于这两位开发者之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中根据文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高的分辨率。 围绕 Stable Diffusion 等基础模型的兴奋和关注正在产生惊人的估值,但新研究的不断涌现确保新模型将随着新技术的完善而更替。目前,这些模型在法律方面也面临挑战,例如其训练所使用的大量内容数据集通常是通过爬取互联网本身获得的,这可能会引发法律问题。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 StabilityAI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换的概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。在文生图任务中,将一段文本输入到模型中,经过一定迭代次数输出符合文本描述的图片;图生图任务则在输入文本基础上再输入一张图片,模型根据文本提示对输入图片进行重绘。输入的文本信息通过 CLIP Text Encoder 模型编码生成与文本信息对应的 Text Embeddings 特征矩阵,用于控制图像生成。源代码库为 github.com/StabilityAI/stablediffusion ,当前版本为 2.1 稳定版(2022.12.7),其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。
2025-04-15
stable diffusion开发公司
Stable Diffusion 是由初创公司 Stability AI、CompVis 与 Runway 合作开发的。其核心技术来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach。该项目的技术基础主要来自于他们之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。其原理包括使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,利用扩散模型将随机噪声图像逐渐变换为目标图像,在扩散过程中以文本向量和噪声图像作为条件输入给出变换概率分布,最后使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 Stable Diffusion 总共有 1B 左右的参数量,可以用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等丰富的任务。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion 。
2025-04-15
有stable diffusion的学习教程吗
以下为您提供一些 Stable Diffusion 的学习教程: 1. 超详细的 Stable Diffusion 教程: 介绍了为什么要学习 Stable Diffusion 及其强大之处。 指出 Stable Diffusion 是能根据输入文字生成图片的软件。 强调学习目的是快速入门,而非深入研究原理,通过案例和实际操作帮助上手。 2. 深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎: 包含 Stable Diffusion 系列资源。 零基础深入浅出理解 Stable Diffusion 核心基础原理,如模型工作流程、核心基础原理、训练全过程等。 解析 Stable Diffusion 核心网络结构,包括 SD 模型整体架构、VAE 模型、UNet 模型等。 介绍从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程。 列举 Stable Diffusion 经典应用场景。 讲解从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型。 3. 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?:
2025-03-28
朗读中文的ai工具有哪些
以下是一些朗读中文的 AI 工具: 1. 秘塔写作猫:https://xiezuocat.com/ 写作猫是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译。支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 2. 笔灵 AI 写作:https://ibiling.cn/ 是得力的智能写作助手,适用于多种文体写作,支持一键改写/续写/扩写,智能锤炼打磨文字。 以下是一些常见的文章润色 AI 工具: 1. Wordvice AI 集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT 由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot 人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite 基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune AI 驱动的文本改写和润色工具,帮助用户优化文章的语言表达。 6. Smodin 提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 以下是一些翻译 PDF 的 AI 产品: 1. DeepL(网站) 点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件) 安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用) 下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页) 使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页) 点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(进阶功能基本都需要付费)。 6. 彩云小译(App) 下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(有免费次数限制且进阶功能需要付费)。 7. 微信读书(App) 下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-14
用中文脚本,生成视频的ai有哪些
以下是一些能够生成视频的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作且支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,可将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 另外,根据视频脚本生成短视频的工具包括: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析并生成素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助从图像制作视频并规划内容。 5. Runway:AI 视频创作工具,能将文本转化为风格化视频内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 如果想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:使用 AI 图像生成工具创建角色和场景图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场以提高质量。 8. 审阅与调整:观看视频,根据需要调整场景或音频等。 9. 输出与分享:完成编辑后输出最终视频并分享。 请注意,具体操作步骤和所需工具可能因项目需求和个人偏好不同而有所差异,AI 工具的可用性和功能也可能变化,建议访问工具网址获取最新信息和使用指南。
2025-04-14
有没有自动降低文章的aigc率的工具,中文的
目前尚未有专门用于自动降低文章 AIGC 率的中文工具。但您可以通过人工修改、调整表述方式、增加独特的观点和内容等方法来降低文章的 AIGC 特征。
2025-03-25
coze中文版和英文版的区别
Coze 中文版和英文版主要有以下区别: 1. 支持的大模型不同:中文版支持 kimi、云雀;英文版支持 chatgpt4。 2. 网址不同:中文版网址为 https://www.coze.cn/;英文版网址为 https://coze.com/。 3. 产品定位相同,均为新一代 AI 原生应用开发服务平台,即 Nextgeneration AI chatbot building platform。 4. 在使用过程中,如创建机器人的具体操作流程等方面可能存在细微差异,但具体情况需根据实际使用体验确定。
2025-03-22
需要一个能在看YouTube英语视频的时候把每句话都实时翻译成中文 挂在字幕上的ai工具
以下为您推荐一款可能满足您需求的 AI 工具:Memo AI (https://memo.ac/zh/)。它可以对 YouTube、播客、本地音频视频轻松进行转文字、字幕翻译、语音合成,还可以由多种 AI 模型提炼内容精华总结,生成思维导图。并且支持中文、英语等多语言。
2025-03-19
midjourney中文站和官方网站上的内容是一样的吗
Midjourney 中文站和官方网站的内容不完全一样。 Midjourney 官网具有以下特点和操作细节: 已向生成 100 张以上图片的用户开放使用权限,登录官网后,左侧为各种页面入口,顶部有生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,随时可用 prompt 框和搜索框,无需频繁切换页面。 可通过点击 prompt 框最右侧的图标设置常用参数默认值,包括画面比例和个性化模型开关。 图片参考在官网上变得简单直观,点击 prompt 框最左侧的图片按钮或直接拖入图片即可,官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,如需多种参考逻辑可按住 shift 键点选多个图标。 创作页面的最大亮点是 prompt 的复用,可以直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片会进入单图调整模式,常用的操作指令集中在右下角的按键中,并且上线了全新的 Editor 编辑器功能。 此外,关于 Midjourney 还有以下相关内容: 有关于 Midjourney v5.1 的 AIGC Weekly23 相关介绍。 有 Midjourney 的隐私政策,包括适用范围、变更情况、定义等。
2025-03-18
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
调教ai的利器,提示词工程
提示词工程是调教 AI 的重要手段,以下是关于提示词工程的相关知识: 作用:避免 AI 掉入“幻觉”陷阱,引导 AI 生成更可靠的内容。 原理:AI 对提示词的理解能力与幻觉的产生密切相关,清晰、具体的提示词能帮助其更好地理解意图,减少错误。 技巧: 明确要求 AI 引用可靠来源,如在询问历史事件时要求引用权威文献,询问科学事实时要求引用科研论文,询问法律条款时要求引用官方文件。 要求 AI 提供详细的推理过程,如询问数学公式时展示推导过程,询问代码功能时逐行解释含义。 明确限制 AI 的生成范围,如询问名人名言时指定名人姓名和相关主题,询问新闻事件时指定时间范围和关键词。 通过这些清晰、具体、有针对性的提示词技巧,可以引导 AI 生成更准确和可靠的内容。但提示词工程只是辅助手段,从根本上解决 AI 幻觉问题还需从数据、模型、训练方法等多方面努力。 提示词工程就像与博学但有点固执的老教授交流,精心设计输入文本能引导 AI 更好地理解需求并给出更准确有用的回答。比如,问“请用简单的语言,为一个 10 岁的小朋友解释什么是人工智能,并举一个生活中的例子”,AI 更可能给出通俗易懂的解释。 在使用 AI 工具的过程中,可能会出现答非所问、回答格式不标准等问题,为让 AI 更好地服务,需要学习提示词工程。当用户的需求接近 AI 真实范围时,可通过写提示词甚至创建 BOT 来优化使用效果。
2025-04-15
提示词
提示词是让 AI 听懂您的需求并生成想要画面的关键。 基础公式(新手必学):景别+运镜+主体+动作+风格。示例:特写镜头|镜头旋转|发光水晶球悬浮|星尘特效|赛博朋克风格。 进阶公式(提升质感):景别+运镜+主体(细节)+动作(速率)+场景(层次)+氛围+光影。示例:全景俯拍|无人机跟拍|雪山湖泊(镜面倒影)|慢动作|冷色调光线|自然纪录片风格。 在星流一站式 AI 设计工具中,prompt 输入框可输入提示词,使用图生图功能辅助创作。 提示词用于描绘您想生成的画面,支持中英文输入。不同模型对输入语言有不同要求,如通用大模型与基础模型 F.1、基础模型 XL 使用自然语言,基础模型 1.5 使用单个词组。 写好提示词要做到: 1. 内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 2. 调整负面提示词,点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 3. 利用“加权重”功能,让 AI 明白重点内容,可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。还可对已有的提示词权重进行编辑。 4. 借助辅助功能,如翻译功能可一键将提示词翻译成英文,还有删除所有提示词、会员加速等功能。 如果您接触过大量提示工程相关的示例和应用,会注意到提示词由一些要素组成,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。但提示词所需的格式取决于想要语言模型完成的任务类型,并非所有要素都是必须的。
2025-04-15
如何成为提示词工程师
提示词工程师是在与人工智能模型交互时,负责设计和优化提示的专业人员,旨在通过精心构造的提示引导模型产生准确、有用和相关的回答。 其主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,以便理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例,比如在市场营销类和商业类中,有自动优化 Prompt 的案例,如 JackeyLiu 熟悉的转化步骤包括: 1. 角色和能力:基于问题思考 chatGPT 最适合扮演的角色,应是该领域最资深的专家,适合解决问题。 2. 上下文说明:思考提出问题的原因、背景和上下文。 3. 任务陈述:基于问题进行陈述。 提示词工程师是一个新兴职业,随着人工智能技术的不断发展,对其需求将会越来越大。
2025-04-15