以下是关于 AI 生成内容纠偏的相关指导:
利用 seed 参数反向调整
人类评估和编辑
引用节点和特定参照
对比不同模型输出和文本精加工
我在使用AI做真实需求的时候,就会遇到一个困惑,就算每次复制一样的关键词,但生成图一样会出现很强的随机性。那如何调教它,生成自己想要的图呢?经过我的研究,我发现可以利用seed参数,反向生成。1.1.利用seed反向调整先从官方文档中看看seed这个参数到底是做啥的:Midjourney会用一个种子号来绘图,把这个种子作为生成初始图像的起点。种子号是为每张图随机生成的,但可以使用--Seed或--same eseed参数指定。使用相同的种子号和提示符将产生类似的结尾图片。详细参数可以看看官方文档:[https://docs.midjourney.com/docs/seeds](https://link.uisdc.com/?redirect=https%3A%2F%2Fdocs.midjourney.com%2Fdocs%2Fseeds)默认情况下,这个种子是随机给的,所以如果我们想要比较相似的图,就需要把seed固定下来。简单来说,在用的时候,给关键词加一个seed参数就好,具体数字是多少无所谓(只要在0–4294967295范围内)比如caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k--seed 8888这样就能保证每次生成的都是一模一样的图了。那有人可能会问,每次都生成一模一样的图有什么用呢?其实就可以反向利用这个特性,来对已经确定的效果图进行微调了。比如当我发现有一张图已经比较接近目标了,那么还需要有一些微调,怎么做呢?思路就是利用确定图片的seed,再它的基础上再加上新的关键词,以此来对它进行微调。
然后,一旦模型生成内容,就需要由人类仔细评估和编辑。替代提示输出可以合并到单个文档中。图像生成可能需要大量操作。在Midjourney的帮助下赢得科罗拉多州“数字化摄影”比赛的杰森·艾伦(Jason Allen)告诉记者,[他](https://www.washingtonpost.com/technology/2022/09/02/midjourney-artificial-intelligence-state-fair-colorado/)花了80多个小时制作了900多个版本的艺术作品,并一遍又一遍地微调他的提示。然后,他使用Adobe Photoshop改进了结果,使用另一个AI工具提高了图像质量和清晰度,并在画布上打印了三幅作品。生成式人工智能模型极其多样化。它们可以接收图像、较长文本格式、电子邮件、社交媒体内容、录音、程序代码和结构化数据等内容。他们可以输出新内容、翻译、问题答案、情感分析、摘要,甚至视频。这些通用内容机器在商业中具有许多潜在的应用,我们将在下面描述其中的一些应用。
由于我之前已经做过两期内容,它们都被用作AI学习语气语调的参考文稿,接下来就是在每条任务线下针对生成的内容进行微调。过程中,我用了一个叫「引用节点」的技巧,也就是让AI根据特定的参照(比如之前的产出或是新增的参考文案)输出具备更高关联度的内容。比如在生成「延伸思考」的问题时,需要严格参照未来世界观和各个驱动力的解析,所以我在提示词中引用了这两块内容,另外我还新增了一个自由节点复制了一篇不错的影评,将其纳入引用以拓展AI的思考维度。这里再补充两个有趣的功能,第一个是你可以用同一段提示词对比不同模型的输出,择优深挖(像DS提出的中文问题就比GPT好很多)。这对文生图尤为友好,不同模型的画风各具特色,这次的底图就采用了Ideogram的生成结果。第二个有趣的功能是,在满意的内容节点上添加「文本编辑器显示」,该节点的文本就会被添加到项目首页的编辑器(Composers)中,在那里你可以对文本进行精加工,直到符合你的输出标准。由于我最后会用Figma排版,所以这里只是把要用的文本摘出来,没做过多处理。如此一来,三个支线任务加上底图生成便顺利完成。对于剩下的未来思维导图,考虑到AI还不能很好地直接生成文字和图形结合的diagram,我决定用它生成一些辅助大纲。类似的,我添加了两个自由节点上传前两期的思维导图作为参照,并引用了未来世界观和驱动力作为背景知识。这是AI生成的结果,超出预期,不无帮助。我也试过让AI根据大纲生成导图,但结果不太理想。