Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

scref 使用指南

Answer

以下是关于 sref 的使用指南:

风格一致

  • 指南:垫图链接(可选择)+关键词+“--sref” +图片链接+风格化参数+“--v 6.0”
  • 指令:url +关键词+“--sref” + url +“--sw” +“--v 6.0”
  • --sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为[0,1000]
  • 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如-- sref url A::2 url B::3 url C::5
  • 适用模型:V6 和 Niji V6

常见问题

  • 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。
  • 以下是如何在使用 Vary Region 时使用--sref 图像来帮助加强风格的方法:
    • 确保 remix 已打开。放大 - 点击[Vary Region]。
    • 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。
    • 将您的细节添加到提示中。
    • 记得用一些详细的描述(至少 5 - 7 个词)描述它。
    • 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的--sref。

详细步骤: --sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 - 2 - 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 - 49b4 - 4831 - 95b1 - 486d05452313.png

Content generated by AI large model, please carefully verify (powered by aily)
Others are asking
--scref 教程
以下是关于“sref”的教程: “sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅 123 步骤教程开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d164449b4483195b1486d05452313.png 莱森的教程: Midjourney cref 海马体写真教程,10 分钟不到出写真。 得益于cref,midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。 风格复制和服装的替换,应当用提示词(prompt)和sref,默认值 100,越高越接近参考图像的风格。 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合sref。 详细步骤: 将“sref”和 URL 添加到提示的末尾。 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.sref https://s.mj.run/9DFZsjKwkyE v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。sref https://s.mj.run/9DFZsjKwkyE v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548cc114cdcabacbab5091ba111.png
2024-08-18
trae的使用指南
以下是 Trae 的使用指南: 一、Trae 简介 Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,使用自然语言对话就能实现代码编写。 二、Trae 的功能 1. 提供传统的 IDE 功能,包括代码编写、项目管理、插件管理、源代码管理等。 2. 智能问答:在编写代码时,可随时与 AI 助手对话,获得代码解释、注释和错误修复等帮助。 3. 实时代码建议:AI 助手能理解当前代码并在编辑器中实时提供建议,提升编程效率。 4. 代码片段生成:通过自然语言描述需求,生成相应代码片段,甚至能编写项目级或跨文件的代码。 5. 从 0 到 1 开发项目:告诉 AI 助手想开发的程序,它将提供相关代码或自动创建所需文件。 三、下载 Trae 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 四、使用方法 1. 安装:下载完成后按照界面提示一步步安装。 2. 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完可能会出现“App Unavailable”,此时需要开启科学上网。 3. 网页登录成功后可关闭科学上网,再点击中间大按钮,自动进入 Trae 客户端。 五、模式选择 1. Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 2. Builder 模式:可让 Trae 帮助从 0 开发一个完整的项目,对代码文件的任何更改都会自动保存。 六、使用案例 1. 生成一个贪吃蛇游戏 打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后,Trae 开始思考和代码编写,期间需手动接入进行文件审查,点击“全部接受”。 代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到实现的游戏效果,试玩基本无 Bug。 Trae 会进行工作总结,说明已实现的功能,如游戏包含的特性、主要功能和游戏界面等。 2. 生成一个任务清单应用 在输入框中输入:使用 Web 技术开发一个任务清单应用。 3. 根据 UI 设计图自动生成项目代码 从站酷上找一张设计图,输入提示:使用 html 技术实现如图大屏页面。 七、总结 从实际体验来看,Trae 表现可圈可点。 1. 高效代码生成能力:能在几分钟内生成完整框架,代码结构清晰且功能齐全,甚至能自动处理依赖项和运行命令。 2. 多技术栈支持:对 Web 技术掌握远超预期,生成的代码可直接运行且无明显语法错误。 3. 动态调整潜力:能根据用户反馈快速调整样式,自适应布局的实现展现了 AI 的迭代能力。
2025-04-09
deepseek的安装与使用指南
以下是关于 DeepSeek 的安装与使用指南: 安装: DeepSeek 网址为:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用: 1. 搜索 www.deepseek.com ,点击“开始对话”。 2. 点击开始对话后,左边选择代码助手。 3. 将装有提示词的代码发给 DeepSeek 。 4. 认真阅读开场白之后,正式开始对话。 此外,通过以下方式可以让 DeepSeek 的能力更上一层楼: 1. 用 Coze 做效果对比测试。 2. 设计思路包括将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现同时使用联网功能和深度思考功能,在模型默认能力基础上优化输出质量等。 3. 完整提示词可参考相关版本。 在 AI 编程与炼金术方面,DeepSeek 也有相关应用,例如在 Trae 中的使用,具体可参考以下知识图谱: |章节|知识点| ||| || || || || || || || || || || || ||
2025-02-25
清华104页AI使用指南
以下是清华 104 页 AI 使用指南的相关内容: 智能纪要部分: 共学课程涵盖 config UI 从入门到精通,还有个人专栏研究报告、产品数据、全球投融资情况等内容,做项目时可查看细分赛道融资情况,也可学习 AI 功能创业,介绍了企业专栏内容如 Kimi 的技巧等。 提到了 AI 的案例和投稿,包含开发相关、微信机器人、人物角色等内容,还有日报动态、法律法规、历史更新和社区介绍等,布置了关于 AI 兴趣方向的小作业。 介绍了 CONFIUI 生态大会东京站 11 月 16 17 日的活动内容及报名,包括社区共创项目、大奖、首届活动情况、海外创作者共学等。 总结了关于 AI 知识库使用及 AIPO 活动的介绍,包括使用情况、发起背景、内容安排及相关资源等;AIPO 线下活动及 AI 相关探讨,包括规则、玩法、重要地位和研究方向等;way to AGI 社区活动与知识库介绍,包括活动安排、材料准备、使用和内容更新等;还包括时代杂志评选的领军人物、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。 介绍了 AI 相关技术与活动,如 AI 音乐创作、数字人语音合成、config UI 的应用,以及社区共创项目如东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等,还有作业与报名、线下寄送物料组织活动、AI 春晚即将开始、AIPO 活动及相关挑战、共学活动与技能提升、硬件机器人材料购买、自媒体发布与流量扶持、活动奖项与历史玩法、工具使用与新大赛预告等。
2025-02-17
deepseek 使用指南
以下是 DeepSeek 的使用指南: 1. 效果对比:用 Coze 做了小测试,可对比查看相关视频。 2. 如何使用: 步骤 1:搜索 www.deepseek.com,点击“开始对话”。 步骤 2:将装有提示词的代码发给 DeepSeek。 步骤 3:认真阅读开场白之后,正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,还有以下相关内容: 1. 2 月 7 日的社区新闻速递中,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能及使用方法。 2. DeepSeekR1 提示词系统完全指南: 核心原理认知:包括 AI 特性定位(多模态理解、动态上下文、任务适应性)和系统响应机制(采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重、符号强调敏感)。 基础指令框架:如果不知道如何表达,可套用框架指令,包括四要素模板、格式控制语法(强制结构、占位符标记、优先级符号)。 进阶控制技巧:包括思维链引导(分步标记法、苏格拉底式追问)、知识库调用(领域限定指令、文献引用模式)、多模态输出。
2025-02-12
deepseek使用指南
以下是 DeepSeek 的使用指南: 1. 效果对比:用 Coze 做了小测试,可对比查看 2. 如何使用: 步骤 1:搜索 www.deepseek.com,点击“开始对话” 步骤 2:将装有提示词的代码发给 Deepseek 步骤 3:认真阅读开场白之后,正式开始对话 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,同时减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不太稳定)。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,还有以下相关内容: 1. 2 月 7 日的社区新闻速递中,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法,旨在帮助用户更好地掌握 AI 工具的使用,提升工作效率和创新能力。 2. DeepSeekR1 提示词系统完全指南: 核心原理认知: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架:如果不知道如何表达,可套用框架指令。包括四要素模板、格式控制语法(强制结构:使用```包裹格式要求;占位符标记:用{{}}标注需填充内容;优先级符号:>表示关键要求,!表示禁止项)。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 多模态输出。
2025-02-11
使用指南
以下是为您提供的几种使用指南: Midjourney 的使用指南: Midjourney v6 版本提供“风格一致性”功能,用户输入一幅图像,MJ 可根据其风格创作,如素描风、油画风等。参考。 使用指令:垫图链接(可选择)+关键词+“sref”+图片链接+风格化参数+“v 6.0”。指令为:url+关键词+“sref”+url+“sw”+“v 6.0”。“sw”风格化参数用于控制整体风格强度,默认为 100,数值范围为。参考多张图像风格时,url 间使用空格隔开,权重代表不同参考风格的权重。 sref 模仿图片风格,垫图模仿图片结构、元素。 生成 url:准备一张照片和想要的写真风格参考图片。Prompt:垫图 url+Chinese female model,upper body,clothes with collars,bright space natural pose,big earrings,Chinese traditional minimalism,flat illustration,geometric shapes,minimalismniji 6ar 3:4sw 200sref url 。适用模型为 V6 和 Niji V6 。 Discord 的使用指南: 注册和下载:在 Discord 官网(discord.com)注册账号,可使用谷歌、Facebook 等账号直接登录。根据设备(Windows、Mac、Linux、iOS、Android 等)下载并安装应用程序或使用网页版。 创建或加入服务器:可创建新服务器并邀请朋友加入,或通过邀请链接或搜索加入现有公开服务器。每个服务器可创建多个不同频道。 频道介绍:服务器通常包含多种类型频道,如文字频道用于文字聊天,语音频道用于语音通话,私聊频道用于与个人好友私聊。 权限管理:服务器所有者可设置频道权限,如允许/禁止发送图片/文件,设置只读权限等。还能创建不同身份组管理成员权限。 消息和信息交互:在频道中可发送文字、表情包、图片、视频、文件等丰富消息内容,系统支持 Markdown 语法格式化文本,成员间可回复、引用、添加表情等交互。 语音和屏幕共享:进入语音频道可进行语音聊天、视频通话,还可共享屏幕画面。 机器人和扩展:有大量机器人供选择添加,实现娱乐、提示、搜索等功能。还可浏览商店添加扩展定制界面和体验。 移动设备使用:在手机和平板电脑上安装应用,随时随地聊天保持在线互动。 Fooocus 的使用指南: Fooocus 使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。保留了 SD 的开源属性,可部署到本地免费使用;操作界面吸取了 midjourney 简洁的特点,省去了 WebUI 中复杂的参数调节,让用户专注于提示和图像。只有图像展示窗口、正向提示词和生成按钮 3 项。勾选“Advanced”会弹出高级设置窗口,可调整画面宽高比、风格、图像数量、种子值、反向提示词、模型、lora 权重比值、图像锐利程度等。风格选项整合了 100 多种常见画面风格,涉及写实、胶片、电影质感、动漫、水彩、黏土、3D、等距、像素、霓虹、赛博朋克、波普、纸艺等方面。高级选项用于设置模型、lora、清晰度等。 配置要求:本地部署,需要不低于 8GB 的内存和 4GB 的英伟达显卡。 Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus (文末领取软件+模型整合包:16G) 使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 大模型(base 和 Refiner)默认放在这里:\\Fooocus_win64_1110\\Fooocus\\models\\checkpoints
2025-02-11