Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

可以反推关键词的AI

Answer

以下是关于可以反推关键词的 AI 的相关内容:

在 Midjourney 中,AI 以半抽象方式解析提示,更倾向处理整体概念。获得理想结果的关键在于具体性,可从简单提示或参数修改开始逐步调整。此外,还可通过反推关键词来解析,方法如下:

  1. 初始提示:例如“Prompt:A banana is floating in the air--v 6.1 提示:一个香蕉漂浮在空中--v 6.1”,查看生成结果,若不错但缺乏特定艺术方向,可进一步迭代优化。
  2. 优化描述:如“Prompt:Banana shaped hologram of molten liquid metal,floating in air,isolated on a lilac background,minimalist design,vector illustration,high resolution photography--v 6.1 提示:香蕉形态的液态金属全息图,漂浮在空气中,在淡紫色背景上,极简设计,矢量插图,高分辨率摄影--v 6.1”。

在 StableDiffusion 中,图生图功能除文本提词框外还有图片框输入口,可通过图片反推提示词。例如,随便一张照片拖入后,文本输入框旁有两个反推提示词的按钮:CLIP 可反推出完整含义的句子;DeepBooru 可反推出关键词组。但两种方式生成的提示词可能有瑕疵,需手动补充信息。

在使用 AI 生成图片时,若想让生成的图片更可控,可利用 seed 参数反向生成。Midjourney 会用种子号绘图,默认随机,可使用--Seed 或--same eseed 参数指定相同种子号和提示符以产生类似结尾图片。例如“caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k--seed 8888”,能保证每次生成相同的图,还可反向利用此特性对已确定的效果图进行微调。

Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney 基础知识 · 提示

MidJourney的AI以一种半抽象的方式解析提示。与其逐字逐句地理解描述,它更倾向于处理整体概念,并尝试让最终的图像与您的描述相符。这意味着具体性是获得理想结果的关键。方法:尝试从较为简单的提示或者参数修改开始,根据生成的结果逐步调整。这种方法比一次性向AI提供过多细节更有助于逐步塑造输出效果[另一种方法,通过反推关键词来解析,不适合新手小白,文章地址:[Midjourney官方用户端·基础介绍](https://mp.weixin.qq.com/s?__biz=MzIyOTc4NjE2NA==&mid=2247492687&idx=1&sn=54f41660f075bed110970cfa63d1bbfc&scene=21#wechat_redirect)]。注意:从上面就已经开始这个步骤了,可反复观看,下面跟着我复习。---方法流程1.初始提示:Prompt:A banana is floating in the air--v 6.1提示:一个香蕉漂浮在空中--v 6.1查看生成的结果:如果看起来不错但缺乏特定的艺术方向,您可以进一步迭代优化。---2.优化描述:Prompt:Banana shaped hologram of molten liquid metal,floating in air,isolated on a lilac background,minimalist design,vector illustration,high resolution photography--v 6.1提示:香蕉形态的液态金属全息图,漂浮在空气中,在淡紫色背景上,极简设计,矢量插图,高分辨率摄影--v 6.1---3.添加调节参数命令:

【SD】真人转二次元?图生图如此强大

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-02 20:00原文网址:https://mp.weixin.qq.com/s/l-O9vT9-_xzy0uvxnkjV-w相比于文生图,图生图功能除了文本提词框以外还多了一个图片框的输入口,因此,我们还可以通过图片来给与AI创作的灵感。我们随便照一张照片,直接拖入进来。然后可以看到,在文本输入框的旁边有两个反推提示词的按钮:CLIP是可以通过图片反推出完整含义的句子;DeepBooru是可以反推出关键词组。上面的那一张图,我们通过两种反推方式得到的提示词分别为:CLIP——a young boy sitting on a bench with a toy train and a lego train set on the floor next to him,Adam Rex,detailed product photo,a stock photo,lyco art。(一个小男孩坐在长凳上,旁边的地板上放着一辆玩具火车和一辆乐高火车,亚当·雷克斯,详细的产品照片,一张库存照片,莱科艺术,)DeepBooru——shoes,solo,hat,orange_background,yellow_background,smile,socks,black_hair,sitting,sneakers。(鞋子,独奏,帽子,橙色背景,黄色背景,微笑,袜子,黑发,坐着,运动鞋)可以看到两种方式生成的提示词都有些瑕疵,比如第一组里面没有描述小孩的穿着,第二组里面没有描述小孩的性别和周围的物品,所以我们需要手动来补充提示词的信息。写好提示词之后,我们再调整一下宽度和高度,让这个红框刚好匹配我们的图片即可。接下来,最重要的是这两个参数:提示词相关性和重绘幅度。

如何让生成的图片更加可控?

我在使用AI做真实需求的时候,就会遇到一个困惑,就算每次复制一样的关键词,但生成图一样会出现很强的随机性。那如何调教它,生成自己想要的图呢?经过我的研究,我发现可以利用seed参数,反向生成。1.1.利用seed反向调整先从官方文档中看看seed这个参数到底是做啥的:Midjourney会用一个种子号来绘图,把这个种子作为生成初始图像的起点。种子号是为每张图随机生成的,但可以使用--Seed或--same eseed参数指定。使用相同的种子号和提示符将产生类似的结尾图片。详细参数可以看看官方文档:[https://docs.midjourney.com/docs/seeds](https://link.uisdc.com/?redirect=https%3A%2F%2Fdocs.midjourney.com%2Fdocs%2Fseeds)默认情况下,这个种子是随机给的,所以如果我们想要比较相似的图,就需要把seed固定下来。简单来说,在用的时候,给关键词加一个seed参数就好,具体数字是多少无所谓(只要在0–4294967295范围内)比如caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k--seed 8888这样就能保证每次生成的都是一模一样的图了。那有人可能会问,每次都生成一模一样的图有什么用呢?其实就可以反向利用这个特性,来对已经确定的效果图进行微调了。比如当我发现有一张图已经比较接近目标了,那么还需要有一些微调,怎么做呢?思路就是利用确定图片的seed,再它的基础上再加上新的关键词,以此来对它进行微调。

Others are asking
提示词反推工具
以下是关于提示词反推工具的相关信息: LayerStyle 副本中的 LayerUtility 部分: PromptTagger:根据图片反推提示词,可以设置替换词。使用 Google Gemini API 作为后端服务,需在申请 API key,并填到插件根目录下的 api_key.ini 文件中(默认名字是 api_key.ini.example,初次使用需将文件后缀改为.ini,用文本编辑软件打开,在 google_api_key=后面填入 API key 并保存)。节点选项包括:api(目前只有"geminiprovision"一个选项)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish:输入简单的提示词,输出经过润色的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,同样需按上述方式处理 API key。节点选项包括:image(可选项,输入图像作为提示词参考)、api(目前只有"googlegemini"一个选项)、token_limit(生成提示词的最大 token 限制)、discribe(在这里输入简单的描述,支持中文)。 SD 中的相关内容: 在图生图功能中,除了文本提词框外还有图片框输入口。随便照一张照片拖入后,文本输入框旁边有两个反推提示词的按钮:CLIP 可以通过图片反推出完整含义的句子;DeepBooru 可以反推出关键词组。但两种反推方式生成的提示词可能存在瑕疵,需要手动补充信息。写好提示词后,调整宽度和高度使红框匹配图片,同时注意两个重要参数:提示词相关性和重绘幅度。 其他: ImageScaleByAspectRatioV2 是 ImageScaleByAspectRatio 的 V2 升级版,在其基础上做了改变,节点选项包括 scale_to_side(允许按长边、短边、宽度、高度或总像素指定尺寸缩放)、scale_to_length(这里的数值作为 scale_to_side 指定边的长度,或者总像素数量)。 QWenImage2Prompt:根据图片反推提示词,是 ComfyUI_VLM_nodes 中 UFormGen2 Qwen Node 节点的重新封装。需从下载模型到 ComfyUI/models/LLavacheckpoints/files_for_uform_gen2_qwen 文件夹。节点选项包括 question(对 UFormGenQWen 模型的提示词)。
2025-03-21
提示词反推
以下是关于提示词反推的相关内容: 一、第二十一期港风胶片 1. 活动介绍 墨悠大佬的胶片 lora 模型搭配 flux1 dev 大模型,具有文艺复兴、唯美胶片复古的风格。 lora 模型链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. 教程 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 lo。上一期活动链接:。胶片 lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 二、【SD】真人转二次元 1. 相比于文生图,图生图功能除了文本提词框以外还多了一个图片框的输入口,因此,我们还可以通过图片来给与 AI 创作的灵感。 2. 随便照一张照片,直接拖入进来。 3. 在文本输入框的旁边有两个反推提示词的按钮:CLIP 是可以通过图片反推出完整含义的句子;DeepBooru 是可以反推出关键词组。 示例:上面的那一张图,通过两种反推方式得到的提示词分别为: CLIP——a young boy sitting on a bench with a toy train and a lego train set on the floor next to him,Adam Rex,detailed product photo,a stock photo,lyco art。(一个小男孩坐在长凳上,旁边的地板上放着一辆玩具火车和一辆乐高火车,亚当·雷克斯,详细的产品照片,一张库存照片,莱科艺术,) DeepBooru——shoes,solo,hat,orange_background,yellow_background,smile,socks,black_hair,sitting,sneakers。(鞋子,独奏,帽子,橙色背景,黄色背景,微笑,袜子,黑发,坐着,运动鞋) 4. 两种方式生成的提示词都有些瑕疵,需要手动补充提示词的信息。写好提示词之后,调整宽度和高度,让红框刚好匹配图片。接下来,最重要的是提示词相关性和重绘幅度这两个参数。 三、ComfyUI 图片提示词反推 1. 在 ComfyUI 里使用 MiniCPM 做图片提示词反推与文本提示词生成,可以和 flux 模型配合生成图片。建议使用量化版本的模型(int4 结尾),可以节省显存。 2. ComfyUIMiniCPMPlus 安装方法 进入 ComfyUI 自定义节点目录。 克隆此仓库。 重启 ComfyUI。 3. 网盘:https://pan.quark.cn/s/00b3b6fcd6ca 。下载后放入 ComfyUI 的 models 文件夹下 MiniCPM 文件夹中,没有就新建一个。
2025-03-15
SD 反推模型
以下是关于 SD 反推模型的相关内容: Fooocus 模型: LoRA 模型默认放在:Fooocus_win64_1110\\Fooocus\\models\\loras 程序默认用到 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。单独安装需下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,可共用模型(大模型和 LoRA),通过修改 Fooocus_win64_1110\\Fooocus\\modules\\path.py 文件中的路径来配置,修改为秋叶包模型对应的路径,如: 大模型路径:sdwebui\\models\\Stablediffusion\\SDXL LoRA 模型路径:sdwebui\\models\\lora 配置好后点击 run.bat 文件启动。 Comfyui SD 学社做黏土头像的相关插件: 提示词反推 WD14Tagger:https://github.com/pythongosss/ComfyUlWD14Tagger,首次使用会自动下载模型(需要网络环境) 处理人物一致性: IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus 也可以用 instantID,这里使用的是 IPadpter,后续很多地方也会用到,建议先使用起来。关于 IPAdapter 的使用,之前有文章介绍。 ControlNet: 预处理的插件:comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_aux ControlNet 模型: XLCN 模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main 1.5 理模型下载:https://huggingface.co/lllyasviel/ControlNetv11/tree/main ControlNet 的 tile 模型: 随着 ControlNet1.1 的更新,tile 模型横空出世,其强大的功能让之前的一些模型变得有点黯然失色。 可用于高清修复小图,比如将分辨率不高的食物图片拖进“WD 1.4 标签器”反推关键词,然后发送到图生图。使用大模型“dreamshaper”调整参数尺寸,放大为 2K,提示词引导系数官方推荐在 15 以上,重绘幅度在 0.5 以上。 可用于修复和增加细节,如处理一张细节不足且结构错误的小屋图。tile 的预处理器用来降低原图的分辨率,为新图添加像素和细节提供空间。若图片本身像素很低,可以不使用预处理器,直接使用 tile 模型。
2025-03-13
ai提示词反推工具
以下是关于 AI 提示词反推工具的相关信息: 在图生图功能中,除了文本提词框外还有图片输入口,可通过图片给 AI 创作灵感。有两种反推提示词的按钮,CLIP 能通过图片反推出完整含义的句子,DeepBooru 可反推出关键词组。但生成的提示词可能存在瑕疵,需要手动补充信息。调整好提示词后,还需注意宽度、高度以及提示词相关性和重绘幅度等参数。 另外,LayerStyle 副本中的 PromptTagger 可根据图片反推提示词并设置替换词,使用 Google Gemini API 作为后端服务,需申请 API key 并正确填写配置文件。PromptEmbellish 输入简单提示词能输出润色后的提示词,也支持输入图片作为参考,同样依赖 Google Gemini API 服务。 同时,为您提供以下提示词相关的资源: Majinai: 词图: Black Lily: Danbooru 标签超市: 魔咒百科词典: AI 词汇加速器: NovelAI 魔导书: 鳖哲法典: Danbooru tag: AIBooru:
2025-03-05
ai提示词反推
在 AI 中,关于提示词反推,以下是一些相关信息: 在图生图功能中,除了文本提词框,还有图片框输入口。通过图片可给与 AI 创作灵感,文本输入框旁有两个反推提示词的按钮,CLIP 能通过图片反推出完整含义的句子,DeepBooru 能反推出关键词组。但两种方式生成的提示词可能存在瑕疵,需要手动补充信息。调整宽度和高度,使红框匹配图片。此外,提示词相关性和重绘幅度这两个参数很重要。 样例驱动的渐进式引导法能充分发挥 AI 自身的逻辑分析和抽象总结能力,从用户提供的样例中总结方法论,用户判断方法论正确与否并提出意见,为提示词爱好者提供低门槛生成途径。但 LLM 有上下文长度限制,在长对话中可能导致 AI 遗忘早期内容,影响输出质量,所以需要引入“提示词递归”的概念与方法,具体步骤包括初始提示、定期总结、重新引入、细化和拓展、验证和优化。
2025-03-05
图片提示词反推工具
以下是关于图片提示词反推工具的相关信息: LayerStyle 副本:根据图片反推提示词,可设置替换词。使用 Google Gemini API 作为后端服务,需在申请 API key,并填到插件根目录下的 api_key.ini 文件中(默认名字为 api_key.ini.example,初次使用需将后缀改为.ini,用文本编辑软件打开,在 google_api_key=后面填入 API key 并保存)。节点选项包括:api(目前只有"geminiprovision"一个选项)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish:输入简单的提示词,输出经过润色的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,同样需申请并填写 API key。节点选项包括:image(可选项,输入图像作为提示词参考)、api(目前只有"googlegemini"一个选项)、token_limit(生成提示词的最大 token 限制)、discribe(在这里输入简单的描述,支持中文)。 【SD】真人转二次元:图生图功能除文本提词框外还有图片框输入口,可通过图片给与 AI 创作灵感。有两个反推提示词的按钮:CLIP 可通过图片反推出完整含义的句子;DeepBooru 可反推出关键词组。但生成的提示词可能有瑕疵,需手动补充信息。调整宽度和高度使红框匹配图片,同时注意提示词相关性和重绘幅度这两个参数。 第二十一期港风胶片: 活动介绍:墨悠大佬的胶片 lora 模型搭配 flux1 dev 大模型,文艺复兴,唯美胶片复古。lora 模型链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 教程: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 lo。上一期活动链接: 胶片 lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page
2025-02-18
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
使用coze提取包含我指定的几个关键词的小红书内容数据进行汇总及分析
以下是关于使用 Coze 提取包含指定关键词的小红书内容数据进行汇总及分析的相关内容: 首先,在“一枚扣子:Coze 应用+多维表格的高速数据分析”中提到: 1. 需求是根据博主链接获取笔记并自动写入多维表格,然后进行批量分析。 2. 完成后端准备工作后,需找到博主地址,批量读取笔记并写入多维表格的 note_url 列。 3. 打开 Coze 创建应用,可选择 PC 模式,需要几个参数如多维表格地址、数据表名、小红书博主首页地址。 4. 设计读取博主笔记列表的工作流,包括创建应用、开发工作流等步骤。工作流实际上只有读取、转换、写入三步,开始节点设置三个参数,第二步需进行数据转换,添加代码节点,最后在插件市场选择多维表格插件并配置参数。 其次,在“舆情管理大师汽车 bot 小队.pptx”中: 1. 提到采集结果实时更新、智能总结链接内容、智能打分辅助判断等功能。 2. 构建高效数据流转体系,包括数据入表、关键词库等。 3. 任意关键词的工作流都适配,只需要调整 prompt。 最后,在“一枚扣子:2.0Coze 应用+多维表格+数据分析”中: 1. 介绍了配置管理,通过用户变量保存设置用于其他工作流。 2. 编排工作流,在开始节点添加变量接收 UI 输入的配置参数。 3. 包括账号分析、关键词/赛道分析等工作流,基础工作流用于查询,同步数据工作流涉及代码节点。 综上所述,使用 Coze 提取小红书内容数据进行汇总及分析需要创建应用、配置参数、设计工作流,并结合多维表格等工具实现相关功能。
2025-03-25
我要写论文,想看看知网有哪些关键词应该怎么样提问ai
以下是关于知网关键词提问以及相关 AI 应用的一些信息: 知网关键词提问: 对于论文写作,在知网中提问关键词时,可以参考以下方面:书籍、报告、文件、详细信息、查询、主题、作者、出版日期、出版社、问题、方面、原则、方法、概括、主要观点、解释。 提问模板: 第一步:输入信息。向 ChatGPT 提供您要查询的书籍、报告或文件的详细信息,提供越详细,越能针对问题提供准确答案。例如:书籍:(书名)+(作者)+(出版日期)+(出版社);报告:(时间)+(主题);文件:(名称)。 第二步:提出问题。例如:这本书当中提到了关于 XXX 的哪些方面/原则/方法?根据 XXX 报告,XXX 行业的增长趋势是怎样的?请给我一个关于《XXX》报告的简要概括等。 AI 应用: 在图片生成方面,为了生成想要的图片,一般图片内容会分为二维插画以及三维立体两种主要表现形式。生成图片时,主题描述可以包括场景、故事、物体、人物的细节和搭配等。设计风格可以通过找风格类的关键词参考或垫图/喂图让 AI 生成相应风格的图片。但一个大场景中有多个角色的细节不太容易通过关键词生成。 开搜 AI 搜索是一款免费无广告、直达结果的搜索工具,具有以下应用场景: 帮助在校学生快速搜集专业领域的学术资料,智能总结关键信息,助力撰写论文和报告,同时支持查看来源出处,参考价值高。 方便教育教师群体获取丰富的教学资源,自动生成教案和课题研究报告,提高教学内容的准备效率。 助力职场办公人群高效查找工作所需信息,简化文案撰写、PPT 制作和工作汇报的准备工作。 为学术研究人员提供深入的行业分析,通过 AI 技术整合和总结大量数据,形成有深度的研究报告。
2025-03-21
怎么学ai关键词
学习 AI 关键词可以从以下几个方面入手: 1. 主题描述: 可以描述场景、故事、元素、物体或人物的细节和搭配。 对于场景中的人物,要进行独立描述,避免用一长串文字,将其拆分为多个部分,如“一个男孩、穿着红色盔甲、站在山顶”,这样更易接近想要的场景。但大场景中多个角色的细节不太容易通过关键词生成。 2. 设计风格: 设计师可能难以直接表达设计风格,可找风格类关键词参考或用垫图/喂图的方式,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。 研究特定材质如玻璃、透明塑料、霓虹色彩等的关键词,某些情况下可能需要加入设计师风格,单纯控制材质较难达到要求。 3. 视频镜头: 例如黑白镜头,提示词可为“黑白镜头,展示一个老街区的复古场景,增强怀旧感”。 特写镜头,如“特写镜头展示一双男性眼睛”。 微距镜头,如“微距镜头,超近距离拍摄一个蚂蚁的触角,背景虚化,增强画面的细腻感和真实感”。 掌握并理解提示词中的核心关键词并不困难,只要方法正确,就能独立还原并创新创作过程。大家可以一起收集和测试适用 AI 绘画提示词中的核心关键词,根据关键词做创意,收录不错的作品。
2025-03-10
请以轨道式、巡检机器人为关键词查找国外文献十五篇,要求这些文献真实可靠并且有一定的影响力,同时附上原文链接
很抱歉,目前没有查找到以轨道式、巡检机器人为关键词的国外文献十五篇及原文链接。建议您通过以下途径进行查找: 1. 学术数据库,如 Web of Science、Scopus 等。 2. 相关领域的专业学术期刊网站。 3. 大学图书馆的电子资源库。
2025-03-06
sd的关键词可以用中文吗
在 Stable Diffusion 中,通常只能识别英语关键词。但不用担心,您可以直接使用翻译工具将中文关键词翻译成英语后输入。比如,若您想生成一个漂亮的小姐姐站在大街上,可以写成“1 girl, beautiful, standing, street”这样的形式。输入关键词时,常用一个个单词并用英文状态下的逗号隔开。不过,对于中文字体的处理,也有一些方法,如将中文字做成白底黑字存成图片样式,再使用文生图的方式等。在输入关键词时,还可以先写一些提升照片质量的词语,使生成的照片更加精致。
2025-03-06
我想通过在sciencedirect上输入关键词后,让AI帮助我整理该词条下文献的内容,输出当今的研究现状、现存问题、解决方法
目前在 ScienceDirect 上,还没有直接通过输入关键词让 AI 为您整理文献内容并输出研究现状、现存问题及解决方法的成熟功能。但您可以利用一些 AI 工具,如文献分析类的软件,先将从 ScienceDirect 下载的文献导入其中,然后让其协助您进行分析和总结。不过,在使用任何工具时,都需要您自己对结果进行评估和筛选,以确保准确性和可靠性。
2025-02-25