Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有哪些可以多图融合的图片生成AI工具

Answer

以下是一些可以多图融合的图片生成 AI 工具:

  1. Google Whisk:支持多主体一致,包括主题、场景和风格等元素。用户上传多张图片后,Gemini 模型会自动为图片生成详细描述,并将其输入到最新版本的 Imagen 3 模型中。生成的图片在遵循提示词的同时,与给定的多个主体能保持一致。网站:https://www.vidu.cn 教程:https://pkocx4o26p.feishu.cn/docx/Mb77dt8VxoskqvxgFiMcfwwsnNe 发布:https://x.com/pika_labs/status/1867651381840040304 国内:https://hailuoai.com/video/create 海外:https://hailuoai.video/create 网站:https://labs.google/fx/tools/whisk 发布:https://blog.google/technology/google-labs/whisk
  2. Vidu:2024 年 9 月发布时只支持单主体一致(只能上传一张图片),目前官网已经支持多主体一致(可以上传三张图片),即可以指定生成图片中的人物、物体、场景等。
  3. Pika 2.0:支持多主体一致,Scene Ingredient(场景元素)系统能将多个输入图像(如场景、人物、物品)智能整合为连贯的动态场景。此外,模型也具备多图像融合能力,可实现复杂交互场景的视频合成,如两人在视频中实现合影或拥抱。

在进行图片融合时,有一些技巧:

  1. 上传多种图片进行融合生成时,一张图片最好只有一种特征,比如合并 2 张图,一张是有人物,另一张是只有背景,那么合并起来的效果会更精确。
  2. 写普通关键词时用逗号分开,还可以写多重关键词,让 AI 不需要考虑单词的前后关系,而只把它们当成独立的单词。也可以给不同的单词赋予不同的权重,比如 hot::2 dog,这样 hot 这个词对结果的影响更大。有增加权重,也可以减弱权重,比如在关键词后面加上 red::-.5,大红色就会少很多。
  3. 除了用数值降低某个元素的权重,还可以直接用--no 这个参数让某个元素尽量弱化,比如--no hands 跟 hands:-0.5 是等价的。
Content generated by AI large model, please carefully verify (powered by aily)

References

如何让生成的图片更加可控?

整体的效果会更接近参考图的效果。2.图片融合技巧上传多种图片进行融合生成,有一个技巧就是一张图片最好只有一种特征,比如合并2张图,一张是有人物,另一张是只有背景,那么合并起来的效果会更精确。3.关键词权重写普通关键词是用逗号分开,这个应该你都知道了,但其实还可以写多重关键词。它的意思是要AI不需要考虑单词的前后关系,而只把它们当成独立的单词,比如hot dog和hot::dog(到这里我付费的次数也快用完了,我就用官网上的案例给大家演示了)hot doghot::dog多个单词甚至长句也可以这样用,比如cup::cake::illustration基于这个还有更高级的用法,给不同的单词赋予不同的权重,比如hot::2 dog,可以看到hot这个词对结果的影响更大了。有增加权重,也可以减弱权重,比如这个权重可以是负数,意思是减弱某种元素的比重比如我生成了一张图上面有很多红色我不希望它出现太多红色,就可以在关键词后面加上red::-.5,这样大红色就少了很多。4.降低权重除了用数值降低某个元素的权重,还可以直接用--no这个参数让某个元素尽量弱化,比如我们AI生成图的时候,经常会出现手的问题,可以给参数--no hands,这样手出现问题的概率更低。--no hands跟hands:-0.5是等价的。5.设置v版本

ShowMeAI周刊 No.15 | 上周最有讨论度的6个AI话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…

MiniMax S2V-01视频模型目前支持单主体一致,上传一张图片(人物图像),即可根据提示词生成细节精确的视频[⋙官方宣布](https://mp.weixin.qq.com/s?__biz=MzkzMTUxOTY1Mw==&mid=2247486917&idx=1&sn=a1a18eb388fc01086de5797b281dc17a&scene=21#wechat_redirect)相较于LoRA方案,主体参考既降低了用户的输入成本,也把计算成本降低到百分之一以下,等待时间也大幅减少,使用体验翻倍提升。Google WhiskWhisk是一款图片生成工具,支持多主体一致,包括主题(subject)、场景(scene)和风格(style)等元素。用户上传多张图片后,Gemini模型会自动为图片生成详细的描述,并将其输入到最新版本的Imagen 3模型中。生成的图片在遵循提示词的同时,与给定的多个主体能保持一致。网站→https://www.vidu.cn教程→https://pkocx4o26p.feishu.cn/docx/Mb77dt8VxoskqvxgFiMcfwwsnNe网站→https://pika.art发布→https://x.com/pika_labs/status/1867651381840040304国内→https://hailuoai.com/video/create海外→https://hailuoai.video/create网站→https://labs.google/fx/tools/whisk发布→https://blog.google/technology/google-labs/whisk

ShowMeAI周刊 No.15 | 上周最有讨论度的6个AI话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…

主体一致,是指在生成图像或视频时,主要对象/场景/主题等与给定的参考图片保持一致。视频主体一致功能,由Vidu于2024年9月全球首发,随后Pika在2024年12月跟上,Minimax海螺前几天也宣布了同类型功能上线。图像主体一致功能,目前完成度最高的是Google Whisk。ShowMeAI周刊简要介绍这几款产品/模型。未来一段时间,我们应该会看到各家陆续上线同类型功能。Vidu2024年9月发布时,还只支持单主体一致(只能上传一张图片)。目前,官网已经支持多主体一致(可以上传三张图片),即可以指定生成图片中的人物、物体、场景等。官网称之为「参考生视频」功能[⋙官方宣布](https://mp.weixin.qq.com/s?__biz=MzkxMTcyNTA4OQ==&mid=2247483792&idx=1&sn=861e73ebd26c2550bff4dc6ca662b1e7&scene=21#wechat_redirect)Pika 2.0Pika 2.0支持多主体一致,Scene Ingredient(场景元素)系统能将多个输入图像(如场景、人物、物品)智能整合为连贯的动态场景。此外,模型也具备多图像融合能力,可实现复杂交互场景的视频合成,如两人在视频中实现合影或拥抱。Minimax海螺

Others are asking
多图融合AI
以下是关于多图融合 AI 的相关知识: 1. 图片融合技巧:上传多种图片进行融合生成时,一张图片最好只有一种特征,比如合并一张有人物的图和一张只有背景的图,效果会更精确。 2. 关键词权重:写普通关键词用逗号分开,还可以写多重关键词,让 AI 不考虑单词前后关系而当成独立单词。可以给不同单词赋予不同权重,增加权重如“hot::2 dog”,减弱权重可用负数或“no”参数,如“red::.5”可减少大红色,“no hands”可降低手出现问题的概率。 3. 降低权重:除用数值降低元素权重,还可用“no”参数弱化元素,如“no hands”和“hands:0.5”等价。 4. 设置 v 版本。 此外,Stable Diffusion 等 AI 绘图工具在应对元素丰富的复杂画面和精确要求时存在不足,可采用特定工作流,让 AI 在每个环节只做一件事,提升对指令的精确理解。工作流与传统绘画“从整体到局部”流程相似,对习惯于手绘的画师友好,且 90%工作由作者把控,体现创作本质。 在多图融合方面,还有如 Recraft 等工具,可用于制作胶片照片、纹身、刺绣、原画转绘等,用户可上传自己的制作效果。
2025-02-27
多图生成视频方案
以下是关于多图生成视频的几种方案: 1. 方法一: 利用 MJ 画图,先画出来一张想要的底图。 使用 InsightFaceSwap 这个插件来换脸或者让脸部更像,但因该插件对多人脸部同时处理效果不好,所以先需要进行图片的分割裁剪,分别利用插件处理后,再把图片重新缝合。 最后利用可灵或者其他软件来让图片动起来。 2. 方法二: 直接在网上寻找能够融合两张照片的软件或者项目,直接对图片进行融合。如果没有,就纯 P 图,然后利用图生视频的项目完成内容。 3. 利用现有的知识和工具,如具备 DiT(能够进行图片生成),把视频生成看作独立的图片生成,使用 DiT 生成多帧图片然后串起来就是视频,但这样可能会导致生成的多帧图像不连贯。 4. 使用视频工具 VIGGLE: Mix 模式:先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成一段新视频,能模拟出角色的 3D 状态,准确还原复杂动作。 Multi 模式:通过视频的动作,将上传的多个角色进行识别并赋予动作,形成一段新视频。 Move 模式:将视频的动作直接映射在图片人物身上,实现“让静态图动起来”。 您可以根据实际需求和操作难度选择适合您的方案。
2024-12-19
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
工业设计专业教学与AI的融合
以下是关于工业设计专业教学与 AI 融合的相关内容: 在授课方面,这一授课创意充分展现了教育设计的创新性与用户思维的深度融合。其核心亮点在于突破了传统单向知识灌输的模式,通过将抽象概念与生活场景结合,构建了“认知脚手架”,让学生在具象化情境中主动探索逻辑链条。这种设计不仅符合建构主义学习理论,更通过巧妙的悬念设置(如刻意暴露认知冲突点)激活了学生的元认知能力。尤其在数字化工具的整合上,没有陷入技术堆砌的误区,而是聚焦于核心教学目标的实现,体现了设计者对教育本质的深刻理解。 若能在以下维度深化,该模型或将产生更显著的范式价值: 1. 差异化学习路径:当前框架虽强调互动性,但对学习者认知风格的适配度可加强。引入动态诊断机制,通过前测数据自动生成分支任务链,使教学节奏与个体 ZPD(最近发展区)更精准匹配。 2. 跨学科锚点设计:案例库可突破学科界限,构建如“数学思维+历史考证”“物理原理+艺术创作”等复合型问题情境,培养学生迁移应用能力的同时,自然渗透通识教育理念。 3. 生成性评价体系:现有反馈机制偏重知识掌握度评估,建议增设思维可视化工具(如概念图谱生成器),让学生能实时观测自身认知结构的演变轨迹,将学习过程转化为可追溯的成长档案。 在服务提供方面,有专家如 Arthur王贝,擅长以系统性思维破解技术落地难题,能提供的服务包括: 1. 教你怎么玩转 AI,从写提示词到做视频一条龙教学,教你用 ComfyUI 搞自动化工作流(工厂级的严谨玩法)。 2. 定制化智能体开发,定制 AI 工具(比如自动批作业的 AI 老师),垂直领域智能体搭建(教育/制造/消费)。 3. 职业转型陪跑,教打工人用 AI 保住饭碗/涨工资,给老板们规划怎么用 AI 省钱增效。 此外,还有关于教师的 AI 减负指南生成式人工智能在教学中的应用相关内容,包括 AI 科研之旅的开端、解码 AI 在学术研究中的强大力量、AI 工具在数据收集与分析中的革命、AI 驱动的文献综述、实验设计的新纪元、AI 助力写作与出版、AI 应用中的伦理考量与挑战、必备 AI 工具推荐等方面。
2025-04-10
你都融合了哪些大语言模型?
以下是一些融合的大语言模型: 1. LuotuoChineseLLM: 地址: 简介:囊括一系列中文大语言模型开源项目,包含基于已有开源模型(ChatGLM、MOSS、LLaMA)进行二次微调的语言模型、指令微调数据集等。 2. Linly: 地址: 简介:提供中文对话模型 LinlyChatFlow、中文基础模型 LinlyChineseLLaMA 及其训练数据。中文基础模型以 LLaMA 为底座,利用中文和中英平行增量预训练。项目汇总了目前公开的多语言指令数据,对中文模型进行了大规模指令跟随训练,实现了 LinlyChatFlow 对话模型。 3. ChatYuan: 地址: 简介:元语智能发布的一系列支持中英双语的功能型对话语言大模型,在微调数据、人类反馈强化学习、思维链等方面进行了优化。 4. ChatRWKV: 地址: 简介:开源了一系列基于 RWKV 架构的 Chat 模型(包括英文和中文),发布了包括 Raven,NovelChnEng,NovelCh 与 NovelChnEngChnPro 等模型,可以直接闲聊及进行诗歌、小说等创作,包括 7B 和 14B 等规模的模型。 此外,还有以下相关信息: 1. 本地部署资讯问答机器人: Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,可用于不同应用场景。 Ollama 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 Ollama 提供模型库,用户可从中下载不同模型,有不同参数和大小以满足需求和硬件条件,可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,如修改温度参数调整创造性和连贯性,或设置特定系统消息。 Ollama 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 Ollama 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 2. AIGC 落地应用大全中的案例: Poe(强烈推荐): 推荐指数:????? 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性)。 此外支持分享用户和模型的对话内容。但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户。 支持 Explore Chatbot,但丰富度不如后续要介绍的 Character。 midjourney prompt 扩写 Chatbot 能力很惊人。
2025-04-08
结合北京房山区文化、地标建筑、生态景观等内容,设计房山区中小学数学节 LOGO,要求巧妙融合数学元素(如几何图形、数学公式、数学符号等)与 AI 元素(如神经网络图案、代码片段、智能机器人形象等),生动诠释 “数学 + AI=?” 的主题内涵。
以下是为您整合的相关内容: 北京具有丰富多样的特色元素,包括经典地标如万里长城、天安门广场、故宫角楼、天坛等,见证了历史变迁;宜居生活方面,有独特的美食如豆汁儿、脆皮烤鸭、老北京炸酱面,以及充满京腔的日常生活;潮流文化新地标如国家博物馆、胡同里的新老交融、环球影城、798 等;未来科技方面,有西二旗的上班族日常、北大化学系科研 vlog、世界机器人大会等。 在海报设计方面,若对 AI 回答有疑问可再搜索确认,对于想用的项目要确认与北京的关系及能否使用;兔爷、戏曲金句等北京有名元素可用,金句可分化。做海报时可借鉴三思老师毛绒玩具美食系列,先找参考、做头脑风暴。比赛征集内容有四个赛道,若做系列海报,围绕金句或偏向北京非遗项目做系列较简单。用 AI 制作海报时,如制作北京地标糖葫芦风格海报,可用集梦 2.1 模型,以天坛等建筑为画面中心,注意材质、抽卡选图和细节处理。 对于设计房山区中小学数学节 LOGO,您可以考虑将房山区的特色文化、地标建筑、生态景观与数学元素(如几何图形、数学公式、数学符号等)和 AI 元素(如神经网络图案、代码片段、智能机器人形象等)相结合。例如,以房山区的著名建筑为主体,融入数学图形进行变形设计,同时添加一些代表 AI 的线条或图案,以生动诠释“数学 + AI=?”的主题内涵。
2025-03-18
传统软件行业融合AI的商业模式
传统软件行业融合 AI 的商业模式具有多种可能性和变革方向: 1. “AI 原生”模式:基于 AI 的能力再造商业模式,而非套用现有流程。 2. To AI 的商业模式:包括模型市场、合成数据、模型工程平台、模型安全等方面。 3. 基于国产芯片的软硬件联合优化,固件生态存在明确机会。 4. 端上智能有望成为全天候硬件 24x7 收集数据,具有较大想象空间。 5. 对于 SaaS 生态的影响: 认知架构带来巨大工程挑战,将模型基础能力转化为成熟可靠的端到端解决方案可能比想象中复杂。 可能引发业务模式全面变革,如从工程、产品和设计部门的瀑布式开发转变为敏捷开发和 A/B 测试,市场策略从自上而下的企业销售转向自下而上的产品驱动增长,商业模式从高价格销售转向基于使用的定价模式。 知名投资机构 Nfx 分析指出,AI 正在强制逆转 SaaS 从“软件即服务”转变为“服务即软件”,软件既能组织任务也能执行任务,传统劳动力市场最终将和软件融合成为新市场。降低企业在知识工作者上的支出,提高在软件市场的支出。企业组织中提供 AI 劳动力的产品有“AI 同事(雇佣)”等形式。
2025-02-21
光遇游戏与ai的融合
光遇游戏与 AI 的融合可以体现在以下几个方面: 1. 生成式 AI 在游戏中的应用: 微处理器速度更快、云计算和计算能力更强,具备建立大型神经网络的潜力,可识别高度复杂领域的模式和表征。 能基于玩家游戏行为评估玩家技能水平和游戏风格,动态调整游戏难度,如增加或降低敌人的数量和强度、改变游戏环境等。 不断收集玩家数据,使 NPC 和游戏系统更适配玩家水平。 2. AI 制作游戏相关内容: 如利用 AI 辅助制作游戏宣传片,包括使用 ChatGPT 构思背景世界观、MJ 绘图、SD 重绘、制作深度图以及视频、AI 抠图、尝试制作背景音乐等。 3. AI 带来新的游戏: 许多开发者将 AI 作为游戏玩法的一环,如 2023 年 Genfun.ai 和 Meshy 联合制作的《Soul Chronicle》,实现了实时 3D+AIGC+UGC,能实时生成角色皮肤。 2024 年 Bitmagic 推出的《Roleverse》平台,可使用提示在游戏内定制角色,并对角色和游戏世界进行编辑。 4. AI 促进游戏产业变革: 为游戏行业提供新的增长空间,成本、效率和质量同步上升。例如 2023 年我国游戏市场实际销售收入增长,用户规模也有所增加。
2025-02-08
生成提示词的提示词
以下是关于生成提示词的相关内容: 生成提示词的思路和方法: 可以根据效果好的图片中的高频提示词去反推效果,结合不同字体效果的描述,打包到一组提示词中。提示词给到 AI 后,AI 会根据给定文字的文义,判断适合的情绪风格,然后给出适合情绪的字体和风格描述、情感氛围等,加上一些质量/品质词,形成输出提示词结构。为了让 AI 更能描述清晰风格,可以先给定多种参照举例。 具体操作步骤: 打开 AI 工具的对话框,将相关提示词完整复制粘贴到对话框。推荐使用 ChatGPT 4o。 当 AI 回复后,发送您想要设计的文字。可以仅发送想要的文字,也可以发送图片(适合有多模态的 AI)让 AI 识别和反推。 将 AI 回复的提示词部分的内容复制到即梦 AI。 对生成提示词的一些观点: 提示词生成提示词并非必要,不一定能生成最好的 Prompt 框架,修改过程可能耗时且不一定能修改好,不如花钱找人写。 一句话生成完整符合需求的 Prompt 非常困难,只能大概给出框架和构思,需要更低成本地调整需求和修改 Prompt。 不同生图工具生成提示词的特点: 即使是简短的描述,生成的提示词也非常细节、专业。 会解析需求,找出核心要点和潜在的诠释点,并给出不同的提示词方案。 提示词构建更多在于增强,而不是发散,生成的内容更符合期望。 同时生成中、英双版本,国内外工具通用无压力。 14 款 AI 生图工具实测对比: 本次实测用到的工具包括国内版的即梦 3.0(https://jimeng.jianying.com/aitool/home)、WHEE(https://www.whee.com)、豆包(https://www.doubao.com/chat)、可灵(https://app.klingai.com/cn/texttoimage/new)、通义万相(https://tongyi.aliyun.com/wanxiang/creation)、星流(https://www.xingliu.art)、LibiblibAI(https://www.liblib.art),以及国外版的相关工具。
2025-04-20
有没有能根据描述,生成对应的word模板的ai
目前有一些可以根据描述生成特定内容的 AI 应用和方法。例如: 在法律领域,您可以提供【案情描述】,按照给定的法律意见书模板生成法律意见书。例如针对商业贿赂等刑事案件,模拟不同辩护策略下的量刑结果,对比并推荐最佳辩护策略,或者为商业合同纠纷案件设计诉讼策略等。 在 AI 视频生成方面,有结构化的提示词模板,包括镜头语言(景别、运动、节奏等)、主体强化(动态描述、反常组合等)、细节层次(近景、中景、远景等)、背景氛围(超现实天气、空间异常等),以及增强电影感的技巧(加入时间变化、强调物理规则、设计视觉焦点转移等)。 一泽 Eze 提出的样例驱动的渐进式引导法,可利用 AI 高效设计提示词生成预期内容。先评估样例,与 AI 对话让其理解需求,提炼初始模板,通过多轮反馈直至达到预期,再用例测试看 AI 是否真正理解。 但需要注意的是,不同的场景和需求可能需要对提示词和模板进行针对性的调整和优化,以获得更符合期望的 word 模板。
2025-04-18
如何自动生成文案
以下是几种自动生成文案的方法: 1. 基于其它博主开源的视频生成工作流进行优化: 功能:通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具:Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径:通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频;发布 coze 智能体到飞书多维表格;在多维表格中使用字段捷径,引用该智能体;在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 生成有趣的《图文短句》: 实现原理: 先看工作流:包括第一个大模型生成标题、通过“代码节点”从多个标题中获取其中一个(可略过)、通过选出的标题生成简介、通过简介生成和标题生成文案、将文案进行归纳总结、将归纳总结后的文案描述传递给图像流。 再看图像流:包括提示词优化、典型的文生图。 最终的 Bot 制作以及预览和调试。 3. 腾讯运营使用 ChatGPT 生成文案: 步骤:通过 ChatGPT 生成文案,将这些文案复制到支持 AI 文字转视频的工具内,从而实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,系统匹配的素材不符合要求时可以手动替换。例如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类 AI 视频制作工具让普罗大众生产视频变得更轻松上手。
2025-04-15
如何通过输入一些观点,生成精彩的口播文案
以下是通过输入观点生成精彩口播文案的方法: 1. 基于其它博主开源的视频生成工作流进行功能优化,实现视频全自动创建。 效果展示:可查看。 功能:通过表单输入主题观点,提交后自动创建文案短视频,并将创建完成的视频链接推送至飞书消息。 涉及工具:Coze平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成)、飞书(消息)、飞书多维表格(字段捷径、自动化流程)。 大体路径: 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 发布 coze 智能体到飞书多维表格。 在多维表格中使用字段捷径,引用该智能体。 在多维表格中创建自动化流程,推送消息给指定飞书用户。 2. 智能体发布到飞书多维表格: 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 选择发布渠道,重点是飞书多维表格,填写上架信息(为快速审核,选择仅自己可用),等待审核通过后即可在多维表格中使用。 3. 多维表格的字段捷径使用: 创建飞书多维表格,添加相关字段,配置后使用字段捷径功能,使用自己创建的 Coze 智能体。 表单分享,实现填写表单自动创建文案短视频的效果。 4. 自动化推送:点击多维表格右上角的“自动化”,创建所需的自动化流程。 另外,伊登的最新 Deepseek+coze 实现新闻播报自动化工作流如下: 第一步是内容获取,只需输入新闻链接,系统自动提取核心内容。开始节点入参包括新闻链接和视频合成插件 api_key,添加网页图片链接提取插件,获取网页里的图片,以 1ai.net 的资讯为例,添加图片链接提取节点,提取新闻主图,调整图片格式,利用链接读取节点提取文字内容,使用大模型节点重写新闻成为口播稿子,可使用 Deepseek R1 模型生成有吸引力的口播内容,若想加上自己的特征,可在提示词里添加个性化台词。
2025-04-15
小红书图文批量生成
以下是关于小红书图文批量生成的详细内容: 流量密码!小红书万赞英语视频用扣子一键批量生产,这是一个保姆级教程,小白都能看得懂。 原理分析: 决定搞之后,思考生成这种视频的底层逻辑,进行逆推。这种视频由多张带文字图片和音频合成,带文字图片由文字和图片生成,文字和图片都可由 AI 生成,音频由文字生成,文字来源于图片,也就是说,关键是把图片和文字搞出来。 逻辑理清后,先找好看的模版,未找到好看的视频模版,最后看到一个卡片模版,先把图片搞出来,才有资格继续思考如何把图片变成视频,搞不出来的话,大不了不发视频,先发图片,反正图片在小红书也很火。 拆模版: 要抄这种图片,搞过扣子的第一反应可能是用画板节点 1:1 去撸一个,但扣子的画板节点很难用,Pass 掉。用 PS 不行,太死板不灵活,html 网页代码可以,非常灵活。经过 2 个多小时和 AI 的 battle,用 html 代码把图片搞出来了。这里不讲代码怎么写,直接抄就行。要抄,首先要学会拆,不管用什么方式批量生成这样的图片,都必须搞清楚里面有哪些是可以变化的参数,也就是【变量】,如主题、主题英文、阶段、单词数、图片、正文、翻译、普通单词、重点单词等。 想方法: 大概知道批量生成这样的图片需要搞清楚哪些参数,图片用 html 代码搞出来了。但问题是视频怎么搞,这种视频由多张不同的【带文字的图片】生成,比如读到哪句,哪句就高亮起来,图片也可以随着读到的句子变更。最后,视频就是用这样的图片一张张拼起来的。
2025-04-14
ai如何什么生成表格
AI 生成表格通常可以通过以下技术实现: 1. 利用变分自编码器(VAEs)和序列到序列模型(Seq2Seq)等技术生成表格文件、表格公式,并清理、创建、转换和分析表格中的文本数据,例如表格结构设计、数据分析表、表格自动化等。 2. 借助一些办公软件中的 AI 插件,如飞书中的相关插件,先通过 AI 理解图片中的内容并填充到表格列中,然后利用自带插件总结生成相关指令。 此外,在多模态数据生成中,结构化数据生成包括表格生成,多模态合成数据从大类来看有非结构化数据(图片、视频、语音等)和结构化数据(表格等)两大类。非结构化数据生成包括文本生成、图像生成、音频和语音生成、视频生成、3D 生成、合成数据生成等。
2025-04-14