Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么制作科普视频

Answer

制作科普视频可以参考以下步骤和方法:

一、想出点子

  1. 最佳免费选项:必应
  2. 付费选项:ChatGPT4.0,但由于与互联网连接,必应可能更好
  3. 尽管(或者事实上,由于)它所有的限制和怪异,人工智能是产生想法的完美选择。您通常需要有很多想法才能有好的想法,而人工智能擅长数量。有了正确的提示,您也可以强迫它非常有创意。在创意模式下让 Bing 查找您最喜欢的、不寻常的想法生成技术,如 Brian Eno 的倾斜策略或 Mashall McLuhan 的四种策略,并应用它们。或者要求一些奇怪的东西,比如受随机专利启发的想法,或者您最喜欢的超级英雄。

二、制作视频

  1. 最佳动画工具:用于在视频中为人脸制作动画的D-iD。用于从文本创建视频的Runway v2
  2. 最佳语音克隆:ElevenLabs
  3. 现在,生成一个完全由人工智能生成的角色的视频,阅读完全由人工智能编写的脚本,用人工智能制作的声音说话,由人工智能制作动画,这简直是微不足道的。但要注意深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。
  4. 最近还发布了第一个商用文本到视频工具 Runway v2。它创建了 4 秒的短剪辑,更像是对未来发展的展示,但如果您想了解这个领域的未来发展,值得一看。

三、创作科普内容

  1. 该场景对应的关键词库(13 个):目标用户、科普内容、生活问题、医疗类型、科普文章、病情症状、通俗性、专业名词、背景资质、权威领域、执业范围、证言人、内容形式。
  2. 提问模板(3 个):
    • 第一步,分析不同目标用户对于科普内容的需求(具体解决生活中的什么问题)
    • 第二步,针对某一类人群所偏好的科普内容主题,进行内容撰写。
    • 第三步,根据平台和内容形式进行改写。

四、用 AI 把小说做成视频

  1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。
  2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。
  3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。
  4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。
  5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。
  6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。
  7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。
  8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。
  9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。

请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。

Content generated by AI large model, please carefully verify (powered by aily)

References

如何使用 AI 来做事:一份带有观点的指南

最佳免费选项:[必应](https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)付费选项:[ChatGPT](https://chat.openai.com/chat)4.0,但由于与互联网连接,必应可能更好尽管(或者事实上,由于)它所有的限制和怪异,人工智能是产生想法的完美选择。你通常需要有很多想法才能有好的想法,而人工智能擅长数量。有了正确的提示,你也可以强迫它非常有创意。在创意模式下让Bing查找您最喜欢的、不寻常的想法生成技术,如Brian Eno的倾斜策略或Mashall McLuhan的四种策略,并应用它们。或者要求一些奇怪的东西,比如受随机专利启发的想法,或者你最喜欢的超级英雄......[heading1]制作视频[content]最佳动画工具:用于在视频中为人脸制作动画的[D-iD](https://www.d-id.com/)。用于从文本创建视频的[Runway v2](https://app.runwayml.com/)最佳语音克隆:[ElevenLabs](https://beta.elevenlabs.io/speech-synthesis)现在,生成一个完全由人工智能生成的角色的视频,阅读完全由人工智能编写的脚本,用人工智能制作的声音说话,由人工智能制作动画,这简直是微不足道的。[它也可以深度伪造人,正如你在这个链接中看到的那样,我伪造了自己](https://oneusefulthing.substack.com/p/a-quick-and-sobering-guide-to-cloning),谨慎使用,但这对于制作解释视频和介绍来说可能很棒。最近还发布了第一个商用文本到视频工具Runway v2。它创建了4秒的短剪辑,更像是对未来发展的展示,但如果你想了解这个领域的未来发展,值得一看。一些需要担心的事情:深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。

创作:写科普内容

目标用户、科普内容、生活问题、医疗类型、科普文章、病情症状、通俗性、专业名词、背景资质、权威领域、执业范围、证言人、内容形式。[heading3]提问模板(3个):[content]第一步,分析不同目标用户对于科普内容的需求(具体解决生活中的什么问题)提问模板:1、请确保你理解以下名词的含义:预备患者、确诊患者、亲属患者、风险患者、健康人群、资深患者(XXX目标人群类型),当ChatGPT给出解释之后,你可以进一步补充你对于这些人群的定义。2、请针对以上六种人群,分别给出医疗类型(XXX类型/方向/主题)科普内容需求分析,要求包括:科普内容主题的偏好、科普内容需求迫切程度、科普内容的需求激发时机第二步,针对某一类人群所偏好的科普内容主题,进行内容撰写。提问模板:请根据主题:《XXXX》,针对XXX人群,撰写一篇科普文章,我给你的要求如下:1、开头从病情症状(列举画面场景类型)或普通人身边的日常现状切入;2、整体内容都具备通俗性,注意描述复杂的致病或药物作用机理时(列举高频出现的概念),要用普通人身边的事物做类比,不可以出现专业名词;3、说话人的背景资质是获得医疗专业性上的评估和认可的(列举权威领域范围),比如要求是三甲主治级别以上的医生(列举权威被认可的条件;4、说话人所科普的范围,要求一定不能超过说话人的执业范围,比如消化内科医生不得回答高血压的内容(列举对于证言人的限制性要求);5、内容选题方向要求没有科学性问题,并通过文献资料或者相关领域专家的证言来说明这一点。第三步,根据平台和内容形式进行改写。提问模板:请根据小红书(列举平台)+短视频(列举形式)的风格进行改写,要求字数在800-1000字内。

问:我想用 AI 把小说做成视频,应该怎么做?

1.小说内容分析:使用AI工具(如ChatGPT)分析小说内容,提取关键场景、角色和情节。2.生成角色与场景描述:根据小说内容,使用工具(如Stable Diffusion或Midjourney)生成角色和场景的视觉描述。3.图像生成:使用AI图像生成工具根据描述创建角色和场景的图像。4.视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。5.音频制作:利用AI配音工具(如Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。6.视频编辑与合成:使用视频编辑软件(如Clipfly或VEED.IO)将图像、音频和文字合成为视频。7.后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。8.审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。9.输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。内容由AI大模型生成,请仔细甄别

Others are asking
有关 ai agent 的科普文章
以下是为您提供的关于 AI Agent 的科普内容: AI Agent 是一个融合了多学科精髓的综合实体,包括语言学、心理学、神经学、逻辑学、社会科学和计算机科学等。它不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。 目前,关于 AI Agent 存在一些情况。例如,网络上对其的介绍往往晦涩难懂,让人感觉神秘莫测,其自主性、学习能力、推理能力等核心概念,以及如何规划和执行任务、理解并处理信息等方面,都像是笼罩在一层神秘面纱之下。 另外,以国与国之间的外交为例来解释相关协议。假设每个 AI 智能体(Agent)就是一个小国家,它们各自有自己的语言和规矩。各国大使馆试图互相沟通、做生意、交换情报,但现实中存在诸多问题,如协议各异、要求不同等。 如果您想了解更多关于 AI Agent 的详细内容,可访问: 。
2025-04-15
AI通识科普文章
以下是为您提供的 AI 通识科普相关内容: 对于对 AI 都没太多概念的纯纯小白: 现有常见 AI 工具小白扫盲:(1 小时 32 分开始)。 AI 常见名词、缩写解释: 。 新手学习 AI 的步骤: 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并有机会获得证书。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。建议一定要掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 入门经典必读:作者为 。文中提到人工智能的研究正在以指数级别的速度增长,对于初学者来说跟上新发布的内容很难,因此分享了一份用于更深入了解现代 AI 的精选资源列表,称为“AI 典藏”,包括对 Transformer 和 Latent Diffusion 模型的介绍、技术学习资源、构建大型语言模型的实用指南、AI 市场的分析以及里程碑式研究成果的参考列表等。
2025-04-14
有什么好的 AI 科普文章
以下为一些不错的 AI 科普文章: 通识篇: 现有常见 AI 工具小白扫盲: AI 常见名词、缩写解释: AIGC Weekly19: 开源图像模型 Stable Diffusion 入门手册 腾讯:介绍了 Stable Diffusion 的使用入门指南,包括硬件需求、安装 Python 和 Git、装配模型以及图像生成等内容。 AIGC 之我见 马丁的面包屑:产品经理、独立开发者马丁整理的自己关于 AIGC 的一些碎片化思考。 多邻国创始人 Luis von Ahn 专访:介绍了 Luis von Ahn 创建多邻国的过程和对 AI 的一些思考,特别是 AI 对教育的影响。 自监督学习 CookBook Mate:Meta AI 发布的为 AI 研究人员和从业者提供使用 SSL 方法的实用指南。 大语言模型发展历程:回顾了大语言模型的发展历程,介绍了历代先驱者的研究成果。 入门经典必读: 软件 2.0:Andrej Karpathy 是最早清楚解释为什么新的 AI 浪潮真正重要的人之一。 GPT 的现状:Andrej Karpathy 对 ChatGPT/GPT 模型一般如何工作、如何使用以及研发可能采取的方向的解释。 ChatGPT 是在做什么,为什么它有效?:计算机科学家和企业家 Stephen Wolfram 从一开始的原理解释了现代 AI 模型的工作原理。 解析 Transformer 模型:理解 GPT3、BERT 和 T5 背后的模型:对“什么是 LLM,它是如何工作的?”这个问题的更短、更直接的回答。
2025-03-21
我想跟大概40岁左右的科研从业者科普人工智能和大模型的相关知识,挑选合适的内容作为提纲。
以下是为您挑选的向 40 岁左右科研从业者科普人工智能和大模型的提纲内容: 一、AI 大模型的基本概念 1. 生成式 AI 生成的内容称为 AIGC 2. 相关技术名词 AI:人工智能 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗 深度学习:参照人脑有神经网络和神经元,因层数多称为深度,神经网络可用于多种学习方式 生成式 AI:可以生成文本、图片、音频、视频等内容形式 LLM:大语言模型,生成图像的扩散模型不是大语言模型,大语言模型的生成只是处理任务之一,如谷歌的 BERT 模型可用于语义理解 二、AI 大模型的技术里程碑 1. 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,完全基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络 三、AI 模型及相关进展 1. 包括视频生成模型、相关论文,以及 AI 在诺奖和蛋白质研究领域的应用等 2. 人工智能发展历程:从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到 OpenAI 发布 ChatGPT 模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段 3. 大模型的基石:由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,数据质量对生成理想的大模型至关重要 4. 针对弱智 8 的问题对大模型进行测试,开展让大模型回复问题并找出真人回复的活动,且国内大模型的回答能力有很大改进 5. 大语言模型的特点:早期回复缺乏情感,如今有所改进,后续将体验几个大模型的回复场景
2025-03-13
稍微技术点的科普书,机器学习一类的
以下为您推荐两本关于机器学习的科普书: 1. 《入门|机器学习研究者必知的八个神经网络架构》 神经网络是机器学习文献中的一类模型,受到生物神经网络的启发,目前深度神经网络效果很好,可应用于任何从输入到输出空间复杂映射的机器学习问题。 学习神经计算的三个理由:了解大脑工作原理、了解受神经元及其适应性连接启发的并行计算风格、使用受大脑启发的新颖学习算法解决实际问题。 一般来说,神经网络架构可分为三类:前馈神经网络(是实际应用中最常见的类型,若有多个隐藏层则称为“深度”神经网络)、循环网络(连接图中定向了循环,动态复杂,更具生物真实性)。 2. 《这是一份「不正经」的深度学习简述》 深度学习是使用不同类型神经网络的表征学习,通过优化网络的超参数来获得对数据的更好表征。 列举了几个经典案例,如反向传播(相关参考阅读:、A theoretical framework for BackPropagation——Yann Lecun:http://yann.lecun.com/exdb/publis/pdf/lecun88.pdf)、更好的初始化网络参数(初始化策略需根据所使用的激活函数选择)。
2025-02-25
需要一些ai入门科普资料
以下是为您提供的 AI 入门科普资料: 一、技术原理相关 1. RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 2. PAL(程序辅助语言模型):2022 年一篇论文中提出,对于语言模型的计算问题,不让 AI 直接生成计算结果,而是借助 Python 解释器等工具作为计算工具。 3. ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,比如用搜索引擎对关键字进行搜索,观察行动得到的结果,可借助 LangChain 等框架简化构建流程。 二、关于未来的想象 1. Transformer 是仿生算法的阶段性实现,10 年、20 年后可能不再使用。 2. 在端到端算法的时代,不应继续使用冯诺依曼架构。 3. 在存算一体(在存储单元里做计算)的芯片之上,一定会诞生全新的算法。 个人总结:很多大佬认为要关注或直接阅读技术论文,比如产品经理转型 AI 产品经理需要懂技术脉络。但小白直接看技术论文有难度,虽可让 AI 辅助阅读,仍需一定知识储备。林粒粒呀的相关视频是很好的科普入门。 此外,安克创新的 CEO 阳萌的一些观点也很有启发,比如之前对安克创新的印象是卖充电宝和安防设备,但看了访谈后会被其认知震撼。
2025-02-12
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
如果制作智能体
制作智能体的方法如下: Logo 设计智能体: 江树提供了提示词模板,使用方法为将品牌、行业、理念等信息替换成自己的,复制到 GPT4o 中,即可瞬间呈现高质量 Logo。 若想进一步提升设计效果,可使用江树设计的 Logo 智能体生成更精准的提示词,访问链接 https://chatgpt.com/g/g67f4bf538f9081918073af13ba5c2cfelogodesigner ,生成的提示词可直接复制到 GPT4o 中,并借助最新的 AI 绘图能力达到专业设计水准。 Coze 智能体(字段捷径)获取笔记+评论信息: 第一步,创建一个智能体,使用单 Agent 对话流模式。 第二步,编排对话流,点击创建新的对话流(记得要和智能体关联)。 第三步,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。 第四步,使用代码节点进行数据处理,注意代码节点输出的配置格式。 第五步,测试。找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 第六步,发布。点发布后只选择多维表格,然后点配置。输出类型选文本,输入类型选择字段选择器。完善上架信息,填个表格,选发布范围时可选仅自己可用以加快审核。提交上架信息后,返回配置界面显示已完成即可完成最终提交。 其他智能体: 如创建一个输入人设等信息的智能体,放上已创建的工作流。但注意工作流中若有消耗个人资源的部分,如【所有视频片段拼接】节点使用的插件 api_token 填的是个人 token,不能直接发布。可将 api_token 作为工作流最开始的输入,用户购买后输入 api_token 再发布。
2025-04-14
最好的制作ppt的大模型是哪个
目前在制作 PPT 方面,没有绝对的“最好”的大模型。例如,Claude 3.7 在将 PDF 转换为 HTML 方面效果较好,但国内用户使用不太方便,可改用 DeepSeekR1 实现。某上市公司使用某互联网大厂研发的千亿 AI 大模型产品声称能 3 分钟制作 PPT,但接入公司系统时出现“一连接就死机”的情况。同时需要注意的是,过去几个月内国内的 AI 大模型在某些方面大同小异,且大部分远未达到可商用化程度。
2025-04-13
AI 制作短视频的方法
以下是关于 AI 制作短视频的方法: 1. 确定视频风格和主题:使用 Fanbook 中的 niji6 模型及sref 指令,加上每张图片的提示词来确定视频风格的一致性。比如根据丝绸之路的古风主题确定风格和时长,然后设定故事主线和镜头。 2. 创作故事剧本和分镜头:参考分镜头的基本格式要求,按照场景、地点、镜号、画面描述、台词、音效等维度进行填充。尽可能精简人物对话,提炼重点。当缺乏画面灵感时,可以借助语言大模型,如 Kimi 来获取帮助。 3. 生成角色和场景:根据剧本中的人物性格特征和时代背景,描绘人物的提示词、上传角色参考图cref,并将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。场景提示词从剧本中的画面描述进行提取,采用文生图模式,画面风格选择提前准备好的风格图进行垫图,上传角色图、场景背景进行参考生成,提高人物和场景的融合度。 4. 让图片动起来:使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择。 此外,根据视频脚本生成短视频的 AI 工具有多种,适用于不同的应用场景和需求,包括: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-13
我想通过AI制作H5页面
以下是关于通过 AI 制作 H5 页面的相关信息: AI+高德 MCP 可以帮助您制作 H5 页面。目前,该工具已经有 1000 多人进行制作,还有几十位同学已经发出了自己的产品。 这次更新带来了三个超级实用的功能: 1. 24 种超酷的 H5 风格可供选择,如同选衣服一样简单。 2. 具备一键导航功能,无需复制粘贴地址。 3. 数据更真实,不用担心 AI 瞎编。 使用这些功能,10 分钟就能全部搞定。 在上期文章《》中,详细讲解了获取高德地图的密钥、cursor 如何设置 MCP、询问高德 MCP 生成旅游信息以及美化页面展示等内容。如果您还未阅读,可以点击查看。 另外,使用 Cursor 制作主页的步骤如下: 在搞定一个简单小游戏后,可以做个人介绍网站。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先要有初步的项目介绍,然后新建一个相关文件夹并打开,在 AI 对话框中输入介绍内容,等待 AI 制作并加入修改意见。 若想让别人看到您的作品预览,可以通过网站 https://www.yourware.so/ 将项目文件夹整体上传,生成临时浏览链接,在不需要域名和服务器的情况下让外部看到作品。如果发现 cursor 卡顿,注意是否需要在终端区或者对话区确认重要操作,可将左下角的 ask every time 修改为 auto run 实现全自动化。
2025-04-13
有没有免费制作数字人的网站?
以下是一些免费制作数字人的网站及使用方法: HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。上传后效果如图所示,My Avatar处显示上传的照片。点开大图后,点击Create with AI Studio,进入数字人制作。写上视频文案并选择配音音色,也可以自行上传音频。最后点击Submit,就可以得到一段数字人视频。 DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的Create vedio。选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。配音时,可以选择提供文字选择音色,或者直接上传一段音频。最后,点击Generate vedio就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法:点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。点击开始创作,选择自定义照片。配音时,可以选择提供文字选择音色,或者直接上传一段音频。打开绿幕按钮,点击背景,可以添加背景图。最后,点击生成视频。 此外,在剪映中也可以生成数字人:在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。软件会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成,可点击预览按钮查看效果。还可以为视频增加背景图片,删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频对齐。
2025-04-11
如何使用AI制作真人表情包?
以下是使用 AI 制作真人表情包的方法: 1. 使用 Gemini 2.0 Flash: 场景:表情包在社交媒体中是不可或缺的表达工具,但制作个性化表情包对许多人来说并不容易,有的工具可以生成根据某一个主体生成不同的表情,但是生成出来的图会多多少少改变原主体。 实用性:用户只需上传一张主体图片(例如一个小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就会自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 2. 使用 ChatGPT 4o: 输入提示词并加上最初的真人图片,例如:创建图片:一个戴着深蓝色蝴蝶结领结的柴犬,表情参考我上传的图片,3D 风格,毛绒绒质感,不要太逼真,比例为 1:1。如果对生成的第一个表情不满意,可以重新输入指令进行调整,如“让它看起来得意一点”。 一次生成九宫格表情包的方法:先收集很多自己喜欢的表情包,将每组拼图为 9 个,然后将先前做好的真人原图和一张九宫格拼图一起上传到 4o 对话框,输入相应指令,如:创建图片:参考图二的动作和道具制作表情包九宫格,每个图案都替换为图一为主角,保持风格为图一的质感,整整齐齐无留白排列,颜色明亮不偏黄,文字内容仔细核对不要出错。 另外,有的地方需要上传封面图,也可以由 4o 生成,先要求它做一个比例约 3:2 的。如果有个很喜欢的表情,使用九宫格出的效果不好,也可以单个一个个去生成,但比较费时间,且可能会受出图限制等待更久。最后将所有图片下载下来,挑选出需要的表情图片。
2025-04-11