Navigate to WaytoAGI Wiki →
Home/All Questions
思维导图自动生成
以下是关于思维导图自动生成的相关内容: 使用 Coze 工作流自动生成思维导图: 在上一步生成英文阅读大纲后,使用<generateTreeMind>插件节点自动生成思维导图。 1. 确定处理方式:选择“单次”,因为一次精读任务仅需生成一张思维导图。 2. 确定输入:在输入区,该插件仅需设置{{query_text}}变量,格式为 string 字符串,引用“标题、导语、大纲”节点的{{enTreeMind}}变量即可。 3. 确定输出:观察输出区,所需的是图片格式的思维导图,确定 pic 为需要的输出字段。 与思维导图相关的 AI 工具: 1. GitMind:免费跨平台,支持多种模式,可通过 AI 自动生成思维导图。 2. ProcessOn:国内思维导图+AIGC 工具,可利用 AI 生成思维导图。 3. AmyMind:轻量级在线工具,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路、生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能。 自动生成思维导图的在线工具 ChatMind: 开发者@石天放开发的 ChatMind 是利用 AI 自动生成思维导图的在线工具,只需要输入问题、文章、数据就可以,对于问题还能自己获取答案,可导出图片与 Markdown 文档两种格式。链接:https://www.chatmind.tech/
2025-03-23
帮我生成视频脚本的ai
以下是关于用 AI 生成视频脚本及根据视频脚本生成短视频的相关内容: 将小说做成视频的制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 根据视频脚本生成短视频的工具: 1. ChatGPT + 剪映:ChatGPT 可以生成视频小说脚本,而剪映则可以根据这些脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。这种方法可以快速实现从文字到画面的转化,节省大量时间和精力。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:这是一个 AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验。用户可以提供文本描述,Pictory 将帮助生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:这是一个 AI 视频创作工具,它能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助内容创作者、教育工作者、企业和个人快速生成吸引人的视频内容。 AI 拍电影相关: ChatGPT 生成视频脚本,包括把控核心内容、优化脚本等,例如创作一个“山海经中的神兽在赛博朋克世界”的宣传视频脚本,还可与 ChatGPT 讨论、修改细节、撰写宣传文案,最终完成视频脚本定稿。
2025-03-23
大模型学习资料
以下是为您提供的大模型学习资料: 大模型的底层原理: 预训练阶段:以 GPT3 为例,其训练使用了约 4990 亿 token 的数据集(约 570GB 文本),相当于 86 万本《西游记》。即使每天读完一本,也需约 28.6 辈子才能读完。这些数据大多来源于高质量的网页、书籍数据库、维基百科等。 模型架构:Transformer 是处理文本内容的经典模型架构,如 GPT1 所使用。关于其具体细节,不清楚也不太影响使用大模型,感兴趣可参考相关链接: 。 大模型的特点与架构: 架构分类:包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,如故事写作和博客生成,众多 AI 助手采用此架构)。 规模特点:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练;参数多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的通俗解释: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练、使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练。 2. 确定教材:需要大量数据,几千亿序列(Token)的输入是基本标配。 3. 找老师:选择合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会被分割并数字化形成词汇表。
2025-03-23
如何使用AI创作APP
以下是使用 AI 创作 APP 的一些方法和技巧: 1. 利用设计平台参考:不用语言描述界面样式,可在设计平台如站酷(国内)、Dribbble 和 Layers(海外)找喜欢的设计稿并上传图片让模型参考,重点描述静态图片无法表现的部分。 2. 引用在线图片:让模型生成界面时,若页面缺少图片,可要求其引用开源图片网站 unsplash 中的图片来填充需要图片的部分。 3. 引用在线图标库:对于页面中本该是图标的地方,可要求模型引用在线的图标库,如 Font Awesome 或 Material Icons,使界面更简洁整齐。 4. 优化前端样式代码:考虑 CSS 样式的美观度要求。 此外,对于 Cursor 及 MCP 的使用: 1. Cursor Rules:简单来说是为 Cursor 做角色定位,允许开发者设置特定指导原则和行为模式。首先设置通用规则,点击界面右上角小齿轮图标,在 cursor settings 中找到 Rules,将文本拷贝到 User Rules 后关闭页面。当涉及更专业开发时,可在特定项目中寻找或生成更专业的 Cursor Rules。 2. 制作第一个小作品:设置好 Cursor Rules 后,在右侧对话框中输入项目(可口语化),使用 claude3.7 模型等待代码生成,点击 Accept all 使代码生效,跟 AI 说运行项目,点击提示的 Run command 跳转到预览页面。若项目有问题,可让 AI 进一步美化。
2025-03-23
我需要一个帮我策划视频脚本的AI
以下是使用 AI 策划视频脚本的一般流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,还有一些案例供您参考: 结合最近的短剧,让 AI 帮写剧本,SD 分镜出图,直接 PPT 变视频。 利用 DeepSeek 脑爆活动方案、写会议纪要等。
2025-03-23
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源,与原始提示词组合后送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并针对每个难题有相应的解决策略。
2025-03-23
我需要一个帮我策划视频脚本的AI
以下是使用 AI 策划视频脚本的一般流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,还有一些案例供您参考: 结合最近的短剧,让 AI 帮写剧本,SD 分镜出图,直接 PPT 变视频。 利用 DeepSeek 脑爆活动方案、生成会议纪要等。
2025-03-23
能使用对话生成 figma 设计稿的网站有哪些
以下是一些能使用对话生成 Figma 设计稿的网站: 1. Figma to HTML:这是 Figma 用于生成 html 文件的小插件,适用于 Figma 设计稿,使用方法为在设计好的界面中,右击 Plugins Figma to HTML,选取设计稿并设置转换目标为 html 文件,点击 Convert 后开始下载,得到 html 文件。 2. Literally Anything:优点是极其方便,可用于获得复杂网页的部分小组件的代码;缺点是功能单一,很难实现精美网页。使用方法是描述想要生成的网页,点击 Edit Code 显示 html 代码。 3. Stunning:优点是便捷,制作的网页较为精美;缺点是灵活性不高。使用方法为点击 New Website 新建,根据需求选择对应的模版,和 Stunning AI 交流设计需求。 4. GPTs Instant Website :使用方法暂未提及。 5. Texttofigma:可以对话生成 Figma 设计稿,目前来看还比较初级。 6. Master GO:国内模仿 Figma 的软件之一,公布了自己的 AI 能力,即对话生成设计稿。 7. 即时 AI:推出了 AI 能力的预告,但目前还是期货。
2025-03-23
最新的大模型发展趋势
以下是关于最新的大模型发展趋势的相关内容: 决策模块方面:决策模块是具身智能系统的核心,早期依赖人工编程和专用算法,如今基于近端策略优化算法和 Qlearning 算法的强化学习方法在具身智能自主导航等任务中展现出更好的决策灵活性,但在复杂环境适应能力等方面仍有局限。大模型的出现极大增强了具身智能体的智能程度,提高了环境感知等能力。具身智能体的大模型发展方向是视觉语言动作模型(VLA)和视觉语言导航模型(VLN)。VLA 输入语言、图像或视频流,输出语言和动作;VLN 输入语言、图像或视频流,输出语言和移动轨迹。 应用场景方面:大模型因其强大能力在多个领域有出色表现,成为热点。包括文本生成和内容创作、聊天机器人和虚拟助手、编程和代码辅助、翻译和跨语言通信、情感分析和意见挖掘、教育和学习辅助、图像和视频生成、游戏开发和互动体验、医疗和健康咨询、法律和合规咨询等。随着技术进步和模型优化,未来可能拓展到更多领域,同时需注意隐私、安全和伦理挑战。 OpenAI 方面:OpenAI 推出新模型为行业注入强心剂,带来新活力和希望。结合其提出的通往 AGI 的分级,正在从第一级向第二级迈进,未来可能见证 AI 从生成工具向智能体转变。
2025-03-23
我想找最新的关于大模型发展趋势的材料
以下是为您找到的关于大模型发展趋势的最新材料: 基础通识课中提到了 AI 模型及相关进展,包括视频生成模型、相关论文,以及 AI 在诺奖和蛋白质研究领域的应用等。还介绍了人工智能的发展历程,从早期到如今大模型和多模态模型百花齐放的阶段。同时提到大模型由数据、算法、算力构成,算法有技术架构的迭代,数据质量对生成理想的大模型至关重要,以及针对弱智 8 的问题对大模型进行测试等相关内容。 2023 年度中文大模型基准测评报告.pdf 中包含 2023 年国内大模型发展趋势、测评体系、方法说明、综合测评结果、SuperCLUE2.0 升级、四大维度测评分析及示例介绍、优秀模型案例介绍等内容。 2024 年历史更新(归档)中,有《探讨大模型未来:从 Scaling Law 到数据红利再到终极 Token 工厂》,探讨了大模型的未来,包括规模化法则、数据红利和 Token 工厂概念。还有《【AI 学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)》《智变时代/全面理解机器智能与生成式 AI 加速的新工业革命》《文生图大模型基准测评首期榜单公布,DALLE 3 取得最高 76.94 分》等相关文章。
2025-03-23