Navigate to WaytoAGI Wiki →
Home/All Questions
你可以生成视频吗
以下是一些生成视频的方法和相关指南: 1. PixVerse V2: 输入提示词。 上传图片(如无图片上传,可忽略此步骤)。 选择视频时长(支持 5s 和 8s)。 添加新片段: 点击“Scene 1”旁边的“+”,为视频添加第二个片段。 在新片段中,可为其输入不同于 Scene 1 的提示词。 生成视频(每次生成需要花费 30Credits,且默认将所有片段拼接在一起,不支持单片段下载)。 编辑生成的视频: 点击视频进入编辑页面。 视频下方分别为:角色,环境,动作。如生成的视频不满意,可从相应的下拉选项中选择想要的效果。 上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。 2. MorphStudio(网页 UI 版本): 在“Shot”卡中,输入提示并点击蓝色星号图标生成视频,也可以上传图片或视频,并以其他方式生成视频。 等待时间:根据提示以及视频长度和分辨率等因素,各代的等待时间可能从 20 30 秒到几分钟不等。 展开视图/卡片信息:生成完成后,点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。 重新生成视频: 点击生成的视频,会弹出三个图标:重新提示、重新生成和样式转换。 重新提示:可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。 重试:保留原有的提示和设置,重新生成视频。 风格转换:保留原始视频的构图和动画,同时使用预设来更改视频的风格。 添加/编辑镜头: 添加一个新镜头:点击屏幕左上角的按钮,在时间轴上添加一个镜头。 编辑快照:单击快照卡右上角的“…”图标,可以编辑卡的名称、添加说明,或者保存和删除快照。 3. Adobe 相关: 在 Advanced 部分,使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。 选择 Generate(生成)。
2025-03-15
3d模型生成
以下是关于 3D 模型生成的相关内容: Tripo AI: 文生 3D 模型:在「Create」界面底部输入框输入提示词(不支持中文),不会写提示词可点击输入框左侧的</>按钮随机生成并自动填入。填写好提示词后点击右侧「Create」生成 3D 模型,每次生成 4 个基础模型,不满意可点击最下方白色的「Retry」按钮重新生成。若有满意模型,点击单个模型下方黄色的「Refine」精修,精修进度可在「My Models」中查看,一般 5 分钟左右完成。 图生 3D 模型:点击输入框右侧的图标上传图片生成 3D 模型,一次生成一个基础模型,支持Retry 重生成和 Refine 精修。 Rodin Gen 1: 输入文本后文生图,不满意可重复生成图片,图片满意后点击 GENERATING 生成 3D。很快获得一个快速生成的粗模,右上可选择是否对称、是锋利边缘还是光滑边缘、是否简单几何模式。选择后查看模型是否满意,不满意可 redo,满意后选择 confirm 进行下一步,选择产出的面数。完成后生成材质,可选材质的复杂度以及参考图片的影响。生成后可在左边查看,满意点击 confirm。左侧预览区可以多种形式查看。模型基本完成后可选择对应格式规格下载,压缩包里会有 obj 格式和 PBR 材质,也可以发布到 sketchfab。 此外,在 2D 美术中,图像生成技术广泛应用,主流生成式图像应用提升了图像生成的精细化程度和提示对图像生成结果的控制能力。在 3D 模型生成中,AI 主要完成了对 3D 模型生成流程的“一步到位”,工作流中的每个环节都需要 3D 美术工程师完成,而使用 3D 生成模型可直接完成一个可调整的 3D 粗模,大大提升效率。
2025-03-15
目前有什么ai可以审核文件
目前有以下几种 AI 可以审核文件: 1. AI Review:这是一项功能,可让您查看代码库中的最近更改以捕获任何潜在的错误。您可以单击各个审阅项以查看编辑器中的完整上下文,并与 AI 聊天以获取详细信息。为了让其对您有利,您可以为 AI 提供自定义说明以专注于特定方面,比如性能。目前有几个选项可供选择进行审核,如审查工作状态、审查与主分支的差异、审查上次提交。 2. 在专利审查方面: 专利检索与分类:AI 可以帮助进行高效的专利检索和分类,通过自然语言处理(NLP)和机器学习算法,自动识别和分类专利文献。示例平台如 Google Patents、IBM Watson for IP。 专利分析和评估:AI 可以分析专利文本,评估专利的新颖性和创造性,预测专利的授权可能性。示例平台如 TurboPatent、PatentBot。 自动化专利申请:AI 可以帮助自动生成专利申请文件,减少人工编写和审查时间。示例平台如 Specifio、PatentPal。 专利图像和图表分析:AI 可以分析专利申请中的图像和图表,帮助识别和分类技术内容。示例平台如 Aulive、AIpowered image recognition tools。 3. Midjourney:今天早上 3 小时前 MJ 将测试全新的“外部图像编辑器、图像重纹理化功”能以及下一代 AI 审核系统。图像编辑器允许您从计算机上传图像,然后扩展、裁剪、重绘、添加或修改场景中的元素,还推出了“图像重纹理化模式”。AI 审核系统将从整体上检查您的提示、图像、绘制蒙版以及生成的输出图像。但在第一个发布阶段,这些功能仅开放给已生成至少 10,000 张图像的用户(年度会员可用)以及过去 12 个月内一直是月度订阅用户的用户。
2025-03-15
本地知识库
以下是关于本地知识库的相关内容: 一、本地知识库进阶 如果想要对知识库进行更加灵活的掌控,需要使用额外的软件 AnythingLLM,它包含了所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 二、构建本地知识库 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据隔离。 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式,提供了两种模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 4. 测试对话,完成上述配置后即可与大模型进行对话。 三、RAG 是什么 利用大模型的能力搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需先了解 RAG。 RAG 实现方法是检索增强生成(Retrieval Augmented Generation),过程包括: 1. 文档加载(Document Loading):从多种不同来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 四、Obsidian 加 Cursor 构建本地知识库 因为 Obsidian 浏览器剪藏插件强大开始玩 Obsidian 构建本地知识库,安装的几个 Obsidian 的 AI 插件配置复杂,体验不佳。 发现可以用 Cursor 等 AI IDE 解决问题,主要有三类作用: 1. 帮助用模糊的问题检索笔记库,而非关键字。 2. 帮助基于笔记库进行研究,可结合多个笔记软件给出建议。 3. 帮助生成和修改笔记,比如生成整个笔记文件或者修改写的笔记文案。
2025-03-15
如何让ai帮我写论文
利用 AI 写论文可以参考以下步骤: 1. 确定论文主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 7. 数据分析:如果论文涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具来撰写论文的各个部分,并进行语法和风格的检查。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查论文的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。 另外,在让孩子使用 AI 辅助写作时,可以将任务改成让孩子提交一份他和 AI 共同完成作文的聊天记录。作文需要由 AI 来写,孩子要对 AI 的作文进行点评批改、让 AI 迭代出更好的文章。对话记录里孩子能否说清楚 AI 写的作文哪里好哪里不好、要怎么改(孩子可能还得给 AI 做示范),才是评价的关注点。 还有成功利用 AI 写小说的经验,比如先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。然后让 AI 以表格的形式输出细节描述,这样做有打破 AI 叙事习惯、便于局部调整、确保内容是具体细节等好处。之后把生成的表格依次复制粘贴,让 AI 照着写文章。但在局部修改时可能会遇到问题,比如 AI 记性不好导致修改不符合预期。
2025-03-15
AI应用开发社区或者微信群
以下是一些与 AI 应用开发相关的社区和微信群信息: 云栖大会 9 月 19 日招募 AI 创作者,包括 AI 艺术创作者、AI 应用开发者(特别是工作流、企业解决方案开发者)、开源社区的活跃成员、有 AI 技术背景的初创企业和工作室。招募渠道包括在线招募(在开源社区平台如 GitHub、Gitee 的项目展示页面发布招募信息,在 AI 技术论坛和设计论坛如 CSDN、简书、知乎等发布招募帖,在微信、QQ 社群内的 AI 开发者群发布信息)和线下招募(在相关行业会议和活动中设置摊位,与高校 AI 实验室或研究机构合作)。招募方式包括报名表单、筛选流程(初步筛选和二次筛选)、确认参展并提供详细参展指导手册。 通往 AGI 之路有飞书和微信交流群。说明:请填写问卷进群,群内会分享最新 AI 信息、社区活动;加入群后欢迎积极分享,飞书群内置 AI 智能机器人可回复任何与 AI 相关的问题。同时欢迎投稿,包括 AI 技术探讨与分析、实践经验与案例分享、行业动态与趋势观察、开发心得与技术教程等。投稿要求原创、严谨、有深度,配图说明更佳,观点明确,结构清晰,建议字数 1500 5000 字,提交后 2 3 工作日反馈,必要时沟通修改建议,优质内容将收录知识库。 加入 AI 编程社开发者社群,可获得更多 AI 编程相关资讯。若二维码过期,公众号后台回复“社群”即可进群。
2025-03-15
视频生成
视频生成是当前 AIGC 领域的一个重要方面,以下是关于视频生成的详细介绍: 一、AIGC 概述中的视频生成 以生成方式划分,当前视频生成可分为文生视频、图生视频与视频生视频。视频生成涉及深度学习技术,如 GANs 和 Video Diffusion,现在的主流生成模型为扩散模型(Diffusion model)。视频生成可用于娱乐、体育分析和自动驾驶等各种领域。 视频生成经常与语音生成一起使用。用于语音生成的模型可以由 Transformers 提供,可用于文本到语音的转换、虚拟助手和语音克隆等。这类 Generative AI 用于生成音频信号,常用的技术包括循环神经网络(RNNs)、长短时记忆网络(LSTMs)、WaveNet 等。 二、具有代表性的海外项目 1. Sora(OpenAI):以扩散 Transformer 模型为核心,能够生成长达一分钟的高保真视频。支持文本生成视频、视频生成视频、图像生成视频,被定位为世界模拟器,在文本理解方面有出色表现,还能在单个生成的视频中创建多个镜头,保留角色和视觉风格。 2. Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数,被定位为基础世界模型,可通过单张图像提示生成交互式环境。 3. WaveNet(DeepMind):一种生成模型,可以生成非常逼真的人类语音。 4. MuseNet(OpenAI):一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 5. Multilingual v2(ElevenLabs):一种语音生成模型,支持 28 种语言的语音合成服务。 三、生成带有文本提示和图像的视频 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。选择 Generate 即可生成。 四、PixVerse V2 的使用教程 1. 输入提示词:如无图片上传,可忽略上传图片步骤。 2. 选择视频时长:支持 5s 和 8s 的视频生成。 3. 添加新片段:在添加新片段模式下,所有 Scene 画面风格都会与 Scene 1 保持一致,如 Scene 1 有图片,则会参考 Scene 1 中的图片风格。 添加 Scene 2:点击“Scene 1”旁边的“+”,为视频添加第二个片段。 编辑 Scene 2:在 Scene 2 中,您可以为 Scene2 输入不同于 Scene 1 的提示词,其它操作与之前相同。 编辑其它 Scene:重复以上步骤,您可以为视频添加多个 Scene,最多支持 5 个 Scene 的同时生成。 4. 生成视频:点击图标生成视频。每次生成需要花费 30 Credits,且默认将所有片段拼接在一起,不支持单片段下载。 5. 编辑生成的视频:点击视频进入编辑页面。 编辑视频:视频下方分别为角色、环境、动作。如生成的视频不满意,您可从相应的下拉选项中选择想要的效果。 编辑多个 Scene:上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。 生成视频:对所有 Scene 编辑完成后,点击“Create”,可重新生成视频。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。
2025-03-15
现在有能自主抓取股票交易数据的AI吗
目前在信息爆炸的时代,借助 AI 工具可以实现集检索、整合与分析为一体的工作。以 A 股行情问答为例,可构建一个 Bot,当被问及如“XX 股票今天表现怎么样?”“复盘今天的家电板块”等问题时,它能从海量市场数据中找到有价值信息,进行整合分析并提供个性化回复。但需要注意的是,若希望在本地私有化部署,就无法使用某些相关服务。 不过,尚未有明确表明存在能完全自主抓取股票交易数据的 AI 。
2025-03-15
如何学习ai绘画
以下是关于如何学习 AI 绘画的一些指导: 首先,了解 AI 绘画的工作原理很重要。就像学习画画要临摹大师的作品一样,AI 绘画也是通过学习大量的美术风格作品来生成类似风格的作品。以 Stable Diffusion 为例,其大模型就相当于您花四十年学习的绘画风格,您需要选对合适的大模型才能画出符合心意的作品。大模型可以在 C 站(https://civitai.com/)下载,但需要科学上网。 其次,您可以借助一些专业的工具和导师。比如《AI 绘画助手》,它是一位专业且贴心的学习导师,能为新手小白和进阶爱好者提供优质实用的指导。它能将复杂的神经网络等知识用通俗易懂的语言解释清楚,介绍流行的 AI 绘画工具如 DALLE、MidJourney、Stable Diffusion 等的使用步骤和独特之处,传授风格迁移技术、生成对抗网络在图像生成和编辑中的应用以及获取高分辨率精美图像的方法,还能通过丰富的实战案例引领您从零基础起步创作作品,并为您答疑解惑和规划学习路径。 另外,像二师兄这样的学习者的经验也值得借鉴。他从下载安装包和教学视频开始,啃完 SD 的教程并进行炼丹实践,还与小伙伴探讨 AI 变现途径,加入 Prompt battle 社群学习 Midjourney 并打磨文生图提示词。 总之,学习 AI 绘画需要了解原理、选对工具、不断实践和交流学习。
2025-03-15
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片和相应的提示词,清影大模型会将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确您想动起来的【主体】,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确【主体】的描述。 常见的图生视频模型(从高到低排序)及特点: 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pinverse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-15