Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

可以通过图片形成视频吗

Answer

可以通过图片形成视频,以下是几种常见的方法:

  1. 使用 Camera Motion:
    • 点击“AddImage”上传图片。
    • 在“Prompt”中输入提示词。
    • 选择想要的运镜方向,输入运镜值(https://waytoagi.feishu.cn/docx/Ci9yd5xu2o46rXxNofdcnqH9nXb#doxcniTMBNtWHj6MSpXvB2DTyUh)。
    • 设置运动幅度,运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成想要的任意值。
    • 选择好种子(seed)、是否高清(HD Quality)、是否去除水印(Remove Watermark)。
    • 点击“create”,生成视频。
  2. 使用 Runway:
    • 图片搞定之后,拖到 Runway 里面去图生 4s 视频。(Runway 是收费的,也可以找免费的,或在闲鱼、淘宝买号)
    • 进入 Runway 官网首页,点击 start with image,然后直接将图片拖进来。
    • 动画幅度尽量用 3,5 有时候会乱跑。
    • 啥都不用改,直接点击生成即可。
    • 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。
    • 直接点删除,然后重新上传下面的图即可(最多可以放几个可自行测试)。
    • 重复步骤即可生成所有视频。
  3. 使用 MorphStudio(网页 UI 版本):
    • 在“Shot”卡中,输入提示并点击蓝色星号图标生成视频,也可以上传图片或视频,并以其他方式生成视频。
    • 根据提示以及视频长度和分辨率等因素,各代的等待时间可能从 20 - 30 秒到几分钟不等。随时生成更多的视频,因为你等待现有的完成。
    • 生成完成后,点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。
    • 对于生成的视频,可以以各种方式重新生成视频。点击生成的视频,会弹出三个图标:重新提示、重新生成和样式转换。
      • 重新提示:可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。
      • 重试:保留原有的提示和设置,重新生成视频。
      • 风格转换:保留原始视频的构图和动画,同时使用预设来更改视频的风格。目前有现实、动画 2D、动画 3D、幻想、像素风格可用,将很快增加更多预设。
    • 添加/编辑镜头:
      • 添加一个新镜头:当需要添加更多的镜头时,可以点击屏幕左上角的按钮,在时间轴上添加一个镜头。新生成的抽牌将作为导出抽牌前的最后一张抽牌,您可以随意与其他抽牌切换抽牌的位置。
      • 编辑快照:当单击快照卡右上角的“…”图标时,可以编辑卡的名称、添加说明,或者保存和删除快照。
Content generated by AI large model, please carefully verify (powered by aily)

References

Camera Motion 使用教程

点击"AddImage"上传图片。[heading2]2.输入提示词[content]在“Prompt”中输入提示词。[heading2]3.设置运镜方向[content]选择您想要的运镜方向,输入[运镜值](https://waytoagi.feishu.cn/docx/Ci9yd5xu2o46rXxNofdcnqH9nXb#doxcniTMBNtWHj6MSpXvB2DTyUh)。(下图中所示为向右运镜)[heading2]4.设置运动幅度[content]运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。[heading2]5.其它[content]选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。[heading2]6.生成视频[content]点击“create”,生成视频。

WTF:1w粉 - 10w粉仅仅用时 13 天,像素级拆解《动物时装秀》

图片搞定之后,我们就可以拖到runway里面去图生4s视频了。(runway是收费的,大家也可以找一下有没有免费的,可以去闲鱼或者淘宝买号)进入runway官网首页,点击start with image然后直接将图片拖进来动画幅度尽量用3,5有时候会乱跑啥都不用改,直接点击生成即可注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行直接点删除,然后重新上传下面的图即可(最多可以放几个我没数,大家可以自行测试)重复步骤即可生成所有视频

MorphStudio使用指南(网页UI版本)

在"Shot"卡中,您可以输入提示并点击蓝色星号图标生成视频。您也可以上传图片或视频,并以其他方式生成视频,更多详情请参见“高级功能”章节。[heading2]2、等待时间:[content]根据提示以及视频长度和分辨率等因素,各代的等待时间可能从20-30秒到几分钟不等。随时生成更多的视频,因为你等待现有的完成[heading2]3、展开视图/卡片信息:[content]生成完成后,您可以点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。[heading2]4、重新生成视频[content]对于生成的视频,您可以以各种方式重新生成视频。点击生成的视频,会弹出三个图标:重新提示、重新生成和样式转换重新提示:您可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。[heading2]5、重试[content]保留原有的提示和设置,重新生成视频。现在,reprompt和retry提供类似的功能,我们将很快添加种子,这样你就可以根据你的年龄做微妙或强烈的变化。[heading2]6、风格转换[content]保留原始视频的构图和动画,同时使用我们的预设来更改视频的风格。到目前为止,现实,动画2D,动画3D,幻想,像素风格可用,我们将很快增加更多的预设。[heading2]7、添加/编辑镜头[heading3]·添加一个新镜头:[content]当你需要添加更多的镜头时,你可以点击屏幕左上角的按钮,在时间轴上添加一个镜头。新生成的抽牌将作为导出抽牌前的最后一张抽牌,您可以随意与其他抽牌切换抽牌的位置。[heading3]编辑快照:[content]当您单击快照卡右上角的“…”图标时,您可以编辑卡的名称、添加说明,或者保存和删除快照。

Others are asking
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
可以增强图片清晰的的ai
以下是一些可以增强图片清晰度的 AI 工具: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 此外,PMRF 也是一种全新的图像修复算法,它具有以下特点: 擅长处理去噪、超分辨率、着色、盲图像恢复等任务,生成自然逼真的图像。 不仅提高图片清晰度,还确保图片看起来像真实世界中的图像。 能够应对复杂图像退化问题,修复细节丰富的面部图像或多重损坏的图片,效果优质。 详细介绍: 在线体验: 项目地址: 这些 AI 画质增强工具都具有不同的特点和功能,可以根据您的具体需求选择合适的工具进行使用。
2025-04-18
图片提取文字
以下是关于图片提取文字的相关信息: 大模型招投标文件关键数据提取方案:输入模块设计用于处理各种格式的文档输入,包括 PDF、Word、Excel、网页等,转换成可解析的结构化文本。多种文件格式支持,对于图片,可以借助 OCR 工具进行文本提取,如开放平台工具:。网页可以使用网页爬虫工具抓取网页中的文本和表格数据。 谷歌 Gemini 多模态提示词培训课:多模态技术可以从图像中提取文本,使从表情包或文档扫描中提取文本成为可能。还能理解图像或视频中发生的事情,识别物体、场景,甚至情绪。 0 基础手搓 AI 拍立得:实现工作流包括上传输入图片、理解图片信息并提取图片中的文本内容信息、场景提示词优化/图像风格化处理、返回文本/图像结果。零代码版本选择 Coze 平台,主要步骤包括上传图片将本地图片转换为在线 OSS 存储的 URL 以便调用,以及插件封装将图片理解大模型和图片 OCR 封装为工作流插件。
2025-04-15
图片变清晰
以下是关于图片变清晰的相关内容: 使用清影大模型: 输入一张图片和相应提示词,清影大模型可将图片转变为视频画面,也可只输入图片让模型自行发挥想象生成有故事的视频。 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将其变清晰。 提示词要简单清晰,可选择不写 prompt 让模型自行操控图片动起来,也可明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。 常见的 AI 画质增强工具: Magnific:https://magnific.ai/ ClipDrop:https://clipdrop.co/imageupscaler Image Upscaler:https://imageupscaler.com/ Krea:https://www.krea.ai/ 更多工具可查看网站的图像放大工具库:https://www.waytoagi.com/category/17 用 AI 给老照片上色并变清晰: 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。然后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。
2025-04-14
怎么让图片动起来
要让图片动起来,可以参考以下几种方法: 1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据视频节奏选择,比如选择慢速。 2. 使用 Camera Motion: 上传图片:点击“Add Image”上传图片。 输入提示词:在“Prompt”中输入提示词。 设置运镜方向:选择想要的运镜方向,输入运镜值。 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成想要的任意值。 其它:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 生成视频:点击“create”,生成视频。 3. 对于复杂的图片,比如多人多活动的图: 图片分模块:把长图分多个模块。 抠出背景图:智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 前景图动态生成视频:用 AI 视频生成工具写入提示词让图片动起来,比如即梦、海螺、混元等。不停尝试抽卡。 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。
2025-04-12
图片文字转文档
图片文字转文档可以通过以下方式实现: coze 插件中的 OCR 插件: 插件名称:OCR 插件分类:实用工具 API 参数:Image2text,图片的 url 地址必填 用途:包括文档数字化、数据录入、图像检索、自动翻译、文字提取、自动化流程、历史文献数字化等。例如将纸质文档转换为可编辑的电子文档,自动识别表单、票据等中的信息,通过识别图像中的文字进行搜索和分类,识别文字后进行翻译,从图像中提取有用的文字信息,集成到其他系统中实现自动化处理,保护和传承文化遗产。 插件的使用技巧:暂未提及。 调用指令:暂未提及。 PailidoAI 拍立得(开源代码): 逻辑:用户上传图片后,大模型根据所选场景生成相关的文字描述或解说文本。 核心:包括图片内容识别,大模型需要准确识别图片中的物体、场景、文字等信息;高质量文本生成,根据图片生成的文字不仅需要准确,还需符合专业领域的要求,保证文字的逻辑性、清晰性与可读性。 场景应用: 产品文档生成(电商/零售):企业可以利用该功能将商品的图片(如电器、服饰、化妆品等)上传到系统后,自动生成商品的详细描述、规格和卖点总结,提高电商平台和零售商的商品上架效率,减少人工编写文案的工作量。 社交媒体内容生成(品牌营销):企业可使用图片转文本功能,帮助生成社交媒体平台的营销文案。通过上传产品展示图片或品牌活动图片,模型可自动生成具有吸引力的宣传文案,直接用于社交媒体发布,提高营销效率。 法律文件自动生成(法律行业):法律行业可以使用图片转文本技术,自动提取合同、证据材料等图片中的文本信息,生成法律文件摘要,辅助律师快速进行案件分析。
2025-04-11
如何去除图片中的文字内容
以下是去除图片中文字内容的方法: 1. 图像预处理: 图像去噪:使用去噪算法(如高斯滤波、中值滤波)去除图像中的噪声。 图像增强:通过增强算法(如直方图均衡化、对比度增强)提升图像的清晰度和对比度。 2. 图像分割:使用图像分割算法将图片中的文字和背景分离。常用的分割算法包括阈值分割、边缘检测和基于区域的分割方法。 3. 文字检测:在分割后的图像中,使用文字检测算法(如基于深度学习的文本检测模型)识别出文字区域。 4. 文字识别:对检测到的文字区域进行文字识别,将文字内容转换为计算机可处理的文本数据。常用的文字识别技术包括基于深度学习的端到端文本识别模型和传统的 OCR(Optical Character Recognition)技术。 5. 后处理:根据需求进行后处理,如去除残余的噪点、填补文字区域的空白等。 6. 机器学习模型训练(可选):如有足够的数据,可以采用机器学习技术训练模型,通过学习样本中的文字特征来自动去除图片上的文字。 7. 优化算法:对整个处理流程进行优化,提高处理速度和准确度。可以采用并行计算、硬件加速等方法提升算法的效率。 8. 移动端集成:将设计好的算法和模型集成到移动应用程序中,以实现去除图片文字的功能。可以使用移动端开发框架(如 iOS 的 Core ML、Android 的 TensorFlow Lite)来实现模型的部署和调用。 此外,像 Gemini 2.0 Flash 等工具也可以通过自然语言指令来去除图片中的文字,指令如“去掉 XXX”。DALL·E 也能实现去掉图片中的错误文字等操作。
2025-04-11
形成指令让AI根据我的论文框架写论文
以下是为您提供的让 AI 根据论文框架写论文的相关指导: 1. 提供详细的背景信息:如您的个人经历、研究主题等,类似于“我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年……”这样具体且全面的描述。 2. 结构化组织内容:使用编号、子标题和列表来使论文条理清晰,例如规定概述内容解读结语的结构,或者分标题阐述不同部分。 3. 明确文章结构:包括开门见山且能引起目标群体悬念的标题,说清楚要解决的问题及背景、可能导致的损失的第一部分,以案例引入的第二部分,对案例进一步分析的第三部分,以及给出具体操作建议的第四部分。 4. 丰富细化内容:先让 AI 写故事概要和角色背景介绍并做修改,然后一段一段进行细节描写,可采用让 AI 以表格形式输出细节描述的技巧,确保内容具体且前后一致。 5. 注意语言风格:可以自己定义,也可以根据文章生成对应语言风格关键词让 AI 遵循。 6. 遵循相关要求:比如某些比赛对作品的字数、修改限制等。 需要注意的是,虽然可以利用 AI 辅助写作,但并非提倡这是道德的使用方式。同时,如果是接收方,最好为组织准备好迎接各种 AI 生成的内容。
2025-03-30
飞书多维表格如何关联AI形成工作流
要将飞书多维表格关联 AI 形成工作流,可以参考以下步骤: 前期准备: 1. 设计 AI 稍后读助手的方案思路,包括简化“收集”、自动化“整理入库”和智能“选择”推荐等方面。 简化“收集”:实现跨平台收集功能,支持多端操作,理想方式是输入 URL 完成收集,借鉴微信文件传输助手通过聊天窗口输入。 自动化“整理入库”:入库时自动整理关键信息,支持跨平台查看。 智能“选择”推荐:根据收藏记录和阅读兴趣生成阅读计划。 逐步搭建 AI 智能体: 1. 创建 Bot。 2. 填写 Bot 介绍。 3. 切换模型为“通义千问”。 4. 把配置好的工作流添加到 Bot 中。 5. 新增变量{{app_token}}。 6. 添加外层 bot 提示词(可按需求和实际效果优化调整)。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据。 此外,还有一些关于工作流的分享心得,如起床让 AI 排 TODO 优先级、工作中有傲娇 AI 小助理加油、重点事项拆成 bot 团队组、优化 bot 包括内容选题、短视频脚本、数据分析等,并将相关资产放入飞书的知识库和多维表单中维护,未来还可能将整个公司业务搬入飞书等。
2025-03-13
如何将大量记录的文本内容输入知识库,并且形成有效问答问答
要将大量记录的文本内容输入知识库并形成有效问答,可参考以下方法: 1. 使用 embeddings 技术: 将文本转换成向量(一串数字),可理解为索引。 把大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,这些向量与文本块的语义相关。 在向量储存库中保存 embeddings 向量和文本块。 当用户提出问题时,将问题转换成向量,与向量储存库的向量比对,查找距离最小的几个向量,提取对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 2. 创建知识库并上传文本内容: 在线数据: 自动采集:适用于内容量大、需批量快速导入的场景。 在文本格式页签选择在线数据,单击下一步。 单击自动采集。 单击新增 URL,输入网站地址,选择是否定期同步及周期,单击确认。 上传完成后单击下一步,系统自动分片。 手动采集:适用于精准采集网页指定内容的场景。 安装扩展程序,参考。 在文本格式页签选择在线数据,单击下一步。 点击手动采集,完成授权。 输入采集内容网址,标注提取内容,查看数据确认后完成采集。 本地文档: 在文本格式页签选择本地文档,单击下一步。 拖拽或选择要上传的文档,支持.txt、.pdf、.docx 格式,每个文件不大于 20M,一次最多上传 10 个文件。 上传完成后单击下一步,选择内容分段方式,包括自动分段与清洗(系统自动处理)和自定义(手动设置分段规则和预处理规则)。
2025-02-28
什么AI可以帮我将知识点形成思维导图
以下是一些可以帮助您将知识点形成思维导图的 AI 工具和方法: 1. 6 月 11 日 AI 秒学团队的方法: 思维导图模块的应用缘由:从新闻到旧闻,拒绝缪闻,追本溯源;由点及面,广度与深度兼顾,培养小朋友的探究意识与能力;凝练提升,形成强大的知识网络,助力小朋友研究性思维、统合型能力的培养。 具体操作:通过新闻涉及的主题词/关键词,或是小朋友对新闻中的感兴趣点,提取背后的知识点;调用“generateTreeMind”插件,创建一个思维导图,清晰展示知识点的起源、发展和相互关系,凝练知识网络;通过“快捷指令”提醒小朋友,可以使用此功能。 初步尝试放在聊天机器人的工作流里,存在调用比较慢且不能顾到全局的问题。后期调整为直接调用插件+提示词直接 cue 到,Precess on 与树状图相比,后者可以直接出图,点击后可以直达网站,进行二次修改。 实操展示包括新闻激发、提炼关键词/主题词/兴趣点,并发出指令“思维导图”。 2. kimi: kimi 是月之暗面公司推出的类似 ChatGPT 的大模型聊天机器人,支持超长的上下文,能输入长达 20 万字。 可以让 kimi 梳理全书,但目前 kimi 还不能直接生成思维导图,需要借助 MarkMap 来得到这本书内容的思维导图。 对于具体的章节或者知识点,可以让 kimi 展开讲解。 3. 危柯宇的方法: 日常活动文案输出(读书社活动,AI 复核型玩法“高阶”,依托传音智库+飞书妙记+在线思维导图 Markmap)。 方法一:一键知识图谱。用 kimi chat 让 AI 拆解这本书的三级章节并按照 markdown 产出内容,然后复制 AI 内容粘贴到在线思维导图 Markmap 中,一键生成思维导图,还可以自定义微调内容,并免费导出图片。 方法二:推导知识图谱(可以参考下面 prompt 自己构建)。
2025-02-26
deepseep怎么结合其他ai软件形成工作流
以下是 Deepseek 结合其他 AI 软件形成工作流的相关内容: 工作流程详解: 1. 内容获取: 输入新闻链接,系统自动提取核心内容。 开始节点,入参包括新闻链接和视频合成插件 api_key 。 添加网页图片链接提取插件,承接新闻链接。 获取网页里的图片,以 1ai.net 的资讯为例。 利用大模型节点提取图片链接,只拿提取的链接集合的第一条,搞定新闻主要图片。 调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。 使用链接读取节点,提取文字内容。 在提取链接后面接上大模型节点,用 DeepseekR1 模型重写新闻成为口播稿子。 可在提示词里添加个性化台词防伪。 手动接入推理模型,DeepseekR1 基础版本限额使用。 效果展示: 提供了相关视频示例。 灵感来源: 观察到 Coze 平台上多种视频自动化玩法,介绍如何通过 DeepSeek+Coze 实现新闻播报的自动化生成工作流。 核心功能: 一键提取新闻内容。 智能生成播报文案。 AI 语音合成播报。 自动化视频制作。 全流程无人工干预。 韦恩的相关工作流: 创建名为 r1_with_net 的对话流。 开始节点直接使用默认的。 大模型分析关键词设置:模型为豆包通用模型lite,输入为开始节点的 USER_INPUT,系统提示词为“你是关键词提炼专家”,用户提示词为“根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索”。 bingWebSearch搜索:插件为 BingWebSearch,参数为上一个节点大模型分析输出的关键词,结果为 data 下的 webPages。 大模型R1 参考搜索结果回答:在输入区域开启“对话历史”,模型为韦恩 AI 专用 DeepSeek,输入包括搜索结果和开始节点的 USER_INPUT,开启 10 轮对话历史。 结束节点设置:输出变量选择大模型R1 参考搜索结果回答的输出,回答内容里直接输出:{{output}} 。 测试并发布工作流:输入测试问题,测试完成后直接发布工作流。
2025-02-23
我需要一款免费的AI软件 可以帮助我将网课视频内容进行深度总结,并形成听课笔记和思维导图
以下为您推荐两款可能满足您需求的免费 AI 软件: 1. 360AI 浏览器: 功能 1:看长视频,敲黑板划重点。可以帮您观看 B 站的字幕视频,短短几秒就能总结概要生成脑图,告诉您视频的重点和高潮剧情在哪。例如用 360AI 浏览器观看《2007 年 iPhone 发布会》,能生成内容摘要和思维导图,视频全程 20 个看点,点击其中任一看点,就能定位到进度条对应位置,直接观看感兴趣的重点内容。还可以对英文字幕进行翻译,帮助您理解内容。同时可通过 AI 助手对话,就视频内容进行追问和扩展提问。 功能 2:阅读国内外长论文和著作,自动翻译自动提炼,3 分钟 get 要点。目前支持 360k 长文本阅读。以《三体》为例,360AI 浏览器可以呈现《三体》两册完整的故事框架,还支持生成思维导图。 官网地址:ai.se.360.cn 2. Boardmix 博思 AI 白板:在 12 月数据国内总榜中,其属于思维导图分类。
2025-02-14