Navigate to WaytoAGI Wiki →
Home/All Questions
你如何评价manus和deepseek的事件性?从里程碑的角度来思考!
从里程碑的角度来看,DeepSeek 在处理这个事件时展现出了强大的语言生成和情境构建能力。它能够根据复杂且细致的需求,在思考 8 秒后生成一段富有历史感、情感深度和符合人物性格处境的独白。这段独白不仅考虑到了时间设定、文学修辞的运用,还兼顾了历史事实和人物的心理活动,展现出了较高的智能水平和创作能力。然而,对于 Manus 在这一事件中的作用或表现,由于提供的内容中未提及,无法进行评价。
2025-03-10
制作视频
以下是关于制作视频的相关内容: 使用剪映 App 制作 AI 换脸、数字人视频的方法: 1. 准备内容: 先准备一段视频中播放的内容文字,如产品介绍、课程讲解、游戏攻略等。可以利用 AI 生成这段文字。 2. 制作视频: 使用剪映 App 对视频进行处理,电脑端打开剪映 App 点击“开始创作”。 选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号添加文字内容轨道。 在界面右侧将准备好的文字内容替换默认文本内容,为数字人提供语音播放内容及生成相应口型。 用 AI 将小说制作成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整。 9. 输出与分享:完成编辑后,输出最终视频并在所需平台分享。 制作生物融合项目视频的策略: 1. 发布视频时,鼓励粉丝评论他们想看到的下一个融合物种或为新物种命名,增加互动性和激发创意。 2. 使用吸引人的标题和描述,包含相关关键词和标签,便于在抖音上被更多人发现。 3. 合作与跨界推广:考虑与其他领域的创作者或品牌合作,扩大受众范围。 4. 发布策略:了解观众最活跃的时间,选择合适时间发布视频以最大化观看量。分析前几次视频数据,调整创作方向。 对于生物融合项目视频,以野牛与霸王龙的融合为例,视频分为两个镜头,每个镜头分别是一幅图。第一幅图是融合前,图像中央是一条从上到下的、发光的 DNA 双螺旋结构,纵向贯穿整个画面,把画面一分为二;第二幅图是融合后的,融合后的生物非常可怕、霸气,巨形怪兽,画面为阴暗风格。
2025-03-10
qwen
Qwen 2 已开源,具有以下特点和优势: 1. 提供 5 种尺寸的预训练和指令调整模型,包括 Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B 和 Qwen272B。 2. 除英语和中文外,还接受过另外 27 种语言的数据训练。 3. 在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3。 4. 增大了上下文长度支持,最高达到 128K tokens(Qwen272BInstruct),72B 和 7B 可处理 128k 上下文,57BA14B 可处理 64k 上下文,0.5B 和 1.5B 可处理 32k 上下文。 5. 相比 2 月推出的通义千问 Qwen1.5,实现了整体性能的代际飞跃。在权威模型测评榜单 OpenCompass 中,此前开源的 Qwen1.5110B 已领先于文心 4.0 等一众中国闭源模型,Qwen272B 整体性能相比 Qwen1.5110B 又取得了大幅提升。在 MMLU、GPQA、HumanEval、GSM8K、BBH、MTBench、Arena Hard、LiveCodeBench 等国际权威测评中,Qwen272B 获十几项世界冠军,超过美国的 Llama3。 Qwen2 系列模型的性能突破具有重要意义: 1. 在中国大模型领域,开源模型显示出超越最强闭源模型的势头。 2. 中国的开源大模型,从性能到生态都具备了媲美美国 Llama3 的能力。 通义千问大模型的持续优化和进步,主要依赖强大的大模型研发能力、领先的基础设施能力以及开源社区的充分支持。阿里云是全球唯一一家积极研发先进 AI 模型并且全方位开源的云计算厂商。 体验 Qwen2 系列模型的途径: 1. 已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。 2. Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址:。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 此外,玉宝搞过一个 LLM 的在线评估,里面可以看到国内各个闭源大模型的 HUMANEVAL 测评得分,可以和 QWEN2 对比,网址为:https://www.llmrank.cn/ 。除了美国 Llama 开源生态之外,通义千问已成为全球开发者的另一主流选项。
2025-03-10
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
我想把小说改编动画需要用到什么
将小说改编成动画通常需要以下步骤和工具: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 以下是一些可以利用的工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 关于人物站位调度,有研究表明: 1. GPT4 准确度高,3 个样本可以认为是全对,竖向总是 5 个人物位置排 6 个人的缺陷可以规则代码修复。 2. ChatGPT3.5,gpt3.5turbo 虽然没有 GPT4 的视觉能力,却可以通过文字脑补小说人物在空间的布局,属于是额外收获。 3. Gpt3.5turbo 存在幻觉 33%左右的成功率,ChatGPT3.5 成功率 50%+。ChatGPT4 成功率 33%50%左右。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-10
AI快速总结视频
以下是关于 AI 快速总结视频的相关内容: 除聊天内容外,AI 还能总结各种文章(不超过 2 万字),可全选复制全文发给 GPTs 进行总结,GPT4 能识别重点内容。 对于 B 站视频,若视频有字幕,可通过安装油猴脚本获取字幕。安装后刷新浏览器,点击字幕会出现“下载”按钮,可选择多种字幕格式。获取字幕后全选复制发送给 GPTs 即可实现总结。 此外,NVIDIA AI Blueprint 能快速总结数小时视频的关键事件和对话,适用于多种场景,并为开发者提供构建视频理解和摘要功能的框架。
2025-03-10
智能体
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体的定义: 智能体是一种自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分,包括规划、子目标和分解、反思和完善、记忆(短期记忆和长期记忆)、工具使用。 智能体的类型: 1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并根据推理结果采取行动。例如自动驾驶汽车。 3. 目标导向型智能体(Goalbased Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。例如金融交易智能体。 5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。例如强化学习智能体。 智能体功能实现: 本智能体主要通过一个工作流实现,采用单 Agent(工作流模式)。工作流全景图按照市场分析报告内容划分,分成 7 个分支处理,每个分支调研并生成报告中的一部分,以发挥并行处理的效率。工作流主要节点包括文本处理节点、必应搜索节点、LinkerReader 节点、在 LinkerReader 节点前的代码节点、代码节点、大模型节点和结束节点。文本处理节点将用户输入与报告某一部分的主题拼装,形成用于网络搜索的关键词句。必应搜索节点根据指定的关键词句搜索相关网络内容。LinkerReader 节点从必应搜索到的网页链接中获取网页详细内容。在 LinkerReader 节点前的代码节点用于等待 2 3 秒,错开众多 LinkerReader 节点的执行时间,避免拥塞。代码节点将搜索到的网页链接信息进行过滤,只保留网页名称、摘要、url 信息,以备后面大模型进行处理。大模型节点根据多个网页中获取的内容按照指定的格式生成报告内容,并根据代码过滤后的搜索摘要信息列表将引用链接加到报告内容中。结束节点将 7 部分大模型节点生成的内容拼接并流式输出。
2025-03-10
ai为什么虚构文献
以下是为您整合的相关内容: 在《促进创新的人工智能监管方法》中提到,人工智能在没有政府监管行动的情况下,可能会给个人、组织和关键基础设施带来一系列新的安全风险,例如造成和放大歧视,导致司法系统的不公平,对隐私和人类尊严构成威胁,损害基本自由,威胁民主和英国价值观。同时,当前规范某些人工智能应用的法律框架可能无法充分解决其带来的风险,如生成式人工智能用于生成深度伪造的色情视频内容,可能损害主体的声誉、关系和尊严;基于大语言模型技术的人工智能助手推荐危险活动,使用户遭受身体伤害;评估贷款申请人信用价值的人工智能工具因训练数据不完整或有偏差,导致基于种族或性别等特征对个人提供不同的贷款条款;家庭中的联网设备持续收集数据,包括对话,可能侵犯个人隐私。 在《写作者和非写作者|Paul Graham》中指出,写作的普遍期望和写作的固有困难这两种强大的对立力量造成了巨大压力,导致一些知名教授出现抄袭行为。直到最近,人工智能的出现改变了这一局面,几乎所有的写作压力都消散了,这将导致世界分为会写作和不会写作的人,中间地带消失。但写作是一种思考方式,有一种思考只能通过写作来完成。
2025-03-10
ai什么工作原理
AI 的工作原理通常涉及以下几个方面: 1. 对于生成式 AI(GenAI),它是基于深度学习技术和机器学习算法。通过大规模的数据集训练深度神经网络模型,学习各种数据的规律和特征,从而实现对输入数据的分析、理解和生成。例如,语言模型 ChatGPT、图像模型 DALLE 等都是通过这种方式工作的。 2. 像 GPT4VAct 这样的多模态 AI 助手,通过视觉理解技术识别网页上的元素,模拟人类浏览网页时的行为,如点击链接、填写表单、滚动页面等。 3. 深度神经网络在识别物体时,简单细胞检测特征,复杂细胞汇总信息产生结果,通知更高层词简单细胞,逐级识别。 4. 大语言模型如 LLM 是基于“概率”生成下一个字,基于概率分布的统计模型。如果遇到没学过的问题,仍会基于概率进行生成,可能会出现“胡说八道”的情况,这种现象被称为“幻觉”。 总之,AI 的工作原理依赖于数据、算法和算力,通过对大量数据的学习和训练,来实现各种任务和功能。
2025-03-10
ai是啥运行原理
AI 的运行原理主要包括以下方面: 1. 模仿人类智力活动:是一种模仿人类智力活动的信息处理系统,通过训练能够还原人类思维系统,从而实现对人类智力活动的模仿。 2. 深度学习和大数据技术:通过深度学习、大数据等技术,在一定程度上能够“自主创作”。这种创作方式是对人类学习、创作和表达过程的学习,其创作过程与人类智力活动在某种意义上高度相似,反映出人类干预和控制的烙印。 3. 特定的技术架构:例如 FLUX.1 AI 的工作原理基于混合架构,结合了变换器和扩散技术,能够根据文本提示生成准确的图像。它采用尖端技术,如流匹配和优化,以生成高质量图像。 4. 基于数据学习:如 GenAI 是通过大规模的数据集训练深度神经网络模型,学习各种数据的规律和特征,实现对输入数据的分析、理解和生成。
2025-03-10