Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何构建一个AI数字人分身

Answer

构建一个 AI 数字人分身主要包括以下两个方面:

一、构建数字人躯壳

数字人的躯壳建模有多种方式:

  1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢。能将喜欢的动漫人物变成数字人的躯壳。代表是 Live2D Cubism(https://www.live2d.com/)。
  2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高。目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体。如 NextHuman(https://nexthuman.cn/)。代表是 UE(Unreal Engine)、Unity,虚幻引擎 MetaHuman 等。但个人学习在电脑配置和学习难度上有一定门槛。
  3. AIGC:虽然省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持 ID 一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案。典型的项目有 wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC 还有一个方向是直接生成 2d/3d 引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。

建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。

二、构建数字人灵魂

有了数字人躯壳,还需要构建数字人的灵魂,让数字人具备各种智能,比如记得个人信息,充当个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。实现这些能力有以下几个工程关键点:

  1. AI Agent:要想数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战。
  2. 驱动躯壳的实现:灵魂部分通过接口定义,躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考 Nvidia 的 Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则 Live Link Face(Iphone APP)+Face AR Sample(UE)。
  3. 实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。
  4. 多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉可以通过添加摄像头数据来获取数据,再通过系列 CV 算法做图像解析等。
  5. 拟人化场景:正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI 数字人-定义数字世界中的你

数字人的躯壳就是建模过程,有多种构建方式:1.2D引擎风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢,毕竟能将喜欢的动漫人物变成数字人的躯壳,是一件很棒的事情。2D引擎的代表就是Live2D Cubism(https://www.live2d.com/)。1.3D引擎风格偏向超写实的人物建模,拟真程度高,定制化成本高,目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体(如下图,NextHuman(https://nexthuman.cn/))。3D引擎的代表是UE(Unreal Engine)、Unity,虚幻引擎MetaHuman等(个人学习在电脑配置和学习难度上有一定门槛。1.AIGC虽然AIGC的方式相比前两者省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持ID一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案(算法发展非常快,可能不久就会有连贯度很高的生成方式),典型的项目有wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC还有一个方向是直接生成2d/3d引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。得益于现有各类技术方案的成熟度,以往建模往往都是由专业的建模师完成工作,不久之后相信大家就可以通过一些生成算法快速生成自己的人物模型了。

AI 数字人-定义数字世界中的你

建好的模型可以使用web前端页面(Live2D就提供了web端的SDK)或者Native的可执行程序进行部署,最后呈现在用户面前的是一个GUI。笔者的开源数字人项目(项目地址:https://github.com/wan-h/awesome-digital-human-live2d)选择了live2d作为数字人躯壳,因为这类SDK的驱动方式相比现在的AI生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于live2d的SDK驱动方式可以参考官方示例:https://github.com/Live2D。

AI 数字人-定义数字世界中的你

有了数字人躯壳,我们就需要构建数字人的灵魂,让数字人具备各种智能,比如记得你的个人信息,充当你的个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。这些能力实现有以下几个需要注意的工程关键点:1.AI Agent:我们要想数字人像人一样思考就需要写一个像人一样的Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战;2.驱动躯壳的实现:灵魂部分怎样去驱动躯壳部分,我们可以将灵魂部分的所有接口定义出来,然后躯壳部分通过API调用,调用方式可以是HTTP、webSocket等等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考Nvidia的Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则Live Link Face(Iphone APP)+Face AR Sample(UE);3.实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。4.多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉我们可以通过添加摄像头数据来获取数据,再通过系列CV算法做图像解析等;5.拟人化场景:我们正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景如何通过工程丝滑处理。

Others are asking
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
ai写程序
以下是关于使用 AI 写程序的相关内容: 1. 对于技术纯小白: 从最基础的小任务开始,让 AI 按照最佳实践写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,以学会必备的调试技能。 若学习写 chrome 插件,可让 AI 按照最佳实践生成简单的示范项目,包含全面的典型文件和功能,并讲解每个文件的作用和程序运行的逻辑。若使用 o1mini,可在提示词最后添加生成创建脚本的要求,并请教如何运行脚本(Windows 机器则是 create.cmd)。 2. 明确项目需求: 通过与 AI 的对话逐步明确项目需求。 让 AI 帮助梳理出产品需求文档,在后续开发时每次新起聊天将文档发给 AI 并告知在做的功能点。 3. 在独立游戏开发中的经验: 单独让 AI 写小功能没问题,但对于复杂的程序框架,可把不方便配表而又需要撰写的简单、模板化、多调用 API 且牵涉小部分特殊逻辑的代码交给 AI。 以 Buff 系统为例,可让 AI 仿照代码写一些 Buff。但目前 Cursor 生成复杂代码需要复杂的前期调教,ChatGPT 相对更方便。 教 AI 时要像哄小孩,及时肯定正确的,指出错误时要克制,不断完善其经验。 4. 相关资源和平台: AI 写小游戏平台:https://poe.com/ 图片网站:https://imgur.com/ 改 bug 的网站:https://v0.dev/chat 国内小游戏发布平台:https://open.4399.cn/console/ 需要注意的是,使用 AI 写程序时,对于技术小白来说,入门容易但深入较难,若没有技术背景可能提不出问题,从而影响 AI 发挥作用。
2025-04-19
直播分身怎么搭建
搭建直播分身可以参考以下步骤: 1. 构建数字人躯壳:建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。可以选择 live2d 作为数字人躯壳,这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎等驱动方式又更加轻量和简单。另外,卡通二次元的形象接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 2. 搭建智能体:创建一个智能体,输入人设等信息,放上相关工作流。配置完成后进行测试。需要注意的是,工作流中的某些插件 api_token 填的是个人 token,不能直接发布,可将 api_token 作为工作流最开始的输入,用户自己购买后输入 api_token 再使用然后发布。 3. 直播数据分析工作流的搭建与应用: 插件测试与选择:先测试插件是否好用,如遇到数据格式不对等问题需重新选择和调整。 工作流搭建步骤:从上传直播数据,到利用大模型优化提示词和整理数据,逐步完善工作流。 工作流效果提升:增加模型和节点,不断迭代工作流,使生成的直播分析和方案质量更好。 工作流封装与应用:将工作流封装成智能体,可用于回复用户问题和处理不同的直播数据。 相关问题探讨:讨论了如获取商品评价数据的方式,以及将直播工作拆分组合的可能性等问题。 工作流运行与问题排查:涉及直播数据工作流的运行,出现问题时考虑输出环节,还提到未启动工作流的情况及解决尝试。 报名流程介绍:包括通过网址找到报名链接,填写相关信息如名字、智能体名字、商店链接、文档说明等并提交。 AI 辅助文档生成:使用豆包等 AI 工具生成提交模板,如主题、应用场景、主要功能、设计思路等内容。 加入共学小组:提到飞书中的共学小组和 prompt 学习群,满员时考虑新建或加入其他相关群组。
2025-03-09
如何制作数字分身
以下是一些制作数字分身的方法和相关信息: 可以在一些网站如 Elevenlabs.io、speechify.com、Heygen 等自助购买服务,以低成本制作自己的数字人分身。 当 Coze 接入飞书后,将自己的知识数据上传到 Coze,基于个人知识库开发 bot,并将其部署到个人订阅号上,这个 bot 可以作为数字分身与粉丝互动。 通过整合知识库,并结合提示词进行情感或行为上的描述,可以创建一个 bot,形成自己的数字分身。
2025-02-20
实现基于个人聊天记录的数字分身的最佳实践
实现基于个人聊天记录的数字分身的最佳实践包括以下方面: 虚拟数字人的类型和驱动方式: 虚拟数字人通过各种技术创造,具有外观、行为和思想等人类特征,呈现为虚拟形象。 从驱动层面可分为中之人驱动和 AI 驱动两类。中之人驱动运用动作捕捉和面部捕捉技术实现交互,有上限且缺乏高并发和量产化能力;AI 驱动使用 AI 技术创建、驱动和生成内容,赋予感知和表达等交互能力。 虚拟数字人的应用类型: 服务型:如虚拟主播、助手、教师、客服和医生等,为物理世界提供服务。 表演型:如虚拟偶像,用于娱乐、影视等场景。 身份型:是物理世界“真人”进入虚拟世界的数字分身,在元宇宙中有广泛应用场景。 相关开源项目: 熊猫大侠基于 COW 框架的 ChatBot 最新版本支持多端部署、基础对话、语音识别、图片生成、丰富插件、Tool 工具和知识库等功能。可接入个人微信、微信公众号、企业微信应用,支持多种模型和个性化插件扩展,通过上传知识库文件自定义专属机器人,可作为数字分身、领域知识库、智能客服使用。项目地址包括 Github:https://github.com/zhayujie/chatgptonwechat ,Gitee:https://gitee.com/zhayujie/chatgptonwechat 。
2025-02-20
我想用扣子完成AI数字分身的搭建,应该怎么操作
以下是使用扣子完成 AI 数字分身搭建的步骤: 1. 登录扣子官网(https://www.coze.cn/)并注册。 2. 创建个人 Bot: 点击个人空间。 点击创建 Bot。 填入 Bot 的名字和功能介绍,以及上传或生成对应的头像。如果没想好,可以先随便填,后面可更改。 3. 在搭建生产力工具的过程中,要先深入了解自己的工作内容和需求,做出有针对性的规划。 4. 通过整合知识库,并结合提示词进行情感或行为上的描述,创建一个 Bot,形成自己的数字分身。 5. 构建整个 Flow 时要尽量减少控件使用(非必要不增加),越少的控件代表越少的逻辑,越少的逻辑代表越小的运行风险。 6. 对于复杂的批处理任务,尽量平衡批处理次数和并发,同时还要考虑模型的推理速度,不然会增大推理失败的概率。 需要注意的是,Coze 目前提供的组件,包括 bot 等工具,能满足一些基本的生产力搭建需求。虽然现阶段它还不支持循环等高级功能,但未来有望支持更多工作流的设计模式。自 Coze 推出以来,它已明确面向 C 端用户,这些用户能从中获得实质性好处。
2025-01-24
有什么AI社交产品做相亲交友服务吗?不是AI陪伴类,是AI分身促进真人交友的产品
目前在 AI 社交产品领域,有一些相关的探索和尝试。例如,某 AI 社交 APP 创始人认为,在社交场景中,核心分为陌生人社交和熟人社交。他们尝试过纯 AI 虚拟陪聊产品,但发现用户主要是年龄偏低的人群,商业价值相对较低,且可能被模型侵蚀。有效的用户留存来源于真实的人际关系,越接近熟人社交的场景,平台的用户留存能力越高。 同时,AI 赛道投资人认为,产品不应仅限于情感陪伴,应扩展为类人助手,解决理性严肃场景的问题解决和感性需求的满足。AI 社交软件的开发者认为,为用户打造数字分身、创造社交关系是有价值的,通过 AI Agent 可以在人与人之间创造新的社交关系,用户也愿意为这种新型社交互动支付相当的金额。但目前尚未有明确的专门以 AI 分身促进真人交友的成熟产品。
2024-12-03
数字分身
数字分身是指在虚拟世界中代表物理世界“真人”的存在。在不同的场景中有多种应用: 节目表演方面:如在节目单中,有“猜真人”这样的魔术互动类表演,通过数字分身增加趣味性;还有“亲情的应用场景(逝者)”,例如女儿通过逝者的数字分身再次对话。 实战课程方面:通过课程可以获得一比一数字人分身的定制体验,包括熟练使用多种热门数字人工具,掌握相关技术,了解商业应用场景及行业现状,将数字人融入工作流,还能获得进阶学习的自学路径,并且有交流群方便解决问题和交流心得。 价值探讨方面:身份型虚拟数字人在元宇宙中有广泛应用场景。服务型虚拟数字人具有功能属性,隶属于业务层,AI 创造出的虚拟“皮囊”具有一定价值。
2024-08-27
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
flowith根据自然语言构建一个直接使用的工作流吗,如何向flowith提出要求
Flowith 可以根据自然语言构建工作流。即使没有专业编程技能,只要能用清晰的自然语言描述出想要的各个 Agents 具备的行为和功能,就可以快速制作多 Agents 应用或创建代理式工作流。 使用工作流的步骤如下: 1. 配置工作流: 在 Code 节点内使用 IDE 工具,通过 AI 自动生成代码或编写自定义代码逻辑,来处理输入参数并返回响应结果。 该节点支持 JavaScript、Python 运行时,需注意不同运行时的特定事项。 可在 IDE 底部单击尝试 AI,并输入自然语言设定代码逻辑,也可选中代码片段通过快捷键唤起 AI 并输入自然语言让其修改代码。 2. 通过工作流数据库节点操作数据表: 在工作流中添加数据库节点对数据表进行操作,可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作添加并配置工作流节点: 单击页面顶部的工作流页签,然后单击创建工作流。 输入工作流名称和使用描述,然后单击确认。 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 根据相关信息配置数据库节点,包括输入添加 SQL 执行中需要的参数,输入要执行的 SQL 语句,可单击自动生成使用大模型生成 SQL。 需注意不支持 Select语法、多表 Join 操作,最多返回 100 行数据。在配置数据库节点前,要确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。
2025-03-26
构建知识库有什么要注意的?
构建知识库时需要注意以下几点: 1. 在使用在线检索流程生成结果时: 重排序的结果通常因大模型上下文有限制而不会都被使用,可以设置阈值进行截断,如只使用前 3 5 个文档,或只取相关性分数大于某个值的文档。 一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限空间内包含更多相关信息。 2. 对于后置处理,可能包括敏感内容检测和移除、格式化输出等。 3. 创建智能体的知识库时: 手动清洗数据可提高准确性,如创建画小二课程的 FAQ 知识库时,飞书在线文档中每个问题和答案以分割。 对于本地文档,不能一股脑全部放进去训练,应先放入大的章节名称内容,再按固定方式细化处理。 4. 使用 Coze 搭建知识库时: 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等问题。 希望以上内容对您有所帮助。
2025-03-25
如何构建知识库
构建知识库的方法主要有以下两种: 使用 flowith 构建知识库: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 点击左上角的加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. Flowith 会对文件逐个进行抽取等处理,无需操心具体过程,等待处理完毕。 5. 处理完毕后,可以在知识库管理页面测试检索,输入关键词过滤相关内容。 使用 Dify 构建知识库: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集,为数据集编写良好的描述。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式,根据实际需求选择合适的索引方式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用,在应用设置中配置数据集的使用方式。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新的内容以保持时效性。 总的来说,Dify 提供了一个可视化的知识库管理工具,关键步骤包括数据准备、数据集创建、索引配置,以及将知识库集成到应用中并持续优化。
2025-03-20
我是新手小白,如何用最简单的方式构建多智能体
对于新手小白构建多智能体,以下是一种较为简单的方式: 1. 快速搜索补充参考信息:根据用户的任务调研市场上主流的开源搜索引擎技术架构,使用搜索工具 API WebSearchPro 补充更多信息,具体可参考。 2. 用模型规划和分解子任务:使用大模型如 GLM40520 帮助规划,把用户问题拆分成若干子搜索任务,并转换为 JSON 格式。JSON 格式处理可参考。 3. 用搜索智能体完成子任务:AI 搜索智能体具备联网搜索和自主分析并进行多轮搜索任务的能力。智能体 API 的调用方式可参考。智能体 id 为 659e54b1b8006379b4b2abd6,简介为连接全网内容,精准搜索,快速分析并总结的智能助手。 4. 总结子任务生成思维导图:智能体能调用各种插件,如思维导图、流程图、PPT 工具等,可根据工作需要选择。智能体 API 的调用方式可参考。智能体 id 为 664e0cade018d633146de0d2,简介为告别整理烦恼,任何复杂概念秒变脑图。 另外,OpenAI 官方开源的多智能体框架「Swarm」具有一定优势,其「Handoffs」处理了不同智能体之间交接的逻辑。例如构建客服多智能体,可能只需要准备普通接线客服和宽带客服两个 Agent 。 在实际操作中,如创建 Coze 智能体获取笔记和评论信息,要创建智能体并使用单 Agent 对话流模式,编排对话流,进行测试和发布等步骤。发布时要注意相关配置,如输出类型、输入类型等。
2025-03-20
想要做一节讲如何用智能体做企业数字化转型的课程,如何设计
以下是关于如何设计用智能体做企业数字化转型课程的建议: 一、参考案例 1. 李国宝的相关经验 具有丰富的从业经验,包括通信工程、数据通信网络培训、创业、网络安全解决方案及培训、AI 课程开发与培训等。 开发过面向不同群体的 AI 课程,如《数字化转型实践》面向传统企业数字化、AI 赋能转型。 2. 90 分钟从 0 开始打造你的第一个 Coze 应用课程 从零开始教学做应用界面,先基础教学,再涉及特定应用。 介绍当前承接业务,包括辅导、培训、定制及企业 AI 落地等。 挖掘用户对 AI 应用的功能需求,如对交互界面的需求。 二、课程设计要点 1. 对于企业管理者 AI 辅助决策:在小规模决策中使用 AI 分析工具,以其分析结果作为决策参考。 员工培训计划:制定 AI 工具使用的培训计划,帮助团队成员了解日常工作中如何有效利用 AI。 流程优化:识别公司中可能受益于 AI 自动化的重复性任务,从小流程开始测试 AI 解决方案的效果。 AI 伦理和政策:制定公司的 AI 使用政策,确保 AI 应用符合伦理标准和法律要求。 2. 对于教育工作者 AI 辅助教案设计:尝试使用 AI 帮助设计课程大纲或生成教学材料 ideas,为课程带来新视角。 个性化学习路径:探索使用 AI 分析学生学习数据,为不同学生制定个性化学习计划。 创新教学方法:考虑将 AI 工具整合到课堂活动中,如使用 AI 生成的案例研究或模拟场景。 AI 素养教育:开发简单的课程模块,教导学生了解 AI 基础知识、应用领域及其对社会的影响。 三、注意事项 无论面向哪个群体,都应记住:与 AI 协作是一个学习过程。从小处着手,保持好奇心和开放态度,会发现 AI 不仅能提高工作效率,还能激发创造力,开拓新的可能性。最重要的是,始终保持批判性思维,将 AI 视为强大的工具,而不是完全依赖的解决方案。
2025-04-18
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
,当前AI数字人发展的新态势,以及新技术和成果
当前 AI 数字人的发展呈现出以下新态势,并取得了一系列新技术和成果: 数字人简介: 数字人是运用数字技术创造的,虽现阶段未达科幻作品中的高度智能,但已在生活多场景中出现且应用爆发。业界对其尚无准确定义,一般可按技术栈分为真人驱动和算法驱动两类。真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视和直播带货,其表现质量与建模精细度及动捕设备精密程度相关,不过视觉算法进步使在无昂贵动捕设备时也能通过摄像头捕捉关键点信息实现不错效果。 B 端变现与创业方向: B 端变现细分包括高频率和大规模的内容生产细分,如文字、视频、3D 模型、AI 智能体等,底层是需求和数据收集及训练模型,算力和能源是关键。自媒体创业需具备内容创新和差异化,内容成本低且更新迭代快。游戏创业可做轻量化游戏,结合 AI 技术满足放松和社交需求,专注垂类赛道避免与大厂竞争。影视创业在 25 年将是拐点,更多内容会采用 AI 技术。广告营销创业重点是 AI 虚拟人,数字插画可走治愈类型,要明确平台用户画像和产品定位,做好次留存和引入私域。 AI 虚拟人的发展与创业机遇: AI 虚拟人从早期以首位为核心的宅文化虚拟偶像,发展到以 CG 技术和动捕语音合成技术为核心的角色,再到如今以动捕和人工智能技术为核心的服务型虚拟人。虚拟人产业链包括基础层的硬件和软件研发,平台层如商汤、百度等提供工具和系统,应用层涉及影视、传媒、游戏、金融、文旅等内容变现。未来 3 10 年,AI 虚拟人是 Web 3.0 的风口,提前布局有潜力的赛道可迎接机遇,但创业对创业者综合能力要求极高。 未来展望: 数字人未来有很多应用场景,如家庭中的数字人管家、学校中的数字人老师、商场里的数字人导购等。未来还会有很多技术突破,如将五感数据和躯壳控制参数作为输入,次世代算法可自我迭代升级和自行演化躯壳控制方式。通过 Dify 搭建数字人的开源项目可展现低门槛高度定制数字人的基本思路,数字人的核心在于 Agent 即灵魂,如何在 Dify 上编排专属数字人灵魂值得体验。期望随着数字人的多模态能力接入、智能化水平升级、模型互动控制更精确,AI 既能提供高质量信息,也能关注用户情绪。
2025-04-14
数字人
数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货,其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过随着视觉算法进步,在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,可创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音,合成逼真会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。使用这些工具时,请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。 以下是每个人都可以用 10 分钟轻松制作 AI 数字人视频的方法: 在显示区域,拖动背景图的一个角将图片放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。增加字幕,点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。至此,数字人视频完成,点击右上角“导出”按钮导出视频以作备用。若希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2025-04-12
有没有免费制作数字人的网站?
以下是一些免费制作数字人的网站及使用方法: HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。上传后效果如图所示,My Avatar处显示上传的照片。点开大图后,点击Create with AI Studio,进入数字人制作。写上视频文案并选择配音音色,也可以自行上传音频。最后点击Submit,就可以得到一段数字人视频。 DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的Create vedio。选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。配音时,可以选择提供文字选择音色,或者直接上传一段音频。最后,点击Generate vedio就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法:点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。点击开始创作,选择自定义照片。配音时,可以选择提供文字选择音色,或者直接上传一段音频。打开绿幕按钮,点击背景,可以添加背景图。最后,点击生成视频。 此外,在剪映中也可以生成数字人:在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。软件会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成,可点击预览按钮查看效果。还可以为视频增加背景图片,删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频对齐。
2025-04-11
数字人讲解产品
以下是关于数字人讲解产品的相关内容: 电商方面: 1. 添加产品/介绍背景:若有自己的视频/图片素材可用,若无,可根据搜索添加。 2. 扣像结合背景:在剪映中把数字人扣下,导入视频,点击画面选择抠像,点击智能抠像,调整大小和位置。 3. 添加字幕和音乐:智能识别字幕,可搜索或手动添加喜欢的音乐。最终形成所需视频,可用于带货或讲解产品,也能应用于直播(直播可能收费,短视频可通过购买邮箱注册使用免费时长或直接购买会员版)。 XiaoHu.AI 日报 1 月 14 日相关: 1. 无需真人模特,上传产品图片,数字人即可手持产品进行口播展示。 2. 支持语音和口型同步,动作、姿势可定制,提供 1000+多国家数字人模特。 3. 覆盖全球 28+种语言,能快速生成产品宣传视频,省去拍摄烦恼。测试视频效果接近成熟,嘴型部分仍需微调。在线体验:
2025-04-11