Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

hugging face教程

Answer

以下是为您整理的关于 Hugging Face 的教程:

  1. 在“AIGC Weekly #41”中,有一个非工程师指南:训练 LLaMA 2 聊天机器人的教程。它展示了如何使用 Hugging Face 提供的服务来训练和部署一个基于 LLM 的聊天机器人,无需任何代码知识。具体分为三个步骤:使用 AutoTrain 服务在线训练一个 LLM 模型;然后使用 ChatUI 服务将训练好的模型部署成一个可通过网页聊天的机器人;最后介绍了 Hugging Face 为普通用户提供的一些工具,比如 Spaces、AutoTrain、ChatUI 等,目的是让更多人能参与和利用机器学习。
  2. 在“AIGC Weekly #32”中,有一个由吴恩达工作室与 Hugging Face 合作的短期课程,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要。
  3. 在“大圣:全网最适合小白的 Llama3 部署和微调教程”中,介绍了在下载大模型之前的两个重要开源社区:HuggingFace 和 ModelScope(魔搭社区)。HuggingFace 是一家成立于纽约的 AI 研究公司,以其开源项目 Transformers 库而闻名,该库聚焦于自然语言处理(NLP)和机器学习,并支持超过 100 种语言的模型。HuggingFace 强调社区协作,致力于使 AI 更加民主化,为研究人员和开发者提供强大的工具,以推动人工智能技术的进步和应用。ModelScope(魔搭社区)是由中国的科技巨头阿里巴巴集团旗下的阿里云推出的一个开源平台。该平台专注于提供各种 AI 模型,包括但不限于自然语言处理、计算机视觉和音频处理。ModelScope 旨在简化 AI 模型的开发和部署过程,使技术更加透明和容易访问,特别是为中国的开发者和研究机构提供支持。这两个平台可以简单理解为开源大模型的仓库,从这些平台可以下载到各种开源的大模型。其区别可以类比于 github 和 gitee 的区别:HuggingFace 是国际上的平台,而 ModelScope 则是国内的平台。此外,还包括创建下载大模型的 Python 脚本文件:download.py 以及执行 Python 脚本下载大模型的步骤。出现相应界面则代表模型开始下载,预计下载 5 分钟,下载完成会有相应提示。
Content generated by AI large model, please carefully verify (powered by aily)

References

AIGC Weekly #41

这个教程展示了如何使用Hugging Face提供的服务来训练和部署一个基于LLM的聊天机器人,而无需任何代码知识。它分为三个步骤:使用AutoTrain服务在线训练一个LLM模型。然后使用ChatUI服务将训练好的模型部署成一个可通过网页聊天的机器人。最后介绍了Hugging Face为普通用户提供的一些工具,比如Spaces、AutoTrain、ChatUI等,目的是让更多人能参与和利用机器学习。

AIGC Weekly #32

这个短期课程是吴恩达工作室与Hugging Face合作的,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要;图片加载中

大圣:全网最适合小白的 Llama3 部署和微调教程

在我们下载大模型之前,先来介绍两个重要的开源社区:HuggingFaceModelScope(魔搭社区)HuggingFace是一家成立于纽约的AI研究公司,以其开源项目Transformers库而闻名,该库聚焦于自然语言处理(NLP)和机器学习,并支持超过100种语言的模型。HuggingFace强调社区协作,致力于使AI更加民主化,为研究人员和开发者提供强大的工具,以推动人工智能技术的进步和应用。ModelScope(魔搭社区)是由中国的科技巨头阿里巴巴集团旗下的阿里云推出的一个开源平台。该平台专注于提供各种AI模型,包括但不限于自然语言处理、计算机视觉和音频处理。ModelScope旨在简化AI模型的开发和部署过程,使技术更加透明和容易访问,特别是为中国的开发者和研究机构提供支持。这两个平台可以简单理解为开源大模型的仓库。从这些平台,我们可以下载到各种开源的大模型。他们的区别可以类比于github和gitee的区别:HuggingFace是国际上的平台,而ModelScope则是国内的平台。1.创建下载大模型的Python脚本文件:download.py1.执行Python脚本,下载大模型出现如下界面则代表模型开始下载中,预计下载5分钟1.下载完成

Others are asking
我要找AI配音视频,类似dreamface
以下为一些可以获取 AI 配音视频的网站及相关信息: Runway:网址为 https://runwayml.com ,有网页和 app ,使用方便。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,是剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo 。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: 通义万相:网址为 https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:网址为 https://lumalabs.ai/ 。视频模型: 此外,在制作 AI 视频短片《梦镜》时,经过讨论决定采用真人配音而非 AI 配音。在制作过程中,先通过图片配合配音确定每个镜头所需时长,完成初步成片后再让配音老师根据剧情和人物情绪重新配音,并加入气氛音。 另外,桂大羊的 AI 视频短片制作教程中,选择了多种工具,包括大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。
2025-02-25
facefusion是什么软件
FaceFusion 是一款面部交换和面部增强的开源软件,可以在本地运行。它不仅能将源图像中的面部与目标图像或视频中的面部进行交换,还提供了多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 版本更新后,增加了摄像头功能,可进行实时换脸和面部改造。该软件有多种选项和参数,允许用户根据需要进行定制,并且内置了一些检查机制以防止被用于不道德或非法用途。其开源地址为:https://github.com/facefusion/facefusion 。 使用该软件存在一定的条件和限制: 本机解决方案:需要 Python 环境以及安装视频解码器等多个依赖软件,有一定编程知识要求。而且其运行推理计算速度非常依赖 GPU,若本地计算机没有 GPU 或者 GPU 显存较小,执行速度将会非常缓慢。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 已提供的大模型运行环境和计算能力,但会产生一定费用。 在云服务解决方案中,以 AutoDL 为例,注册完成后在算力市场中选择能接受价格的算力服务器,建议选取 GPU 配置更高的算力设备。通过模型镜像启动 GPU 服务器,在算法社区查找 facefusion 镜像,创建实例并启动,利用终端输入相关命令启动程序,注意添加“executionproviders cuda cpu”参数以使用 GPU 能力加快推理速度。最后通过自定义服务按钮打开新的浏览器窗口,访问 facefusion 提供的 UI 界面,上传准备好的图片、视频进行换脸处理。
2025-02-20
facefusion
FaceFusion 是一个开源的换脸工具,以下是关于它的一些信息: 环境配置: 需要配置的环境包括 Python(3.10 版本)、PIP、GIT、FFmpeg、Microsoft Visual C++ 2015 可再发行组件包、微软 Visual Studio 2022 构建工具。 安装 Python 时需注意版本不能高于 3.7 到 3.10,因为 onnxruntime==1.16.3 需要 Python 版本在 3.7 到 3.10 之间,否则会导致 Python 环境不兼容要求的 onnxruntime 版本。推荐使用安装包下载安装:python 下载地址 https://www.python.org/downloads/ ,下载对应的版本后,点击安装,注意把它添加到系统的环境变量中,也可以使用命令行的安装方式。 安装完 FFmpeg 后需重新启动系统以使 FFmpeg 正常运行。 在安装微软 Visual Studio 2022 构建工具过程中,请确保选择桌面开发与 C++包。 启动和使用: 点击快捷工具中顶部的 JupyterLab,打开这个工具。通过终端来启动 facefusioin。 点击顶部的 + 号选项卡,新打开一个终端窗口。 在终端窗口中,输入 3 条命令做 3 件事情: 查看文件列表。输入 ls 并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入 cd facefusion 并按回车,进入程序目录。 启动 facefusion。输入:python./run.py executionproviders cuda cpu 启动程序。注意后面的参数 executionproviders cuda cpu 非常重要,如果不加 cuda,则默认不使用 GPU 能力,推理将非常慢。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。通过 web 浏览器来访问 facefusion 提供的 UI 界面。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。执行完成后,在输出的位置,会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击它可以导出变量后的视频到本地。 此外,FaceFusion 是一款面部交换和面部增强的开源软件,可以在本地运行。不仅可以将源图像中的面部与目标图像或视频中的面部进行交换,还提供了多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可以进行实时换脸和面部改造。FaceFusion 有多种选项和参数,允许用户根据需要进行定制。还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub:https://github.com/facefusion/facefusion 。相关视频演示:https://x.com/xiaohuggg/status/1699700109775397186?s=20 。
2025-02-12
Dreamface数字人
以下是关于 Dreamface 数字人的相关信息: 生成数字人: 在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 增加背景图片: 可删除先前导入的文本内容,为视频增加背景图片。点击左上角“媒体”菜单并“导入”选择本地图片上传,将图片添加到视频轨道上(会覆盖数字人),将轨道右侧竖线向右拖拽使其与视频对齐,选中轨道后可调整图片尺寸和数字人位置。 虚拟数字人的分类和驱动方式: 虚拟数字人通过各种技术创造,具有人类特征,呈现为虚拟形象。从驱动层面分为中之人驱动和 AI 驱动。中之人驱动运用动作捕捉和面部捕捉技术实现交互,有上限且缺乏高并发和量产化能力;AI 驱动使用 AI 技术创建、驱动和生成内容,赋予感知和表达等交互能力。从应用层面可分为服务型、表演型和身份型。服务型如虚拟主播、助手、教师、客服和医生等,表演型如虚拟偶像,身份型是物理世界“真人”的数字分身。 构建高质量 AI 数字人的要点: 1. AI Agent:要让数字人像人一样思考需编写类似人的 Agent,记忆模块、工作流模块和工具调用模块的构建是挑战。 2. 驱动躯壳的实现:定义灵魂部分接口,躯壳通过 API 调用,方式视躯壳实现而定。包含情绪的语音表达及保证躯壳口型、表情、动作和语音的同步及匹配,目前主流方案只能预设表情动作和做逻辑判断播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:数字人算法组成庞大,几乎不能单机部署,算法一般部署到额外集群或调用 API,网络耗时和模型推理耗时会影响体验,低延时是需解决的问题。 4. 多元跨模态:仅语音交互不够,可根据需求添加其他感官,如通过摄像头数据获取视觉信息并做图像解析。 5. 拟人化场景:正常与人交流非线性,插话、转移话题等情况需通过工程丝滑处理。
2025-01-17
deepfacelive
以下是关于 DeepFaceLive 以及换脸相关的信息: 换脸应用: 1. 在线换脸,使用上传的图片。 2. 在线视频操纵软件。 3. 在照片上交换面孔,效果出众。 4. 在自拍上叠加名人的脸。 5. 实时换脸的视频通话。 6. 在线媒体中的换脸。 7. 在线图片换脸。 8. 改进的实时换脸视频通话。 9. 视频和图片的换脸解决方案。 辅助工具换脸方面,同样有上述这些应用。 此外,还有关于深度学习核心概念中的特征学习的介绍:特征学习算法可以找到对区分类很重要的共同模式,并自动提取它们以用于分类或回归过程。特征学习可以被认为是由算法自动完成的特征工程。在深度学习中,卷积层特别擅长于在图像中找到好的特征到下一层,从而形成一个非线性特征的层次结构,这些特征的复杂性不断增加(例如,斑点、边缘– >鼻子、眼睛、脸颊– >面部)。最后一层使用所有这些生成的特征进行分类或回归(卷积网络中的最后一层本质上是多项式逻辑回归)。图 1 显示了由深度学习算法生成的特性,该算法可以生成易于解释的特性。但通常特征很难解释,尤其是在像循环神经网络和 LSTM 这样的深层网络或非常深的卷积网络中。
2024-12-09
Face Swapper技术路径
以下是一些关于 Face Swapper 的技术路径和相关工具: 在线换脸工具: :可在线换脸,使用上传的图片。 :在线视频操纵软件。 :在照片上交换面孔,效果出众。 :在自拍上叠加名人的脸。 :支持实时换脸的视频通话。 :用于在线媒体中的换脸。 :在线图片换脸。 :改进的实时换脸视频通话。 :提供视频和图片的换脸解决方案。 辅助工具: E4S:精细化的面部交换(换脸)技术,能确保换出的脸在形状、纹理和光照方面自然逼真,精确处理脸部细节。项目地址: Misgif:可以将您的脸放入喜欢的 GIF 表情包中的应用,具有娱乐性。网址: Face Swapper:AI 换脸工具,可一次替换多张脸,支持 JPG、PNG、WEBP 格式,最大 1024px 分辨率,应用场景包括时尚、美容、电影、媒体、人力资源。网址:
2024-11-28
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多令人惊叹的 AI 技术成就都可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基石。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到了空前的提升,为 AI 技术的进步提供了强大支持。 人才网络方面,AI 领域的关键人才大多源自于 Google,特别是其在加拿大多伦多和蒙特利尔成立的两个实验室,以及收购的英国公司 DeepMind。这些机构和个人形成了强大的人才网络,推动了 AI 技术的发展,并培养了一批杰出的领军人物。人才在不同公司之间的流动和合作也促进了 AI 技术的快速进步。 关于这三个基石的资源,目前没有明确提及具体的获取渠道。但您可以通过以下途径寻找相关资源: 1. 学术研究网站和数据库,如知网、Web of Science 等,以获取关于架构、算力和人才网络的学术研究成果。 2. 科技行业的专业论坛和社区,与同行交流和分享资源。 3. 关注知名科技公司和研究机构的官方网站和社交媒体账号,获取最新的研究动态和资源。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多令人惊叹的 AI 技术成就都可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基石。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到了空前的爆发,为 AI 技术的进步提供了强大支持。 人才网络方面,AI 领域的关键人才几乎都源自于 Google,特别是 Google 在加拿大多伦多和蒙特利尔成立的两个实验室,以及它收购的英国公司 DeepMind。这些机构和个人形成了强大的人才网络,推动了 AI 技术的发展,并培养了一批杰出的 AI 领军人物。从 Google 到 OpenAI,再到 Facebook 和其他多家公司,人才的流动和合作推动了 AI 技术的快速进步。 关于这三个基石的资源,您可以通过以下途径获取: 1. 学术研究论文:在相关的学术数据库中搜索关于 AI 架构、算力和人才发展的研究成果。 2. 专业技术论坛和社区:例如一些知名的 AI 技术论坛,开发者们会在其中分享和讨论相关的知识和经验。 3. 科技公司的官方网站和技术博客:如 Google、NVIDIA 等公司的网站,可能会发布有关其在 AI 领域的技术创新和人才培养的信息。 4. 在线教育平台:一些提供 AI 课程的平台,可能会涵盖这三个方面的知识和案例。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多出色的 AI 技术成就都可追溯到 Transformer 和 Diffusion 这两个核心架构,它们分别在数据转换和数据向图像转换方面发挥着关键作用。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术进步提供了强大支持。 人才网络方面,AI 领域的关键人才大多源自 Google 及其相关机构,如在加拿大多伦多和蒙特利尔成立的实验室以及收购的英国公司 DeepMind,这些人才的流动与合作推动了 AI 技术的发展。 关于这三个基石的资源,目前没有明确提及具体的获取渠道。但您可以通过以下途径寻找相关资源: 1. 学术研究网站和数据库,获取关于架构、算力和人才网络的最新研究成果和报告。 2. 科技公司的官方网站和技术文档,了解其在相关领域的创新和实践。 3. 专业的 AI 技术论坛和社区,与同行交流和分享资源。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface ​
在人工智能时代,以下是被认为最重要的三个基石: 1. 架构:当前市场上许多出色的 AI 技术成就可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基础。 2. 算力:自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术的进步提供了强大支持。 3. 人才网络:AI 领域的关键人才网络起到了不可忽视的作用,特别是 Google 在加拿大多伦多和蒙特利尔成立的两个实验室以及其收购的英国公司 DeepMind 培养和汇聚的人才,他们的流动与合作推动了 AI 技术的发展。 关于这三个基石的资源,您可以通过以下途径获取: 1. 学术研究网站和数据库,例如一些知名的科技学术数据库。 2. 专业的 AI 技术论坛和社区,与同行交流获取相关信息。 3. 大型科技公司的官方网站和技术文档,如 Google 等。 4. 相关的学术会议和研讨会。
2024-10-10
吴恩达关于使用hugging face 、langchain 创建自己应用的教程
以下是一些与吴恩达关于使用 hugging face 、langchain 创建自己应用的相关教程资源: 1. 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。 2. 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 3. LangChain ?️?中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。 4. AIGC Weekly 32 中的精选文章: 地址: 简介:这个短期课程是吴恩达工作室与 Hugging Face 合作的,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要。
2024-08-19
huggingface
Hugging Face 是数据科学领域非常受欢迎的人工智能工具: 在 2022 年 9 月至 2023 年 8 月期间吸引了 3.166 亿流量。 用户每次访问平均分配 11 分 2 秒的时间,与行业平均水平类似。 桌面端和移动端的流量分布分别为 48%和 52%。 用户群以男性为主,占 84.48%,女性用户占 15.52%。 美国是主要的流量来源,日本紧随其后。 跳出率略高于平均水平 63.46%。 此外,在 2023 年的百模大战中,Hugging Face 是专门做模型托管的,各种大模型、小模型、垂直模型、专业模型、通用模型都能在上面找到,并且能使用。其拥有的大模型数量众多,每秒钟都有人在上传,可能很快会迎来百万大模型大战。
2024-08-16
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12