Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

吴恩达关于使用hugging face 、langchain 创建自己应用的教程

Answer

以下是一些与吴恩达关于使用 hugging face 、langchain 创建自己应用的相关教程资源:

  1. 面向开发者的 LLM 入门课程:
    • 地址:https://github.com/datawhalechina/prompt-engineering-for-developers
    • 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。
  2. 提示工程指南:
    • 地址:https://www.promptingguide.ai/zh
    • 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。
  3. LangChain ?️?中文网,跟着 LangChain 一起学 LLM/GPT 开发:
    • 地址:https://www.langchain.asia
    • 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。
  4. AIGC Weekly #32 中的精选文章:
    • 地址:https%3A%2F%2Fwww.deeplearning.ai%2Fshort-courses%2Fbuilding-g
    • 简介:这个短期课程是吴恩达工作室与 Hugging Face 合作的,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要。
Content generated by AI large model, please carefully verify (powered by aily)
Others are asking
我要找AI配音视频,类似dreamface
以下为一些可以获取 AI 配音视频的网站及相关信息: Runway:网址为 https://runwayml.com ,有网页和 app ,使用方便。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,是剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo 。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: 通义万相:网址为 https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:网址为 https://lumalabs.ai/ 。视频模型: 此外,在制作 AI 视频短片《梦镜》时,经过讨论决定采用真人配音而非 AI 配音。在制作过程中,先通过图片配合配音确定每个镜头所需时长,完成初步成片后再让配音老师根据剧情和人物情绪重新配音,并加入气氛音。 另外,桂大羊的 AI 视频短片制作教程中,选择了多种工具,包括大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。
2025-02-25
facefusion是什么软件
FaceFusion 是一款面部交换和面部增强的开源软件,可以在本地运行。它不仅能将源图像中的面部与目标图像或视频中的面部进行交换,还提供了多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 版本更新后,增加了摄像头功能,可进行实时换脸和面部改造。该软件有多种选项和参数,允许用户根据需要进行定制,并且内置了一些检查机制以防止被用于不道德或非法用途。其开源地址为:https://github.com/facefusion/facefusion 。 使用该软件存在一定的条件和限制: 本机解决方案:需要 Python 环境以及安装视频解码器等多个依赖软件,有一定编程知识要求。而且其运行推理计算速度非常依赖 GPU,若本地计算机没有 GPU 或者 GPU 显存较小,执行速度将会非常缓慢。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 已提供的大模型运行环境和计算能力,但会产生一定费用。 在云服务解决方案中,以 AutoDL 为例,注册完成后在算力市场中选择能接受价格的算力服务器,建议选取 GPU 配置更高的算力设备。通过模型镜像启动 GPU 服务器,在算法社区查找 facefusion 镜像,创建实例并启动,利用终端输入相关命令启动程序,注意添加“executionproviders cuda cpu”参数以使用 GPU 能力加快推理速度。最后通过自定义服务按钮打开新的浏览器窗口,访问 facefusion 提供的 UI 界面,上传准备好的图片、视频进行换脸处理。
2025-02-20
facefusion
FaceFusion 是一个开源的换脸工具,以下是关于它的一些信息: 环境配置: 需要配置的环境包括 Python(3.10 版本)、PIP、GIT、FFmpeg、Microsoft Visual C++ 2015 可再发行组件包、微软 Visual Studio 2022 构建工具。 安装 Python 时需注意版本不能高于 3.7 到 3.10,因为 onnxruntime==1.16.3 需要 Python 版本在 3.7 到 3.10 之间,否则会导致 Python 环境不兼容要求的 onnxruntime 版本。推荐使用安装包下载安装:python 下载地址 https://www.python.org/downloads/ ,下载对应的版本后,点击安装,注意把它添加到系统的环境变量中,也可以使用命令行的安装方式。 安装完 FFmpeg 后需重新启动系统以使 FFmpeg 正常运行。 在安装微软 Visual Studio 2022 构建工具过程中,请确保选择桌面开发与 C++包。 启动和使用: 点击快捷工具中顶部的 JupyterLab,打开这个工具。通过终端来启动 facefusioin。 点击顶部的 + 号选项卡,新打开一个终端窗口。 在终端窗口中,输入 3 条命令做 3 件事情: 查看文件列表。输入 ls 并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入 cd facefusion 并按回车,进入程序目录。 启动 facefusion。输入:python./run.py executionproviders cuda cpu 启动程序。注意后面的参数 executionproviders cuda cpu 非常重要,如果不加 cuda,则默认不使用 GPU 能力,推理将非常慢。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。通过 web 浏览器来访问 facefusion 提供的 UI 界面。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。执行完成后,在输出的位置,会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击它可以导出变量后的视频到本地。 此外,FaceFusion 是一款面部交换和面部增强的开源软件,可以在本地运行。不仅可以将源图像中的面部与目标图像或视频中的面部进行交换,还提供了多种面部和帧处理器以改进或定制面部特征。FaceFusion 1.1.0 更新,增加了摄像头功能,可以进行实时换脸和面部改造。FaceFusion 有多种选项和参数,允许用户根据需要进行定制。还内置了一些检查机制,以防止软件被用于不道德或非法的用途。GitHub:https://github.com/facefusion/facefusion 。相关视频演示:https://x.com/xiaohuggg/status/1699700109775397186?s=20 。
2025-02-12
Dreamface数字人
以下是关于 Dreamface 数字人的相关信息: 生成数字人: 在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 增加背景图片: 可删除先前导入的文本内容,为视频增加背景图片。点击左上角“媒体”菜单并“导入”选择本地图片上传,将图片添加到视频轨道上(会覆盖数字人),将轨道右侧竖线向右拖拽使其与视频对齐,选中轨道后可调整图片尺寸和数字人位置。 虚拟数字人的分类和驱动方式: 虚拟数字人通过各种技术创造,具有人类特征,呈现为虚拟形象。从驱动层面分为中之人驱动和 AI 驱动。中之人驱动运用动作捕捉和面部捕捉技术实现交互,有上限且缺乏高并发和量产化能力;AI 驱动使用 AI 技术创建、驱动和生成内容,赋予感知和表达等交互能力。从应用层面可分为服务型、表演型和身份型。服务型如虚拟主播、助手、教师、客服和医生等,表演型如虚拟偶像,身份型是物理世界“真人”的数字分身。 构建高质量 AI 数字人的要点: 1. AI Agent:要让数字人像人一样思考需编写类似人的 Agent,记忆模块、工作流模块和工具调用模块的构建是挑战。 2. 驱动躯壳的实现:定义灵魂部分接口,躯壳通过 API 调用,方式视躯壳实现而定。包含情绪的语音表达及保证躯壳口型、表情、动作和语音的同步及匹配,目前主流方案只能预设表情动作和做逻辑判断播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:数字人算法组成庞大,几乎不能单机部署,算法一般部署到额外集群或调用 API,网络耗时和模型推理耗时会影响体验,低延时是需解决的问题。 4. 多元跨模态:仅语音交互不够,可根据需求添加其他感官,如通过摄像头数据获取视觉信息并做图像解析。 5. 拟人化场景:正常与人交流非线性,插话、转移话题等情况需通过工程丝滑处理。
2025-01-17
deepfacelive
以下是关于 DeepFaceLive 以及换脸相关的信息: 换脸应用: 1. 在线换脸,使用上传的图片。 2. 在线视频操纵软件。 3. 在照片上交换面孔,效果出众。 4. 在自拍上叠加名人的脸。 5. 实时换脸的视频通话。 6. 在线媒体中的换脸。 7. 在线图片换脸。 8. 改进的实时换脸视频通话。 9. 视频和图片的换脸解决方案。 辅助工具换脸方面,同样有上述这些应用。 此外,还有关于深度学习核心概念中的特征学习的介绍:特征学习算法可以找到对区分类很重要的共同模式,并自动提取它们以用于分类或回归过程。特征学习可以被认为是由算法自动完成的特征工程。在深度学习中,卷积层特别擅长于在图像中找到好的特征到下一层,从而形成一个非线性特征的层次结构,这些特征的复杂性不断增加(例如,斑点、边缘– >鼻子、眼睛、脸颊– >面部)。最后一层使用所有这些生成的特征进行分类或回归(卷积网络中的最后一层本质上是多项式逻辑回归)。图 1 显示了由深度学习算法生成的特性,该算法可以生成易于解释的特性。但通常特征很难解释,尤其是在像循环神经网络和 LSTM 这样的深层网络或非常深的卷积网络中。
2024-12-09
Face Swapper技术路径
以下是一些关于 Face Swapper 的技术路径和相关工具: 在线换脸工具: :可在线换脸,使用上传的图片。 :在线视频操纵软件。 :在照片上交换面孔,效果出众。 :在自拍上叠加名人的脸。 :支持实时换脸的视频通话。 :用于在线媒体中的换脸。 :在线图片换脸。 :改进的实时换脸视频通话。 :提供视频和图片的换脸解决方案。 辅助工具: E4S:精细化的面部交换(换脸)技术,能确保换出的脸在形状、纹理和光照方面自然逼真,精确处理脸部细节。项目地址: Misgif:可以将您的脸放入喜欢的 GIF 表情包中的应用,具有娱乐性。网址: Face Swapper:AI 换脸工具,可一次替换多张脸,支持 JPG、PNG、WEBP 格式,最大 1024px 分辨率,应用场景包括时尚、美容、电影、媒体、人力资源。网址:
2024-11-28
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多令人惊叹的 AI 技术成就都可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基石。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到了空前的提升,为 AI 技术的进步提供了强大支持。 人才网络方面,AI 领域的关键人才大多源自于 Google,特别是其在加拿大多伦多和蒙特利尔成立的两个实验室,以及收购的英国公司 DeepMind。这些机构和个人形成了强大的人才网络,推动了 AI 技术的发展,并培养了一批杰出的领军人物。人才在不同公司之间的流动和合作也促进了 AI 技术的快速进步。 关于这三个基石的资源,目前没有明确提及具体的获取渠道。但您可以通过以下途径寻找相关资源: 1. 学术研究网站和数据库,如知网、Web of Science 等,以获取关于架构、算力和人才网络的学术研究成果。 2. 科技行业的专业论坛和社区,与同行交流和分享资源。 3. 关注知名科技公司和研究机构的官方网站和社交媒体账号,获取最新的研究动态和资源。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多令人惊叹的 AI 技术成就都可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基石。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到了空前的爆发,为 AI 技术的进步提供了强大支持。 人才网络方面,AI 领域的关键人才几乎都源自于 Google,特别是 Google 在加拿大多伦多和蒙特利尔成立的两个实验室,以及它收购的英国公司 DeepMind。这些机构和个人形成了强大的人才网络,推动了 AI 技术的发展,并培养了一批杰出的 AI 领军人物。从 Google 到 OpenAI,再到 Facebook 和其他多家公司,人才的流动和合作推动了 AI 技术的快速进步。 关于这三个基石的资源,您可以通过以下途径获取: 1. 学术研究论文:在相关的学术数据库中搜索关于 AI 架构、算力和人才发展的研究成果。 2. 专业技术论坛和社区:例如一些知名的 AI 技术论坛,开发者们会在其中分享和讨论相关的知识和经验。 3. 科技公司的官方网站和技术博客:如 Google、NVIDIA 等公司的网站,可能会发布有关其在 AI 领域的技术创新和人才培养的信息。 4. 在线教育平台:一些提供 AI 课程的平台,可能会涵盖这三个方面的知识和案例。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface
在人工智能时代,最重要的三个基石分别是架构、算力和人才网络。 架构方面,当前市场上许多出色的 AI 技术成就都可追溯到 Transformer 和 Diffusion 这两个核心架构,它们分别在数据转换和数据向图像转换方面发挥着关键作用。 算力方面,自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术进步提供了强大支持。 人才网络方面,AI 领域的关键人才大多源自 Google 及其相关机构,如在加拿大多伦多和蒙特利尔成立的实验室以及收购的英国公司 DeepMind,这些人才的流动与合作推动了 AI 技术的发展。 关于这三个基石的资源,目前没有明确提及具体的获取渠道。但您可以通过以下途径寻找相关资源: 1. 学术研究网站和数据库,获取关于架构、算力和人才网络的最新研究成果和报告。 2. 科技公司的官方网站和技术文档,了解其在相关领域的创新和实践。 3. 专业的 AI 技术论坛和社区,与同行交流和分享资源。
2024-10-10
人工智能时代下最重要的三个基石是什么,我们可以在哪里找到这三个基石的资源? 例如: huggingface ​
在人工智能时代,以下是被认为最重要的三个基石: 1. 架构:当前市场上许多出色的 AI 技术成就可追溯到两个核心架构——Transformer 和 Diffusion。Transformer 代表了数据转换的能力,Diffusion 代表了数据向图像转换的能力,它们构成了当前 AI 技术的重要基础。 2. 算力:自 2010 年以来,GPU 等计算资源的快速发展使算力得到空前爆发,为 AI 技术的进步提供了强大支持。 3. 人才网络:AI 领域的关键人才网络起到了不可忽视的作用,特别是 Google 在加拿大多伦多和蒙特利尔成立的两个实验室以及其收购的英国公司 DeepMind 培养和汇聚的人才,他们的流动与合作推动了 AI 技术的发展。 关于这三个基石的资源,您可以通过以下途径获取: 1. 学术研究网站和数据库,例如一些知名的科技学术数据库。 2. 专业的 AI 技术论坛和社区,与同行交流获取相关信息。 3. 大型科技公司的官方网站和技术文档,如 Google 等。 4. 相关的学术会议和研讨会。
2024-10-10
hugging face教程
以下是为您整理的关于 Hugging Face 的教程: 1. 在“AIGC Weekly 41”中,有一个非工程师指南:训练 LLaMA 2 聊天机器人的教程。它展示了如何使用 Hugging Face 提供的服务来训练和部署一个基于 LLM 的聊天机器人,无需任何代码知识。具体分为三个步骤:使用 AutoTrain 服务在线训练一个 LLM 模型;然后使用 ChatUI 服务将训练好的模型部署成一个可通过网页聊天的机器人;最后介绍了 Hugging Face 为普通用户提供的一些工具,比如 Spaces、AutoTrain、ChatUI 等,目的是让更多人能参与和利用机器学习。 2. 在“AIGC Weekly 32”中,有一个由吴恩达工作室与 Hugging Face 合作的短期课程,旨在教授如何快速创建和演示机器学习应用程序。学员将学习构建图像生成、图像字幕和文本摘要应用程序,并与团队成员、测试人员等分享自己的应用程序。课程内容包括使用少量代码创建用户友好的应用程序,使用开源大型语言模型对输入文本进行摘要,并显示摘要。 3. 在“大圣:全网最适合小白的 Llama3 部署和微调教程”中,介绍了在下载大模型之前的两个重要开源社区:HuggingFace 和 ModelScope(魔搭社区)。HuggingFace 是一家成立于纽约的 AI 研究公司,以其开源项目 Transformers 库而闻名,该库聚焦于自然语言处理(NLP)和机器学习,并支持超过 100 种语言的模型。HuggingFace 强调社区协作,致力于使 AI 更加民主化,为研究人员和开发者提供强大的工具,以推动人工智能技术的进步和应用。ModelScope(魔搭社区)是由中国的科技巨头阿里巴巴集团旗下的阿里云推出的一个开源平台。该平台专注于提供各种 AI 模型,包括但不限于自然语言处理、计算机视觉和音频处理。ModelScope 旨在简化 AI 模型的开发和部署过程,使技术更加透明和容易访问,特别是为中国的开发者和研究机构提供支持。这两个平台可以简单理解为开源大模型的仓库,从这些平台可以下载到各种开源的大模型。其区别可以类比于 github 和 gitee 的区别:HuggingFace 是国际上的平台,而 ModelScope 则是国内的平台。此外,还包括创建下载大模型的 Python 脚本文件:download.py 以及执行 Python 脚本下载大模型的步骤。出现相应界面则代表模型开始下载,预计下载 5 分钟,下载完成会有相应提示。
2024-08-19
huggingface
Hugging Face 是数据科学领域非常受欢迎的人工智能工具: 在 2022 年 9 月至 2023 年 8 月期间吸引了 3.166 亿流量。 用户每次访问平均分配 11 分 2 秒的时间,与行业平均水平类似。 桌面端和移动端的流量分布分别为 48%和 52%。 用户群以男性为主,占 84.48%,女性用户占 15.52%。 美国是主要的流量来源,日本紧随其后。 跳出率略高于平均水平 63.46%。 此外,在 2023 年的百模大战中,Hugging Face 是专门做模型托管的,各种大模型、小模型、垂直模型、专业模型、通用模型都能在上面找到,并且能使用。其拥有的大模型数量众多,每秒钟都有人在上传,可能很快会迎来百万大模型大战。
2024-08-16
吴恩达
吴恩达(Andrew Ng)是在人工智能领域极具声誉的科学家和教育者。 他在机器学习、统计学和人工智能领域贡献卓著: 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。 担任过百度公司首席科学家并领导百度研究院。 以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 致力于普及人工智能教育,其教授的机器学习课程在斯坦福大学和 Coursera 上广受欢迎,吸引全球数百万学生参与。 在红杉 AI Ascent 2024 会议中,吴恩达是与会的人工智能领导者之一。 在相关研究中,吴恩达逐渐意识到利用大量训练数据与快速计算能力的重要性,其想法在一些论文中得到支持。 内容由 AI 大模型生成,请仔细甄别。
2025-04-12
吴恩达
吴恩达(Andrew Ng)是人工智能领域享有盛誉的科学家和教育者。他在机器学习、统计学和人工智能领域贡献显著,是在线教育平台 Coursera 的联合创始人。 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain),还曾担任百度公司首席科学家并领导百度研究院。以深度学习和大规模机器学习系统方面的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 他致力于普及人工智能教育,其教授的机器学习课程在斯坦福大学和 Coursera 上极受欢迎,吸引全球数百万学生参与。通过教学和研究工作,对人工智能领域发展影响深远。 吴恩达还参与了红杉 AI Ascent 2024 会议。此外,他有一门生成式 AI 入门视频课程: 。 内容由 AI 大模型生成,请仔细甄别。
2025-04-10
吴恩达是谁
吴恩达(Andrew Ng)是在人工智能领域极具声誉的科学家和教育者。 他在机器学习、统计学和人工智能领域贡献显著: 曾在斯坦福大学任副教授,领导过谷歌的大脑项目(Google Brain)。 担任过百度公司首席科学家并领导百度研究院。 以深度学习和大规模机器学习系统的研究闻名,推动了人工智能技术的商业应用和普及,是多个人工智能和机器学习开源项目(如 TensorFlow 和 Caffe)的倡导者。 他还是在线教育平台 Coursera 的联合创始人,其教授的机器学习课程在斯坦福大学和 Coursera 上广受欢迎,吸引全球数百万学生参与。 此外,他还是 AI Fund 的成员,并在红杉 AI Ascent 2024 会议上参与交流。他还出版了新书《How to Build Your Career in AI》,为想进入 AI 领域的人士提供职业发展建议。
2025-04-08
吴恩达最近推出了哪些课程?
吴恩达最近推出的课程包括: 1. 与 OpenAI 合作推出的免费的 Prompt Engineering(提示工程师)课程。 主要内容是教书写 AI 提示词,并利用 GPT 开发一个 AI 聊天机器人。 原版网址:https://www.deeplearning.ai/shortcourses/chatgptpromptengineeringfordevelopers/ B 站版本:【合集·AI Course哔哩哔哩】https://b23.tv/ATc4lX0 、https://b23.tv/lKSnMbB 翻译版本: 推荐直接使用 Jupyter 版本学习,效率更高:https://github.com/datawhalechina/promptengineeringfordevelopers/ 视频下载地址:https://pan.quark.cn/s/77669b9a89d7 OpenAI 开源了教程:https://islinxu.github.io/promptengineeringnote/Introduction/index.html 纯文字版本 2. 2023 年 8 月 24 日上线的最新短课程: 《》,课程内容包括了解何时对 LLM 应用微调、准备数据以进行微调、根据自己的数据训练和评估 LLM。 《》,深入浅出地介绍了基于大语言模型的 AI Agents,从记忆检索到决策推理,再到行动顺序的选择,真实展现了 Agent 的智能化进程。
2025-03-27
吴恩达总结了四种AI Agent的设计模式: 1.反思模式(Reflection): 2.工具使用模式: 3.规划模式: 4.多智能体协作模式:
吴恩达总结了以下四种 AI Agent 的设计模式: 1. 反思模式(Reflection):让 Agent 审视和修正自己生成的输出。例如,在编写代码时,可让大模型检查代码的准确性和结构规范性,并不断优化。 2. 工具使用模式(Tool Use):通过使用外部工具和资源,如 LLM 生成代码、调用 API 等进行实际操作。 3. 规划模式(Planning):让 Agent 分解复杂任务并按计划执行。 4. 多智能体协作模式(Multiagent Collaboration):多个 Agent 扮演不同角色合作完成任务。 如果您想更深入了解这些设计模式,可以参考以下文章:https://waytoagi.feishu.cn/wiki/SPNqwJkmQiyVfGkS8zocMSZcnYd
2025-03-19
吴恩达中文课程
以下是关于吴恩达中文课程的相关信息: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 目录: https://github.com/zard1152/deepLearningAI/wiki 介绍: 有两类大语言模型:基础 LLM 和指令微调 LLM。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会进一步使用人类反馈强化学习(RLHF)技术来优化。 原则与技巧: 两个提示的关键原则:尽可能保证下达的指令“清晰、没有歧义”;给大模型思考的时间,以及足够的时间去完成任务。
2025-03-05
知识库中的LangChain和LangGraph的内容有哪些 ?
以下是关于 LangChain 和 LangGraph 的相关内容: LangChain: LangChain 是一个由 Harrison Chase 开发的开源 Python 库,旨在支持使用大型语言模型(LLM)和外部资源(如数据源或语言处理系统)开发应用程序。 它提供了标准的接口,与其他工具集成,并为常见应用程序提供端到端链。 设计主张集中在模块化组件上,这些组件提供用于使用 LLM 的行为抽象,并为每个抽象提供实现的集合,从而允许开发人员构造新链或实现现成的链。 LangChain 和 RAG 的关系: LangChain 是一个用于构建高级语言模型应用程序的框架,提供了实现 RAG 所必需的工具和组件。 RAG 即检索增强生成,是一种结合了检索(检索外部知识库中相关信息)和生成(利用 LLM 生成文本)的技术。 LangChain 作为框架,与 RAG 的关系包括:是框架与技术的关系,允许通过模块化组件构建 RAG 应用程序,简化开发过程,提高性能,支持构建复杂的 RAG 应用。 关于大模型 RAG 应用中的 LangChain: 有从产品视角出发的分享,包括项目背景、初步体验和评测结果等。 预计会分成 3 篇分享,分别是 LangChain 框架初体验、调优思路分享、如何测评。
2025-04-12
langchain到底是什么。如何理解。
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供了一系列工具、组件和接口,使利用大型语言模型(LLM)和聊天模型创建应用程序更便捷。 2. 核心概念包括组件和链,组件是模块化构建块,可组合创建强大应用,链是一系列组件或其他链的组合,用于完成特定任务。 3. 具有模型抽象功能,能为用例选择合适模型,并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义处理步骤链,完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并调用工具。 7. 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,可与外部数据源交互收集数据,并提供内存功能维护状态。 LangChain 还是一个为简化大模型应用开发而设计的开源框架,通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性,以适应业务需求变化。作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握,同时充分考虑了应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-03-21
什么是langchain
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供一系列工具、组件和接口,使创建由大型语言模型(LLM)和聊天模型支持的应用程序更易实现。 2. 核心概念包括组件和链,组件是模块化的构建块,链是组合在一起完成特定任务的一系列组件(或其他链)。 3. 具有模型抽象功能,提供对大型语言模型和聊天模型的抽象,便于开发人员选择合适模型并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义一系列处理步骤,按顺序执行完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并根据用户输入调用工具。 7. 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,可与外部数据源交互收集数据,还提供内存功能维护状态。 LangChain 是一个为简化大模型应用开发而设计的开源框架,通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性,适应不断变化的业务需求。作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握,在设计时充分考虑应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-03-11
如何通过langchain实现上传 一个客户需求文档,生成一个产品规格书doc格式的文档
要通过 LangChain 实现上传客户需求文档并生成产品规格书(doc 格式),可以按照以下步骤进行: 1. 上传文档:用户可以上传包含知识的文档,支持 txt、pdf、docx 等格式,LangChain ChatChat 会将文档转换为 Markdown 格式。 2. 文本切割:为便于分析和处理,将长文本切割为小块(chunk)。 3. 文本向量化:将切割的 chunk 通过 embedding 技术,转换为算法可以处理的向量,存入向量数据库。 4. 问句向量化:用户提问后,同样将用户的问句向量化。 5. 语义检索匹配:将用户的问句与向量数据库中的 chunk 匹配,匹配出与问句向量最相似的 top k 个。 6. 提交 prompt 至 LLM:将匹配出的文本和问句,一起添加到配置好的 prompt 模板中,提交给 LLM。 7. 生成回答:LLM 生成回答,返回给用户。
2025-02-27
LangChain
LangChain 是一个用于构建高级语言模型应用程序的框架,具有以下特点和功能: 旨在简化开发人员使用语言模型构建端到端应用程序的过程,提供了一系列工具、组件和接口,使创建由大型语言模型(LLM)和聊天模型支持的应用程序更易实现。 核心概念包括组件和链,组件是模块化的构建块,链是组合在一起完成特定任务的一系列组件(或其他链)。 具有模型抽象、提示模板和值、链、代理等功能。 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,且可与外部数据源交互并提供内存功能。 LangChain 与 RAG(检索增强生成)的关系: 框架与技术:LangChain 作为框架,提供实现 RAG 必需的工具和组件,RAG 技术可在其框架内实施利用。 模块化实现:允许开发者通过模块化组件构建 RAG 应用程序。 简化开发:通过提供现成的链和提示模板简化 RAG 应用开发过程。 提高性能:利用 LangChain 实现 RAG 可创建更高效、准确的应用程序,尤其在需大量外部信息辅助决策的场景。 应用构建:通过丰富的 API 和组件库支持构建复杂的 RAG 应用,如智能问答系统、内容推荐引擎等。 在开发 LangChain 应用时,构建 RAG 应用的相关组件包括数据加载器、文本分割器、文本嵌入器、向量存储器、检索器、聊天模型等,一般流程如下:(具体流程未给出,如有需要请补充提问)
2025-02-24
详细介绍下langchain
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供一系列工具、组件和接口,使基于大型语言模型(LLM)和聊天模型创建应用程序更轻松。 2. 核心概念包括组件和链,组件是模块化构建块,可组合创建强大应用,链是一系列组件或其他链的组合,用于完成特定任务。 3. 具有模型抽象功能,提供对大型语言模型和聊天模型的抽象,便于开发人员选择合适模型并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义处理步骤链,按顺序执行完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并根据用户输入调用工具。 7. 支持多种用例,如特定文档问答、聊天机器人、代理等,可与外部数据源交互收集数据,还提供内存功能维护状态。 LangChain 是一个开源框架,为简化大模型应用开发而设计。它通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性以适应业务需求变化。作为社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握。同时,在设计时充分考虑应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-02-14