Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

哪里有rag实战开源项目

Answer

好的,以下是根据你的需求为你生成的文章:

检索增强生成技术(RAG)的基本概念和应用

一、RAG 的基本概念

RAG(Retrieval Augmented Generation)是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。其基本流程如下:

  1. 给定一个用户的输入,例如一个问题或一个话题。
  2. 从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(Context)。
  3. 将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。
  4. 从大模型的输出中提取或格式化所需的信息,返回给用户。

二、RAG 的实际应用

[文章 1]中提到,配备了全景和精准 PDF 解析器的 RAG 系统 ChatDOC 可以检索到更准确和完整的文本段,因此能够给出更好的回答。实验证明,ChatDOC 在近 47%的问题上表现优于 Baseline 模型,在 38%的问题上与 Baseline 模型表现持平,仅在 15%的问题上表现落后于 Baseline 模型。这表明,我们可以通过增强 PDF 结构识别来革新检索增强生成技术(RAG)。

三、RAG 的开发

[文章 2]中提到,RAG 是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG 的基本流程如下:

  1. 给定一个用户的输入,例如一个问题或一个话题。
  2. 从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(Context)。
  3. 将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示(Prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。
  4. 从大模型的输出中提取或格式化所需的信息,返回给用户。

综上所述,RAG 是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。ChatDOC 在近 47%的问题上表现优于 Baseline 模型,在 38%的问题上与 Baseline 模型表现持平,仅在 15%的问题上表现落后于 Baseline 模型。这表明,我们可以通过增强 PDF 结构识别来革新检索增强生成技术(RAG)。

Content generated by AI large model, please carefully verify (powered by aily)

References

通过增强PDF结构识别,革新检索增强生成技术(RAG)

尽管大语言模型(LLM)在自然语言生成方面取得了巨大的进展,但对于专业知识问答领域来说,结合检索增强生成技术(RAG)可以更好地利用领域专家知识、提供解释性的优势,提高问答准确率。目前,主流的基础模型公司已经开放了嵌入向量(Embedding)和聊天API接口,LangChain等框架也已经集成了RAG流程,似乎RAG中的关键模型和步骤都已经得到解决。这就引出一个问题:目前专业知识的问答系统是否已经趋于完善?本文指出当前的主要方法都是以获取高质量文本语料为前提的。然而,因为大部分的专业文档都是以PDF格式存储,低精度的PDF解析会显著影响专业知识问答的效果。我们对来自真实场景的专业文档,其中的数百个问题进行了实证RAG实验。结果显示,配备了全景和精准PDF解析器的RAG系统的ChatDOC(海外官网:chatdoc.com)可以检索到更准确和完整的文本段,因此能够给出更好的回答。实验证明,ChatDOC在近47%的问题上表现优于Baseline模型,在38%的问题上与Baseline模型表现持平,仅在15%的问题上表现落后于Baseline模型。这表明,我们可以通过增强PDF结构识别来革新检索增强生成技术(RAG)。

开发:LangChain应用开发指南-大模型的知识外挂RAG

RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

开发:LangChain应用开发指南-大模型的知识外挂RAG

RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
自动生成提示词的开源工具有哪些
以下是一些自动生成提示词的开源工具: 1. Freepik 推出的 Reimagine AI 工具:用户上传图片即可自动生成提示词,无需输入文字。它还能实时提供无限滚动结果展示,边操作边生成图像,通过调整提示词实时修改图片细节,并支持多种风格切换。相关链接:https://freepik.com/pikaso/reimagine 、https://x.com/imxiaohu/status/1770437135738581414?s=20 2. StreamMultiDiffusion 项目:使用区域文本提示实时生成图像,具有交互式操作体验,每个提示控制一个区域,实现精准图像生成。相关链接:https://arxiv.org/abs/2403.09055 、https://github.com/ironjr/StreamMultiDiffusion?tab=readmeovfile 、https://huggingface.co/spaces/ironjr/SemanticPalette 、https://x.com/imxiaohu/status/1770371036967850439?s=20 3. 【SD】自动写提示词脚本 One Button Prompt:可以在主菜单输入人物提示词,在“高级”中设置提示词混合,还具有一键运行放大的模块,包括完整的文生图放大和图生图放大,甚至可接入其他脚本和 controlnet。获取方式:添加公众号【白马与少年】,回复【SD】。
2025-04-12
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
开源AI Agent软件有哪些
以下是一些开源的 AI Agent 软件: 1. AutoGPT 和 BabyAGI:在去年 GPT4 刚发布时风靡全球科技圈,给出了让 LLM 自己做自动化多步骤推理的解题思路。 2. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成了丰富的插件工具。 3. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 4. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 5. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 6. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 7. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 此外,智谱·AI 开源的语言模型中也有与 Agent 相关的,如 AgentLM7B、AgentLM13B、AgentLM70B 等。
2025-03-29
mcp 有什么开源的方案吗
Anthropic 于 2024 年 11 月推出并开源了 MCP(模型上下文协议)。MCP 就像一个“转接头”或“通用插座”,能统一不同的外部服务,如 Google Drive、GitHub、Slack、本地文件系统等,通过标准化接口与大语言模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,无需针对每个模型单独适配,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。MCP 像为 AI 模型量身定制的“USBC 接口”,可以标准化地连接 AI 系统与各类外部工具和数据源。与传统 API 相比,MCP 是单一协议,只要一次整合就能连接多个服务;具有动态发现功能,AI 模型能自动识别并使用可用的工具;支持双向通信,模型不仅能查询数据,还能主动触发操作。相关链接:
2025-03-27
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
现在Ai作图用什么?还是以前的Stable Diffusion吗?还是又出现了新的开源软件?
目前在 AI 作图领域,Stable Diffusion 仍然是常用的工具之一。Stable Diffusion 是 AI 绘画领域的核心模型,能够进行文生图和图生图等图像生成任务,其完全开源的特点使其能快速构建强大繁荣的上下游生态。 除了 Stable Diffusion,也出现了一些新的相关开源软件和工具,例如: :Stability AI 开源的 AI 图像生成平台。 :拥有超过 700 种经过测试的艺术风格,可快速搜索查找各类艺术家,并支持一键复制 Prompt。 同时,市面上主流的 AI 绘图软件还有 Midjourney,其优势是操作简单方便,创作内容丰富,但需要科学上网并且付费。如果您想尝试使用 Stable Diffusion,可以参考 B 站【秋葉 aaaki】这个 Up 主的视频了解具体的安装方法。
2025-03-24
RAG实战教程推荐
以下为您推荐一些 RAG 实战教程: 1. 【AI+知识库】商业化问答场景,让 AI 回复更准确,一篇专为所有“小白”讲透 RAG 的实例教程(上篇): 介绍了常见的错误场景,如回答不准确、报价错误、胡编乱造等,强调了优化 AI 准确回答的重要性,并引出 RAG 概念。 讲解了基础概念,包括优化幻觉问题和提高准确性需要了解从“问题输入”到“得到回复”的过程,并针对每个环节逐个调优。 阐述了检索原理,包括问题解析阶段通过嵌入模型将问题文本转化为向量,知识库检索阶段比较向量选择相关信息片段,信息整合阶段构建融合全面的信息文本,大模型生成回答阶段将整合后的信息转化为向量输入大语言模型生成回答。还通过实例进行了详细说明,如知识库检索部分的向量化、优化问题、向量检索、抽取内容块等,以及大模型对话部分。 2. 开发:LangChain 应用开发指南 不用向量也可以 RAG: 以餐饮生活助手为例展示了基于结构化数据来 RAG 的实战方法,包括给出用户提问和回复的示例,以及餐饮生活助手 RAG 的代码实战。 介绍了实现餐饮生活助手 RAG 的 Langchain 代码实战需要完成的步骤,如定义餐饮数据源,将餐饮数据集转化为 Langchain 可识别和操作的数据源并注册到 Langchain 中;定义 LLM 的代理,通过 Langchain 的代理根据用户问题提取信息、形成查询语句、检索数据源、生成答案并输出给用户。
2025-04-01
RAG 开发实战
以下是关于 RAG 开发实战的详细内容: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成质量和准确性。其基本流程为:首先,用户给出输入,如问题或话题,RAG 从数据源中检索相关文本片段(称为上下文);然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),此输入通常包含提示,指导模型生成期望输出(如答案或摘要);最后,从大模型输出中提取或格式化所需信息返回给用户。 以餐饮生活助手为例进行 RAG 的 Langchain 代码实战,需完成以下步骤: 1. 定义餐饮数据源:将餐饮数据集转化为 Langchain 可识别和操作的数据源(如数据库、文件、API 等),注册到 Langchain 中,并提供统一接口和方法,方便 LLM 代理访问和查询。 2. 定义 LLM 的代理:通过 Langchain 的代理(Agent)实现,代理管理器可让开发者定义不同 LLM 代理及其功能逻辑,并提供统一接口和方法,方便用户与 LLM 代理交互。
2025-03-20
我需要的是学习目录,比如 基础--专项---实战等路径
以下是为您提供的 AI 学习目录: 基础部分: 根据电脑硬件和自身财力选择合适的开始方式,包括本地部署(M 芯片的 Mac 电脑或 2060Ti 及以上显卡的 Windows 电脑)、在线平台(在线出图和云电脑),不建议一开始就配主机。 熟练使用文生图、图生图,具备一定逻辑思考和推理能力。 掌握数学基础(线性代数、概率论、优化理论等)和编程基础(Python、C++等)。 专项部分: 建炉,针对不同炼丹方式提供炼丹工具的安装教程。 数据集预处理、模型训练以及模型调试及优化。 自然语言处理:语言模型、文本分类、机器翻译等。 计算机视觉:图像分类、目标检测、语义分割等。 实战部分: 通过真实业务场景的项目案例,如研报生成、旅游搭子、即拍即搜等积累实战经验。 模型部署:模型优化、模型服务等。 请注意,以上内容仅供参考,您可以根据自身需求和实际情况进行调整和学习。
2025-03-17
AI产品经理实战学习
以下是为您提供的关于 AI 产品经理实战学习的相关内容: 北京分队中从事相关工作或有相关经验的人员包括: 枫 share:产品经理,熟悉 ChatGPT,写过 prompt,使用过 SD、MJ 但有待深入学习,用 PR、剪映剪辑过多个视频和播客音频,正在找 AI 方向的产品岗位,坐标海淀(北五环)。 行远:产品经理,熟悉 prompt,部署过大模型、绘图项目,使用 Midjourney、sd、pika、suno 等 AI 创作工具,期待学习和实战案例应用,坐标朝阳。 管子:数据科学家,熟悉 prompt 创作,midjourney,runway,正在学习 stable diffusion,期待学习、打磨作品,坐标朝阳(望京和国贸)。 猫先生:算法技术出身,2022 年开始持续关注并学习 AIGC 方向,部署过大模型、绘图、视频生成等项目,熟悉 pika、runway、svd、sd、gpt4、comfyui 等工具,坐标海淀。 Andy:技术出身,刚开始学习 AIGC,部署过大模型、SD 等,写过代码调用 API,熟悉使用 ChatGPT、Kimi、coze 等,关注 AI 在教育领域的应用,坐标通州。 AI 产品经理的个人划分(仅供娱乐和参考): 1. 入门级:能通过 WaytoAGI 等开源网站或一些课程了解 AI 的概念,使用 AI 产品并尝试动手实践应用搭建。 2. 研究级:有两个路径,一个是技术研究路径,一个是商业化研究路径。这个阶段对应的画像可能是对某一领域有认知,可以根据需求场景选择解决方案,或利用 Hugging face 等工具手搓出一些 AI 应用来验证想法。 3. 落地应用:有一些成功落地应用的案例,如产生商业化价值。 对 AI 产品经理的要求:懂得技术框架,不一定要了解技术细节,而是对技术边界有认知,最好能知道一些优化手段和新技术的发展。AI 产品经理要关注的还是场景、痛点、价值。 此外,阿里云 AI 实训营携手 WaytoAGI 讲师走进 GDC 全球开发者先锋大会,活动包括: 学练议程:2 月 21 日 09:30 12:30 通义灵码 0 基础应用开发,人人都是软件创作者;2 月 21 日 13:30 16:30 为你的 AI 应用装上眼睛;2 月 22 日 08:30 12:00 人工智能平台 PAI:DeepSeek 部署和应用实战。 分享嘉宾:张梦飞(词元映射 CEO,WaytoAGI Agent 核心创作者)、银海(AI 产品经理,WaytoAGI 社区共建者)、瑞雪(通义实验室科学家)、许键(AI 产品经理,WaytoAGI Agent 版主)。 实训福利:打卡有礼(现场分享打卡,领 AI 实训营定制周边)、学练有礼(现场提交作业,领阿里云精美好礼)。 活动地点:上海徐汇西岸艺术中心 B 馆(BW01)。感兴趣的学员可扫码参会。
2025-02-25
AI产品经理实战手册
以下是为您提供的关于 AI 产品经理的相关信息: 1. 2 月 7 日的《DeepSeek 爆火的当下:2025,人人都是顶尖 AI 产品经理实操指南》指出,过去一年“AI 在产品管理中的应用”成为热门话题,“所有产品经理都需要成为 AI 产品经理”的观点在各种场合反复出现,AI 正在重塑工作方式。 2. 《Claude 的 5 层 Prompt 体系:从 AI 用户到 AI 指挥官的进阶之路》中提到,将复杂需求拆解为原子化 Prompt 组件是掌握 5 层 Prompt 体系的关键,并通过跨国科技公司规划下一代智能家居系统的实际案例展示了应用方法,包括 User Requirement、System Prompt、Global Rule 等多个层面,还创建了多种风格用于不同场景。 3. 对于 AI 产品经理的划分,仅供娱乐和参考: 入门级:能通过开源网站或课程了解 AI 概念,使用并动手实践应用搭建。 研究级:有技术研究和商业化研究两个路径,能根据需求场景选择解决方案,或利用工具手搓出 AI 应用验证想法。 落地应用级:有成功落地应用案例并产生商业化价值。同时指出,对 AI 产品经理要求懂得技术框架,对技术边界有认知,产品经理要关注场景、痛点、价值。还列举了一些落地案例。
2025-02-24
飞书多维表格DeepSeek实战
以下是关于飞书多维表格 DeepSeek 实战的相关信息: 共学课程安排: 【今晚 8 点】聊聊你怎么使用 DeepSeek!:共学大类为 AIagent,讲师为全体,飞书会议地址为,共学时间为 2025 年 2 月 6 日。 飞书多维表格 DeepSeek 实战:共学大类为多维表格字段捷径,讲师为王大仙,飞书会议地址为,共学时间为 2025 年 2 月 10 日。 关于 DeepSeek 的介绍: DP 模型的功能包括自然语言理解与分析、编程、绘图等。使用优势是能用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容,但存在思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本的问题。审核方法可以用其他大模型来解读其给出的内容,使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知,使用场景包括阅读、育儿、写作、随意交流等方面,还有案例展示。 Deepseek 文档可在 3 群和 4 群分享获取,也可在 v to a gi 的飞书知识库中搜索获取。介绍了 Deepseek 的模型、收录内容、提示词使用技巧和好玩的案例等。未来活动预告包括明天后天在摩纳社区提供免费算力资源带大家学习炼丹,周一晚上学习多维表格中接入 Deepseek。 相关社区动态: 2025 年 2 月 10 日,有《》DeepSeek R1 赏析分享会,专为非技术人群设计,介绍了技术亮点、未来展望及对流行谣言的澄清。 2025 年 2 月 10 日,有《》,讲述了 DeepSeek 的崛起原因、V3 模型特点及竞争策略。 2025 年 2 月 10 日,有《》,介绍了飞书多维表格与 DeepSeek R1 结合的使用方法和效果。
2025-02-12
如果面试AI产品经理岗位,我的简历应该如何介绍对应的AI项目?目前我在做的是一个AI深度解读的功能,用户通过报告页面进行深度解读,进入后触发AI与用户的沟通,根据沟通信息,将用户的一些情况写在病历信息中,最终发给医生
以下是为您提供的一些参考,帮助您在面试 AI 产品经理岗位时介绍对应的 AI 项目: 在您所做的 AI 深度解读功能项目中,可以从以下几个方面进行介绍: 项目背景:阐述开展该项目的原因和目标,例如为了提升医疗服务的效率和准确性,满足用户对深度医疗解读的需求等。 项目职责:详细说明您在项目中的具体职责,如需求分析、产品规划、与开发团队协作、与用户沟通获取反馈等。 技术实现:描述项目中所运用的关键技术,如触发 AI 与用户沟通的机制、如何将用户信息写入病历等。 用户体验优化:提及为提升用户体验所采取的措施,比如优化报告页面的设计、提高 AI 沟通的自然度和准确性等。 成果与效益:展示项目取得的成果,如提高了医生的诊断效率、提升了用户满意度等。 此外,您还可以参考以下其他相关人员的项目经验: 秦超作为 AI 2C 项目负责人,在产品落地服务方面具有丰富的经验,包括产品、技术架构以及项目管理等。 Cici?在 AI 算法开发领域,将宠物与 AI 结合,具备 AI 产品研发和创业经验。 11 鸭鸭呀作为产品经理,在智能写作产品方面有 Prompt 撰写和 AI 应用的经验。 枫 share 作为产品经理,熟悉 ChatGPT,写过 prompt,使用过多种 AI 创作工具,并正在寻找 AI 方向的产品岗位。 行远作为产品经理,熟悉 prompt,部署过多种绘图项目,使用过多款 AI 创作工具,期待学习和实战案例应用。 希望以上内容对您有所帮助,祝您面试成功!
2025-04-01
项目申报书提示词
以下是关于项目申报书提示词的相关信息: 方案扩写助手: 作为乙方,经常需要为客户写方案申报材料的文档并达到字数要求,“水文字”很痛苦。 方案扩写助手在扩写方案提示词方面做了效果提升,不抑制模型表达,编写的方案“生产端能作为素材直接用”,而非充满“AI 味”和不理解业务。 产品提示词修改了 20 多次,并在日常工作中持续迭代,最终用简短、有效、清晰的提示词实现了目前扩写方案的最佳效果(因模型不同效果有差异,可换模型尝试)。 SD 新手入门图文教程中的提示词相关资源: Majinai: 词图: Black Lily: Danbooru 标签超市: 魔咒百科词典: AI 词汇加速器: NovelAI 魔导书: 鳖哲法典: Danbooru tag: AIBooru: 星流一站式 AI 设计工具中的提示词: 在 prompt 输入框中可输入提示词,使用图生图功能辅助创作。 什么是提示词:用于描绘画面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),支持中英文输入。 如何写好提示词: 预设词组:小白用户可点击提示词上方官方预设词组进行生图。 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,如一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词并进行加权重调节,权重数值越大越优先,也可对已有的提示词权重进行编辑。 辅助功能:翻译功能可一键将提示词翻译成英文;删除所有提示词可清空提示词框;会员加速能加速图像生图速度,提升效率。
2025-03-31
AI做副业项目
以下为您介绍一些利用 AI 做副业的项目: 1. 电商:婴儿的四维彩超 AI 预测 思路和玩法:通过 AI 工具将宝宝的四维彩超还原出现实模样进行变现。孕妇妈妈在孕期 22 26 周会进行四维彩超检查,很多准爸爸妈妈期待宝宝模样,从而衍生出市场需求。在小红书、抖音等公域平台发布相关笔记会有人咨询。 操作流程:客户提供四维彩超图原图,在 Midjourney 里进行垫图+特定描述词,整个流程不超 10 分钟出图。 变现方式:受众群体多为宝妈,变现方式多且单价不低。在抖音、快手、视频号、小红书上发布相关视频或图文,将客户引到私域接单变现,但平台引流要注意隐蔽,以免被检测限流或封号。 2. 自媒体人通过 AIGC 做流量与变现 流量变现渠道包括直播带货、橱窗带货(抖音需 1000 粉丝、托管橱窗)、商单、介绍粉丝接项目、多种设计(如 AI 绘图十二生肖、化妆品公司产品设计、产品包装设计、海报设计、游戏背景设计、儿童绘本、AI 漫画、PFP 头像设计、AI 图片+视频:徐悲鸿教育系列 AI 内容、AIGC+地方文旅、数字人相关、汽车宣传片、喜马拉雅微短剧等)、广告(平台如抖音星图、B 站花火,也有私单,视频广告价格可自定义设置)。
2025-03-27
生成一个建筑项目管理系统
很抱歉,目前没有关于生成建筑项目管理系统的具体内容。但一般来说,生成一个建筑项目管理系统需要以下步骤: 1. 需求分析:明确系统的功能需求,例如项目规划、进度跟踪、资源管理、成本控制、质量管理等。 2. 技术选型:根据需求选择合适的技术框架和开发工具。 3. 数据库设计:构建能够存储项目相关数据的数据库结构。 4. 功能模块开发:逐步实现各个功能模块,如项目创建、任务分配、进度更新等。 5. 界面设计:设计简洁、易用的用户界面,方便用户操作。 6. 测试与优化:对系统进行全面测试,修复漏洞和优化性能。 7. 部署与维护:将系统部署到生产环境,并持续进行维护和改进。 由于缺乏具体的细节和要求,以上只是一个大致的框架,实际的生成过程会更加复杂和具体。
2025-03-23
背景:我是一名高中生,想学习AI知识,逐步从入门到精通 目标:希望在<3个月>内具备一定能力。 请结合我的背景和优势,为我设计一份学习路线: - 列出每阶段(例如每一个礼拜)的学习重点(比如编程基础、数学)。 - 为每个阶段推荐<具体资源>(书籍、在线课程、练习项目等)。 - 提供一些学习技巧或注意事项。
以下是为您设计的一份在 3 个月内从入门到具备一定能力的 AI 学习路线: 第一个月: 学习重点:了解 AI 基本概念,包括术语、主要分支及它们之间的联系;掌握编程基础,如 Python 语言。 推荐资源: 书籍:《人工智能:一种现代方法》 在线课程:Coursera 上的“人工智能入门”课程 练习项目:使用 Python 实现简单的数据分析和可视化 学习技巧和注意事项:多做笔记,理解概念,注重实践。 第二个月: 学习重点:深入学习数学基础,包括统计学、线性代数和概率论;了解算法和模型中的监督学习和无监督学习。 推荐资源: 书籍:《概率论与数理统计》《线性代数及其应用》 在线课程:edX 上的“机器学习基础”课程 练习项目:使用监督学习算法进行数据分类预测 学习技巧和注意事项:通过实际案例加深对数学知识的理解,多做练习题。 第三个月: 学习重点:掌握神经网络基础,包括网络结构和激活函数;学习模型的评估和调优。 推荐资源: 书籍:《深度学习》 在线课程:Udacity 上的“深度学习入门”课程 练习项目:构建并优化一个简单的神经网络模型 学习技巧和注意事项:积极参与在线讨论,及时解决学习中的问题。 在整个学习过程中,您还可以: 体验 AI 产品,如 ChatGPT、文心一言等,了解其工作原理和交互方式。 掌握提示词的技巧,提高与 AI 的交互效果。 参与相关的社区和论坛,分享学习经验和成果。
2025-03-21
有什么使用AI驱动的游戏项目吗?其中有哪些比较热门
以下是一些使用 AI 驱动的游戏项目及热门情况: 1. 《Among Us》:由只有 5 名员工的工作室 Innersloth 制作。 2. 《微软模拟飞行》:有新的游戏类型和与新内容实时生成结合的特点。 3. 《AI Dungeon》和《Hidden Door》:基于文本的早期游戏例子。 4. 《Suck Up!》:2023 年 12 月由 Proxima 工作室开发的“喜剧欺骗游戏”,玩家扮演吸血鬼与 LLM 驱动的 NPC 对话,上线仅两周全网播放火速突破千万。 此外,还有以下趋势和特点: 1. 由人工智能辅助的“微型游戏工作室”逐步崛起,小型工作室能创造的游戏规模将增长。 2. 每年发布的游戏数量会增加。 3. 新的游戏类型将会被创造出来,例如以人工智能创造的角色为特色的 Spellbrush 的 RPG 游戏 Arrowmancer。 4. 有的游戏开发商使用人工智能让玩家在游戏中创建自己的头像。 生成式 AI 将使生产高质量游戏变得更加简单、更快和更便宜,同时使玩家能够真正定制他们的游戏体验。我们已经看到像 Scenario、Iliad 这样可以创建游戏资源的 AI 工具,以及像 Promethean 这样可以构建整个虚拟世界的平台。甚至可以用像 Inworld、Charisma 和 Convai 这样的产品生成非玩家角色(NPC)。
2025-03-18