Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

使用RAG要注意什么?

Answer

使用 RAG 时需要注意以下几点:

  1. 不能随意输入任何文档就期望得到准确回答。尽管 RAG 的基本概念不难理解,但有效实现 RAG 系统需要考虑多个复杂因素,如文档预处理、高效索引、相关性排序等,这些都需要专业知识和持续优化。
  2. RAG 不能完全消除 AI 的幻觉。虽然它可以显著减少幻觉,但模型仍可能在检索到的信息基础上进行不当的推理或生成错误信息,只要有大模型参与,就有可能产生幻觉。
  3. RAG 仍然消耗大模型的 Token。从流程上看,最终还是将知识库中检索的结果给到 LLM,然后由 LLM 进行重新整理输出。
  4. 从评估角度看,如果检索到的知识是无效的,会严重影响 LLM 应用的表现,因此将检索过程的精确度和召回率与整个 LLM 应用程序分开进行研究尤为重要。
  5. RAG 存在局限性,它适合打造专才,不适合打造通才,能够为模型提供新的信息、专有领域知识等,但并不适合为模型提供通用领域知识。同时,在让模型保持稳定的风格或结构输出、降低 token 消耗等方面存在不足,这两点需要使用微调技术解决。
Content generated by AI large model, please carefully verify (powered by aily)

References

胎教级教程:万字长文带你理解 RAG 全流程

RAG技术无疑是AI领域的一个重要技术,但了解其局限性和正确使用方法同样重要。这一章节,我们来聊聊大家在学习了RAG了之后常见的一些误区。[heading2]随意输入任何文档就能得到准确回答[content]这是最常见的误区,这也是我写这篇文章的一个主要原因之一。很多人在了解了RAG之后,尤其是看过很多营销号的内容之后,感觉像捡到了宝贝。这会给人一种错觉:好像随意的输入任何文档就可以得到准确的回答。上文我们已经讲了RAG的流程,主要包含:离线环节:文档解析,文档切割以及向量化写入向量数据库在线检索环节:用户问题理解、初步检索、重排序以及大模型生成上述的任何一环节而言都会影响RAG的最终质量。尽管RAG的基本概念不难理解,但有效实现RAG系统需要考虑多个复杂因素,如文档预处理、高效索引、相关性排序等。这些都需要专业知识和持续优化[heading2]RAG完全消除了AI的幻觉[content]虽然RAG可以显著减少幻觉,但并不能完全消除。模型仍可能在检索到的信息基础上进行不当的推理或生成错误信息。简单来讲:只要有大模型参与,就有可能产生幻觉[heading2]RAG不消耗大模型的Token了[content]从上面的最后大模型生成结果环节可以看出,最终还是将知识库中检索的结果给到LLM。然后由LLM进行重新整理输出,所以RAG仍然是消耗大模型的Token的请注意:RAG技术并不是简单的将知识库的内容直接检索出来给到用户,而是要经过大模型的处理,从而生成上下文更通顺的回答

3. 如何让 LLM 应用性能登峰造极

如果检索到的知识是无效的,会严重影响LLM应用的表现,因此将检索过程的精确度和召回率与整个LLM应用程序分开进行研究尤为重要。如下图所示,需要建立一个评估框架,将检索性能与整个LLM应用程序隔离开来。所以这里需要既需要从模型角度出发评估生成结果的质量,也需要从检索的角度出发,用精确度和召回率评估检索,并评估整个系统。模型角度(generation)回答真实性:模型结果真实性多高(少一些模型幻觉)回答相关度:结果和问题有多相关,不能南辕北辙检索角度(retrieval)召回率(recall):相关信息有多少包含在返回的检索内容里,越全越好准确率(precision):返回的检索内容中有用信息占比多少,越多越好RAGAS是一个用于RAG评估的知名开源库,推荐使用:[https://github.com/explodinggradients/ragas](https://github.com/explodinggradients/ragas)[heading3]RAG局限性[content]如果LLM应用面临的问题与上下文有关,那么RAG就是一个强大的工具。它使模型能够访问外部数据源,提供模型训练数据中不存在的必要上下文。这种方法可以显著提高模型的性能,尤其是在最新信息或特定领域信息至关重要的情况下。为模型提供参考文本的情况下,也能大大降低模型幻觉。需要注意的是RAG的局限性如下:适合打造专才,不适合打造通才。虽然能够为模型提供新的信息、专有领域知识等,但并不适合为模型提供通用领域知识。让模型保持稳定的风格或结构输出,降低token消耗等。也就是我们在prompt工程局限性的后两点,而这两点需要使用微调技术解决。

胎教级教程:万字长文带你理解 RAG 全流程

从用户提出问题开始:我们经历了用户问题的理解根据用户问题进行路由进行初步的检索对初步检索的结果进行重排序现在终于要到了生成结果的时候了,这个环节的流程可以简化如下:将重排序后的结果和用户的查询意图组合成上下文输入给大模型大模型通过指定的提示词生成输出结果这个环节理解起来很简单,但是同样有几个需要注意的点重排序的结果通常不会都被用作大模型的上下文,因为大模型的上下文有限制可以设置一个阈值进行截断,比如只使用前3-5个文档可以设置一个相关性分数的阈值,只取相关性分数大于某个值的文档一些先进的RAG系统会对选中的文档进行摘要或压缩,以在有限的空间内包含更多相关信息。[heading3]后置处理[heading3][content]在大模型输出结果后就是一些后置的处理了,这可能包括敏感内容检测和移除格式化输出.....这些不是本文的重点,我们就不再这里展开了至此,关于普通的RAG的原理基本就全部讲完了,非常感谢你能耐心看到这里!这里我再引用智谱清言的一张图给大家复习,看完上述流程,我理解这张图理解起来更容易

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
我是官媒,我现在要纳新ai职能组,对招聘人员有什么纳新要求,注意招聘范围在大一到大四的学生
以下是针对官媒纳新 AI 职能组大一到大四学生的纳新要求: 1. 技术要求: 必:熟悉 Python 开发。 选:熟悉一些常用开发框架,比如 Flask、Gradio、Pytorch、Huggingface、LangChain、LlamaIndex。 必:了解深度学习、大语言模型底层原理。 选:了解预训练、微调基本原理和优化。 选:了解 RAG、Agent 基本原理和优化。 加分:了解音频、语音模型开发领域。 2. 其他要求: 对 AI 驱动的开发感兴趣。 实习时长不少于 6 个月。 大学英语六级 450 分/雅思 6.0 分。 目前就读学校为双一流/海外前 200。
2025-04-09
线性注意力机制与多头潜在注意力机制
线性注意力机制和多头潜在注意力机制是人工智能领域中重要的概念。 线性注意力机制是一种注意力机制的类型,其特点和具体实现方式会因不同的模型和应用场景而有所差异。 多头潜在注意力机制(MLA)在一些模型中得到应用,例如 DeepSeek 模型。DeepSeekV2 就以多头潜在注意力机制架构的创新在硅谷引发了轰动。 在 Transformer 模型中,常见的注意力机制包括自注意力机制、多头注意力机制等。自注意力机制能够同时考虑输入序列中所有位置的信息,通过动态分配注意力权重来捕捉序列中的关系和依赖。位置编码用于使模型能够区分不同位置的词语。多头注意力机制可以并行地学习多个注意力表示,从不同子空间中学习不同特征表示。 DeepSeek 模型在发展过程中,不断应用和创新注意力机制。如 2024 年 5 月发布的 V2 采用了混合专家模型(MoE)和多头潜在注意力机制(MLA)技术,大幅降低了模型训练特别是推理的成本。2024 年 12 月发布的 V3 以低成本实现了高性能,成为其发展的里程碑。
2025-03-28
构建知识库有什么要注意的?
构建知识库时需要注意以下几点: 1. 在使用在线检索流程生成结果时: 重排序的结果通常因大模型上下文有限制而不会都被使用,可以设置阈值进行截断,如只使用前 3 5 个文档,或只取相关性分数大于某个值的文档。 一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限空间内包含更多相关信息。 2. 对于后置处理,可能包括敏感内容检测和移除、格式化输出等。 3. 创建智能体的知识库时: 手动清洗数据可提高准确性,如创建画小二课程的 FAQ 知识库时,飞书在线文档中每个问题和答案以分割。 对于本地文档,不能一股脑全部放进去训练,应先放入大的章节名称内容,再按固定方式细化处理。 4. 使用 Coze 搭建知识库时: 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等问题。 希望以上内容对您有所帮助。
2025-03-25
背景:我是一名高中生,想学习AI知识,逐步从入门到精通 目标:希望在<3个月>内具备一定能力。 请结合我的背景和优势,为我设计一份学习路线: - 列出每阶段(例如每一个礼拜)的学习重点(比如编程基础、数学)。 - 为每个阶段推荐<具体资源>(书籍、在线课程、练习项目等)。 - 提供一些学习技巧或注意事项。
以下是为您设计的一份在 3 个月内从入门到具备一定能力的 AI 学习路线: 第一个月: 学习重点:了解 AI 基本概念,包括术语、主要分支及它们之间的联系;掌握编程基础,如 Python 语言。 推荐资源: 书籍:《人工智能:一种现代方法》 在线课程:Coursera 上的“人工智能入门”课程 练习项目:使用 Python 实现简单的数据分析和可视化 学习技巧和注意事项:多做笔记,理解概念,注重实践。 第二个月: 学习重点:深入学习数学基础,包括统计学、线性代数和概率论;了解算法和模型中的监督学习和无监督学习。 推荐资源: 书籍:《概率论与数理统计》《线性代数及其应用》 在线课程:edX 上的“机器学习基础”课程 练习项目:使用监督学习算法进行数据分类预测 学习技巧和注意事项:通过实际案例加深对数学知识的理解,多做练习题。 第三个月: 学习重点:掌握神经网络基础,包括网络结构和激活函数;学习模型的评估和调优。 推荐资源: 书籍:《深度学习》 在线课程:Udacity 上的“深度学习入门”课程 练习项目:构建并优化一个简单的神经网络模型 学习技巧和注意事项:积极参与在线讨论,及时解决学习中的问题。 在整个学习过程中,您还可以: 体验 AI 产品,如 ChatGPT、文心一言等,了解其工作原理和交互方式。 掌握提示词的技巧,提高与 AI 的交互效果。 参与相关的社区和论坛,分享学习经验和成果。
2025-03-21
知识库搭建注意事项
以下是关于知识库搭建的注意事项: 1. 数据清洗方式: 可选择手动清洗数据以提高准确性,避免自动清洗数据可能出现的不准确情况。 对于本地文档,要注意合理拆分内容以提高训练数据准确度,不能将所有内容一股脑放入训练。 2. 在线知识库: 点击创建知识库,可创建如画小二课程的 FAQ 知识库。 飞书在线文档中每个问题和答案以分割,可点击编辑修改和删除。 选择飞书文档,选择自定义的自定义,输入。 点击添加 Bot 并在调试区测试效果。 3. 本地文档: 对于本地 word 文件,要注意拆分内容的方法。例如,对于画小二课程,将 80 节课程分为 11 个章节,先放入大章节名称内容,再按固定方式细化章节内详细内容。 选择创建知识库自定义清洗数据。 4. 发布应用: 点击发布,确保在 Bot 商店中能够搜到,否则无法获取 API。 5. 文档格式和分片策略: 以创建外贸大师产品的帮助文档知识库为例,可选择使用 Local doucuments 方式上传 Markdown 格式文档,每个问题以开头。 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等缺点。 此外,在信息管理和知识体系搭建中,“拎得清、看得到、想得起、用得上”是四个核心步骤: 1. 拎得清:主动选择和判断高质量、与目标相关的信息源,利用 AI 搜索引擎筛选信息,加入优质社群、订阅号等建立信息通路。 2. 看得到:确保所选信息能频繁且不经意地触达个人,通过浏览器插件、笔记工具等组织信息,使其易于检索和浏览。 3. 想得起:做好信息的索引和关联,存储时做好标记(关键词、tag)、选择合适存放位置,推荐使用 PARA 笔记法等方法组织串联信息。 4. 用得上:将积累的知识转化为实际行动和成果,在解决问题或创造价值时从知识库中调取相应信息。
2025-03-17
出图是动漫/真人有什么区别和需要注意的点?
动漫出图和真人出图有以下区别和需要注意的点: 版权和法律意识:对于知名动漫角色的使用,要特别注意版权和法律问题。 模型和文件:LORA 在提炼图片特征方面功能强大,其文件通常有几十上百兆,承载的信息量远大于 Embedding,在还原真人物品时,LORA 的细节精度更高。下载的 LORA 需放在特定文件夹,使用时要注意作者使用的大模型,通常配套使用效果最佳,同时还需加入特定触发词保证正常使用。 提示词:设置文生图提示词时,正向提示词和负向提示词的准确设定对出图效果有重要影响。 参数设置:包括迭代步数、采样方法、尺寸等参数的合理设置,会影响出图的质量和效果。
2025-03-16
如何使用cursor进行编程
以下是关于如何使用 Cursor 进行编程的相关信息: Cursor 旨在让您极其高效,是使用 AI 进行编码的最佳方式。您可以从代码库中获得最佳答案,参考特定文件或文档,一键使用模型中的代码。 它允许您使用指令编写代码,通过简单的提示就能更新整个类或函数。 Cursor 能通过预测您的下一个编辑,让您轻松完成更改。
2025-04-18
怎么使用cursor
以下是关于如何使用 Cursor 的详细介绍: 1. 访问 Cursor 官方网站:您可以通过 https://www.cursor.com/ 下载 Cursor。 2. 注册账号:使用您的邮箱(如 google、github、163、qq 邮箱)直接登录,也可接受二维码登录。 3. 安装中文包插件。 4. 配置相关设置: 在设置中进行 Rule for AI 配置。 按 ctrl/cmd+i 输入需求,例如“帮我做一个贪吃蛇游戏,在网页中玩”。 清晰表达需求,如详细说明游戏规则和逻辑,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等方面。 5. 使用第三方文档: Cursor 附带一组已爬取、索引的第三方文档,可通过@Docs 符号访问。 若要添加自定义文档,可通过@Docs>Add new doc 实现,粘贴所需文档的 URL 后,Cursor 将索引并学习该文档,您即可将其用作上下文。 在 Cursor Settings>Features>Docs 下可管理已添加的自定义文档,进行编辑、删除或添加新文档的操作。 希望以上内容对您有所帮助。
2025-04-18
怎样使用AI做PPT
使用 AI 做 PPT 可以参考以下内容: 1. 信息的 AI 可视化: 优点:节省制作时间、具有优秀的视觉风格、能快速归纳整理信息、可用图形代替文字枯燥的表达。 注意事项: 不要指望复制一段提示词就能得到满意结果,这是与 AI 互动的过程,需要反复尝试。 AI 生成的是基于模型的 HTML 输出,并非真正的 PPT 格式,目前无法在 PPT 里进行二次深度编辑。 模型选择:目前推荐 Claude 3.7 Sonnet,可通过 POE 调用,不建议使用其他效果不佳的模型。 交互流程: 阶段 1 主观描述:通过文字聊天让 Claude 领悟您想要的视觉风格,描述要尽量具体,如颜色、画布、装饰等方面的要求。 2. 好用的 AI PPT 工具: Gamma:在线 PPT 制作网站,支持输入文本和想法提示快速生成幻灯片,可嵌入多媒体格式。https://gamma.app/ 美图 AI PPT:由美图秀秀团队推出,可通过输入文本描述生成专业设计。https://www.xdesign.com/ppt/ Mindshow:AI 驱动的辅助工具,提供智能设计功能。https://www.mindshow.fun/ 讯飞智文:科大讯飞推出的辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成等功能。https://zhiwen.xfyun.cn/ 3. 教学案例: 上午的尝试中,Claude + Gamma.app 帮助学生从组会准备工作中解放出来,实现了快速寻找符合条件的论文、提取精炼论文信息、找到适合的 PPT 制作工具并学会使用等目的。 Claude 的用法示例:如通过一系列问题让其搜索权威期刊、论文,提取摘要等,并用于制作 PPT。
2025-04-18
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
装修设计可以使用哪些AI工具
以下是一些可用于装修设计的 AI 工具: 1. 酷家乐装修设计软件:利用图像生成和机器学习技术,为用户提供装修设计方案,用户可根据喜好选择和调整。 2. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 3. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂几何形状和优化设计。 4. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 5. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 6. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供基于 AI 的生成设计工具,可根据输入自动产生多种设计方案。 7. HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 8. Maket.ai:面向住宅行业,在户型和室内软装设计方面有探索,能根据输入自动生成户型图。 9. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期引入标准和规范约束生成的设计结果。 10. Fast AI 人工智能审图平台:形成全自动智能审图流程,将建筑全寿命周期内信息集成,实现数据汇总与管理。 但每个工具都有特定应用场景和功能,建议根据具体需求选择合适的工具。
2025-04-15