Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG是什么,简单概括

Answer

RAG(Retrieval-Augmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。

简单来说,它通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。

RAG 对于 LLM 来说很重要,因为 LLM 存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。

而 RAG 具有一些优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错的可能,便于管控用户隐私数据,还能降低大模型的训练成本。

RAG 概括起来是知识检索+内容生成,可以理解为大模型的开卷考试,其主要组成依次是数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。其核心在于能否将内容检索得又快又准。

推荐阅读:

  • 如何让 LLM 应用性能登峰造极:https://mp.weixin.qq.com/s/Kr16ub_FN6pTF6acs-e6MA
  • 大模型主流应用 RAG 的介绍——从架构到技术细节: https://luxiangdong.com/2023/09/25/ragone/
  • 高级 RAG 技术:图解概览[译]: https://baoyu.io/translations/rag/advanced-rag-techniques-an-illustrated-overview
Content generated by AI large model, please carefully verify (powered by aily)

References

问:RAG 是什么?

RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。[heading2]为什么LLM需要RAG?[content]众所周知,大模型已经在很多领域和问题下都取得了很好的效果,那为什么还需要RAG进行检索优化呢?[heading3]LLM的缺点[content]1.LLM无法记住所有知识,尤其是长尾的。受限于训练数据、现有的学习方式,对长尾知识的接受能力并不是很高;长尾数据是指数据集中某些类别数量较少,而其他类别样本数较多的不平衡“长尾”状态。例如在自然语言处理中,一些少见的词汇出现频率很低,而常见的词汇出现频率很高。2.LLM的知识容易过时,而且不好更新。只是通过微调,模型的接受能力其实并不高而且很慢,甚至有丢失原有知识的风险;3.LLM的输出难以解释和验证。一方面最终的输出的内容黑盒且不可控,另一方面最终的结果输出可能会受到幻觉之类的问题的干扰;4.LLM容易泄露隐私训练数据。用用户个人信息训练模型,会让模型可以通过诱导泄露用户的隐私;5.LLM的规模大,训练和运行的成本都很大。[heading3]RAG的优点[content]1.数据库对数据的存储和更新是稳定的,不像模型会存在学不会的风险。2.数据库的数据更新可以做得很敏捷,增删改查可解释,而且对原有的知识不会有影响。3.数据库的内容是明确、结构化的,加上模型本身的理解能力,一般而言数据库中的内容以及检索算法不出错,大模型的输出出错的可能就大大降低。4.知识库中存储用户数据,为用户隐私数据的管控带来很大的便利,而且可控、稳定、准确。5.数据库维护起来,可以降低大模型的训练成本,毕竟新知识存储在数据库即可,不用频繁更新模型,尤其是不用因为知识的更新而训练模型。

RAG提示工程(一):基础概念

RAG是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级LLM应用方案。RAG概括起来就是知识检索+内容生成。这么说太抽象,可以理解为大模型的开卷考试,既然是开卷考试,那么谁带的书和资料内容更全,谁翻书翻的更快更准,谁开卷考试的结果就往往更好。下面来看RAG的主要组成,依次是数据提取——embedding(向量化)——创建索引——检索——自动排序(Rerank)——LLM归纳生成。当然这里少了使用环节,我们暂时先忽略。大家知道,开卷考试时,往往大家的参考资料都差不多,在有限的考试时间内如何又快又准的锁定问题在书上的相关内容更为重要。RAG做的好不好也是如此,核心就看能不能将内容检索的又快又准。如果抄错了书上(知识库)内容,往往大模型给出的答案也南辕北辙。

19. RAG 提示工程系列(一)

RAG概括起来就是知识检索+内容生成。这么说太抽象,可以理解为大模型的开卷考试,既然是开卷考试,那么谁带的书和资料内容更全,谁翻书翻的更快更准,谁开卷考试的结果就往往更好。下面来看RAG的主要组成,依次是数据提取——embedding(向量化)——创建索引——检索——自动排序(Rerank)——LLM归纳生成。当然这里少了使用环节,我们暂时先忽略。大家知道,开卷考试时,往往大家的参考资料都差不多,在有限的考试时间内如何又快又准的锁定问题在书上的相关内容更为重要。RAG做的好不好也是如此,核心就看能不能将内容检索的又快又准。如果抄错了书上(知识库)内容,往往大模型给出的答案也南辕北辙。推荐阅读:如何让LLM应用性能登峰造极:https://mp.weixin.qq.com/s/Kr16ub_FN6pTF6acs-e6MA大模型主流应用RAG的介绍——从架构到技术细节:[https://luxiangdong.com/2023/09/25/ragone/](https://luxiangdong.com/2023/09/25/ragone/)高级RAG技术:图解概览[译]:[https://baoyu.io/translations/rag/advanced-rag-techniques-an-illustrated-overview](https://baoyu.io/translations/rag/advanced-rag-techniques-an-illustrated-overview)

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
视频内容概括的ai
以下是关于视频内容概括的 AI 相关知识: 除了聊天内容,AI 还能总结不超过 2 万字的文章。例如,将文章全选复制粘贴给 GPTs 即可进行总结,GPT4 能识别重点内容。 对于 B 站视频,若视频有字幕,可通过安装油猴脚本获取字幕。安装后刷新浏览器,点击字幕会出现“下载”按钮,可选择多种字幕格式。获取字幕后全选复制发送给 GPTs 就能实现视频内容总结。 在技术原理方面: 生成式 AI 生成的内容称为 AIGC。 相关技术名词包括 AI(人工智能)、机器学习(包括监督学习、无监督学习、强化学习)、监督学习(有标签的训练数据)、无监督学习(自主发现规律,如聚类)、强化学习(从反馈学习)、深度学习(参照人脑神经网络)、生成式 AI(可生成多种内容形式)、LLM(大语言模型)。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,其基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。
2025-04-09
RAG内LLM的主要作用,简单概括
RAG(检索增强生成)中LLM(大语言模型)的主要作用包括: 1. 利用外部检索到的知识片段生成更符合要求的答案。由于LLM无法记住所有知识,尤其是长尾知识,且知识容易过时、不好更新,输出难以解释和验证,容易泄露隐私训练数据,规模大导致训练和运行成本高,通过RAG为LLM提供额外且及时更新的知识源,有助于生成更准确和有用的回答。 2. 在RAG的工作流程中,LLM接收整合后的知识片段和特定指令,利用其推理能力生成针对用户问题的回答。 3. 事实性知识与LLM的推理能力相分离,LLM专注于运用推理能力处理外部知识源提供的信息。
2025-03-08
一句话概括WaytoAGI是什么?
“通往 AGI 之路”(WaytoAGI)是一个由热爱 AI 的专家和爱好者共同建设的致力于人工智能学习的中文开源知识库和社区平台。它为学习者提供了系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,内容包括 AI 绘画、AI 视频、AI 智能体、AI 3D 等多个版块,并提供丰富的学习资源,如文章、教程、工具推荐以及最新的行业资讯等。此外,还定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。其品牌 VI 融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性。同时,WaytoAGI 还孵化了离谱村这一千人共创项目,目标是大家一起用 AI 构建一个离谱世界。
2025-02-21
概括论文主要内容
以下是对这三篇论文的主要内容概括: 《20240301:1bit LLMs》 作者:Shuming Ma 等 核心观点:提出新的 1bit LLM 变体 BitNet b1.58,在保持与全精度 Transformer LLM 相同性能的同时,显著降低延迟、内存、吞吐量和能源消耗。 亮点:定义新的训练高性能且成本效益的 LLM 的缩放法则和方法,开启为 1bit LLMs 设计特定硬件的新计算范式。 核心贡献:在 3B 模型大小时,与 FP16 LLM 基线在困惑度和端任务性能方面匹配,同时在内存、延迟和能源消耗方面有显著提升。 动机:解决随着 LLMs 规模和能力快速增长带来的部署挑战和环境经济影响。 《20240227:ScreenAI》 作者:Gilles Baechler 等 核心观点:介绍专门用于理解和处理用户界面和信息图表的视图语言模型 ScreenAI。 亮点:通过结合 PaLI 架构和 pix2struct 的灵活拼贴策略,以及在独特的数据集混合上进行训练,实现了在 UI 和信息图表理解任务上的新最佳性能。 核心贡献:在只有 50 亿参数的情况下,在多个基于 UI 和信息图表的任务上取得新的最佳性能,在其他任务上也表现出色。 动机:解决 UI 和信息图表的复杂性,应对其对单一模型理解、推理和交互提出的挑战。 《20240305:Claude 3》 作者:Anthropic 核心观点:介绍 Anthropic 开发的 Claude 3 模型家族,包括 Opus、Sonnet 和 Haiku,在多模态输入、推理、数学和编码方面表现出色,并分析了安全性和社会影响。 亮点:在多个基准测试中取得最先进的结果,非英语语言流畅度提高,适合全球受众;Claude 3 Opus 在推理、数学和编码方面设定新标准,Haiku 是最快速且成本最低的模型,具备视觉能力。 核心贡献:通过多模态输入能力和工具使用提供丰富上下文和扩展用例。 动机:致力于开发安全、负责任的 AI 系统,支持企业自动化任务、生成收入、进行复杂的财务预测和加速研发。
2025-01-19
简要概括《奇点临近》这本书的内容
《奇点临近》是雷·库兹韦尔的新作,书中描述了宇宙与人类发展的六个阶段。预言未来几十年内技术将迅速提升,改变人类生活,比如通过脑机接口等技术,人类能提升认知能力、逆转衰老、实现数字永生。但这些技术也带来潜在风险,如 AI 失控和基因编辑滥用。库兹韦尔的预见为我们描绘了一个激动人心又充满挑战的未来。
2024-12-18
文心一言的开发公司是谁,功能特点,优势性和局限性请帮我简要概括
文心一言是由百度开发的全新一代知识增强大语言模型。 功能特点: 在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。 在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。 各项能力表现均衡且大部分能力水平较高。 能力栈广泛,可应用场景较多,重点推荐在查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面的应用,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。 优势: 能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。 局限性: 从某些测试和感觉来看,其能力水平可能在 GPT3 的阶段,输出内容的可靠性与 ChatGPT 相比还有差距。
2024-11-22
waytoagi 简单介绍
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能学习的中文知识库和社区平台: 旨在为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI 融合了独特的设计元素: 选择彩虹色作为主要的配色方案,代表多样性、包容性和创新。 标志性图案是一只鹿,与“路”谐音,象征着通往 AGI 未来的道路,寓意优雅与智慧。 选用简洁现代的非衬线字体,强调信息传达的清晰度和直接性。 此外,WaytoAGI 里有个离谱村: 是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易、更感兴趣。 参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。 离谱村是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,是灵魂的避风港,激励着每一个生命体发挥其无限的想象力,创造属于自己的独特生活方式。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。
2025-04-14
我是一名AI古诗词视频创作者,我想教大家如果用AI软件将古诗词的内容用视频形式表现出来,请帮我写一个教学文档,要求内容丰富,从简单到复杂,从入门到深层思考和学习,包括提示词怎么写,提示词模板,提示词举例等
以下是一份关于如何用 AI 软件将古诗词内容以视频形式表现出来的教学文档: 一、简单入门 如果是简单的图,找原图直接写提示词即可。 二、复杂图片处理 1. 图片分模块 对于复杂部分的图,把长图分多个模块。例如,将一张图分成 4 个模块。 2. 抠出背景图 智能抠图。用工具把要动的内容去除掉,用 AI 生成图片部分。如果有水印,可以把图片向下拓展一部分,然后截掉。 3. 绿幕处理前景图 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 前景图动态生成视频 用 AI 视频生成工具写入提示词让图片动起来。有很多工具可供选择,如即梦、海螺、混元等。不停尝试抽卡即可。 5. 生成视频去掉背景 用剪映把抽卡合格的视频放在去掉内容的背景图片上,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。 三、提示词相关 1. 文案生成 工具:DeepSeek 操作:打开 DeepSeek 网站(https://chat.deepseek.com/ ),输入提示词。例如:“让 XX 用现代口语化的表达、生气骂人的口吻吐槽 XXXX(例如:吐槽现代人),XXX 目的(例如:推广 XXX 吸引游客来旅游),输出 3 条 60 字左右的毒舌文案,每条里面都要有‘回答我!Look in my eyes!Tell me!why?baby!why?’”可以根据自己的内容自行调整文案和字数要求。点击生成,等待 DeepSeek 输出 3 条文案。从中挑选最满意的一条(或多条)保存备用。 2. 准备人物形象图 工具:即梦 AI 操作:打开即梦 AI 网站(https://jimeng.jianying.com/aitool/image/generate ),输入提示词,即梦已经接入了 DeepSeek,可以直接用它来生成绘图提示词。调整生成参数(如风格、细节等),点击生成。预览生成的人物图,不满意可调整提示词重新生成,直到满意为止。下载最终的人物形象图。 四、其他注意事项 1. 指定视觉细节 包括颜色、照明、相机角度和风格等任何视觉元素的描述。提供的细节越多,输出就越接近您的愿景。 2. 提及所需长度和格式 如果您对特定的长度(以秒或分钟为单位)或格式(宽高比、分辨率)有想法,请提及。这对于 AI 生成符合您要求的内容至关重要。 3. 概述音频偏好 如果您的视频需要特定的音频元素,如背景音乐、旁白或音效,请详细描述。指定您是希望 AI 生成这些元素还是您自己提供。 4. 考虑道德和版权准则 确保您的提示符合道德标准和版权法。避免请求侵犯版权或涉及没有适当背景的敏感主题的内容。 请根据您的具体需求和所使用的视频 AI 工具的能力调整模板和示例。记住,输出的质量在很大程度上取决于您通过提示传达愿景的效果。
2025-04-08
将照片改成卡通效果用什么ai会比较简单易操作
以下几种 AI 工具可以将照片改成卡通效果,操作相对简单易操作: 1. ChatGPT 4o:支持上传照片后直接生成“吉卜力卡通风格”图像,提示词只需简单写“吉卜力风格化”即可,后续会话中只需上传图片,无需重复输入提示词。参考链接:
2025-04-08
有哪些AI代码可生成的简单好玩的东西
以下是一些通过 AI 代码可生成的简单好玩的东西: 1. 小游戏: 贪吃蛇游戏:在 Trae 上,通过快捷键打开 AI 聊天窗口,点击“Builder 模式”,输入“帮我创建一个贪食蛇的游戏”,等 60 秒,AI 生成代码,点“运行”。 赛车游戏:把刚刚创建的贪吃蛇游戏代码删掉,然后输入“帮我创建一个赛车游戏”,等 60 秒,AI 生成代码,点“运行”。 2. 待办事项清单: 直接在对话框输入“生成一个待办事项清单的应用”。 上传图片给 AI,并告诉它“我要一个与图片类似的待办事项清单”。 3. 任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”。 4. 根据 UI 设计图自动生成项目代码:从站酷上找一张设计图,输入提示“使用 html 技术实现如图大屏页面”,然后根据需要让 Trae 进行调整。 从实际体验来看,Trae 具有高效的代码生成能力、多技术栈支持和动态调整潜力。无论是小游戏、待办事项清单还是其他应用,都能在短时间内生成完整框架,代码结构清晰且功能齐全。
2025-03-27
有哪些AI工具可以获取上市公司年报数据。我是小白,推荐简单好学的工具。
以下是一些可能获取上市公司年报数据的 AI 工具及相关信息: AI 智库:提供了上市公司的相关排名和产品信息,如百度、美图公司、阿里巴巴、昆仑万维等公司的情况。 余一的相关文档:包括《从 2023 年报,看中国上市公司怎么使用生成式 AI》等,可通过相关链接获取详细内容。 对于小白来说,您可以先尝试从这些资源中获取所需的上市公司年报数据。
2025-03-25
什么AI可以帮忙简单处理图片
以下几种 AI 可以帮忙简单处理图片: 1. SD(StableDiffusion):启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,能在显存不够的情况下放大图片。可对老照片进行上色、高清化处理,但处理复杂照片时可能有难度,需要调整策略,如放弃人物服装颜色指定,只给场景方向,加入第二个 controlnet 控制颜色等。 2. OpenAI:可以利用代码解释器中的 Python 以图片流的方式处理图片,但 Python 因缺少包不能直接处理图片。 3. 扣子:整个工作流程包括用户输入关键词,大模型制作金句,根据金句生成画面描述,结合描述和关键词使用扣子官方插件生成图片,再使用图像流方式结合金句和图片。 4. MJ(Midjourney):加上简单相机参数、写实风格,使用 MJ v 6.0 绘图,可根据需求调整图片比例。 5. InsightFaceSwap:用于处理图片的换脸操作,如输入“/saveid”和“/swapid”等指令上传图片进行处理,但对老外的脸识别度较好,效果可能因情况而异。 处理图片时还可能涉及到 PS 等工具进行裁剪、拼接等操作。
2025-03-21