Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

能够支持RAG的模型有哪些种

Answer

支持RAG(检索增强生成)的模型通常包括两大部分:检索模型和生成模型。检索模型负责从大量数据中检索相关信息,而生成模型则利用检索到的信息生成最终的输出。以下是一些可以支持RAG的模型类型:

  1. 大型语言模型(LLM):这类模型通常用作生成模型,它们能够基于检索到的信息生成文本。常见的LLM包括GPT系列、BERT及其变种等。

  2. 嵌入模型(Embedding Models):这些模型将文本转换为向量表示,以便于检索模型进行高效的相似性搜索。一些常用的嵌入模型包括BM25、TF-IDF以及基于深度学习的模型,如BERT和它的衍生模型。

  3. 稀疏检索器(Sparse Retrievers):它们使用较为简单的方法(如BM25或TF-IDF)来检索与查询最相关的文档,这些通常作为RAG系统中的第一步粗略检索。

  4. 密集检索器(Dense Retrievers):基于Transformer架构的模型,如BERT或其变种,它们能够更精细地理解查询和文档之间的语义关系。

  5. 向量数据库(Vector Databases):如FAISS、Milvus、Chromadb等,这些用于存储和管理文本的向量表示,以便于快速检索。

  6. 微调模型(Fine-Tuned Models):一些RAG系统可能会使用针对特定领域数据进行微调的模型,以提高检索和生成的相关性和准确性。

  7. 自我训练模型(Self-Training Models):在某些RAG系统中,模型可能会使用自我训练的方法来不断优化其检索和生成的能力。

  8. 混合/混合检索器(Hybrid Retrievers):结合了稀疏和密集检索方法的检索器,以提高检索的准确性和效率。

  9. 强化学习模型(Reinforcement Learning Models):在某些高级RAG系统中,可能会使用强化学习方法来优化检索策略。

  10. 适配器模块(Adapter Modules):在一些RAG系统中,适配器模块被用于微调预训练的LLM,以适应特定的任务或领域。

这些模型可以单独使用或组合使用,以构建一个高效且准确的RAG系统。在实际应用中,根据具体的业务需求和数据特性,可能会选择不同的模型组合来实现最佳的性能。

Content generated by AI large model, please carefully verify (powered by aily)

References

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
目前有哪些AI可以支持对用户上传的视频进行理解分析?
目前以下 AI 可以支持对用户上传的视频进行理解分析: 1. Gemini 2.0 Flash Thinking:是解析视频的不错选择,可在 AIStudio(访问 aistudio.google.com,需海外 IP)上传视频进行解析。 2. MiniMax 视频模型:能准确识别用户上传的图片,生成的视频在形象保持、光影色调、指令响应、表情呈现等方面表现出色,还支持 2000 字提示词以更精准调控。 3. 百炼大模型平台:应用广场里的影视传媒视频理解能力可对视频进行语音转写、视觉语言分析等处理并总结成文,有清晰使用步骤,还能根据偏好调试提示词。
2025-04-09
哪些AI可以支持对镜头的视觉理解
以下 AI 可以支持对镜头的视觉理解: 1. 通义千问的 Qwen2.5VL 模型:具有以下优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 2. OpenAI 的 GPT4:在 12 月发布的更新中正式上架了“视频理解”功能,可以和用户就便签内容进行讨论。 3. 基于豆包视觉理解模型实现的具有视频通话功能的应用:能够对摄像头传输的实时画面进行分析,精准理解画面中的关键信息,包括图表论文人物表情、动作细节、场景环境等。同时支持高清流畅的视频通话,实现和大模型面对面的即时交流体验。
2025-04-09
有哪些支持超长上下文的大模型
以下是一些支持超长上下文的大模型: Scout:支持 1000 万上下文,适合处理超长文本和复杂推理任务。 Maverick:具有 100 万上下文,长记忆优势适配多场景替代 RAG。 Behemoth:2 万亿参数级别的大模型在训,已超越 GPT4.5 在 STEM 表现。 Claude2100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT432k 模型的上下文上限是 32k Tokens,即 32000 个 token。 需要注意的是,token 限制同时对一次性输入和一次对话的总体上下文长度生效。例如,一次性输入不能超过规定的 token 数量,而且随着对话的进行,当达到上限时,会遗忘最前面的对话内容。
2025-04-08
生成设计图:包括图书馆静音舱+小组讨论舱 :用隔音板材划分独立空间,舱体外壳由学生绘制抽象艺术图案。 可变形桌椅 :定制模块化桌椅,支持拼合为“创作大桌”或独立卡座,适配小组作业与个人学习。 艺术疗愈角 :设置减压涂鸦墙、小型绿植温室,配备舒缓音乐耳机。
以下是为您提供的关于生成您所需设计图的相关信息: 星流一站式 AI 设计工具具有入门模式和高级模式。 入门模式: 可以使用图像控制功能精准控制生成图像的内容和风格,如空间关系、线稿、人物长相、姿势等。 只能使用以下四种参考功能: 全部图片参考功能,包括原图、景深、线稿轮廓、姿势、Lineart 线稿、Scribble 线稿、光影、Segmant 构图分割等。 原图、SoftEdge 线稿、配色参考、配色打乱、法线贴图、MLSD 线稿等。 高级模式: 点击生成器下方的切换按钮进行切换。 与入门模式相比增加了高级模式框架。 基础模型方面,允许使用更多的微调大模型,如基础模型 F.1、基础模型 XL、基础模型 1.5。 图片参考方面,允许使用更多的图像控制功能,在星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法会影响图像放大后的图像质量,建议默认即可。 重绘幅度与初步生成的图像的相似度有关。 其他参数默认即可,参数方面允许调整更多的高级参数。 采样器方面,采样方法决定了模型在生成图像过程中的出图质量,有些采样器在细节处理上表现更佳比如 DPM++2M,而有些则在生成速度上更快,比如 Euler。 采样步数一般来说,步数越多,模型对图像的生成和优化越充分,但同时也会增加生成时间。 随机种子是文生图的随机数种子,通过设置相同的随机数种子,可以确保在相同的参数配置下生成相同的图像。 CFG Scale 控制生成图像与提示词一致性的重要参数。 具有脸部/手部修复功能,利用算法对人像的脸部或者手部进行修复。 此外,学生使用项目化的方式分析现状,做问卷调查,数据分析,在 ChatGPT 的帮助下设计出优化过的设计图,然后使用 3D 的空间设计软件设计出来 3D 的设计图。比如有孩子为优化老师家访路线提出做一个软件产品的案例。
2025-03-23
支持Mac的AI助手,能支持自定义大模型和智能体
以下是为您提供的支持 Mac 且能支持自定义大模型和智能体的 AI 助手相关信息: 在网站上增加一个 AI 助手: 1. 创建大模型问答应用: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 2. 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG: 1. Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 2. 它提供了模型库,用户可从中下载不同模型,也支持自定义模型,例如修改模型的温度参数或设置特定系统消息,还提供了 REST API 用于运行和管理模型以及与其他应用程序的集成选项。 3. Ollama 社区贡献丰富,有多种集成插件和界面。安装时访问 https://ollama.com/download/ ,安装完后在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认。 智能体应用的相关介绍: 大模型存在无法回答私有领域问题、无法及时获取最新信息、无法准确回答专业问题等局限性,为提升用户体验和增强业务竞争力,越来越多的企业构建 AI 助手。智能体应用基于大模型,通过集成特定的外部能力弥补不足,适用于有企业官网等渠道期望提供产品咨询服务、缺少技术人员开发大模型问答应用等场景。其典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。
2025-03-23
请问哪个平台支持上传私人知识库文件
以下平台支持上传私人知识库文件: 本地文档: 文本内容: 支持格式:.txt、.pdf、.docx。 操作步骤:在文本格式页签下选择本地文档,然后单击下一步。将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。每个文件不得大于 20M,一次最多可上传 10 个文件。上传完成后选择内容分段方式,包括自动分段与清洗(系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据)和自定义(手动设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度、设置文本预处理规则,如替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址),最后单击下一步完成内容上传和分片。 表格数据: 支持格式:.csv 和.xlsx。 操作步骤:在表格格式页签下选择本地文档,然后单击下一步。将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档,然后单击下一步。每个文件不得大于 20M,一次最多可上传 10 个文件。配置数据表信息,包括指定数据范围(通过选择数据表、表头、数据起始行指定数据范围)、确认表结构(系统已默认获取表头的列名,可自定义修改列名或删除某一列名)、指定语义匹配字段(选择作为搜索匹配的语义字段)。查看表结构和数据,确认无误后单击下一步,完成上传后单击确定。 Notion: 操作步骤:在文本格式页签下选择 Notion,然后单击下一步。单击授权,首次导入 Notion 数据和页面时需要进行授权。在弹出的页面完成登录,并选择要导入的页面。选择要导入的数据,然后单击下一步。选择内容分段方式,包括自动分段与清洗和自定义,最后单击下一步完成内容上传和分片。 自定义: 操作步骤:在文本格式页签下选择自定义,然后单击下一步。输入单元名称,然后单击确认。单击创建分段,然后在弹出的页面输入要上传的内容。每个分段最多可添加 2000 个字符。单击保存。
2025-03-18
关于论文书写,ai能够做些什么
在论文书写方面,AI 能够提供多方面的帮助: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,助于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 利用 AI 写课题的步骤和建议如下: 1. 确定课题主题:明确研究兴趣和目标,选有价值和创新性的主题。 2. 收集背景资料:用学术搜索引擎和文献管理软件等 AI 工具搜集相关文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具提取关键信息和主要观点。 4. 生成大纲:用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:借助 AI 工具确保内容准确完整。 6. 构建方法论:根据需求,利用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若涉及数据收集和分析,用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:用 AI 写作工具写各部分,并检查语法和风格。 9. 生成参考文献:用 AI 文献管理工具生成正确格式。 10. 审阅和修改:用 AI 审阅工具检查逻辑性和一致性,根据反馈修改。 11. 提交前的检查:用 AI 抄袭检测工具确保原创性,做最后的格式调整。 常见的文章润色 AI 工具包括: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,帮助写作前的头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可生成符合要求的学术论文。 需注意,AI 工具是辅助,不能完全替代研究者的专业判断和创造性思维,使用时应保持批判性思维,确保研究质量和学术诚信。
2025-04-01
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
作为一名高中语文教师,该学习哪些知识,能够更好地在工作中运用AI
作为一名高中语文教师,为了在工作中更好地运用 AI,您可以学习以下知识: 1. 提示词设计:掌握有效的提示词设计公式,例如 RTFC,以便更精准地向 AI 提出需求。 2. 利用 AI 工具:如用 Metaso 建立案例库,随时询问随时学习。 3. 了解 AI 在教学中的应用技巧:包括用 AI 配字幕、翻译、思维导图等快速总结和学习讲座内容。 4. 掌握 AI 赋能教学设计:以高中语文课程标准为导向,结合学生主体和核心素养,设计教学流程。例如在《再别康桥》的教学设计中,通过创设情境、品鉴特色、融思迁移等环节,融入地理、美术、音乐等多学科知识,借助人工智能协助修改诗歌创作。 5. 学习智能作文批改指导:利用相关工具提升作文批改的效率和质量。 6. 参加相关工作坊:如 AI 进阶工作坊,了解最新 AI 技术与实践案例分享,掌握全球 AI 技术在教育界的新发展和新应用。 同时,建议您参加适合有初步 AI 使用经验、期待了解最新技术进展、渴望分享交流的老师的课程和活动,不断提升自己在 AI 应用方面的能力。
2025-03-24
为什么ai能够“思考”
AI 能够“思考”主要基于以下几个方面: 1. 以 AlphaGo 为例,它在对战围棋传奇李世石时展示了超越简单模式模仿、真正“思考”的能力。在预训练时,它不仅模仿人类专家决策,还会在作答前“停下来思考”,通过模拟多个未来可能的棋局,评估得分并选择最优应对方式。随着推理时间增加,表现逐步提升并超过人类。但将此概念移植到大规模语言模型(LLM)上存在构建价值函数的难点,如在评估文章初稿、制定旅行计划等较为开放领域的打分问题。 2. 人类的思维过程分为快速、直觉的“系统 1”和缓慢、深思熟虑的“系统 2”。研究人员认为,如果有足够大、接近人脑的人工神经网络,就可能实现人脑的“思考”工作。 3. 像 HiDeepSeek 这样的工具,旨在让 AI 像人类交流时那样展示思考过程,通过特别的规则要求 AI 在思考时自然地提出疑问、修正错误等,使 AI 的回答不再是冰冷的结论,而是可跟踪、可理解的思考过程。虽然这种“思维”是模拟的,但有助于更好地理解和使用 AI 。
2025-03-23
我怎么才能让deepseek去给我写一个硕士论文的前言,让我能够顺利通过
使用 DeepSeek 等工具来撰写硕士论文的前言以试图顺利通过是不符合学术规范和道德准则的。硕士论文应当是您独立思考、研究和创作的成果,依靠外部工具生成整篇前言是不被允许的,这可能导致严重的学术不端行为,对您的学业和未来发展造成负面影响。建议您通过自己的阅读、研究和思考来撰写前言,以确保论文的质量和学术诚信。
2025-03-21
使用ai绘图能够将带货产品批量换背景,使用在小红书社区
以下是一些能够为带货产品批量换背景并应用于小红书社区的人员信息: 卡飞猫:15692004031,擅长摄影写真、banner 生成、替换产品。 韩君奇:13060035786,能够批量出图,做小红书种草。 阿鱼:18102592057,擅长各种类型的 AI 画图,以及 AI 视频提效。 吴燕波:15766104311,可进行日常出图,视频等。
2025-03-18