Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型的局限性

Answer

大模型存在以下局限性:

  1. 知识的局限性:模型自身的知识完全源于训练数据,现有的主流大模型(如 ChatGPT、文心一言、通义千问等)的训练集基本抓取网络公开数据用于训练,对于一些实时性、非公开或离线的数据无法获取,导致部分知识缺失。
  2. 幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙,因此存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。
  3. 数据安全性:对于企业来说,数据安全至关重要,企业通常不愿意承担将自身私域数据上传第三方平台进行训练导致的数据泄露风险。
  4. 在图灵测试游戏中,如果 AI 模型没有调用工作流,Agent 就会直接回答问题,导致游戏状态无法正确跳转,对局失败。为解决此问题,虽采取了增强模型调用能力和增加容错机制等措施,但开发难度大,且只要大模型不调用工作流一次,后续不调用的概率会很大。模型总会优先调用知识库进行问题回复,不设置知识库时,模型提的问题可能很发散,与图灵测试初衷违背。把知识库中的数据放到代码里虽可缓解问题,但反程序设计的解耦和逻辑,修改麻烦。
Content generated by AI large model, please carefully verify (powered by aily)

References

RAG提示工程(一):基础概念

大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。微调类似于让学生通过广泛的学习内化知识。这种方法当模型需要复制特定的结构、样式或格式时非常有用。以下是RAG与微调从维度方面的比较:参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)

OpenAI:我憋了个新大招儿,它叫o1-preview/mini

其次,今天凌晨第一批吃螃蟹的用户已经体验过了,从各群、各微、各推的反馈来看,复杂问题的思考过程长达30s,而相对简单的问题则要5-10s之间。就连OpenAI给出的模型速度示例中,o1-preview的速度也是偏慢的。最后,让人有点郁闷的是,新模型(o1-preview/mini)的使用条数太少了,而且冷却时间相当长,按照少数AI先锋(@陈财猫)的测试,o1-preview的冷却时间长达7天。这一周几十条的用量也顶多算是打打牙祭...最后,我想分享一些个人的思考和感悟。随着这两年来对模型发展的观察,我看到了一个明显的趋势:仅仅依靠生成式应用的场景是相当有限的。尤其是toB领域,我们遇到的更多是对准确性要求极高的场景,甚至需要100%准确的情况,比如安全领域和金融领域,这些都是差之毫厘谬之千里的业务。而大模型的局限性也是常常在于此(幻觉)。但推理模型的准确率不断攀升、甚至达到完全可信的地步确实是一件非常惊喜又恐怖的事情。之前让模型干创意的活儿,现在又能干精确的活儿,这属于全场景覆盖!这意味着AI技术可以渗透到更多行业、更多高精尖业务中去!同时,我回想起老师曾经对我说过的一句话:"不管现在的大模型处理速度多慢,操作多么繁琐,只要能保证最终结果的正确性,它就拥有无限的可能性。"我觉得老师的话不无道理,不要看现在新模型的推理速度慢,但这些都可以通过增配新硬件去解决,只要钱到位,这都不是问题。况且,这也可能是慢思考系统的一种呢?你说对吧!再者,在今年上半年,甚至是上个月,很多人还在担忧大模型的前景。但OpenAI推出的新模型无疑给这个行业注入了一剂强心剂,为整个领域带来了新的活力和希望。这是令人赞叹和振奋的。

我们居然开发出了图灵测试游戏!

游戏最大的不确定因素是,如果AI模型没有调用工作流,Agent就会直接回答问题,这会导致游戏状态无法正确跳转,对局失败(如果不用大模型的话,体验会很好,可是AI程度在哪里?)为了解决这个问题,我们增强了模型的调用能力,并在工作流中增加了多个容错机制,尽可能减少错误发生。但开发难度不小,并且只要大模型不调用工作流一次,那么后续大模型不调用工作流的概率会很大。在多次试错中我们发现,模型总会优先调用知识库(给模型提供了很多候选对话,以激发用户的游戏兴趣)进行问题回复,尽管已经将知识库的触发条件上升到最严格;而不设置知识库的情况下,模型提的问题可能很发散,与图灵测试的初衷比较违背(根本原因还是模型水平不够)。一个折中的解决办法是,把知识库中的数据放到代码里(没错,类似于把css和js写到html中)然后删除掉知识库,这样可以缓解模型调用知识库的问题,但却是很反程序设计的解耦和逻辑,并且修改起来更麻烦。

Others are asking
大型语言模型(LLM)基于Transformer架构的模型的优缺点是什么,有什么局限性
大型语言模型(LLM)基于 Transformer 架构的模型具有以下优点: 1. 在大量数据集上进行预训练,展现出卓越的语言处理能力,能预测接下来的 Token。 然而,也存在一些缺点和局限性: 1. 瞬态状态:天生缺乏持久的记忆或状态,需要额外的软件或系统来保留和管理上下文。 2. 概率性质:随机性导致响应的不确定性,对相同提示词可能产生不同回答。 3. 过时信息:依赖预训练数据,只能访问历史知识,无法获取实时更新。 4. 内容制造:可能生成看似合理但不准确的信息,即“幻觉”。 5. 资源密集:巨大规模意味着显著的计算和财务成本,影响可扩展性和可访问性。 6. 领域特定性:本质上通用,但通常需要特定领域数据才能在专业任务中表现出色。 7. 缺乏创造性:像一个高性能的知识检索工具,超出检索范围时表现差,甚至出现“幻觉”。面对复杂逻辑推导和新的知识推演能力不足,无法基于新的语料推演出新知识。 8. 对于特定领域或高度专业化的查询,容易产生错误信息或“幻觉”,特别是当查询超出训练数据或需要最新信息时。
2025-02-13
文心一言的开发公司是谁,功能特点,优势性和局限性请帮我简要概括
文心一言是由百度开发的全新一代知识增强大语言模型。 功能特点: 在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。 在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。 各项能力表现均衡且大部分能力水平较高。 能力栈广泛,可应用场景较多,重点推荐在查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面的应用,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。 优势: 能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。 局限性: 从某些测试和感觉来看,其能力水平可能在 GPT3 的阶段,输出内容的可靠性与 ChatGPT 相比还有差距。
2024-11-22
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14