大语言模型幻觉的本质主要包括以下方面:
大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。微调类似于让学生通过广泛的学习内化知识。这种方法当模型需要复制特定的结构、样式或格式时非常有用。以下是RAG与微调从维度方面的比较:参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)
隐私泄露可以被大致分为三种:记忆隐私泄露,系统隐私泄露与上下文隐私泄露。我们先来聊聊第一种:记忆数据了、泄露。自回归语言模型的训练可以类比为模型在预训练数据中不断学习的过程,在学习的过程中,除了提取的`语言知识之外,模型无可避免的会记住一些数据。就像背诵一样,可能查询是完全没有恶意的,但模型返回了他人的隐私信息,例如左侧的ChatGPT回答,就正是模型输出了无意识记忆的url,而该url正好指向他人的隐私相册。模型的记忆形式其实和人类很类似,如果模型背诵的次数少,那么模型的记忆能力就会显著下降例如右图所示,横轴是重复次数,纵轴是被记住的可能性,可以看到见过的次数越多,模型就越容易背下来因此在LLM的数据隐私保护中,一个直观地解决办法就是让模型减少见数据的次数,少看几遍,也就记不住了第二种则是系统隐私泄露。例如,大家熟知的“骗取GPTs的System Prompt”就是系统隐私泄漏的一种。第三种则是“上下文隐私泄露”。接下来,我们来讲讲大家耳熟能详的“幻觉”问题。大语言模型偶尔会根据输入,输出一些荒谬或不符合事实的内容。目前,各家大语言模型都在该问题上表现得不尽如人意。为什么大语言模型会出现幻觉呢?以下的论文提供了一些解释:例如第一种:Imitative Falsehoods,样本存在错误。如果大语言模型这个“学生”学习的“教材”中有错误,那它也对不到哪里去。缓解该问题的一个办法是上采样(Up Sampling)。
[heading2]总结大语言模型的介绍与原理国内大模型的分类:国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域如小语种交流、临床医学、AI蛋白质结构预测等。大模型的体验:以‘为什么我爸妈结婚的时候没有邀请我参加婚礼’和‘今天我坐在凳子上’为例,体验了Kimi、通义千问、豆包等大模型的回答和续写能力,发现回复有差异,且大模型基于统计模型预测生成内容。大语言模型的工作原理:大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强,参数用b链形容大小。Transformer架构:Transformer是大语言模型训练架构,17年出现用于翻译,具备自我注意力机制能理解上下文和文本关联,其工作原理是单词预测,通过嵌入、位置编码、自注意力机制生成内容,模型调教中有控制输出的temperature。关于大语言模型的原理、应用及相关概念Transformer模型原理:通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率,是一个偏向概率预测的统计模型。大模型幻觉:大模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。Prompt的分类和法则:分为system prompt、user prompt和assistant prompt,写好prompt的法则包括清晰说明、指定角色、使用分隔符、提供样本等,核心是与模型好好沟通。Fine tuning微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。RAG概念:未对RAG的具体内容进行详细阐述,仅提出了这个概念。