以下是关于消除大模型幻觉的方法的相关内容:
大模型出现幻觉的原因及部分解决办法:
1. 原因:
样本存在错误(Imitative Falsehoods),即学习的“教材”中有错误。
2. 解决办法:
上采样(Up Sampling)。
大模型存在的问题:
1. 输出结果具有不可预测性。
2. 静态的训练数据导致知识存在截止日期,无法即时掌握最新信息。
知识的局限性:模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。
幻觉问题:基于数学概率的文字预测导致会在没有答案的情况下提供虚假信息等。
数据安全性:企业担心数据泄露,不愿将私域数据上传第三方平台训练。
Prompt 可以减少幻觉的原因:
Prompt 相当于给大模型提供了一个模板,包括对模型的要求、输入和输出的限制,使大模型在限制下得到概率最大的答案,从而提升返回的准确性。
RAG 是解决大模型问题的有效方案:
RAG 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。RAG 可与微调结合使用,两者并不冲突。但 RAG 不适合教模型理解广泛领域或学习新语言、格式或样式。
2025-03-17