要让推理大模型回答得更准确,可以通过以下提示词相关的设置和方法:
使用提示词时,您会通过API或直接与大语言模型进行交互。你可以通过配置一些参数以获得不同的提示结果。调整这些设置对于提高响应的可靠性非常重要,你可能需要进行一些实验才能找出适合您的用例的正确设置。以下是使用不同LLM提供程序时会遇到的常见设置:Temperature:简单来说,temperature的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果,也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能token的权重。在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的temperature值,以促使模型基于事实返回更真实和简洁的结果。对于诗歌生成或其他创造性任务,你可以适当调高temperature参数值。Top_p:同样,使用top_p(与temperature一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。一般建议是改变Temperature和Top P其中一个参数就行,不用两个都调整。Max Length:您可以通过调整max length来控制大模型生成的token数。指定Max Length有助于防止大模型生成冗长或不相关的响应并控制成本。Stop Sequences:stop sequence是一个字符串,可以阻止模型生成token,指定stop sequences是控制大模型响应长度和结构的另一种方法。例如,您可以通过添加“11”作为stop sequence来告诉模型生成不超过10个项的列表。Frequency Penalty:frequency penalty是对下一个生成的token进行惩罚,这个惩罚和token在响应和提示中出现的次数成比例,frequency penalty越高,某个词再次出现的可能性就越小,这个设置通过给重复数量多的Token设置更高的惩罚来减少响应中单词的重复。
目前对于大语言模型来说,推理任务算是最具有挑战性的了。推理任务最让人兴奋的地方就是可以促使各种复杂的应用程序从大语言模型中诞生。目前,涉及数学能力的推理任务已经有了一些改进。对于当前的大型语言模型来说,执行推理任务可能会有一些难度,因此就需要更高级的提示词工程技术。我们会在后面的指南中介绍这些高级技术。现在,我们将介绍几个基本示例来展示算术功能。提示词输出结果来,我们加大难度:提示词输出结果这不对!我们试着用提示词去改进它:提示词输出结果好多了吧?顺便说一句,我试过几次,有时还是会失败。如果你可以用示例给模型说明一下,可能会获得更准确的结果。我们后面还会在本章节中介绍更多常见应用示例。在后面的章节,我们将介绍更高级的提示工程概念和技术,以完成更困难任务。
“AI时代我们都翻身农奴当老板,拥有数字员工后的我们,了解这些员工的秉性,成为新时代的超级个体。”[heading1]01[heading1]—[heading1]是否需要提示词工程,是否需要学提示词?[content]我是持反对观点的,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。[heading1]02[heading1]—[heading1]和大模型交互需要遵循规则吗?[content]不需要。网上流传最广的提示词方法论,是“你需要给大模型一个角色”。这确实是一个好的策略,因为小学老师,大学老师这样的角色,预设很多背景信息。这是一个非常讨巧的方式。但我并不认为这是一条必须要遵循的原则,甚至所有的规则都不是必须遵守的。你可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了你的目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。[heading1]03[heading1]—[heading1]用Markdown格式清晰表达问题[content]Markdown通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。1.结构清晰:Markdown通过简单的标记语法提供了丰富的格式化选项,如列表、标题、加粗、斜体、链接等。这使得信息呈现出清晰的结构,有助于模型更好地理解问题的重点和结构。2.格式化强调:Markdown允许用户通过格式化来强调问题中的关键部分,如使用加粗来突出重点或使用列表来组织多个问题或信息点。强调有助于模型识别和优先考虑文本的关键部分,从而提高回答的相关性和准确性。3.适用性广:由于Markdown在技术和非技术领域的广泛应用,使用这种格式交流可以确保信息的有效传达。普适性强。[heading1]04