Few-Shot 指的是在训练机器学习模型时只使用极少量的标注样本,其目标是使机器学习模型在只有少量标注样本的情况下也能达到良好的性能。
在写 Prompt 时,利用 Few-Shot 是一个非常实用的技巧,通过提供少数(1 - 3 个)的输入 - > 输出示例,让 GPT 可以学到样本的共性,从而提升下一个输出结果的质量。比如在[如何写好 Prompt: 结构化]的基础上,增加一个结构块“##Examples:”,在该结构块举 1 - 3 个示例,能进一步提升 Prompt 带来的输出结果。
与 Zero-Shot 不同,Few-Shot 在 Prompt 中会给出简单的例子。这利用了大模型优秀的推理能力,根据给出的例子,大模型能很好地推理出需求并给出具体回答。使用 Few-Shot 能有更好回答效果的原因是提供了更多的上下文信息或额外知识,让大模型能更好地回答问题。
这种技术也被称为少拍提示(如果只提供一个示例,则称为一拍提示),特别适用于需要高度详细或需要结构化输出或遵守特定格式的任务。
Examples are one of the most powerful tools for enhancing Claude's performance and guiding it to produce your desired output.By providing a few well-crafted examples in your prompt,you can significantly improve the accuracy,consistency,and quality of Claude's responses.This technique is particularly effective for tasks that are highly detailed or require structured outputs or adherence to specific formats.示例是提高Claude性能并引导其生成您期望输出的最强大工具之一。通过在提示中提供一些精心制作的示例,您可以显著提高Claude响应的准确性、一致性和质量。这种技术特别适用于需要高度详细或需要结构化输出或遵守特定格式的任务。This technique is also known as few-shot prompting(or one-shot prompting if only one example is provided).这种技术也被称为少拍提示(如果只提供一个示例,则称为一拍提示)。
Zero-shot零样本零样本的Prompt,其实就是我们不给大模型任何的提示,直接问大模型的问题。这个其实是一个判断大模型能力的一个重要的手段。对于用户来说,可以直接使用,使用是比较简单而友好的。但是问题也很明显,因为没有给大模型任何的提示,那么大模型就会随心所欲的返回。few-shot少样本实例和Zero-shot不一样的是,在Prompt中给出简单的例子。这个其实是大模型非常优秀的推理能力,根据你给出来的例子,大模型可以很好的推理出来你的需求,并且按照你的需求给出具体的回答。使用few-shot能够有更好的回答效果的原因是因为你提供了更多的上下文的信息,或者叫额外的知识,有了这些知识,大模型就可以更好的回答你的问题了。COT()思维链COT实际上就是Chain-of-thought Prompt就是让大模型使用推理去解决困难复杂的问题,比如数学题目。对于这个思维链,有一个标准的咒语叫做let the model think step by step。根据阅读的论文,每次说这句话的时候,模型真的就好好按照逻辑进行思考。从论文中,我们知道,假设我们给予大模型一个包含了连续的中间步骤的思维链的推理过程,大模型会去模范思维链的思考过程,从而让模型具有了推理的能力,可以对数学、常识进行推理。对于大模型具有了推理能力之后,自然就可以做很多进一步更加复杂的任务,从而更加接近人类的思考方式。
原文链接:[如何写好Prompt:Few-shots](https://www.lijigang.com/posts/chatgpt-prompt-few-shots/)29 Jun 2023[@lijigang](https://www.lijigang.com/)[heading2]是什么[content]“few-shots”,指的是训练机器学习模型时只使用极少量的标注样本。它的目标是使机器学习模型在只有少量标注样本的情况下也能达到良好的性能。–by GPT4在写Prompt时,有一个非常实用的技巧就是利用Few-shots,通过提供少数(1-3个)的输入->输出示例,让GPT可以学到样本的共性,从面提升下一个输出结果的质量.提升质量的效果对比,可以阅读论文:[[2005.14165]Language Models are Few-Shot Learners](https://arxiv.org/abs/2005.14165).[heading2]怎么用[content]我们可以在[如何写好Prompt:结构化](https://www.lijigang.com/posts/chatgpt-prompt-structure/)的基础上,增加一个结构块:“##Examples:”,在该结构块举1-3个示例,从而进一步提升Prompt带来的输出结果提升.初始Prompt你是一个优秀的翻译人员,你会把我说的汉字翻译成英文和日语,日语同时展示日语汉字和假名。不要有任何额外的解释说明。输入:邻居输出:Neighbor(English)隣人(にんじん/Ninjin)(Japanese)输入:自行车输出:Bicycle(English)自転車(じてんしゃ/Jitensha)(Japanese)使用Few-shots的Prompt