
本文关注problem-solving task。
给定一个问题
x
x
x,首先通过一个prompt method将问题映射到文本输入
ϕ
(
x
)
\phi(x)
ϕ(x),任务目标是调用LLM解决这个问题并生成目标答案
y
y
y,生成的目标答案可以包含reasoning path
r
r
r和答案
a
a
a。

本文则是关注在设计
ϕ
\phi
ϕ。

**归纳提示学习(analogical prompting)**旨在模型在解决一个新的问题时,能够自发性地寻找相似的已有的知识。因此提出Self-Generated Exemplars方法,即让模型从在训练阶段掌握的problem-solving knowledge中生成出相关的问题和解决方法。
设计指令来达到这个目的:

基于这个instruction的一个实例如下所示:

大模型能够根据给定的instruciton,在对于一个新的问题
x
x
x时候,能够先生成出3个相关的且互不相同的problem并给出相应的解决方案,然后再对目标问题进行解决。
self-generated instruction的三个核心部分:
generate problems that are distinct from each other.
对于像code-generation等复杂的任务,low-level exemplar generation不一定能过让模型很好地解决此类问题,因此本文提出一种high-level generation方法。通过设计如下指令来实现:

对应的具体的例子如下所示:

本质来说,就是在self-generated exemplar prompt的基础上,添加新的任务,即让模型生成核心知识。例如代码生成中,需要让模型先思考选择什么algorithm,以及algorithm对应的tutorial。
Knowledge的优势主要体现在两个方面:
发现本文提出的方达到了SOTA。


上图中展示出,当模型规模越大时,解题的准确性也越高,同时我们提出的self-generation方法与baseline的提升幅度也越大。

发现当
K
∈
{
3
,
4
,
5
}
K\in\{3, 4, 5\}
K∈{3,4,5}时候更合适。