• 论文解读:Large Language Models as Analogical Reasoners


    image.png

    一、动机

    • 大模型在各种类型的NLP任务上均展现出惊艳的表现。基于CoT propmt能够更好地激发大模型解决复杂推理问题的能力,例如解决数学解题,可以让模型生成reasoning path。现有的经典的CoT方法有few-shot cot、zero-shot cot等。
    • 然后现有的cot面临两个核心挑战:
      • 需要提供相关的exemplars作为指导;
      • 需要尽可能减少人工标注的成本;
    • Zero-shot CoT避免了人工标注来引导推理,但是对于一些复杂的任务难以完成推理,例如code generation;而few-shot CoT则可以通过引入task相关的exemplar来让大模型生成相应的推理,但是此时则需要人工标注或挑选exemplar
    • 因此引发一个研究问题:如何能够同时兼顾两者的优势?
    • 本文提出一种“归纳学习”的提示方法。首先设计instruction让大模型生成出与当前问题比较相关的exemplars,并补全exemplars,最后让模型recall relevant problem and aolutions来解决当前的问题。

    二、方法

    本文关注problem-solving task。
    给定一个问题 x x x,首先通过一个prompt method将问题映射到文本输入 ϕ ( x ) \phi(x) ϕ(x),任务目标是调用LLM解决这个问题并生成目标答案 y y y,生成的目标答案可以包含reasoning path r r r和答案 a a a
    image.png
    本文则是关注在设计 ϕ \phi ϕ

    image.png

    Self-Generated Exemplars

    **归纳提示学习(analogical prompting)**旨在模型在解决一个新的问题时,能够自发性地寻找相似的已有的知识。因此提出Self-Generated Exemplars方法,即让模型从在训练阶段掌握的problem-solving knowledge中生成出相关的问题和解决方法。
    设计指令来达到这个目的:
    image.png
    基于这个instruction的一个实例如下所示:
    image.png
    大模型能够根据给定的instruciton,在对于一个新的问题 x x x时候,能够先生成出3个相关的且互不相同的problem并给出相应的解决方案,然后再对目标问题进行解决。

    self-generated instruction的三个核心部分:

    • 需要明确地让模型生成relevant切diverse exemplars。因为打磨学会偏向于重复地生成一些经典的问题,误导模型生成。

    generate problems that are distinct from each other.

    • single-pass & independent exemplar generation。实验发现single-pass效果最好:
      • single-pass:本文提出的方法,一个instruction让模型生成3个exemplar;
      • independent exemplar generation:让模型分别生成若干exemplar,然后采样3个exemplar之后再重新设计prompt让大模型进行生成。
    • exemplar number K K K:发现3~5最佳。

    Self-generated Knowledge + Exemplars

    对于像code-generation等复杂的任务,low-level exemplar generation不一定能过让模型很好地解决此类问题,因此本文提出一种high-level generation方法。通过设计如下指令来实现:
    image.png
    对应的具体的例子如下所示:
    image.png
    本质来说,就是在self-generated exemplar prompt的基础上,添加新的任务,即让模型生成核心知识。例如代码生成中,需要让模型先思考选择什么algorithm,以及algorithm对应的tutorial。
    Knowledge的优势主要体现在两个方面:

    • knowledge act as high-level takeaways that complement low-level exemplars, which prevents LLMs from overly relying on specific exemplars and helps to generalize to new problems;
    • LLMs identify the core concepts of the problem and produce exemplars that align more closely in fundamental problem-solving approaches

    三、实验

    实验数据任务:

    • mathematical problem solving:GSM8K、MATH等;
    • code generation:动态规划、图算法等复杂的编程题,例如codeforces;
    • Big-Bench

    模型:

    • GPT3.5-turbo、GPT-4、PaLM2-L

    实验结果:

    发现本文提出的方达到了SOTA
    image.png

    探索:Self-generation exemplar与retrieve relevant exemplar的对比

    • retrieve方法的优势在于准确可靠,即采样得到的exemplar一定是准确的,但是缺点在于需要额外的标注成本,且搜索空间往往有限
    • self-generation方法的优势在于简单且自适应,能够根据具体的task量身定制对应的exemplar,且搜索空间可以是整个模型训练的语料。 v

    image.png

    探索:Scale of LLM

    上图中展示出,当模型规模越大时,解题的准确性也越高,同时我们提出的self-generation方法与baseline的提升幅度也越大。

    • 当使用小模型时候,LLM本身的知识有限,因此更需要retrieve exemplar;
    • 当使用大模型的时候,此时LLM本身的知识很丰富,选择self-generation更容易得到与目标问题相近的exemplar。

    探索:exemplar数量分析

    image.png
    发现当 K ∈ { 3 , 4 , 5 } K\in\{3, 4, 5\} K{3,4,5}时候更合适。


  • 相关阅读:
    未来10年,NAND 与DRAM依然是存储主角
    Java mail发送邮件时卡住,没有任何异常日志(出现阻塞线程)
    高德地图点击搜索触发输入提示
    【网络】主机连接 TCP 三次握手
    【MySQL】子查询详解
    承包商在工程结算争议里能扭转乾坤的几点
    Drinking Mockito with A Simple Stock Broker Simulation Program
    JMeter接口自动化发包与示例
    C++知识点总结(23):高级模拟算法真题 ★★★★☆《遥控汽车》《乒乓球比赛》
    Window 安装多个版本的 java 并按需切换
  • 原文地址:https://blog.csdn.net/qq_36426650/article/details/134002396