• 论文笔记:Lost in the Middle: How Language Models Use Long Contexts


    Transactions of the Association for Computational Linguistics  2024

    1 intro

    • 论文对大模型在长文本情况下的性能做了一系列实验研究,发现了一个有趣的“Lost in the middle”现象:
      • 在处理需要识别相关上下文的信息的任务(文档问答、键值对索引)时,大模型对相关信息的位置很敏感
      • 当相关的信息在输入prompt的开头或者结尾时,能够取得较好的效果
      • 而当相关的信息在prompt中间部分时,性能会显著下降。

    2 实验

    2.1 多文档问答实验

    2.1.1 输入prompt格式

    • 对于每个问题,主要包含1个能回答该问题的相关文档以及其他一些不相关的文档,这个相关文档被插入在不同的位置来测试大模型的稳定性

    2.1.2 结果

    • 在总文档数分别为10、20、30,对应token数约为2K、4K、6K时,均发现相关文档位于prompt的开始或者结尾时,能够取得更好的效果,而相关文档位于中间时,性能下降
    • 那么,如果使用支持更长上下文的模型呢?(gpt-3.5-turbo-16K-0613 VS gpt-3.5-turbo-0613)
      • 在这个任务上并未获得显著更优的结果

    2.2 键值对查询实验

    2.1.1 输入prompt格式

    2.1.2 结果

    • 对于比较优秀的模型,如claude-1.3-100k、claude-1.3,它们在4k、8k、16k的上下文长度下,不管目标key在哪个位置,都能取得接近100%的准确率;
    • 对于差一些的模型,仍然有相似的现象,目标key位于中间位置时,取得较差的结果

    3 讨论

    3.1 模型架构的影响

    • 是否和LLM的模型架构相关?Decoder-only/Encoder-Decoder等架构的LLM是否会有不同的表现?
      • ——>之前的实验用的模型都是Decoder-only的架构,于是论文增加了两种Encoder-Decoder模型(flan-t5-xxl、flan-ul2)
      • 发现还是类似的现象

    3.2 query和文档的相对位置

    前面的实验都是将query放在文档之后进行的,那么将query放在文档之前,会有什么样的结果呢?

    ——>将query放在文档之前同样有“Lost in the middle”的现象

    3.3 有监督finetune 的影响

    • 之前的模型都是带finetune的,于是论文比较了没有finetune情况下的差异
      • 发现及时没有指令微调,仍然会出现lost in the middle的现象

  • 相关阅读:
    力扣-226.翻转二叉树
    TKE 超级节点,Serverless 落地的最佳形态
    YUM仓库的档案控制
    webpack的构建流程是什么?从读取配置到输出文件
    为什么没有办法画圆角?
    阿里云使用密钥登录服务器
    PyEMD安装过程
    点餐小程序实战教程06-首页开发
    后端笔试题(2)分频器波形图
    阿里SQL规约
  • 原文地址:https://blog.csdn.net/qq_40206371/article/details/136644954