本文是LLM系列的文章,针对《When Less is More: Investigating Data Pruning for Pretraining LLMs at Scale》的翻译。
近年来,大量的文本数据对大型语言模型(LLM)的发展做出了重大贡献。这些数据通常是通过抓取互联网来获取的,从而产生由嘈杂的网络文本组成的预训练数据集。到目前为止,将这些数据集精简为更高质量的子集的努力依赖于手工制作的启发式算法,这些启发式算法被编码为基于规则的过滤器。在这项工作中,我们从更广泛的角度出发,探索了可扩展的数据质量估计,可用于系统地测量预训练数据的质量。我们在困惑的简单数据质量估计器的规模上进行了严格的比较,以及误差L2范数和记忆的更复杂和计算密集的估计。这些度量用于对预训练语料库进行排序和修剪,然后我们比较在这些修剪后的数据集上训练的LLM。令人惊讶的是,我们发现简单的困惑技术优于我们计算成本更高的评分方法。在对原始训练数据集的30%进行训练的同时