• GLM:通用语言模型


    ChatGPT已经火了一段时间了,国内也出现了一些平替,其中比较容易使用的是ChatGLM-6B:https://github.com/THUDM/ChatGLM-6B ,主要是能够让我们基于单卡自己部署。ChatGLM的基座是GLM: General Language Model Pretraining with Autoregressive Blank Infilling论文中提出的模型,接下来我们来看看。

    论文名称:GLM: General Language Model Pretraining with Autoregressive Blank Infilling

    论文地址:https://aclanthology.org/2022.acl-long.26.pdf

    代码地址:https://github.com/THUDM/GLM

    介绍

    预训练语言吗模型大体可以分为三种:自回归(GPT系列)、自编码(BERT系列)、编码-解码(T5、BART),它们每一个都在各自的领域上表现不俗,但是,目前没有一个预训练模型能够很好地完成所有任务。GLM是一个通用的预训练语言模型,它在NLU(自然语言理解)、conditional(条件文本生成) and unconditional generation(非条件文本生成)上都有着不错的表现。

    GLM的核心是:Autoregressive Blank Infilling,如下图1所示:

    即,将文本中的一段或多段空白进行填充识别。具体细节如图2所示:

    说明,对于一个文本:\(x_{1},x_{2},x_{3},x_{4},x_{5}\),空白长度会以\(\lambda=3\)的泊松分布进行采样。重复采样直到空白token的总数目占文本token数的15%。将文本分为两部分,A部分由原始token和[MASK]组成,B部分由空白token组成,最终将A部分和B部分进行拼接,同时B部分的每一个空白会被打乱,这样在自回归预测每个token的时候可以看到上下文的信息(具体通过注意力掩码来实现)。需要注意的是位置编码是2D的,位置编码1用于表示token在文本的位置,位置编码2用于表示原始文本和每一个空白中token的顺序。

    多任务训练

    为了能够兼顾NLU和文本生成,对于文档和句子采用不同的空白填充方式。

    • 文档:span的长度从原始长度的50%-100%的均匀分布中抽取。该目标旨在生成长文本。
    • 句子:限制masked span必须是完整的句子。多个span(句子)被取样,以覆盖15%的的原始标记。这个目标是针对seq2seq任务,其预测往往是完整的句子或段落。

    模型架构

    GLM使用单个Transformer,并对架构进行了修改:

    (1)调整layer normalization和residual connection的顺序。

    (2)使用单一线性层进行输出token预测。

    (3)将ReLU激活函数替换为GeLUs。

    2D位置编码

    两个位置id通过可学习嵌入表投影到两个向量,这两个向量都被添加到输入标记嵌入中。该编码方法确保模型在重建时不知道被屏蔽的跨度的长度。这种设计适合下游任务,因为通常生成的文本的长度是事先未知的。

    微调

    对于分类任务,在模板后面预测类别。

    • It’s a beautiful day, I’m in a great mood. it is [MASK]. [S] good
    • I failed in the exam today. I was very depressed. it is [MASK] [S] bad

    对于文本生成任务,输入的文本视为A部分,在该部分后面添加[MASK],使用自回归来生成文本。

    这样的好处是预训练和微调是保持一致的。

    结果

  • 相关阅读:
    脚本是什么意思?有什么特点?与RPA有哪些区别?
    LeetCode 0155. 最小栈
    民安智库开展城市管理考核工作第三方测评
    数据结构与算法一:开篇
    新能源车普及的弊端(劝退向)
    第十章 配置数据库(二)
    PhantomReference 和 WeakReference 究竟有何不同
    编译安装gcc-11及可能遇到的bug
    简短解析浅述SpringBoot六边形架构案例
    【Linux】kubernetes - kubectl
  • 原文地址:https://www.cnblogs.com/xiximayou/p/17271911.html