• 大语言模型系列-微调技术


    前言

    BERT模型为代表的“预训练语言模型 + 下游任务微调”训练模式成为了自然语言处理研究和应用的新范式。此处的下游任务微调是基于模型全量参数进行微调(全量微调)。

    以 GPT3 为代表的预训练语言模型(PLM)参数规模变得越来越大,这使得在消费级硬件上进行全量微调变得不可行。除此之外,模型全量微调还会损失多样性,存在灾难性遗忘的问题。

    ps:全量finetune它们动辄需要几十至上百G显存训练部署,一般的实验室和个人开发者无力承担。

    由此引出高效微调的方法,高效微调是指固定大部分预训练参数,仅微调少量或额外的模型参数,从而大大降低了计算和存储成本,同时,也能实现与全量微调相当的性能。在某些情况下,高效微调比全量微调效果更好,可以更好地泛化到域外场景。

    高效微调技术粗略分为以下几类:

    • 增加额外参数(A):类适配器(Adapter-like)、软提示(Soft prompts)
    • 选取一部分参数更新(S)
    • 引入重参数化(R)

    常见的参数高效微调技术有BitFit、Prefix Tuning、Prompt Tuning、P-Tuning、Adapter Tuning、LoRA等。

    PEFT

    PEFT(Parameter-Efficient Fine-Tuning,参数高效微调)是一个用于高效微调的库。
    支持多种任务和模型,包括

    • Causal Language Modeling(LLaMA、ChartGLM等)
    • Conditional Generation(T5、BART等)
    • Sequence Classification
    • Token Classification
    • Text-to-Image Generation(Stable Diffusion)
    • Image Classification(ViT、Swin)
    • Image to text (Multi-modal models)

    • 支持的微调方法:
    • LoRA
    • Prompt tuning
    • IA3

    SWIFT

    SWIFT(Scalable lightWeight Infrastructure for Fine-Tuning)是基于PyTorch的轻量级、开箱即用的大模型微调、推理框架。它不仅集成了各类开源tuners,如LoRA、QLoRA、Adapter等,并且融合了ModelScope(魔塔)独立自研的特有tuner ResTuning,得益于此,各个模态的开发者均可以找到适合自己模型的开发方式。

    SWIFT可以无缝集成到ModelScope生态系统中,打通数据集读取、模型下载、模型训练、模型推理、模型上传等流程。此外,SWIFT与PEFT完全兼容, 熟悉PEFT的用户可以使用SWIFT能力结合ModelScope的模型进行便捷地训练推理。

    作为ModelScope独立自研的开源轻量级tuner ResTuning,该技术在cv、多模态等领域均经过了系列验证,在训练效果和其他微调方法相当的情况下,可以做到显存节省30%~60%,为cv、多模态模型的训练提供了新的范式,在未来会应用在越来越多的场景上。

    • 支持的模型:
      qwen 系列、qwen-vl 系列、baichuan 系列、chatglm2 系列、llama 系列、openbuddy-llama 系列、internlm 系列、stable diffusion系列、其他系列模型(polylm-13b,seqgpt-560m)
    • 支持的数据集:
      • NLP:alpaca-en (gpt4),alpaca-zh (gpt4),finance-en,multi-alpaca-all,code-en,instinwild-en,instinwild-zh,cot-en,cot-zh,firefly-all-zh,poetry-zh,instruct-en,gpt4all-en,cmnli-zh,jd-zh,dureader-robust-zh,medical-en,medical-zh,medical-mini-zh,sharegpt-en,sharegpt-zh,code-python-zh,advertise-gen
      • Agent:damo-agent-zh,damo-agent-mini-zh
      • 多模态:coco-en
      • 其他:cls-fudan-news-zh,ner-jave-zh
    • 可支持的微调方法:LoRA,QLoRA,ResTuning,Side,Prompt,Adapter,PEFT全系列tuners,全参数
    • 支持的显卡:GTX20系列、30系列、40系列消费级显卡,A10,A100,V100,T4,H100
  • 相关阅读:
    【WRF-SOLAR】太阳辐射预报模式及改进技术在气象、农林、电力等相关领域中的实践应用
    day06 51单片机-点阵led
    自定义子组件的v-model
    1、Netty适合场景
    【分享】许多 有意思的 颜文字表情包
    【Unity编辑器扩展】 | 编辑器扩展 特性(Attribute) 整理总结 | 建议收藏
    python-(6-2)爬虫---小试牛刀,获得网页页面内容
    计算机毕业设计Java高铁在线购票系统(源码+系统+mysql数据库+lw文档)
    百度笔试题面试题总结1
    ARC121F Logical Operations on Tree
  • 原文地址:https://blog.csdn.net/long11350/article/details/136299268