• ChatGLM2-6B 部署


    引言

    这是ChatGLM2-6B 部署的阅读笔记,主要介绍了ChatGLM2-6B模型的部署和一些原理的简单解释。

    ChatGLM-6B

    它是单卡开源的对话模型。

    • 充分的中英双语预训练

    • 较低的部署门槛

      • FP16半精度下,需要至少13G的显存进行推理,甚至可以进一步降低到10G(INT8)和6G(INT4)
    • 更长的序列长度 ChatGLM-6B 序列长度达2048;ChatGLM2-6B达8192;

    • 人类意图对齐训练 使用了监督微调、反馈自助、人类反馈强化学习等方式

    ChatGLM-6B本地部署

    1.克隆ChatGLM2-6B

    git clone https://github.com/THUDM/ChatGLM2-6B
    
    • 1

    2.CD进去之后,安装依赖包

    pip install -r requirements.txt 
    
    • 1

    它会安装以下依赖:

    protobuf
    transformers==4.30.2
    cpm_kernels
    torch>=2.0
    gradio
    mdtex2html
    sentencepiece
    accelerate
    sse-starlette
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9

    3.下载模型权重

    有两种方法,第一种就是利用transformers包去加载:

    from transformers import AutoTokenizer, AutoModel
    tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
    
    • 1
    • 2
    Downloading (…)enization_chatglm.py: 100%|████████████████████████████████████████████████████████████████████| 10.1k/10.1k [00:00<00:00, 1.61MB/s]
    A new version of the following files was downloaded from https://huggingface.co/THUDM/chatglm2-6b:
    - tokenization_chatglm.py
    . Make sure to double-check they do not contain any added malicious code. To avoid downloading new versions of the code file, you can pin a revision.
    Downloading tokenizer.model: 100%|████████████████████████████████████████████████████████████████████████████| 1.02M/1.02M [00:00<00:00, 2.22MB/s]
    
    • 1
    • 2
    • 3
    • 4
    • 5
    model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True, device="cuda")
    
    • 1
    Loading checkpoint shards: 100%|█████████████████████████████████████████████████████████████████████████████████████| 7/7 [00:16<00:00,  2.41s/it]
    
    • 1

    由于博主已经下载过了,这里直接加载就好了,当然前提是你的显存和内存足够。

    这样模型就下载好了,下面我们来体验以下:

    model = model.eval()
    # 传入tokenizer, 消息 和 历史
    response, history = model.chat(tokenizer, "你好", history=[])
    print(response)
    
    • 1
    • 2
    • 3
    • 4
    你好👋!我是人工智能助手 ChatGLM2-6B,很高兴见到你,欢迎问我任何问题。
    
    • 1
    response, history =  model.chat(tokenizer, "如何学习大模型?", history)
    print(response)
    
    • 1
    • 2
    大模型学习通常需要大量的计算资源和数据集,以及高超的技术和经验。以下是一些学习大模型的步骤:
    
    1. 选择合适的大模型:选择适合你应用领域的大模型,例如自然语言处理 (NLP) 中的 BERT、RoBERTa 等。
    
    2. 准备数据集:获取大量高质量的训练数据集,这些数据集通常包括文本数据、图像数据等。
    
    3. 选择训练方式:选择合适的训练方式,例如数据增强、迁移学习等。
    
    4. 搭建训练环境:搭建一个适合大模型的训练环境,包括分布式计算、数据增强等。
    
    5. 训练模型:使用训练工具对模型进行训练,常见的训练工具包括 PyTorch、TensorFlow 等。
    
    6. 评估模型:使用评估工具对模型的性能进行评估,常见的评估指标包括 accuracy、召回率、F1-score 等。
    
    7. 部署模型:将训练好的模型部署到生产环境中,以实时处理数据。
    
    大模型学习需要大量的计算资源和数据集,以及高超的技术和经验。因此,建议在实践中根据自己的需求和能力选择适合自己的大模型,并逐步提高自己的技术水平。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    如果这种方式下载模型很慢的话,还可以从云盘直接下载模型权重。

    首先需要下载模型代码实现:

    GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b
    
    • 1

    然后丛云盘中下载模型权重文件,放到本地目录,比如是chatglm2-6b下。

    接着将模型加载路径替换成刚才这个本地目录chatglm2-6b

    tokenizer = AutoTokenizer.from_pretrained("chatglm2-6b", trust_remote_code=True)
    model = AutoModel.from_pretrained("chatglm2-6b", trust_remote_code=True).cuda()
    
    • 1
    • 2

    注意这里chatglm2-6b是保持下载好的权重的路径,可以放在项目的根目录下。

    如果你手头上有一台Mac,那么可以参照以下方式部署(未验证):

    对于搭载了 Apple Silicon 或者 AMD GPU 的 Mac,可以使用 MPS 后端来在 GPU 上运行 ChatGLM2-6B。需要参考 Apple 的 官方说明 安装 PyTorch-Nightly(正确的版本号应该是2.x.x.dev2023xxxx,而不是 2.x.x)。

    目前在 MacOS 上只支持从本地加载模型。将代码中的模型加载改为从本地加载,并使用 mps 后端:

    model = AutoModel.from_pretrained("your local path", trust_remote_code=True).to('mps')
    
    • 1

    加载半精度的 ChatGLM2-6B 模型需要大概 13GB 内存。内存较小的机器(比如 16GB 内存的 MacBook Pro),在空余内存不足的情况下会使用硬盘上的虚拟内存,导致推理速度严重变慢。 此时可以使用量化后的模型 chatglm2-6b-int4。因为 GPU 上量化的 kernel 是使用 CUDA 编写的,因此无法在 MacOS 上使用,只能使用 CPU 进行推理。 为了充分使用 CPU 并行,还需要单独安装 OpenMP

    在 Mac 上进行推理也可以使用 ChatGLM.cpp

    以上内容来自官方文档

    本地Web-Demo

    除了通过代码的方式去和ChatGLM交流,还可以通过本地web-demo来进行。

    ChatGLM2-6B目录下,执行:

    python web_demo.py
    
    • 1

    image-20230906230750063

    右下角有三个参数,分别是max length, top p和temperature。

    • Max length 最大输出长度
    • Top P nucleus采样阈值[0,1]之间,给定这个阈值,它会从解码器中挑选一个累计概率大于阈值的最小单词集合,然后把该集合中单词的概率重新进行归一化,然后从中采样。推荐0.7。
    • Temperature 采样温度[0,1]之间,越大回答多样性越高,但如果想要结果一致性高一点,这个值要设小一点。它根据 P ( x i ∣ x 1 : i − 1 ) = exp ⁡ ( u i / t ) ∑ j exp ⁡ ( u j / t ) P(x_i|x_{1:i-1}) = \frac{\exp (u_i/t)}{\sum_j \exp(u_j/t)} P(xix1:i1)=jexp(uj/t)exp(ui/t)计算。

    ChatGLM2-6B 量化部署

    image-20230906232155597

    采用INT4量化,可以把显存需求从13G降到了6G。

    image-20230906232552943

    ChatGLM-6B 微调

    利用新的数据,对已经部署好的大模型进行继续训练就是微调。

    首先我们看一下微调的好处

    • 增强模型通用性以及和人类对齐的能力
    • 使模型更加适用于专业化领域场景

    大模型微调范式

    第一种是Prompting,即输入提示词来引导模型适应下游任务。

    image-20230906234850881

    这种方式的优点是简单,但缺点是成本高,难以达到最优。可以从上图看到,不同的提示词得到的准确率相差较大,优化效果不稳定,需要不断尝试。

    我们重点来看下更优的方式。可以分为全参数微调和高效参数微调。

    image-20230906235314455

    假设全参数微调在13G显存的参数上,模型本身就占用了13G显存。此时在训练时需要模型参数的四倍,加上原来的13G,因此大概需要60G内存或显存。所以全量微调成本高,难以实现。

    上图右边就是高效参数微调

    • Adapter 引入一小部分参数(额外可训练层),只需要调整新加入的参数,但同时会引入额外的推理开销。
    • Prompt/Prefix tuning 效果更优,需要调参。
    • LoRA 依靠权重的低秩分解特点,没有额外推理开销。
    • 数据量少的话,全参数微调效果更好,不容易过拟合。

    这里还没有理解,需要进一步去了解。后续会继续阅读参考中的论文。

    P-tuning V2原理

    image-20230907000557976

    在输入的向量序列前面拼上几个不代表词含义的向量,让模型仅对前面这几个向量进行优化,冻结整个模型的其他60亿(6B)参数,这样来实现高效参数的微调。

    这种微调方式的成本只有全参数微调成本的0.1%-0.5%。

    同时只需要保持和载入前面的PrefixEncoder,模型保持空间非常小。

    下面我们来看如何进行这种高效微调, 在目录ptuning下有:

    total 104K
    drwxrwxrwx 2 root root 4.0K Sep  6 22:25 .
    drwxrwxrwx 8 root root 4.0K Sep  6 23:04 ..
    -rw-rw-rw- 1 root root 8.3K Sep  6 22:25 arguments.py
    -rw-rw-rw- 1 root root  489 Sep  6 22:25 deepspeed.json
    -rw-rw-rw- 1 root root  768 Sep  6 22:25 ds_train_finetune.sh
    -rw-rw-rw- 1 root root  603 Sep  6 22:25 evaluate_finetune.sh
    -rw-rw-rw- 1 root root  702 Sep  6 22:25 evaluate.sh
    -rw-rw-rw- 1 root root  18K Sep  6 22:25 main.py
    -rw-rw-rw- 1 root root 9.4K Sep  6 22:25 README.md
    -rw-rw-rw- 1 root root  823 Sep  6 22:25 train_chat.sh
    -rw-rw-rw- 1 root root 3.1K Sep  6 22:25 trainer.py
    -rw-rw-rw- 1 root root  12K Sep  6 22:25 trainer_seq2seq.py
    -rw-rw-rw- 1 root root  833 Sep  6 22:25 train.sh
    -rw-rw-rw- 1 root root 5.9K Sep  6 22:25 web_demo.py
    -rw-rw-rw- 1 root root  219 Sep  6 22:25 web_demo.sh
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    其中 train.sh可以帮我们进行微调,而evaluate.sh可以验证微调效果。

    我们来看下train.sh的内容:

    $ cat train.sh
    PRE_SEQ_LEN=128
    LR=2e-2
    NUM_GPUS=1
    
    torchrun --standalone --nnodes=1 --nproc-per-node=$NUM_GPUS main.py \
        --do_train \
        --train_file AdvertiseGen/train.json \ # 数据集位置
        --validation_file AdvertiseGen/dev.json \ # 验证集
        --preprocessing_num_workers 10 \
        --prompt_column content \
        --response_column summary \
        --overwrite_cache \
        --model_name_or_path THUDM/chatglm2-6b \ # 可设为本地模型路径
        --output_dir output/adgen-chatglm2-6b-pt-$PRE_SEQ_LEN-$LR \ # 微调模型保存路径
        --overwrite_output_dir \
        --max_source_length 64 \
        --max_target_length 128 \
        --per_device_train_batch_size 1 \
        --per_device_eval_batch_size 1 \
        --gradient_accumulation_steps 16 \
        --predict_with_generate \
        --max_steps 3000 \ # 总训练步数
        --logging_steps 10 \
        --save_steps 1000 \
        --learning_rate $LR \ # 学习率
        --pre_seq_len $PRE_SEQ_LEN \ # Prompt长度,不设置时全参数微调
        --quantization_bit 4
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28

    其中通过以下设置:

    quantization_bit=4 per_device_train_batch_size=1 gradient_accumulation_steps=16
    
    • 1

    可以实现INT4的模型参数被冻结,一次训练迭代会以1的批处理大小进行16次累加的前后向传播(就是计算了16次前向传播后再进行反向传播更新梯度,等同于16的批大小),此时最低只需要6.7G显存。

    全参数微调

    如果你资源比较多,满足

    image-20230907002344974

    比如有4张A100显卡。

    那么可以通过ds_train_finetune.sh脚本进行全参数微调,需要安装deepspeed进行多卡微调:

    image-20230907002535762

    推理

    推理通过运行脚本evaluate.sh

    PRE_SEQ_LEN=128
    CHECKPOINT=adgen-chatglm2-6b-pt-128-2e-2
    STEP=3000
    NUM_GPUS=1
    
    torchrun --standalone --nnodes=1 --nproc-per-node=$NUM_GPUS main.py \
        --do_predict \
        --validation_file AdvertiseGen/dev.json \
        --test_file AdvertiseGen/dev.json \
        --overwrite_cache \
        --prompt_column content \
        --response_column summary \
        --model_name_or_path THUDM/chatglm2-6b \
        --ptuning_checkpoint ./output/$CHECKPOINT/checkpoint-$STEP \
        --output_dir ./output/$CHECKPOINT \
        --overwrite_output_dir \
        --max_source_length 64 \
        --max_target_length 64 \
        --per_device_eval_batch_size 1 \
        --predict_with_generate \
        --pre_seq_len $PRE_SEQ_LEN \
        --quantization_bit 4
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    微调结果

    广告生成

    image-20230907070314662

    这是一个广告文案生成的例子,我们输入衣服的描述,微调前模型只是做了一些简单的解释,用summary中的例子去训练,使得模型学会偏广告风格的描述。

    多轮对话数据集

    image-20230907072304438

    在微调多轮对话数据时,可以提供聊天历史,在训练命令中指定 –history_column

    其实这里只给出了两个微调实例的简单说明,下篇文章我们来看下微调的完整过程是怎样的。

    参考

    1. Prefix-Tuning: Optimizing Continuous Prompts for Generation
    2. P-Tuning: Prompt Tuning Can Be Comparable to Fine-tuning Across Scales and Tasks
  • 相关阅读:
    CVPR 2023 | UniMatch: 重新审视半监督语义分割中的强弱一致性
    每日三题 7.28
    docker之常用指令
    LINUX漏洞复现篇之ShellShock漏洞
    Linux:磁盘分区,挂载(含实例)
    Excel自学三部曲_Part3:Excel工作场景分析实战
    黑客利用人工智能窃取医疗数据的 7 种方式
    Linux下LCD驱动的编写
    项目混淆时候moudle库里的model类不需要混淆
    大数据开发之Sqoop详细介绍
  • 原文地址:https://blog.csdn.net/yjw123456/article/details/132729316