• 在PyTorch里面利用transformers的Trainer微调预训练大模型


    背景

    transformers提供了非常便捷的api来进行大模型的微调,下面就讲一讲利用Trainer来微调大模型的步骤

    第一步:加载预训练的大模型

    1. from transformers import AutoModelForSequenceClassification
    2. model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased")

    第二步:设置训练超参

    1. from transformers import TrainingArguments
    2. training_args = TrainingArguments(
    3. output_dir="path/to/save/folder/",
    4. learning_rate=2e-5,
    5. per_device_train_batch_size=8,
    6. per_device_eval_batch_size=8,
    7. num_train_epochs=2,
    8. )

    比如这个里面设置了epoch等于2

    第三步:获取分词器tokenizer

    1. from transformers import AutoTokenizer
    2. tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased")

    第四步:加载数据集

    1. from datasets import load_dataset
    2. dataset = load_dataset("rotten_tomatoes") # doctest: +IGNORE_RESULT

    第五步:创建一个分词函数,指定数据集需要进行分词的字段:

    1. def tokenize_dataset(dataset):
    2. return tokenizer(dataset["text"])

    第六步:调用map()来将该分词函数应用于整个数据集

    dataset = dataset.map(tokenize_dataset, batched=True)

    第七步:使用DataCollatorWithPadding来批量填充数据,加速填充过程:

    1. from transformers import DataCollatorWithPadding
    2. data_collator = DataCollatorWithPadding(tokenizer=tokenizer)

    第八步:初始化Trainer

    1. from transformers import Trainer
    2. trainer = Trainer(
    3. model=model,
    4. args=training_args,
    5. train_dataset=dataset["train"],
    6. eval_dataset=dataset["test"],
    7. tokenizer=tokenizer,
    8. data_collator=data_collator,
    9. ) # doctest: +SKIP

    第九步:开始训练

    trainer.train()

    总结:

    利用Trainer提供的api,只需要简简单单的九步,十几行代码就能进行大模型的微调,你要不要动手试一试?

  • 相关阅读:
    Chrome浏览器不好用?因为你没安装扩展插件
    WSL2编译ijkplayer
    智慧加油站视频监控行为识别分析系统
    Android WiFi ip显示
    第 2 章 微信小程序的构成 (代码导读)断更,后续继续更新
    使用nvm管理多版本node.js
    36、rk3399 pro继续折腾记录
    IB化学介绍及备考
    如何让 Go 反射变快,你学会了吗?
    北京/上海/广州/深圳DAMA-CDGA/CDGP数据治理认近期开班
  • 原文地址:https://blog.csdn.net/duzm200542901104/article/details/133081182