• 【通义千问】大模型Qwen GitHub开源工程学习笔记(3)-- 通过Qwen预训练语言模型自动完成给定的文本


     摘要:

    本笔记分析了使用预训练的模型生成文本的示例代码。它的步骤如下:

    1. 使用已加载的分词器 tokenizer 对输入文本进行处理,转换为模型可以理解的格式。输入文本是国家和首都的信息,最后一句是未完成的,需要模型来生成。
    2. 将处理后的输入转移到模型所在的设备上(例如GPU或CPU)。
    3. 使用模型的 generate 方法对输入进行处理,生成预测的输出。
    4. 使用分词器的 decode 方法将生成的输出从模型理解的格式转换回文本,并打印出来。

    实例分析

    1. from transformers import AutoModelForCausalLM, AutoTokenizer
    2. from transformers.generation import GenerationConfig
    3. # 可选的模型包括: "Qwen/Qwen-7B", "Qwen/Qwen-14B"
    4. tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)
    5. # 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存
    6. # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B", device_map="auto", trust_remote_code=True, bf16=True).eval()
    7. # 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存
    8. # model = AutoModelForCausalLM.from_pretrained("Qwen/Q
  • 相关阅读:
    Map和Set(下)
    139. 单词拆分
    Tomcat
    新建esp32的vscode工程的三种方式
    103. 二叉树的锯齿形层序遍历
    scrapy个人循序渐进
    使用Docker配置深度学习的运行环境
    Python爬虫实战案例——第六例
    NLP---文本前期预处理的几个步骤
    GDB使用技巧和相关插件
  • 原文地址:https://blog.csdn.net/weixin_46481662/article/details/133421475