本笔记分析了使用预训练的模型生成文本的示例代码。它的步骤如下:
- from transformers import AutoModelForCausalLM, AutoTokenizer
- from transformers.generation import GenerationConfig
-
- # 可选的模型包括: "Qwen/Qwen-7B", "Qwen/Qwen-14B"
- tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)
-
- # 打开bf16精度,A100、H100、RTX3060、RTX3070等显卡建议启用以节省显存
- # model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B", device_map="auto", trust_remote_code=True, bf16=True).eval()
- # 打开fp16精度,V100、P100、T4等显卡建议启用以节省显存
- # model = AutoModelForCausalLM.from_pretrained("Qwen/Q