• 【个人笔记本】本地化部署详细流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2


    不推荐小白,环境配置比较复杂

    全部流程

    • 下载原始模型:Chinese-LLaMA-Alpaca-2
    • linux部署llamacpp环境
    • 使用llamacpp将Chinese-LLaMA-Alpaca-2模型转换为gguf模型
    • windows部署Text generation web UI 环境
    • 使用Text generation web UI 加载模型并进行对话

    准备工作

    1. 笔记本环境:

      • 操作系统:win11
      • CPU:AMD R7535HS
      • GPU:笔记本4060显卡
      • CUDA版本:11.8
      • VM虚拟机:Ubuntu16

    2. 下载模型和部署环境全程需要挂梯子


    下载原始模型

    原项目链接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

    模型名称类型大小下载地址
    Chinese-LLaMA-2-13B基座模型24.7 GB[百度] [Google] [🤗HF]
    Chinese-LLaMA-2-7B基座模型12.9 GB[百度] [Google] [🤗HF]
    Chinese-Alpaca-2-13B指令模型24.7 GB[百度] [Google] [🤗HF]
    Chinese-Alpaca-2-7B指令模型12.9 GB[百度] [Google] [🤗HF]

    下载Chinese-Alpaca-2-7B模型即可,百度网盘不需要挂梯子,其他都需要梯子


    linux部署llamacpp环境

    原项目链接:https://github.com/ggerganov/llama.cpp
    原文档链接:https://github.com/ymcui/Chinese-LLaMA-Alpaca-2/wiki/llamacpp_zh

    Step 1: 安装python3.10

    sudo apt update
    sudo apt install python3.10
    
    • 1
    • 2

    Step 2: 克隆和编译llama.cpp

    1. 拉取最新版llama.cpp仓库代码

      # 要安装git+梯子
      git clone https://github.com/ggerganov/llama.cpp
      
      • 1
      • 2

      或者

      #浏览器挂梯子打开https://github.com/ggerganov/llama.cpp
      #下载项目
      #解压缩项目到本地
      
      • 1
      • 2
      • 3
    2. 对llama.cpp项目进行编译,生成./main(用于推理)和./quantize(用于量化)二进制文件

      cd 解压缩项目路径
      make
      
      • 1
      • 2

    Step 3: 生成量化版本模型

    1. 创建目录并拷贝模型到项目目录:zh-models/7B/

    2. 将Chinese-LLaMA-Alpaca-2模型转换为gguf模型

      #根目录
      python convert.py zh-models/7B/
      
      • 1
      • 2
    3. 将生成的fp16格式的gguf模型进行4-bit量化

      ./quantize ./zh-models/7B/ggml-model-f16.gguf ./zh-models/7B/ggml-model-q4_0.gguf q4_0
      
      • 1

    Step 4: 加载并启动模型

    到这一步其实可以用llama.cpp的加载模型方式对话了
    但我用的虚拟机,性能有限,故而使用Text generation web UI 加载模型,具体如何加载建议看原文档和项目说明


    windows部署Text generation web UI 环境

    原项目:https://github.com/oobabooga/text-generation-webui

    Step 1: 下载安装Miniconda3_py310

    链接:https://repo.anaconda.com/miniconda/Miniconda3-py310_23.3.1-0-Windows-x86_64.exe

    Step 2: 克隆项目到本地

    git clone  https://github.com/oobabooga/text-generation-webui
    
    • 1

    Step 3: 打开Miniconda3命令行,建立新conda环境

    conda create -n textgen
    
    • 1

    Step 4: 下载安装相关的python各类环境库

    有github链接的必须手动下载whl,再pip安装whl的绝对位置

    conda activate textgen
    cd 项目位置
    pip install env/bitsandbytes-0.41.1-py3-none-win_amd64.whl
    pip install E:\AI\环境第三方库\auto_gptq-0.4.2+cu117-cp310-cp310-win_amd64.whl
    
    https://github.com/jllllll/exllama/releases/download/0.0.17/exllama-0.0.17+cu117-cp310-cp310-win_amd64.whl
    pip install E:\AI\环境第三方库\exllama-0.0.17+cu117-cp310-cp310-win_amd64.whl
    
    pip install llama-cpp-python==0.1.84
    
    https://github.com/jllllll/llama-cpp-python-cuBLAS-wheels/releases/download/textgen-webui/llama_cpp_python_cuda-0.1.84+cu117-cp310-cp310-win_amd64.whl
    pip install E:\AI\环境第三方库\llama_cpp_python_cuda-0.1.84+cu117-cp310-cp310-win_amd64.whl
    
    https://github.com/jllllll/GPTQ-for-LLaMa-CUDA/releases/download/0.1.0/gptq_for_llama-0.1.0+cu117-cp310-cp310-win_amd64.whl
    pip install E:\AI\环境第三方库\gptq_for_llama-0.1.0+cu117-cp310-cp310-win_amd64.whl
    
    https://github.com/jllllll/ctransformers-cuBLAS-wheels/releases/download/AVX2/ctransformers-0.2.25+cu117-py3-none-any.whl
    pip install E:\AI\环境第三方库\ctransformers-0.2.25+cu117-py3-none-any.whl
    
    pip install -r requirements.txt -i 换源
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    Step 5: 启动web服务

    conda activate textgen
    cd E:/AI/项目/text-generation-webui-main
    python server.py
    
    • 1
    • 2
    • 3

    使用Text generation web UI 加载模型并进行对话

    1. 打开生成的url网址
    2. 加载本地模型
    3. 对话即可
  • 相关阅读:
    linux驱动程序的加载顺序
    数据库事务四大特性-ACID(原子性、一致性、隔离性、持久性)
    java的amazonaws接口出现无法执行http请求:管道中断
    SpringMVC中有哪些常用的注解呢?
    安全基础 --- 原型链污染
    【快速搭建系列】idea快速搭建struts2框架和测试
    Android—AMS启动
    2024一定要看的文章系列!!!接口自动化测试框架思路和实战(5):【推荐】混合测试自动化框架(关键字+数据驱动)
    Pip版本问题导致Python模块安装失败
    小啊呜产品读书笔记001:《邱岳的产品手记-11》第21讲 产品案例分析:Fabulous的精致养成
  • 原文地址:https://blog.csdn.net/qq_43537701/article/details/132967043