• 安卓手机部署大模型实战


    本文作者系360奇舞团前端开发工程师

    前言

    自ChatGPT发布以来,大语言模型(Large language model, LLM)就成了AI乃至整个计算机科学的话题中心。学术界,工业界围绕大语言模型本身及其应用展开了广泛的讨论,大量的新的实践层出不穷。

    由于LLM对计算资源的需求极大,有能力部署大语言模型的公司和实验室一般通过搭建集群,然后开放API或者网页demo的方式让用户可以使用模型。在人们纷纷发挥想象力尝试各种prompt与模型对话的时候,我们也注意到在一些应用场景中,出于定制化、个性化或者隐私性的目的,人们想要自己在各种终端设备中本地运行大语言模型,不需要/不希望连接互联网或者依赖于服务器,例如

    1、智能汽车的终端可以对驾驶员的操作习惯定制化
    2、智能家居的终端可以对户主的生活习惯定制化
    3、手机游戏,或者主机游戏中NPC的对话可以根据玩家的行为而改变
    4、PC端的应用希望本地部署聊天机器人,但是用户的显卡可能是N卡,A卡,或者集成显卡,安装了CUDA/Vulkan/OpenCL驱动

    希望能够让每个人都可以开发,优化和部署AI大模型,让它工作在每个人都能方便获得的设备上。

    如何做

    我们采用了机器学习编译技术来解决这一类问题。

    MLC LLM 是一个用于大型语言模型的机器学习编译器和高性能部署引擎。该项目的使命是让每个人都能够在每个人的平台上原生地开发、优化和部署 AI 模型。

    本页是一个快速教程,介绍如何尝试 MLC LLM,以及使用 MLC LLM 部署您自己的模型的步骤。

    MLC介绍

    这里稍微讲解了一些MLC的基本概念,以帮助我们使用和了解 MLC LLM。f0c18eb72adc8e92f8667305e2f25089.jpegMLC-LLM 由三个不同的子模块组成:模型定义、模型编译和模型运行。

    MLC LLM 的三个独立子模块

    1、Python 中的模型定义。MLC 提供各种预定义架构,例如 Llama(例如 Llama2、Vicuna、OpenLlama、Wizard)、GPT-NeoX(例如 RedPajama、Dolly)、RNN(例如 RWKV)和 GPT-J(例如MOSS)。开发人员可以仅使用纯 Python 定义模型,而无需接触编码。

    2、Python 中的模型编译。模型由TVM Unity编译器编译,其中编译配置为纯 Python。MLC LLM 将基于 Python 的模型量化导出到模型库并量化模型权重。可以用纯 Python 开发量化和优化算法,以针对特定用例压缩和加速 LLM。

    3、不同平台的模型运行。每个平台上都提供了 MLCChat 的变体:用于命令行的C++ 、用于 Web 的Javascript 、用于 iOS 的Swift 和用于 Android 的Java,可通过 JSON 进行配置。开发人员只需熟悉平台即可将 MLC 编译的 LLM 集成到他们的项目中。

    MLC LLM 还有很多概念,这里不在过多赘述,下面我们直接开始实践。

    基本环境配置

    这是我这里的硬件配置

    电脑:mac m2芯片 测试手机:Pixel 4,Android 11,运行内存6g

    电脑根据官网所说,在windows、linux、mac都可以跑通,主要强调一下手机,运行内存需至少需大于6g,这个配置上可以跑gemma-2b,Qwen2-1.5B等较小的模型,但如果是Llama2-13B较大的,很可能会超出内存

    需要的环境依赖不少,这里我们一步一步慢慢来

    Anaconda 配置

    在MLC中需要使用的python最低版本在3.10以上,为避免环境冲突,所以最好使用虚拟环境来进行环境配置,这里推荐使用Anconda来配置虚拟环境,相关的安装方法,可参考Anaconda安装

    创建虚拟环境,后续的一些操作都尽量在虚拟环境中去操作

    1. # 创建一个 your-environment的虚拟环境,python版本为3.10
    2. conda create -n your-environment python==3.10 
    3. # 进入虚拟环境
    4. activate your-environment

    Rust

    来自官网的介绍:Rust (install) is needed to cross-compile HuggingFace tokenizers to Android. Make sure rustc, cargo, and rustup are available in $PATH. 如此安装:

    curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh

    Android Studio

    要使用Android Studio就需要安装 SDK、NDK、CMake和JAVA。

    其中Android Studio可以在官网中去下载。13f4e0be4756c0f6c43fe40d1f27cb12.jpeg在 Android Studio 单击“File → Settings → Languages & Frameworks → Android SDK → SDK Tools”,选择安装NDK、CMake和Android SDK Platform-Tools。安装完成后,需要在环境变量中去对NDK等进行配置才可使用。

    配置环境变量

    1. export ANDROID_NDK="$HOME/Library/Android/sdk/ndk/27.0.11902837"
    2. export ANDROID_HOME="$HOME/Library/Android/Sdk"
    3. export PATH="$PATH:$HOME/Library/Android/Sdk/cmake/3.22.1/bin"
    4. export PATH="$PATH:$HOME/Library/Android/Sdk/platform-tools"
    5. export TVM_NDK_CC="$ANDROID_NDK/toolchains/llvm/prebuilt/darwin-x86_64/bin/aarch64-linux-android24-clang"
    6. export TVM_SOURCE_DIR="$HOME/pyProjects/intelli-vista/3rdparty/tvm"
    7. export TVM_HOME="$TVM_HOME/include/tvm/runtime"
    8. export MLC_LLM_SOURCE_DIR="$HOME/pyProjects/intelli-vista"
    9. export JAVA_HOME="/Applications/Android\ Studio.app/Contents/jbr/Contents/Home"

    Java

    Android Studio需要安装openjdk,官方要求的版本是>17。安装教程很多,这里以linux常用的安装方式为列:

    1. # 更新update
    2. sudo apt update
    3. # 安装openjdk17
    4. sudo apt install openjdk-17-jdk 
    5. # 查看jdk17的安装路径
    6. sudo update-alternatives --list java
    7. # 用上面命令获取的路径,编入到bashrc文件的最后一行中
    8. vi ~/.bashrc
    9. # 将下面的命令,编入到bashrc文件的最后一行中
    10. export JAVA_HOME=/usr/lib/jvm/java-17-openjdk-amd64/bin/java
    11. # 更新环境变量
    12. source ~/.bashrc

    TVM Unity runtime

    这个就在我们接下来要git clone的包里,在 3rdparty/tvm里面,所以不需要额外下载,只需要在上面环境配置中路径写对即可。

    TVM Unity compiler

    我们需要用这个来对模型进行编译,也可以直接使用官网提供的prebuilt model,这样就不用安装,本章直接使用官网已经提供的作为展示。

    1. conda activate your-environment
    2. python -m pip install --pre -U -f https://mlc.ai/wheels mlc-ai-nightly

    TVM的安装验证:以下命令可以帮助确认 TVM 是否已正确安装为 python 包并提供 TVM python 包的位置

    1. >>> python -c "import tvm; print(tvm.__file__)"
    2. /some-path/lib/python3.10/site-packages/tvm/__init__.py

    MLC-LLM安装

    1. # 克隆源代码及源代码附属的子项目
    2. git clone https://github.com/mlc-ai/mlc-llm.git --recursive
    3. # 进入mlc-llm文件夹
    4. cd mlc-llm
    5. # 将mlc-llm安装进环境
    6. pip install .

    验证安装

    1. >>> mlc_llm --help
    2. usage: MLC LLM Command Line Interface. [-h]
    3.                                        {compile,convert_weight,gen_config,chat,serve,bench}
    4. positional arguments:
    5.   {compile,convert_weight,gen_config,chat,serve,bench}
    6.                         Subcommand to to run. (choices: compile,
    7.                         convert_weight, gen_config, chat, serve, bench)
    8. options:
    9.   -h, --help            show this help message and exit

    构建运行时和模型库

    Android 应用程序构建的模型在 中指定MLCChat/mlc-package-config.json:在 中model_list,model指向 Hugging Face 存储库,该存储库 model指向包含预转换模型权重的 Hugging Face 存储库。Android 应用程序将从 Hugging Face URL 下载模型权重。model_id是唯一的模型标识符。estimated_vram_bytes是对模型在运行时所占用的 vRAM 的估计。"bundle_weight": true意味着模型的模型权重将在构建时捆绑到应用程序中。overrides指定一些模型配置参数覆盖。

    此处我们测试两个模型gemma-2b 和 Qwen2-1.5B,所以配置mlc-package-config.json为:

    1. {
    2.     "device""android",
    3.     "model_list": [
    4.         {
    5.             "model""HF://mlc-ai/gemma-2b-it-q4f16_1-MLC",
    6.             "model_id""gemma-2b-q4f16_1-MLC",
    7.             "estimated_vram_bytes"3000000000,
    8.             "bundle_weight"true
    9.         },
    10.         {
    11.             "model""HF://mlc-ai/Qwen2-1.5B-Instruct-q4f16_1-MLC",
    12.             "estimated_vram_bytes"3980990464,
    13.             "model_id""Qwen2-1.5B-Instruct-q4f16_1-MLC",
    14.             "bundle_weight"true
    15.         }
    16.     ]
    17. }

    我们有一个单行命令来构建和准备所有模型库:

    1. cd /path/to/MLCChat  # e.g., "android/MLCChat"
    2. export MLC_LLM_SOURCE_DIR=/path/to/mlc-llm  # e.g., "../.."
    3. mlc_llm package

    该命令主要执行以下两个步骤:编译模型。我们将每个模型编译model_list成MLCChat/mlc-package-config.json二进制模型库。

    构建运行时和标记器。除了模型本身之外,还需要轻量级运行时和标记器来实际运行 LLM。

    该命令创建一个./dist/包含运行时和模型构建输出的目录。请确保以下所有文件都存在于中./dist/。

    1. dist
    2. └── lib
    3.     └── mlc4j
    4.         ├── build.gradle
    5.         ├── output
    6.         │   ├── arm64-v8a
    7.         │   │   └── libtvm4j_runtime_packed.so
    8.         │   └── tvm4j_core.jar
    9.         └── src
    10.             ├── cpp
    11.             │   └── tvm_runtime.h
    12.             └── main
    13.                 ├── AndroidManifest.xml
    14.                 ├── assets
    15.                 │   └── mlc-app-config.json
    16.                 └── java
    17.                     └── ...

    移动 GPU 中的模型执行逻辑已整合到 中libtvm4j_runtime_packed.so,而tvm4j_core.jar是与之绑定的轻量级 (~60 kb) Java 。dist/lib/mlc4j是一个 gradle 子项目,您应将其包含在应用中,以便 Android 项目可以引用 mlc4j (MLC LLM java 库)。此库打包了执行模型所需的依赖模型库和必要的运行时。

    我们定义的模型下载后会在这里

    1. dist
    2. ├── bundle
    3. │   ├── gemma-2b-q4f16_1   # The model weights that will be bundled into the app.
    4. │   └── mlc-app-config.json
    5. └── ...

    由于环境和网络限制,可以使用国内大佬们提供好的下载,也可以采用一些特别手段,这里不在赘述。

    构建Android应用程序

    生成 APK。进入 Android Studio,点击“Build → Generate Signed Bundle/APK”生成 APK 进行发布。如果是第一次生成 APK,需要根据Android 官方指南生成密钥。此 APK 将放置在 下android/MLCChat/app/release/app-release.apk。

    在手机设置的开发者模式中启用“USB 调试”。运行以下命令,如果 ADB 安装正确,你的手机将显示为设备:

    adb devices

    将 APK 和权重安装到您的手机。运行以下命令安装应用程序,并将本地权重推送到设备上的应用程序数据目录。完成后,您可以在设备上启动 MLCChat 应用程序。bundle_weight设置为 true 的模型的权重已存在于设备上。

    1. cd /path/to/MLCChat  # e.g., "android/MLCChat"
    2. python bundle_weight.py --apk-path app/release/app-release.apk

    现在已经可以在手机上运行大模型了1d0754cc3ffb55e2a2bf721428321527.jpeg

    由于手机硬件问题,目前只能跑像gemma-2b 或者 Qwen2-1.5B较小的模型,后续会在其他手机上尝试跑一下更大的模型例如Llama-13B。

    参考文档:

    https://llm.mlc.ai/docs/deploy/android.html

    - END -

    如果您关注前端+AI 相关领域可以扫码进群交流

    9ee2274fce8059dbf135aac8ab4bbacf.png 0ef8d6479381fa401e2b02ad896b5c54.jpeg

    扫码进群2或添加小编微信进群1😊

    关于奇舞团

    奇舞团是 360 集团最大的大前端团队,非常重视人才培养,有工程师、讲师、翻译官、业务接口人、团队 Leader 等多种发展方向供员工选择,并辅以提供相应的技术力、专业力、通用力、领导力等培训课程。奇舞团以开放和求贤的心态欢迎各种优秀人才关注和加入奇舞团。

    1324a5da1336b89c6e4c2f090e48dbb7.png


  • 相关阅读:
    SeekBar爬坑
    Elastic-Job中Zookeeper的作用
    postman的使用
    Ubuntu安装Netron并创建快捷键启动图标
    2022西门子白帽黑客大赛丨工控安全赛事新起点 人才培养见真章
    AVR单片机开发4——定时器T0 中断方式
    云原生(三十二) | Kubernetes篇之平台存储系统介绍
    opencv官方案例目录
    工作分配问题——算法设计与分析(C实现)
    如何使用 Spring Security手动验证用户
  • 原文地址:https://blog.csdn.net/qiwoo_weekly/article/details/140704808