• Ollama部署大模型并安装WebUi


    Ollama用于在本地运行和部署大型语言模型(LLMs)的工具,可以非常方便的部署本地大模型

    安装

    Linux 

    curl -fsSL https://ollama.com/install.sh | sh

     我是ubuntu系统安装,其他系统可以看项目的开源地址有写

    GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

    docker安装

    一键脚本

    1. #!/bin/bash
    2. #################################################################################
    3. # 功能:自动部署Ollama(Docker方式,GPU)
    4. # 说明:如果已安装了Docker,请注释掉 install_docker,避免重复安装
    5. #################################################################################
    6. info(){
    7. echo -e "\033[34m 【`date '+%Y-%m-%d %H:%M:%S'`】\033[0m" "\033[35m$1\033[0m "
    8. }
    9. install_docker(){
    10. #!/bin/bash
    11. info "安装依赖..."
    12. yum -y install gcc
    13. yum -y install gcc-c++
    14. ##验证gcc版本
    15. gcc -v
    16. info "安装Docker(指定版本:23.0.6)"
    17. wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O/etc/yum.repos.d/docker-ce.repo
    18. ##更新yum软件包索引
    19. yum makecache fast
    20. ## 安装docker ce cli
    21. # 查看可安装版本:yum list docker-ce --showduplicates | sort -r
    22. yum -y install docker-ce-23.0.6-1.el7 docker-ce-cli-23.0.6-1.el7
    23. info "启动Docker并验证"
    24. systemctl enable docker && systemctl start docker
    25. docker version
    26. ## 创建加速器
    27. #cd /etc/docker
    28. #if [ ! -f "$daemon.json" ]; then
    29. # touch "$daemon.json"
    30. #else
    31. # rm -rf daemon.json
    32. # touch "$daemon.json"
    33. #fi
    34. #tee /etc/docker/daemon.json <<-'EOF'
    35. #{
    36. # "registry-mirrors": ["https://自己的镜像加速器地址"]
    37. #}
    38. #EOF
    39. #systemctl daemon-reload
    40. #systemctl restart docker
    41. info "Docker(23.0.6)安装完毕!"
    42. }
    43. # 安装 Ollama
    44. install_Ollama(){
    45. info "参考IP地址:"$(hostname -I)
    46. read -p "请问,您当前服务器的内网IP地址是?:" inner_ip
    47. inner_ip="${inner_ip:-127.0.0.1}"
    48. curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
    49. | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
    50. sudo yum install -y nvidia-container-toolkit
    51. sudo nvidia-ctk runtime configure --runtime=docker
    52. sudo systemctl restart docker
    53. docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama --restart always ollama/ollama
    54. info "ollama部署完毕,开始下载qwen:0.5b模型..."
    55. docker exec -it ollama ollama run qwen:0.5b “你好”
    56. info "qwen:0.5b模型加载完成,开始部署webui界面..."
    57. docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://${inner_ip}:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
    58. eip=$(curl ifconfig.me/ip)
    59. info "部署完毕,正在启动WEBUI界面,大约5分钟后,请访问:http://${eip}:3000"
    60. }
    61. install_docker
    62. install_Ollama

    上面是一键安装脚本

    下载模型

    ollama run llama3:70b

    这个命令的意思是下载一个llama3的70b模型

    模型库

    Ollama 支持在 ollama.com/library 上获取的模型列表

    以下是一些可下载的示例模型:

    ModelParametersSizeDownload
    Llama 38B4.7GBollama run llama3
    Llama 370B40GBollama run llama3:70b
    Mistral7B4.1GBollama run mistral
    Dolphin Phi2.7B1.6GBollama run dolphin-phi
    Phi-22.7B1.7GBollama run phi
    Neural Chat7B4.1GBollama run neural-chat
    Starling7B4.1GBollama run starling-lm
    Code Llama7B3.8GBollama run codellama
    Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
    Llama 2 13B13B7.3GBollama run llama2:13b
    Llama 2 70B70B39GBollama run llama2:70b
    Orca Mini3B1.9GBollama run orca-mini
    LLaVA7B4.5GBollama run llava
    Gemma2B1.4GBollama run gemma:2b
    Gemma7B4.8GBollama run gemma:7b
    Solar10.7B6.1GBollama run solar

    注意:运行 7B 模型至少需要 8 GB 的 RAM,运行 13B 模型需要 16 GB,运行 33B 模型需要 32 GB。

    模型存储位置
    了解模型存储位置对于管理和备份模型至关重要。默认情况下,模型存储在以下位置:

    Linux:/var/lib/ollama/models
    Windows:C:\ProgramData\Ollama\models
    macOS:/Library/Application Support/Ollama/models

    查看模型 

    ollama list
    

     这个命令可以看已经下载的模型

    1. chen@chen:~$ ollama list
    2. NAME ID SIZE MODIFIED
    3. medllama2:latest a53737ec0c72 3.8 GB 24 hours ago

    更改模型下载路径

    先创建一个用于存放模型目录

    sudo mkdir /path/to/ollama/models

    修改权限

    sudo chown -R root:root /path/to/ollama/models
    
    sudo chmod -R 775 /path/to/ollama/models

    添加环境变量

    sudo vim /etc/systemd/system/ollama.service

    [Service]下面加入一行新的Environment,新一行!

    Environment="OLLAMA_MODELS=/path/to/ollama/models"

     请替换上面的路径为自己服务器内的路径

    安装WebUI

    我是基于docker部署的,比较方便

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://${inner_ip}:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
    

    ${inner_ip} 请替换为你自己服务器的ip

    webui部署完成之后可能出现无法连接到ollama的情况,这是因为ollama默认绑定的ip是127.0.0.1

    在ollama.service文件的[Service]下面再加入一行新的Environment,新一行!

    Environment="OLLAMA_HOST=0.0.0.0:11434"
    

    重启服务即可

  • 相关阅读:
    数仓GreenPlum中数据实时同步的方式
    Warning: `ReactDOMTestUtils.act` is deprecated in favor of `React.act`.
    【计算机视觉 | 目标检测】arxiv 计算机视觉关于目标检测的学术速递(8 月 30 日论文合集)
    钡铼技术R40工业路由器连接工业控制系统实现远程监控
    Java中如何处理XML数据?
    【2024全新版】程序员必会英语词汇表
    网络——介质访问控制
    开源模型应用落地-LangChain高阶-LCEL-表达式语言(六)
    【Pytorch】torch.nn.Dropout()
    QT6.3学习技巧,快速入门
  • 原文地址:https://blog.csdn.net/cjj2006/article/details/139858544