推荐看这个链接,有些问题解决出处https://zhuanlan.zhihu.com/p/643824521
以及这个https://blog.csdn.net/weixin_40547993/article/details/131775275
ChatGLM2-6B版本要装PYTORCH2.0,而且要2.0.1 ,所以CUDA不能用12.0 ,只能用11.x 版本,11.5也不支持,推荐11.8。
cuda和cudnn安装教程推荐
python大于3.8即可
conda create -n chatGLM python==3.8
https://huggingface.co/THUDM/chatglm2-6b
或者国内镜像(不能翻墙的福音)
https://gitee.com/dadac/ChatGLM2-6B
- cd chatglm2-6b
- pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
- #必要可以加清华源
修改代码,web_demo.py和web_demo2.py
- #你模型的位置
- tokenizer = AutoTokenizer.from_pretrained("chatglm2-6b", trust_remote_code=True)
- model = AutoModel.from_pretrained("chatglm2-6b", trust_remote_code=True).cuda()
运行python web_demo.py或者streamlit run web_demo2.py
我运行前者,问答没有结果,运行后者结果