美文网首页
本地安装 ChatGLM

本地安装 ChatGLM

作者: 原水寒 | 来源:发表于2023-05-14 22:00 被阅读0次

以 windows11 为例

安装 anaconda

下载安装

官网 下载安装包 exe,一路点击安装。之后配置环境变量。

配置环境变量

右击此电脑 => 属性 => 高级系统设置 => 系统变量中的 Path 变量添加以下三行:

D:\anaconda\anaconda3 // 安装路径
D:\anaconda\anaconda3\Scripts
D:\anaconda\anaconda3\Library\bin

环境变量如果不生效,可以重启电脑,或者搜索引擎里搜一下解决方案。之后,在命令行中输入:conda --version,正确显示出版本,则 conda 安装成功。

conda 23.3.1

常用的 conda 命令:https://zhuanlan.zhihu.com/p/67745160

安装 ChatGLM

下载 ChatGLM 源码

去官网克隆代码(如果没装 git,先安装 git)

cd D:\project\
git clone https://github.com/THUDM/ChatGLM-6B

根据硬件要求,修改 ChatGLM-6B 下的 web_demo.py 文件。

量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调)
FP16(无量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB
// 如果使用无量化版本,则保持不变
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()

// 如果使用INT8版本,改动如下
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int8", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int8", trust_remote_code=True).half().cuda()

// 如果使用INT4版本,改动如下
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).half().cuda()

创建虚拟环境

两种方式:
第一种使用界面UI(Anaconda Navigator),点击创建环境,选择 python3.10 即可。创建环境完成之后,点击如下三角按钮,进行环境激活,然后点击打开该环境下的 shell 界面。


image.png

第二种:在 git_bash 下执行如下命令

conda create -n chatglm python=3.10
source D:\anaconda\anaconda3\etc\profile.d\conda.sh // 其中 D:\anaconda\anaconda3\ 是安装目录,执行该命令是解决这个问题 https://bobbyhadz.com/blog/commandnotfounderror-your-shell-has-not-been-properly-configured-to-use-conda-activate
conda activate chatglm

在虚拟环境下,进入 ChatGLM-6B 目录,安装依赖。

(chatglm) D:\project\ChatGLM-6B>pip install -r requirements.txt

注意:此处安装了 Downloading torch-2.0.1-cp310-cp310-win_amd64.whl

尝试启动 webUI:首次执行,会自动从huggingFace上下载模型,会下载到C:\Users\xxx\.cache\huggingface\hub\models--THUDM--chatglm-6b-int8,C 盘空间不够的可以自行下载模型,按照官网修改路径。

(chatglm) D:\project\ChatGLM-6B>python web_demo.py

下载日志如下:

Downloading (…)okenizer_config.json: 100%|████████████████████████████████████████████████████| 446/446 [00:00<?, ?B/s]
D:\anaconda\anaconda3\envs\chatglm\lib\site-packages\huggingface_hub\file_download.py:133
Downloading (…)enization_chatglm.py
Downloading ice_text.model
Downloading (…)lve/main/config.json
Downloading (…)iguration_chatglm.py
Downloading (…)/modeling_chatglm.py
Downloading (…)main/quantization.py
Downloading pytorch_model.bin:6.71G

启动过程中如果报错:

AssertionError: Torch not compiled with CUDA enabled

则需要去 pytorch 官网,选择与安装的 torch 版本兼容的相关依赖,如下,之后复制红框部分的命令,进行执行即可。

image.png
(chatglm) D:\project\ChatGLM-6B>conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia

之后,再次尝试启动,如果报错:

ModuleNotFoundError: No module named 'chardet'

则执行如下命令安装(ModuleNotFoundError 该类错误均可通过该方式进行解决),如果 pip install xxx 报错,可通过 conda install xxx 代替试试。

pip install chardet

之后,再次尝试启动,如果报错:

ModuleNotFoundError: No module named 'cchardet'

此时执行 pip install cchardet 报错,可通过 conda install cchardet 解决。
之后,再次尝试启动,看到如下信息,则表示成功。

Running on local URL:  http://127.0.0.1:7860

浏览器访问即可进行交流。


image.png

相关文章

  • Mac OS安装solr

    本地使用brew安装,如果没有安装brew需要安装brew (1)brew 安装 打开本地cmd 输入ruby -...

  • npm_npmscript前端工作流_gulp_webpack

    1.npm install _本地安装与全局安装的区别? npm的包安装分为本地安装(local)、全局安装(gl...

  • npm常用命令

    npm常用命令 安装 全局安装与本地安装 将包安装到全局环境中 本地安装 将安装包放在 ./node_module...

  • NPM使用

    一:简介 二:npm  1:npm install   scope:分为全局安装与本地安装,默认为本地安装,-g表...

  • SpringBoot 部署到linux服务器

    项目打包 如项目中包含本地jar需要安装到本地仓库 : 要安装的JAR的本地路径:要安装的JA...

  • 本地安装

    一 、下载 为了能够运行Flink,唯一的要求是有一个可以正常工作的的 Java8 或 Java11的环境。你可以...

  • 2019-03-14 Pytorch本地安装日志

    下面是pytorch本地安装。这几天网络有点问题,在线安装总是失败,索性下载了pytorch本地版本,尝试安装。(...

  • webpack安装

    安装方式:全局安装、本地安装 全局安装好处: npm会帮我们绑定一个命令行环境变量,一次安装、处处运行本地安装:会...

  • Hadoop-本地模式安装步骤

    说明 安装JDK 安装Hadoop 本地模式配置

  • IDEA本地运行spark程序

    idea 里面 加入scala sdk和 spark jar 本地安装spark 并启起来 本地安装scala 代...

网友评论

      本文标题:本地安装 ChatGLM

      本文链接:https://www.haomeiwen.com/subject/cvqdsdtx.html