GLM-4-9b-chat部署简要过程

1、前置条件:Linux下安装conda、cuda、docker、pip、git等环境类工具类支持,安装过程可以从网络上找资料。

2、下载GLM-4预训练模型文件

mkdir GLM-4

cd GLM-4

git clone https://www.modelscope.cn/tclf90/glm-4-9b-chat-GPTQ-Int8.git

3、下载GLM-4权重和代码文件

git clone https://github.com/THUDM/GLM-4.git

4、建立conda环境并激活

conda create --name glm4 python=3.10
conda activate glm4

5、进入api服务目录安装各种依赖

cd GLM-4&cd basic_demo

pip install -r requirements.txt

6、启动api服务(对其openai接口)

修改openai_api_server.py参数(模型文件目录、量化参数、显存配置等)

启动python openai_api_server.py

中间有很多报错信息,需要挨个解决,多为缺少补充依赖等问题。使用pip install安装

至此,GLM-4模型部署完毕。

You may also like...

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

[em30] [em29] [em28] [em27] [em26] [em25] [em24] [em23] [em22] [em21] [em20] [em19] [em18] [em17] [em16] [em15] [em14] [em13] [em12] [em11] [em10] [em09] [em08] [em07] [em06] [em05] [em04] [em03] [em02] [em01]