百度飞桨的aistudio,部署glm2-6b推理测试

一、环境准备

百度飞桨网址
相比其他可以免费试用的gpu环境,百度飞桨更为大方,提供了最大128GB显存的免费算力,每天免费8点算力卡。(看飞桨后续是否会调整)

  • V100四卡 4*32GB显存,16c/128gb
  • A100 40GB,12c/96gb
  • V100 32GB,4c/32gb
  • V100 16GB, 2c/16gb
  • DCU 16GB, 2c/16gb

创建项目

创建一个个人项目,需要注意如果是提前下载好model,需要在创建项目时挂载数据集。
速度会快很多
挂载飞桨已有glm > 提前下载model > 在飞桨的环境里git lfs clone
模型下载

启动环境

这里我只做部署推理6b模型,预计需要12-13GB显存,选择小一点的就够了。
用的是 V100 16GB,0.5点/小时,一天可以16个小时,足够测试用了。


image.png

确认显卡

nvidia-smi


image.png

二、模型和代码准备

python

conda create -n py310 python=3.10
conda init
conda activate py310
python -V

image.png

model

下载+挂载模型文件(模型实现在变动中,固定模型版本162b620,保证后续操作的兼容性)

下载模型文件(除模型权重lfs大文件)

cd work
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b

方式一,直接挂载百度飞桨上已有的glm2模型

glm2-6b模型

image.png

cd ~/data/dataxxxx
unzip chatglm2-6b.zip
mv pytorch* ~/work/chatglm2-6b/
mv

方式二,自己下载上传glm2模型

先把模型下载到本地,再上传到自己的百度云盘。
模型下载

image.png

从百度云盘上传数据集到百度飞桨(速度很快)
飞桨挂载数据集

image.png

code

代码commit号877ef10d85c93ddfcfe945fcdc764393a52541b8 (https://github.com/THUDM/ChatGLM2-6B/tree/877ef10d85c93ddfcfe945fcdc764393a52541b8

git clone https://github.com/THUDM/ChatGLM2-6B
cd ChatGLM2-6B
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

备份package (避免每次重新install,可选操作)

mkdir -p ~/work/pip/lib/python310/site-packages
cp -r /home/aistudio/.conda/envs/py310/lib/python3.10/site-packages/* /home/aistudio/work/pip/lib/python310/site-packages/
vi /home/aistudio/.conda/envs/py310/lib/python3.10/site.py

# Enable per user site-packages directory
# set it to False to disable the feature or True to force the feature
ENABLE_USER_SITE = True

# for distutils.commands.install
# These values are initialized by the getuserbase() and getusersitepackages()
# functions, through the main() function when Python starts.
USER_SITE = "/home/aistudio/work/pip/lib/python310/site-packages"
USER_BASE = None

python -m site --user-site

模型推理

cd ~/work/ChatGLM2-6B
vi helloworld_glm2.py

from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("/home/aistudio/chatglm2-6b", trust_remote_code=True, revision="")
model = AutoModel.from_pretrained("/home/aistudio/chatglm2-6b", trust_remote_code=True, revision="").half().cuda()
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)

python helloworld_glm2.py

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容