目前开源的LLM大模型,要想比较流畅地进行部署体验,离不开GPU算力。本文介绍基于阿里云的机器学习平台PAI来免费体验一些开源大模型。
创建好空间,直接创建交互式建模(DWS)实例,这里我们需要注意的是只能选择可以抵扣算力的GPU:
镜像选择pytorch:1.12-gpu-py39-cu113-ubuntu20.04即可,创建完毕在**交互式建模(DSW)**选中创建的目标点击打开:
具体操作页面如下:
就是基于**JupyterLab**修改的界面,很好上手,接下来就让我们用这个免费的算力来体验一下各类开源LLM大模型吧。
接下来将以开源领域比较出名的几个LLM为例,跑起来体验一下,开始前做好一些准备工作:
运行项目,基于transformers快速使用:
ChatGLM-6B提供了cli&web&api三种使用方式,使用前请将这三个文件全部修改下模型目录:
比如我演示环境模型目录下载位置是/mnt/workspace/chatglm-6b,改动后代码如下:
tokenizer=AutoTokenizer.from_pretrained("/mnt/workspace/chatglm-6b",trust_remote_code=True)model=AutoModel.from_pretrained("/mnt/workspace/chatglm-6b",trust_remote_code=True).half().cuda()接下来启动运行对应脚本即可体验:
准备好项目和模型:
model_path=args.model_nameifnotos.path.exists(args.model_name):model_path=snapshot_download(args.model_name)改为:
#model_path=args.model_name#ifnotos.path.exists(args.model_name):#model_path=snapshot_download(args.model_name)model_path="/mnt/workspace/moss-moon-003-sft-int4"然后执行:
如果想使用web交互版本:
pipinstallaccelerate只能说,勉强能跑:
感谢阿里云的免费计划,整体体验下来感觉还是不错的,其实就相当于可选的A10&V100GPU让你体验使用,大家可以发挥想象力来使用,有什么问题欢迎沟通交流。