美文网首页
ChatGLM3环境部署

ChatGLM3环境部署

作者: 梅西爱骑车 | 来源:发表于2023-11-13 21:33 被阅读0次

一、ChatGLM3简介

在2023年的10月27日,智谱AI在中国计算机大会(CNCC)上推出了其自主研发的第三代大型语言模型ChatGLM3及其相应的产品线,自6月25日ChatGLM2的发布后,ChatGLM3的发布是对智谱AI对话大模型的重要升级。这家创业公司在六个月内将大语言模型(从GLM2)推进到了第三代。

最新版本的ChatGLM-turbo在最新AgentBench上已略超出GPT-3.5。在算力方面,ChatGLM3已支持昇腾、海光DCU等10余种国产硬件生态。

核心的升级之一是赋予ChatGLM3以代码交互能力,使得智谱清言成为了国内首款具备(面向开发人员的)Code Interpreter功能的大模型产品。
基于ChatGLM3的智谱清言地址:https://chatglm.cn/main/detail

智谱清言页面截图

二、ChatGLM3部署

ChatGLM3除了显卡方式还支持用者以CPU(需要Xinfrance框架支持)部署,这样对没GPU资源的情况下部署大模型成为可能。

2.1 本地部署

因英伟达GPU出口限制和需求量过大,AI算力普遍吃紧,别说A100加速计算卡,就是A10也一票难求,所以使用云AI算力很贵。因为本地部署省钱,我一开始考虑本地部署,但是大模型不是口头的大,其硬件要求也大:
[内存32G or (显卡显存13G+内存13G )] and 22G硬盘空间
显存普遍是软肋,我看了一下我电脑显存是可怜128M,不是G,看来编程完全可以的电脑在大模型面前就是老态龙钟的老汉,让他从事最时髦的“时装秀”是完全不可能的事,身材不中啊!!

老IT的显存

查了一下半专业人士——俺家闺女的笔记本,她的显卡是今年6月NVIDIA刚刚推出的RTX 4060,具备16GB GDDR6 显存,根据一位朋友说:他的笔记本用较老的3070显卡跑的GLM3是输出5个字左右每秒,如果用RTX 4060完全满足使用要求。

彪悍的RTX 4060显卡

因为我的硬件严重没达标,被迫转向了第二种方案使用云厂商的环境进行搭建。

2.2 云环境部署

基于云环境两种方式进行部署,详见:

  1. 阿里云环境
  2. 魔塔社区(待续)

相关文章

  • Hive | 环境部署

    环境部署 环境准备 java环境 mysql环境部署 hive环境部署 服务端配置 客户端配置

  • 日志收集系统方案对比&选型&实现

    背景 我们这边应用部署的环境比较复杂,主要有以下几种: 机器直接部署 通过kubernates集群部署 部署环境不...

  • 项目环境部署

    Windows 环境部署 Linux 环境部署 移植项目 为什么移植环境? Windows中,将ranzhi的文...

  • 本地部署 yapi 环境

    本地部署 yapi 环境 本地部署 windows环境[https://www.cnblogs.com/beil...

  • Jenkins 一键部署

    简介 搭建方式 手动部署 docker部署 手动部署 1、环境要求 检查java环境是否为1.8 2、添加jenk...

  • 如何用 Python 做自动化测试

    一、Selenium 环境部署 1. window 环境部署 1.1 当前环境 Win10 64 位系统;Pyth...

  • 内网部署gitlab

    联网环境,准备 内网环境部署

  • Vue-CLI 3.x 自动部署项目至服务器

    前言 平时部署前端项目流程是:先部署到测试环境ok后再发布到生产环境上,部署到测试环境用 xshell 连上服务器...

  • 环境部署

    概述 服务器的操作系统是Ubuntu14.04(64位),使用Nginx作为反向代理,uWSGI作为HTTP服务器...

  • 环境部署

    首先是打开官方的LibGDX部署工具(jar包),工具中有可选参数,首先是游戏名,包名,游戏类,部署工具导出项目的...

网友评论

      本文标题:ChatGLM3环境部署

      本文链接:https://www.haomeiwen.com/subject/kvydwdtx.html