上云无忧 > 文档中心 > 腾讯云计算加速套件 TACO Kit - TACO Infer 部署 Stable Diffusion web UI
计算加速套件TACO Kit
腾讯云计算加速套件 TACO Kit - TACO Infer 部署 Stable Diffusion web UI

文档简介:
操作场景: 本文将演示如何使用 GPU 云服务器部署优化过的 AI 绘画模型 web UI 界面,结合 TACO Infer 的加速能力助力您获得 30% 以上的端到端性能提升。
*此产品及展示信息均由腾讯云官方提供。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

操作场景

本文将演示如何使用 GPU 云服务器部署优化过的 AI 绘画模型 web UI 界面,结合 TACO Infer 的加速能力助力您获得 30% 以上的端到端性能提升。

操作步骤

购买 GPU 云服务器

购买实例,其中实例、存储及镜像请参见以下信息选择,其余配置请参见 通过购买页创建实例 按需选择。
实例: 选择 计算型 PNV4
系统盘:配置容量不小于 200GB 的云硬盘。
镜像:建议选择公共镜像
操作系统使用 CentOS 7.9。
选择公共镜像后请勾选后台自动安装GPU驱动,实例将在系统启动后预装对应版本驱动。如下图所示:

注意:
当前优化版本仅支持 A10 GPU 机型,请检查您的实例配置。

安装docker和NVIDIA docker

1. 参见 使用标准登录方式登录 Linux 实例,登录实例。
2. 执行以下命令,安装 docker。
		
curl -s -L http://mirrors.tencent.com/install/GPU/taco/get-docker.sh | sudo bash
若您无法通过该命令安装,请尝试多次执行命令,或参见 Docker 官方文档 Install Docker Engine 进行安装。
说明:
如果您使用非 root 用户身份安装 Docker,请参考 Docker 官方文档进行安装后配置
3. 执行以下命令,安装 nvidia-docker2。
		
curl -s -L http://mirrors.tencent.com/install/GPU/taco/get-nvidia-docker2.sh | sudo bash
若您无法通过该命令安装,请尝试多次执行命令,或参见 NVIDIA 官方文档 Installation Guide & mdash 进行安装。

下载 docker 镜像

执行以下命令,下载 docker 镜像,演示需要的所有数据和运行环境全部打包在docker镜像中。
		
docker pull taco-0.tencentcloudcr.com/taco_serving/sd_v1.5_demo:v4
模型下载完成,查看下载的 docker 镜像:

下载优化后的模型

执行以下命令,创建 optimized_model 目录,下载模型后回到上层目录:
		
mkdir optimized_model && cd optimized_model
wget https://taco-1251783334.cos.ap-shanghai.myqcloud.com/demo/sd/unet/optimized_recursive_script_module.pt
cd ..

启动 docker 镜像

如果您当前所处路径是/root/,执行以下命令,启动 docker 镜像。或者 -v 参数修改为 optimized_model 所在目录。
		
docker run -it --rm --gpus=all --network=host -v /root/:/data taco-0.tencentcloudcr.com/taco_serving/sd_v1.5_demo:v4 --listen

启动 Stable Diffusion web UI

复制 public URL 到浏览器,即可打开 webUI界面。或者您可以选择将 local URL 的 0.0.0.0 替换成公网 IP,在浏览器打开页面。

TACO Infer 优化过的模型单张图片处理时间约 1 秒,开源模型单张图片处理时间约 2 秒。

经过 TACO infer 优化,模型的前向推理能力提升 4 倍多,端到端性能提升 50%,由原来的约 2 秒缩短到 1 秒。
相似文档
  • Q:计算加速套件TACO Kit 包含哪些产品? A:包含 TACO Train AI 训练加速引擎和 TACO Infer AI 推理加速引擎。
  • 利用批量计算(BatchCompute 简称 Batch),您可以在云服务器上运行批量计算工作负载。Batch 是开发人员、科学家和工程师用来访问大量计算资源的常见方法,并且 Batch 可以免去配置和管理所需基础设施的繁重工作。Batch 与传统的批量计算软件类似。此服务可以有效地预配置资源以响应提交的作业,达到消除容量限制、降低计算成本和快速交付的目的。
  • 基因测序: 生物信息公司或实验室利用测序仪获取基因组序列的原始文件,在完成基因组序列的初步分析后将信息上传到云上存储系统,例如对象存储 COS,然后通过腾讯云批量计算 Batch 对信息进行更进一步分析。
  • 零预投入成本: 用户可以在需要时免费调用海量的云服务器资源,为 Batch 服务所用,仅需为您使用到的云服务器付费。同时,用户无需担心建设和维护基础设施,节约成本及时间。
  • 作业: 作业(Job)是用户提交批处理工作的最小单位,它由单个或多个有前后依赖关系的任务组成。可以通过非常易用的 DAG 语法,来给多个批处理任务设置依赖关系,共同组成一个作业,然后依次执行各个任务,直到所有任务完成,即作业完成。
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部