文档简介:
GPU加速型
GPU加速云主机能够提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。特别适合于深度学习、科学计算、CAE、3D动画渲染、CAD、等应用。
GPU加速型云主机分为图形加速基础型(G1、G2、G5)和计算加速型(P1、P2V),其中:
• G1型云主机基于NVIDIA GRID虚拟GPU技术,提供较为经济的图形加速能力。同时,G1型云主机使用NVIDIA Tesla M60 GPU卡,能够支持DirectX、OpenGL,可以提供最大显存1GB、分辩率为4096×2160的图形图像处理能力,适用于图形渲染要求较高的应用。可以
提供如下规格:
类型 |
vCPU |
内存(GB) |
GPU |
GPU卡的型号 |
显存(GB) |
图形加速基础型G1 |
4 |
8 |
1 |
M60-1Q |
1 |
8 |
16 |
1 |
M60-2Q |
2 |
• G2型云主机基于NVIDIA Tesla M60硬件直通技术,提供图形加速和单精度计算能力。能够支持DirectX、OpenGL、CUDA、OpenCL,可以提供最大显存8GB、分辨率为4096×2160的图形图像处理能力,提供2048个CUDA核心,适用于媒体编辑、3D渲染、转码等。
类型 |
vCPU |
内存(GB) |
GPU |
GPU卡的型号 |
显存(GB) |
图形加速基础型G2 |
8 |
64 |
1 |
M60 |
8 |
• P1型云主机采用业界最先进的NVIDIA Tesla P100 GPU,在提供云主机灵活性的同时,提供极致性能体验和优良的性价比。P1型云主机支持GPU Direct技术,实现GPU之间的直接通信,搭载NvLink技术,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,在深度学习、图形数据库、高性能数据库、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势,适用于科学计算等。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
显存(GB) |
本地盘 |
虚拟化类型 |
p1.2xlarge.8 |
8 |
64 |
5/1.6 |
35 |
2 |
1×P100 |
1×16 |
1×800GB NVMe |
KVM |
p1.4xlarge.8 |
16 |
128 |
8/3.2 |
70 |
4 |
2×P100 |
2×16 |
2×800GB NVMe |
KVM |
p1.8xlarge.8 |
32 |
256 |
10/6.5 |
140 |
8 |
4×P100 |
4×16 |
4×800GB NVMe |
KVM |
• G5型云主机基于NVIDIA GRID虚拟化GPU技术,能够提供全面的专业级的图形加速能力。G5型云主机使用NVIDIA Tesla V100 GPU显卡,能够支持DirectX、OpenGL、Vulkan接口,提供1/2/8 GB三种显存规格,支持最大4096*2160分辨率,满足从入门级到专业级的图形处理需求。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
显存(GB) |
虚拟化类型 |
g5.xlarge.2 |
4 |
8 |
4/1 |
20 |
2 |
V100-1Q |
1 |
KVM |
g5.2xlarge.2 |
8 |
16 |
6/2 |
35 |
4 |
V100-2Q |
2 |
KVM |
g5.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
V100-4Q |
4 |
KVM |
g5.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
V100-8Q |
8 |
KVM |
g5.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
V100-16Q |
16 |
KVM |
• P2V型云主机采用NVIDIA Tesla V100 GPU,在提供云服务器灵活性的同时,提供高性能计算能力和优秀的性价比。P2V型云主机支持GPU NVLink技术,实现GPU之间的直接通信,提升GPU之间的数据传输效率。能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
GPU连接技术 |
显存(GB) |
虚拟化类型 |
p2v.2xlarge.8 |
8 |
64 |
10/4 |
50 |
4 |
1*V100 |
- |
1*16GB |
KVM |
p2v.4xlarge.8 |
16 |
128 |
15/8 |
100 |
8 |
2*V100 |
NVLink |
2*16GB |
KVM |
p2v.8xlarge.8 |
32 |
256 |
25/15 |
200 |
16 |
4*V100 |
NVLink |
4*16GB |
KVM |
p2v.16xlarge.8 |
64 |
512 |
30/30 |
400 |
32 |
8*V100 |
NVLink |
8*16GB |
KVM |
• Pi2型弹性云主机采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云主机借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格名称 | vCPU | 内存(GB) | 最大带宽/基准带宽(Gbps) | 最大收发包能力(万PPS) | 网卡多队列数 | GPU | 显存(GB) | 虚拟化类型 |
pi2.2xlarge.4 | 8 | 32 | 10/4 | 50 | 4 | 1×T4 | 1×16GB | KVM |
pi2.4xlarge.4 | 16 | 64 | 15/8 | 100 | 8 | 2×T4 | 2×16GB | KVM |
pi2.8xlarge.4 | 32 | 128 | 25/15 | 200 | 16 | 4×T4 | 4×16GB | KVM |