上云无忧 > 文档中心 > 百度智能云GPU云服务器计算型规格族
GPU云服务器
百度智能云GPU云服务器计算型规格族

文档简介:
计算型GPU 规格族 GPU系列 可用区 计算型GN5 Ampere A100 华北-北京 计算型GN3 Volta V100-32G 华北-北京、华北-保定 Turing T4 华北-北京、华北-保定、华南-广州、华东-苏州
*此产品及展示信息均由百度智能云官方提供。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

计算型GPU

规格族 GPU系列 可用区
计算型GN5 Ampere A100 华北-北京
计算型GN3 Volta V100-32G 华北-北京、华北-保定
Turing T4 华北-北京、华北-保定、华南-广州、华东-苏州
计算型GN2 Volta V100-16G 华南-广州、华东-苏州
计算型GN1 Pascal P4 华北-北京、华北-保定、华南-广州、华东-苏州
计算型vGN3-C Volta V100 华北-北京
Turing T4 华北-北京

计算型GN5

搭载Intel Xeon Icelake以及英伟达主流数据中心级GPU A100,为高密度计算场景提供澎湃算力。

Ampere A100系列

该系列正在测试中,暂未开放上线售卖。
  • 适用场景:

    • 人工智能大规模训练:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 高性能计算:生命科学,工业制造仿真,气象预测,计算物理等场景。
    • 高性能数据分析:数据集可视化,大数据分析等场景。
  • 规格特点:

    • 处理器:Intel Xeon icelake 8350,主频 2.6GHz
    • GPU:NVIDIA Tesla A100, FP16算力达到312TFLOPS,单GPU显存40GB HBM2,支持双向带宽600GB的Nvlink互联
    • 内存:DDR4,内存带宽2933MT/s,CPU内存比为1:8。
    • 存储:支持CDS云磁盘
    • 网络:实例网络性能与规格对应,内网带宽上限越高:

实例规格

实例 A100显卡数量 cpu 内存大小(GB) 内网带宽(Gbps) 网络收发包(万pps) 对列数
bcc.gn5.c14m112.1A100 1张 14核 112 4 150 8
bcc.gn5.c28m224.2A100 2张 28核 224 7 280 8
bcc.gn5.c56m448.4A100 4张 56核 448 13 500 16
bcc.gn5.c112m896.8A100 8张 112核 896 25 700 16

计算型GN3

搭载Intel Xeon Cascade系列以及英伟达主流数据中心级GPU,为并行计算场景提供澎湃算力。根据实际场景需要,GPU加速卡可选择NVIDIA V100 SXM或者NVIDIA T4等

Volta V100系列

  • 适用场景:

    • 人工智能训练及大模型推理:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 高性能HPC计算:生命科学,CAE,气象预测,碰撞仿真等场景。
    • 高性能数据分析:数据集可视化,大数据分析等场景。
    • 编解码:视频流,图片流编解码等场景。
  • 规格特点:

    • 处理器:Intel Xeon Gold 6271C,主频 2.6GHz
    • GPU:NVIDIA V100 SXM2, FP16算力达到125TFLOPS,单GPU显存32GB HBM2,GPU互联支持带宽300GB/s NVLink。
    • 内存:DDR4,内存带宽2933MT/s,CPU内存比为1:8。
    • 存储:支持CDS云磁盘
    • 网络:实例网络性能与规格对应,内网带宽上限越高:

实例规格

实例 V100-32GB显卡数量 vcpu数量 内存大小(GB) 内网带宽(Gbps) 网络收发包(万pps) 对列数
bcc.gn3.c10m80.1v100-32g 1张 10核 80 4 150 8
bcc.gn3.c20m160.2v100-32g 2张 20核 160 7 280 8
bcc.gn3.c40m320.4v100-32g 4张 40核 320 13 500 16
bcc.gn3.c80m640.8v100-32g 8张 80核 640 25 700 16

Turing T4系列

  • 适用场景:

    • 人工智能推理:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 高性能数据分析:数据集可视化,大数据分析等场景。
    • 编解码:视频流,图片流编解码等场景。
  • 规格特点:

    • 处理器:Intel Xeon Gold 6271C,主频 2.6GHz
    • GPU:NVIDIA T4, INT8算力达到130TFLOPS,单GPU显存16GB
    • 内存:DDR4,内存带宽2666MT/s,CPU内存比为1:4。
    • 存储:支持CDS云磁盘
    • 网络:实例网络性能与规格对应,内网带宽上限越高:

实例规格

实例 T4显卡数量 vcpu数量 内存大小(GB) 内网带宽(Gbps) 网络收发包(万pps) 对列数
bcc.gn3.c20m80.1t4 1张 20核 80 6 280 8
bcc.gn3.c40m160.2t4 2张 40核 160 11 500 16
bcc.gn3.c80m320.4t4 4张 80核 320 22 700 16

计算型GN2

搭载英伟达主流数据中心级GPU V100 SXM2 16GB,为高密度计算场景提供澎湃算力。

  • 适用场景:

    • 人工智能训练及推理:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 高性能HPC计算:生命科学,金融服务,气象预测,碰撞仿真等场景。
    • 高性能数据分析:数据集可视化,大数据分析等场景。
    • 编解码:视频流,图片流编解码等场景。
  • 实例规格:

    • 处理器:处理器:Intel® Xeon® Skylake 6148,主频 2.4GHz
    • GPU:NVIDIA V100 SXM2, FP16算力达到125TFLOPS,单GPU显存16GB HBM2,GPU互联支持总带宽300GB/s NVLink。
    • 内存:DDR4,内存带宽2666MT/s
    • 存储:支持CDS云磁盘

实例规格

实例 V100-16G显卡数量 vcpu数量 内存大小(GB)
bcc.lgn2.c8m64.1v100-16g 1张 8核 64
bcc.lgn2.c16m128.2v100-16g 2张 16核 128
bcc.lgn2.c32m256.4v100-16g 4张 32核 256
bcc.lgn2.c64m512.8v100-16g 8张 64核 512

计算型GN1

搭载英伟达主流数据中心级GPU P4,适用于数据中心人工智能推理。

Pascal P4系列

  • 适用场景:

    • 人工智能推理:例如图像识别,目标检测、语义分割等场景。
    • 数据分析:数据集可视化,大数据分析等场景。
    • 编解码:视频流,图片流编解码等场景。
  • 规格特点:

    • 处理器:Intel Xeon Gold 6271C,主频 2.6GHz
    • GPU:NVIDIA P4, 整数型算力达到22TFLOPS,单GPU显存8GB
    • 内存:DDR4,内存带宽2666MT/s
    • 存储:支持CDS云磁盘

实例规格

实例 P4显卡数量 vcpu数量 内存大小(GB)
bcc.lgn1.c12m40.1p4 2张 12核 40
bcc.lgn1.c24m80.2p4 2张 24核 80
bcc.lgn1.c48m160.4p4 4张 48核 160

计算型vGN3-C

该规格族目前以白名单形式开放,如有需要您可以提交工单

搭配NVIDIA主流数据中心分片虚拟化后的vGPU,提高GPU使用性价比以及GPU的资源利用率。

Volta V100系列

该实例适用于计算场景,如人工智能计算,开发机。如果您需要实例支持例如OpenGL或者Windows DirectX等完整图形图像功能,请使用百度智能云渲染型GPU实例vGN3-Q

  • 适用场景:

    • 人工智能推理:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 人工智能小规模训练:例如图像识别,目标检测等场景。
    • 人工智能的模型开发、教学环境.
  • 实例规格:

    • 处理器:Intel Xeon Gold 6271C,主频 2.6GHz
    • GPU:NVIDIA® Tesla® V100 vGPU,GPU显存支持8G或16G
    • 内存:DDR4,内存带宽2666MT/s,CPU内存比为1:6
    • 存储:支持CDS云磁盘
    • 网络:实例网络性能与规格对应,内网带宽上限越高:

实例规格

实例 V100显卡数量 显存大小(GB) vcpu数量 内存大小(GB) 内网带宽(Gb) 网络收发包(万pps)
bcc.vgn3.c2m12.1v100-32g-8C 1/4张 8 2核 12 1.5 40
bcc.vgn3.c4m24.1v100-32g-16C 1/2张 16 4核 24 1.5 80

Turing T4系列

该实例适用于计算场景,如人工智能推理。如果您需要实例支持例如OpenGL或者Windows DirectX等完整图形图像功能,请使用百度智能云渲染型GPU实例vGN3-Q

  • 适用场景:

    • 人工智能推理:例如图像识别,目标检测,无人驾驶,语义分析,广告推荐等场景。
    • 人工智能的模型开发、教学环境.
  • 实例规格:

    • 处理器:Intel Xeon Gold 6271C,主频 2.6GHz
    • GPU:NVIDIA T4 vGPU,单实例GPU显存支持4 GB或8 GB。
    • 内存:DDR4,内存带宽2666MT/s,CPU内存比为1:4。
    • 存储:支持CDS云磁盘
    • 网络:实例网络性能与规格对应,内网带宽上限越高:

实例规格

实例 T4显卡数量 显存大小(GB) vcpu数量 内存大小(GB) 内网带宽(Gb) 网络收发包(万pps)
bcc.vgn3.c4m16.1t4-4C 1/4张 4 4核 16 1.5 80
bcc.vgn3.c10m40.1t4-8C 1/2张 8 10核 40 4 150
相似文档
  • 渲染型vGN3-Q 该规格族目前以白名单形式开放,如您有需要可以提交工单 搭配NVIDIA主流数据中心GPU T4以及license vDWS授权(镜像可选),为主流以及高端设计师提供强大的3D内容创作应用例如OpenGL图形显示、DirectX等图形功能,方便您既可以使用GPU的计算功能,也可以使用图形图像处理的全部功能,
  • GPU 云服务器有预付费和后付费两种计费模式。具体规则如下: 预付费需要提前一次性支付几个月或者几年的费用,价格较后付费更低。 后付费采用按小时扣费,即北京时间整点扣费并生成账单。出账单时间是当前计费周期结束后1小时内。
  • GPU云服务器是基于NVIDIA GPU卡的高性能云计算服务。我们采用成熟的Passthrough技术将GPU卡透传给高配云服务器,使每位用户都能独享一块或多块GPU卡,确保GPU性能完美发挥。
  • 操作步骤 登录BCC管理控制台主界面。 登录成功后,选择“产品服务>云服务器 BCC”,进入“实例列表”页面。 根据需要选择当前区域,可用区,付费模式。GPU云服务器支持【预付费】以及【后付费】付费模式,具体配置信息如下
  • GPU专用镜像使用说明 GPU专用镜像中,会集成GPU驱动、CUDA、cuDNN、主流深度学习框架等,具体信息如下: GPU专用镜像 CUDA版本 cuDNN 深度学习框架版本 Ubuntu 16.04 LTS amd64 (64bit)-CUDA9.2 CUDA 9.2 cuDNN 7.1.4 无
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部