上云无忧 > 文档中心 > 百度智能云GPU云服务器搭基于GPU实例部署NGC环境
GPU云服务器
百度智能云GPU云服务器搭基于GPU实例部署NGC环境

文档简介:
基于GPU实例部署NGC环境 背景介绍 NGC,Nvidia GPU Cloud是由NVIDIA和第三方ISV提供的GPU优化过的软件仓库,主要用于AI,HPC及虚拟化等领域。其中提供了众多容器(containers)、预训练的模型(pre-trained models)、用于Kubernetes部署的Helm charts、以及带有软件开发工具包(SDK)的行业特定AI工具包等。
*此产品及展示信息均由百度智能云官方提供。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

基于GPU实例部署NGC环境

背景介绍

NGC,Nvidia GPU Cloud是由NVIDIA和第三方ISV提供的GPU优化过的软件仓库,主要用于AI,HPC及虚拟化等领域。其中提供了众多容器(containers)、预训练的模型(pre-trained models)、用于Kubernetes部署的Helm charts、以及带有软件开发工具包(SDK)的行业特定AI工具包等。使用NGC可以为开发人员简化建立、定制化和GPU优化的软件的集成等过程,加速整个开发的实现过程。

前提条件:

用户需要注册NGC的账号:https://ngc.nvidia.com/signin

操作方法:

  1. 创建一台GPU实例,操作方法请参考创建GPU实例。

    注:选择实例镜像时候,需要选择NGC-Ready的系统镜像,目前NGC支持的系统镜像包括: Ubuntu 16.04, 18.04, and 20.04 RHEL 7.5 and 7.6

百度智能云目前已经提供了支持NGC-Ready的系统镜像,如需查看百度云支持的公共系统镜像请详见这里

  1. 对GPU实例安装GPU驱动,建议安装针对具体操作系统的最新版本的驱动,安装工驱动的方法,可以参考公共镜像使用步骤中提到的方式。
  2. 安装Docker 和 针对NVIDIA GPU的Docker Utility Engine,即nvidia-docker

Docker的安装方法可以参考这里: Ubuntu, CentOS.

这里我们以Ubuntu为例,具体信息请参考链接。

安装的操作顺序包括:1)安装Docker的预备条件;2)添加Docker官方的GPG key;3)添加官方稳定的Docker仓库

$sudo apt-get install -y ca-certificates curl software-properties-common
$curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-ey add –
$sudo add-apt-repository “deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable”

安装nvidia-docker:

curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add –
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list
 | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update
sudo apt-get install -y nvidia-docker2
sudo usermod -aG docker $USER
sudo systemctl daemon-reload
sudo systemctl reload docker

  1. NGC的API key生成

成功注册完NGC账号之后,需要生成账户的API key,生成的过程需要登录NGC页面,点击账户名,选择Setup,会进入Setup页面,然后点击Get API Key,进入生成API Key的页面。

进入页面之后,点击Generate API Key

系统会让你确认是否生成API Key,点击Confirm确认之后,页面会变为类似于如下图所示:  在Password处会显示一连串密码,用户返回GPU实例的shell界面按照图中的操作即可

$ docker login nvcr.io
Username: $oauthtoken
Password:[输入您生成的密码]
  1. 使用NGC中的镜像

    这里,我们以Triton为例:

• 进入NGC的CATALOG的目录部分,选择CONTAINERS分支,在Query查询中输入框架名称Triton

• 点击下面的Triton Inference Server的页面框,关于框架的介绍及拉取镜像的方法则会展示出来

• 我们按照上图中红色方框展示的命令,可以获得最新版本的容器镜像,继续在GPU实例的命令行中输入命令,即可

$ docker pull nvcr.io/nvidia/tritonserver:21.02-py3

这样,我们就可以以docker 容器的方式去使用框架或软件产品了。

相似文档
  • 背景介绍 本文介绍如何在GPU云服务环境中下载、安装并使用TensorRT工具。 TensorRT,是Nvdia推出的一套专为深度学习推理打造的SDK。在推理阶段,基于TensorRT的应用可以提供同比单一CPU平台高达40倍的加速效果。
  • 本文介绍如何在GPU云服务环境中下载、安装并使用RAPIDS软件库。 RAPIDS是一套开源的软件库,旨在提供给用户一整套能够完全在GPU上执行的端到端的数据科学及其分析的API调用。它面向解析和数据科学中的常规数据处理任务,囊括了多种端到端的机器学习算法。
  • FPGA(Field Programmable Gate Array)云服务器是云环境中配备FPGA的计算实例,通过购买FPGA实例,您可以结合自身业务场景,利用百度智能云提供的完善的FPGA加速平台,以及配套的开发、模拟、调试、编译资源,快速地为您的业务构建专属的FPGA硬件加速程序。
  • 超高计算性能 • 每个FPGA实例配备16个CPU核心、64G内存和450G高速本地磁盘 • FPGA加速平台搭建20nm Xilinx XCKU115 FPGA,该FPGA芯片大约包含 150 万个逻辑元件,5520 个数字信号处理 (DSP) 引擎 • FPGA加速平台配备4通道DDR4,每个通道72bit,支持ECC,4个通道共8GB容量;2400MHz速率,提供76GB/s的访存带宽 • FPGA加速平台通过PCIE 3.0 x 8与虚机通信,通信带宽高达8GB/s
  • FPGA 云服务器提供完全的设备管理权限和全生命周期的运维管理服务。本文旨在帮助您快速在百度智能云管理控制台购买和管理FPGA云服务器。 FPGA 实例操作流程如下所示: 实名认证及注册百度智能云帐号; 申请开通FPGA服务; 创建FPGA实例; 选择适合的镜像类型,部署镜像。
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部