上云无忧 > 文档中心 > 腾讯云GPU云服务器安装 NVIDIA 驱动 - 安安装 CUDA
GPU云服务器
腾讯云GPU云服务器安装 NVIDIA 驱动 - 安安装 CUDA

文档简介:
操作场景: CUDA(Compute Unified Device Architecture)是显卡厂商 NVIDIA 推出的运算平台。CUDA™ 是一种由 NVIDIA 推出的通用并行计算架构,该架构使 GPU 能够解决复杂的计算问题。它包含了 CUDA 指令集架构(ISA)以及 GPU 内部的并行计算引擎。
*此产品及展示信息均由腾讯云官方提供。免费试用 咨询热线:400-826-7010,为您提供专业的售前咨询,让您快速了解云产品,助您轻松上云! 微信咨询
  免费试用、价格特惠

操作场景

CUDA(Compute Unified Device Architecture)是显卡厂商 NVIDIA 推出的运算平台。CUDA™ 是一种由 NVIDIA 推出的通用并行计算架构,该架构使 GPU 能够解决复杂的计算问题。它包含了 CUDA 指令集架构(ISA)以及 GPU 内部的并行计算引擎。 开发人员目前可使用 C 语言、C++ 及 FORTRAN 来为 CUDA™ 架构编写程序,所编写出的程序可在支持 CUDA™ 的处理器上以超高性能运行。
GPU 云服务器采用 NVIDIA 显卡,则需要安装 CUDA 开发运行环境。本文以目前最常用的 CUDA 10.1 为例,您可参考以下步骤进行安装。

操作步骤

Linux 系统指引

1. 前往 CUDA 下载 页面或访问 https://developer.nvidia.com/cuda-toolkit-archive
2. 选择 GPU 驱动对应的 CUDA 版本,本文以 CUDA Toolkit 10.1 为例。如下图所示:

3. 按照页面上的提示,依次选择操作系统和安装包。本文选择方式如下图所示:
注意
Installer Type:推荐选择 runfile(local)。
network:网络安装包,安装包较小,需要在主机内联网下载实际的安装包。
local:本地安装包。安装包较大,包含每一个下载安装组件的安装包。

4.
选择完成出现以下信息时,
右键单击【Download】并选择菜单中的【复制链接地址】。如下图所示:

5. 参见 使用标准方式登录 Linux 实例(推荐),登录 GPU 实例。您也可以根据实际操作习惯,选择其他不同的登录方式:
使用远程登录软件登录 Linux 实例
使用 SSH 登录 Linux 实例
6. 使用 wget 命令, 粘贴 步骤4 中已获取的链接,下载安装包。如下图所示:

或者您可在本地系统下载 CUDA 安装包,再上传到 GPU 实例的服务器。
7. 依次执行以下命令,对安装包添加执行权限。例如,对文件名为 cuda_10.1.105_418.39_linux.run 添加执行权限。
		
sudo chmod +x cuda_10.1.105_418.39_linux.run
		
sudo ./cuda_10.1.105_418.39_linux.run --toolkit --samples --silent
注意:
安装 CUDA 过程中,Driver 选项表示是否安装 GPU 驱动,如果您已经安装了 GPU 驱动,请取消勾选。

8. 重启系统。
9. 依次执行以下命令,配置环境变量。
		
echo 'export PATH=/usr/local/cuda/bin:$PATH' | sudo tee /etc/profile.d/cuda.sh
		
source /etc/profile
10.
依次执行以下命令
,验证 CUDA 安装是否成功。
		
cd /usr/local/cuda-10.1/samples/1_Utilities/deviceQuery
		
make
		
./deviceQuery
如返回结果显示 Result=PASS,则表示 CUDA 安装成功。 若执行 make 命令后,出现如下图所示错误。

则执行以下命令,安装对应的 gcc 包即可。
		
yum install -y gcc-c++
安装完成后,再次执行 步骤10 进行验证即可。

Windows 系统指引

1. 参见 使用 RDP 文件登录 Windows 实例(推荐),登录 GPU 实例。
2. 访问 CUDA 官网。
3. 选择对应的 CUDA 版本,本文以 CUDA Toolkit 10.1 为例。如下图所示:

4. 按照页面上的提示,依次选择操作系统和安装包。本文选择方式如下图所示:

5. 打开下载 CUDA 所在的文件夹,双击安装文件开始安装,按照界面上的提示安装程序并根据需要重启实例。 若最后出现完成对话框,则表示安装成功。如下图所示:

相似文档
  • 操作场景: 为方便用户使用,云市场提供了预装 GPU 驱动的镜像。在创建 GPU 实例时,可以通过镜像市场选择相关镜像完成部署。
  • 操作场景: 为方便用户使用,云市场提供了预装 GPU 驱动和 AI 环境的镜像。在创建 GPU 实例时,可以通过镜像市场选择相关镜像完成部署。
  • 监控与告警是保证 GPU 云服务器高可靠性、高可用性和高性能的重要部分。创建 GPU 云服务器时,默认免费开通云监控。您可通过 云服务器控制台 查看监控指标,详细说明请参见 云服务器监控内容。NVIDIA GPU 系列实例另外提供了监控 GPU 使用率,显存使用量,功耗以及温度等参数的能力。
  • 背景信息: 近几年随着 AI 模型参数的倍增及训练数据的日益增长,用户对模型迭代效率的需求也随之增长,单个 GPU 的算力和显存资源已无法满足大部分业务场景,使用单机多卡或多机多卡训练已成为趋势。
  • 操作场景: 本文介绍如何基于云服务器 CVM 搭建 torch+Taco Train 分布式训练集群,更多最佳实践请参见 计算加速套件 TACO Kit 文档。
官方微信
联系客服
400-826-7010
7x24小时客服热线
分享
  • QQ好友
  • QQ空间
  • 微信
  • 微博
返回顶部