- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章docker挂载NVIDIA显卡运行pytorch的方法由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
写在前面:
请参考之前的文章安装好centos、nvidia相关驱动及软件、docker及加速镜像.
主机运行环境 。
1
2
3
4
5
6
7
8
9
10
11
|
$
uname
-a
linux centos 3.10.0-514.26.2.el7.x86_64
#1 smp tue jul 4 15:04:05 utc 2017 x86_64 x86_64 x86_64 gnu/linux
$
cat
/usr/local/cuda/version
.txt
cuda version 8.0.61
$
cat
/usr/local/cuda/include/cudnn
.h |
grep
cudnn_major -a 2
#define cudnn_major 6
#define cudnn_minor 0
#define cudnn_patchlevel 21
#define cudnn_version (cudnn_major * 1000 + cudnn_minor * 100 + cudnn_patchlevel)
#include "driver_types.h"
# nvidia 1080ti
|
1、关于gpu的挂载 。
1. 在docker运行时指定device挂载 。
先查看一下有哪些相关设备 。
1
2
3
4
5
6
|
$
ls
-la
/dev
|
grep
nvidia
crw-rw-rw- 1 root root 195, 0 nov 15 13:41 nvidia0
crw-rw-rw- 1 root root 195, 1 nov 15 13:41 nvidia1
crw-rw-rw- 1 root root 195, 255 nov 15 13:41 nvidiactl
crw-rw-rw- 1 root root 242, 0 nov 15 13:41 nvidia-uvm
crw-rw-rw- 1 root root 242, 1 nov 15 13:41 nvidia-uvm-tools
|
电脑上装了两个显卡。我需要运行pytorch,dockerhub中pytorch官方镜像没有gpu支持,所以只能先pull一个anaconda镜像试试,后面可以编排成dockerfile.
1
|
$ docker run -it -d --
rm
--name pytorch -
v
/home/qiyafei/pytorch
:
/mnt/home
--privileged=
true
--device
/dev/nvidia-uvm
:
/dev/nvidia-uvm
--device
/dev/nvidia1
:
/dev/nvidia1
--device
/dev/nvidiactl
:
/dev/nvidiactl
okwrtdsh
/anaconda3
bash
|
okwrtdsh的镜像似乎是针对他们实验室gpu环境的,有点过大了,不过勉强运行一下还是可以的。在容器内部还需要 。
安装pytorch:
1
|
$ conda
install
pytorch torchvision -c pytorch
|
这里运行torch成功,但是加载显卡失败了,可能还是因为驱动不匹配的原因吧,需要重新安装驱动,暂时不做此尝试; 。
2、通过nvidia-docker在docker内使用显卡 。
详细信息:https://github.com/nvidia/nvidia-docker 。
(1)安装nvidia-docker 。
nvidia-docker其实是docker引擎的一个应用插件,专门面向nvidia gpu,因为docker引擎是不支持nvidia驱动的,安装插件后可以在用户层上直接使用cuda。具体看上图。这个图很形象,docker引擎的运行机制也表现出来了,就是在系统内核之上通过cgroup和namespace虚拟出一个容器os的用户空间,我不清楚这是否运行在ring0上,但是cuda和应用确实可以使用了(虚拟化的问题,如果关心此类问题可以了解一些关于docker、kvm等等虚拟化的实现方式,目前是系统类比较火热的话题) 。
下载rpm包:https://github.com/nvidia/nvidia-docker/releases/download/v1.0.1/nvidia-docker-1.0.1-1.x86_64.rpm 。
这里也可以通过添加apt或者yum sourcelist的方式进行安装,但是我没有root权限,而且update容易引起docker重启,如果不是实验室的个人环境不推荐这么做,防止破坏别人正在运行的程序(之前公司一个小伙子就是在阿里云上进行了yum update,结果导致公司部分业务停了一个上午).
1
2
|
$
sudo
rpm -i nvidia-docker-1.0.1-1.x86_64.rpm &&
rm
nvidia-docker-1.0.1-1.x86_64.rpm
$
sudo
systemctl start nvidia-docker
|
(2)容器测试 。
我们还需要nvidia官方提供的docker容器nvidia/cuda,里面已经编译安装了cuda和cudnn,或者直接run,缺少image的会自动pull.
1
2
|
$ docker pull nvidia
/cuda
$ nvidia-docker run --
rm
nvidia
/cuda
nvidia-smi
|
在容器内测试是可以成功使用nvidia显卡的:
(3)合适的镜像或者自制dockerfile 。
合适的镜像:这里推荐floydhub的pytorch,注意对应的cuda和cudnn版本.
1
2
|
docker pull floydhub
/pytorch
:0.3.0-gpu.cuda8cudnn6-py3.22
nvidia-docker run -ti -d --
rm
floydhub
/pytorch
:0.3.0-gpu.cuda8cudnn6-py3.22
bash
|
自制dockerfile 。
首先,我们需要把要装的东西想清楚:
1. 基础镜像肯定是nvidia官方提供的啦,最省事,不用装cuda和cudnn了; 。
2. vim、git、lrzsz、ssh这些肯定要啦; 。
3. anaconda、pytorch肯定要啦; 。
所以需要准备好国内源source.list,否则安装速度很慢.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
deb-src http:
//archive
.ubuntu.com
/ubuntu
xenial main restricted
#added by software-properties
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial main restricted
deb-src http:
//mirrors
.aliyun.com
/ubuntu/
xenial main restricted multiverse universe
#added by software-properties
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-updates main restricted
deb-src http:
//mirrors
.aliyun.com
/ubuntu/
xenial-updates main restricted multiverse universe
#added by software-properties
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial universe
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-updates universe
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial multiverse
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-updates multiverse
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-backports main restricted universe multiverse
deb-src http:
//mirrors
.aliyun.com
/ubuntu/
xenial-backports main restricted universe multiverse
#added by software-properties
deb http:
//archive
.canonical.com
/ubuntu
xenial partner
deb-src http:
//archive
.canonical.com
/ubuntu
xenial partner
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-security main restricted
deb-src http:
//mirrors
.aliyun.com
/ubuntu/
xenial-security main restricted multiverse universe
#added by software-properties
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-security universe
deb http:
//mirrors
.aliyun.com
/ubuntu/
xenial-security multiverse
|
下载anaconda的地址:https://repo.continuum.io/archive/anaconda3-5.0.1-linux-x86_64.sh,这里直接在dockerfile里下了,具体如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
$ vim dockerfile
from nvidia
/cuda
label author=
"qyf"
env
pythonioencoding=utf-8
run
mv
/etc/apt/sources
.list
/etc/apt/sources
.list.bak
add $
pwd
/sources
.list
/etc/apt/sources
.list
run apt-get update --fix-missing && \
apt-get
install
-y vim net-tools curl wget git
bzip2
ca-certificates libglib2.0-0 libxext6 libsm6 libxrender1 mercurial subversion apt-transport-https software-properties-common
run apt-get
install
-y openssh-server -y
run
echo
'root:passwd'
| chpasswd
run
sed
-i
's/permitrootlogin prohibit-password/permitrootlogin yes/'
/etc/ssh/sshd_config
run
sed
-i
's/#passwordauthentication yes/passwordauthentication yes/'
/etc/ssh/sshd_config
run
echo
'export path=/opt/conda/bin:$path'
>
/etc/profile
.d
/conda
.sh && wget --quiet https:
//repo
.continuum.io
/archive/anaconda3-5
.0.1-linux-x86_64.sh -o ~
/anaconda
.sh &&
/bin/bash
~
/anaconda
.sh -b -p
/opt/conda
&&
rm
~
/anaconda
.sh
run apt-get
install
-y
grep
sed
dpkg && \
tini_version=`curl https:
//github
.com
/krallin/tini/releases/latest
|
grep
-o
"/v.*\""
|
sed
's:^..\(.*\).$:\1:'
` && \
curl -l
"https://github.com/krallin/tini/releases/download/v${tini_version}/tini_${tini_version}.deb"
; > tini.deb && \
dpkg -i tini.deb && \
rm
tini.deb && \
apt-get clean
env
path
/opt/conda/bin
:$path
run conda
install
pytorch torchvision -c pytorch -y
entrypoint [
"/usr/bin/tini"
,
"--"
]
cmd [
"/bin/bash"
]
|
通过docker build构造镜像
1
|
docker build -t pytorch
/cuda8
./
|
运行成功调用cuda。 。
3、关于一些bug 。
这里有部分debian的配置,我照着dockerhub上anaconda镜像抄的,这里就不再配置了,反正跑起来后有镜像也可以用。系统随后可能会出现错误:
kernel:unregister_netdevice: waiting for lo to become free. usage count = 1 。
这是一个ubuntu的内核错误,截止到到目前为止似乎还没完全解决.
这个小哥给出了一个解决方案,至少他给出的错误原因我是相信的:是由内核的tcp套接字错误引发的。这里我给出一些思考,关于上面的结构图,在显卡上,通过nvidia-docker,docker之上的容器可以使用到底层显卡(驱动显然是在docker之下的),而tcp套接字,我猜测也是这种使用方法,而虚拟出来的dockeros,应该是没有权限来访问宿主机内核的,至少内核限制了部分权限。这位小哥给出了测试内核,如果有兴趣可以去帮他测试一下:https://bugs.launchpad.net/ubuntu/+source/linux/+bug/1711407/comments/46.
总结 。
以上所述是小编给大家介绍的docker挂载nvidia显卡运行pytorch的方法,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对我网站的支持! 。
原文链接:https://www.cnblogs.com/mar-q/p/8417184.html 。
最后此篇关于docker挂载NVIDIA显卡运行pytorch的方法的文章就讲到这里了,如果你想了解更多关于docker挂载NVIDIA显卡运行pytorch的方法的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我正在尝试在 Google Colab 上运行 stylegan2,但在我的 Drive 上运行所有文件,并避免使用 !git clone 从 github of stylegan2 。 这是我在特定
我需要升级我的 nvidia 驱动程序,以便尝试运行 NVIDIA-LInux-x86_64.run文件 但是,我看到以下消息 ERROR: An NVIDIA kernel module 'nvid
我经历过Cuda programming guide但仍然不清楚 cuda 内核在 GPU 上的什么位置?换句话说,它驻留在哪个内存段? 另外,我怎么知道我的设备支持的最大内核大小是多少?最大内核大小
我想在基于官方nvidia/cuda的容器中运行带有cuvid硬件加速解码的ffmpeg图片。 Ffmpeg 无法找到 libnvcuvid.so,尽管有所有必需的 cuda 库。ldconfig -
当我运行命令 nvidia-smi ,我得到以下两个按总线 ID 排序的 GPU: For GPU 0, 00000000:0A:00.0 For GPU 1, 00000000:41:00.0 但是
我正在使用 Ubuntu 14.04 LTS 运行 AWS EC2 g2.2xlarge 实例。我想在训练 TensorFlow 模型时观察 GPU 利用率。我在尝试运行“nvidia-smi”时遇到
我尝试在安装 docker-ce 后安装 nvidia-docker。我关注的是:https://github.com/NVIDIA/nvidia-docker安装 nvidia-docker。看来已
我一直认为 Hyper-Q 技术不过是 GPU 中的流。后来我发现我错了(是吗?)。所以我读了一些关于 Hyper-Q 的书,却更加困惑了。 我正在浏览一篇文章,它有以下两个陈述: A. Hyper-
我刚刚在安装了两个 K20m GPU 的服务器中运行了 simpleMultiGPU。然后运行 nvidia-smi 命令来显示 GPU 的状态。结果如下: 问题如下: GPU 内存使用情况似乎不
NVIDIA-SMI 抛出此错误: NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make
如何使用 Vulkan 来利用 Nvidia 的张量核心(在计算着色器中?!)? Nvidia 有这篇文章 Programming Tensor Cores in CUDA 9 ,但这显然是针对 CU
我在类的一个项目中使用 Chapel,我正在尝试使用我的两个 Nvidia Jetson nano 板进行多语言环境执行。按照本教程 https://chapel-lang.org/docs/usin
我得到nvidia-smi得到Memory-Usage是这样的 $nvidia-smi -i 0,1 Wed Mar 4 16:20:07 2020 +-----------------
我得到nvidia-smi得到Memory-Usage是这样的 $nvidia-smi -i 0,1 Wed Mar 4 16:20:07 2020 +-----------------
有没有区别: nvidia-docker 运行 和 docker run --runtime=nvidia ? 在 official docs他们使用后者,但我在其他在线教程中看到过前者。 最佳答案
我有一个用 C 编写的代码(使用 opencl 规范)来列出所有可用的设备。我的 PC 安装了 AMD FirePro 和 Nvidia 的 Tesla 显卡。我先安装了AMD-APP-SDK-v3.
我读到可以使用内核启动来同步不同的 block ,即,如果我希望所有 block 在进行操作 2 之前完成操作 1,我应该将操作 1 放在一个内核中,将操作 2 放在另一个内核中。这样,我可以实现 b
我目前正在尝试使用函数 NvAPI_Stereo_SetDriverMode 将 nvapi 设置为在直接模式下工作。 根据 Nvidia nvapi site (在手册中),如果你想做一个 dire
我对nvidia GPU的任务调度有些疑惑。 (1)如果一个 block (CTA)中的线程束已经完成,但仍有其他线程在运行,这个线程会等待其他线程完成吗?换句话说,当所有线程都完成时, block
有人在Nvidia Tegra X1上使用了tensorflow吗? 我发现一些资料表明TK1上可能存在这种情况,或者TX1上存在严重的黑客入侵/错误,但尚无确定的配方。 http://cudamus
我是一名优秀的程序员,十分优秀!