Difference between revisions of "Docker User Guide"
(→发布GPU应用) |
(→发布GPU应用) |
||
Line 29: | Line 29: | ||
挂载点: | 挂载点: | ||
− | 主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data 映射到容器目录:/usr/local/nvidia | + | 主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data 映射到容器目录:/usr/local/nvidia |
主机目录:/mnt/data 映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。 | 主机目录:/mnt/data 映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。 |
Revision as of 09:30, 24 June 2016
清华大学交叉信息研究院Docker(GPU-Cluster)用户操作指南
申请Docker资源
请登录www.shurenyun.com 注册一个账户。
请把注册的帐户信息(即:注册时填写的邮箱)发送给尹伟老师,尹伟老师的邮箱是yw@mail.tsinghua.edu.cn,尹老师进行授权后,即可使用Docker资源。
使用Docker资源
用户使用Docker(GPU-Cluster)资源,详细操作,如下:
发布GPU应用
使用注册的账户登录www.shurenyun.com,点击左侧导航栏中的“应用管理”,然后点击右上角的“新建应用”来发布一个deeplearning:allinone的应用。
应用名称: 自定义
选择集群: gpu-share:GPU-cluster
镜像地址: demoregistry.dataman-inc.com/srypoc/deeplearning:allinone
镜像版本: allinone
网络模式: 网桥模式(这里必须选择网桥模式, 因为容器的暴露端口是22,主机模式会跟宿主机的22端口冲突)
选择主机: 如果你必须使用GPU资源,最好选择标签gpu, 或者直接选择 10.1.0.[170,172,177,179,180]中的某一台或几台主机。
挂载点:
主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data 映射到容器目录:/usr/local/nvidia
主机目录:/mnt/data 映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。
由于当前版本数人云无法与ldap绑定,所以该目录里面的文件没有隔离机制,只能要求用户各自建立一个 home 目录来放置自己的文件)
容器规格: 1cpu,1024M(或者据情况而定)
高级设置 应用地址: 应用端口22 , 协议TCP,映射端口:52222(也可以是别的,自定) docker 参数: Key: device Value: /dev/nvidia-uvm Key: device Value: /dev/nvidia0 Key: device Value: /dev/nvidiactl
点击“创建”
应用创建成功后, 通过 ssh -p ${应用地址栏看到的端口} root@${应用地址栏看到的IP}(这里的应该是 10.1.0.170),密码:password ,即可访问
登录容器内部后, 我们可以通过命令: caffe device_query -gpu all 来查看GPU信息