Difference between revisions of "Docker User Guide"

From IIIS-Systems
Jump to: navigation, search
(发布GPU应用)
(发布GPU应用)
Line 31: Line 31:
 
       主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data  映射到容器目录:/usr/local/nvidia
 
       主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data  映射到容器目录:/usr/local/nvidia
  
       主机目录:/mnt/data  映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。 由于当前版本数人云无法与ldap绑定,所以该目录里面的文件没有隔离机制,只能要求用户各自建立一个 home 目录来放置自己的文件)
+
       主机目录:/mnt/data  映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。  
 +
 
 +
                由于当前版本数人云无法与ldap绑定,所以该目录里面的文件没有隔离机制,只能要求用户各自建立一个 home 目录来放置自己的文件)
  
 
容器规格:
 
容器规格:

Revision as of 09:30, 24 June 2016

清华大学交叉信息研究院Docker(GPU-Cluster)用户操作指南


申请Docker资源

请登录www.shurenyun.com 注册一个账户。

请把注册的帐户信息(即:注册时填写的邮箱)发送给尹伟老师,尹伟老师的邮箱是yw@mail.tsinghua.edu.cn,尹老师进行授权后,即可使用Docker资源。

使用Docker资源

用户使用Docker(GPU-Cluster)资源,详细操作,如下:

发布GPU应用

使用注册的账户登录www.shurenyun.com,点击左侧导航栏中的“应用管理”,然后点击右上角的“新建应用”来发布一个deeplearning:allinone的应用。

应用名称: 自定义

选择集群: gpu-share:GPU-cluster

镜像地址: demoregistry.dataman-inc.com/srypoc/deeplearning:allinone

镜像版本: allinone

网络模式: 网桥模式(这里必须选择网桥模式, 因为容器的暴露端口是22,主机模式会跟宿主机的22端口冲突)

选择主机: 如果你必须使用GPU资源,最好选择标签gpu, 或者直接选择 10.1.0.[170,172,177,179,180]中的某一台或几台主机。

挂载点:

     主机目录:/var/lib/docker/volumes/nvidia_driver_352.79/_data  映射到容器目录:/usr/local/nvidia
     主机目录:/mnt/data  映射到容器目录:/mnt/data 用户需要将持久化保持的数据放到该目录的某个文件夹下。(注:该目录是个nfs目录,数据将会被持久化存储到 ceph 上。 
               由于当前版本数人云无法与ldap绑定,所以该目录里面的文件没有隔离机制,只能要求用户各自建立一个 home 目录来放置自己的文件)

容器规格: 1cpu,1024M(或者据情况而定)

高级设置 应用地址: 应用端口22 , 协议TCP,映射端口:52222(也可以是别的,自定) docker 参数: Key: device Value: /dev/nvidia-uvm Key: device Value: /dev/nvidia0 Key: device Value: /dev/nvidiactl

点击“创建”

应用创建成功后, 通过 ssh -p ${应用地址栏看到的端口} root@${应用地址栏看到的IP}(这里的应该是 10.1.0.170),密码:password ,即可访问

登录容器内部后, 我们可以通过命令: caffe device_query -gpu all 来查看GPU信息

固定访问端口

Troubleshooting