1. はじめに
セキュリティの都合上、それぞれのGPUサーバーはインターネットから隔離されています。GPUサーバーを利⽤するためにはまず踏み台サーバーにログインする必要があります。
GPUサーバーへログイン後、 ~/.bashrc もしくは ~/.bash_profile に以下の⾏を追加してください。
export http_proxy=http://172.28.1.200:3128/export https_proxy=http://172.28.1.200:3128/
接続⼿順
トンネルを使わない場合は単純に⼆度 ssh コマンドを叩きます。ここではローカルの ~/.ssh/ ディレクトリ以下に鍵ファイルが置かれていることを前提にしています。
# 1st step: Connect from local
$ ssh <username>@<server_ip> -i ~/.ssh/<ssh-key-name> # 叩
# 2nd step:Connect to GPU Server
$ ssh <username>@<server ip>
2. 利用について
2.1 Jupyterlab設定
踏み台サーバー設定マニュアルに記載されているとおり、ポートフォワーディングの設定をおこな うとローカル環境でサーバー上に起動しているjupyterlabへアクセスが可能です。 同封資料:[GPUサーバー利用マニュアル](SSH_step.pdf)
2.2 Slurmについて
2.2.1 Slurmとは
Slurm Workload Manager(旧称:Simple Linux Utility for Resource Management、SLURM)ま たはSlurmは、LinuxおよびUnix系のカーネルのためのフリーでオープンソースなジョブスケ ジューラーである。
Wikipedia https://ja.wikipedia.org/wiki/Slurm_Workload_Manager より
2.2.2 公式ドキュメンテーション
https://slurm.schedmd.com/documentation.html
2.2.3 計算実行方法
[Slurmを用いた計算実行方法](Slurm20210325.pdf)こちらの資料に補足する形で本資料では説明を記載します。
Slurmコマンドマニュアルやドキュメントページなどの参考情報は上記資料の最終ページに記載 があるのでそちらを参照ください。
● インストールバージョン
20.11.4
2.3 VS Codeでのリモート開発について
初期設定のトンネル設定まで完了後実施してください。
ローカル環境にインストールしたVS Codeの画面左「Extension」画面より「Remote Development」を検索し拡張機能をインストールします。
実際のリモート環境への接続、VS Codeでの使い方はこちらを参考ください。 https://code.visualstudio.com/docs/remote/ssh-tutorial
2.4 JupyterHub利用について
当環境では、JupyterHubの利用が可能です。
2.4.1 Jupyter Hubにういて
JupyterHub is the best way to serve Jupyter notebook for multiple users. It can be used in a class of students, a corporate data science group or scientific research group. It is a multi-user Hub that spawns, manages, and proxies multiple instances of the single-user Jupyter notebook server.
https://jupyterhub.readthedocs.io/en/stable/
2.4.2 ログイン
こちらへアクセスし、あらかじめ取得したユーザーIDとパスワードを入力します。
2.4.3 利用開始
ログインが完了すると、個人用のJupyterが立ち上がります。
使い方は、個人で立ち上げるJupyterと同様です。
※ pip installまたはconda install実行後にimportでエラーが出る場合は、Kernelの再起動をお試 しください
2.5 GPU確認
JupyterHubでもGPUの利用が可能です。
TensorFlow、PyTorchそれぞれ以下の手順にて利用可能なGPUが確認できます。
2.5.1 TensorFlowのインストール及びGPUの確認
!pip install tensorflow
import tensorflow
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
2.5.2 PyTorchのインストールおよびGPUの確認
2022年5月時点のCUDAのバージョンは11.4となります。
PyTochをインストールする場合は、こちらのバージョン(11系)のインストール方法をご確認くださ い。
!cat /usr/local/cuda-11.4/version.json
PyTorch公式サイトでのインストールコマンド取得
https://pytorch.org/get-started/locally/
import torch
print(torch.cuda.get_device_name())
print(torch.cuda.device_count())
以上
Leave a Reply