編集不可のページ History 添付ファイル

 

TUT HPC Cluster Wiki: "WideAreaClusterSystem_new"の差分

1と2のリビジョン間の差分
2019-07-30 04:22:03時点のリビジョン1
サイズ: 14897
編集者: es006
コメント:
2019-07-30 04:27:32時点のリビジョン2
サイズ: 8940
編集者: es006
コメント:
削除された箇所はこのように表示されます。 追加された箇所はこのように表示されます。
行 4: 行 4:
行 10: 行 9:

Tera''''''Term や putty などの SSH クライアントを利用して,開発サーバにログインして下さい.
開発サーバのホスト名は、学内利用者か学外利用者かによって異なります。

開発サーバはコンパイルや開発を行うためのサーバです.
開発サーバで大規模な計算処理を実行しないでください.
計算処理は [[../ClusterSystemUsage#A.2BMLgw5zDWW5.2BITGW5bNU-|Torque]] を介して、ジョブとしてクラスタ上で実行してください.
TeraTerm や putty などの SSH クライアントを利用して,開発サーバにログインして下さい. 開発サーバのホスト名は、学内利用者か学外利用者かによって異なります。

開発サーバはコンパイルや開発を行うためのサーバです. 開発サーバで大規模な計算処理を実行しないでください. 計算処理は [[ClusterSystemUsage#A.2BMLgw5zDWW5.2BITGW5bNU-|Torque]] を介して、ジョブとしてクラスタ上で実行してください.
行 21: 行 16:

開発サーバのホスト名は wdev.edu.tut.ac.jp になります。
ユーザ名とパスワードは,情報メディア基盤センターから発行されたアカウントを入力して下さい。
開発サーバのホスト名は wdev.edu.tut.ac.jp になります。 ユーザ名とパスワードは,情報メディア基盤センターから発行されたアカウントを入力して下さい。
行 28: 行 21:
行 30: 行 22:

開発サーバのホスト名は lark.imc.tut.ac.jp になります。
[[https://hpcportal.imc.tut.ac.jp|アカウント登録システム]]で発行されたアカウント(par+数字7桁)を使ってください。
学外利用者は公開鍵認証によってユーザを認証します。
[[https://hpcportal.imc.tut.ac.jp/profile|プロファイル変更]]で、自分の公開鍵を登録してください。
公開鍵の作成方法は[[../SSHClient|SSHクライアントの使い方]]を参照して下さい。
開発サーバのホスト名は lark.imc.tut.ac.jp になります。 [[https://hpcportal.imc.tut.ac.jp|アカウント登録システム]]で発行されたアカウント(par+数字7桁)を使ってください。 学外利用者は公開鍵認証によってユーザを認証します。 [[https://hpcportal.imc.tut.ac.jp/profile|プロファイル変更]]で、自分の公開鍵を登録してください。 公開鍵の作成方法は[[SSHClient|SSHクライアントの使い方]]を参照して下さい。
行 40: 行 27:
行 42: 行 28:

以下は暫定構成です.
||キュー名||利用可能ノード数||経過時間制限/ジョブ||プロセス数制限/ノード||メモリ容量制限/ノード||備考||
||wEduq||4ノード||1時間||20||50GB||全ユーザが利用可能||
||wSrchq||30ノード||1時間||20||100GB||研究利用登録ユーザのみ利用可能||
||wLrchq||30ノード||336時間||20||100GB||研究利用登録ユーザのみ利用可能||

 * wEduqは授業・学習用のキューです。長時間のジョブ実行や大量のジョブ投入など研究目的での本格的な利用はご遠慮ください。
 * 授業時間中などはwEduqのために一部の計算ノードを専用に割り当てることがあります。この場合、数台の計算ノードがwEduqに占有され、それらのノードでwSrchqおよびwLrchqのジョブが実行されなくなります(利用可能ノード数が26になります)。
 * スケジューリングできるジョブは全体で16384件です。ジョブ数(コマンド qstat -B の結果 Tot の値)が16384を超えないよう、節度ある利用をお願いします。
 * 研究利用登録については[[http://imc.tut.ac.jp/research/form|こちら]]をご覧下さい。
xxxxx
||キュー名 ||利用可能ノード数 ||経過時間制限/ジョブ ||プロセス数制限/ノード ||メモリ容量制限/ノード ||備考 ||
|| || || || || || ||




行 55: 行 38:
行 57: 行 39:

||分類||ホスト名||機種||CPU||主記憶容量||理論演算性能||アクセラレータ||OS||
||開発処理サーバ||wdev||HA8000-tc/HT210||Xeon E5-2680 v2 2.8GHz 10コア×2||128GB||448GFLOPS||Xeon Phi||RHEL6.4||
||演算ノード (Xeon Phi搭載)||wsnd00〜wsnd15||HA8000-tc/HT210||Xeon E5-2680 v2 2.8GHz 10コア×2||128GB||448GFLOPS||Xeon Phi||RHEL6.4||
||演算ノード||wsnd16〜wsnd31||HA8000-tc/HT210||Xeon E5-2680 v2 2.8GHz 10コア×2||128GB||448GFLOPS|| ||RHEL6.4||

* wsnd17, wsnd31を利用したジョブ実行はできません.
||分類 ||ホスト名 ||機種 ||CPU ||主記憶容量 ||理論演算性能 ||アクセラレータ ||OS ||
|| || || || || || || || ||


行 66: 行 46:

||ホーム領域||{{{/home/数字/ユーザ名/}}}||教育用Windows端末と同じホーム領域が利用できます.教育用Windows端末からは {{{Z:\}}} として表示されます。||
||ワーク領域||{{{/gpfs/work/ユーザ名/}}}|| 教育用Windows端末からは {{{V:\}}} として表示されます。 ||
||ソフトウェア領域||{{{/common/}}}|| ||

ワーク領域は,{{{/work/ユーザ名/}}} というディレクトリ名でも参照することができます.
||ホーム領域 ||{{{/home/数字/ユーザ名/}}} ||教育用Windows端末と同じホーム領域が利用できます.教育用Windows端末からは {{{Z:\}}} として表示されます。 ||
||ワーク領域 ||{{{/gpfs/work/ユーザ名/}}} ||教育用Windows端末からは {{{V:\}}} として表示されます。 ||
||ソフトウェア領域 ||{{{/common/}}} || ||


行 74: 行 54:

||コンパイラ||バージョン||インストールディレクトリ||
||Intel||14.0.0 Build 20130728||/common/intel-2013SP1/||
||PGI||14.3-0||/common/pgi-14.3/||
||GNU||4.4.7||/usr/bin/||
||コンパイラ ||バージョン ||インストールディレクトリ ||
|| || || ||
|| || || ||
|| || || ||
行 81: 行 61:

||ライブラリ||バージョン||インストールディレクトリ||
||Intel MPI||14.0.0 Build 20130728||/common/intel-2013SP1/||
||Open MPI||1.6.5||/common/openmpi-1.6.5/||
||MPICH 3||3.1||/common/mpich-3.1/||
||MPICH 1||1.2.7p1||/common/mpich-1.2.7p1/||
||ライブラリ ||バージョン ||インストールディレクトリ ||
|| || || ||
行 89: 行 66:

||ソフトウェア名称||バージョン||説明||インストールディレクトリ||
||||||||構造解析||
||ANSYS Multiphysics||14.5||マルチフィジックス解析ツール||/common/ansys14.5/||
||ANSYS CFX||14.5||汎用熱流体解析ソフトウェア||/common/ansys14.5/||
||ANSYS Fluet||14.5||汎用熱流体解析ソフトウェア||/common/ansys14.5/||
||ANSYS LS-DYNA||14.5||落下・衝突解析ツール||/common/ansys14.5/||
||ANSYS HFSS||15.0.3||高周波3次元電磁解解析ソフトウェア||/common/ansys_hfss-15.0.3/||
||ABAQUS||6.12||汎用非線形有限要素解析プログラム||/common/abaqus-6.12-3/||
||Patran||2013||CAE環境統合プリ・ポストソフトウェア||/common/patran-2013/||
||DEFORM-3D||10.2||有限要素法を用いた3次元塑性加工シミュレーションソフト||/common/deform-3d-10.2/||
||COMSOL||4.4||有限要素法を用いた汎用物理シミュレーションソフト||/common/comsol44/||
||||||||計算物質科学||
||PHASE (Serial版)||2014.01|| 第一原理擬ポテンシャルバンド計算ソフトウェア(Serial版)||/common/phase0-2014.01-serial/||
||PHASE (Parallel版)||2014.01|| 第一原理擬ポテンシャルバンド計算ソフトウェア(Parallel版)||/common/phase0-2014.01-parallel/||
||PHASE-Viewer||3.2.0||GUI 統合環境ソフトウェア||/common/phase-viewer-v320/||
||UVSOR (Serial版)||3.42||第一原理擬ポテンシャル誘電応答解析ソフトウェア(Serial版)||/common/uvsor-v342-serial/||
||UVSOR (Parallel版)||3.42||第一原理擬ポテンシャル誘電応答解析ソフトウェア(Parallel版)||/common/uvsor-v342-parallel/||
||OpenMX (Serial版)||3.7||相対論的量子力学に基づくボトムアップ型の階層的第一原理量子シミュレーター(Serial版)||/common/openmx-3.7/||
||OpenMX (Parallel版)||3.7||相対論的量子力学に基づくボトムアップ型の階層的第一原理量子シミュレーター(Parallel版)||/common/openmx-3.7/||
||||||||計算化学||
||Gaussian||09 Rev.C.01||Electronic structure program||/common/gaussian09-C.01/||
||NWChem (Serial版)||6.3.2||A comprehensive and scalable open-source solution for large scale molecular simulations(Serial版)||/common/nwchem-6.3.2-serial/||
||NWChem (Parallel版)||6.3.2||A comprehensive and scalable open-source solution for large scale molecular simulations(Parallel版)||/common/nwchem-6.3.2-parallel/||
||GAMESS (Serial版)||2013.R1||A general ab initio quantum chemistry package(Serial版)||/common/gamess-2013.r1-serial/||
||GAMESS (Parallel版)||2013.R1||A general ab initio quantum chemistry package(Parallel版)||/common/gamess-2013.r1-parallel/||
||MPQC||3.0-alpha||Massively Parallel Quantum Chemistry Program||/common/mpqc-3.0.0a-2014.03.20/||
||Amber (Serial版)||12||Molecular Dynamics Package(Serial版)||/common/amber12-serial/||
||Amber (Parallel版)||12||Molecular Dynamics Package(Parallel版)||/common/amber12-parallel/||
||Amber''''''Tools (Serial版)||12||Set of several independently developed packages that work well by themselves, and with Amber itself(Serial版)||/common/amber12-serial/AmberTools/||
||Amber''''''Tools (Parallel版)||12||Set of several independently developed packages that work well by themselves, and with Amber itself(Parallel版)||/common/amber12-parallel/AmberTools/||
||CONFLEX (Serial版)||7||汎用分子力学計算ソフトウエア(Serial版)||/common/conflex7/||
||CONFLEX (Parallel版)||7||汎用分子力学計算ソフトウエア(Parallel版)||/common/conflex7/||
||CHEMKIN-PRO||15112|| 詳細化学反応解析支援ソフトウエア||/common/chemkin-15112/||
||||||||技術処理||
||MATLAB||R2013a||数値計算言語||/common/matlab-R2013a/||

 * ANSYS, ABAQUS, Patran, DEFORM-3D, COMSOL, GAUSSIAN, CHEMKIN-PRO, MATLABの利用には登録種別Aへの利用登録が必要です.
 * 登録種別Aの申請方法は http://imc.tut.ac.jp/research/form を参照してください.
||ソフトウェア名称 ||バージョン ||説明 ||インストールディレクトリ ||
||||||||<style="text-align:center">構造解析 ||
|| || || || ||
|| || || || ||
||||||||<style="text-align:center">計算物質科学 ||
|| || || || ||
|| || || || ||
||||||||<style="text-align:center">計算化学 ||
|| || || || ||
|| || || || ||
||||||||<style="text-align:center">技術処理 ||
|| || || || ||


行 130: 行 83:
行 134: 行 86:
Xeon Phiの実行モデルとして,ネイティブ実行とオフロード実行の2つがあります.ネイティブ実行はXeon Phiを1つの計算ホストとして利用します.MPIプログラムを改変することなく利用できます.オフロード実行ではソースコードの特定の処理をXeon Phiにオフロードして実行します.OpenACCによりGPGPUを使うように,Xeon Phiを利用できます.

=== ネイティブ実行の方法 ===
xxxxx

=== ネイティブ実行の方法 ===
行 139: 行 91:
行 140: 行 93:
行 161: 行 113:
行 172: 行 123:
行 183: 行 133:
行 185: 行 134:
行 188: 行 136:
{{{ {{{#!/bin/sh
行 191: 行 139:
#!/bin/sh
行 201: 行 148:

}}}

}}}
行 221: 行 165:
行 225: 行 168:
行 233: 行 175:
行 242: 行 183:
{{{ {{{#!/bin/sh
行 245: 行 186:
#!/bin/sh
行 251: 行 191:

}}}
}}}

[Japanese|English]

広域連携教育研究用クラスタシステム

2014年8月1日より正式運用を開始しました.

ログイン方法

TeraTerm や putty などの SSH クライアントを利用して,開発サーバにログインして下さい. 開発サーバのホスト名は、学内利用者か学外利用者かによって異なります。

開発サーバはコンパイルや開発を行うためのサーバです. 開発サーバで大規模な計算処理を実行しないでください. 計算処理は Torque を介して、ジョブとしてクラスタ上で実行してください.

また、開発サーバは,実際には2台のサーバを用意して負荷分散しています.

学内利用者の場合

開発サーバのホスト名は wdev.edu.tut.ac.jp になります。 ユーザ名とパスワードは,情報メディア基盤センターから発行されたアカウントを入力して下さい。

$ ssh wdev.edu.tut.ac.jp

学外利用者の場合

開発サーバのホスト名は lark.imc.tut.ac.jp になります。 アカウント登録システムで発行されたアカウント(par+数字7桁)を使ってください。 学外利用者は公開鍵認証によってユーザを認証します。 プロファイル変更で、自分の公開鍵を登録してください。 公開鍵の作成方法はSSHクライアントの使い方を参照して下さい。

$ ssh lark.imc.tut.ac.jp

キュー構成

xxxxx

キュー名

利用可能ノード数

経過時間制限/ジョブ

プロセス数制限/ノード

メモリ容量制限/ノード

備考

システム構成

ハードウェア構成

分類

ホスト名

機種

CPU

主記憶容量

理論演算性能

アクセラレータ

OS

ファイルシステム構成

ホーム領域

/home/数字/ユーザ名/

教育用Windows端末と同じホーム領域が利用できます.教育用Windows端末からは Z:\ として表示されます。

ワーク領域

/gpfs/work/ユーザ名/

教育用Windows端末からは V:\ として表示されます。

ソフトウェア領域

/common/

コンパイラ

コンパイラ

バージョン

インストールディレクトリ

メッセージ通信ライブラリ(MPI)

ライブラリ

バージョン

インストールディレクトリ

ソフトウェア構成

ソフトウェア名称

バージョン

説明

インストールディレクトリ

構造解析

計算物質科学

計算化学

技術処理

ソフトウェアの利用方法

ソフトウェアの利用方法についてはクラスタシステムの利用方法をご覧ください。

Xeon Phiの利用方法

xxxxx

ネイティブ実行の方法

サンプルプログラムソース

sample_phi.c

#include <stdio.h>
#include <mpi.h>
int main(int argc, char **argv)
{
    int myid, nprocs;
    char hname[128]="";

    MPI_Init(&argc,&argv);
    MPI_Comm_size(MPI_COMM_WORLD,&nprocs);
    MPI_Comm_rank(MPI_COMM_WORLD,&myid);

    gethostname(hname,sizeof(hname));
    if (myid==0)
        printf ("NUMBER OF PROCESSES: %3d\n", nprocs);
    printf("HELLO WORLD! (HOST NAME: %10s, MYID: %3d)\n", hname, myid);

    MPI_Finalize();

    return 0;
}

* MPI用のサンプルプログラムソース(sample_c_mpi.c)と内容は同じです.ファイル名のみ変更しました.

コンパイル方法

実行ファイルは,Xeon CPU用とXeon Phiコプロセッサ用,それぞれ作成する必要があります.コンパイラはintelコンパイラを利用してください.

Xeon CPU用の実行ファイルの作成:

% mpiicc sample_phi.c -o sample_phi

Xeon Phi用の実行ファイルの作成:

% mpiicc -mmic sample_phi.c -o sample_phi.mic

注意点

Xeon Phi用の実行ファイル名には「.mic」を付与してください.

実行ファイル名は,「.mic」を除き,CPU用,Phi用で一致させてください.

ジョブ投入用サンプルスクリプト

phi_native.sh

{{{#!/bin/sh

#PBS -q wSrchq #PBS -l nodes=3:ppn=2:Phi

MIC0_PROCS=3 MIC1_PROCS=1 source /common/torque/MIC/mkmachinefile.sh

cd $PBS_O_WORKDIR mpirun -machinefile ${MACHINEFILE} -n ${PBS_NP} ./sample_phi }}} #PBS -q について

キューは「wSrchq」,「wLrchq」,どちらでも利用できます.

#PBS -l について

「#PBS -l」における「:Phi」は必ずつけるようにしてください.Xeon Phi搭載演算ノードを選択して利用するための設定です.

MIC0_PROCS, MIC1_PROCS について

本システムは1演算ノードに2基のXeon Phiが搭載されています.「MIC0_PROCS=」「MIC1_PROCS=」は演算ノードに搭載された2基のXeon Phiそれぞれについて,起動プロセス数を指定するために利用します.上記のスクリプトファイルでは「nodes=3」により3台の演算ノードが利用され,各演算ノードの1つのXeon Phiは3つのプロセスを起動し,もう一つのXeon Phiは1つのプロセスを起動することになります.なお,Xeon Phiは1基あたり60コア/240スレッドです.「MIC0_PROCS=」「MIC1_PROCS=」で指定する値は240以下としてください.

並列数について

上記のスクリプトファイルでは,合計18のプロセスが起動され並列に実行されます.「nodes=3」によりwsnd00, wsnd02, wsnd03が選択されたとします.また,演算ノードに搭載される2基のXeon Phiを区別するため,Xeon Phi0,Xeon Phi1と呼ぶことにします.この場合,wsnd00で2プロセス,wsnd00のXeon Phi0で3プロセス,wsnd00のXeon Phi1で1プロセス,wsnd02で2プロセス,wsnd02のXeon Phi0で3プロセス,wsnd02のXeon Phi1で1プロセス,wsnd03で2プロセス,wsnd03のXeon Phi0で3プロセス,wsnd03のXeon Phi1で1プロセスが起動され,合計18プロセスとなります.

その他

ジョブ実行キュー,nodes=,ppn=,MIC0_PROCS=,MIC0_PROCS=の各値,実行ファイル名(上記スクリプトファイルではsample_phi)は,必要に応じて適切に変更してください.

オフロード実行方法

サンプルプログラムソース

tbo_sort.c

場所: /common/intel-2013SP1/composer_xe_2013_sp1.0.080/Samples/en_US/C++/mic_samples/LEO_tutorial/tbo_sort.c

コンパイル方法

コンパイルを行う際は「-openmp」オプションを指定してください.コンパイラはintelコンパイラを利用してください.

% icc -openmp tbo_sort.c -o tbo_sort

ジョブ投入用サンプルスクリプト

phi_offload.sh

{{{#!/bin/sh

#PBS -q wSrchq #PBS -l nodes=1:ppn=20:Phi

cd $PBS_O_WORKDIR ./tbo_sort }}} #PBS -q について

キューは「wSrchq」,「wLrchq」,どちらでも利用できます.

#PBS -l について

「#PBS -l nodes=1:ppn=20:Phi」を変更する必要はありません.1台のXeon Phi搭載演算ノードを占有して利用することを意味しています.

その他

ジョブ実行キュー,実行ファイル名(上記スクリプトファイルではtbo_sort)は,必要に応じて適切に変更してください.

制限事項

● mpirunの-machinefileに指定するXeon PhiはIPアドレスにする必要があります.通常,-machinefileの設定値はmkmachinefile.shで自動生成されます.

● MPI通信はtcpのみ利用可能です.mkmachinefile.shにおいてtcpを利用するように設定しています.

● 2015年10月時点,ネイティブ実行可能なノードはwsnd[00-09,14,15]です.ホストを明示的に指定しない限りジョブスケジューラが自動的に実行可能なノードを選択してくれます.