16.12.2016 Views

JCAHPCの 新 スーパーコンピュータ Oakforest-PACS

16%E3%82%B7%E3%83%B3%E3%83%9D_%E4%B8%AD%E6%9D%91%E5%85%88%E7%94%9F

16%E3%82%B7%E3%83%B3%E3%83%9D_%E4%B8%AD%E6%9D%91%E5%85%88%E7%94%9F

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>JCAHPCの</strong> <strong>新</strong> <strong>スーパーコンピュータ</strong><br />

<strong>Oakforest</strong>-<strong>PACS</strong><br />

東 京 大 学 情 報 基 盤 センター<br />

最 先 端 共 同 HPC 基 盤 施 設 (JCAHPC)<br />

中 村 宏


<strong>Oakforest</strong>-<strong>PACS</strong>の 全 景<br />

PCクラスタコンソーシアム 2016/12/16 2


3<br />

<strong>Oakforest</strong>-<strong>PACS</strong><br />

• 最 先 端 共 同 HPC 基 盤 施 設 (JCAHPC: Joint Center<br />

for Advanced High Performance Computing)<br />

• 東 京 大 学 情 報 基 盤 センター<br />

• 筑 波 大 学 計 算 科 学 研 究 センター<br />

• 両 センターが 共 同 で、 最 先 端 の 大 規 模 高 性 能 計 算 基 盤 を 構 築 ・<br />

運 営 するための 組 織<br />

• 東 京 大 学 柏 キャンパスの 東 京 大 学 情 報 基 盤 センター 内<br />

• 2016 年 12 月 1 日 稼 働 開 始<br />

• 8,208 Intel Xeon/Phi (KNL)<br />

• ピーク 性 能 25PFLOPS<br />

• TOP 500 6 位 ( 国 内 1 位 ),HPCG 3 位 ( 国 内 2 位 ),<br />

Green 500 6 位 ( 国 内 2 位 )(2016 年 11 月 )<br />

PCクラスタコンソーシアム 2016/12/16<br />

3


HPCI: High Performance Computing Infrastructure<br />

日 本 全 体 におけるスパコンインフラ<br />

• 9 大 学 ( 北 大 、 東 北 大 、 筑 波 大 、 東 大 、<br />

東 工 大 、 名 大 、 京 大 、 阪 大 、 九 大 )の<br />

情 報 基 盤 センター<br />

• 海 洋 開 発 研 究 機 構 、 統 数 研 +SINET<br />

PCクラスタコンソーシアム 2016/12/16<br />

4


HPCI 第 2 階 層 システムの 開 発 ・ 整 備 ・ 運 用 計 画<br />

(2016 年 9 月 時 点 )<br />

HPCIコンソーシアムのホームページ 掲 載 http://www.hpci-c.jp/<br />

PCクラスタコンソーシアム 2016/12/16<br />

5


PF<br />

1000<br />

100<br />

フラグシップとの 両 輪 として<br />

第 1 階 層 ( 理 研 : 京 、ポスト 京 )と<br />

第 2 階 層 がExascale Computingへ<br />

Future<br />

Exascale<br />

Post K Computer<br />

理 研 AICS<br />

10<br />

<strong>Oakforest</strong>-<strong>PACS</strong><br />

JCAHPC( 東 大 と 筑 波 大 )<br />

1<br />

Tokyo Tech.<br />

TSUBAME2.0<br />

T2K<br />

U. of Tsukuba<br />

U. of Tokyo<br />

Kyoto U.<br />

2008 2010 2012 2014 2016 2018 2020<br />

PCクラスタコンソーシアム 2016/12/16<br />

6


OFPまでの 道 : T2Kオープンスパコンアライアンス<br />

• 筑 波 大 ・ 東 大 ・ 京 大 による 次 世 代 スパ<br />

コン 技 術 の 推 進 のための 同 時 調 達 シ<br />

ステム<br />

• 計 算 科 学 ・ 計 算 工 学 における 研 究 ・ 教<br />

育 ・システム 共 用 に 関 する 大 学 のリー<br />

ダーシップの 確 立<br />

• オープン ハードウェアアーキテクチャ<br />

(コモディティ 技 術 による)<br />

• オープン ソフトウェアスタック<br />

(オープンソースミドルウェアとツール)<br />

• オープン な 利 用 とユーザ 知 識 ・アプリ<br />

ケーションの 共 有<br />

Kyoto Univ.<br />

416 nodes (61.2TF) / 13TB<br />

Linpack Result:<br />

Rpeak = 61.2TF (416 nodes)<br />

Rmax = 50.5TF<br />

Univ. Tokyo<br />

952 nodes (140.1TF) / 31TB<br />

Linpack Result:<br />

Rpeak = 113.1TF (512+256 nodes)<br />

Rmax = 83.0TF<br />

Univ. Tsukuba<br />

648 nodes (95.4TF) / 20TB<br />

Linpack Result:<br />

Rpeak = 92.0TF (625 nodes)<br />

Rmax = 76.5TF<br />

2016/12/1<br />

6<br />

PCクラスタコンソーシアム<br />

7


T2Kから「ポストT2K」へ<br />

• T2Kオープンスパコンアライアンスの 効 果<br />

• 3 台 のスパコンは 同 時 に 調 達 ・ 運 用 され,システム 構 築 技 術<br />

や 性 能 チューニング 技 術 等 を 共 有 し, 大 学 間 の 強 いHPC 研<br />

究 コミュニティの 発 展 につながった。<br />

• T2Kの 後 , 異 なる 次 期 システム 調 達 スケジュールや<br />

システム 開 発 ポリシーの 違 いにより, 発 展 的 に 解 消<br />

• 京 大 :4 年 間 サイクルの 調 達<br />

• 筑 波 大 : 演 算 加 速 器 系 システムに 傾 注<br />

• 東 大 :T2KだけでなくFACシステムとしてFX10を 導 入<br />

• そして「ポストT2K」へ<br />

• 2013 年 , 筑 波 大 学 と 東 京 大 学 による <strong>新</strong> たなスパコン 導 入 の<br />

枠 組 み JCAHPC<br />

• T2Kを 越 える,より 強 固 な 連 携 によるシステム 調 達<br />

PCクラスタコンソーシアム 2016/12/16 8


最 先 端 共 同 HPC 基 盤 施 設 JCAHPC<br />

• Joint Center for Advanced High Performance<br />

Computing (http://jcahpc.jp)<br />

• 平 成 25 年 3 月 、 筑 波 大 学 と 東 京 大 学 は「 計 算 科 学 ・ 工<br />

学 及 びその 推 進 のための 計 算 機 科 学 ・ 工 学 の 発 展 に<br />

資 するための 連 携 ・ 協 力 推 進 に 関 する 協 定 」を 締 結<br />

• 本 協 定 の 下 、 筑 波 大 学 計 算 科 学 研 究 センターと<br />

東 京 大 学 情 報 基 盤 センターが JCAHPC を 設 置<br />

• 両 センターが 共 同 で、 最 先 端 の 大 規 模 高 性 能 計 算 基 盤 を<br />

構 築 ・ 運 営 するための 組 織<br />

• 東 京 大 学 柏 キャンパスの 東 京 大 学 情 報 基 盤 センター 内<br />

PCクラスタコンソーシアム 2016/12/16<br />

9


JCAHPC: 共 同 調 達 への 道 のり<br />

• 2013 活 動 開 始<br />

• 第 1 期 (2013/4-2015/3):<br />

施 設 長 : 佐 藤 三 久 ( 筑 波 大 学 )、 副 施 設 長 : 石 川 裕 ( 東 京 大 学 )<br />

• 第 2 期 (2015/4-):<br />

施 設 長 : 中 村 宏 ( 東 京 大 学 )、 副 施 設 長 : 梅 村 雅 之 ( 筑 波 大 学 )<br />

• 共 同 調 達 ・ 運 用 へ 向 けて<br />

• 2013/7: RFI(request for information)<br />

共 同 調 達 は 既 定 路 線 ではなかった1システムとして 調 達 へ<br />

• 複 数 大 学 による 初 めての「1システム」 共 同 調 達 へ<br />

• どうして 共 同 調 達 ができたのか? 共 同 調 達 は 大 変 ・・<br />

• 目 標 を 共 有 できる、ことに 尽 きる<br />

PCクラスタコンソーシアム 2016/12/16<br />

10


2センターのミッション<br />

• 筑 波 大 学 計 算 科 学 研 究 センターのミッション:<br />

• 先 端 学 際 科 学 共 同 研 究 拠 点 : 最 先 端 の 計 算 科 学 研 究 推 進<br />

• 計 算 機 科 学 と 計 算 科 学 の 協 働 : 学 際 的 な 高 性 能 計 算 機 開 発<br />

<strong>PACS</strong>シリーズの 開 発 :CP-<strong>PACS</strong>@1996 TOP1<br />

• 東 京 大 学 情 報 基 盤 センターのミッション:<br />

• 学 際 大 規 模 情 報 基 盤 共 同 利 用 ・ 共 同 研 究 拠 点<br />

(8 大 学 の 情 報 基 盤 センター 群 からなるネットワーク 型 ) の<br />

中 核 拠 点 : 大 規 模 情 報 基 盤 を 活 用 し 学 際 研 究 を 発 展<br />

• HPCI 資 源 提 供 機 関 : 最 先 端 スパコンの 共 同 設 計 開 発 及 び<br />

運 用 、Capability 資 源 および 共 用 ストレージ 資 源 の 提 供<br />

• 共 通 部 分 :<br />

最 <strong>新</strong> の<strong>スーパーコンピュータ</strong>を 用 いて 学 際 研 究 を 先 導<br />

PCクラスタコンソーシアム 2016/12/16<br />

11


JCAHPC 共 同 調 達 のポリシー<br />

~2センターで 共 有 したこと~<br />

• T2Kの 精 神 に 基 づき、オープンな 最 先 端 技 術 を 導 入<br />

• T2K: 2008 年 に 始 まったTsukuba, Tokyo, Kyoto の3 大 学 で<br />

のオープンスパコンアライアンス、3 機 関 の 研 究 者 が 仕 様 策 定<br />

に 貢 献 、システムへの 要 求 事 項 を 共 通 化<br />

• システムの 基 本 仕 様<br />

• 超 並 列 PCクラスタ<br />

• HPC 用 の 最 先 端 プロセッサ、アクセラレータは 不 採 用<br />

広 範 囲 なユーザとアプリケーションのため<br />

ピーク 性 能 追 求 より、これまでのコードの 継 承 を 優 先<br />

• 使 いやすい 高 効 率 相 互 結 合 網<br />

• 大 規 模 共 用 ファイルシステム<br />

• スケールメリットを 活 かす<br />

• 超 大 規 模 な 単 一 ジョブ 実 行 も 可 能 とする<br />

<strong>Oakforest</strong>-<strong>PACS</strong><br />

PCクラスタコンソーシアム 2016/12/16<br />

12


<strong>Oakforest</strong>-<strong>PACS</strong>の 特 徴<br />

• 計 算 ノード<br />

• 1ノード 68コア,3TFLOPS×8,208ノード= 25 PFLOPS<br />

• メモリ(MCDRAM( 高 速 ,16GB)+DDR4( 低 速 ,96GB))<br />

• ノード 間 通 信<br />

• フルバイセクションバンド 幅 を 持 つFat-Treeネットワーク<br />

• 全 系 運 用 時 のアプリケーション 性 能 に 効 果 , 多 ジョブ 運 用<br />

• Intel Omni-Path Architecture<br />

• ファイルI/O<br />

• 並 列 ファイルシステム<br />

• 高 速 ファイルキャッシュシステム(DDN IME):> 1TB/sec<br />

• 消 費 電 力<br />

• Green 500でも 世 界 6 位<br />

• Linpack:4,986 MFLOPS/W(OFP),830 MFLOPS/W( 京 )<br />

PCクラスタコンソーシアム 2016/12/16 13


設 置 場 所 : 東 京 大 学 柏 キャンパス<br />

筑 波 大 学<br />

東 京 大 学<br />

柏 キャンパス<br />

東 京 大 学 本 郷 キャンパス<br />

東 大 @ 柏 (Oak)<br />

筑 波 大 :<strong>PACS</strong><br />

PCクラスタコンソーシアム 2016/12/16<br />

14


<strong>Oakforest</strong>-<strong>PACS</strong> の 仕 様<br />

総 ピーク 演 算 性 能<br />

25 PFLOPS<br />

ノード 数 8,208<br />

計 算<br />

ノード<br />

Product 富 士 通 PRIMERGY CX600 M1 (2U) +<br />

CX1640 M1 x 8node<br />

プロセッサ Intel® Xeon Phi 7250<br />

( 開 発 コード: Knights Landing)<br />

68 コア、1.4 GHz<br />

メモリ 高 バンド 幅 16 GB, MCDRAM, 実 効 490 GB/sec<br />

低 バンド 幅 96 GB, DDR4-2400, ピーク 115.2 GB/sec<br />

相 互 結<br />

合 網<br />

Product<br />

リンク 速 度<br />

トポロジ<br />

Intel® Omni-Path Architecture<br />

100 Gbps<br />

フルバイセクションバンド 幅 Fat-tree 網<br />

PCクラスタコンソーシアム 2016/12/16<br />

15


計 算 ノードとシャーシ<br />

Chassis with 8 nodes, 2U size<br />

Computation node (Fujitsu next generation PRIMERGY)<br />

with single chip Intel Xeon Phi (Knights Landing, 3+TFLOPS)<br />

and Intel Omni-Path Architecture card (100Gbps)<br />

PCクラスタコンソーシアム 2016/12/16 16


Intel® Omni-Path Architecture を 用 いた<br />

フルバイセクションバンド 幅 Fat-tree 網<br />

768 port Director Switch<br />

12 台<br />

(Source by Intel)<br />

Uplink: 24<br />

Downlink: 24<br />

2<br />

. . . . . . . . .<br />

1 24 25 48 49<br />

72<br />

48 port Edge Switch<br />

362 台<br />

2<br />

コストはかかるがフルバイセクションバンド 幅 を 維 持<br />

• システム 全 系 使 用 時 にも 高 い 並 列 性 能 を 実 現<br />

• 柔 軟 な 運 用 :ジョブに 対 する 計 算 ノード 割 り 当 ての 自 由 度 が 高 い<br />

PCクラスタコンソーシアム 2016/12/16<br />

17


<strong>Oakforest</strong>-<strong>PACS</strong> の 仕 様 ( 続 き)<br />

並 列 ファイ<br />

ルシステム<br />

高 速 ファイ<br />

ルキャッ<br />

シュシステ<br />

ム<br />

Type<br />

総 容 量<br />

Product<br />

総 バンド 幅<br />

Type<br />

Lustre File System<br />

26.2 PB<br />

DataDirect Networks SFA14KE<br />

500 GB/sec<br />

Burst Buffer, Infinite Memory Engine<br />

(by DDN)<br />

総 容 量 940 TB (NVMe SSD, パリティを 含 む)<br />

Product DataDirect Networks IME14K<br />

総 バンド 幅 1,560 GB/sec<br />

総 消 費 電 力 4.2MW( 冷 却 を 含 む)<br />

総 ラック 数 102<br />

PCクラスタコンソーシアム 2016/12/16 18


<strong>Oakforest</strong>-<strong>PACS</strong> のソフトウェア<br />

• OS: Red Hat Enterprise Linux (ログインノード)、<br />

CentOS および McKernel ( 計 算 ノード、 切 替 可 能 )<br />

• McKernel: 理 研 AICSで 開 発 中 のメニーコア 向 けOS<br />

• Linuxに 比 べ 軽 量 、ユーザプログラムに 与 える 影 響 なし<br />

• ポスト 京 コンピュータにも 搭 載 される 予 定 。<br />

• コンパイラ:GCC, Intel Compiler, XcalableMP<br />

• XcalableMP: 理 研 AICSと 筑 波 大 で 共 同 開 発 中 の 並 列 プログラミン<br />

グ 言 語<br />

• CやFortranで 記 述 されたコードに 指 示 文 を 加 えることで、 性 能 の<br />

高 い 並 列 アプリケーションを 簡 易 に 開 発 することができる。<br />

• ライブラリ・アプリケーション: オープンソースソフトウェア<br />

• ppOpen-HPC, OpenFOAM, ABINIT-MP, PHASE system,<br />

FrontFlow/blue,LAPACK, ScaLAPACK, PETSc, METIS,<br />

SuperLU etc.<br />

PCクラスタコンソーシアム 2016/12/16 19


各 種 ベンチマーク<br />

• TOP 500(Linpack,HPL)<br />

• 連 立 一 次 方 程 式 ソルバー( 直 接 法 ), 計 算 速 度 (FLOPS 値 )<br />

• 規 則 的 な 密 行 列 : 連 続 メモリアクセス<br />

• 計 算 性 能<br />

• HPCG<br />

• 連 立 一 次 方 程 式 ソルバー( 反 復 法 ), 計 算 速 度 (FLOPS 値 )<br />

• 有 限 要 素 法 から 得 られる 疎 行 列 (ゼロが 多 い)<br />

• 不 連 続 メモリアクセス<br />

• 実 アプリケーションに 近 い<br />

• メモリアクセス 性 能 , 通 信 性 能<br />

• Green 500<br />

• HPL(TOP500) 実 行 時 のFLOPS/W 値<br />

PCクラスタコンソーシアム 2016/12/16 20


48 th TOP500 List (November, 2016)<br />

Site Computer/Year Vendor Cores<br />

R max<br />

(TFLOPS)<br />

R peak<br />

(TFLOPS)<br />

Power<br />

(kW)<br />

1<br />

National Supercomputing<br />

Center in Wuxi, China<br />

National Supercomputing<br />

2<br />

Center in Tianjin, China<br />

Oak Ridge National<br />

3<br />

Laboratory, USA<br />

Lawrence Livermore National<br />

4<br />

Laboratory, USA<br />

5 DOE/SC/LBNL/NERSC<br />

USA<br />

6<br />

Joint Center for Advanced<br />

High Performance<br />

Computing, Japan<br />

7 RIKEN AICS, Japan<br />

8<br />

9<br />

Swiss Natl. Supercomputer<br />

Center, Switzerland<br />

Argonne National Laboratory,<br />

USA<br />

10 DOE/NNSA/LANL/SNL, USA<br />

Sunway TaihuLight , Sunway MPP,<br />

Sunway SW26010 260C 1.45GHz,<br />

2016 NRCPC<br />

Tianhe-2, Intel Xeon E5-2692, TH<br />

Express-2, Xeon Phi, 2013 NUDT<br />

Titan<br />

Cray XK7/NVIDIA K20x, 2012 Cray<br />

Sequoia<br />

BlueGene/Q, 2011 IBM<br />

Cori, Cray XC40, Intel Xeon Phi 7250<br />

68C 1.4GHz, Cray Aries, 2016 Cray<br />

<strong>Oakforest</strong>-<strong>PACS</strong>, PRIMERGY CX600<br />

M1, Intel Xeon Phi Processor 7250 68C<br />

1.4GHz, Intel Omni-Path,<br />

2016 Fujitsu<br />

K computer, SPARC64 VIIIfx , 2011<br />

Fujitsu<br />

Piz Daint<br />

Cray XC30/NVIDIA P100, 2013 Cray<br />

Mira<br />

BlueGene/Q, 2012 IBM<br />

Trinity, Cray XC40, Xeon E5-2698v3<br />

16C 2.3GHz, 2016 Cray<br />

10,649,600<br />

3,120,000<br />

R max : Performance of Linpack (TFLOPS)<br />

R peak : Peak Performance (TFLOPS), Power: kW<br />

93,015<br />

(= 93.0 PF)<br />

33,863<br />

(= 33.9 PF)<br />

125,436 15,371<br />

54,902 17,808<br />

560,640 17,590 27,113 8,209<br />

1,572,864 17,173 20,133 7,890<br />

632,400 14,015 27,881 3,939<br />

557,056 13,555 24,914 2,719<br />

705,024 10,510 11,280 12,660<br />

206,720 9,779 15,988 1,312<br />

786,432 8,587 10,066 3,945<br />

301,056 8,101 11,079 4,233<br />

http://www.top500.org/


HPCG Ranking (SC16, November, 2016)<br />

Site Computer Cores<br />

HPL Rmax<br />

(Pflop/s)<br />

TOP500<br />

Rank<br />

HPCG<br />

(Pflop/s)<br />

HPCG/<br />

HPL (%)<br />

1 RIKEN AICS, Japan K computer 705,024 10.510 7 0.6027 5.73<br />

2<br />

NSCC / Guangzhou,<br />

China<br />

Tianhe-2 3,120,000 33.863 2 0.5800 1.71<br />

3 JCAHPC, Japan <strong>Oakforest</strong>-<strong>PACS</strong> 557,056 13.555 6 0.3855 2.84<br />

National<br />

4 Supercomputing Center<br />

in Wuxi, China<br />

5 DOE/SC/LBNL/NERSC<br />

USA<br />

http://www.hpcg-benchmark.org/<br />

Sunway TaihuLight 10,649,600 93.015 1 0.3712 .399<br />

Cori 632,400 13.832 5 0.3554 2.57<br />

6 DOE/NNSA/LLNL, USA Sequoia 1,572,864 17.173 4 0.3304 1.92<br />

7<br />

8<br />

9<br />

10<br />

DOE/SC/<br />

Oak Ridge National<br />

Laboratory, USA<br />

DOE/NNSA/<br />

LANL/SNL,<br />

USA<br />

NASA / Mountain View,<br />

USA<br />

DOE/SC/<br />

Argonne National<br />

Laboratory, USA<br />

Titan 560,640 17.590 3 0.3223 1.83<br />

Trinity 301,056 8.101 10 0.1826 2.25<br />

Pleiades: SGI ICE X 243,008 5.952 13 0.1752 2.94<br />

Mira: IBM BlueGene/Q, 786,432 8.587 9 0.1670 1.94


Green 500 Ranking (SC16, November, 2016)<br />

1 NVIDIA<br />

Corporation<br />

2<br />

Site Computer CPU<br />

Swiss National<br />

Supercomputing<br />

Centre (CSCS)<br />

DGX<br />

SATURNV<br />

Piz Daint<br />

NVIDIA DGX-1, Xeon E5-2698v4 20C<br />

2.2GHz, Infiniband EDR, NVIDIA Tesla<br />

P100<br />

Cray XC50, Xeon E5-2690v3 12C<br />

2.6GHz, Aries interconnect , NVIDIA<br />

Tesla P100<br />

HPL<br />

Rmax<br />

(Pflop/s)<br />

TOP500<br />

Rank<br />

Power<br />

(MW)<br />

GFLOPS/W<br />

3.307 28 0.350 9.462<br />

9.779 8 1.312 7.454<br />

6 JCAHPC<br />

3 RIKEN ACCS Shoubu ZettaScaler-1.6 etc. 1.001 116 0.150 6.674<br />

National SC Sunway Sunway MPP, Sunway SW26010<br />

4<br />

Center in Wuxi TaihuLight 260C 1.45GHz, Sunway<br />

93.01 1 15.37 6.051<br />

SFB/TR55 at<br />

5 Fujitsu Tech.<br />

Solutions GmbH<br />

QPACE3<br />

PRIMERGY CX1640 M1, Intel Xeon<br />

Phi 7210 64C 1.3GHz, Intel Omni-<br />

Path<br />

0.447 375 0.077 5.806<br />

<strong>Oakforest</strong>-<br />

<strong>PACS</strong><br />

7 DOE/SC/Argonne Theta<br />

National Lab.<br />

8<br />

Stanford Research<br />

Computing Center XStream<br />

ACCMS, Kyoto<br />

9<br />

University<br />

Jefferson Natl.<br />

10<br />

Accel. Facility<br />

http://www.top500.org/<br />

Camphor 2<br />

SciPhi XVI<br />

PRIMERGY CX1640 M1, Intel Xeon<br />

Phi 7250 68C 1.4GHz, Intel Omni-<br />

Path<br />

Cray XC40, Intel Xeon Phi 7230 64C<br />

1.3GHz, Aries interconnect<br />

Cray CS-Storm, Intel Xeon E5-2680v2<br />

10C 2.8GHz, Infiniband FDR, Nvidia<br />

K80<br />

Cray XC40, Intel Xeon Phi 7250 68C<br />

1.4GHz, Aries interconnect<br />

KOI Cluster, Intel Xeon Phi 7230<br />

64C 1.3GHz, Intel Omni-Path<br />

1.355 6 2.719 4.986<br />

5.096 18 1.087 4.688<br />

0.781 162 0.190 4.112<br />

3.057 33 0.748 4.087<br />

0.426 397 0.111 3.837


運 用<br />

• 2017 年 度 3 月 末 までは 無 料 ( 但 し 停 止 期 間 等 あり)<br />

• 計 算 資 源 は 全 系 を 共 用 (パーティション 分 けはしない)<br />

• 全 8,208ノード(25PF)を 常 に 全 系 で 運 用 できるようにしておき,<br />

国 内 最 大 の 計 算 資 源 を 有 効 に 活 用 する<br />

○ 利 用 形 態<br />

• 各 大 学 独 自 の 利 用 コース<br />

• HPCI<br />

• 全 資 源 の20%を「JCAHPC」として 拠 出 , 企 業 利 用 可 能<br />

• JHPCN( 学 際 大 規 模 情 報 基 盤 共 同 利 用 共 同 研 究 拠 点 )<br />

• 全 資 源 の5% 程 度 : 企 業 共 同 研 究 , 国 際 共 同 研 究 も 含 む( 東 大<br />

のみ)<br />

• 教 育 ( 講 義 , 講 習 会 )<br />

• 大 規 模 HPCチャレンジ: 全 ノード 占 有<br />

PCクラスタコンソーシアム 2016/12/16 24


HPCIへの 資 源 提 供<br />

• 平 成 29 年 度 課 題 募 集 におけるハードウェア 資 源 一 覧<br />

• http://www.hpci-office.jp/pages/h29_boshu_hpci_resource?parent_folder=23<br />

PCクラスタコンソーシアム 2016/12/16 25


おわりに<br />

• JCAHPC( 最 先 端 共 同 HPC 基 盤 施 設 )<br />

• 筑 波 大 学 計 算 科 学 研 究 センターと 東 京 大 学 情 報 基 盤 セン<br />

ターが 設 置<br />

• 計 算 科 学 ・ 工 学 及 びその 推 進 のための 計 算 機 科 学 ・ 工 学 の 発 展 に 資<br />

するために 連 携 して 設 置<br />

• <strong>Oakforest</strong>-<strong>PACS</strong>:ピーク 性 能 25 PFLOPS<br />

• Intel Xeon Phi (Knights Landing) と Omni-Path Architecture<br />

• CPU 時 間 を2 大 学 で 按 分 することで 柔 軟 な 運 用 を 可 能<br />

• 全 系 を1システムとして 超 大 規 模 単 一 ジョブの 実 行 も 可 能 に<br />

• 全 系 システムの 稼 働 は2016/12を 予 定<br />

• HPCI 資 源 を 含 めオープンは 資 源 提 供 は2017/4を 予 定<br />

• JCAHPC: 最 先 端 HPC 研 究 に 寄 与 する 計 算 資 源 の 提 供 を 目<br />

指 し、コミュニティに 貢 献 していく 予 定<br />

PCクラスタコンソーシアム 2016/12/16<br />

26

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!