NVIDIA「GPU Technology Conference 2018」
【GTC 2018】NVIDIA、2P(ペタ)FLOPSの性能持つスパコン「DGX-2」発表。最大16基のTesla V100 32GB版を搭載。半年で性能を10倍に
ジェンスン・フアン CEO基調講演より
2018年3月28日 05:51
- 2018年3月26日~29日(現地時間)開催
- San Jose McEnery Convention Center
自動運転やAI(人工知能)向けの半導体&ソリューションメーカーであるNVIDIAは、3月26日~29日(現地時間、以下同)の4日間にわたり、米国 カリフォルニア州サンノゼ市の「San Jose McEnery Convention Center」において同社製品に関する技術カンファレンス「GPU Technology Conference 2018」(以下、GTC 2018)を開催している。
2日目のハイライトとなるNVIDIA ジェンスン・フアン CEOの基調講演において、メモリを16GBから倍に増やしたTesla V100 32GB GPUを発表。さらにそのTesla V100 32GB GPUを最大16基搭載するスーパーコンピュータ NVIDIA DGX-2も発表した。
Tesla V100 32GB GPUを最大の16基搭載した際の性能は、メモリ512GBとなりNVSwitchによって14.4TB/sの速度で通信可能。CUDAコアは8万1920となり、2000TFLOPS、つまり1台のユニットで2P(ペタ)FLOPSの性能を持つという。消費電力は10kWで、デュアルCPUを持つ300台のクラスターと比べた場合1/18の消費電力で済み、価格も300万ドルから39万9000ドルへと1/8に。必要な空間も1/60になるとする。
ディープラーニング性能でも、これまでNVIDIAのトップだったDGX-1と比べて半年で10倍になったこととなり、5年前のGTX 580×2枚と比べた場合500倍の性能に達する。