ニュース

NVIDIA、MicrosoftやIBMとディープラーニング/AI開発ソリューションの提供で提携

スーパーコンピュータ向けカンファレンス「SC16」で発表

IBM Power S822LC。IBMの汎用プロセッサ「POWER 8」×2、NVIDIAの汎用並列プロセッサ(GPU)であるTesla P100×4の強力なHPC

 半導体メーカーのNVIDIAは、スーパーコンピュータ向けのカンファレンス「SC16」で、Microsoft、IBMとディープラーニングの開発ソリューションを共同で提供することを発表した。

 NVIDIAとIBMは、NVLink(エヌブイリンク)と呼ばれるインターコネクト(CPUとGPUを接続する専用バス)開発で協業しているが、IBMが提供するCPU「POWER 8」とNVIDIAが提供するGPU「Tesla」を搭載したHPC(High Performance Computing)上でディープラーニングのソフトウェア開発を行なえるソフトウェアツールキット「IBM Power AI」をIBMがNVIDIAの顧客に提供する。

 また、同時にNVIDIAとMicrosoftは、Microsoftが提供するクラウドサービス「Azure」とNVIDIAが提供するディープラーニング用HPC「DGX-1」の2つのプラットフォームでシームレスに動作するディープラーニングのソフトウェアツールキット「Microsoft Cognitive Toolkit」のGPU対応版を提供開始することを明らかにした。

 いずれも、大規模なディープラーニングの手法を利用してAIのソフトウェア開発を助ける環境で、自動車の自動運転などでAIを開発・実装するメーカーなどにとって注目のソリューションとなる。

IBMのPOWER 8とTesla P100に最適化されたAIソフトウェアの開発環境「Power AI」

 IBMが提供するPower AIは、IBMが先日発表した Power S822LCと呼ばれるHPC上で動作する、ディープラーニングの手法を利用したAIソフトウェア開発ツールキット。Power S822LCは、IBMの汎用プロセッサ(CPU)であるPOWER 8を2つ、NVIDIAの汎用並列プロセッサ(GPU)であるTesla P100(開発コードネーム:Pascal/GP100)を4つ搭載する強力なHPCとなる。

 CPUとGPUの間は、NVLinkと呼ばれるインターコネクトで接続されており、業界で一般的に利用されているPCI Express利用のx86サーバーに比べて2.5倍の帯域幅を実現していることが特徴になる。

 NVIDIA ソリューションアーキテクチャエンジニアリング担当副社長 マーク・ハミルトン氏は「Power AIを利用することで、ソフトウェア開発者はCaffe、DL4J、TensorFlowなどのディープラーニング開発フレームワークを利用してAIのソフトウェアを開発できる」と述べ、現在Intel Xeonプロセッサ+NVIDIA GPUなどx86のHPCで開発を行なっている開発者がPOWER 8を搭載したHPCでも容易にソフトウェア開発が行なえると説明した。

 なお、現時点ではChainerには未対応。Power AIには、NVIDIAのGPUDLライブラリとしてcuDNN,、cuBLAS、NCCLなどが含まれており、Powerプラットフォーム上でGPUの性能を最大限利用したAIソフトウェアの開発が可能になる。

IBMが提供するPower AIにはCaffeやTensorFlowなどのフレームワークに対応している

 Power AIはIBMのWebサイトよりダウンロードが可能になる。利用方法などはIBMのWebサイトなどで確認出来る(ただし英語のみ)。

DGX-1とAzureクラウドが提供するGPU間でシームレスに実行できるMicrosoft Cognitive Toolkitを提供

 NVIDIAとMicrosoftが発表したMicrosoft Cognitive ToolkitのGPU対応版は、NVIDIAが4月にサンノゼで開催したGTCで発表したディープラーニング/AI開発用のHPCとなるDGX-1と、Microsoftが同社のクラウドサービス「Azure」として提供しているGPUインスタンス(Azure Nシリーズ、GPUを時間単位などで利用できるサービス)をシームレスに利用可能なディープラーニング/AIソフトウェア開発環境。

AzureとDGX-1をシームレスに利用できるようになるMicrosoft Cognitive Toolkit

 Microsoft Cognitive ToolkitはすでにMicrosoftから提供が開始されており、Microsoftのコンシューマ向け各種サービス(音声認識「Cortana」、翻訳サービス「Skype Translation」、検索サービス「Bing」、AR/VR混在環境MR向けデバイス「HoloLens」)向けのAI開発環境としても利用されている。今回の発表でNVIDIAのDGX-1への最適化および、自社のデータセンターなどに置いてあるDGX-1と、MicrosoftのクラウドベースのGPUサーバーとなるAzure Nシリーズをシームレスに使う、いわゆるハイブリッドクラウド環境で利用することが可能になる。

 NVIDIAのハミルトン氏によれば、Microsoft Cognitive Toolkitを利用して開発する際にDGX-1を利用すれば、デュアルソケットのXeon E5-2699v4(22コア×2)を搭載したHPCでCPUだけを利用してAlexNetを利用して演算する場合に比較すると、DGX-1は170倍高速だとのこと。

Microsoft Cognitive ToolkitとDGX-1、Xeonを利用した場合の性能比較
NVIDIAのDGX-1

 なお、Microsoft Cognitive Toolkitは無償で提供され、MicrosoftのWebサイトからダウンロードできる。