ニュース

NVIDIA、日産などに採用されたGPU仮想化「GRID 2.0」説明会

フォード、プジョー・シトロエンなども採用

 半導体メーカーのNVIDIAは、同社日本法人オフィスで記者説明会を開催し、自動車メーカーなどの製造業向けに提供しているGPU仮想化技術「NVIDIA GRID(エヌビディア グリッド)」の最新版となる「NVIDIA GRID 2.0」に関して説明した。

NVIDIA GRID事業 グラフィックス・バーチュアライゼーション リード・ソリューション・アーキテクト ジェレミー・メイン氏

 NVIDIA GRIDは、GPUを仮想化ソフトウェア技術環境からも利用できるようにする仕組みで、3D CADやCAEなどの製造業のエンジニアが利用するアプリケーションをローカルのワークステーションではなく、データセンターに置かれたGPUで処理することが可能になる。これにより、データをデータセンター内に置いたまま処理できるため、企業データのセキュリティを守る効果があるほか、世界各地の拠点でデータを共有したまま作業が進められるなどのメリットがある。

 NVIDIAはこの秋に、同社の仮想GPU向けのソリューションであるNVIDIA GRIDの第2世代となるNVIDIA GRID 2.0を発表しており、同じ負荷であれば2倍の集約率、ないしは2倍の性能向上を実現していることが大きな特徴となる。

VDIに足りなかった“最後のピース”であるGPUを補充するNVIDIA GRID

 NVIDIA GRIDの説明をする前に、現代において企業、特にエンタープライズと呼ばれる大企業のIT環境がどのようになっているかを説明していく必要があるだろう。現在、エンタープライズのITでは仮想化ソフトウェアと呼ばれる技術が、クライアント(エンドユーザーが利用する端末)から、サーバー(データセンターに置かれて集中処理を担当するコンピュータ)まで普及しつつある。

 特にクライアントでは、PCに代わって「VDI(Virtual Desktop Infrastructure)」と呼ばれるソリューションが利用されるようになってきた。具体的には、クライアントPCのストレージに物理的に置かれていたOSをサーバーの仮想化ソフトウェア上に移動し、クライアントからは「リモートデスクトップ」という技術を利用し、ネットワーク経由で接続して利用するという仕組みだ。

 このVDIは、すべてのデータ(OSやアプリケーションのファイル、各種ユーザーデータ)がサーバーにある仕組みなので、従来のノートPCやデスクトップPCを利用した場合と比べてデータ流出といったセキュリティ上の危険性が大幅に減少するのが特徴となる。アクセスする端末はPCでなくてもよく、スマートフォン、タブレットなどのスマートデバイスや、「シンクライアント」と呼ばれるリモートデスクトップの機能を持つデバイスも利用できるので、高価なハイエンドPCを購入する必要がないことも特徴になる。

ITの環境は変わり続けている
ITの進化により、仕事はオフィス以外で行なわれることも増えている
扱うデータは増え続け、セキュリティの懸念も増えている
デバイスもPCだけでなく、スマートフォンやタブレットなどに拡大している

 記者説明会で登壇したNVIDIA GRID事業 グラフィックス・バーチュアライゼーション リード・ソリューション・アーキテクトのジェレミー・メイン氏は、VDIには課題があったと語る。「VDIのコミュニティで著名な関係者が書籍を出したが、その中でこれまでのVDIは必ずしも従来のユーザーに有効ではなかったとした。というのも、以前のVDIはGPUの機能が用意されていなかったからだ」と述べ、GPUの機能をVDIで利用できなかったため、中途半端になっていたと説明した。

 一般的なPCであろうが、エンジニアリングに利用されているワークステーションであろうが、現代のPCはCPUとGPUという2種類のプロセッサが内蔵されている。CPUは主に一般的な処理を行ない、GPUはグラフィックス関連の処理を担当する。NVIDIA GRIDが登場する前のVDIでは、GPUの処理をCPUでエミュレーションして行なっていたため、性能が低かったり、3D CAD(3Dを利用したコンピュータシミュレーションのデザイン)やCAE(コンピュータシミュレーションを利用した設計)などのアプリケーションを利用するための機能が実装されていなかったりしていたのだ。

 メイン氏は「エンドユーザーがデザイナーなのか、パワーユーザーなのか、ナレッジワーカーやタスクワーカーなのかによってニーズは異なっているが、いずれのユーザー層でもGPUは必須になりつつある。NVIDIAは“GRID”により、VDI環境でもGPUを利用する仕組みを提供する」と述べ、VDI環境でGPUが利用できる仕組みを提供することにより、VDI環境でもノートPCやデスクトップPCと同じように使える環境を実現すると説明した。

エンタープライズにおけるコンピューティングのニーズ
従来のVDIはGPUをサポートしていなかった
VDIが本格的に普及するにはGPUのサポートが必須になる
GPUの重要性はユーザーによっても異なるが、OfficeアプリケーションやWindows OSレベルでのサポートも増えており、ナレッジワーカーまでもGPUを必要にしつつある

性能面から互換性まで最適なソリューションとなる「vGPU」

 そうしたVDI環境でのGPU利用だが、その形態から「GPUパススルー」「シェアGPU」「vGPU」という3つの方式があるとした。GPUパススルーというのは、ユーザーが利用しているOS(ゲストOSと呼ばれる)からGPUを利用する命令を来たときに、「ハイパーバイザー」と呼ばれるハードウェアを仮想化するソフトレイヤーが透過的にGPUに命令を伝達する仕組みだ。これにより性能は最もよく使えるが、ユーザーが利用するゲストOSとGPUは1対1で使わないといけないので、GPUの利用効率としてはGPUがローカルのPCにある場合とあまり変わらないことになる。

 これに対して、シェアGPUの場合にはハイパーバイザーの中にGPUのドライバが入っており、複数のゲストOSから出された要求を切り替えてGPUに伝えることができる。サーバーのGPUに対して複数のゲストOSを割り当てることができるため非常に効率がよい。しかし、この場合はゲストOSにインストールされているGPUのドライバは仮想的なドライバになってしまうので、プロフェッショナル向けの3D CADやCAEなどと互換性の観点で課題がある場合があった。

 3つ目のvGPUの場合は、ハイパーバイザーの中で動作しているGRIDソフトウェアがvGPUという仮想GPUのモデルを作成し、ゲストOSに対してそれを仮想ハードウェアとして割り当てる。このため、ゲストOSでは一般的なGPUと同じデバイスドライバが利用できるため、3D CADやCAEのアプリケーションがそのまま利用できる。これらのアプリケーションから見ると、そこに本物のGPUがあるように認識されるからだ。また、ハイパーバイザー内のGRIDソフトウェアはデータセンターにある複数のGPUを使うことが可能になっているので、ハードウェアの有効活用もできるようになる。

 メイン氏は「vGPUはGPUの利用効率が改善できるし、アプリケーションの互換性も改善している。これにより、異なるユースケースでもより高い性能要求にも応えることができる」と述べ、vGPUこそがGPU仮想化の本命であるとした。

VDIにおけるGPU利用の形態。ソフトウェアエミュレーション、GPU共有、vGPU、GPUパススルーなどがある
幅広いユーザー層をカバーできるvGPUのソリューションが必要とされている

日産自動車はNVIDIA GRIDをグローバルな設計開発環境として活用している

NVIDIA エンタープライズビジネス事業部 ビジネスディベロップメントマネージャー 澤井理紀氏

 その後、NVIDIA エンタープライズビジネス事業部 ビジネスディベロップメントマネージャーの澤井理紀氏が、NVIDIA GRIDの採用例、およびその最新版となるNVIDIA GRID 2.0について説明した。

 採用例としては、米国の病院における事例などが紹介されたほか、日本の製造業の採用例として、日産自動車での内容について紹介された。澤井氏によれば、日産では日本以外にもあるグローバルなデザイン拠点間で、CAD/PDMデータに高速アクセスできる仕組みを導入する計画があったという。当初は複数の拠点、例えば日米欧それぞれに分散してデータを持つことが検討されたそうだが、それだと運用効率がわるいうえにコストも増える。さらには拠点間でのデータ同期を行なうことに対する不安などからその計画は破棄され、最終的にはNVIDIA GRIDを利用したVDIとvGPUの仕組みが導入されたのだという。なお、この事例に関しては、日産のVDI環境として採用されているXenDesktop、XenServerのベンダであるCITIRXのWebサイト(https://www.citrix.co.jp/customers/nissan-motor-jp.html)でも紹介されているので、興味がある方は参照していただきたい。

 澤井氏は「現在、NVIDIA GRIDは多数のお客様に受け入れられており、航空機メーカー、自動車メーカーといった複数の製造業で採用されている」と述べ、自動車関連ではフォード、PSAグループ(プジョー・シトロエン)、ダラーラ(イタリアのレーシングカーコンストラクター)などで採用されていると説明した。

米国の病院のNVIDIA GRID導入事例では、医師は30分、看護婦は50分の業務効率化が可能になった
ノースカロライナ州立大学では、従来は図書館にあるワークステーションでしかCADなどを使えなかったが、NVIDIA GRIDの導入により、いつでもどこでも学生がCADなどを活用可能になった
建築会社のSSOEはグローバルな開発拠点で分散して処理できるようになった
NVIDIA GRIDの導入事例。フォードやダラーラ、PSAなどの自動車業界のメーカーも名を連ねている
新しいOSやAPIのサポートなどが今後の要求課題
NVIDIAはGRIDの研究開発に数十億ドルの投資を行なってきた

 そして、NVIDIA GRID 2.0について「GRID 2.0の特徴は、集約率が2倍ないしは性能が2倍。プラットフォームの密度が倍になり、さらにはサポートされるOSが2倍になる」と解説。澤井氏によれば、NVIDIA GRID 2.0ではGPUがNVIDIAの最新GPUとなる「Maxwell(マックスウェル)」世代に進化している。従来のNVIDIA GRID 1.0では「Kepler(ケプラー)」と呼ばれるやや古い世代のGPUが採用されていたが、これが最新世代のMaxwellベースになってことが性能向上の大きな要因になっているという。

 さらに1つのGPUあたりのメモリが、GRID 1.0ではGPUあたり4GBだったのに対して、GRID 2.0では8GBへと強化されている。これらの理由により、純粋な性能としては2倍になっているという。集約数が倍というのは、1台のゲストOSあたりに同じ性能でよければ、1つのGPUに収納できるユーザー数が倍になっているということを意味している。また、サポートされるOSが倍というのは、従来のGRID 1.0ではWindowsのみがゲストOSとしてサポートされていたが、GRID 2.0ではLinuxのサポートも追加されている。

 澤井氏は「GRID 2.0はCITIRXやVMWareといった業界のリーダーからサポートされており、多くのOEMメーカーにより対応製品が出荷されている」と述べ、実際に同社の東京オフィスにあるGRID 1.0とGRID 2.0のサーバー上で展開されているVDIにネットワーク越しに接続して、処理能力が向上している様子などのデモを行なった。

NVIDIA GRID 2.0の特徴
2倍の集約率、ないしは2倍の性能を実現
ゲストOSあたりの性能を同じにすると、2倍のゲストOSを1つのGPUでカバーできる
1つのゲストOSで見ると、性能は2倍に
業界サポートの状況
GRID 2.0のGPUはMaxwell世代に進化し、GPUあたりのメモリが8GBに強化されている
「NVIDIA GRID 1.0」と「NVIDIA GRID 2.0」の比較動画。GRID 2.0の方がよりなめらかに再生できていることが分かる

(笠原一輝)