ニュース

「vForum2014」でホンダの「GPU仮想化」導入事例を紹介

今期中に1000台以上のワークステーションの仮想化。長期的にグローバル展開も予定

エヌビディア ジャパン エンタープライズソリューションプロダクト事業部 澤井理紀氏
2014年11月5日~6日開催

 ソフトウェアベンダのVMWare(ヴイエムウェア)は、PCやサーバーなどのハードウェアを抽象化してデータセンターなどに集約することで、IT技術の利用効率を向上させる「仮想化ソフトウェア」のリーディングベンダ。同社の製品である「VMWare vSphere」はデータセンターなどに設置されるサーバーの仮想化ソフトウェアとして高い市場シェアを誇る製品となっている。そのVMWareは東京都港区のザ・プリンスタワー東京において、プライベートイベント「vForum2014」を11月5日~6日に開催した。

 このイベント内で実施されたVMWare vSphereの導入事例を紹介するセッションでは、本田技研工業の事例が取り上げられ、4輪車の開発・設計を行うワークステーションPCに「GPU仮想化技術」を利用することで仮想化を実現したことが紹介された。本田技研工業 IT本部システム基盤部インフラ技術ブロック 主任 小阪洋平氏によれば、すでにホンダでは435台のワークステーションを仮想マシンに置き換えており、今期中には1000台以上のワークステーションを仮想マシンにリプレースする計画だという。これにより、エンジニアが席を移動しても簡単に仕事を続けたり、高い消費電力が必要になるワークステーションをデータセンターに置き換えることで電力の利用効率が最適化されるという。

3つの方式があるGPU仮想化。来年にはVMWare vSphereで「vGPU」をサポート

 自動車メーカーが新型車をデザインするときなどに利用するGPUを供給している半導体メーカーのNVIDIAは、VMWareと共同でGPU仮想化の実現に取り組んでいる。今回のvForum2014でもデモエリアに出展しているほか、デモエリアに設置されたステージにおいてエヌビディア ジャパン エンタープライズソリューションプロダクト事業部の澤井理紀氏が、GPU仮想化の最新情報を紹介する講演を行った。

 澤井氏は「仮想化というのは、CPUを利用してソフトウェアで仮想化するというイメージで、グラフィックスの処理が遅くて文字入力などの用途にしか使えないというのが一般的な認識。しかし、すでにGPU仮想化への動きは始まっており、ナレッジワーカーだけでなく、パワーユーザー、デザイナーなども利用できるようになってきている」と述べ、GPU仮想化の技術を利用することで、これまでは処理能力の問題で仮想化が難しかったグラフィックス分野の3DやCAE(Computer Aided Engineering)といった用途にも、仮想化技術を利用するトレンドが始まっているとした。

 現在、企業のIT利用は変革期を迎えており、従来は物理的なサーバーをデータセンターに、ユーザーの手元にクライアントとなるPCやワークステーションPCを置いて、それぞれをネットワークで接続して利用するというモデルが一般的だった。しかし、現在では仮想化技術の進展により、サーバー側も物理的なサーバーPCに「ハイパーバイザー」と呼ばれるソフトウェアレイヤーを置いて仮想化。サーバーが物理的に壊れても、すぐにOS(基本ソフト)ごとほかのサーバーに移管して稼働を続けるという使い方が普及しつつある。

 クライアントの方はもう少し複雑で、物理的なPCの替わりにデータセンター上に仮想マシンのイメージを置く「VDI(Virtual Desktop Infrastructure)」という形式の使い方を始めた企業もある。この場合、ユーザーの手元に置いておくのは「シンクライアント」と呼ばれるプロセッシングパワーを持たないマシンでもよく、一般的なPCでもよい。VDIではイメージがネットワークを経由してユーザーのクライアントマシン上に表示される仕組みになっており、大企業のITマネージャにとっては個々のPCを管理しなくて済むので、管理コストを下げられるというメリットがある。

 NVIDIAとVMWareが推進する「vGPU」は、そうしたVDIにGPUの仮想化機能を追加する取り組みだ。これまでの一般的なVDIではCPUだけを利用した仮想化になっており、グラフィックスの処理はCPUを利用してエミュレーションすることになる。これには多大なCPUの処理能力が必要になり、物理的なPCと比べて性能が著しく低かった。また、CADやCAEを行う現場では「OpenGL」などのグラフィックスAPIが利用されるが、エミュレーションで提供されるAPIはバージョンが古かったり性能が充分でなかったりするので、エンジニアのニーズを満たすことができなかった。しかし、GPUの仮想化を利用すると、グラフィックス処理を仮想マシン上からもGPUを利用して演算できるので、高い処理能力が手に入り、エンジニアが必要とする高度なAPIも利用できるようになる。

 澤井氏はそうしたGPUの仮想化について、現時点では2つの方式があると説明した。それが「vSGA」と「vDGA」だ。澤井氏は「vSGAは仮想化ソフトウェアがGPUをソフトウェア的にシェアして利用するタイプで、汎用性は高いがAPIの互換性が十分でなかったり、それぞれの仮想マシンに提供できるGPUの性能としては十分ではない。これに対してvDGAは1つの仮想マシンが物理的にGPUを占有するという方式で“GPUパススルー”とも呼ばれ、ワークステーションのユーザーに最適な方式だ」と説明する。澤井氏によれば、現状のVMWare vSphereでサポートされているのはこの2方式で、効率重視の場合はvSGAを、性能重視の用途にはvDGAを利用するのが現状だという。

 これに対して、来年リリースされる予定のVMWare vSphereでは、新しい方式であるvGPUがサポートされるという。このvGPUではハードウェアでGPUを仮想化することができ、1つのGPUを最大8ユーザーで共有できる。さらに仮想マシンにNVIDIAのグラフィックスドライバをインストールできるのでAPIの互換性でも心配がなく、理想的な方式であると澤井氏は説明した。なお、このvGPU用のハードウェアとして、NVIDIAは「GRID K1」「GRID K2」という2つのハードウェアを導入しており、将来リリースされるVMWare vSphereと組み合わせて利用できるようになるほか、現在は「アーリーアクセスプログラム」と呼ばれるベータテストに参加して評価することも可能だと紹介した。

従来のVDIは「タスクワーカー」と呼ばれるデータ入力程度のユースケースだと考えられていたが、GPU仮想化により、より負荷が高い処理にも利用できるようになりつつある
現在のVMWare vSphereでサポートされているのは、「vSGA」と「vDGA」の2方式。前者はソフトウェアでのエミュレーション部分が大きいので、性能低下が大きくAPIの互換性でも不安がある
vDGAは「GPUパススルー」と呼ばれる方式。1つの物理GPUを1つのVMが占有する形で、ユーザーと1対1でGPUが必要になるためコストが課題
「vGPU」ではハードウェアレベルでGPUの仮想化を行うため、最大の8つの仮想マシンでGPUの処理能力を共有できる。仮想マシンにはNVIDIAのグラフィックスドライバーをインストールできるので、APIの互換性も物理的なGPUを直接利用している状態と同じレベルで活用できる
GPU仮想化に利用できる「GRID K1」と「GRID K2」
NVIDIAのGPU仮想化向けGPUの位置づけ
NVIDIAとVMWareが共同で行うvGPUアーリーアクセスプログラム。興味があるエンタープライズユーザーはこの条件を満たせば参加可能
GRID K1のボード(ヒートシンクは外された状態)
GRID K2のボード(ヒートシンクは外された状態)

GPU仮想化の技術などを活用して、112個必要なラックを7個に集約

 11月5日の午後に行われた事例紹介のセッションでは、ホンダにおけるGPU仮想化の事例が紹介された。登壇したのは本田技研工業 IT本部システム基盤部インフラ技術ブロック 主任 小阪洋平氏とヴイエムウェア End User Computing シニア プロダクトスペシャリスト 駒井健一郎氏の2人。ヴイエムウェアの駒井氏がホンダの小阪氏にお題を出して、それに小阪氏が答えていくという形で進められた。

 このなかでホンダの小阪氏は、ワークステーションを仮想化する理由として「現在のワークステーションは400Wを超える電源が必要で、大きなファンも回っている。これにより室温が上昇するなどの問題もあった。また、大きな筐体が机の下に置かれることで、震災時の大事な避難場所である机の下がふさがってしまうという問題もある、さらには、ユーザーが自分の机にいないと使えないという問題も解決する必要があった」と語り、環境改善、安全性の確保、利便性の向上、資源有効利用、CO2削減などを理由として挙げた。また、資源効率化という観点では、ワークステーションPCをそのままデータセンターに集約すると、ラック(サーバーを格納する単位のこと)数が112個になってしまうが、GPU仮想化の技術などを活用すれば7つのラックに格納できるようになり、設備を小規模にすることができるほか、電力効率が大きく改善されることになると説明した。

 さらに、ワークスタイルの改善という意味では、エンジニアが机に座っていなくてもリモートで利用できる点、ノートPCからVDI上の仮想マシンにアクセスすることで、会議中にノートPCを利用してCADのデータを見ながら議論したり、データを仮想マシンと同じデータセンターにあるストレージに置くことで、無駄なトラフィックを減らせるなどの点で業務の効率改善が期待できるとした。

本田技研工業 IT本部システム基盤部インフラ技術ブロック 主任 小阪洋平氏(左)とヴイエムウェア End User Computing シニア プロダクトスペシャリスト 駒井健一郎氏(右)が説明
ホンダの開発プロセス。本田技術研究所で研究開発が行われ、それがホンダに渡される形になる。今回のGPU仮想化の導入は、おもに研究所で行われる4輪車の研究開発が対象
GPU仮想化が導入される前のエンジニアの机のようす。社内ネットワークにアクセスするノートPCが机の上に、CAD用のワークステーションPCが机の下に置かれていた
ワークステーションを仮想化してエンジニアの机の下からデータセンターに追い出すことで、環境改善や地震時の安全性確保、利便性の向上といったメリットがある
仮想化に踏み切ったもう1つの理由は、データセンターにワークステーションを集約することで電力利用の効率改善が期待できること。そのままハードウェアとして集約すれば112個のラックが必要だが、仮想化により7個のラックで実現できた
ワークステーション仮想化の効能は、業務効率、管理効率、環境などの改善

 そうしたホンダのGPU仮想化の取り組みだが、2013年の第2四半期(4月~6月期)から行われてきたという。vDGAとvGPUの2方式が検討されたそうだが、当時はVMWareがvGPUのサポートに関して態度を明らかにしていなかったため、将来はvGPU方式にすることを考えつつも、現実的な選択肢としてvDGA方式を採用することに決めたという。

 ハイパーバイザーと呼ばれる仮想化の基本ソフトウェアをVMWareに決めた理由は、自社でベンチマークテストを行った結果からだそうで、1つの仮想マシンでテストしたときは他社と大きな差はなかったそうだが、複数の仮想マシンで走らせたときにはVMWareにアドバンテージがあったからだと明かされた。

 なお、VMWareは2015年にリリースする予定のVMWare vSphereでvGPUをサポートすることを表明しているが、ホンダの小阪氏は「大変期待しているが、むしろ遅かったと思うぐらい」と語ってヴイエムウェアの駒井氏を慌てさせる一幕もあったが、vGPUに期待していると何度も強調し、将来的にはvGPUへの移行を検討していることを示唆した。

2013年第2四半期の計画策定段階ではvGPUも検討したが、時期尚早としてvDGAを選択
VMWareを選択したのは、複数の仮想マシンを利用したときの性能が他社のハイパーバイザーと比べて高かったから
NVIDIAのセッションでも紹介されたとおり、vSGA、vGPU、vDGAとモデルがあるが、ホンダが本命と考えているのはvGPUのようだ

今期中に1000台以上に展開予定。課題は「ハードウェアの効率利用」

 次いでホンダの小阪氏は、ホンダの仮想GPUのシステムがどのような構成になっているかについて説明した。小阪氏によればホンダのシステムは、VMWare vSphereのサーバーとなるホストサーバー(HP WS460C)に対して、ユーザーのファイルシステムを格納するファイルストレージ(HDDで構成)と、OSなどを格納するデータストレージ(SSDで構成)が接続される構造になっているという。前者は社内LANを経由してホストサーバーに接続され、後者はiSCSIというストレージ用の専用ネットワークを介してホストサーバーに接続されている。こうした構成をとったのは、ファイルサイズが大きなユーザーファイルなどをコストの安価なHDDに、OSの起動などで性能が要求される部分はSSDに分けることでコストとパフォーマンスのバランスを取るためだったそうだ。

 また、ユーザー環境では普段エンジニアが社内のメールやWebサービスなどにアクセスしているノートPCからイーサネットケーブルで接続し、CADなどの画面はDisplayPortケーブルを利用して接続している外付ディスプレイに表示されているとのことだった。その上でエンジニアが作業しやすいように、マウスやキーボードは外付けで接続しているという。

 展開のスケジュールは2013年6月から検討を始め、製品選定に3カ月、動作検証環境構築に3カ月、インフラ検証に3カ月といった具合で、それなりに時間がかかったということだった。それでも、約1年が経過した今年6月には実際のユーザーの実利用環境の構築が可能だったという。小阪氏によれば「鍵となったのはアプリケーションの動作検証だった。アプリケーションのチームが最大限協力してくれたので1カ月で終わったが、そうでなければもっと時間がかかっていたかもしれない」と述べ、実際に導入する場合にはアプリケーションの動作検証を迅速に済ませることが鍵だとした。

 実働環境が実際に動き出してからはユーザーの評判も上々で、ユーザーからIT部門への問い合わせは平均0.5件/日(2日で1件程度)と非常に少なかったという。そのポイントとしては、VDI環境が起動するときにWindowsのスタートアップ機能を利用してヘルプ用のWebを立ち上げて注意をうながしたり、サポート時に必要なPC名を、従来はPCに物理的なラベルを貼ってユーザーに分かるようにしていたが、VDIになって貼り付けることができなくなったので、代わりにデスクトップの壁紙に強制的に表示させる仕様にしたなどの苦心の策が紹介された。

 小坂氏によれば、ホンダではこうしたシステムを今期中に1000台以上で展開できるようにシステムを構築しているという。現時点ではvDGAを利用しているため、1ユーザーに対してGPUが1つ割り当てられる形になっているので、GPUの利用効率という点ではまだまだ改善の余地があると説明。「コストで見れば、現在はワークステーション1台のコストに対して、今回のシステムでは1.5倍のコストがかかっている。このため、将来的にはvGPUを導入し、複数のユーザーでGPUをシェアできるようにしないといけない。また、より長期的には日本の拠点だけでなく、グローバルな環境でも利用できるような環境を作っていきたい」と述べ、vGPUへの期待を語って講演を終えた。

ホンダのGPU仮想化のシステム構成。VMWareの仮想化サーバーを中心に、フラッシュメモリとHDDによるストレージで構成している
OSの起動などに利用するストレージにはフラッシュメモリを、ユーザーデータを置く領域にはHDDを使い分けている
現在のホンダのエンジニアのデスクトップ環境。業務用に渡されているPCから、リモートでVDIに接続して外部ディスプレイに表示し。キーボードやマウスも接続されている
システムの展開スケジュール。1年でできたポイントはアプリの検証が迅速だったため
10月の段階で250台をエンドユーザー用に提供したが、ユーザーからの問い合わせは平均0.5件/日と少ない
ユーザーの反応は上々。ただし、セキュリティや帯域の観点からネットワークを有線LANに限ったのでケーブルの多さが不評だという
専用ヘルプ画面をログイン時に表示させるようにしてから問い合わせなどは少ないという
FDDをポリシーマネージャによって表示させないようにしたり、サポート時に必要になるPC名をデスクトップに表示したりという工夫をしている
セキュリティや帯域制限にも対応できるように無線LANからのアクセスを禁止しているが、この部分が次期システムの課題になるという
GPU仮想化により大きな電力削減を実現
GPU仮想化によりハードウェアのコストは増えており、将来的にはvGPUを利用して共有率を上げることが鍵になる
将来的にはvGPUへの移行を真剣に検討していくという
現在は日本のオフィス限定だが、将来的には日本のデータセンターのvGPUを世界中の開発拠点などから利用できるようにする構想

(笠原一輝)