ニュース

インテルとPreferred Networks、ディープラーニングフレームワーク”Chainer”の開発で協業を発表

「Intel AI DAY」、Intelアーキテクチャへの最適化で協力

2017年4月6日 開催

IntelとPreferred Networksが”Chainer”のIntelアーキテクチャへの最適化で協力

 半導体メーカーIntelの日本法人インテル(以下まとめてIntel)は4月6日、東京都渋谷区のヒカリエホールでIntelのAI向けのソリューションを紹介するイベント「Intel AI DAY」を開催した。

 Intelは近年マシンラーニングやディープラーニングを演算するための半導体ソリューションに力を入れており、2016年の11月にサンフランシスコで行なった同名のイベントでは、Intelが買収したNervana Systemsの資産をベースにした各種のマシンラーニング/ディープラーニングのソリューションを公開して注目を集めた。今回日本で行なわれた「Intel AI DAY」はそのサンフランシスコのイベントの内容をベースにしたもので、IntelのAI向けのソリューションが説明された。

 この中でIntelは、ディープラーニングのトレーニングに利用するソフトウェアフレームワーク「Chainer(チェイナー)」の開発元として知られるPreferred Networksと提携し、ChainerのIntelプラットフォームへの最適化などを協力して行なっていくと発表した。

 また、日本のHPC(high performance computing)研究の第一人者である産業技術総合研究所 人工知能研究センター 特定フェロー/東京工業大学 学術国際情報センター 松岡聡教授がゲスト講演に登壇し、日本でのAI研究の進展のために、AI/ディープラーニングに最適化したスーパーコンピュータ充実の必要性を訴えた。

IntelとPreferred Networksが協業して、ChainerのAIへの最適化を実現

 冒頭でも説明したとおり、今回Intelが行なったIntel AI DAYは、2016年11月に同社がサンフランシスコで開催した同名のイベントの日本版といった趣で、基本的な内容はその同名のイベントとほぼ同じになっている。なお、2016年11月にサンフランシスコで行なわれたIntel AI DAYの内容に関しては、僚誌PC Watchの記事が詳しいので、こちらの別記事とこちらの別記事をご参照頂きたい。

インテル株式会社 代表取締役社長 江田麻季子氏

 日本でのIntel AI DAYではインテル 代表取締役社長 江田麻季子氏による挨拶や、Intel データセンター事業本部 アクセラレータ・ワークロード事業開発本部 バリー・デービス氏による基調講演などが行なわれた。この中で最も注目を集めたのは、デービス氏の講演の中で発表された、IntelとPreferred Networksとの協業だ。

 Preferred Networksは、日本発でグローバルにも注目されているディープラーニングのフレームワーク(ディープラーニングの訓練に利用するソフトウェアの枠組みのこと)であるChainerの開発元として知られており、AIに注目が集まることで成長をしているソフトウェアベンダ。すでにトヨタ自動車なども出資をしていることなどから、自動車分野でも注目を集めている。

株式会社Preferred Networks 代表取締役 兼 CEO 西川徹氏

 デービス氏の基調講演には、Preferred Networks 代表取締役 兼 CEOの西川徹氏が登壇し、同社のビジョンやIntelとの関係について説明した。西川氏は同社のAI/ディープラーニングへの取り組みなどについて説明した後、「Intelとの協業によりChainerのIntelアーキテクチャでの最適化を実現していく。それによりディープラーニングのアプリケーションを開発している開発者に大きなメリットを提供できる」と述べ、Intelとの協業に期待感を示した。

ChainerをIntelアーキテクチャに最適化していく
Intel データセンター事業本部 アクセラレータ・ワークロード事業開発本部 バリー・デービス氏(左)と株式会社Preferred Networks 代表取締役 兼 CEO 西川徹氏(右)

 これまで、ChainerはIntelの競合になるNVIDIAのGPUへの最適化が行なわれてきた歴史があるが、今後Intelのハードウェアである「Xeon」「Xeon Phi」、また今後リリースされるディープラーニングの訓練アクセラレータとなる「Lake Crest」などにChainerの最適化が進んでいけば、多くの研究者の手元にあるIntelアーキテクチャベースのPCなどでの性能が上がったり、GPUを利用している場合でもCPUも演算に利用しているので、そちらの性能が上がったりということが期待できる。日本では、Googleの「TensorFlow」などと並んでChainerを利用している研究者が多いと考えられるので、要注目の提携だと言える。

東京工業大学の松岡教授が「AIの研究にはHPCへの投資が重要」と説明

国立研究開発法人 産業技術総合研究所 人工知能研究センター 特定フェロー/東京工業大学 学術国際情報センター教授 松岡聡氏

 続いて、ゲスト講演に登壇したのは、産業技術総合研究所 人工知能研究センター 特定フェロー/東京工業大学 学術国際情報センター教授 松岡聡氏。松岡教授は日本のHPC研究の第一人者で、東工大の「TSUBAME」と呼ばれる独自のスーパーコンピュータは、効率が重視されるGreen 500という世界的なランキングで常に上位を争っている。東工大では、先日第3世代のTSUBAMEとなる「TSUBAME 3.0」を発表したばかり、今後本格的な稼働に入っていく状況だ。

松岡教授が取り組んできたTSUBAME 2.0の歴史
TSUBAMEと京の違い

 松岡教授は「米国などではGoogleやMicrosoftなどの巨大なIT企業による、AIを演算するための環境が整いつつある。それに対して我が国ではそれが十分ではなくて、それがないと技術が進まない状況」と述べ、そうしたAIの研究に最適化したHPCやスーパーコンピュータの整備が急務だと説明した。

 そうした中で、東工大ではTSUBAME 3.0という新しいスーパーコンピュータを作り、そこにはXeonプロセッサや、Intel Omni-Pathという光ネットワークなどのIntelの技術も使われていることを紹介。AI/ディープラーニングで活用される半精度以上の浮動小数点演算で65.8ペタFLOPSの演算性能を備えていることなどを紹介した。

米国などでは巨大なITベンダによりAIの演算環境が整いつつある
TSUBAME 3.0のシステム概要
半精度以上での性能比較

 講演の最後で松岡教授は「すでにエクサ(筆者注:ペタの1000倍)FLOPSを実現するHPCのデータセンターを作れる技術的な目処は付いている。まだ予算は付いていないが、2019年には実現可能だ」と述べ、今後もAIの研究を日本でも加速していくために、HPC研究への投資が欠かせないと訴えた。

日本のAI研究の発展のためにはHPCやスーパーコンピュータへの投資が必要だと松岡教授