ニュース
NVIDIA、AI学習と推論を20倍高速化する新型GPU「NVIDIA A100」。Ampereアーキテクチャ採用
8基搭載する「DGX A100」は5PFLOPSのAI性能
2020年5月15日 02:45
- 2020年5月14日(現地時間) 発表
自社の半導体をベースにAI(人工知能)プラットフォームや自動運転プラットフォームを提供するNVIDIAは5月14日(現地時間)、新たなAmpereアーキテクチャを採用する新型GPU「NVIDIA A100」を発表した。このA100は、Voltaアーキテクチャを採用する従来型GPU「NVIDIA V100」の後継モデルにあたり、AIのトレーニング(学習)およびインファレンス(推論)性能は最大で20倍になるという。
NVIDIAの創業者/CEOであるジェンスン・フアン(Jensen Huang)氏は「クラウドコンピューティングとAIの強力なトレンドは、データセンターの設計に構造的な転換をもたらしています。かつてはCPUのみのサーバーで溢れていたものが、今ではGPUアクセラレーテッドコンピューティングになっています。NVIDIA A100 GPUはAI性能を20倍に飛躍させ、データアナリティクスから学習、推論まで、エンドツーエンドの機械学習を加速します。NVIDIA A100はスループットを向上し、同時にデータセンターの費用削減を実現します」とコメント。AIの学習と推論だけでなく、科学シミュレーション、会話型AI、レコメンデーションシステム、ゲノミクス、ハイパフォーマンス データ アナリティクス、地震モデリングおよび金融予測といった、多様で要件の厳しいワークロードに最適なGPUとしている。
NVIDIAは、このA100を8基搭載するAIシステム「DGX A100」も同時発表。ピーク時においてFP16では5PFLOPSのAI性能、INT8では10PetaOPSのAI性能を発揮するとし、価格は19万9000ドル。このDGX A100を5台使用することで、50台のAI学習用DGX-1、600 CPUのAI推論用システムを持つ従来システムを置き換えることができるという。
ジェンスン・フアン氏は、従来システムが1100万ドルで630kWの電力消費だったのに対し、DGX A100 AIシステムは100万ドルで28kW。コストは1/10に、電力は1/20になると紹介。近年の同氏のプレゼンテーションでは決まり文句となっている「The more you buy, the more you save」を、このシステムの紹介で披露した。