2024年3月13日水曜日

NVIDIAのAI特化GPUは一体どんなものなのか?ゲーム用GPUとは別物なのか? 2024年03月07日 21時00分

https://gigazine.net/news/20240307-nvidia-ai-gpu/



AIの研究開発が急激に進む中、「AI用GPU」を開発するNVIDIAにも大きな注目が集まっています。しかし、「AIの研究開発や運用にGPUが使われている」ということは知っていても、どんなGPUがどんな規模で使われているのかはイメージしにくいものです。そこで、NVIDIAのAI特化GPUやプラットフォームについてまとめてみました。

H100 Tensor コア GPU - NVIDIA
https://www.nvidia.com/ja-jp/data-center/h100/

DGX H100: 企業向け AI | NVIDIA
https://www.nvidia.com/ja-jp/data-center/dgx-h100/

AIサービスを提供するには、必要なデータを収集してモデルデータを構築する「学習」と、モデルデータにプロンプトを入力して出力を生成する「推論」という2種類の計算処理を実行する必要があります。例えば、画像生成AIの場合は「大量の画像や画像の説明をもとにモデルデータを構築する計算処理」が学習で、「モデルデータを使って画像を生成する計算処理」が推論です。この学習や推論では膨大な計算処理を並列実行する必要があるため、CPUよりもコア数の多いGPUの方が効率的に計算を実行できます。


小規模なモデルデータの学習や推論ならゲーマー向けに出荷されているGPUでも実行可能ですが、ゲーム向けGPUはあくまでゲーム関連の処理に最適化されているため、最大効率を発揮することはできません。そこで、NVIDIAは「Ampere」や、「Hopper」といったAIの学習および推論に最適化したアーキテクチャを開発し、Ampereを採用した「A100」やHopperを採用した「H100」といったAI特化GPUを製品化しました。

H100の見た目はこんな感じ。NVIDIAはH100の価格を公表していませんが、ニューヨーク・タイムズはH100の価格を1台当たり2万5000ドル(約370万円)と報告しています。H100はあまりにも価値が高いため、輸送には装甲車が使われるとのこと。


NVIDIAはAI特化GPUだけでなく、AI特化GPUにCPUやメモリ、ストレージなどを組み合わせたAI処理システム「DGX」も開発しています。H100を搭載した「DGX H100」の見た目はこんな感じ。


DGX H100にはH100が8台搭載され、毎秒900GBでデータを転送できるGPUメモリが640GB搭載されています。また、x86 CPUが2台、システムメモリは2TB、ストレージは30TB搭載されています。


さらに、NVIDIAは32個のDGXを組み込んだAIインフラストラクチャ「DGX SuperPOD」も開発しています。記事作成時点ではDGX SuperPODには DGX A100を採用したモデルとDGX H100を採用したモデルの2種が存在。つまり、DGX H100を採用したDGX SuperPODには1台当たり約370万円のH100が256台搭載されているというわけです。


なお、NVIDIAはすでにH100の2倍の推論性能を備えた「H200」を開発しており、2024年中に出荷開始することを発表しています。

NVIDIAがAIおよびHPC向けGPU「H200」を発表、H100と比べて推論速度が2倍でHPC性能はx86 CPUの110倍 - GIGAZINE


また、NVIDIAのライバルであるAMDもAI特化GPUの開発を進めており、2023年12月にはH100の1.6倍の性能を備えたAI特化GPU「Instinct MI300」を発表しています。

AMDがAIチップ「Instinct MI300」シリーズでNVIDIAの牙城に切り込む、既にOpenAI・Microsoft・Meta・Oracleが採用を決定 - GIGAZINE


0 コメント:

コメントを投稿