2021年9月27日月曜日

GPU単体能力だけではない、AI処理を高速化するハードウェア選定のポイント

https://wp.techtarget.itmedia.co.jp/contents/57784#utm_medium=email&utm_source=tt_news&utm_campaign=2021/09/27


GPUはAI処理における重要要素の1つだが、単体で成果を上げられるわけではない。AI処理の観点からGPUの真価を発揮するためのハードウェア構成について解説するとともに、NVIDIAの認証も取得する有力なGPUサーバの一例を紹介する。

コンテンツ情報
公開日2021/09/01フォーマットPDF種類

製品資料

ページ数・視聴時間2ページファイルサイズ599KB
要約
 AI/ディープラーニング(DL)の処理で必須となるのがGPUである。CPUの数十倍から数百倍という並列演算速度を誇る一方で、実際に高速処理を実現するには、GPUだけでなく、CPU、メインメモリ、ストレージがバランス良く構成されたGPUサーバが必要となる。

 これに加えて重要なのが、CPU、メモリとGPU間を相互接続する伝送路であるインターコネクトの性能だ。AI/DLアプリケーションの性能は、CPU/メインメモリとGPUをつなぐPCIeのトポロジーと帯域に左右され、さらに、DLトレーニング用途には、CPUやメインメモリを介さずGPU間だけで高速に相互データ転送を実現するインターコネクトが必要であり、これを搭載したサーバ選定が前提となる。

 本資料では、HPCやAI/DL活用向けのGPUサーバを紹介している。開発用途に最適なGPUワークステーションを筆頭に、最大で毎秒600GBものGPUペア間通信を可能とする、本格的なAI/DL向けの専用機など、NVIDIA-Certified Systemsの認証を取得し、現代のAI/DLワークロードに対応した豊富な製品を、自社の運用に適した製品選定の参考にしてほしい。

Supermicro® GPUサーバーポートフォリオ

GPU専用機(NVLink / NVSwitch)

• 4GPU: NVLink

• 8GPU, 16GPU: NVLink + NVSwitch

• 空冷、水冷ソリューションに対応

• Intel またはAMD の最新CPUを搭載

GPU専用機(PCIe 4.0)

• PCIe 4.0 フルサイズGPU を最大10枚まで搭載可能

• 1Uから4Uまでのラックマウント筐体サイズ

• GPUはActiveタイプ、Passiveタイプに対応

• GPUの性能を最大限に引き出す冷却設計

• NVLinkブリッジ、QuadroSync2 に対応

GPUワークステーション(PCIe 4.0)

• PCIe 4.0 フルサイズGPUを最大4枚まで搭載可能

• GPUはActiveタイプ、Passiveタイプに対応

• デスクサイドでの使用を考慮した静音設計モデルもあり

• NVLinkブリッジ、QuadroSync2 に対応

GPU汎用機(PCIe 4.0)

• 1U、2UラックマウントサーバーにGPUの搭載が可能(GPUは最大4枚)

• 3.5”または2.5”の大容量ストレージやハードウェアRAIDに対応

• SuperBlade はGPUを搭載可能なブレードでクラウドゲーミングに最適

• AIエッジ向け小型サーバーにもGPUを搭載可能

AS-4124GO-TNAR

AS-4124GO-TNAR+

SYS-420GP-TNAR

SYS-420GP-TNAR+

AS-2124GQ-NART SYS-220GQ-TNAR+

AS-2124GQ-NART+

AS-4124GS-TNR SYS-420GP-TNR SYS-220GP-TNR SYS-120GQ-TNRT AS-2114GT-DNR SYS-210GP-DNR

SYS-740GP-TNRT SYS-740A-T SYS-730A-i AS-5014A-TT SYS-540A-TR SYS-220U-TNR SYS-620U-TNR SYS-220HE-FTNR AS-2024US-TRT SBI-610P-1C2N

SBI-610P-1T2N E403


0 コメント:

コメントを投稿