世界初のAIシステムと呼ばれるワケ
①GPUは8基の最新のAmpereアーキテクチャ「NVIDIA A100 」を搭載
→ GPU当たり12のNVLink GPU から GPU への帯域幅 600 GB/秒
②9x MELLANOX CONNECTX-6 VPI HDR INFINIBAND/ 200 Gb/s イーサネット
→ ピーク時における双方向帯域幅 450 GB/秒
③第2世代のNVIDIA® NVSwitch™
→ 前世代との比較で2倍の双方向帯域幅 4.8 TB/秒、
④デュアル64 コアAMD CPU と 1TB システムメモリ
→ 最も集中的なAIジョブを強化する3.2 倍のコア
⑤15 TB の GEN4 NVME SSD
→ ピーク時の帯域幅25 GB/秒 Gen3 NVME SSDから2倍高速
規模を問わない前例のない加速
新しいGPUのNVIDIA A100が演算性能が倍の精度となり、従来のGPUの約2.5倍の19.5 TFLOPS、
単精度をFP32とFP16のハイブリッド方式の「TF32」を採用し、
ソフトウェアを改編せず、312 TFLOPSスループットの実現を可能にします。
第3世代の NVIDIA Tensor コアによって大幅に性能の向上が可能になり、
NVIDIA A100を数千まで効率的にスケール アップ出来ます。
また、マルチインスタンス GPUを利用した場合、様々なサイズのワークフロー加速の為の
小さな7つの専用インスタンスとして割り当てることも出来ます。
性能と安心のセキュリティ体制
■マルチインスタンスGPU(MIG)
MIGを利用すると、8つのDGX A100のGPU「NVIDIA A100」を最大で56個のGPUインスタンスとして形成し、
それぞれの独自高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離する事が出来ます。
このため管理者は、複数のワークフローに対しQoS (サービス品質) が保証された
GPUサイズを最適に設定が可能に。
■次世代NVLinkとNVSwitch
第3世代のDGX A100のNVIDIA® NVLink®は、
600ギガバイト/秒 (GB/s) までGPU → GPU への直接帯域幅を倍増させます。
これはPCIe Gen4の約10倍相当で、DGX A100には、
次世代のNVIDIA NVSwitch™も搭載されており、これは前世代と比べて2倍の速度を可能にします。
■Mellanox ConnectX-6 VPI HDR InfiniBand
DGX A100は最新型のイーサネット アダプター/Mellanox ConnectX-6 VPI HDR InfiniBandを搭載しており、
各々が200ギガバイト/秒 (GB/s) で動作し、大規模なAI ワークフロー用の高速ファブリックを構築します。
■最適化されたソフトウェアスタック
DGX A100はAI チューニング済の基本オペレーティングシステムや、
必要なシステムソフトウェア、トレーニング済モデル、GPU対応アプリケーション、NGC™ の各種機能等が、
試験済みで最適化されたDGX ソフトウェア スタックが統合しています。
■セキュリティ
様々な主要ソフトウェアコンポーネントとハードウェアを保護する為、自動暗号化ドライブや、
署名つきソフトウェアコンテナー、安全性の高い監視と管理といったマルチレイヤーアプローチの採用で、
AI 導入に関しても最も高い信頼性でセキュリティ体制を実現させます。