BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース AMDがディープラーニングアクセラレーターInstinct MI200シリーズGPUを発表

AMDがディープラーニングアクセラレーターInstinct MI200シリーズGPUを発表

原文(投稿日:2021/12/03)へのリンク

AMDは最近のAccelerated Data Center Premiere Keynoteで、MI200アクセラレータシリーズのInstinct MI250xと、それよりもわずかにローエンドのInstinct MI250 GPUを発表した

現在まで、それらはAMDの最高性能のサーバーアクセラレータであり、以前のInstinct MI100を上回り、Nvidiaの最新のAmpereシリーズGPU(A100など)と競合するものである。CDNA-2アーキテクチャとTSMCの6nm FinFETリソグラフィで設計されたハイエンドMI250Xは、47.9 TFLOPsのピーク倍精度(FP64)パフォーマンスと128GBのHBM2eメモリを提供する。モデルのシャーディングを最小限に抑えることで、より大規模なディープネットワークのトレーニングを実現する。仕様の技術的な詳細は、公式ページにも記載されている。

図1:AMD ROCm 5.0ディープラーニングとHPCスタックコンポーネント。詳細については、ROCmラーニングセンターをご覧ください。

AMDは、オープンソースの並列化ライブラリをサポートしていることで知られている。低レベルでは、AMD ROCm(別名Radeon Open Compute)4.5リリースにより、CUDA互換プログラミング用のOpenCLOpenMPHIP(別名、移植可能なヘテロジニアスコンピューティングインターフェイス)を介した並列化が実現された。5.0リリース(図-1)では、AMDは新しいMI200シリーズGPUのROCmサポートを拡大し、さらに最適化する計画だ。高レベルでは、AMDはプラットフォームでONNXPyTorchTensorFlowMXNetCuPyをサポートし、機械学習コードを移植できる。新しいMI200シリーズによって提供される浮動小数点処理速度を考えると、コントリビュータが残りのAPIをこれらのライブラリに移植するために急いでいると予想される。

AMDはマイクロサービスのサポートを大幅に改善した。これはアクセラレータ用にパフォーマンスが調整されたコンテナーを提供するInfinity Hubを確立することによるものだ。公式のPyTorchTensorFlowのコンテナイメージに加えて、Infinity Hubには、AMDハードウェアでの高性能コンピューティングと並列処理が必要となるアプリケーションのためのツールが含まれている。

ビジュアルコンピューティングアプリケーションに対しては、AMDは、GPUOpenグラフィックエコシステム内に個別にMIVisionXプロジェクトを保持する。OpenCVのようなプラットフォームに最適化されたエンコード、デコード、および処理モジュールもある。同社はまた、一般的な行列乗算線形代数APIを備えた機械学習プリミティブライブラリMIOpenを提供する。OpenCLとHIPコンパイラを使った低レベルの開発に使用できる。

MI200 GPUは、2022年までにクラウドプラットフォームで利用される予定である。詳細については、AMD CDNA-2アーキテクチャのホワイトペーパーを参照してください。

この記事に星をつける

おすすめ度
スタイル

BT