<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=145304570664993&amp;ev=PageView&amp;noscript=1">
Graphcore Poplar SDK 2.4 software release

Jan 12, 2022 \ Poplar, Software

Poplar SDK 2.4が登場

筆者

Laurence Herbert

Poplar SDK 2.4がリリースされ、当社サポートポータルとDocker Hubからダウンロードできるようになりました。
 
今回のリリースは、ソフトウェアのリリースと最適化において大きな成功を収めた一年の集大成であるとともに、継続的な進歩やソフトウェアの成熟度、使いやすさ、スケールアウト能力、さらにはリファレンスアプリケーションやMLPerfの評価結果によって実証された高性能ベンチマークなども具現化する、新たなエコシステムパートナーシップの集大成でもあります。

Poplar SDK 2.4の新機能

今回のリリースでは、使いやすさと性能をさらに向上させ、開発者が機械学習モデルをさらに高速化できるようにするための改良が数多く実装されているほか、GitHubの公開サンプルに新しいアプリケーションのコードが追加されています。
 
  • ViT、UNet、GPT、RNN-T、FastSpeech2、TGNなどの新しい公開サンプル 
  • コンパイル時間の最適化
  • TensorFlowにおける実行時の勾配蓄積数の動的設定
  • IPU TensorFlowアドオンパッケージ
  • PopRun/PopDist for Distributed TensorFlow 2 (プレビュー):使いやすい分散マルチホストスケールアウトサポート 
  • PopARTおよびPyTorch向けにI/Oとコンピュートをオーバーラップ
  • PopVision System AnalyserのIPU使用率レポートを強化
  • Debian 10.7をフルサポート
 
これらの新機能の詳細については、SDK 2.4.0のリリースノートをご覧ください。

開発者エクスペリエンスを強化

Poplar SDK 2.4では、IPUシステム上でAIアプリケーションを簡単に高速化できるよう、数多くの改良が実装されています。 
 
拡大し続ける当社のModel Gardenですが、今回のリリースではAI専門家向けアプリケーションが多数追加されたほか、コンピュータビジョンやNLP、音声処理、GNNをカバーする複数のML分野でモデルの対応範囲を拡大。これまでで最も大規模な更新となりました。新しいモデルには、Vision TransformerやUNet、GPT、RNN-T、FastSpeech2、Temporal Graph Networks(TGN)などがあります。これらはGitHubから直接アクセスできるほか、Graphcoreウェブサイトの開発者ポータルModel Gardenのページからもアクセスできます。
 
コンパイル時間の最適化により、モデル開発時のイテレーション時間を短縮。最大で28%の改善を実現しました。

TensorFlowの機能

TensorFlowにおいて、パイプライン化されたモデルに対して実行時に勾配蓄積数を指定できるようになりました。これによってグローバルバッチサイズを動的に定義できるようになるうえ、このハイパーパラメータの調査や調整を行う際に、実験をより高速に行えるようになります。新しいIPU TensorFlowアドオンパッケージには、AdamやStochastic Gradient Descent、LAMBなど、Graphcoreのアプリケーションチームが開発した(TensorFlow 2で使用できる)IPU固有のKerasオプティマイザが含まれています。

I/Oをオーバーラップ

Poplar Advanced Runtime(PopART)やPyTorchフレームワークのI/Oとコンピュートをオーバーラップさせる機能を導入することで、コンピュート効率を引き上げ、IPUハードウェア上で動作するプログラムの大幅な高速化も実現しています。

PopVisionツール

開発者はPopVision分析ツールを使ってアプリケーションの性能をより深く理解できますが、PopVision System Analyser向けの改良されたIPU使用率レポートが今回のリリースで追加されました。当社ウェブサイトからPopVisionを直接ダウンロードすることもできます。

Debian 10.7をサポート

Poplar SDK 2.3で実装されたDebian 10.7のプレビューサポートに続き、今回のリリースではこのオペレーティングシステムをフルサポートしています。

開発者向け資料を拡充

開発者向けドキュメント「Memory and Performance Optimisation(メモリと性能の最適化)」ガイドを当社ドキュメンテーションポータルで新たに公開し、IPU向けのモデルの移植と最適化に関する詳細なガイダンスをご紹介しています。 分散学習でのPopRun/PopDistの使用方法を紹介する新しい例(TensorFlow 2PyTorch)もあります。
 
最新のドキュメンテーションやチュートリアル、コード例、ウェビナー、ビデオ、研究論文など、IPUのプログラミングに関するあらゆる資料は当社の開発者ポータルでご覧いただけます。ぜひご活用ください。

その他の投稿