MetaとAWSは協力して、AWSでPyTorchを実行しているアプリケーションのパフォーマンスを改善する計画である。そして、開発者が人工知能と機械学習モデルを構築、トレーニング、デプロイ、運用する方法を加速する。
PyTorchは、機械学習モデルの開発と本番環境へのデプロイを容易にするオープンソースのディープラーニングフレームワークである。PyTorchは、分散トレーニング用の動的な計算グラフとライブラリも提供する。これらは、AWSで高いパフォーマンスが出るように調整される。
PyTorch on AWSは、Amazon EC2インスタンス、Elastic Fabric Adapter、他のストレージ、ネットワーク、インフラストラクチャ技術を利用するように設計されている。さらに、PyTorch on AWSはツールとモデルの豊富なエコシステムを提供しており、PyTorchを拡張している。ツールには、torchvision、torchaudio、torchtext、torchelastic、torch_xlaなどがある。
PyTorchのモデル提供ライブラリであるTorchServeは、モデルを本番環境に準備する開発者と、本番環境にコンテナーをデプロイする運用エンジニアの両方にとって使いやすいものだ。TorchServeは、イーガーモードとTorchScriptをサポートする。最も一般的にデプロイされるモデルのデフォルトハンドラーが付属しており、コードを変更せずにデプロイできる。TorchServeは複数のモデルを同時にホストでき、バージョン管理をサポートする。TorchServeの機能には、マルチモデルサービング、A/Bテスト用のモデルバージョン管理、監視用のメトリック、アプリケーション統合用のRESTfulエンドポイントが含まれる。TorchServeは、Amazon SageMaker、Kubernetes、Kubernetes, and Amazon EKSなどのあらゆる機械学習環境をサポートする。
Metaによって、PyTorch on AWSが、AIアクセラレーターの分散システム全体で大規模なトレーニングジョブのオーケストレーションができるようになる。これにより、開発者は自然言語処理とコンピュータービジョンのための大規模な深層学習モデルを簡単に構築できるようになる。
両社は協力して、PyTorchのパフォーマンス、説明可能性、推論のコストを改善するためのネイティブツールを提供する。
このパートナーシップにより、過去5年間でMetaとAWSの間の既存の関係が拡大した。現在、MetaはAWSインフラストラクチャと機能を使用して、既存のオンプレミスインフラストラクチャを補完している。AWSコンピューティング、ストレージ、データベース、セキュリティサービスの使用を拡大して、クラウドでプライバシー、信頼性、拡張性を提供する予定である。