BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表

PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表

原文リンク(2025-10-30)

2025年のPyTorchカンファレンスにおいて、PyTorch FoundationはオープンでスケーラブルなAIインフラの推進を目指したいくつかの取り組みを発表した。財団は、分散コンピューティングフレームワークであるRayをホストプロジェクトとして歓迎し、複数のマシンにわたる分散AIワークロードを簡素化する新しいフレームワーク「PyTorch Monarch」を紹介した。また、イベントではスタンフォード大学のMarinAI2のOlmo-Thinkingなどの新しいオープンリサーチプロジェクトも取り上げられ、基盤モデルの開発における透明性と再現性の重要性が高まっていることが強調された。

Rayの導入は、モデル開発、サービス提供、分散実行にわたる統一されたオープンエコシステムを構築するという財団の広範な戦略を反映している。もともとはカリフォルニア大学バークレー校のRISELabで開発されたRayは、分散計算をローカルコードを書くのと同じくらい直感的に行えるようにするコンパクトなPythonプリミティブのセットを提供し、開発者がトレーニング、チューニング、推論のワークロードをシームレスにスケールさせることを可能にしている。

Rayの採用は、分散学習用のDeepSpeedや高スループット推論用のvLLMなど、財団傘下の他の最近のプロジェクトを補完する。PyTorch、DeepSpeed、vLLM、そしてRayは、実験から本番環境への展開まで、モデルのライフサイクル全体をカバーする、統合されたオープンソーススタックを形成する。

出典:PyTorch Foundationブログ

並行して、MetaのPyTorchチームは、GPUクラスター全体を単一の論理デバイスとして抽象化することを目的としたフレームワーク「PyTorch Monarch」を発表した。Monarchの配列のようなメッシュインターフェースは、開発者がPython的な構文を用いて並列性を表現できるようにし、システムはデータと計算の分配を自動的に管理する。Rustベースのバックエンドに基づいて構築されたMonarchは、パフォーマンスと安全性を組み合わせることを目指し、分散プログラミングに伴う認知的負荷を軽減することを目指している。

カンファレンスでは、基盤モデルの開発と研究におけるオープンな協力がさらに強調された。スタンフォード大学のPercy Liang氏は基調講演で、基盤モデル研究センターの下にあるオープンラボ「Marin」を紹介した。このラボは、データセット、コード、ハイパーパラメータ、トレーニングログを公開することで、最前線のAI開発を完全に透明にし、再現性とコミュニティの参加を促進することを目指している。

同様に、Ai2のシニアリサーチサイエンティストであるNathan Lambert氏は「Olmo-Thinking」を発表した。これは、トレーニングプロセス、モデルアーキテクチャの決定、データソーシング、トレーニングコードの設計に関する詳細を公開したオープンな推論モデルであり、これらの情報は通常、クローズドモデルのリリースには欠けている。これらの取り組みは、オープンで再現可能な基盤モデルに向けたより広範な動きと一致している。

PyTorch Foundationは、コアフレームワークの開発を超えた範囲を拡大することで、オープンAIインフラの中心的なハブとしての地位を確立している。2026年にサンノゼで開催される予定の次回のPyTorchカンファレンスでは、エコシステムの協力と開発者の支援に対するこの焦点が引き続き強調されると期待されている。

作者について

この記事に星をつける

おすすめ度
スタイル

特集コンテンツ一覧

BT