InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表
2025年のPyTorchカンファレンスにおいて、PyTorch FoundationはオープンでスケーラブルなAIインフラの推進を目指したいくつかの取り組みを発表した。財団は、分散コンピューティングフレームワークであるRayをホストプロジェクトとして歓迎し、複数のマシンにわたる分散AIワークロードを簡素化する新しいフレームワーク「PyTorch Monarch」を紹介した。また、イベントではスタンフォード大学のMarinやAI2のOlmo-Thinkingなどの新しいオープンリサーチプロジェクトも取り上げられ、基盤モデルの開発における透明性と再現性の重要性が高まっていることが強調された。
-
Discord、単一GPUワークフローから共有RayクラスターへのMLプラットフォーム拡張
Discord社は、単一GPUトレーニングの限界に直面した後、機械学習プラットフォームを再構築した方法を詳述した。RayとKubernetesを標準化し、ワンクリックでクラスターを作成できるCLIを導入し、DagsterとKubeRayを通じてワークフローを自動化することで、分散トレーニングを日常的な運用に変更できた。これらの変更により、大規模モデルの毎日の再トレーニングが可能となり、広告ランキングの主要指標で200%の向上を達成した。
-
Agentica ProjectのオープンソースAIモデルDeepCoderがOpenAIのO1をコードベンチマークで上回る
Agentica ProjectとTogether AIは、Deepseek-R1-Distilled-Qwen-14Bを基盤としたオープンソースAIコードモデルDeepCoder-14B-Previewを公開した。このモデルはLiveCodeBenchで60.6%の合格率を達成し、OpenAIのO1モデルを上回り、O3-miniの性能に匹敵する結果を示した。
-
Instagram、新ランキングフレームワークで通知疲れを軽減し、エンゲージメントを向上
Meta社は、Instagramにおいて新しい機械学習フレームワークを導入した。このフレームワークは多様性アルゴリズムを適用し、繰り返し表示されるコンテンツを減らしながらユーザーエンゲージメントを維持できるものだ。この多様性を意識したランキングシステムは、同じコンテンツ作成者や製品タイプへの過剰な露出を軽減するために、既存のエンゲージメントモデルに乗算ペナルティを導入している。
-
AnthropicがClaudeパフォーマンス問題の背後にある3つのインフラストラクチャバグを公開
Anthropicは最近、Claudeモデルの出力品質が数週間にわたり断続的に低下していた原因について、3つの異なるインフラストラクチャのバグが関与していたことを明らかにするポストモーテムを公開した。同社はこれらの問題を解決し、同様の障害を防ぐために内部プロセスを変更していると述べているが、コミュニティは3つのハードウェアプラットフォームでサービス運用することの課題をハイライトしている。
-
Arm社がSME2(Arm Scalable Matrix Extension 2)のAndroid実装を開始。AndroidデバイスでもAIアプリケーションの高速化を実現。
この度、Armv9-Aアーキテクチャに、行列演算を多用するワークロードの高速化に向けて設計された高性能な拡張命令セット「SME2(Scalable Matrix Extension 2)」が実装となった。今回導入されるSME2はモバイルアプリ開発に活用でき、高度なAI処理をCPUから直接実行する際のパーフォーマンス改善や効率改善が可能になるという。また、使用にあたってのアプリツール変更も不要だ。
-
Amazon、AIエージェント開発向けオープンソースSDK「Strands Agents」を公開
Amazon社は、AIエージェント開発をモデル駆動型アプローチで簡素化するオープンソースSDK「Strands Agents」を公開した。このフレームワークは、最小限のコードでプロンプトとツールリストを定義することでエージェントを構築できる。
-
Google DeepMindがAlphaGenomeを発表:高解像度ゲノム解釈のための統合AIモデル
Google DeepMindは、AlphaGenome、遺伝子変異がゲノム全体の遺伝子調節にどのように影響するかを予測する新しいAIモデルのリリースを発表した。これは、単一の汎用アーキテクチャで塩基対レベルの解像度を持つ長距離の配列コンテキストを統合することにより、計算ゲノミクス分野で大きな進歩を示している。
-
Gemma 3がモバイルAI推論を拡張するための斬新な手法を導入
昨年5月に初期プレビュー版が公開されたGemma 3nが正式に利用可能となった。モバイル優先のオンデバイスAIアプリケーションを対象としており、効率を向上させ、性能を改善するための新しい技術、Per-Layer EmbeddingsやTransformer Nestingといった手法が含まれる。
-
Uberがマイクロサービスと大規模計算ワークロードのための大規模なKubernetes移行を完了
Uberは、複数のデータセンターとクラウド環境にわたって、Apache MesosからKubernetesへの大規模な移行を無事完了した。ライドシェアの大手であるUberのエンジニアリングチームは、技術ブログ投稿シリーズでその包括的な移行過程を詳細に説明し、数千のマイクロサービスと大規模計算ワークロードの移行における課題、解決策、学んだ教訓を明らかにした。
-
GoogleがML KitにGemini Nanoを導入、新しいオンデバイスGenAI APIを提供
ML Kitに最近追加された新しいGenAI APIは、開発者がGemini Nanoを使ってAndroidアプリでオンデバイス推論を可能にし、要約、校正、書き換え、画像説明などの機能をサポートする。
-
OpenAI、Stargateプロジェクトで世界のパートナー国にAIインフラを構築へ
OpenAIは、Stargateプロジェクトの一環として「OpenAI for Countries」という新たなイニシアチブを発表した。この取り組みは、民主主義の原則に基づいた各国でのAIインフラ構築を目指している。この拡大計画は、同社が米国でのAIインフラに5000億ドルを投資する初期計画に続くものだ。
-
UberのKubernetes上でのRayへの道のり
Uberは、Rayベースの機械学習ワークロードをKubernetes上で実行するための最近の移行について詳細を発表した。これはインフラストラクチャの進化を示しており、スケーラビリティ、効率性、開発者体験の向上を目指している。Uber Engineeringからの二部構成のシリーズが最近公開され、この移行中に直面した動機、課題、解決策について掘り下げている。
-
Google Cloud、Cloud Storageに階層型ネームスペースを導入し、AI/MLワークフローを強化
2025年3月17日、Google CloudはCloud Storageに階層型ネームスペース(HNS)機能を導入し、データの整理、パフォーマンス、信頼性を向上させることで、AIおよび機械学習(ML)ワークロードの最適化を目指した。
-
DeepSeek社、数学定理証明向けLLM「Prover-V2」をオープンソースで公開
DeepSeek社は、Lean 4における数学定理証明に特化した新しいオープンソースの大規模言語モデルDeepSeek-Prover-V2を公開した。このモデルは、同社の基盤モデルであるDeepSeek-V3を活用した再帰的定理証明パイプラインを基盤として構築されている。Lean 4は、Microsoft Researchが開発した最新バージョンのLean定理証明ツールであり、機械による検証が可能な形式的証明を数学者やコンピュータ科学者が記述できる対話型証明支援システムである。