InfoQ ホームページ ニュース
-
GrafanaとGitLabがサーバーレスCI/CDの可観測性統合を導入
開発ワークフローを効率化する取り組みとして、Grafana LabsのDaniel Fitzgerald氏が、GitLabのCI/CDイベントをサーバーレスアーキテクチャ経由でGrafanaのオブザーバビリティスタックに連携する新しいオープンソース・ソリューションを公開した。この統合によりプッシュ、マージリクエスト、パイプライン完了といったGitLabのWebhookイベントを、デプロイイベントとパフォーマンスメトリクスの関連をリアルタイムで可視化し、相関分析するためにGrafana Cloud Logs (Grafana Loki上に構築された)へ直接送信できるようになった。
-
PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表
2025年のPyTorchカンファレンスにおいて、PyTorch FoundationはオープンでスケーラブルなAIインフラの推進を目指したいくつかの取り組みを発表した。財団は、分散コンピューティングフレームワークであるRayをホストプロジェクトとして歓迎し、複数のマシンにわたる分散AIワークロードを簡素化する新しいフレームワーク「PyTorch Monarch」を紹介した。また、イベントではスタンフォード大学のMarinやAI2のOlmo-Thinkingなどの新しいオープンリサーチプロジェクトも取り上げられ、基盤モデルの開発における透明性と再現性の重要性が高まっていることが強調された。
-
Uberのクエリアーキテクチャ:レイヤーの簡素化とオブザーバビリティの向上
Uber社は、Apache Pinotのクエリアーキテクチャを再設計し、実行の簡素化、より豊かなSQLのサポート、内部分析ワークロードの予測可能性の向上を図った。従来のNeutrinoシステムは、PrestoとPinotを重ねたものであったが、軽量なプロキシ「Cellar」に置き換えられ、Pinotのマルチステージエンジンライトモードを使用することになった。この再設計は、複雑さを軽減し、実行制限を強化し、複数のテナントに対するより強固な隔離を提供することを目的としている。
-
Memori、AIエージェント向けのSQLとMongoDBを活用したフルスケールのメモリレイヤーへ拡張
Memoriは、AIエージェントに長期的で構造化されたクエリ可能なメモリを提供するために設計された、フル機能を備えたオープンソースのメモリシステムへと成熟した。これにより、従来のプロプライエタリなベクトルストアではなく、標準的なデータベースを使用できる。Memoriは、アドホックなプロンプトや一時的なセッション状態に依存する代わりに、インタラクションからエンティティ、事実、関係、コンテキストを継続的に抽出し、それらをSQLやMongoDBのバックエンドに保存する。それにより、エージェントは手動でのオーケストレーションを行うことなく、セッションをまたいで情報を記憶し再利用が可能だ。
-
Discord、単一GPUワークフローから共有RayクラスターへのMLプラットフォーム拡張
Discord社は、単一GPUトレーニングの限界に直面した後、機械学習プラットフォームを再構築した方法を詳述した。RayとKubernetesを標準化し、ワンクリックでクラスターを作成できるCLIを導入し、DagsterとKubeRayを通じてワークフローを自動化することで、分散トレーニングを日常的な運用に変更できた。これらの変更により、大規模モデルの毎日の再トレーニングが可能となり、広告ランキングの主要指標で200%の向上を達成した。
-
Android GenAIプロンプトAPI、Gemini Nanoで自然言語リクエストを実現
ML Kit GenAI Prompt APIIがアルファ版で利用可能となり、Android開発者はデバイス上で動作するGemini Nanoに自然言語およびマルチモーダルリクエストを送信できるようになった。このAPIは、初期のGenAIリリースで導入されたテキスト要約や画像説明の機能を拡張するものである。
-
Helm、6年ぶりの大型リリースでKubernetesパッケージ管理を改善
Helmは、Kubernetesアプリケーションパッケージマネージャーとして公式にバージョン4.0.0に到達した。Helm 4は6年ぶりの大規模アップグレードであり、Cloud Native Computing Foundation(CNCF)の指導のもとでHelmの10周年を迎える節目でもある。このアップデートは、スケーラビリティ、セキュリティ、開発者のワークフローに関するいくつかの課題に対応することを目的としている。
-
Transformers v5、よりモジュール化され相互運用性の高いコアを導入
Hugging Face社は、Transformers v5の最初のリリース候補を発表した。このリリースは、5年前のv4リリース以来大きく進化してきたTransformersライブラリにとって重要な一歩である。Transformersは、専門的なモデルツールキットからAI開発の主要なリソースへと移行し、現在では1日あたり300万以上のインストール数を記録し、累計で12億以上のインストール数を達成している。
-
AWS、ECS Express Modeを発表。コンテナ化アプリケーションの展開を簡素化
AWSはAmazon ECS Express Modeをリリースし、コンテナ化されたウェブアプリケーションやAPIの展開プロセスを簡素化した。Express Modeでは、IAMロールやロードバランサー、スケーリングなどの付随的な要件に関する詳細を省略し、プロダクション対応のサービスを一度で展開できる。
-
QCon AI New York 2025:「AIは機能するが、プルリクエストは機能しない:AIがソフトウェア開発ライフサイクル(SDLC)を破壊する理由とその対策」
CircleCI社の主任エンジニアであるMichael Webster氏は、2025年に初めて開催された「QCon AI New York 2025において、「AI Works, Pull Requests Don’t: How AI Is Breaking the SDLC and What to Do about it(AIは機能するが、プルリクエストは機能しない:AIがSDLCを破壊している現状とその対策)」と題した講演を行った。
-
OpenAI、GPT-5.1モデルを発表。より高速で会話的に
OpenAIは最近、GPT-5モデルのアップグレード版を公開した。GPT-5.1 Instantはデフォルトのチャットモデルであり、指示の理解力が向上している。GPT-5.1 Thinkingは推論モデルであり、より迅速で理解しやすい応答を提供する。GPT-5.1-Codex-Maxはコーディングモデルであり、長時間のタスクを効率的に実行するために圧縮技術を活用するよう訓練されている。
-
Dev Proxy v1.3.0: HARファイル生成、LLM使用状況追跡、強化APIテスト機能
Microsoft 365開発チームはデバッグ、テスト、APIモニタリング改善を目的としたいくつかの新機能を導入したDev Proxy v1.3.0のリリースを発表した。このアップデートには標準化されたネットワークトレースのためのHARファイル生成と、AI関連コストをより明確に把握するためのOpenAI使用状況追跡を含む2つの新しいプラグインが追加され、加えて権限分析、OpenAPI仕様の生成、全体的な安定性の向上も図られている。
-
Cloudflare、データプラットフォームをエグレス料金ゼロで導入
Cloudflareは最近、Cloudflare Data Platformのオープンベータ版を発表した。これは、Apache Icebergなどのオープンスタンダードを使用して、分析データテーブルを取り込み、保存し、クエリを実行するためのマネージドソリューションである。
-
Agentica ProjectのオープンソースAIモデルDeepCoderがOpenAIのO1をコードベンチマークで上回る
Agentica ProjectとTogether AIは、Deepseek-R1-Distilled-Qwen-14Bを基盤としたオープンソースAIコードモデルDeepCoder-14B-Previewを公開した。このモデルはLiveCodeBenchで60.6%の合格率を達成し、OpenAIのO1モデルを上回り、O3-miniの性能に匹敵する結果を示した。
-
JobRunr 8.0、カーボンアウェアジョブ、Kotlinシリアライゼーション、ダッシュボード通知センターを提供
JobRunr 8.0のリリースにより、Carbon Aware Job Processingが導入された。これは、ジョブをスケジュールする際に開発者のカーボンフットプリントを最適化する新機能だ。他の新機能には、Kotlinシリアライゼーションのサポート、新しいダッシュボード通知センター、新しい@AsyncJobアノテーションが含まれており、ルーチンジョブ作成のボイラープレートを削減する。