InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
OpenAI、QCon AI NYCで企業向けのファインチューニングを発表
QCon AI NYC 2025において、OpenAIのWill Hang氏は、ツールを使用するエージェントの性能を向上させることを目的とした強化学習型ファインチューニングアプローチであるAgent RFTの概要を発表した。
-
NVIDIA社のDynamoが、マルチノードLLM推論の課題に対応
大規模な言語モデル(LLM)をスケールで提供することは複雑である。現代のLLMは、単一のGPUや単一のマルチGPUノードのメモリおよび計算能力を超えている。そのため、70B以上や120B以上のパラメータモデル、または大きなコンテキストウィンドウを持つパイプラインの推論ワークロードは、マルチノードの分散GPU展開を必要とする。
-
Nuqsがデバウンス、標準スキーマ統合、キーの分離を追加
React向けの型安全なURLステートマネージャーであるNuqsは、最近のリリースにおいて一連の新機能を発表した。これにより、デバウンスされたURL更新、標準化されたスキーマの相互運用性、詳細な再レンダリング制御、実験的なルーター統合といった、長らく待望されていた機能が提供されることになった。
-
Amazon S3 VectorsがGAに、「Storage-First」アーキテクチャをRAGに導入
AWSは最近、ベクトルデータの保存およびクエリをネイティブサポートするクラウドオブジェクトストレージサービス、S3 Vectorsの一般提供を発表した。GAリリースにより、同社はインデックスあたりの容量を40倍に拡張、20億ベクトルまで対応するとともに、100ms未満のクエリレイテンシを実現した。
-
Cloudflare社の年次総括:AIボットの過剰クロールと耐量子暗号50%到達、Goが倍増
Cloudflare社は最近、Radar Year in Reviewの第6版を公開した。結果は、世界のインターネットトラフィックが前年比19%成長したこと、Googlebotの支配的地位、クロール対リファラ比率の上昇、耐量子暗号の広範な採用を明らかにしている。自動化されたAPIリクエストの20%超はGoベースのクライアントによるもので、前年からほぼ倍増した。
-
Meta社、LLM規模学習とハイブリッド並列化を採用した広告生成モデルGEMを公開
Meta社は、同社プラットフォーム全体で広告推薦を改善するために設計された基盤モデルGenerative Ads Model(GEM)の詳細を公開した。GEMは、クリックやコンバージョンといった有意なシグナルが極めて疎な、1日あたり数十億件規模のユーザーと広告の相互作用を処理することで、推薦システムにおける中核的課題に対処するモデルである。GEMは、広告主の目標、クリエイティブ形式、計測シグナル、複数の配信チャネルにまたがるユーザー行動など、多様な広告データから学習する複雑性に対応する。
-
Nuxt、ネイティブなリクエストキャンセルと非同��ハンドラー抽出を導入し性能向上
Vue.jsを基盤とするフルスタックWebアプリケーション構築向けフレームワークのNuxtは、バージョン4.0から4.2を最近リリースし、開発者体験の向上、実験的なTypeScriptプラグイン対応、性能面の改善をもたらした。
-
Microsoft Foundry Agent Service、長期メモリのプレビュー版で状態管理をシンプル化
Microsoftは年次カンファレンスIgniteにてFoundry Agent Serviceのメモリ機能、Agent serviceにネイティブ統合されたフルマネージド長期メモリストア、のパブリックプレビュー版を発表した。
-
PyTorch FoundationがRayを歓迎し、簡素化された分散AIのためのMonarchを発表
2025年のPyTorchカンファレンスにおいて、PyTorch FoundationはオープンでスケーラブルなAIインフラの推進を目指したいくつかの取り組みを発表した。財団は、分散コンピューティングフレームワークであるRayをホストプロジェクトとして歓迎し、複数のマシンにわたる分散AIワークロードを簡素化する新しいフレームワーク「PyTorch Monarch」を紹介した。また、イベントではスタンフォード大学のMarinやAI2のOlmo-Thinkingなどの新しいオープンリサーチプロジェクトも取り上げられ、基盤モデルの開発における透明性と再現性の重要性が高まっていることが強調された。
-
Uberのクエリアーキテクチャ:レイヤーの簡素化とオブザーバビリティの向上
Uber社は、Apache Pinotのクエリアーキテクチャを再設計し、実行の簡素化、より豊かなSQLのサポート、内部分析ワークロードの予測可能性の向上を図っ��。従来のNeutrinoシステムは、PrestoとPinotを重ねたものであったが、軽量なプロキシ「Cellar」に置き換えられ、Pinotのマルチステージエンジンライトモードを使用することになった。この再設計は、複雑さを軽減し、実行制限を強化し、複数のテナントに対するより強固な隔離を提供することを目的としている。
-
Memori、AIエージェント向けのSQLとMongoDBを活用したフルスケールのメモリレイヤーへ拡張
Memoriは、AIエージェントに長期的で構造化されたクエリ可能なメモリを提供するために設計された、フル機能を備えたオープンソースのメモリシステムへと成熟した。これにより、従来のプロプライエタリなベクトルストアではなく、標準的なデータベースを使用できる。Memoriは、アドホックなプロンプトや一時的なセッション状態に依存する代わりに、インタラクションからエンティティ、事実、関係、コンテキストを継続的に抽出し、それらをSQLやMongoDBのバックエンドに保存する。それにより、エージェントは手動でのオーケストレーションを行うことなく、セッションをまたいで情報を記憶し再利用が可能だ。
-
Android GenAIプロンプトAPI、Gemini Nanoで自然言語リクエストを実現
ML Kit GenAI Prompt APIIがアルファ版で利用可能となり、Android開発者はデバイス上で動作するGemini Nanoに自然言語およびマルチモーダルリクエストを送信できるようになった。このAPIは、初期のGenAIリリースで導入されたテキスト要約や画像説明の機能を拡張するものである。
-
Transformers v5、よりモジュール化され相互運用性の高いコアを導入
Hugging Face社は、Transformers v5の最初のリリース���補を発表した。このリリースは、5年前のv4リリース以来大きく進化してきたTransformersライブラリにとって重要な一歩である。Transformersは、専門的なモデルツールキットからAI開発の主要なリソースへと移行し、現在では1日あたり300万以上のインストール数を記録し、累計で12億以上のインストール数を達成している。
-
QCon AI New York 2025:「AIは機能するが、プルリクエストは機能しない:AIがソフトウェア開発ライフサイクル(SDLC)を破壊する理由とその対策」
CircleCI社の主任エンジニアであるMichael Webster氏は、2025年に初めて開催された「QCon AI New York 2025において、「AI Works, Pull Requests Don’t: How AI Is Breaking the SDLC and What to Do about it(AIは機能するが、プルリクエストは機能しない:AIがSDLCを破壊している現状とその対策)」と題した講演を行った。
-
OpenAI、GPT-5.1モデルを発表。より高速で会話的に
OpenAIは最近、GPT-5モデルのアップグレード版を公開した。GPT-5.1 Instantはデフォルトのチャットモデルであり、指示の理解力が向上している。GPT-5.1 Thinkingは推論モデルであり、より迅速で理解しやすい応答を提供する。GPT-5.1-Codex-Maxはコーディングモデルであり、長時間のタスクを効率的に実行するために圧縮技術を活用するよう訓練されている。