InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
Azure AI Foundry Agent ServiceのGAがMulti-Agent Orchestrationとオープンな相互運用性をもたらす
Microsoftは最近、年次開催のBuildカンファレンスでAzure AI Foundry Agent Service、幅広いアプリケーションに対応するためのAIエージェントを構築、展開、管理するための柔軟でユースケースに依存しないマイクロサービスとして設計されたプラットフォーム(モジュール性とスケーラビリティの恩恵を受ける)の一般提供(GA)を発表した。
-
Docker、エージェント開発向けのComposeを拡張し、クラウドオフロードサポートを統合
Dockerは、新機能を発表した。この新機能により、開発者はDocker Composeを使用してエージェントを定義、構築、実行することが可能になり、エージェント開発プロセスの効率化と反復的なタスクの削減を目指している。また、現在ベータ版として提供されているDocker Offloadは、リモートGPUコンピューティングにモデルの構築と実行をシームレスにオフロードする方法を提供した。
-
GoogleがML KitにGemini Nanoを導入、新しいオンデバイスGenAI APIを提供
ML Kitに最近追加された新しいGenAI APIは、開発者がGemini Nanoを使ってAndroidアプリでオンデバイス推論を可能にし、要約、校正、書き換え、画像説明などの機能をサポートする。
-
HashiCorp、AI統合に向けてTerraform MCP Serverをリリース
HashiCorpはTerraform MCP Server、大規模言語モデルがインフラストラクチャをコードとして扱う際の相互作用を改善するために設計されたModel Context Protocolのオープンソース実装をリリースした。リアルタイムTerraform Registryデータ-モジュールのメタデータ、プロバイダのスキーマ、リソースの定義など-を構造化された形式で公開することで、AIシステムは現在の検証済みの構成パターンに基づいて提案できるようになる。
-
Mistral AI社、ソフトウェアエンジニア向けのオープンソースLLM「Devstral」をリリース
先日、Mistral AI社が、新しいオープンソースのLLM「Devstral」のリリースを発表した。Devstralは、同社とAll Hands AI社の共同開発モデルである。ソフトウェアエンジニアリングにおけるワークフローの自動化を主な用途としており、なかでも、推論に複数のファイルやコンポーネントの横断が必要となる複雑な開発環境でのワークフロー改善に特化している。また、コーディングエージェントフレームワークを活用しており、リポジトリ全体における現実世界のプログラミング課題に取り組むことが可能だ。こうした汎用性により、コード補完機能や関数生成機能などの個別タスクに最適化された他のモデルとの差別化が図られている。
-
AWS Shield Network Security Director:ネットワークトポロジーの可視化と改善ガイダンス
AWS Shieldは分散サービス拒否(DDoS)保護で知られているが、新機能のプレビュー:AWS Shield Network Security Director、Shield の役割をDDoS緩和だけに留めず、ネットワーク構成の包括的な可視化を提供し、セキュリティ問題を特定、AWSリソースに対する実用的な改善提案を提供する機能を導入した。
-
Azure AI Foundry Agent Service、プレビューでModel Context Protocolサポートを獲得
マイクロソフトは最近、Azure AI Foundry Agent ServiceにおけるModel Context Protocol (MCP)サポートのプレビューリリースを発表した。5月に一般公開されたこのサービスは人工知能(AI)エージェントの相互運用性を大幅に向上させることを目指している。
-
OpenAI社、信頼性重視の新モデル『o3-pro』を発表――ユーザーフィードバックは賛否で二極化
OpenAI社が、複雑なタスクでの信頼性や応答の分析力に注力した同社最先端モデルの新バージョンo3-proをリリースした。現時点では、ChatGPTのPro・Teamユーザーに公開されているほか、API経由でも利用が可能である。本モデルが従来の「o1-pro」モデルに置き換わる形でリリース中だ。
-
PerplexityがLabsを発表、プロジェクトベースAIワークフローを支援
PerplexityはLabs、従来の質問応答を超えるもっと複雑なタスクをサポートするために設計されたProサブスクライバー向けの新機能をリリースした。このアップデートは検索ベースのインタラクションから、構造化された生成AI駆動のマルチステップワークフローへのシフトを示している。
-
AWSがECS・EKS・サーバーレス向けのオープンソースMCPサーバーを発表
AWS社は、Amazon Elastic Container Service (Amazon ECS)、Amazon Elastic Kubernetes Service (Amazon EKS)、およびAWS Serverless向けのオープンソースModel Context Protocol (MCP)サーバーセットをGitHub上で公開した。これらのサーバーは、Amazon Q DeveloperのようなAI開発アシスタントの能力を強化し、これらのAWSサービスに特化したリアルタイムのコンテキスト情報を提供するものだ。
-
GPUアクセラレーションによるLLM推論をPure Javaに導入
マンチェスター大学のBeehive LabがGPULlama3.javaを公開した。これは、Llama3のJavaネイティブ実装として初めて自動GPUアクセラレーションを実現したプロジェクトである。このプロジェクトはTornadoVMを活用し、開発者がCUDAやネイティブコードを記述する必要なく、GPUアクセラレーションによる大規模言語モデル推論を可能にする。これにより、Java開発者が企業環境でAIアプリケーションに取り組む方法を変革する可能性がある。
-
OpenAI、Stargateプロジェクトで世界のパートナー国にAIインフラを構築へ
OpenAIは、Stargateプロジェクトの一環として「OpenAI for Countries」という新たなイニシアチブを発表した。この取り組みは、民主主義の原則に基づいた各国でのAIインフラ構築を目指している。この拡大計画は、同社が米国でのAIインフラに5000億ドルを投資する初期計画に続くものだ。
-
Docker Model RunnerでLLMモデルのローカル実行を手軽に
今回公開となったDocker Model Runnerでは���AIモデルのローカル環境実行や、ローカル環境にあるAIモデル使用したアプリケーションコードの反復処理が可能になっている。また、作業中にコンテナー内でワークフロー実行を中断する必要もない。現在、Apple Siliconを搭載したMac向けのDocker Desktop 4.40がプレビュー配信中だ。
-
OpenAIがCodexソフトウェアエンジニアリングエージェントのプレビューを発表
OpenAIはCodexを発表した。これは、コードの作成、デバッグ、テスト、プルリクエストの生成など、一般的な開発タスクを自動化するために設計されたクラウドベースのソフトウェアエンジニアリングエージェントの研究プレビューだ。Codexは、ChatGPTのPro、Team、Enterpriseユーザー向けに統合されており、各タスクはユーザーのコードベースが事前にロードされ、開発環境に合わせて設定された安全なサンドボックス環境で実行されている。
-
Cloudflare AutoRAG、Retrieval-Augmented Generationを効率化
LLMベースシステムでCloudflareはRetrieval-Augmented Generationを利用するためのマネージドサービスを開始した。現在ベータ版の、Cloudflare AutoRAGは開発者がリッチなコンテキストデータをLLMに統合するパイプラインをより簡単に構築できるようにすることを目指している。