InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
Meta社、AIエージェントを組み合わせた防御のためのLlamaFirewallをオープンソース化
LlamaFirewallは、プロンプトインジェクション、目標の不一致、そして安全でないコード生成からAIエージェントを保護することを目的としたセキュリティフレームワークである。AgentDojoベンチマークで評価された際には、攻撃成功率を90%以上削減する効果を達成した。さらに、開発者は新しいセキュリティガードレールを追加することでLlamaFirewallの動作を更新できる。
-
MicrosoftがAzure DevOps MCPサーバーのパブリックプレビューを開始
MicrosoftがAzure DevOps Model Context Provider(MCP)サーバーのパブリックプレビューをリリースした。
-
GoogleがML KitにGemini Nanoを導入、新しいオンデバイスGenAI APIを提供
ML Kitに最近追加された新しいGenAI APIは、開発者がGemini Nanoを使ってAndroidアプリでオンデバイス推論を可能にし、要約、校正、書き換え、画像説明などの機能をサポートする。
-
HashiCorp、AI統合に向けてTerraform MCP Serverをリリース
HashiCorpはTerraform MCP Server、大規模言語モデルがインフラストラクチャをコードとして扱う際の相互作用を改善するために設計されたModel Context Protocolのオープンソース実装をリリースした。リアルタイムTerraform Registryデータ-モジュールのメタデータ、プロバイダのスキーマ、リソースの定義など-を構造化された形式で公開することで、AIシステムは現在の検証済みの構成パターンに基づいて提案できるようになる。
-
Mistral AI社、ソフトウェアエンジニア向けのオープンソースLLM「Devstral」をリリース
先日、Mistral AI社が、新しいオープンソースのLLM「Devstral」のリリースを発表した。Devstralは、同社とAll Hands AI社の共同開発モデルである。ソフトウェアエンジニアリングにおけるワークフローの自動化を主な用途としており、なかでも、推論に複数のファイルやコンポーネントの横断が必要となる複雑な開発環境でのワークフロー改善に特化している。また、コーディングエージェントフレームワークを活用しており、リポジトリ全体における現実世界のプログラミング課題に取り組むことが可能だ。こうした汎用性により、コード補完機能や関数生成機能などの個別タスクに最適化された他のモデルとの差別化が図られている。
-
OpenAI社、信頼性重視の新モデル『o3-pro』を発表――ユーザーフィードバックは賛否で二極化
OpenAI社が、複雑なタスクでの信頼性や応答の分析力に注力した同社最先端モデルの新バージョンo3-proをリリースした。現時点では、ChatGPTのPro・Teamユーザーに公開されているほか、API経由でも利用が可能である。本モデルが従来の「o1-pro」モデルに置き換わる形でリリース中だ。
-
PerplexityがLabsを発表、プロジェクトベースAIワークフローを支援
PerplexityはLabs、従来の質問応答を超えるもっと複雑なタスクをサポートするために設計されたProサブスクライバー向けの新機能をリリースした。このアップデートは検索ベースのインタラクションから、構造化された生成AI駆動のマルチステップワークフローへのシフトを示している。
-
AWSがECS・EKS・サーバーレス向けのオープンソースMCPサーバーを発表
AWS社は、Amazon Elastic Container Service (Amazon ECS)、Amazon Elastic Kubernetes Service (Amazon EKS)、およびAWS Serverless向けのオープンソースModel Context Protocol (MCP)サーバーセットをGitHub上で公開した。これらのサーバーは、Amazon Q DeveloperのようなAI開発アシスタントの能力を強化し、これらのAWSサービスに特化したリアルタイムのコンテキスト情報を提供するものだ。
-
GPUアクセラレーションによるLLM推論をPure Javaに導入
マンチェスター大学のBeehive LabがGPULlama3.javaを公開した。これは、Llama3のJavaネイティブ実装として初めて自動GPUアクセラレーションを実現したプロジェクトである。このプロジェクトはTornadoVMを活用し、開発者がCUDAやネイティブコードを記述する必要なく、GPUアクセラレーションによる大規模言語モデル推論を可能にする。これにより、Java開発者が企業環境でAIアプリケーションに取り組む方法を変革する可能性がある。
-
OpenAI、Stargateプロジェクトで世界のパートナー国にAIインフラを構築へ
OpenAIは、Stargateプロジェクトの一環として「OpenAI for Countries」という新たなイニシアチブを発表した。この取り組みは、民主主義の原則に基づいた各国でのAIインフラ構築を目指している。この拡大計画は、同社が米国でのAIインフラに5000億ドルを投資する初期計画に続くものだ。
-
Docker Model RunnerでLLMモデルのローカル実行を手軽に
今回公開となったDocker Model Runnerでは、AIモデルのローカル環境実行や、ローカル環境にあるAIモデル使用したアプリケーションコードの反復処理が可能になっている。また、作業中にコンテナー内でワークフロー実行を中断する必要もない。現在、Apple Siliconを搭載したMac向けのDocker Desktop 4.40がプレビュー配信中だ。
-
Cloudflare グローバルリードレプリケーションを搭載したDIデータベースをアップグレード
最近のDeveloper Week 2025で、CloudflareはサーバーレスSQLデータベースD1のグローバルリードレプリケーションのベータ版を発表した。これにより、一貫性を損なうことなくグローバルに分散されたオプションが提供される。すべてのリージョンに自動的にプロビジョニングされたレプリカにより、アプリケーションはリクエスト間で強い順序的一貫性を維持しながら、readクエリをより迅速に処理できるようになる。
-
OpenAIがCodexソフトウェアエンジニアリングエージェントのプレビューを発表
OpenAIはCodexを発表した。これは、コードの作成、デバッグ、テスト、プルリ��エストの生成など、一般的な開発タスクを自動化するために設計されたクラウドベースのソフトウェアエンジニアリングエージェントの研究プレビューだ。Codexは、ChatGPTのPro、Team、Enterpriseユーザー向けに統合されており、各タスクはユーザーのコードベースが事前にロードされ、開発環境に合わせて設定された安全なサンドボックス環境で実行されている。
-
Cloudflare AutoRAG、Retrieval-Augmented Generationを効率化
LLMベースシステムでCloudflareはRetrieval-Augmented Generationを利用するためのマネージドサービスを開始した。現在ベータ版の、Cloudflare AutoRAGは開発者がリッチなコンテキストデータをLLMに統合するパイプラインをより簡単に構築できるようにすることを目指している。
-
Redis 8はベクトル類似性の新しいデータ型でAIアプリケーションをターゲットにする
Redisは最近、ベクトル類似性のために設計されたデータ型であり、AIアプリケーションのための新しいオプションであるVector Setの追加を発表した。この新しいデータ型は、Redisの生みの親であるSalvatore Sanfilippo氏(別名「antirez」)がRedisに復帰して以来、初めての大きな貢献となる。