InfoQ ホームページ プログラミング に関するすべてのコンテンツ
-
Dev Proxy v0.28は、LLMの使用状況とコスト分析のためのテレメトリを導入
.NETチームは、Dev Proxyのバージョン0.28をリリースし、可観測性、プラグインの拡張性、AIモデルとの統合を強化する新機能を導入した。今回のリリースの中心的な機能はOpenAITelemetryPluginであり、これにより開発者はOpenAIおよびAzure OpenAIの言語モデルリクエストの使用状況と推定コストをアプリケーション内で追跡できるようになった。
-
AWS Shield Network Security Director:ネットワークトポロジーの可視化と改善ガイダンス
AWS Shieldは分散サービス拒否(DDoS)保護で知られているが、新機能のプレビュー:AWS Shield Network Security Director、Shield の役割をDDoS緩和だけに留めず、ネットワーク構成の包括的な可視化を提供し、セキュリティ問題を特定、AWSリソースに対する実用的な改善提案を提供する機能を導入した。
-
Azure AI Foundry Agent Service、プレビューでModel Context Protocolサポートを獲得
マイクロソフトは最近、Azure AI Foundry Agent ServiceにおけるModel Context Protocol (MCP)サポートのプレビューリリースを発表した。5月に一般公開されたこのサービスは人工知能(AI)エージェントの相互運用性を大幅に向上させることを目指している。
-
OpenAI社、信頼性重視の新モデル『o3-pro』を発表――ユーザーフィードバックは賛否で二極化
OpenAI社が、複雑なタスクでの信頼性や応答の分析力に注力した同社最先端モデルの新バージョンo3-proをリリースした。現時点では、ChatGPTのPro・Teamユーザーに公開されているほか、API経由でも利用が可能である。本モデルが従来の「o1-pro」モデルに置き換わる形でリリース中だ。
-
PerplexityがLabsを発表、プロジェクトベースAIワークフローを支援
PerplexityはLabs、従来の質問応答を超えるもっと複雑なタスクをサポートするために設計されたProサブスクライバー向けの新機能をリリースした。このアップデートは検索ベースのインタラクションから、構造化された生成AI駆動のマルチステップワークフローへのシフトを示している。
-
AWSがECS・EKS・サーバーレス向けのオープンソースMCPサーバーを発表
AWS社は、Amazon Elastic Container Service (Amazon ECS)、Amazon Elastic Kubernetes Service (Amazon EKS)、およびAWS Serverless向けのオープンソースModel Context Protocol (MCP)サーバーセットをGitHub上で公開した。これらのサーバーは、Amazon Q DeveloperのようなAI開発アシスタントの能力を強化し、これらのAWSサービスに特化したリアルタイムのコンテキスト情報を提供するものだ。
-
GPUアクセラレーションによるLLM推論をPure Javaに導入
マンチェスター大学のBeehive LabがGPULlama3.javaを公開した。これは、Llama3のJavaネイティブ実装として初めて自動GPUアクセラレーションを実現したプロジェクトである。このプロジェクトはTornadoVMを活用し、開発者がCUDAやネイティブコードを記述する必要なく、GPUアクセラレーションによる大規模言語モデル推論を可能にする。これにより、Java開発者が企業環境でAIアプリケーションに取り組む方法を変革する可能性がある。
-
OpenAI、Stargateプロジェクトで世界のパートナー国にAIインフラを構築へ
OpenAIは、Stargateプロジェクトの一環として「OpenAI for Countries」という新たなイニシアチブを発表した。この取り組みは、民主主義の原則に基づいた各国でのAIインフラ構築を目指している。この拡大計画は、同社が米国でのAIインフラに5000億ドルを投資する初期計画に続くものだ。
-
DockerがHardened Imagesを導入、コンテナセキュリティを強化
DockerはDocker Hardened Images、ソフトウェアサプライチェーンの脅威から保護するために設計された、エンタープライズグレードでセキュリティ強化されたコンテナイメージのカタログ、をリリースした。Dockerによれば、DevOpsチームが自らコンテナのセキュリティを確保する手間を省くことで、Hardened Imagesはエンタープライズグレードのセキュリティおよびコンプライアンス標準を満たすより簡単な方法を提供する。
-
マイクロソフトがネイティブTypeScriptコンパイラ移植を発表、10倍パフォーマンス向上
マイクロソフトのTypeScriptチームはTypeScriptコンパイラ(tsc)の実験���ネイティブ移植版、ビルド時間を10倍に短縮し、エディタのコールドスタート時間を大幅に削減し、メモリ使用量を大きく改善することを目的としたtsc-goを発表した。この取り組みはNode.jsランタイムのオーバーヘッドなしにGoで書かれたコンパイラを動かすことを探求するものだ。
-
Visual Studio 2022 v17.14がエージェントモードと高度Copilot支援を導入
マイクロソフトはVisual Studio 2022バージョン17.14の一般提供を発表、GitHub Copilotコードアシスタントのエージェントモードを含む複数の機能強化を導入した。エージェントモードにより、Copilotはコード編集時に複雑なマルチステップタスクを実行できるようになる。
-
Docker Model RunnerでLLMモデルのローカル実行を手軽に
今回公開となったDocker Model Runnerでは、AIモデルのローカル環境実行や、ローカル環境にあるAIモデル使用したアプリケーションコードの反復処理が可能になっている。また、作業中にコンテナー内でワークフロー実行を中断する必要もない。現在、Apple Siliconを搭載したMac向けのDocker Desktop 4.40がプレビュー配信中だ。
-
OpenAIがCodexソフトウェアエンジニアリングエージェントのプレビューを発表
OpenAIはCodexを発表した。これは、コードの作成、デバッグ、テスト、プルリクエストの生成など、一般的な開発タスクを自動化するために設計されたクラウドベースのソフトウェアエンジニアリングエージェントの研究プレビューだ。Codexは、ChatGPTのPro、Team、Enterpriseユーザー向けに統合されており、各タスクはユーザーのコードベースが事前にロードされ、開発環境に合わせて設定された安全なサンドボックス環境で実行されている。
-
Cloudflare AutoRAG、Retrieval-Augmented Generationを効率化
LLMベースシステムでCloudflareはRetrieval-Augmented Generationを利用するためのマネージドサービスを開始した。現在ベータ版の、Cloudflare AutoRAGは開発者がリッチなコンテキストデータをLLMに統合するパイプラインをより簡単に構築できるようにすることを目指している。
-
Amazon QとClaude Codeが開発者CLIをAIで制御可能に
AWSは最近、高度なエージェント機能を備えたAmazon Q Developer用の拡張CLI(コマンドラインインターフェイス)エージェントを発表した。Amazon BedrockとClaude 3.7 Sonnetの推論機能を利用したこのアップグレードにより、開発者はコンテキストを切り替えることなく、ターミナル内で直接AIと作業可能になる。一方、Anthropic社は研究プレビューとしてClaude Codeを発表した。これはターミナルベースのコーディングアシスタントで、開発者はコマンドラインから直接Claudeを操作できる。