InfoQ ホームページ ニュース
-
VS Code Copilot用GPT-4oコード補完モデルがパブリックプレビューで利用可能に
最近、Visual Studio Code(VS Code)ユーザー向けにGPT-4o Copilotが発表された。このAIモデルはGPT-4o mini基盤の上に構築されており、30以上の広く使用されているプログラミング言語にわたる、275,000以上の高品質なパブリックリポジトリからの広範なトレーニングを含んでいる。強化トレーニングにより、より正確でコンテキストに即したコード提案を提供し、パフォーマンスの向上、開発者の生産性向上、コーディングプロセスを支援することが期待されている。
-
Vercel Fluid:新しいコンピュートモデルでありサーバーレスの代替?
Vercelは最近Vercel Fluid、従来サーバー同様にシングルワーカーが複数のリクエストを処理できるようにしながら、サーバーレスの弾力性を保つコンピュートモデルを発表した。インスタンスの前に関数をスケーリングすることでFluidは利用可能な計算時間を最大化し、長時間実行タスクやAI推論のための計算リソース量とリソース効率を最適化する。
-
エンジニアリングチームがAI、プラットフォームエンジニアリング、DevExにどう取り組んでいるか:InfoQ Dev Summit Boston 2025
InfoQとQConの開発チームによるこのイベントは、理論的な議論のみ行うカンファレンスとは異なり、Netflix、The New York Times、Shopify、CarGurus、Vanguardなどから得られる実践的な洞察に基づいた現実世界での実装にフォーカスしている。講演者は参加者がすぐに適用できる戦略を共有し、チームがコストのかかる試行錯誤を避けられるよう支援する。
-
Google CloudのAI Protection:AIアセットを保護するためのソリューション
Google Cloudは最近、生成AIに関連するリスクや脅威から保護する包括的なソリューション、AI Protectionを発表した。
-
IBM社、Granite 3.2で新たな視覚言語モデル、思考連鎖推論、時系列モデル強化を実装
IBM社は、マルチモーダルと推論機能を搭載したGranite 3.2の最新モデルを発表した。。Granite 3.2の特徴は試験的に導入された思考連鎖推論機能であり、従来モデルを大きく上回る性能を発揮している。新たな大規模視覚言語モデル(VLM)は、いくつかのベンチマークスコアでより大型のモデルを凌駕しているほか、小型モデルより効率的なデプロイを実現している。
-
Mistral AIがアラビア語と南インドの言語に対応した地域言語モデルのSabaを発表
Mistral AIは、アラビア語といくつかのインド言語、特にタミル語のような南インド言語のAIパフォーマンスを向上させるために設計された240億パラメータ言語モデルである、Mistral Sabaを発表した。必要とされる地域的コンテキスト理解を欠く恐れのある汎用モデルとは異なり、Mistral Sabaは中東や南アジアで収集しキュレートされたデータセットで訓練されており、言語文化的により正確な応答を提供している。
-
Googleが機密フェデレーション分析でデータプライバシーを強化
Googleはプライバシーを保護しながらデータ処理の透明性を高めるために設計された技術、Confidential Federated Analytics(CFA)を発表した。フェデレーション分析を基盤に、CFAは機密コンピューティングを活用して生データがサーバーやエンジニアに公開されることなく、ユーザーデータに対して事前に定義された検査可能な計算のみが実行されるようにする。
-
インタラクション・ネットに基づく新しいプログラミング言語Vine
Vineプログラミング言語はインタラクション・ネットに基づいて構築された新しい実験的言語である。関数型プログラミングパターンと命令型プログラミングパターンの相互運用性を特徴としている。
-
Googleの画像生成モデルImagen 3がFirebaseのVertex AIでプレビューとして利用可能に
Googleのもっとも先進的な生成AI画像生成モデルImagen 3が、FirebaseのVertex AIでプレビュー利用可能になり、KotlinとSwift SDKを使用してAndroidとiOSアプリにシームレスに統合できるようになった。
-
Hugging FaceがGPU全体の効率的LLMトレーニングに関するガイドを公開
Hugging FaceがUltra-Scale Playbook: Training LLMs on GPU Clusters、GPU クラスター全体で大規模言語モデル(LLM)をトレーニングする際の方法論と技術について詳細に探究するオープンソースのガイドを公開した。このプレイブックはスループット、GPU利用率、トレーニング効率の最適化に焦点を当て、最大512GPUを使用して実施された4000以上のスケーリング実験に基づいている。大規模モデルトレーニングに取り組む研究者やエンジニアに実践的なガイダンスを提供することを目的としており、再現可能なベンチマーク、実装の詳細、パフォーマンス最適化を提供している。
-
AWSが新しい量子コンピューティングチップOcelotを発表
AWSは最近、新しい量子コンピューティングチップ Ocelotを発表した。このチップはカリフォルニア工科大学のAWS量子コンピューティングセンターで開発され、同社によればエラー訂正を最大90%削減し、実用的な量子コンピューティングアプリケーションの開発を加速するスケーラブルなアーキテクチャを採用している。
-
AWS、アベイラビリティゾーンのアフィニティルーティングとValkey GLIDEでキーバリュー型データストアのレイテンシーとコストを削減
AWSは先日、オープンソースクライアントライブラリ、Valkey General Language Independent Driver for Enterprise(GLIDE)のバージョン1.2にアベイラビリティゾーン(AZ) 認識機能を導入した。今回のキーバリュー型オープンソースデータストアへのアベイラビリティゾーンのアフィニティルーティングの実装でクライアントと同じアベイラビリティゾーンのレプリカにリクエストが送信されるようになった。このため、開発者によるレイテンシーとコストの削減が可能になった。
-
Azure AI Foundry Labs:マイクロソフトにおける最新のAI研究と実験のハブ
マイクロソフトはこのほど、最新のAI研究と実験を開発者、スタートアップ、企業に提供するためのハブ「Azure AI Foundry Labs」を立ち上げた。同社は、画期的な研究と実世界でのアプリケーションとのギャップを埋め、開発者が新たな可能性を探求可能にするために、このサービスを開始した。
-
Googleがウィジェット品質階層を導入
クリエーターがウィジェットのユーザーエクスペリエンスを向上させられるよう、ベストプラクティスとウィジェットガイドラインへの準拠に基づいてGoogle社はすべてのAndroidウィジェットを3つの品質階層に分類することを開始する。
-
GitLabがコードの変動性と重複報告に対処するための高度な脆弱性追跡を導入
GitLabは脆弱性管理における2つの重要な課題に対処する新機能を導入した:コードの変動性と重複報告である。コードの変動性がコードベースに頻繁に変更が加えられることで以前に解決された脆弱性が再検出されることを指すのに対し、重複報告は複数のセキュリティツールが同一の脆弱性を特定する場合に発生する。この新機能はこれらの問題に対処するために高度な追跡メカニズムを統合し、脆弱性検出と管理の精度と効率を向上させる。