InfoQ ホームページ Companies に関するすべてのコンテンツ
-
Azure AI Agent Service パブリックプレビュー: 定型業務の自動化
先日開催されたIgniteカンファレンスでMicrosoftはAzure AI Agent Serviceのパブリックプレビューを発表した。このフルマネージドサービスは、開発者が基盤となるコンピューティングリソースやストレージリソースを管理することなく、高品質で拡張可能なAIエージェントをセキュアに構築、デプロイ、スケーリングできるようにする。
-
OpenSilver 3.1がXAMLクロスプラットフォームデザイナーをもたらす
OpenSilver3.1の最新バージョンは、マイクロソフトの廃止されたSilverlight Web アプリケーション・フレームワークのリメイクで、7月にリリースされたビジュアル・デザイナーをWindows以外のプラットフォームにも拡張した。また、.NET 9のサポートやWPF特有の機能も含まれている。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプログラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
Google、Gemini Code Assistがサポート範囲をAtlassian、GitHub、GitLabに拡大
Googleは最近、Atlassian Rovo、GitHub、GitLab、Google Docs、Sentry、Snykを含むGemini Code Assistのサードパーティツールのサポート を発表した。プライベートプレビューにより開発者は広く使用されているソフトウェアツールとパーソナルAIアシスタントの統合を直接IDE内でテストできる。
-
Netflixの分散カウンターの内部:グローバル・スケールでスケーラブル、正確、リアルタイムなカウント
Netflixのエンジニアは最近、Distributed Counter Abstraction技術へのディープダイブを発表した。Distributed Counter Abstractionは、ユーザーのインタラクション、機能の利用状況、ビジネス・パフォーマンス・メトリクスを低レイテンシーでグローバルに追跡するために設計されたスケーラブルなサービスである。NetflixのTimeSeries Abstraction技術の上に構築されたこのシステムは、設定可能なカウントモード、弾力性のあるデータ集約、グローバルに分散されたアーキテクチャによって、パフォーマンス、精度、コストのバランスをとっている。
-
ソフトウェアエンジニアリングの効率化を支援する社内ツールの移行から学んだこと
QCon San Franciscoのプレゼンテーションで、Ying Dai氏(ダイ氏)は2つの重要なソフトウェアエンジニアリングのマイグレーションストーリーを共有した。1つはプロダクションモニタリングに焦点を当てたもので、もう1つは自動検証を伴うプロダクションデプロイメントに関するものである。どちらの移行も、エンジニアリングの効率を向上させるという目標によって進められたが、それぞれに課題と教訓があった。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社製データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全にプログラマブルなシステム・オン・ア・チップになっているという。
-
Metaがどのようにして100万行のAndroidコードをJavaからKotlinに移行したか?
生産性と安全性の面でKotlinがもたらす利点を最大化するため、Metaのエンジニアは1,000万行のAndroidコードベースをJavaからKotlinに翻訳する作業に懸命に取り組んできた。このプロセスの1年で、彼らはコードベースの約半分を移行し、プロセスを可能な限り自動化するための特別なツールKotlinatorを開発した。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。
-
AmazonがAWSにVMwareワークロードを移行するElastic VMware Serviceのプレビュー版を公開
Amazon EVSでユーザーはVMware Cloud Foundationのライセンスポータビリティを活用し、VMwareワークロードとAWSの他のアプリケーションを並行実行できる。同社によるとこのサービスはデプロイメントを簡素化し、オンプレミスと同じVCFソフトウェアを使用してVMwareベースの仮想マシンをAWSにクイック・マイグレーションすることを可能にする。
-
マイクロソフトが汎用マルチエージェントシステム Magentic-Oneを発表
マイクロソフトはMagentic-One、Webやファイルベースの環境を含むオープンエンドのタスクを処理するように設計された新汎用マルチエージェントシステムのリリースを発表した。このシステムはソフトウェア開発、データ分析、ウェブナビゲーションなど様々な領域にわたる複雑な多段階タスクを支援し、活動の効率性を向上させることを目的としている。
-
AWS が Python と .NET 関数向けのLambda SnapStartを一般提供開始
AWSはPythonと.NET関数向けのLambda SnapStart、サーバーレスアプリケーションの起動パフォーマンスを大幅に改善するために設計された機能の一般提供を開始した。
-
マイクロソフト、GraphQL用Fabric APIの一般提供を発表
マイクロソフトはGraphQL用Fabric APIを発表し、データアクセスレイヤーをパブリックプレビューから一般提供(GA)に移行した。このリリースでは、Azure SQLとFabric SQLデータベースのサポート、保存された資格情報認証、詳細な監視ツール、CI/CDワークフローとの統合など、いくつかの機能強化が導入されている。
-
Amazon QがVisual Studio CodeとJetBrains IDEsにインラインチャットサポートを追加
AWSは最近、Amazon Q Developerがインラインチャットをサポートし、開発者がエディタ内でコードの問題について議論し解決できるようになったと発表した。コードを直接更新できる機能とIDE内チャットのベネフィットを組み合わせたこの機能は、Claude 3.5によって提供されVisual Studio CodeとJetBrains IDEで利用できる。
-
マイクロソフトと清華大学が大規模言語モデル向けのDIFF Transformerを発表
マイクロソフトAI と清華大学の研究者が、Differential Transformer (DIFF Transformer) という大規模言語モデルの性能向上を目的とした新しいアーキテクチャを発表した。同モデルでは、モデルによるコンテキスト処理の微調整や無関係な情報によるハルシネーションを最小限化することで、アテンション・メカニズムが向上している。