InfoQ ホームページ Companies に関するすべてのコンテンツ
-
Google社のVertex AI in Firebase SDK、本番環境での使用が可能に
ベータ版リリースから3ヶ月後、Vertex AI in Firebase SDKは本番環境利用が可能となった、とGoogle社のエンジニア Thomas Ezan氏は語る。彼はさらに本番環境への成功裡なデプロイに不可欠な3つの側面:悪用防止、リモート構成、責任ある AI について説明している。
-
OpenAIが Microsoft Azure OpenAI Service上に新しいo3-miniモデルを提供
OpenAIは、o3-miniモデルをローンチし、現在Microsoft Azure OpenAI Serviceからアクセス可能となっている。同社によると、このモデルはAI技術の進歩を象徴しており、昨年9月にリリースされたo1-miniと比較してコスト効率が改善され、推論能力が向上している。
-
JetBrainsのAIコーディングエージェントJunieがJetBrains IDEとの緊密な統合を提供
JetBrainsは新しいAIコーディングエージェントJunieをクローズドプレビューで発表した。同社によるとJunieは割り当てられたコーディングタスクを実行し、IDE内で利用可能なプロジェクトコンテキストに関する知識を活用できる。
-
Microsoft Research AI Frontiers LabがAutoGen v0.4ライブラリを発表
Microsoft ResearchのAI Frontiers LabがAutoGen 0.4、先進的なAIエージェントシステムを構築するためのオープンソースフレームワークのバージョン、のリリースを発表した。報告によると最新バージョンはAutoGenライブラリの完全な再設計を特徴としており、コード品質、堅牢性、ユーザビリティ、エージェントワークフローのスケーラビリティの向上に焦点を当てている。このアップデートは、エージェント型人工知能の進展をドライブする強力なエコシステムの確立を目指している。
-
Flutter 3.27は新しいレンダリングエンジンImpellerをプロモート、iOSとMaterialウィジェット等を改善
Google社のクロスプラットフォームUIキット Flutter 3.27の最新バージョンは、改善されたCupertinoウィジェットによりAppleのUIガイドラインへの準拠が向上し、CarouselView、リストの行と列、ModalRoutesトランジションなどを含む多くの変更をもたらした。さらに新リリースではImpellerレンダリングエンジンがデフォルトとなり、パフォーマンスの向上、計測サポート、並行処理のサポートなどが実現した。
-
Amazon、SAP HANAワークロード向けのハイメモリ EC2 U7inh インスタンスを強化実装
先日AWSは、Hewlett Packard Enterprise(HPE)社と共同開発した新たなAmazon Elastic Compute Cloud(EC2)ハイメモリU7inh インスタンスの 一般提供(GA)を発表した。このインスタンスは、SAP HANAなどのミッションクリティカルな大規模インメモリデータベースワークロードをサポートするように設計されている。
-
Azure AI Agent Service パブリックプレビュー: 定型業務の自動化
先日開催されたIgniteカンファレンスでMicrosoftはAzure AI Agent Serviceのパブリックプレビューを発表した。このフルマネージドサービスは、開発者が基盤となるコンピューティングリソースやストレージリソースを管理することなく、高品質で拡張可能なAIエージェントをセキュアに構築、デプロイ、スケーリングできるようにする。
-
OpenSilver 3.1がXAMLクロスプラットフォームデザイナーをもたらす
OpenSilver3.1の最新バージョンは、マイクロソフトの廃止されたSilverlight Web アプリケーション・フレームワークのリメイクで、7月にリリースされたビジュアル・デザイナーをWindows以外のプラットフォームにも拡張した。また、.NET 9のサポートやWPF特有の機能も含まれている。
-
Google、実験的なAI推論モデルをリリース
GoogleはAI Studioプラットフォームで利用可能なAI推論モデル Gemini 2.0 Flash Thinking Experimentalを発表した。この実験的なモデルは、複雑な問題を推論することでプログラミング、数学、物理学などのマルチモーダルタスクを処理するために設計されており、その思考過程を説明することができる。これはGemini 2.0 Flashモデルを基に構築されており、OpenAIのo1を含む類似モデルと整合している。
-
Google、Gemini Code Assistがサポート範囲をAtlassian、GitHub、GitLabに拡大
Googleは最近、Atlassian Rovo、GitHub、GitLab、Google Docs、Sentry、Snykを含むGemini Code Assistのサードパーティツールのサポート を発表した。プライベートプレビューにより開発者は広く使用されているソフトウェアツールとパーソ���ルAIアシスタントの統合を直接IDE内でテストできる。
-
Netflixの分散カウンターの内部:グローバル・スケールでスケーラブル、正確、リアルタイムなカウント
Netflixのエンジニアは最近、Distributed Counter Abstraction技術へのディープダイブを発表した。Distributed Counter Abstractionは、ユーザーのインタラクション、機能の利用状況、ビジネス・パフォーマンス・メトリクスを低レイテンシーでグローバルに追跡するために設計されたスケーラブルなサービスである。NetflixのTimeSeries Abstraction技術の上に構築されたこのシステムは、設定可能なカウントモード、弾力性のあるデータ集約、グローバルに分散されたアーキテクチャによって、パフォーマンス、精度、コストのバランスをとっている。
-
ソフトウェアエンジニアリングの効率化を支援する社内ツールの移行から学んだこと
QCon San Franciscoのプレゼンテーションで、Ying Dai氏(ダイ氏)は2つの重要なソフトウェアエンジニアリングのマイグレーションストーリーを共有した。1つはプロダクションモニタリングに焦点を当てたもので、もう1つは自動検証を伴うプロダクションデプロイメントに関するものである。どちらの移行も、エンジニアリングの効率を向上させるという目標によって進められたが、それぞれに課題と教訓があった。
-
Azure Boost DPU:クラウドのパフォーマンスを強化するマイクロソフトの新しいシリコンソリューション
マイクロソフトは先日のIgniteカンファレンスで、効率的で低消費電力のデータ中心ワークロード向けに設計された、初の自社���データ処理ユニット(DPU)であるAzure Boost DPUを発表した。同社によると、この単一のシリコンは、高速イーサネットおよびPCIeインターフェース、ネットワークおよびストレージエンジン、データアクセラレータ、セキュリティ機能を統合し、完全にプログラマブルなシステム・オン・ア・チップになっているという。
-
Metaがどのようにして100万行のAndroidコードをJavaからKotlinに移行したか?
生産性と安全性の面でKotlinがもたらす利点を最大化するため、Metaのエンジニアは1,000万行のAndroidコードベースをJavaからKotlinに翻訳する作業に懸命に取り組んできた。このプロセスの1年で、彼らはコードベースの約半分を移行し、プロセスを可能な限り自動化するための特別なツールKotlinatorを開発した。
-
Google DeepMindがGemini 2.0を発表:AIパフォーマンスとマルチモーダル統合における飛躍
Google DeepMindは、前モデルのGemini 1.5 Proの2倍の処理速度を実現するAIモデルGemini 2.0を発表した。このモデルはテキスト、画像、その他の入力を組み合わせて高度な推論を行う複雑なマルチモーダルタスクをサポートしている。JAX/XLAフレームワーク上に構築されたGemini 2.0は大規模に最適化され、複雑なトピックを探索するためのDeep Researchなどの新機能を含んでいる。現在、開発者と信頼できるテスターに提供されており、近くGeminiやSearchのようなGoogle製品に統合される予定である。