InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
DeepMindが核融合研究装置のAIコントローラをトレーニング
Google子会社のDeepMindとEPFL(スイス連邦工科大学ローザンヌ校) Swiss Plasma Centerの研究者らが、核融合研究で使用するトカマク(tokamak)デバイスの制御アルゴリズムを生成する深層強化学習(RL)AIを開発した。このシステムは、シミュレータとのインタラクションを通じて制御ポリシを学習することで、実際のデバイスの制御への適用において、新たなプラズマ配位(plasma configuration)の実現を可能にしている。
-
Amazon SageMakerサーバーレス推論が一般向け提供へ
Amazonは最近、SageMakerサーバレス推論が一般向けに利用可能となったことを発表した。この新しいオプションは、断続的、あるいは、まれなトラフィックパターンを伴う処理向けに設計されており、モデルが受信する推論要求の量に応じて計算能力をプロビジョニング・スケーリングする。
-
Amazon MSK Serverlessが一般提供に
AWSは先ごろ、Amazon MSK Serverlessが一般提供されるようになったと発表した。Apache Kafka クラスタを管理するサーバレスオプションにより、容量を監視する必要がなくなり、クラスタ内のパーティションのバランスが自動的にとられる。
-
本番環境でのディープネットワークのサービス提供:生産性と効率のトレードオフのバランス
最近公開された取り組みは、ディープニューラルネットワークをサービス提供するための、モダリティの選択肢の1つを提供するものである。組み込みのCPythonインタープリタを使うことで、本番処理でeagerモードモデルコードを直接利用できる。目標は、モデルを研究段階からエンドユーザに提供するまでのエンジニアリングの労力を削減し、将来の数値Pythonライブラリを移行するための概念実証(PoC)プラットフォームを作成することである。
-
MicrosoftはデータガバナンスサービスをMicrosoft Purviewに統合し、再ブランド化
最近、MicrosoftはMicrosoft Purviewを発表した。これは新製品のブランドであり、Azure PurviewデータガバナンスサービスとさまざまなMicrosoft 365コンプライアンスソリューションが合わせて提供される。
-
NVIDIAが次世代AIハードウェアH100 GPUとGrace CPUスーパーチップを発表
最近のGTC会議で、NVIDIAは、AIコンピューティング用の次世代プロセッサを発表した。H100 GPUとGrace CPUスーパーチップである。H100はNVIDIAのHopperアーキテクチャをベースとしており、そこにはAIモデルのトレーニングを高速化するためのTransformer Engineが含まれている。Grace CPUスーパーチップは144個のArmコアを備えており、SPECrate 2017_int_baseベンチマークでNVIDIAの現在のデュアルCPU製品の性能を上回っている。
-
AWSがデジタルツインサービス IoT TwinMakerを一般提供でリリース
最近のサンフランシスコのAWSサミットの期間中にAWSは IoT TwinMaker サービスの一般提供を発表した – AWS IoT TwinMaker
-
Googleが5400億パラメータのAI言語モデルPaLMをトレーニング
Google Researchは最近、Pathways Language Model(PaLM)を発表した。これは、5400億パラメータのAI自然言語処理(NLP)モデルで、BIGベンチベンチマークでは平均的な人間のパフォーマンスを超えている。PaLMは、多くの評価タスクで他の最先端のシステムよりも優れており、論理的推論やジョークの説明などのタスクで強力な結果を示している。
-
Google、AIによるGoogle Docsの要約生成機能を発表
Googleは、同社のDocsアプリに、ドキュメントのコンテンツの要約を自動生成する新機能を発表した。要約の生成には、Transformerアーキテクチャに基づいた自然言語処理(NLP)AIモデルを使用している。
-
3世代のtensorプロセッシングユニットから得られた10の教訓
GoogleのTPUグループが発行した最近のレポートでは、3世代のテンソルプロセッシングユニットの開発から得られた10のポイントが挙げられている。著者はまた、彼らの以前の経験が将来のtensorプロセッシングユニットの開発にどのように影響するかについても議論している。
-
Googleがプレビュー版で新しいクロスプラットフォームデータストレージエンジンのBigLakeを発表
直近のCloud Data Summitで、GoogleはBigLakeのプレビュー版を発表した。これは、新しいデータレイクストレージエンジンであり、これによって企業がデータウェアハウスとデータレイク内のデータを簡単に分析できるようになる。
-
スタンフォード大学がAI Index 2022年次報告書を公表
スタンフォード大学の人間中心人工知能研究所(HAI)は、2022年のAI Index年次報告書を発表した。このレポートでは、技術的成果の進歩、民間投資の急増、倫理的問題への関心の高まりなど、AIのトップトレンドが明らかになっている。
-
MicrosoftがOpen Data for Social Impact Frameworkを発表
Microsoftは最近、Open Data for Social Impact Frameworkを導入した。これは、組織がデータを活用して新しい分析結果を得たり、より適切な意思決定を行ったり、差し迫った社会問題に取り組みながら効率性を向上させたりすることを支援するガイドである。このフレームワークには、組織がスタートするために使える5つのステップのロードマップが含まれている。
-
EleutherAIが200億パラメータAI言語モデルのGPT-NeoX-20Bをオープンソース化
EleutherAIの研究者はGPT-NeoX-20Bをオープンソース化した。これは、GPT-3に似た200億パラメーターの自然言語処理(NLP)AIモデルである。このモデルは、公開されている825GBのテキストデータでトレーニングされており、同様のサイズのGPT-3モデルに匹敵するパフォーマンスを備えている。
-
自然言語クエリによる分析:Twitters社でのGCP BigQueryデータQnAの利用
Twitterエンジニアリングチームは、Qurious data Insightsプラットフォームのアーキテクチャの詳細と、リアルタイム分析の利点を共有した。このプラットフォームは、社内のビジネス顧客向けに設計されており、ユーザは自然言語クエリを使用してTwitterのBigQueryデータを分析し、ダッシュボードを作成できる。