InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
FacebookがZionEXプラットフォームを発表、12兆パラメータのAIモデルのトレーニングを可能に
Facebook AI Research(FAIR)の科学者チームは、独自に開発したAIハードウェアプラットフォームのZionEX上でPyTorchを使ってディープラーニングレコメンデーションモデル(DLRM)をトレーニングするシステムを発表した。このシステムを使って同チームは、最大12Tパラメータを持つモデルのトレーニングにおいて、他のシステムよりも1桁近いトレーニング時間のスピードアップを実現している。
-
Amazon Sagemakerが節約プランの導入と料金の即時引き下げを実施
AWSは先頃、同社のフルマネージド・マシンラーニング(ML)サービスであるAmazon SageMakerの料金即時引き下げと節約プランを発表した。このSavings Plans for Amazon SageMakerには、オンデマンド料金と比較して最大64パーセントのコスト削減というメリットがある。Amazon SageMakerのいくつかのインスタンスファミリについても、最大で14.2パーセントの料金引き下げが行われる。
-
オープンソースAIが暴風雨による停電を81%の精度で予測
Aalto大学とフィンランド気象研究所の科学者のチームは、暴風雨による損傷によって引き起こされる停電を予測するためのオープンソースのAIモデルを開発した。このモデルは、15km以内の暴風雨の場所を予測し、変圧器の損傷量を81%の精度で分類できるため、電力会社は停止に備え、停止に対してより迅速に修復することができる。
-
MITがAIベンチマークとなるThreeDWorld Transport Challengeを発表
MITとMIT-IBM Watson AI Labの研究者チームが、ThreeDWorld Transport Challengeを発表した。これは実装されたAIエージェント向けのベンチマークタスクである。課題は、AIエージェントの研究を改善することである。このAIエージェントは、コンピュータービジョンによって誘導されるシミュレートされた移動式ロボットを制御して、オブジェクトを拾い上げ、新しい場所に移動させるものである。
-
Perceiver:複数の入力データ型向けの単一のニューラルネットワークモデル
GoogleのDeepMind社は最近、Perceiverと呼ばれる最先端のディープラーニングモデルをリリースした。これは、人間の脳がマルチモーダルデータを認識するのと同じように、音声から画像までの複数の入力データを受信して処理するものである。Perceiverは、複数の入力データ型、つまり点群、音声、画像を受信して分類できる。
-
MicrosoftがAIトレーニングライブラリのZeRO-3オフロードをリリース
Microsoftは最近、ZeRO-3オフロードをオープンソース化した。これは、非常に大規模な深層学習モデルをトレーニングしつつも、メモリ効率を改善する、DeepSpeed AIトレーニングライブラリの拡張である。ZeRO-3オフロードを使用すると、ユーザは、単一のGPUで最大400億のパラメーター、512のGPUで2兆を超えるパラメーターを使用してモデルをトレーニングできる。
-
MicrosoftがMicrosoft Build of OpenJDKを発表
Microsoftは、OpenJDKの新しいオープンソースダウンストリームディストリビューションであるMicrosoft Build of OpenJDKのプレビューリリースを披露した。Microsoft Build of OpenJDKは、macOS、Linux、およびWindowsのx64サーバおよびデスクトップ環境をサポートする。MicrosoftのJavaエンジニアリンググループのプリンシパルプログラムマネージャであるBruno Borges氏は、Microsoft Build of OpenJDKについてInfoQに話した。
-
GoogleがA2バーチャルマシンの一般提供を発表
先頃、Googleは、Compute EngineにNVIDIA Ampere A100 Tensor Core GPUに基づくA2バーチャルマシン (VM) の一般提供を発表した。同社によれば、A2 VMにより、顧客はNVIDIA CUDA対応の機械学習 (ML) とハイパフォーマンスコンピューティング (HPC) のスケールアウトおよびスケールアップワークロードを低コストで効率的に実行できるようになる。
-
Alibaba Announces 10 Billion Parameter Multi-Modal AI M6
AlibabaはMulti-Modality to Multi-Modality Multitask Mega-transformer(M6)と称するAIモデルを開発した。100億のパラメータを持ち、1.9TBのイメージと292GBの中国語テキストで構成されたデータセットを使ってプレトレーニングされている。テキストガイド付きイメージの作成、VQA(Visual Question and Answering、視覚に基づく質疑応答)、イメージ-テキストマッチングなど、いくつかのダウンストリームタスクに合わせたファインチューニングが可能だ。
-
GoogleがポイントインタイムリカバリでCloud Spannerを強化
Googleは最近、偶発的なデータの損失や破損からの保護を目的としたCloud Spannerデータベースのポイントインタイムリカバリ機能をリリースした。この新しいポイントインタイムリカバリ(PITR)機能は、データリカバリプロセスをよりきめ細かく制御できるようにすることを目的としている。
-
チップ設計用のGoogle Apollo AIが、深層学習のパフォーマンスを25%向上する
Google Researchの科学者は、AIアクセラレータチップの設計を最適化するためのフレームワークであるAPOLLOを発表した。APOLLOは、チップ面積を最小限に抑えながら、深層学習の推論待ち時間を最小限に抑えるチップパラメータを選択するために進化的アルゴリズムを使用する。APOLLOを使用することで、研究者は、ベースラインアルゴリズムによって選択されたものよりも24.6%の高速化を達成する設計を発見した。
-
Google DeepMindのNFNetがディープラーニングを効率化
Amazon Redshiftのユーザは、クロスデータベースクエリを実行し、Redshiftクラスタ間でデータを共有できるようになった。これは、AWSがこれらの拡張機能を一般ユーザ向けにリリースしたことによる。
-
PyTorch 1.8がリリース - 分散トレーニングを強化、AMD ROCmをサポート
Facebookの開発したオープンソースのディープラーニングフレームワークであるPyTorchが、バージョン1.8のリリースを発表した。APIがアップデートされ、分散トレー���ングが改善された他、AMDのGPUアクセラレータ用のROCmプラットフォームのサポートが追加されている。ドメイン固有ライブラリであるTorchVision、TorchAudio、TorchTextの新バージョンも同時にリリースされた。
-
Amazon Redshiftデータ共有が一般向け提供へ
Amazonは最近、Amazon Redshiftデータ共有機能の一般向け提供を発表した。これは、Amazon Redshiftクラスタ間でライブデータを共有するためのものである。これにより、単一のデータウェアハウスクラスタをマルチクラスタデプロイに使用し、データをコピーまたは移動することなく即座に共有できる。
-
Amazon Redshiftのクロスデータベースクエリとデータ共有がGAに
Amazon Redshiftのユーザは、クロスデータベースクエリを実行し、Redshiftクラスタ間でデータを共有できるようになった。これは、AWSがこれらの拡張機能を一般ユーザ向けにリリースしたことによる。