InfoQ ホームページ Deep+Learning に関するすべてのコンテンツ
-
Amazonが社内向けマシンラーニングコースを一般公開
Amazonは、同社のMachie Learning Universityコースから、いくつかのビデオと副教材を一般公開した。このコースは、マシンラーニングに関する3つのトピックを扱ったもので、YouTube上でオンデマンドで視聴可能であると同時に、スライドやノートブック、データセットをGitHubからダウンロードすることもできる。年内には、全部で12コースがリリースされる予定である。
-
PyTorch 1.6リリース、WindowsバージョンはMicrosoftが引き継ぎ
Facebookが開発するオープンソースのディープラーニングフレームワークであるPyTorchが、バージョン1.6のリリースを発表した。新たなAPIが加わり、パフォーマンスが改善されている。そのリリースに合わせてMicrosoftは、同フレームワークのWindows版に関する開発とメンテナンスを引き継ぐことを発表した。
-
Paddle Quantum:Baiduディープラーニングパフォーマンスを量子コンピューティングにもたらす
Baiduは、量子ニューラルネットワークモデルの構築とトレーニングを可能にする量子機械学習ツールキットPaddle Quantumを発表した。Paddle Quantumは、高度な量子コンピューティングアプリケーションをサポートすることと、量子機械学習に不慣れな開発者がモデルを段階的に作成できるようにすることを目的としている。
-
Googleが新しい高性能TensorFlowランタイムをオープンソース化
GoogleはTensorFlowランタイム(TFRT)をオープンソース化した。TFRTは、TensorFlowディープラーニングフレームワークの新しい抽象化レイヤーであり、モデルがさまざまなハードウェアプラットフォーム間でより良い推論がきるようにする。以前のランタイムと比較して、TFRTは平均推論時間を28%改善する。
-
GoogleオープンソースAIで自然言語をモバイルUIアクションにマッピングする
Googleは、一連の自然言語命令をモバイルデバイスのUIのアクションに変換するAIモデルをオープンソースにしている。モデルはTransformerディープラーニングアーキテクチャに基づいており、プロジェクト用に作成された新しいベンチマークデータセットで70%の精度を実現する。
-
Google ML Kit SDKがオンデバイスの機械学習にフォーカス
Googleはスタンドアロンモードで動作することを目的とした新しいML Kit SDKを導入した。以前のML Kit SDKのようなFirebaseとの緊密な統合を必要としない。また、画像のラベル付けとオブジェクトの検出と追跡のために、デフォルトモデルをカスタムモデルに置き換えるための限定的なサポートも提供する。
-
OpenAIが1,750億のパラメーターを持つGPT-3 AI言語モデルを発表
OpenAIの研究者チームは最近、1,750億のパラメーターを備えた自然言語のディープラーニングモデルであるGPT-3を説明する論文を発表した。これは、前のバージョンのGPT-2の100倍である。モデルは約5兆語で事前トレーニングされており、微調整することなくいくつかのNLPベンチマークで最先端のパフォーマンスを実現する。
-
MicrosoftのZeRO-2がAIトレーニングを10倍高速に
Microsoftは、クラスタサイズに対してスーパーリニアにスケールする、分散ディープラーニング最適化アルゴリズムZero Redundancy Optimizerのバージョン2(ZeRO-2)をオープンソースとして公開した。同社はZeRO-2を使用して、1,000億パラメータの自然言語処理(NLP)モデルを、従来の分散ラーニング技術の10倍の速度でトレーニングすることに成功している。
-
Facebook、プログラム言語間のコード変換を行うTransCode AIを発表
Facebook AI Researchは、教師なし(unsupervised)ディープラーニングを使用して、プログラミング言語のコードを別のプログラミング言語に変換するシステムであるTransCoderを発表した。TransCoderは280万以上のオープンソースプロジェクトを使用してトレーニングされており、ルールベースの手法を用いた既存のコード変換システムを能力的に凌駕する。
-
GitHubがMLベースの“Good First Issues”レコメンデーションをリリース
GitHubは、"good first issues feature"の最新バージョンの提供を開始��た。これは、マシンラーニング(ML)モデルが"easy"と特定したイシューと、プロジェクトメンテナが選択して"easy"とラベル付けしたイシューのリストとを組み合わせたものだ。オープンソースのコントリビュータならば、経験の深浅を問わずに、この機能を使ってプロジェクト内の簡単なイシューを見つけ、対処することができる。
-
PyTorch 1.4リリースがJavaバインディングと分散トレーニングをサポート
Facebookがオープンソースとして公開するディープラーニングフレームワークのPyTorchが、バージョン1.4のリリースを発表した。Python 2をサポートする最終バージョンになる予定の今回のバージョンでは、分散トレーニングとモバイル推論が改善され、Javaサポートが導入されている。
-
SpotifyがKubeflow MLパイプライン用のTerraformモジュールをオープンソースとして公開
Spotifyは、マシンラーニングパイプラインソフトウェアのKubeflowをGoogle Kubernetes Engine(GKE)上で実行する、自社製のTerraformモジュールをオープンソースとして公開した。社内MLプラットフォームをKubeflowに切り替えることにより、運用投入までの時間を短縮すると同時に、従来のプラットフォームに比較して7倍の試験を実施できるようになった。
-
Facebook Researchが音源分離用のAIシステムを開発
Facebook Researchは先頃、ディープラーニングを採用した音源分離(music source separation)システムのDemucsをリリースした。Demucsは、人による評価を基準とした分離後の音楽の品質において、これまでに報告されているものを上回っている。
-
Googleが効率的ディープラーニングモデルのReformerをオープンソース化
Google AI研究者チームは先頃、Transformerディープラーニングモデルの効率改善バージョンであるReformerをオープンソースとして公開した。アテンション(attention)の計算にハッシュ技術を使用し、Reversible Residual Layer(可逆的残差レイヤ)を採用することにより、Reformerは、100万ワードのテキストシーケンスを16GBのメモリと単一のGPUアクセラレータのみで処理することが可能である。
-
説明可能なAIに関する調査結果を研究者チームが発表
IBM WatsonとArizona State Universityの研究者たちが、Explainable AI Planning(XAIP)の開発に関する調査結果を公開した。67の論文を対象に、この分野における傾向を図表として表したものだ。