InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
Google AIがCOVID-19の文献調査を支援するNLU搭載ツールを発表
Google AIはCOVID-19 Research Explorerをリリースした。これは、COVID-19 Open Research Dataset上にセマンティック検索インターフェースとして提供される。これにより、科学者と研究者がデータセットのすべての雑誌論文と前刷りを効率的に分析できるようになる。
-
OpenAIがニューラルネットワークを理解するためのビジュアライゼーションツールであるMicroscopeを紹介
OpenAIはMicroscopeをリリースした。これは、すべての重要なレイヤーと8つの主要なコンピュータービジョン(CV)モデルのニューロンのビジュアライゼーションである。これらのモデルは、解釈可能性に関してよく研究されている。このツールは、研究者がこれらのCVモデルを駆動するニューラルネットワークの内部に形成される機能やその他の重要な属性を分析するのに立つ。
-
MicrosoftのZeRO-2がAIトレーニングを10倍高速に
Microsoftは、クラスタサイズに対してスーパーリニアにスケールする、分散ディープラーニング最適化アルゴリズムZero Redundancy Optimizerのバージョン2(ZeRO-2)をオープンソースとして公開した。同社はZeRO-2を使用して、1,000億パラメータの自然言語処理(NLP)モデルを、従来の分散ラーニング技術の10倍の速度でトレーニングすることに成功している。
-
AWSがAmazon CodeGuruの一般提供発表
最近AWSは、機械学習を利用した開発者向けツールであるAmazon CodeGuruの一般提供を発表した。 コードの品質を改善し、アプリケーションの最も高価なコード行を識別するためのインテリジェントなリコメンドを提供する。
-
Facebook、プログラム言語間のコード変換を行うTransCode AIを発表
Facebook AI Researchは、教師なし(unsupervised)ディープラーニングを使用して、プログラミング言語のコードを別のプログラミング言語に変換するシステムであるTransCoderを発表した。TransCoderは280万以上のオープンソースプロジェクトを使用してトレーニングされており、ルールベースの手法を用いた既存のコード変換システムを能力的に凌駕する。
-
COVID-19とAI - 来を語るカンファレンスがスタンフォードで開催
Stanford Institute For Human-Centered Artificial IntelligenceはCOVID-19に対して、さまざまな側面からアプローチしている。
-
Concurnas - 並列およびGPUコンピューティングのための新しいJVM言語
Concurnasは、並行分散システムの構築を目的として設計された、オープンソースのJVMプログラミング言語だ。オブジェクト指向、関数型、リアクティブなプログラム構造を特徴とし、静的に型付けされている。GPUコンピューティングのネイティブサポートとベクトル化機能を供えたConcurnasは、マシンラーニングアプリケーションやハイパフォーマンスな並行アプリケーションの開発を可能にする。
-
Audiが自動運転用データセットをリリース
Audiの研究陣は、自動運転車のためのAudi Autonomous Driving Dataset(A2D2)をリリースした。同データセットには、カメライメージ、LiDARポイントクラウド、車両制御情報に加えて、教師あり学習(supervised learning)用にセグメント化とラベル付けされた40,000以上のフレームが含まれており、商用での利用も可能である。
-
GitHubがMLベースの“Good First Issues”レコメンデーションをリリース
GitHubは、"good first issues feature"の最新バージョンの提供を開始した。これは、マシンラーニング(ML)モデルが"easy"と特定したイシューと、プロジェクトメンテナが選択して"easy"とラベル付けしたイシューのリストとを組み合わせたものだ。オープンソースのコントリビュータならば、経験の深浅を問わずに、この機能を使ってプロジェクト内の簡単なイシューを見つけ、対処することができる。
-
PyTorch 1.4リリースがJavaバインディングと分散トレーニングをサポート
Facebookがオープンソースとして公開するディープラーニングフレームワークのPyTorchが、バージョン1.4のリリースを発表した。Python 2をサポートする最終バージョンになる予定の今回のバージョンでは、分散トレーニングとモバイル推論が改善され、Javaサポートが��入されている。
-
最新のNLPシステムを欺くMIT CSAILのTextFoolerフレームワーク
MIT Computer Science & Artiftial Intelligence Lab(CSAIL)の研究者チームが先頃、最先端のNLPモデル(BERTなど)を騙して誤った推論をさせることの可能な、TextFoolerというフレームワークをリリースした。
-
SpotifyがKubeflow MLパイプライン用のTerraformモジュールをオープンソースとして公開
Spotifyは、マシンラーニングパイプラインソフトウェアのKubeflowをGoogle Kubernetes Engine(GKE)上で実行する、自社製のTerraformモジュールをオープンソースとして公開した。社内MLプラットフォームをKubeflowに切り替えることにより、運用投入までの時間を短縮すると同時に、従来のプラットフォームに比較して7倍の試験を実施できるようになった。
-
Facebook Researchが音源分離用のAIシステムを開発
Facebook Researchは先頃、ディープラーニングを採用した音源分離(music source separation)システムのDemucsをリリースした。Demucsは、人による評価を基準とした分離後の音楽の品質において、これまでに報告されているものを上回っている。
-
face-api.jsによるJavaScript顔検出
face-api.jsは、畳み込みニューラルネットワークを実行して顔および顔のランドマークを検出・認識するJavaScriptモジュールだ。TensorFlow.jsを利用し、デスクトップおよびモバイルウェブ用に最適化されている。
-
Googleが効率的ディープラーニングモデルのReformerをオープンソース化
Google AI研究者チームは先頃、Transformerディープラーニングモデルの効率改善バージョンであるReformerをオープンソースとして公開した。アテンション(attention)の計算にハッシュ技術を使用し、Reversible Residual Layer(可逆的残差レイヤ)を採用することにより、Reformerは、100万ワードのテキストシーケンスを16GBのメモリと単一のGPUアクセラレータのみで処理することが可能である。