InfoQ ホームページ Deep+Learning に関するすべてのコンテンツ
-
説明可能なAIに関する調査結果を研究者チームが発表
IBM WatsonとArizona State Universityの研究者たちが、Explainable AI Planning(XAIP)の開発に関する調査結果を公開した。67の論文を対象に、この分野における傾向を図表として表したものだ。
-
IoTのためのディープラーニングモデルサイズを減らす技術を研究員たちが開発
Arm LimitedとPrinceton Universityの研究員たちが、わずか2KBのRAMで、IoT(internet-of-things)ハードウェアシステムのためのディープラーニングコンピュータビジョンモデルを生成する技術を開発した。ベイズ最適化とネットワークプルーニングを使って、このチームは最新の精度を保ちながら、画像認識モデルのサイズを減らすことができる。
-
Google、TensorFlow Enterpriseのベータを提供
Googleは最近のブログ記事で、エンタープライズグレードのサポートおよびマネージドサービスを含んだクラウドベースのTensorFlow機械学習サービス、TensorFlow Enterpriseを発表した。
-
Amazonがマシンラーニング用IDEのSageMaker Studioをリリース
先日のre:InventカンファレンスでAmazon Web Services(AWS)は、Amazon SageMaker Stduioを発表した。コード編集、トレーニングジョブのトラッキングとチューニング、デバッグをすべてひとつのWebベースUIに搭載した、マシンラーニング(ML)のための統合型開発環境(IDE)だ。
-
Apple、エッジにフォーカスしたAIスタートアップXnor.aiを買収
Appleは、エッジデバイス上で実行するAIモデルを構築するスタートアップXnor.aiをおよそ2億ドルで買収した。
-
Deep Java Library - Java開発者のための新たなディープラーニングツールキット
Amazonはディープラーニングモデルのトレーニング、デプロイ、推論生成を簡単にするオープンソースライブラリのDeep Java Library(DJL)をリリースした。DJLフレームワークは非依存性を備えており、既存のディープラーニングフレームワーク上でJava Native Access(JNA)を使用することで、一般的に使用されているディープラーニング機能を抽象化する。現時点では、Apache MXNetとTensorFlow用の実装が提供されている。
-
ディープラーニングフレームワークのSINGAがApacheトップレベルプロジェクトに昇格
Apache Software Foundation(ASF)は先頃、分散ディープラーニングフレームワークのSINGAが、プロジェクトの成熟性と安定性の向上によってトップレベルプロジェクト(TLP)に到達したと発表した。SSINGAは銀行や医療など、いくつかの分野の企業で既に採用されている。
-
PyTorchとTensorFlow - 学界と産業界で有力なMLフレームワークはどちらか
The Gradientで先日、2019年の機械学習フレームワークの現状について調査した記事が公開された。その記事は、PyTorchが急速に研究の主要なフレームワークになりつつあるのに対し、TensorFlowが依然として業界の主要アプリケーションフレームワークであると、いくつかの指標を用いて主張する。本記事では、それらの違いについて詳しく説明する。
-
FacebookとMicrosoftがパートナとともにDeepfake Detection Challengeを発表
Facebook、Microsoft、Partnership on AIは、大学の研究者らと共に、AIで生成した事実でないイメージやビデオを検出可能なAIを開発するコンテストとして、Deepfake Detection Challenge(DDC)を立ち上げた。提案された課題は、DDCの提供するリアルとフェイクの両方のビデオによるデータセットを使用するもので、最高のAIソリューションを構築したチームには表彰と賞金の提供が行われる。
-
Agile Igniteを使用した継続的ディープラーニング - Denis Magda氏の講演より
先日のApacheCon North Americaで、Denis Magda氏が、インメモリデータグリッドのApache Igniteを使用した継続的マシンラーニング(continuous machine learning)について講演した。Igniteは、データを格納した同じクラスタ内でトレーニングとホストモデルを実行することで、マシンラーニングパイプラインを簡素化すると同時に、新たなデータが利用可能になった時に"オンライン"トレーニングを実行して、モデルを漸進的に改善することもできる。
-
Waymoがマシンラーニング用に自動運転車データセットを公開
自動運転テクノロジ企業のWaymoは、5時間以上の運転中に自動運転車が収集したセンサデータを含むデータセットをリリースした。このセットには、いくつかの都市と郊外の環境において、さまざまな運転条件下で収集されたLIDAR(レーザレーダ)およびカメラセンサの高解像度データと、車両、歩行者、自転車、標識のラベルが含まれている。
-
FacebookがDLRM(Deep-Learning Recommendation Model)をオープンソース公開
Facebook AI Researchは、パーソナライズされたレコメンデーションの生成において最先端の精度を実現するDLRM(deep-learning recommendation model)を、オープンソースとしてリリースすると発表した。GitHubから入手可能なコードには、PyTorchおよびCaffe2フレームワーク用のバージョンが含まれている。
-
AWSがDeep Learning AMIおよびAIサービスのSageMakerとRekognitionを強化
Amazon Web Services (AWS)は、Deep Learning仮想マシンイメージのアップデートと、AIサービスSageMaker Ground TruthとRekognitionの改善を発表した。
-
GoogleがTensorFlow Lite向けにトレーニング後の整数量子化をリリース
Googleは、モデルのサイズと推論の待機時間を削減するTensorFlow Liteディープラーニングフレームワーク向けの新しいツールを発表した。このツールは、トレーニング済みモデルの重みを浮動小数点表現から8ビット符号付き整数に変換する。これにより、モデルのメモリ要件が低減され、浮動小数点アクセラレーターを必要とせず、そして、モデルの品質を犠牲にすることなく、モデルをハードウェアで実行できる。
-
Googleが自然言語処理用のTensorFlow.Textライブラリをリリース
Googleは、TensorFlowディープラーニングプラットフォーム用の新しいテキスト処理ライブラリであるTensorFlow.Textをリリースした。このライブラリにより、トークン化などのいくつかの一般的なテキスト前処理アクティビティをTensorFlowグラフ計算システムで処理できるようになり、自然言語処理のためのディープラーニングモデルの一貫性と移植性が向上する。