InfoQ ホームページ Deep+Learning に関するすべてのコンテンツ
-
トレンドマイクロ、ユーロポール、UNICRIがAI悪用のレポートを公開
トレンドマイクロ、ユーロポールの欧州サイバー犯罪センター(EC3)、国連地域間犯罪司法研究所(UNICRI)は、AIの現在および将来の犯罪となる悪用に関するレポートを共同で作成した。このレポートには、政策立案者、法執行機関、サイバーセキュリティの専門家向けの一連の準備に関する推奨事項も含まれている。
-
FacebookがゲームプレーAIのReBeLをオープンソースとして公開
Facebook AI Researchは、ポーカーのトッププレイヤを破る実力を備えた、不完全情報ゲーム(imperfect-information game)をプレーする同社の新たなAIであるRecursive Belief-based Learning(ReBeL)の論文を発表した。採用されたアルゴリズムは強化学習と状態空間検索を組み合わせたもので、任意の2プレイヤ型ゼロサムゲームをNash近傍に収束する。Liar's Diceをプレーしてアルゴリズムをトレーニングするためのコードは、オープンソースとして公開されている。
-
MediaPipeがモバイルデバイス向けにホリスティックトラッキングを提供
ホリスティックトラッキングはMediaPipeの新機能であり、モバイルデバイスで体と手のポーズと顔の位置を同時に検出できる。この3つの機能は、以前は個別に利用できた。しかし、現在は単一の高度に最適化されたソリューションに統合されている。
-
GoogleがIoT AI用の新たなCoral APIをリリース
Googleは同社のCoral AIツールキット用のAPIとツールを新たにリリースした。C++とPythonのSDKが機能的に同等になり、メモリ使用効率が向上した他、レーニング済モデルが追加され、モデルパイプラインが一般向け提供(GA)になった。
-
Googleが3Dオブジェクト認識AI向けのObjectronデータセットをリリース
Google ResearchはObjectron Datasetのリリースを発表した。3Dオブジェクト認識用の機械学習データセットである。データセットには、15,000のビデオセグメントとグラウンドトゥルースアノテーション付きの4,000,000の画像が含まれている。また、データを使用してAIモデルをトレーニングするためのツールが含まれている。
-
Spark AI Summit 2020の注目点: Spark 3.0のパフォーマンス改善のイノベーション
初めてオンラインで開催された先頃のSpark AI Summit 2020で、注目点は、Spark SQLの最適化やGPUアクセラレーションなど、Apache Spark 3.0のパフォーマンスを改善するためのイノベーションだった。
-
AppleのML ComputeフレームワークがTensorFlowトレーニングを加速
最近のmac OS Big Surリリースの一部として、AppleはML Computeフレームワークを組み込んでいる。ML Computeは、IntelとM1ベースのMacの両方で、CPU上とGPU上において、トレーニングを改善するために最適化された数学ライブラリを提供する。それによって、TensorFlowディープラーニングライブラリを使用してトレーニング時間を最大7倍改善する。
-
MicrosoftがGPT-3 AIモデルの独占ライセンスを取得
Microsoftは、自然言語処理(NLP)用のOpenAIのGPT-3ディープラーニングモデルのライセンスに関する、OpenAIとの契約を発表した。Microsoftの発表によると、モデルの「独占的」ライセンスが付与されるが、OpenAIは引き続き独自のAPIを介してモデルへのアクセスを提供する。
-
UberのオープンソースAI抽象化レイヤ、Neuropod
UberオープンソースのNeuropodは、機械学習フレームワークの抽象化レイヤであり、研究者は統合の労力を削減しながら、選択したフレームワークでモデルを構築できるため、同じプロダクションシステムで異なるフレームワークに実装されたモデルを交換できる。Neuropodは現在、TensorFlow、PyTorch、Keras、TorchScriptなどのいくつかのフレームワークをサポートしている。
-
Googleが高速アテンションモジュールのPerformerをオープンソース化
Googleは、入力シーケンス長に対して線形スケールするTransformerディープラーニングアーキテクチャのPerformerをオープンソースとして公開した。この特徴によってPerformerは、画素推定(pixel-prediction)やタンパク質配列のモデリングといった、長いシーケンスを必要とするタスク��使用することができる。
-
Google、Facebook、Microsoftの大規模多言語AIモデル
Google、Facebook、Microsoftの各研究者グループがそれぞれ、多国語AIモデルの最新の成果を発表している。GoogleとMicrosoftは、XTREMEベンチマークによる測定において、NLPタスクで現在最高のパフォーマンスを達成したモデルをリリースした。またFacebookは、英語中心でない多対多の翻訳モデルを開発している。
-
GoogleがObject Detection APIでのTensorFlow2のサポートを発表
Googleは、TensorFlow Object Detection(OD)APIにおいてTensorFlow 2(TF2)のサポートを発表した。このリリースには、イーガーモード互換のバイナリ、2つの新しいネットワークアーキテクチャ、およびサポートされているすべてのモデルに対する事前トレーニング済みの重みが含まれている。
-
GoogleがコンピュータビジョンモデルのBig Transferをオープンソース化
Google Brainは、ディープラーニングのコンピュータービジョンモデルであるBig Transfer(BiT)向けに事前トレーニング済みモデルと微調整コードをリリースした。このモデルは、公開されている一般的な画像データセットで事前にトレーニングされており、わずか数個のサンプルを微調整すると、いくつかのビジョンベンチマークで最先端のパフォーマンスと同等か上回ることができる。
-
NVIDIAのAIがビデオストリーミングの帯域幅を10分の1に削減
GPUマニュファクチャのNVIDIAが、AIを活用したビデオ会議サービスMaxineプラットフォームを発表した。通信に必要な帯域幅を1桁削減可能なテクノロジがこれには含まれている。データ処理の大半をクラウドに移行することで、エンドユーザは、特別なハードウェアを必要とせずに圧縮のメリットを享受することが可能になる。
-
NVIDIAが59ドルのJetson Nano 2GB Kitをリリース、AI開発をより身近なものに
JetsonシリーズのデバイスとソフトウェアSDKによってNVIDIAは、GPUベースのAIアプリケーションの学習と開発を行うための一貫性のある開発環境を作り上げている。