InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
セキュリティとツールを改善した ROS 2 Foxy Fitzroy リリース
Open Roboticsは、ロボットオペレーティングシステムの最新バージョンであるROS 2 Foxy Fitzroyをリリースした。このリリースには、セキュリティの強化や改善されたツールなど、いくつかの新機能が含まれており、Eclipse FoundationやAmazon Web Servicesなどの多くの業界関係者からの貢献がある。
-
MITとToyotaが自動運転データセットDriveSegをリリース
Toyotaの先進安全技術研究センター (CSRC) とMITのAgeLabは、自動運転研究のデータセットであるDriveSegをリリースした。DriveSegには、25,000フレームを超える高解像度ビデオが含まれており、各ピクセルには12クラスの道路オブジェクトの1つがラベル付けされている。DriveSegは、非営利目的で無料で利用できる。
-
AWSが機械学習を利用したエンタープライズ検索サービスKendraを一般提供でリリース
先頃、AmazonはAWSでのエンタープライズ検索サービスKendraの一般提供を発表した。Amazon KendraのGAリリースにより、いくつかの新しい特別な機能を追加し、サービスの精度を向上させた。
-
Teslaが完全自動運転モードのベータアップデートをリリース
Teslaは、特定の顧客向けに新しい自動運転機能の提供を開始した。新機能には、市街地での車両の自動操縦機能がある。Teslaは近い将来、パッケージの価格を2,000ドル引き上げる予定である。
-
Facebookは機械学習プライバシーライブラリのOpacusをオープンソース化
Facebook AI Research(FAIR)はOpacusのリリースを発表した。OpacusはPyTorchフレームワークを使用して深層学習モデルをトレーニングするときに差分プライバシー技術を適用する高速ライブラリである。Opacusは、他のプライバシーライブラリと比較して桁違いの高速化を実現できる。
-
UdacityとMicrosoftがML Engineer on Azureコースを発表
MicrosoftとUdacityは協力して、Azure Suiteを使用したモデルのトレーニング、検証、デプロイに焦点を当てた機械学習(ML)エンジニアトレーニングプログラムを立ち上げた。このプログラムは、コーディングの経験が非常に少ない学生を対象としており、Azure自動MLの使用に重点を置いている。
-
UberとOpenAIが分散型機械学習用の新しいライブラリであるFiberを発表
UberとOpenAIはFiberをオープンソース化した。これは、ユーザがコンピュータークラスターに大規模な機械学習計算を実装できるようにすることを目的とした新しいライブラリである。ライブラリの主な目的は、様々な種類のコンピューティングハードウェアを活用し、アルゴリズムを動的にスケーリングし、クラスターに複雑なアルゴリズムを実装するエンジニアの負担を軽減することである。
-
GoogleのMediaPipe機械学習フレームワークがWebAssemblyでWeb対応に
Googleは最近、WebAssemblyによって実現され、XNNPack ML推論ライブラリによって高速化されたブラウザ用のMediaPipeグラフを発表した。以前にモバイル(Android、iOS)で示されたように、MediaPipeグラフを使用すると、開発者は機械学習(ML)パイプラインを構築して実行し、複雑なタスクを実行できる。
-
リアルタイムの単一癌細胞分析に使用されるMLを活用したバイオチップ
UCIの研究者とエンジニアは最近、単一細胞レベルで癌と健康な組織を検査して区別できる機械学習支援バイオチップを作成した。そのデバイスによって生成されたデータは、腫瘍の不均一性を研究するために使用できる。これは、癌治療への抵抗を低減するのに役立つ。
-
AWSがAmazon Timestreamの一般提供をリリース
AWSは先頃、SQLを通して時系列データを公開するサーバレス専用データベースであるAmazon Timestreamの一般提供を発表した。Amazon Timestreamを使用すると、顧客は、最近のデータをメモリに保持し、ユーザ定義のポリシーに基づいてコストが最適化されたストレージ階層に履歴データを移動することで、時系列データのライフサイクルを管理する時間とコストを節約できる。
-
99.9%少ないパラメータでGPT-3パフォーマンスを上回るAIのトレーニング方法
LMU Munichの科学者チームは、自然言語処理 (NLP) モデルの深層学習トレーニング手法であるPattern-Exploiting Training (PET)を開発した。チームはPETを使用して、SuperGLUEベンチマークで1750億パラメータのGPT-3の3パーセント以上となる2億2300万パラメータを使用してTransformerNLPモデルをトレーニングした。
-
ExBERT、NLPモデルで学習された表現を探索するためのツール
MIT-IBM AI Labsと Harvard NLP Groupは、exBERTと呼ばれるTransformersモデルで学習した表現を調査するためのインタラクティブな視覚化ツールのライブデモをリリースした。事前発行があり、ソースコードも公開される。
-
CNCFがKubernetesエッジコンピューティングプラットフォームKubeEdgeをインキュベーションプロジェクトとして承認
CNCF Technical Steering Committee (TOC) は、インキュベーションプロジェクトとしてKubeEdgeを承認したことを発表した。KubeEdgeは、「クラウドとエッジデバイス間のネットワーク、アプリケーションデプロイメント、メタデータ同期のインフラストラクチャサポート」を提供することを目的としたプラットフォームであり、Kubernetesを基盤として使用する。
-
GoogleがTensorFlowモデル最適化のためのQuantization Aware Trainingをリリース
Googleは、TensorFlow Model Optimization Toolkit用のQuantization Aware Training(QAT)APIのリリースを発表した。QATは、ニューラルネットワークトレーニングプロセス中に低精度のハードウェアをシミュレートし、全体的なネットワーク損失メトリックに量子化誤差を追加する。これにより、トレーニングプロセスがトレーニング後の量子化の影響を最小限に抑えられる。
-
Facebookがタンパク質配列を処理するAIモデルをリリース
Facebook AI Researchの科学者チームが、DNA配列のタンパク質データを処理するディープラーニングモデルをリリースした。モデルには約7億のパラメータが含まれており、2億5,000万のタンパク質配列によるトレーニングで生物学的特性を学習した結果として、ゲノミクス予測タスクにおける現在の最先端技術の改善に使用することが可能である。