InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
UdacityとMicrosoftがML Engineer on Azureコースを発表
MicrosoftとUdacityは協力して、Azure Suiteを使用したモデルのトレーニング、検証、デプロイに焦点を当てた機械学習(ML)エンジニアトレーニングプログラムを立ち上げた。このプログラムは、コーディングの経験が非常に少ない学生を対象としており、Azure自動MLの使用に重点を置いている。
-
UberとOpenAIが分散型機械学習用の新しいライブラリであるFiberを発表
UberとOpenAIはFiberをオープンソース化した。これは、ユーザがコンピュータークラスターに大規模な機械学習計算を実装できるようにすることを目的とした新しいライブラリである。ライブラリの主な目的は、様々な種類のコンピューティングハードウェアを活用し、アルゴリズムを動的にスケーリングし、クラスターに複雑なアルゴリズムを実装するエンジニアの負担を軽減することである。
-
GoogleのMediaPipe機械学習フレームワークがWebAssemblyでWeb対応に
Googleは最近、WebAssemblyによって実現され、XNNPack ML推論ライブラリによって高速化されたブラウザ用のMediaPipeグラフを発表した。以前にモバイル(Android、iOS)で示されたように、MediaPipeグラフを使用すると、開発者は機械学習(ML)パイプラインを構築して実行し、複雑なタスクを実行できる。
-
リアルタイムの単一癌細胞分析に使用されるMLを活用したバイオチップ
UCIの研究者とエンジニアは最近、単一細胞レベルで癌と健康な組織を検査して区別できる機械学習支援バイオチップを作成した。そのデバイスによって生成されたデータは、腫瘍の不均一性を研究するために使用できる。これは、癌治療への抵抗を低減するのに役立つ。
-
AWSがAmazon Timestreamの一般提供をリリース
AWSは先頃、SQLを通して時系列データを公開するサーバレス専用データベースであるAmazon Timestreamの一般提供を発表した。Amazon Timestreamを使用すると、顧客は、最近のデータをメモリに保持し、ユーザ定義のポリシーに基づいてコストが最適化されたストレージ階層に履歴データを移動することで、時系列データのライフサイクルを管理する時間とコストを節約できる。
-
99.9%少ないパラメータでGPT-3パフォーマンスを上回るAIのトレーニング方法
LMU Munichの科学者チームは、自然言語処理 (NLP) モデルの深層学習トレーニング手法であるPattern-Exploiting Training (PET)を開発した。チームはPETを使用して、SuperGLUEベンチマークで1750億パラメータのGPT-3の3パーセント以上となる2億2300万パラメータを使用してTransformerNLPモデルをトレーニングした。
-
ExBERT、NLPモデルで学習された表現を探索するためのツール
MIT-IBM AI Labsと Harvard NLP Groupは、exBERTと呼ばれるTransformersモデルで学習した表現を調査するためのインタラクティブな視覚化ツールのライブデモをリリースした。事前発行があり、ソースコードも公開される。
-
CNCFがKubernetesエッジコンピューティングプラットフォームKubeEdgeをインキュベーションプロジェクトとして承認
CNCF Technical Steering Committee (TOC) は、インキュベーションプロジェクトとしてKubeEdgeを承認したことを発表した。KubeEdgeは、「クラウドとエッジデバイス間のネットワーク、アプリケーションデプロイメント、メタデータ同期のインフラストラクチャサポート」を提供することを目的としたプラットフォームであり、Kubernetesを基盤として使用する。
-
GoogleがTensorFlowモデル最適化のためのQuantization Aware Trainingをリリース
Googleは、TensorFlow Model Optimization Toolkit用のQuantization Aware Training(QAT)APIのリリースを発表した。QATは、ニューラルネットワークトレーニングプロセス中に低精度のハードウェアをシミュレートし、全体的なネットワーク損失メトリックに量子化誤差を追加する。これにより、トレーニングプロセスがトレーニング後の量子化の影響を最小限に抑えられる。
-
Facebookがタンパク質配列を処理するAIモデルをリリース
Facebook AI Researchの科学者チームが、DNA配列のタンパク質データを処理するディープラーニングモ��ルをリリースした。モデルには約7億のパラメータが含まれており、2億5,000万のタンパク質配列によるトレーニングで生物学的特性を学習した結果として、ゲノミクス予測タスクにおける現在の最先端技術の改善に使用することが可能である。
-
TensorFlow 2.3ではパイプラインのボトルネックを削減し、前処理を改善
TensorFlowプロジェクトは、バージョン2.3.0のリリースを発表した。これは、入力パイプラインのボトルネックの低減、前処理用のKerasレイヤー、メモリプロファイリングのための新しいメカニズムを備えている。
-
スタンフォードNLPグループがStanzaをリリース:Python NLPツールキット
スタンフォードNLPグループは最近、新しいPython自然言語処理ツールキットであるStanzaをリリースした。Stanzaは、テキスト分析(66の人間の言語をサポート)用の言語に依存しない完全なニューラルパイプラインと、StanfordのCoreNLP JavaソフトウェアへのPythonインターフェイスの両方を備えている。
-
AmazonがECSでEC2 Inf1インスタンスのサポートを発表
先頃のブログ投稿で、Amazonは、顧客がAmazon Elastic Container Service (ECS)でAmazon EC2 Inf1インスタンスを使用できるようになったと発表した。同社は、インスタンスのパフォーマンスが高く、予測可能なコストが低いことを約束している。
-
MozillaがHubs Cloudを発表
MozillaのMixed Realityグループは、仮想現実の集まりのためのソーシャルスペースであるMozilla Hubsのクラウドバージョンを立ち上げた。組織は、Mozilla Hubsの独自のインスタンスをデプロイおよびカスタマイズできるようになった。Mozilla Hubsは、AWS Marketplaceで入手でき、必要なすべてのAWSリソースを管理する。Mozilla Hubsを使用すると、人々は3D環境で会うことができ、コンピュータまたは仮想現実デバイスを使用して参加できる。
-
MicrosoftとGoogleが言語横断のAIタスクに対する新しいベンチマークをリリース
Microsoft ResearchとGoogle AIの研究チームはAIシステムの言語間自然言語理解(NLU)タスク向けの新しいベンチマークを発表した。そのタスクには、固有表現抽出や質問応答などがある。GoogleのXTREMEは40の言語をカバーし、9つのタスクを含む。一方、MicrosoftのXGLUEは27の言語と11のタスクをカバーする。