InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
FacebookがTransformer AIをスケールアップするExpire-Spanをオープンソース公開
Facebook AI Research(FAIR)は、入力中の記憶すべきアイテムを学習することによって、AIのメモリおよび計算能力に関する要件を低減するディープラーニング技術のExpire-Spanを、オープンソースとして公開した。FAIRによれば、Expire-Spanを併用したTransformerは、数万アイテムのシーケンスにまでスケールアップ可能であると同時に、パフォーマンス面においても従来のモデルよりも向上している。
-
AI会議の要約:ICLR 2021でのGoogle、Microsoft、Facebook、その他
最近の表現学習国際学会(ICLR)で、Google、Microsoft、IBM、Facebook、Amazonなどのいくつかのテクノロジー企業の研究チームが、ディープラーニングに関連するさまざまなAIトピックに関して、合計860件のうち250件近くの論文を発表した。
-
ニュースをアップしました『Zesty DiskがAWS EBS向けの自動スケーリングを提供』#InfoQJapan
先週は、Mac 8.10用のVisual Studio 2019、Windows ML NuGetパッケージ1.8.0、Tye向けのVisualStudioCode拡張機能、Oqtane2.1のリリースが特徴的であった。InfoQは、2021年5月31日の週の、この件と.NETエコシステム内のいくつかの小さな出来事を調査した。
-
Google Cloudがマネージド機械学習プラットフォームの Vertex AIを発表
最近のGoogle I/O 2021カンファレンスで、当クラウドプロバイダーはVertex AIの一般向け提供を発表した。Vertex AIは、人工知能モデルのデプロイとメンテナンスを促進するために設計されたマネージドな機械学習プラットフォームである。
-
CMUがAIモデルの一般化を保証するアルゴリズムを開発
カーネギーメロン大学(CMU)の近似的に正しいマシンインテリジェンス(ACMI)ラボの研究者が、ランダム割り当て、訓練、追跡(RATT)に関する論文を発表した。ノイズの多いトレーニングデータを使って、深層学習モデルのTrueエラーのリスクの上限を示すアルゴリズムに関しての論文である。RATTを使って、モデルの開発者は、モデルが新しい入力データにどの程度一般化されるかを判断できる。ta.
-
PyodideがWebAssemblyを使ってPythonとその科学スタックをブラウザに提供
Mozillaは、Pyodideが、独立したコミュニティ主導のプロジェクトになったことを発表した。Pyodideは、その全てがブラウザで実行される完全なPythonデータサイエンススタックを提供することを目的としたプロジェクトである。Pyodideは WebAssemblyにコンパイルされたCPython 3.8インタープリターを活用しているため、IodideでPython、NumPy、Pandas、Matplotlib、SciPyなどを使用できる。IodideはWeb用の実験的なインタラクティブな科学計算環境である。
-
MicrosoftのZeRO-Infinity Libraryで32兆個のパラメーターのAIモデルをトレーニング
Microsoftは最近、ZeRO-Infinityをオープンソース化した。これは、オープンソースのDeepSpeed AIトレーニングライブラリへの追加である。このライブラリは、非常に大規模なディープラーニングモデルをトレーニングするためのメモリ使用を最適化するものである。MicrosoftはZeRO-Infinityを使って、32のGPUのクラスター上で32兆のパラメーターを持つモデルをトレーニングし、1つのGPUで1兆のパラメーターモデルの微調整のデモを実施した。
-
NVIDIAがAIをトレーニングするデータセットジェネレータDatasetGANを発表
NVIDIAの研究者は、AIビジョンモデルをトレーニングするためのデータセットを作成する注釈付きの合成画像を生成するシステムであるDatasetGANを作成した。DatasetGANは、わずか16の人による注釈付き画像でトレーニングでき、100倍以上の注釈付き画像を必要とする完全な教師ありシステムと同様に機能する。
-
IBMがタスク自動化のためのWatson Orchestrateを発表
最近のThink会議で、IBMはWatson Orchestrateと呼ばれるAIを活用した自動化ツールを紹介した。現在、IBM Cloud Paks for Automationでプレビューされており、2021年後半にSaaS製品として一般向けに提供される予定である。
-
AmazonがDeepRacerデバイスソフトウェアをオープンソース化
Amazonは最近、DeepRacerデバイスソフトウェアをオープンソース化した。これはAWS DeepRacerの実行に使用���れるソフトウェアである。1/18スケールの自動運転車とDeepRacerイベントにより、開発者は機械学習モデルを作成し、クラウドベースの3Dレーシングシミュレーター内でレースすることができる。
-
技術的スキルと非技術的スキルを次のレベルに引き上げる:QConPlusにご参加ください
ソフトウェア業界で学ぶための最良の方法は、仲間から学ぶことある。来週からQCon Plusで2,200人のシニアソフトウェアエンジニア、アーキテクト、チームリーダーが加わる。次のことができるようになる。
-
AWSがAmazon Finspaceと呼ばれるデータ管理および分析ソリューションを発表
最近、AWSは、Amazon FinSpaceと呼ばれる金融サービス業界(FSI)向けのデータ管理および分析ソリューションを発表した。このサービスは、金融アナリストが分析のためにあらゆる種類の財務データを見つけてアクセスするのにかかる時間を短縮することを目的としている。
-
研究者が生物学的に妥当なAIトレーニング方法を公開
オックスフォード大学の研究者チームは、ニューラルネットワークAIモデルをトレーニングするためのバックプロパゲーション(BP)アルゴリズムの代替として、ゼロダイバージェンス推論学習(Z-IL)と呼ばれるアルゴリズムを開発した。Z-ILは、任意のニューラルネットワークでBPの結果を正確に再現することが示されているが、BPとは異なり、脳機能の既知の原則に違反していない。
-
FacebookがZionEXプラットフォームを発表、12兆パラメータのAIモデルのトレーニングを可能に
Facebook AI Research(FAIR)の科学者チームは、独自に開発したAIハードウェアプラットフォームのZionEX上でPyTorchを使ってディープラーニングレコメンデーションモデル(DLRM)をトレーニングするシステムを発表した。このシステムを使って同チームは、最大12Tパラメータを持つモデルのトレーニングにおいて、他のシステムよりも1桁近いトレーニング時間のスピードアップを実現している。
-
Amazon Sagemakerが節約プランの導入と料金の即時引き下げを実施
AWSは先頃、同社のフルマネージド・マシンラーニング(ML)サービスであるAmazon SageMakerの料金即時引き下げと節約プランを発表した。このSavings Plans for Amazon SageMakerには、オンデマンド料金と比較して最大64パーセントのコスト削減というメリットがある。Amazon SageMakerのいくつかのインスタンスファミリについても、最大で14.2パーセントの料金引き下げが行われる。