InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
AWSが機械学習を学習し実験するための無料ツールSageMaker Studio Labを発表
AWSはSageMaker Studio Labを発表した。開発者が機械学習技術を学び、その技術を実験するのに役立つ無料サービスだ。SageMaker Studio Labは、JupyterLab IDE、CPUとGPUのモデルトレーニング、15GBの永続ストレージなど、開始するためのベースとなるものをすべてユーザに提供する。
-
MITの研究者がディープラーニングの計算負荷を調査
MIT、延世大学、ブラジリア大学の研究者チームが新しいWebサイトComputer Progressを立ち上げた。1,000を超える深層学習研究論文の計算負荷を分析するものだ。このサイトのデータにより、計算負荷が予想よりも速く増加していることが示されている。アルゴリズムにはまだ改善の余地があることを示している。
-
Facebook、ディープラーニングモデルの初期化を高速にするGHN-2 AIをオープンソースとして公開
Facebook AI Research(FAIR)とゲルフ大学(University of Guelph)の共同チームは、ディープラーニング・ニューラルネットワークの初期パラメータを予測するGraph HyperNetworks(GHN-2)メタモデルの強化版をオープンソースとして公開した。GHN-2は単一CPU上で1秒未満で動作し、CIFAR-10データセット上において、追加的なトレーニングを必要とせず、最高77パーセントのtop-1精度でコンピュータビジョン(CV)ネットワークの値を予測することができる。
-
D2iQがDKP 2.0をリリース、Kubernetesアプリの大規模運用が可能に
D2iQは先頃、Kubernetesワークロードを大規模運用する企業を支援するプラットフォームとして、D2iQ Kubernetes Platform(DKP) バージョン2.0をリリースした。 新リリースでは、プライベートクラウド、パブリッククラウド、あるいはネットワークエッジを含む任意のインフラストラクチャを対象として、マルチクラスタ環境の管理とアプリケーションの実行を単一ウィンドウで行うことができる。
-
PyTorch 1.10がリリース - CUDA Graphs APIを追加、コンパイラを改善、Android NNAPIをサポート
Facebookが開発するオープンソースのディープラーニングフレームワークであるPyTorchが、バージョン1.10のリリースを発表した。CUDA Graphs APIのインテグレーション、JITコンパイラのアップデートによるCPUパフォーマンスの向上に加え、Android Networks API(NNAPI)のベータサポートが含まれている。ドメイン固有ライブラリであるTorchVisionとTorchAudioの新バージョンもリリースされた。
-
QCon Plus MLパネルディスカッション - 実用化されたMLの次なるステップは何か?
先日のQCon Plusオンラインカンファレンスで、"ML in Production — What's Next?"と題されたパネルディスカッションが行われた。重要なポイントは次のとおりだ — エンジニアリングインフラストラクチャの貧弱さと学際的コミュニケーションの不足により、多くのMLプロジェクトが実運用環境で失敗している。モデルの説明性とエッジコンピューティングにおけるMLは、いずれもまだ完成の域に達していないが、重要なテクノロジである。
-
AWS re:Invent 2021の総括
バーチャルオンリーだったイベントの1年後、re:invent の 10 回目が少ない参加者で先週ラスベガスに帰ってきた。新しい CEO の Adam Selipsky 氏の最初のキーノートと複数のセッションが行われた。AWS は新機能と改善点を発表した。それは、新しいプリミティブよりもパッケージ化されたソリューションに重点を置いている。
-
AMDがディープラーニングアクセラレーターInstinct MI200シリーズGPUを発表
AMDは最近のAccelerated Data Center Premiere Keynoteで、MI200アクセラレータシリーズのInstinct MI250xと、それよりもわずかにローエンドのInstinct MI250 GPUを発表した。
-
AWSがNVIDIA A10G Tensor Core GPUを搭載したEC2インスタンス (G5) が利用可能になったと発表
先ごろ、AWS は、最大8個の NVIDIA A10G Tensor Core GPU を搭載した新しい G5 インスタンスが利用可能になったと発表した。このインスタンスは、第2世代の AMD EPYC プロセッサを搭載している。
-
ゼロショットラーニングの意外な効果 - Roland Meertens氏の講演より
先日のQCon PlusオンラインカンファレンスでRoland Meertens氏は、"The Unreasonable Effectiveness of Zero Shot Learning"と題して、AIベースのアプリケーション開発について講演した。その中で氏は、ファンデーションモデル(foundation model)とゼロショットラーニング(zero shot learning)を使ってアプリケーションのプロトタイプを迅速にデプロイし、フィードバックを得ることにより、大規模なデータセットの収集やモデルのトレーニングを不要にした2つの例を紹介した。
-
MLを運用環境に展開する前に知っておくべきこと - Francesca Lazzeri氏の講演より
先日開催されたQCon PlusオンラインカンファレンスでFrancesca Lazzeri博士は、マシンラーニングオペレーション(MLOpe)について、"What You Should Know before Deploying ML in Production"と題して講演し、MLOpsの可能性、オープンソースインテグレーション、マシンラーニングパイプライン、MLFlowプラットフォームという4つの重要なトピックを取り上げた。
-
マシンラーニングがセキュリティにできること
マシンラーニングは、マルウェアの分析、予測の実施、セキュリティイベントのクラスタリングなど、さまざまな方法でセキュリティに適用できる。シグネチャの確立されていない、未知の攻撃を検出するために使用することも可能だ。
-
BigScience Research Workshop、AI言語モデルのT0をリリース
BigScience Research Workshopは、ゼロショット・マルチタスク(zero-shot multitask)学習の研究を目的として特別にトレーニングされた自然言語処理(NLP)AIモデルのシリーズを、T0としてリリースした。T0はBIG-benchベンチマークの大半において6倍規模のモデルを上回り、他のNLPベンチマークの一部では16倍の規模を持つGPT-3のパフォーマンスをも凌駕する。
-
Baiduが110億のパラメータを持つチャットボットAIのPLATO-XLを発表
Baiduは先頃、対話生成(dialog generation)用AIモデルのPLATO-XLを発表した。英語と中国語のソーシャルメディア上の会話から収集した10億以上のサンプルを使ってトレーニングした結果、いくつかの会話ベンチマークで既存の商用チャットボットを凌ぐ、最高レベルのパフォーマンスを達成している。
-
Facebookが将来の行動を予測できる新しいAIモデルを開発
Facebookは、Anticipative Video Transformer(AVT)と呼ばれる最新の機械学習プロセスを発表した。視覚的な解釈を用いて将来のアクションを予測できる。AVTは、ビデオでのアクション予測のためのエンドツーエンドのアテンションベースのモデルとして機能する。