InfoQ ホームページ MachineLearning に関するすべてのコンテンツ
-
AmazonはGaudiアクセラレータを搭載したDL1インスタンスをリリース
Amazonは最近、Habana LabsのGaudiアクセラレーターを搭載したEC2 DL1インスタンスの一般向け提供を発表した。新しいインスタンスは、コンピュータービジョン、自然言語処理、自動運転車の認識、推奨エンジンなどのユースケース向けの深層学習モデルのトレーニングに対して、より優れた価格パフォーマンスを提供する。
-
AIを有効にしたトラブルシューティングにより、リカバリ時間を短縮
異常検出の機械学習アルゴリズムは、一般化された ML モデルをトレーニングし、隠れたパターンを検出して疑わしい動作を特定するために適用し、日常業務の中でDevOpsを支援する。IT運用 (AIOP) に適用される機械学習は、企業の研究環境からプロダクション環境に移行し始めている。
-
トレーニング済モデル上で高速クエリ検索インデクスをサポートするTensorFlow Similarity
Francois Chollet氏とそのチームは先頃、TensorFlow SimilarityというTensorFlow用Pythonライブラリをリリースした。類似性学習(similarity learning)とは、画像内の似通った衣類から顔写真を使用した人物識別に至るまで、類似アイテムの検出を行うプロセスである。ディープラーニングモデルでは、イメージ間の類似性学習の正確性と効率を向上させるために、対照学習(contrastive learning)と呼ばれる手法が使用される。
-
少ないパラメータでTransformerの性能を凌駕するGoogleのGated Multi-Layer Perceptron
Google Brain所属の研究者らが、基本的なMLP(multi-layer perceptron、多層パーセプトロン)のみを含むディープラーニングモデルをGated Multi-Layer Perceptron(gMLP)として発表した。Transformerモデルよりも少ないパラメータを使用して、自然言語処理(NLP)タスクではパフォーマンスで凌駕し、コンピュータビジョン(CV)タスクでも同等の精度を実現している。
-
IntelのLoihi 2とLava Frameworkでニューロモルフィックコンピューティング研究の進歩を目指す
Intelは、ニューロモルフィック (神経形態) コンピューティングの分野の研究用ツールを提供することを目的として、第2世代のニューロモルフィックチップであるLoihi 2 を発表した。また、IntelはLavaをリリースした。これは、従来のハードウェアとニューロモルフィックハードウェアの両方でニューロモルフィックアプリを構築するためのソフトウェアフレームワークだ。
-
scikit-learn 1.0がスプライン変換と分位点回帰をサポート、プロットAPIを強化
人気の高いPythonベースのマシンラーニング(ML)ライブラリscikit-learnのバージョン1.0がリリースされた。このライブラリは以前から安定しており、リリースに大きな変更は含まれていないが、ソフトウェアの成熟度が向上し、運用レベルに達したことをユーザに伝えるために、プロジェクトメンテナたちはメジャーバージョンの更新を選択したのだ。
-
Google Techに関するプロジェクトのキュレーションコレクションであるGoogleのDev Libraryとは
Googleは、Googleテクノロジーに関連するオープンソースプロジェクトから厳選したコレクションを作成することを目的とした新しい構想を発表した。GoogleのDev Libraryには、コードリポジトリだけでなく、さまざまなインターネットソースから収集された記事、ツール、チュートリアルも含まれる。
-
MItの研究チームがAMM(Approximate Matrix Multiplication)アルゴリズムのMADDNESSをオープンソースとして公開
MITのComputer Science & Artificial Intelligence Lab(CSAIL)に所属する研究者たちが、AMM(Approximate Matrix Multiplication)を用いてマシンラーニングをスピードアップするアルゴリズムのMultiply-ADDitioN-lESS(MADDNESS)をオープンソースとして公開した。MADDNESSは積和演算を必要としないため、他の近似法よりも10倍、正確な乗算(exact multiplication)を実行する場合よりも100倍、高速に動作する。
-
AmazonがQuickSight Qの一般提供を発表
Amazonは先頃、マネージドビジネスインテリジェンスサービスQuickSightのエンタープライズエディション用の自然言語による問い合わせツールであるQuickSight Qの一般提供(GA)を開始すると発表した。
-
学習済みモデルの一般への影響を研究するスタンフォード研究センター
スタンフォード大学は先頃、急増するマシンラーニングの研究機関やスタートアップを対象に、大規模な学習済みディープネットワーク(BERT、GPT-3、CLIPなど)を専門的に研究する新たな研究センターである、Center for Research on Foundation Models (CRFM)を発表した。
-
QCon Plus11月注目のMLトラック: 最新のMLイノベーションのすべてについて学ぶ
C4media (InfoQ および QCon の創立者) の社長である Dio Synodinos 氏は、最近、NYJavaSIG のシニアテクノロジーコンサルタントの Frank Greco 氏および QCon Plus 2021年11月の委員会メンバーと、トピックについて話し合い、今年11月のオンラインソフトウェアカンファレンス QCon Plus で参加を楽しみにしているトラックについて話しました。
-
ジョージア工科大学の研究者がワイヤレスブレインマシンインターフェースを開発
ジョージア工科大学の人間中心インターフェースおよびエンジニアリングセンターの研究者がSoft Scalp Electronics(SSE)を開発した。これは人間の脳信号を読み取るウェアラブルワイヤレス脳波記録(EEG)デバイスである。このシステムは、ニューラルネットワークを使ってEEGデータを処理することにより、デバイスを装着したユーザがアクティビティを想像するだけでビデオゲームを制御できるようになる。
-
ベクタ類似性検索の実用化を支援するPinecone 2.0
Pineconeは先頃、レコメンデーションシステム、画像検索、および同様のアプリケーションを簡単に開���できるようにする、ベクタ類似性検索(vector similarity search)ソリューションのバージョン2.0をリリースした。創設者でCEOのEdo Liberty氏に話を聞いた。
-
Facebookがコンピュータビジョンモデル”Multiscale Vision Transformers”をオープンソースとして公開
Facebook AI Reserch(FAIR)は先頃、Transformerアーキテクチャに基づくコンピュータビジョン用ディープラーニングモデルであるMultiscale Vision Transformer(MViT)を、オープンソースとして公開した。MViTは、内部にいくつかの解像度低減(resolution-reduction)ステージを備えることにより、他のTransformerビジョンモデルをパフォーマンスで凌駕すると同時に、必要な計算能力の低減を実現しており、いくつかのベンチマークにおいては精度の最高値を更新している。
-
TeslaがAIモデルをトレーニングするためのD1 Dojoチップを発表
TeslaはTesla D1を発表した。BF16 / CFP8で362 TFLOPのパワーを提供できる人工知能用に特別に設計された新しいチップだ。