InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
PipelineDPによりGoogleの差分プライバシーライブラリをPythonで提供
GoogleとOpenMinedは新たなオープンソースライブラリのPipelineDPをリリースした。これにより、研究者や開発者がバッチ処理システムを使って大規模なデータセットに差分プライベート集計を適用できるようになる。
-
DeepMindが量子化学AIモデルのDM21をオープンソース化
Googleの子会社であるDeepMindの研究者が、DM21をオープンソース化した。これは、電子密度を化学相互作用エネルギーにマッピングするためのニューラルネットワークモデルである。これは量子力学的シミュレーションの重要なコンポーネントである。DM21は、いくつかのベンチマークで従来のモデルよりも優れている。PySCFシミュレーションフレームワークの拡張として利用できる。
-
アリババがAutoMLアルゴリズムのKNASをオープンソース化
アリババグループと北京大学の研究者はカーネルニューラルアーキテクチャ検索(KNAS)をオープンソース化した。これは、トレーニングなしで提案されたアーキテクチャを評価できる効率的な自動機械学習(AutoML)アルゴリズムだ。KNASは、モデル品質のプロキシとして勾配カーネルを使用し、ベースラインとなる方法と比べて桁違いに少ない計算能力で済む。
-
LambdaML: 深層ネットワークトレーニングにサーバレスを使うメリットとデメリット
「サーバレス機械学習トレーニングの謎を解くために」というタイトルの新しい研究は、サーバレスプラットフォームを活用して、ディープネットワークのトレーニングの実験的分析を提供することを目的としている。トレーニングに使われる FaaS は、学習アルゴリズムの分散性と集約ステップに課題がある。結果は、FaaS は (軽量モデルの場合に) より高速である可能性がありますが、IaaS よりも安価ではないことを示している。
-
Meta AIの畳み込みネットワークのアップグレードにより、画像分類が改善
Meta AIは改良された新世代の畳み込みネットワークをリリースした。Image-Net top-1データセットで87.8%の精度の最先端のパフォーマンスを達成し、オブジェクト検出パフォーマンスを評価できるCOCOデータセットでSwin Transformersを上回った。新しい設計とトレーニングのアプローチは、Swin Transformersモデルから着想を得ている。
-
継続的な深層学習の評価:画像分類のための新しいベンチマーク
継続的な学習は、ディープネットワークトレーニングの反復全体で知識を保持することを目的としている。「CLEARベンチマーク:実世界の画像に関する継続的な学習」というタイトルの新しいデータセットが最近公開された。この研究の目的は、継続的な学習モデルをより現実的な比較をするために、オブジェクトの自然な時間進化を伴う一貫した画像分類ベンチマークを確立することである。
-
大学研究者チームがロボット制御のためのブレイン・コンピュータ・インターフェイスを開発
スイス連邦工科大学ローザンヌ校(EPFL)とテキサス大学オースティン校(UT)の研究者らは、ロボットマニピュレータの動作軌道の修正が可能なブレイン・コンピュータ・インターフェースを開発した。逆強化学習(inverse reinforcement learning、IRL)を使用することにより、5回程度のデモンストレーションでユーザの意思を学習することができる。
-
Metaがメタバース用のAIスーパーコンピュータを発表
Meta は、AI 研究を加速し、同社のメタバース構築を支援することを目的とした AI Research SuperCluster (RSC) スーパーコンピュータを発表した。RSC は、同社の何百もの異なる言語で動作し、新しくより優れた AI モデルを構築し、新しい拡張現実ツールを開発するのに役立つ。
-
Googleがコスト最適化のためにCloud Bigtableの自動スケーリングを導入
Cloud Bigtableは、Google Cloud Platform(GCP)上の大規模な運用および分析処理向けの、フルマネージドでスケーラブルなNoSQLデータベースサービスである。そして最近、このパブリッククラウドプロバイダーは、Bigtable Autoscalingの一般向け提供を発表した。これにより、アプリケーションの需要の変化に応じて、容量が自動的に追加、削除され、コストの最適化ができるようになる。
-
Amazon OpenSearchに履歴データの異常検出を追加
Amazon OpenSearch は先ごろ履歴データの異常検出サポートを導入した。この機械学習ベースの機能は、OpenSearch データの傾向、パターン、季節性を特定するのに役立つ。
-
OpenAIが質問応答AIのWebGPTを発表
OpenAIはWebGPTを開発した。GPT-3に基づく長い形式の質問応答用のAIモデルである。WebGPTは、Web検索クエリを使用して、その応答のサポートするリファレンスを収集する。Redditの質問に対する回答について、人間の審査員が69%の確率で、最高投票の回答よりも好んだ。
-
InfoQ 2022イベント:ソフトウェアをリードするプラクティショナーと深く掘り下げる準備へ
私たちのイベントはオンライン(InfoQ LiveとQCon Plus)と対面の両方で行われる。対面は、ロンドン(4月4日~6日)とサンフランシスコ(10月24日~28日)でQConソフトウェア開発会議が再び開催される。今年のパターンとプラクティスを採用する役に立つような、実用的なインスピレーションを得るために参加してください。
-
AIは見ることによっても聞く
Meta AIは、自己監視型音声認識モデルをリリースした。このモデルはビデオも使用し、ある程度の量があるデータに対して現在の最先端モデルよりも75%優れた精度を実現する。この新しいモデルAudio-Visual Hidden BERT (AV-HuBERT)は、視聴覚機能を使用して、音声のみに基づいてモデルを改善する。使用される視覚機能は、人間の場合と同じように、読唇術に基づいている。
-
PyTorch利用についてメタとAWSが協力
MetaとAWSは協力して、AWSでPyTorchを実行しているアプリケーションのパフォーマンスを改善する計画である。そして、開発者が人工知能と機械学習モデルを構築、トレーニング、デプロイ、運用する方法を加速する。
-
Facebookが20億パラメータの多言語音声認識モデルXLS-Rをオープンソース化
Facebook AI Research(FAIR)はXLS-Rをオープンソース化した。クロスリンガル音声認識(SR)AIモデルだ。XSLRは、128言語の436K時間の音声音声でトレーニングされている。以前の最大モデルよりも1桁多く、いくつかのダウンストリームSRタスクと翻訳タスクで現在の最先端技術を上回っている。