InfoQ ホームページ AIと機械学習、データエンジニアリング に関するすべてのコンテンツ
-
AlphaCode:ディープラーニングによる競争力のあるコード合成
AlphaCodeの研究で、目標指向のコード合成に関して有望な結果が示されており、ディープsequence-to-sequenceモデルが使われている。それは、以前のネットワークを拡張しており、CodeContestsという名前の新しいデータセットをリリースしている。これは、将来の研究ベンチマークに貢献するためである。
-
テルアビブ大学、長文NLPベンチマークSCROLLSをリリース
テルアビブ大学(Tel-Aviv University)、Meta AI、IBM Research、Allen Institute for AIの研究者らが、さまざまな分野から収集した長いテキスト列を処理対象とする自然言語処理(NLP)ベンチマーク用のタスクセットを、Standardized CompaRison Over Long Language Sequences(SCROLLS)としてリリースした。ベースラインのNLPモデルを対象とした実験結果からは、現行のモデルに改善の余地が多くあることが示唆されている。
-
WaymoがBlock-NeRF 3Dビュー合成ディープラーニングモデルをリリース
Waymoは、自動運転車によって収集された画像から再構築された大規模な3Dワールドビュー合成のためのBlock-NeRFと呼ばれる画期的なディープラーニングモデルをリリースした。NeRFには、ニューラルネットワークで表面と体積の表現をエンコードする機能がある。
-
OpenAIは人間の指示に従うためのInstructGPT言語モデルを導入
OpenAIはGPT-3言語モデルを見直した。そして、有害な言語や誤った情報に関する不満に対処するためにInstructGPTと呼ばれる新しいデフォルトツールを導入した。
-
MetaがマルチモーダルAIアルゴリズムのdata2vecをオープンソース化
Meta AIは最近、data2vecをオープンソース化した。画像、テキスト、音声音声データに関する自己監視型ディープラーニングのための統合フレームワークだ。一般的なベンチマークで評価すると、data2vecを使ってトレーニングされたモデルは、モダリティ固有の目的でトレーニングされた最先端のモデルと同等かそれ以上のパフォーマンスを達成している。
-
GitHubが機械学習を使って脆弱性コードスキャンを拡張した方法
GitHubは、機械学習技術をルールベースのセキュリティコードスキャン機能に適用し、既存のルールから新しいルールを自動的に推測することで、あまり一般的ではない脆弱性パターンにその機能を拡張できることを期待している。
-
PipelineDPによりGoogleの差分プライバシーライブラリをPythonで提供
GoogleとOpenMinedは新たなオープンソースライブラリのPipelineDPをリリースした。これにより、研究者や開発者がバッチ処理システムを使って大規模なデータセットに差分プライベート集計を適用できるようになる。
-
DeepMindが量子化学AIモデルのDM21をオープンソース化
Googleの子会社であるDeepMindの研究者が、DM21をオープンソース化した。これは、電子密度を化学相互作用エネルギーにマッピングするためのニューラルネットワークモデルである。これは量子力学的シミュレーションの重要なコンポーネントである。DM21は、いくつかのベンチマークで従来のモデルよりも優れている。PySCFシミュレーションフレームワークの拡張として利用できる。
-
アリババがAutoMLアルゴリズムのKNASをオープンソース化
アリババグループと北京大学の研究者はカーネルニューラルアーキテクチャ検索(KNAS)をオープンソース化した。これは、トレーニングなしで提案されたアーキテクチャを評価できる効率的な自動機械学習(AutoML)アルゴリズムだ。KNASは、モデル品質のプロキシとして勾配カーネルを使用し、ベースラインとなる方法と比べて桁違いに少ない計算能力で済む。
-
LambdaML: 深層ネットワークトレーニングにサーバレスを使うメリットとデメリット
「サーバレス機械学習トレーニングの謎を解くために」というタイトルの新しい研究は、サーバレスプラットフォームを活用して、ディープネットワークのトレーニングの実験的分析を提供することを目的としている。トレーニングに使われる FaaS は、学��アルゴリズムの分散性と集約ステップに課題がある。結果は、FaaS は (軽量モデルの場合に) より高速である可能性がありますが、IaaS よりも安価ではないことを示している。
-
Meta AIの畳み込みネットワークのアップグレードにより、画像分類が改善
Meta AIは改良された新世代の畳み込みネットワークをリリースした。Image-Net top-1データセットで87.8%の精度の最先端のパフォーマンスを達成し、オブジェクト検出パフォーマンスを評価できるCOCOデータセットでSwin Transformersを上回った。新しい設計とトレーニングのアプローチは、Swin Transformersモデルから着想を得ている。
-
継続的な深層学習の評価:画像分類のための新しいベンチマーク
継続的な学習は、ディープネットワークトレーニングの反復全体で知識を保持することを目的としている。「CLEARベンチマーク:実世界の画像に関する継続的な学習」というタイトルの新しいデータセットが最近公開された。この研究の目的は、継続的な学習モデルをより現実的な比較をするために、オブジェクトの自然な時間進化を伴う一貫した画像分類ベンチマークを確立することである。
-
大学研究者チームがロボット制御のためのブレイン・コンピュータ・インターフェイスを開発
スイス連邦工科大学ローザンヌ校(EPFL)とテキサス大学オースティン校(UT)の研究者らは、ロボットマニピュレータの動作軌道の修正が可能なブレイン・コンピュータ・インターフェースを開発した。逆強化学習(inverse reinforcement learning、IRL)を使用することにより、5回程度のデモンストレーションでユーザの意思を学習することができる。
-
Metaがメタバース用のAIスーパーコンピュータを発表
Meta は、AI 研究を加速し、同社のメタバース構築を支援することを目的とした AI Research SuperCluster (RSC) スーパーコンピュータを発表した。RSC は、同社の何百もの異なる言語で動作し、新しくより優れた AI モデルを構築し、新しい拡張現実ツールを開発するのに役立つ。
-
Googleがコスト最適化のためにCloud Bigtableの自動スケーリングを導入
Cloud Bigtableは、Google Cloud Platform(GCP)上の大規模な運用および分析処理向けの、フルマネージドでスケーラブルなNoSQLデータベースサービスである。そして最近、このパブリッククラウドプロバイダーは、Bigtable Autoscalingの一般向け提供を発表した。これにより、アプリケーションの需要の変化に応じて、容量が自動的に追加、削除され、コストの最適化ができるようになる。