InfoQ ホームページ Artificial Intelligence に関するすべてのコンテンツ
-
Metaが1750億パラメータAI言語モデルのOPTをオープンソース化
Meta AI Researchは、1750億パラメーターAI言語モデルのOpen Pre-trained Transformer(OPT-175B)をリリースした。このモデルは1800億のトークンを含むデータセットでトレーニングされている。GPT-3と同等のパフォーマンスを示す一方で、必要なカーボンフットプリントはGPT-3トレーニングの7分の1のみである。
-
Amazon RekognitionがStreaming Video Eventを導入
AWSは先頃、Amazon Rekognitionの新機能として、ライブビデオストリーム上でリアルタイムなアラートを提供するStreaming Video Eventsの提供を開始すると発表した。
-
グラフニューラルネットワークのベンチマークを高速化する新ツール GraphWorld
Google AIは先頃、グラフニューラルネットワーク(Graph Neural Networks、GNNs)分野のパフォーマンスベンチマークを加速するツールとして、GraphWorldをリリースした。異なるノード次数分布やジニ係数のように、さまざまな構造特性でグラフを生成するための、コンフィギュレーション可能なフレームワークである。
-
TensorFlow DTensor:分散ディープネットワークトレーニング向けの統合API
最近リリースされたTensorFlow v2.9では、モデル、データ、スペースパラレル(別名、空間タイル)ディープネットワークトレーニングのための新しいAPIが追加された。DTensorの目的は、シャーディング命令をモデルコードから分離することである。そのためにDTensorは、デバイス間でモデルとバッチパラメータを分割するための高レベルのユーティリティを提供する。
-
Amazonが51言語のAIトレーニングデータセット”MASSIVE”を公開
Amazon Alexa AIのNatural Language Understandingグループは "Multilingual Amazon SLURP (SLU resource package) for Slot Filling, Intent Classification, and Virtual-Assistant Evaluation"(MASSIVE)をリリースした。自然言語理解(NLU)AIモデルのトレーニングを目的として、51言語から100万件のアノテーション付きサンプルを収めたデータセットだ。データを使用するためのコードやツールも含まれている。
-
GoogleがWorkspaceに新しいAI機能を追加
Googleの最新のAI開発は、従業員を支援することを目的としている。すべての動作モードと場所において、何が重要か、安全なコラボレーション、人間関係の強化に注力している。
-
Meta AIが提供する新しいデータセットにより、水素燃料向けの再生可能エネルギー触媒の発見が���速
Meta AIは最近、グリーン水素燃料MLモデリングとシミュレーションに関するまったく新しいデータセットを間もなくリリースすると発表した。これは、酸素発生反応(OER)のための酸化物触媒に焦点を当てたものである。OERは風力と太陽光のエネルギーを介したグリーン水素燃料の生産に使われる重要な化学反応である。
-
DeepMindが新しいジェネラリストAIエージェントのGatoを発表
エージェントとして知られているGatoは、DeepMindsの汎用的なAI(ジェネラリストAI)である。人間が実行できるさまざまなタスクを実行できるが、1つのタスクの専門家としてのニッチな領域を切り開くことない。Gatoは、ビデオゲームのプレイ、画像のキャプション、実世界のロボットアームの制御など、600を超えるさまざまなタスクを実行できる。Gatoはマルチモーダル、マルチタスク、マルチエンボディメントのジェネラリストポリシーである。
-
LAION、50億の画像-テキストペア・データセットLAION-5Bを公開
Large-scale Artificial Intelligence Open Network(LAION)は、50億を越える画像とテキストのペアを収めたAI用トレーニングデータセット"LAION-5B"をリリースした。LAION-5Bには、インターネットから収集した画像とキャプションが、前作であるLAION-400Mの14倍という規模で含まれており、無償で入手可能な最大の画像-テキストデータセットとなっている。
-
Googleが5400億パラメータのAI言語モデルPaLMをトレーニング
Google Researchは最近、Pathways Language Model(PaLM)を発表した。これは、5400億パラメータのAI自然言語処理(NLP)モデルで、BIGベンチベンチマークでは平均的な人間のパフォーマンスを超えている。PaLMは、多くの評価タスクで他の最先端のシステムよりも優れており、論理的推論やジョークの説明などのタスクで強力な結果を示している。
-
Google、AIによるGoogle Docsの要約生成機能を発表
Googleは、同社のDocsアプリに、ドキュメントのコンテンツの要約を自動生成する新機能を発表した。要約の生成には、Transformerアーキテクチャに基づいた自然言語処理(NLP)AIモデルを使用している。
-
3世代のtensorプロセッシングユニットから得られた10の教訓
GoogleのTPUグループが発行した最近のレポートでは、3世代のテンソルプロセッシングユニットの開発から得られた10のポイントが挙げられている。著者はまた、彼らの以前の経験が将来のtensorプロセッシングユニットの開発にどのように影響するかについても議論している。
-
MicrosoftがOpen Data for Social Impact Frameworkを発表
Microsoftは最近、Open Data for Social Impact Frameworkを導入した。これは、組織がデータを活用して新しい分析結果を得たり、より適切な意思決定を行ったり、差し迫った社会問題に取り組みながら効率性を向上させたりすることを支援するガイドである。このフレームワークには、組織がスタートするために使える5つのステップのロードマップが含まれている。
-
EleutherAIが200億パラメータAI言語モデルのGPT-NeoX-20Bをオープンソース化
EleutherAIの研究者はGPT-NeoX-20Bをオープンソース化した。これは、GPT-3に似た200億パラメーターの自然言語処理(NLP)AIモデルである。このモデルは、公開されている825GBのテキストデータでトレーニングされており、同様のサイズのGPT-3モデルに匹敵するパフォーマンスを備えている。
-
Meta AI Labsは、仮想世界向けの音声制御ビルダーBuilderBotを発表
Metaの最新のAI研究で、BuilderBotを導入している。これは創造性を高めるメタバースの新しいツールで、音声コマンドのみで没入型オブジェクトを生成できる。