InfoQ ホームページ Natural-Language-Processing に関するすべてのコンテンツ
-
自然言語処理とゲノミクス処理を進化させるGoogleのBigBirdモデル
Googleの研究者たちが新たに、BigBirdと呼ばれるディープラーニングモデルを開発した。Transformerニューラルネットワークで、これまでよりも最大8倍長いシーケンスを処理することができる。このモデルをベースとしたネットワークが、自然言語処理(NLP)およびゲノミクス処理において、新たに最高のパフォーマンスレベルを達成した。
-
AIカンファレンス概括 - ACL 2020におけるFacebook、Google, Microsoft、その他
先日行われたAssociation for Computational Linguistics(ACL)の年次ミーティングでは、自然言語処理(Natural Language Processing、NLP)に関連するさまざまなAIの話題を取り上げた合計779件の論文が発表されたが、その中の200件近くは、Facebook、Google、Microsoft、Amazon、Salesforceなどのハイテク企業の研究チームによるものだった。
-
Alexaの新機能 - Alexa Conversations、ディープリンクによるモバイルアプリ制御
先日ベータ版がリリースされたAlexa Conversationsは、AIベースの新アプローチを採用することで、より少ないコードでカスタムスキルの作成を可能にすることを目的としている。同時にAmazonは、Alexaを使った携帯電話との対話を可能にするAlexa for Appsも発表した。
-
Google ML Kit SDKがオンデバイスの機械学習にフォーカス
Googleはスタンドアロンモードで動作することを目的とした新しいML Kit SDKを導入した。以前のML Kit SDKのようなFirebaseとの緊密な統合を必要としない。また、画像のラベル付けとオブジェクトの検出と追跡のために、デフォルトモデルをカスタムモデルに置き換えるための限定的なサポートも提供する。
-
OpenAIが1,750億のパラメーターを持つGPT-3 AI言語モデルを発表
OpenAIの研究者チームは最近、1,750億のパラメーターを備えた自然言語のディープラーニングモデルであるGPT-3を説明する論文を発表した。これは、前のバージョンのGPT-2の100倍である。モデルは約5兆語で事前トレーニングされており、微調整することなくいくつかのNLPベンチマークで最先端のパフォーマンスを実現する。
-
Google AIがCOVID-19の文献調査を支援するNLU搭載ツールを発表
Google AIはCOVID-19 Research Explorerをリリースした。これは、COVID-19 Open Research Dataset上にセマンティック検索インターフェースとして提供される。これにより、科学者と研究者がデータセットのすべての雑誌論文と前刷りを効率的に分析できるようになる。
-
Facebookの最先端チャットボットBlenderがオープンソースに
Blenderは、FacebookのAIおよびマシンラーニング部門であるFacebook AI Research(FAIR)が開発した、オープンドメインのチャットボット(chatbot)だ。FAIRによると、複数の会話スキルをブレンドすることを学習した初めてのチャットボットであり、共感を示したり、ほぼ任意のトピックについて議論したりすることが可能で、人間である評価者によるテストにおいてGoogleのチャットボットを凌駕したという。
-
Googleが効率的ディープラーニングモデルのReformerをオープンソース化
Google AI研究者チームは先頃、Transformerディープラーニングモデルの効率改善バージョンであるReformerをオープンソースとして公開した。アテンション(attention)の計算にハッシュ技術を使用し、Reversible Residual Layer(可逆的残差レイヤ)を採用することにより、Reformerは、100万ワードのテキストシーケンスを16GBのメモリと単一のGPUアクセラレータのみで処理することが可能である。
-
BaiduがERNIE 2.0をオープンソース公開、自然言語処理タスクでBERTを上回る
先日のブログ記事で、中国の検索エンジンと電子商取引の巨人であるBaiduは、ERNIE 2.0と呼ばれるオープンソースの自然言語理解フレームワークを発表すると同時に、最新技術(SOTA)達成の成果、さらには中国語と英語による16のNLPタスクにおいて、GoogleのBERTやXLNetなど、既存のフレームワークをパフォーマンスで上回ったことを公開した。
-
Googleが自然言語処理用のTensorFlow.Textライブラリをリリース
Googleは、TensorFlowディープラーニングプラットフォーム用の新しいテ��スト処理ライブラリであるTensorFlow.Textをリリースした。このライブラリにより、トークン化などのいくつかの一般的なテキスト前処理アクティビティをTensorFlowグラフ計算システムで処理できるようになり、自然言語処理のためのディープラーニングモデルの一貫性と移植性が向上する。
-
OpenAIはより長いシーケンスのディープラーニングのためのSparse Transformersを発表
OpenAIは、テキスト、音声、画像などの一連のデータを学習するためのディープニューラルネットワークアーキテクチャであるSparse Transformerを開発した。ネットワークは、より短いトレーニング時間で、いくつかのディープラーニングタスクにおいて最先端のパフォーマンスを達成できる。
-
Condé Nastの自然言語処理とコンテント分析に関するQ&A
2015年の始めにCondé Nastは、自社の22ブランドにわたって作成されたコンテンツに関わるメタデータ改善を目的として、自然言語処理およびコンテンツ分析のエンジンを開発した。新システムによって、クリック率が30%向上したという。Condé Nast USでテクノロジマネージャを務めるソフトウェアエンジニアのAntonino Rau氏に、このHALと命名されたNLP・アズ・ア・サービスの進化について話を聞いた。
-
GoogleがML Kitを拡張し、Smart ReplyとLanguage Identificationを追加
最近のAndroidブログ記事で、GoogleはML Kit向けの2つの新しい自然言語処理(NLP)機能のリリースを発表した。言語識別とスマートリプライである。どちらも、Googleは、開発者がテキスト、会話、その他の種類の自然言語テキストを分析および生成するのに役立つ、ドメインに依存しないAPIを提供している��
-
AWSがAIサービスの機能強化を発表
Amazon Web Services(AWS)は3つのAIサービス(Amazon Comprehend、Amazon Rekognition、およびAmazon Transcribe)の新機能をリリースした。
-
FacebookがNLPモデリングフレームワークPyTextをオープンソース化
Facebook AI Researchは、ビデオ通話デバイスのPortalやFacebook Messengerの M Suggestionsで使用されている自然言語処理(NLP)モデリングフレームワークであるPyTextをオープンソースとして公開した。