BT

Facebook、Neural Machine Translationに移行

| 作者: Alex Giamas フォローする 10 人のフォロワー , 翻訳者 sasai フォローする 0 人のフォロワー 投稿日 2017年8月27日. 推定読書時間: 2 分 |

原文(投稿日:sasai)へのリンク

Facebookは最近、NMT (Neural Machine Translation) の世界展開を発表した。2,000以上の翻訳方向と1日45億の翻訳が、フレーズベースの翻訳モデルからNMTに切り替わる。Facebookによると、今回の切り替えによって、よく知られた翻訳スコアであるBLEU スコアは11%上がるという。

ブログ記事を書いたエンジニア、Juan Miguel Pino氏、Alexander Sidorov氏、Necip Fazil Ayan氏によると、Facebookが今年初めにオープンソース化した機械学習フレームワークCaffe2を用いて、パフォーマンスを2.5倍に向上させたという。

この翻訳品質レベルを達成する上でキーとなったのは、アテンション付きのSequence-to-Sequence LSTM (long short-term memory) として知られるリカレントニューラルネットワークの使用だった。この種のシステムは、より精度の高い翻訳を生成するために、原文とその前にある全てのコンテキストを考慮する。これによって距離の離れた並び替えが可能になる。これは特に、英語からトルコ語、英語からギリシア語といった翻訳ペアで見られる問題を解決する。

LSTMのアテンションメカニズムは、トレーニングデータから構築されたバイリンガル辞書へのソフト翻訳アライメントにより、翻訳中の未知語の扱いにも役に立つ。語彙を削減することで、翻訳品質に大きな影響を与えることなく、計算時間を大幅に短縮した。

FBLearner Flowフレームワークを利用することで、2,000翻訳ペアのパラメータを素早く正確に微調整できたという。これだけで、英語-スペイン語の翻訳ペアにおいて、BLEUスコアは3.7%向上した。

このプロジェクトの一環として、FacebookはCaffe2にリカレントニューラルネットワークを寄贈してオープンソース化した。FacebookのArtificial Intelligence Research (FAIR) チームは、機械翻訳に畳み込みニューラルネットワーク (CNN)を使った研究も公表している。

今回のFacebookの発表は、2016年のGoogle翻訳へのNMT発表から遅れること数ヶ月、GoogleのMultimodel Neural Network発表から1ヶ月足らずだった。

 
 

Rate this Article

Adoption Stage
Style
 
 

この記事に星をつける

おすすめ度
スタイル

こんにちは

コメントするには InfoQアカウントの登録 または が必要です。InfoQ に登録するとさまざまなことができます。

アカウント登録をしてInfoQをお楽しみください。

あなたの意見をお聞かせください。

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする
コミュニティコメント

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

ディスカッション

InfoQにログインし新機能を利用する


パスワードを忘れた方はこちらへ

Follow

お気に入りのトピックや著者をフォローする

業界やサイト内で一番重要な見出しを閲覧する

Like

より多いシグナル、より少ないノイズ

お気に入りのトピックと著者を選択して自分のフィードを作る

Notifications

最新情報をすぐ手に入れるようにしよう

通知設定をして、お気に入りコンテンツを見逃さないようにしよう!

BT