BT

最新技術を追い求めるデベロッパのための情報コミュニティ

寄稿

Topics

地域を選ぶ

InfoQ ホームページ ニュース MITが深層学習推論のためのエネルギー効率の高い光加速器を紹介

MITが深層学習推論のためのエネルギー効率の高い光加速器を紹介

ブックマーク

原文(投稿日:2021/08/17)へのリンク

MITの量子フォトニクス研究所の研究者は、デジタル光ニューラルネットワーク(DONN)を開発した。光を使ってアクティブ化データと重みデータを送信する深層学習推論アクセラレータのプロトタイプだ。数パーセントの精度を犠牲にすることで、システムは従来の電子機器に比べて最大1000倍の伝送エネルギーのメリットを得られる。

チームは、ネイチャーのScientific Reportsの論文で、システムといくつかの実験について説明している。電流の代わりに光信号を使うことにより、DONNは一定量のエネルギーを使ってニューラルネットワークの層間でデータを送信する。対照的に、電子加速器チップのエネルギー消費量は、伝送距離とともに増加する。これにより、DONNは、エネルギーコストを低く抑えながら、より大規模な深層学習モデルを処理するように拡張できる。DONNでは、単一の8ビット積和演算(MAC)操作を実行するために3つのフェムトジュール(fJ)が必要だが、電子チップの場合は1,000fJを超える。研究者は次のように述べている。

DONNアーキテクチャが提供する効率的な光データ配信は、モデルサイズの拡大と接続性の向上を通してDNNパフォーマンスを継続して成長させるために重要です。

大規模な深層学習モデルでは、トレーニングと推論の両方とも、それに応じた大規模なコンピューティングリソースとメモリリソースが必要となる。多くの場合、モデルは、タイムリーに計算を実行するために、GPUやTPUなどのアクセラレータハードウェアも必要となる。このハードウェアリソースは多くのエネルギーを消費し、その大部分はメモリアクセスとデータ移動のために消費される。そのため、チップ設計者は、このエネルギーコストが距離とともに増加するため、メモリを計算要素に物理的にできるだけ近づけるようになる。

ただし、光データ伝送には同じエネルギー伝送コストはかからない。これが、光ファイバーが長距離データ伝送の主要な伝送手段となった理由の1つだ。特にデジタル信号処理の領域では光コンピューティングは、何十年にもわたって活発な研究分野であった。それと同時に、フォトニック集積回路の開発により、深層学習への応用に対しての関心が促進された。作業の多くは、ニューラルネットワークで使われるコア線形代数関数の光学的実装にフォーカスしている。たとえば、2019年に、MITチームは、入力値と重み値を光強度としてエンコードし、光受信機を使って値の積を計算するシステムについて説明した論文を発表した。

このアプローチは本質的にアナログ計算であり、ノイズが多くなる可能性がある。そのため、ニューラルネットワークモデルの出力の精度が低下する可能性がある。対照的に、DONNはデジタル計算を再トレーニングし、代わりに光路を使って、ニューラルネットワークのアクティブ化値と重みを電子積和演算子に「ファンアウト」する。デジタル計算にはアナログ方式のようなノイズ源はないが、光伝送にはビットエラーの可能性がある。一連の実験で、チームはビットエラーレートを決め、MNIST画像分類タスクのモデル精度への影響を測定した。一部のビットエラーはエラー訂正方式で軽減できるが、最悪の場合では精度への影響は3パーセントポイント未満であった。

量子フォトニクス研究所で進行中の研究に加えて、MITは光学深層学習加速器について取り組む2つスタートアップをスピンアウトした。その1つのLightmatterは、行列の乗算を光学的に実装するプロトタイプシステムを開発している。Hacker NewsでのLightmatterプロトタイプに関する議論の中で、あるコメント提供者は次のように述べている。

しかし、GPT-3よりも桁違いに大きい大規模なニューラルネットワークをロボットに組み込むには、ニューラルネットワークコンピューティングの効率と規模を大幅に段階的に変更しなければなりません...彼らの技術は、いつの日か機械学習とロボット工学に恩恵をもたらすかもしれません。

MITは、GitHubのDONNで画像分類実験を実行するためのコードをオープンソース化している。

この記事に星をつける

おすすめ度
スタイル

特集コンテンツ一覧

.NETエコシステムの紹介

David Pine 2019年11月7日 午後7時48分

こんにちは

コメントするには InfoQアカウントの登録 または が必要です。InfoQ に登録するとさまざまなことができます。

アカウント登録をしてInfoQをお楽しみください。

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

コミュニティコメント

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

BT