BT

Google、TensorFlowに最適化された新しいASICを発表

| 作者: Dylan Raithel フォローする 8 人のフォロワー , 翻訳者 笹井 崇司 フォローする 0 人のフォロワー 投稿日 2016年6月2日. 推定読書時間: 2 分 |

原文(投稿日:2016/05/23)へのリンク

Google I/OでのSundar Pichai氏の発表を受けて、GoogleのDistinguished Hardware EngineerであるNorm Jouppi氏が、TensorFlow Processing Unit (TPU) について説明した

それによると、このASICの最適化には、特にTensorFlow (TF) を使った機械学習のための計算精度の削減が含まれており、演算ごとに必要とされるトランジスタ数が少なくて済むという。現時点でパラメータやメトリックスのパフォーマンステストは提供されていないが、最適化のおかげでチップが1秒間に処理できる演算数が増えたとGoogleは述べている。

このプロジェクトは数年前にスタートして、7年分のテクノロジーを先取りしたと述べているが、分析のためのデータはコミュニティに提供されていない。Jouppi氏は、チップのプロトタイプをテストしてからデータセンターにデプロイするまでに要したのは、たった22日であり、Googleが研究成果をいかに速く実用化するのかを示す実例だと述べている。

TensorFlowに最適化されたチップが、NvidiaのTesla P100のような一般に手に入るハードウェア、さらには機械学習サービスを提供するNervanaのようなPaaSプロバイダとどのように競合するのか、いくつか疑問がある。今回のTPUの発表は、4月のNvidiaのTesla P100リリースと関係があるのかどうか、今のところ不明だ。

Googleに対する最近の記事では、独自チップの設計と製造、そしてIntelなど業界リーダーに対する潜在的影響について取り上げられていた。Googleが望んでいるのは、機械学習で業界をリードして、そのイノベーションを顧客に提供することだ、とJouppi氏は述べているが、現時点で具体的な計画は明らかにされていない。

TPUと比較される代替チップとしては、NvidiaのP100およびTX1、そしてIBMの TrueNorthが挙げられるが、具体的な言及はなされていない。これについては数名の読者が元の投稿で指摘している。RankBrainStreet View、そして2月Lee Sedol氏を破って大きく報道されたAlphaGoのTFベースの囲碁スタックで使われるカスタムハードウェアといった社内ユースケース以外でTPUを利用できるのか、Googleは計画を明らかにしていない。

 
 

Rate this Article

Relevance
Style
 
 

この記事に星をつける

おすすめ度
スタイル

こんにちは

コメントするには InfoQアカウントの登録 または が必要です。InfoQ に登録するとさまざまなことができます。

アカウント登録をしてInfoQをお楽しみください。

あなたの意見をお聞かせください。

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする
コミュニティコメント

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

ディスカッション

InfoQにログインし新機能を利用する


パスワードを忘れた方はこちらへ

Follow

お気に入りのトピックや著者をフォローする

業界やサイト内で一番重要な見出しを閲覧する

Like

より多いシグナル、より少ないノイズ

お気に入りのトピックと著者を選択して自分のフィードを作る

Notifications

最新情報をすぐ手に入れるようにしよう

通知設定をして、お気に入りコンテンツを見逃さないようにしよう!

BT