BT

Ready for InfoQ 3.0? Try the new design and let us know what you think!

機械学習アクセラレーション向けのGoogle Cloud TPUをベータ版で提供開始

| 作者: Steef-Jan Wiggers フォローする 10 人のフォロワー , 翻訳者 編集部T _ フォローする 0 人のフォロワー 投稿日 2018年3月22日. 推定読書時間: 4 分 |

原文(投稿日:2018/02/22)へのリンク

読者の皆様へ:ノイズを減らすための一連の機能を開発しました。関心のあるトピックについて電子メールとWeb通知を受け取ることができます新機能の詳細をご覧ください。

GoogleはカスタムチップTensor Processing Units(TPU)を開発した。それは、TensorFlowフレームワーク用に書かれた機械学習ワークロードを実行するためのものであり、機械学習 (ML) のエキスパートと開発者にベータ版で提供する。GoogleのCloud TPUを使用すれば、MLモデルを低コスト、高性能でオンデマンドで実行できる。

Cloud TPUは10か月前にI/O開発者会議でGoogleから発表された。Googleは最初は開発者と研究者の限られたグループにのみ提供する。開発者は、そのサービスを使用する意思を示して、特定のTPUクォータを要求することでアクセスできる。TechCrunchの記事によると、Googleは次のように述べている

サービスが開始すると、Cloud TPUは時間あたり$6.50の利用料金が請求されます。これと比較して、米国の標準Tesla P100 GPUへのアクセスは1時間あたり$1.46で実行できますが、最大パフォーマンスは約21テラフロップのFP16パフォーマンスです。

Cloud TPUは、Googleがニューラルネットワークの機械学習用に設計した「AIアクセラレータ」アプリケーション専用集積回路(ASIC)で構成されている。各Cloud TPUには1つのボードに4つのカスタムASICが搭載されており、最大180テラフロップの浮動小数点パフォーマンスと64GBの高帯域メモリを提供する。さらに、各ボードはスタンドアロンで使用することも、専用の高帯域ネットワークを介して接続して、マルチペタフロップMLスーパーコンピュータ、いわゆる「TPUポッド」を形成することもできる。Googleは今年後半にこれらのインスタンスタイプを提供する。


画像ソース: https://www.nextplatform.com/2018/02/12/google-boots-tensor-processors-cloud/

Cloud TPUが利用可能になると、Google MLのエキスパートと開発者は、コスト効率が高く、より高速にワークロードを処理することができる。そのため、最終的には生産性が向上するであろう。まず、社内クラスタをセットアップ、設計、インストールするための投資は必要ない。シンプルにワークロードをGoogle Cloud Platformにプッシュするだけである。次に、コンピューティングクラスタでスケジュールされたジョブを待つ必要がない。例えば、専用のGoogle Cloud TPUに独占的にアクセスできる。重要なモデルをより早く習得させるためにコンピューティングパワーが必要な場合は、必要に応じてTPUのグループを割り当てることができる。そして最後に、Googleはリファレンスとして、高性能Cloud TPUモデルの実装をオープンソース化しており、Cloud TPUをプログラムするためのTensorFlow向けのハイレベルなAPIを提供する。

重要な各パブリッククラウドプロバイダは、さまざまなプラットフォームサービスを提供して、顧客がワークロードをプッシュできるようにする。Machine Learningとの違いはない。しかし、TensorFlowとTPUの組み合わせにより、Googleは短期的には競合他社に優位なサービスを提供している。TheNextPlatformの著者、Jeffrey Burt氏は最近の記事で次のように書いている。

GoogleはクラウドコンピューティングのリーダーであるAmazon Web ServicesとMicrosoft Azureの市場シェアに目を向けていくため、Cloud TPUをもう一つの対抗手段として位置づけています。目標は機械学習ワークロードのためにGoogle Cloud顧客オプションを提供することです。オプションとして、Cloud TPUと共に、Skylakeなどの高性能CPUやTesla V100アクセラレータなどのGPUを含みます。

さらに、CNBC.comの技術担当レポーターであるJillian D'Onfro氏によれば、GoogleはGoogle Cloudプラットフォームで自身のチップを利用できるというメリットがある。最近の技術記事で彼女は次のようい書いている。

まず、独自のシリコンを使用することで、Googleは、コアコンピューティングインフラストラクチャのために、NvidiaやIntelのようなチップメーカに依存するよりも安価で効率的な代替手段を提供します。独自のハードウェアを所有することで、Googleはより高速に実験を行うことができます。新しいTPUにより、親会社のAlphabetはGoogle Cloud Platformに収益のストリームを追加することもできます。GCPと、GSUiteと呼ばれるGoogleのビジネスアプリのコレクションは、四半期に10億ドル以上を生み出しています。

結論として、各パブリッククラウドプロバイダがより多くの市場シェアと価値を獲得するためには、あらゆるプラットフォームサービスにおいて差別化と目立つ試みが重要である。

Rate this Article

Adoption Stage
Style

この記事に星をつける

おすすめ度
スタイル

こんにちは

コメントするには InfoQアカウントの登録 または が必要です。InfoQ に登録するとさまざまなことができます。

アカウント登録をしてInfoQをお楽しみください。

あなたの意見をお聞かせください。

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする
コミュニティコメント

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

HTML: a,b,br,blockquote,i,li,pre,u,ul,p

このスレッドのメッセージについてEmailでリプライする

ディスカッション

特集コンテンツ一覧

C# 8の非同期ストリーム

Bassam Alugili 2018年10月11日 午前3時13分

BT