ブログで100万の秘訣ってなに?
詳しくはコチラ

Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速

GoogleのTPU(Tensor Processing Units)は、TensorFlowフレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、クラウドで利用できるようになった。
Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTPUの消費電力が少ないことはGoogle側にとって重要なポイントだろう。デベロッパー側は消費電力などあまり気にかけないだろうが、Googleにとってデータセンターへの電力供給は大きな課題だ。また利用料金の引き下げにもつながる。
Googleは9ヶ月前のI/Oデベロッパー・カンファレンスでクラウド上でTPUを利用できるようにすると発表していた(このとき一部のデベロッパーに限定してアクセスを許可)。 それぞれのCloud TPUは4基のASICと64GBの広帯域メモリーを備える。Googleによれば、1つのTPUボードのピーク能力180TFLOPSだという。
すでにTensorFlowを利用して機械学習を実行しているユーザーは、新しいサービスを利用するためにコードを大きく書き換える必要はない。ただし当面、Cloud TPUを利用するのはワンクリックというわけにはいかない。アクセスを管理するため、「利用希望者は

リンク元

コメント

タイトルとURLをコピーしました