タグ TPU
人気順 5 users 50 users 100 users 500 users 1000 users「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-... 続きを読む
小説の書き出し以降をAIが自動生成してくれる「AIのべりすと」を使ってみた
Googleが開発する機械学習に特化した集積回路「TPU」を用いてオープンな研究のブレイクスルーを図るTPU Research Cloudを利用し、日本語最大級の68.7億パラメータ&約500GBのコーパスからフルスクラッチで訓練した小説生成人工知能(AI)が「AIのべりすと」です。「AIのべりすと」は小説の書き出し部分を5~6行入力するだ... 続きを読む
対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita
RTX 2080Tiを2枚買ったので、どれぐらいの性能が出るかColabのTPUと対決させてみました。さすがにRTX 2080Tiを2枚ならTPU相手に勝てると思っていましたが、意外な結果になりました。 スペック GPU側 GPU : RTX 2080Ti 11GB Manli製×2 SLI構成 CPU : Core i9-9900K メモリ : DDR4-2666 64GB CUDA : 10.0 cuDNN : 7.5.1 Te... 続きを読む
Googleのエッジデバイス向けTPU「Google Edge TPU」がついに発売か、気になる価格は? - GIGAZINE
Googleが長らく開発を続けてきた、TensorFlowを用いた機械学習を効率良く行うためのカスタムASICが「テンソル・プロセッシング・ユニット(TPU)」です。このTPUをIoTなどのエッジデバイス向けに特化した「Google Edge TPU」が、ついに発売となるようです。 Edge TPU Devices https://aiyprojects.withgoogle.com/edge-tpu... 続きを読む
Googleの機械学習マシン「Cloud TPU Pod」の新型はNVIDIA Tesla V100の200倍高速に - GIGAZINE
Googleが開発する機械学習向けプロセッサ「TPU」をGoogleデータセンターネットワークと接続したマシン「TPU Pod」の新バージョンが、クラウドで提供開始されました。TPU Podでの機械学習における時間と費用というコストが劇的に下がるとGoogleはアピールしています。 Now you can train TensorFlow machine learning mod... 続きを読む
Google ColaboratoryのTPUを試してみる
TL;DR ColabのTPUを使って今すぐCNNを試してみよう。ものすごい速いぞ。 はじめに 9/26夜、Google Colaboratoryユーザーに激震が走った。 ハードウェアアクセラレータにTPUが使えるようになってる!?TPU(Tensor Processing Unit)凄さはこのニュースを見れば恐ろしいほど伝わってくる。 COOL Chips 21 - GoogleのWebサー... 続きを読む
大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS
はじめに TensorFlow2.0がもうすぐ来るよ! APIs High level APIs Eager Exexution Reference Models Contribの扱い プラットフォーム TensorFlow Lite TensorFlow.js TensorFlow with Swift パフォーマンス Distributed TensorFlow CPU、GPU、TPUの最適化関連 その他のパッケージ TensorFlow Probability Tensor2Tensor... 続きを読む
グーグルが半導体メーカーに、エッジ向け深層学習チップ「Edge TPU」を外販 | 日経 xTECH(クロステック)
登録会員限定記事 現在はどなたでも閲覧可能です 米グーグルは2018年7月25日(米国時間)、エッジデバイス向けのディープラーニング(深層学習)専用チップ「Edge TPU」を発表した。IoT(インターネット・オブ・シングズ)のエッジで機械学習の推論を実行できる。グーグルが半導体チップの外販を始めた。 「TPU(Tensor... 続きを読む
1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意 (1/2) - ITmedia エンタープライズ
画像認識や音声認識にすぐ使える「リファレンスモデル」も公開:1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意 (1/2) Googleは2018年2月から、同社の機械学習用ライブラリ「TensorFlow」の処理を高速化するプロセッサ「TPU」のクラウド版「Cloud TPU(ベータ版)」の公開に踏み切った。「TP... 続きを読む
グーグルの深層学習プロセッサ「TPU」が「AIを、全ての人に」を実現する (1/3) - MONOist(モノイスト)
グーグル(Google)は2018年7月6日、東京都内でメディアセミナーを開き、同社がディープラーニング(深層学習)向けに開発してきたプロセッサ「TPU(Tensor Processing Unit)」について説明した。 セミナーに登壇したのは、グーグルの日本法人で Google Cloud、データ分析チーム デベロッパーアドボケイトを務める佐藤... 続きを読む
GoogleのTPUって結局どんなもの? 日本法人が分かりやすく説明:CPU、GPUとの違いとは? - @IT
機械学習に特化したGoogleの自社開発プロセッサ、「TPU(Tensor Processing Unit)」。ディープラーニングを高速化するため、Googleが開発したプロセッサ。Google自身は「Google Search」「Google Translate」「Google Photos」といったサービスで活用している。日本法人がこれについて分かりやすく説明した。 機械学習... 続きを読む
機械学習を高速処理するGoogleの「Cloud TPU」サービス、7割引きの利用料で使えるプリエンプティブに対応 - Publickey
機械学習を高速処理するGoogleの「Cloud TPU」サービス、7割引きの利用料で使えるプリエンプティブに対応 Googleは同社が開発した機械学習処理のためのソフトウェア「TensorFlow」を高速に実行するための専用プロセッサ「Tensorflow Purocessing Unit」(TPU)を自社開発し、クラウドサービスとして提供しています。それ... 続きを読む
Googleが機械学習専用の第3世代プロセッサ「TPU3.0」を発表、冷却が追いつかず液冷システムまで導入する事態に - GIGAZINE
Googleの開発者向けイベント「 Google I/O 2018 」で、機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第3世代モデル「 TPU3.0 」をGoogleのCEOサンダー・ピチャイ氏が発表しました。TPU3.0は第2世代モデルと比較して約8倍の高速化を実現しましたが、性能が上がりすぎたことで、プロセッサの発熱を抑えられなくなり、初めて液冷... 続きを読む
Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 - Publickey
Googleは、サンフランシスコで開催中のイベント「Google I/O 2018」で、機械学習処理専用のプロセッサ「Tensor Processing Unit」(TPU)の第三世代となる「TPU 3.0」を発表しました。 機械学習には、学習を行うトレーニングの処理と、学習した内容を基に行う推論の処理の2つがあります。特にトレーニングの処理は非常に大きなコンピュータの処理能力を必要とします。 T... 続きを読む
Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速 | TechCrunch Japan
GoogleのTPU( Tensor Processing Units )は、 TensorFlow フレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、 クラウド で 利用できるようになった 。 Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTP... 続きを読む
Googleの機械学習マシン「第2世代TPU」の構造を公開された写真から推測する - GIGAZINE
Googleが先日開催されたGoogle I/O 2017で、機械学習用に最適化された第2世代の「TensorFlow Processing Unit(TPU)」を発表しました。しかし、Googleは第2世代TPU(TPU2)の詳細なスペックを明らかにしていないため、TPU2の構造はよく分かりません。そこで、クラウドコンピューティングやデータ分析を行うTIRIAS Researchのチーフアナリス... 続きを読む
Googleの機械学習マシン「TPU」の第2世代登場、1ボード180TFLOPSで64台グリッドではスパコン「京」を超える - GIGAZINE
Googleが現地時間2017年5月17日から開催中の開発者会議「 Google I/O 2017 」で、機械学習・人工知能(AI)開発に特化した専用マシン「 TensorFlow Processing Unit(TPU) 」の第2世代モデルを公開しました。第2世代TPUでは従来の「推論」だけでなく「トレーニング」まで処理でき、64台組み合わせるとスパコン「京」を上回る演算能力を誇ります。 Bui... 続きを読む
[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017 - Publickey
[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017 Googleは5月17日(日本時間5月18日未明)から開催中の年次イベント「Google I/O 2017」にて、機械学習に最適化した第二世代のTensorFlow Processing Unit(TPU)とそれを用いたク... 続きを読む
Google Cloud Platform Japan 公式ブログ: Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム
Google Cloud Platform Japan 公式ブログ: Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム
Googleの機械学習専用カスタムチップはGPU/CPUマシンの15〜30倍速い…同社ベンチマークを発表 | TechCrunch Japan
【抄訳】 Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、 前から知られていた 。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、同社自身の機械学習フレームワーク TensorFlow に向けて最適化されている、... 続きを読む
ニュース - GoogleがAIチップ「TPU」の性能を報告、従来GPU/CPUより最大30倍速い:ITpro
米Googleは現地時間2017年4月5日、機械学習アルゴリズムの演算に特化した独自開発のプロセッサ「Tensor Processing Unit(TPU)」の性能に関する調査報告を 公開 した。従来のGPUやCPUより15倍~30倍速く人工知能(AI)アプリケーションを処理できるという。 TPUは2015年よりGoogleのデータセンターに実装され、Google検索エンジンや「Google Im... 続きを読む
Google、AIチップ「TPU」はGPUより30倍速い - ITmedia NEWS
米Googleは4月5日(現地時間)、 AlphaGo や様々なサービスで利用しているオリジナルプロセッサ「TPU(Tensor Processing Unit)」についての 論文 (リンク先はPDF)を発表し、その性能について説明した。 Googleは現在はTPUを、主に人工知能の推論(学習済みモデルを使う)フェーズで使っているという。そのAIワークロードでは、TPUはGPUやCPUよりも15~... 続きを読む
グーグル、独自のAI用チップ「TPU」は「CPUやGPUの15~30倍高速」 - CNET Japan
世界は、Googleをチップメーカーとして認める準備ができているだろうか。 Googleは米国時間4月5日、社内開発したチップの性能を公表した。今日提供されている従来のCPUやGPUの 15~30倍高速に人工知能(AI)アプリを処理する という。 Googleによると、「TPU」(Tensor Processing Unit)と呼ばれる同社のチップはエネルギー効率も高いという。つまり、所定のタスク... 続きを読む
Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ | TechCrunch Japan
GoogleのデベロッパーカンファレンスI/Oにおける 発表 によると、同社は機械学習のアルゴリズムの高速化に特化した独自のチップの構築を最近開始した。 その特製のチップはTensor Processing Units(TPU)と呼ばれ、同社のテクニカルインフラストラクチャ担当SVP Urs Holzleによれば、すでに同社のデータセンターで1年あまり使われている。またGoogleによれば、それは... 続きを読む