タグ TPU
新着順 10 users 50 users 100 users 500 users 1000 users「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-... 続きを読む
小説の書き出し以降をAIが自動生成してくれる「AIのべりすと」を使ってみた
Googleが開発する機械学習に特化した集積回路「TPU」を用いてオープンな研究のブレイクスルーを図るTPU Research Cloudを利用し、日本語最大級の68.7億パラメータ&約500GBのコーパスからフルスクラッチで訓練した小説生成人工知能(AI)が「AIのべりすと」です。「AIのべりすと」は小説の書き出し部分を5~6行入力するだ... 続きを読む
GoogleがAIを用いてAI専用プロセッサの開発を爆速化したことを発表 - GIGAZINE
Googleは、機械学習に特化した専用プロセッサ「Tensor processing unit(TPU)」の開発を行っており、2021年5月には4世代目となる「TPU v4」を発表しました。新たにGoogleの研究チームは、TPUの開発にAIを用いることで開発速度を飛躍的に向上させたことを明らかにしています。 A graph placement methodology for fast chi... 続きを読む
Google ColaboratoryのTPUランタイムを使ってKeras Tunerでパラメタ探索 | GMOアドパートナーズグループ TECH BLOG byGMO
この記事は GMOアドマーケティングAdvent Calendar 2020 23日目の記事です。 みなさんこんにちは、GMOアドマーケティングのM.H.と申します。 突然ですがみなさんは機械学習する時にどのような環境で実行していますか?Google Colaboratoryでは、制限はありますが無料でTPUを使用し、高いパフォーマンスで学習を進める... 続きを読む
対決!RTX 2080Ti SLI vs Google Colab TPU ~Keras編~ - Qiita
RTX 2080Tiを2枚買ったので、どれぐらいの性能が出るかColabのTPUと対決させてみました。さすがにRTX 2080Tiを2枚ならTPU相手に勝てると思っていましたが、意外な結果になりました。 スペック GPU側 GPU : RTX 2080Ti 11GB Manli製×2 SLI構成 CPU : Core i9-9900K メモリ : DDR4-2666 64GB CUDA : 10.0 cuDNN : 7.5.1 Te... 続きを読む
GoogleのCloud TPU Podsの最新世代はMLモデルの訓練を短時間化 | TechCrunch Japan
Googleは米国時間5月7日、Cloud TPU Podsの第2世代と第3世代を発表した。このクラウドベースのスケーラブルなスーパーコンピューターは、最大1000基の同社特製のプロセッサ、Tensor Processing Units(TPU)を使用する。それを本日からは公開ベータで一般に利用できる。 最新世代のv3は特に強力で、プロセッサーは水冷さ... 続きを読む
Googleのエッジデバイス向けTPU「Google Edge TPU」がついに発売か、気になる価格は? - GIGAZINE
Googleが長らく開発を続けてきた、TensorFlowを用いた機械学習を効率良く行うためのカスタムASICが「テンソル・プロセッシング・ユニット(TPU)」です。このTPUをIoTなどのエッジデバイス向けに特化した「Google Edge TPU」が、ついに発売となるようです。 Edge TPU Devices https://aiyprojects.withgoogle.com/edge-tpu... 続きを読む
Googleの機械学習マシン「Cloud TPU Pod」の新型はNVIDIA Tesla V100の200倍高速に - GIGAZINE
Googleが開発する機械学習向けプロセッサ「TPU」をGoogleデータセンターネットワークと接続したマシン「TPU Pod」の新バージョンが、クラウドで提供開始されました。TPU Podでの機械学習における時間と費用というコストが劇的に下がるとGoogleはアピールしています。 Now you can train TensorFlow machine learning mod... 続きを読む
Google ColaboratoryのTPUを試してみる
TL;DR ColabのTPUを使って今すぐCNNを試してみよう。ものすごい速いぞ。 はじめに 9/26夜、Google Colaboratoryユーザーに激震が走った。 ハードウェアアクセラレータにTPUが使えるようになってる!?TPU(Tensor Processing Unit)凄さはこのニュースを見れば恐ろしいほど伝わってくる。 COOL Chips 21 - GoogleのWebサー... 続きを読む
大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS
はじめに TensorFlow2.0がもうすぐ来るよ! APIs High level APIs Eager Exexution Reference Models Contribの扱い プラットフォーム TensorFlow Lite TensorFlow.js TensorFlow with Swift パフォーマンス Distributed TensorFlow CPU、GPU、TPUの最適化関連 その他のパッケージ TensorFlow Probability Tensor2Tensor... 続きを読む
グーグルが半導体メーカーに、エッジ向け深層学習チップ「Edge TPU」を外販 | 日経 xTECH(クロステック)
登録会員限定記事 現在はどなたでも閲覧可能です 米グーグルは2018年7月25日(米国時間)、エッジデバイス向けのディープラーニング(深層学習)専用チップ「Edge TPU」を発表した。IoT(インターネット・オブ・シングズ)のエッジで機械学習の推論を実行できる。グーグルが半導体チップの外販を始めた。 「TPU(Tensor... 続きを読む
グーグル、エッジデバイス向けASIC「Edge TPU」を発表--10月に提供へ - CNET Japan
Googleは米国時間7月25日、エッジデバイス向けASICチップ「Edge TPU」を発表した。10月から開発者に提供する。 Googleの「TPU」(Tensor Processing Unit)は、音声コマンドの理解や写真に映ったオブジェクトの認識といった人工知能(AI)タスクを高速化するプロセッサ。Googleは現在、同社のクラウドコンピューティング... 続きを読む
1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意 (1/2) - ITmedia エンタープライズ
画像認識や音声認識にすぐ使える「リファレンスモデル」も公開:1時間6.5ドルでAIを開発できる時代へ――TPUをクラウドで提供したGoogleの真意 (1/2) Googleは2018年2月から、同社の機械学習用ライブラリ「TensorFlow」の処理を高速化するプロセッサ「TPU」のクラウド版「Cloud TPU(ベータ版)」の公開に踏み切った。「TP... 続きを読む
グーグルの深層学習プロセッサ「TPU」が「AIを、全ての人に」を実現する (1/3) - MONOist(モノイスト)
グーグル(Google)は2018年7月6日、東京都内でメディアセミナーを開き、同社がディープラーニング(深層学習)向けに開発してきたプロセッサ「TPU(Tensor Processing Unit)」について説明した。 セミナーに登壇したのは、グーグルの日本法人で Google Cloud、データ分析チーム デベロッパーアドボケイトを務める佐藤... 続きを読む
GoogleのTPUって結局どんなもの? 日本法人が分かりやすく説明:CPU、GPUとの違いとは? - @IT
機械学習に特化したGoogleの自社開発プロセッサ、「TPU(Tensor Processing Unit)」。ディープラーニングを高速化するため、Googleが開発したプロセッサ。Google自身は「Google Search」「Google Translate」「Google Photos」といったサービスで活用している。日本法人がこれについて分かりやすく説明した。 機械学習... 続きを読む
機械学習を高速処理するGoogleの「Cloud TPU」サービス、7割引きの利用料で使えるプリエンプティブに対応 - Publickey
機械学習を高速処理するGoogleの「Cloud TPU」サービス、7割引きの利用料で使えるプリエンプティブに対応 Googleは同社が開発した機械学習処理のためのソフトウェア「TensorFlow」を高速に実行するための専用プロセッサ「Tensorflow Purocessing Unit」(TPU)を自社開発し、クラウドサービスとして提供しています。それ... 続きを読む
Googleが機械学習専用の第3世代プロセッサ「TPU3.0」を発表、冷却が追いつかず液冷システムまで導入する事態に - GIGAZINE
Googleの開発者向けイベント「 Google I/O 2018 」で、機械学習に特化した専用プロセッサ「Tensor Processing Unit(TPU)」の第3世代モデル「 TPU3.0 」をGoogleのCEOサンダー・ピチャイ氏が発表しました。TPU3.0は第2世代モデルと比較して約8倍の高速化を実現しましたが、性能が上がりすぎたことで、プロセッサの発熱を抑えられなくなり、初めて液冷... 続きを読む
Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018 - Publickey
Googleは、サンフランシスコで開催中のイベント「Google I/O 2018」で、機械学習処理専用のプロセッサ「Tensor Processing Unit」(TPU)の第三世代となる「TPU 3.0」を発表しました。 機械学習には、学習を行うトレーニングの処理と、学習した内容を基に行う推論の処理の2つがあります。特にトレーニングの処理は非常に大きなコンピュータの処理能力を必要とします。 T... 続きを読む
Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速 | TechCrunch Japan
GoogleのTPU( Tensor Processing Units )は、 TensorFlow フレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、 クラウド で 利用できるようになった 。 Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTP... 続きを読む
Googleの機械学習マシン「第2世代TPU」の構造を公開された写真から推測する - GIGAZINE
Googleが先日開催されたGoogle I/O 2017で、機械学習用に最適化された第2世代の「TensorFlow Processing Unit(TPU)」を発表しました。しかし、Googleは第2世代TPU(TPU2)の詳細なスペックを明らかにしていないため、TPU2の構造はよく分かりません。そこで、クラウドコンピューティングやデータ分析を行うTIRIAS Researchのチーフアナリス... 続きを読む
Googleの機械学習マシン「TPU」の第2世代登場、1ボード180TFLOPSで64台グリッドではスパコン「京」を超える - GIGAZINE
Googleが現地時間2017年5月17日から開催中の開発者会議「 Google I/O 2017 」で、機械学習・人工知能(AI)開発に特化した専用マシン「 TensorFlow Processing Unit(TPU) 」の第2世代モデルを公開しました。第2世代TPUでは従来の「推論」だけでなく「トレーニング」まで処理でき、64台組み合わせるとスパコン「京」を上回る演算能力を誇ります。 Bui... 続きを読む
[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017 - Publickey
[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017 Googleは5月17日(日本時間5月18日未明)から開催中の年次イベント「Google I/O 2017」にて、機械学習に最適化した第二世代のTensorFlow Processing Unit(TPU)とそれを用いたク... 続きを読む
Google Cloud Platform Japan 公式ブログ: Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム
Google Cloud Platform Japan 公式ブログ: Google の Tensor Processing Unit (TPU) で機械学習が 30 倍速くなるメカニズム
Googleの機械学習専用カスタムチップはGPU/CPUマシンの15〜30倍速い…同社ベンチマークを発表 | TechCrunch Japan
【抄訳】 Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、 前から知られていた 。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、同社自身の機械学習フレームワーク TensorFlow に向けて最適化されている、... 続きを読む