はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ GPUメモリ

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 8 / 8件)
 

「PS5 Pro」海外レビューまとめ、確かにグラフィックは進化も税込12万円というあまりに高すぎる価格にツッコミ殺到

2024/11/07 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip ツッコミ殺到 グラフィック 進化 ゲームプレイ GPU

2024年11月7日、「PlayStation 5 Pro(PS5 Pro)」が発売されました。PS5 ProはPS5と比べてGPUのコンピュートユニット数が67%増加、GPUメモリが28%高速化しており、これによりゲームレンダリング速度が45%向上しています。最大8Kでのゲームプレイも可能というPS5 Proのパフォーマンスを検証したレビュー記事を海外メデ... 続きを読む

簡単にGPUメモリの内容を盗めてしまう「LeftoverLocals」脆弱性、セキュリティ研究者が警鐘/Apple、AMD、Qualcomm、Imaginationなどに影響、各社対策を表明

2024/01/17 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip Imagination Qualcomm AMD 表明 脆弱性

続きを読む

GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

2023/06/03 このエントリーをはてなブックマークに追加 104 users Instapaper Pocket Tweet Facebook Share Evernote Clip パラメーター GPT-2 gpt-3 メモリ 性能

GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく... 続きを読む

LoRA のもう一つの大きなメリット、GPUメモリ共有しつつ別のタスク処理モデルへ即時に切り替える方法 - A Day in the Life

2023/05/31 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip CyberAgent Transformers LoRa

低ランク行列を追加することで、大元のモデルを維持しつつ少ないコストで学習できる LoRA(Low-Rank Adaptation of Large Language Models)。先日、日本語でも大規模パラメータモデル cyberagent/open-calm-7b や rinna/japanese-gpt-neox-3.6b 等々がリリースされたり、HuggingFaceからはtransformersでLoRAを簡単に実現... 続きを読む

ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

2023/02/23 このエントリーをはてなブックマークに追加 481 users Instapaper Pocket Tweet Facebook Share Evernote Clip chatgpt Bard OpenAI 再現 トレーニング

OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開してい... 続きを読む

【後藤弘茂のWeekly海外ニュース】容量32GB・1.36TB/secのGPUメモリを実現する第2世代HBM2 - PC Watch

2018/03/05 このエントリーをはてなブックマークに追加 25 users Instapaper Pocket Tweet Facebook Share Evernote Clip SEC 後藤弘茂 Weekly海外ニュース PC Watch

転送レートをさらに引き上げる新バージョンのHBM2  近い将来のハイエンドコンピューティングGPUやメニイコアプロセッサのメモリは、ピーク帯域が1TB/sec超に達し、容量は32GBがあたり前となり、帯域あたりの消費電力はさらに下がる。スタックドDRAM「HBM(High Bandwidth Memory)」の進化によって、ハイエンドのコンピューティングデバイスのメモリは、さらに一段進歩する。  ... 続きを読む

gstore_fdw: GPUメモリをSQLで読み書き、そして…。 - KaiGaiの俺メモ

2017/11/12 このエントリーをはてなブックマークに追加 45 users Instapaper Pocket Tweet Facebook Share Evernote Clip KaiGai CUDA ワークロード asia SQL

2017 - 11 - 12 gstore_fdw: GPUメモリをSQLで読み書き、そして…。 GPU PostgreSQL 昨年、PGconf. ASIA で発表したPL/CUDAによる 創薬 ワークロードの高速化実験のテーマであるが、 kaigai.hatenablog.com 実測した ベンチマーク を見ると、奇妙な傾向が見てとれる。 このワークロードにおける計算量は「Qの行数×Dの行数」... 続きを読む

【後藤弘茂のWeekly海外ニュース】来年ラッシュとなる新メモリ「HBM2」の採用 - PC Watch

2015/08/05 このエントリーをはてなブックマークに追加 41 users Instapaper Pocket Tweet Facebook Share Evernote Clip 後藤弘茂 HBM2 Weekly海外ニュース 新メモリ 採用

後藤弘茂のWeekly海外ニュース 来年ラッシュとなる新メモリ「HBM2」の採用 (2015/8/6 06:00) GPUメモリは来年(2016年)のHBM2で1TB/secに GPUのメモリ帯域が急ピッチに上がりつつある。昨年(2014年)のハイエンドGPUは300GB/secの帯域だったのが、今年(2015年)は「Radeon R9 FURY(Fiji)」でメモリ帯域は512GB/secに上が... 続きを読む

 
(1 - 8 / 8件)