タグ GPUメモリ
人気順 5 users 50 users 100 users 500 users 1000 users「PS5 Pro」海外レビューまとめ、確かにグラフィックは進化も税込12万円というあまりに高すぎる価格にツッコミ殺到
2024年11月7日、「PlayStation 5 Pro(PS5 Pro)」が発売されました。PS5 ProはPS5と比べてGPUのコンピュートユニット数が67%増加、GPUメモリが28%高速化しており、これによりゲームレンダリング速度が45%向上しています。最大8Kでのゲームプレイも可能というPS5 Proのパフォーマンスを検証したレビュー記事を海外メデ... 続きを読む
簡単にGPUメモリの内容を盗めてしまう「LeftoverLocals」脆弱性、セキュリティ研究者が警鐘/Apple、AMD、Qualcomm、Imaginationなどに影響、各社対策を表明
GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく... 続きを読む
LoRA のもう一つの大きなメリット、GPUメモリ共有しつつ別のタスク処理モデルへ即時に切り替える方法 - A Day in the Life
低ランク行列を追加することで、大元のモデルを維持しつつ少ないコストで学習できる LoRA(Low-Rank Adaptation of Large Language Models)。先日、日本語でも大規模パラメータモデル cyberagent/open-calm-7b や rinna/japanese-gpt-neox-3.6b 等々がリリースされたり、HuggingFaceからはtransformersでLoRAを簡単に実現... 続きを読む
ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開してい... 続きを読む
【後藤弘茂のWeekly海外ニュース】容量32GB・1.36TB/secのGPUメモリを実現する第2世代HBM2 - PC Watch
転送レートをさらに引き上げる新バージョンのHBM2 近い将来のハイエンドコンピューティングGPUやメニイコアプロセッサのメモリは、ピーク帯域が1TB/sec超に達し、容量は32GBがあたり前となり、帯域あたりの消費電力はさらに下がる。スタックドDRAM「HBM(High Bandwidth Memory)」の進化によって、ハイエンドのコンピューティングデバイスのメモリは、さらに一段進歩する。 ... 続きを読む
gstore_fdw: GPUメモリをSQLで読み書き、そして…。 - KaiGaiの俺メモ
2017 - 11 - 12 gstore_fdw: GPUメモリをSQLで読み書き、そして…。 GPU PostgreSQL 昨年、PGconf. ASIA で発表したPL/CUDAによる 創薬 ワークロードの高速化実験のテーマであるが、 kaigai.hatenablog.com 実測した ベンチマーク を見ると、奇妙な傾向が見てとれる。 このワークロードにおける計算量は「Qの行数×Dの行数」... 続きを読む
【後藤弘茂のWeekly海外ニュース】来年ラッシュとなる新メモリ「HBM2」の採用 - PC Watch
後藤弘茂のWeekly海外ニュース 来年ラッシュとなる新メモリ「HBM2」の採用 (2015/8/6 06:00) GPUメモリは来年(2016年)のHBM2で1TB/secに GPUのメモリ帯域が急ピッチに上がりつつある。昨年(2014年)のハイエンドGPUは300GB/secの帯域だったのが、今年(2015年)は「Radeon R9 FURY(Fiji)」でメモリ帯域は512GB/secに上が... 続きを読む