はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ パラメータ数

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 10 / 10件)
 

日本語LLMまとめ

2024/12/01 このエントリーをはてなブックマークに追加 196 users Instapaper Pocket Tweet Facebook Share Evernote Clip Français English 省略 推移 日本語LLM

日本語LLMまとめ ​[ English | Français | 日本語 ] 日本語LLM・海外LLMのパラメータ数の推移。日本語モデルの情報は本記事、海外モデルの情報は LifeArchitect.ai の Models table を参照しています(ただし、図のスペース上一部のモデルは省略。また、海外モデルのパラメータ数は推測値を含む)。修正・追加等ありまし... 続きを読む

オープンソースのコーディング支援AI「Qwen2.5-Coder」シリーズの性能はGPT-4oに匹敵、64GBのRAM&M2搭載MacBook Proでもローカル実行可能

2024/11/14 このエントリーをはてなブックマークに追加 15 users Instapaper Pocket Tweet Facebook Share Evernote Clip 匹敵 GPT-4o コーディング支援AI ローカル実行 性能

中国・Alibabaグループが開発する大規模言語モデル(LLM)「Qwen」の研究チームが、コード生成や補完、数学の推論タスクに特化したLLM「Qwen2.5-Coder」の新モデルを2024年11月12日にリリースしました。Qwen2.5-Coderのコーディング機能はGPT-4oに匹敵し、パラメータ数も最大320億で、M2搭載MacBook Pro上でも実行できたこ... 続きを読む

“学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版

2024/09/17 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip LLM フルスクラッチ NII プレビュー版 AIモデル

国立情報学研究所(NII)は9月17日、パラメータ数約1720億の大規模言語モデル(LLM)のプレビュー版「LLM-jp-3 172B beta1」を公開した。NIIが開発するLLMは、データをフルスクラッチで学習しており、AIモデルの他に学習データもオープンになっているのが特徴。プレビュー版モデルは、学習データの約3分の1までを学習し... 続きを読む

Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開

2024/04/25 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip iPhone OpenELM ELM Apple パラメータ

米Appleの研究者らは4月24日(現地時間)、オープンソースの言語モデル「OpenELM」(ELMはEfficient Language Model、効率的な言語モデルの略)をHugging Faceで公開した。 パラメータ数の異なる4つのモデルがある。小さいものから、2億7000万、4億5000万、11億、30億(パラメータとは、意思決定でモデルがトレーニング... 続きを読む

東大発のスタートアップ企業 “国内最大規模 国産生成AI完成” | NHK

2024/03/12 このエントリーをはてなブックマークに追加 20 users Instapaper Pocket Tweet Facebook Share Evernote Clip 東大発 NHK 生成AI 基盤 各社

東京大学発のスタートアップ企業が国内最大規模の国産の生成AIを開発し、完成したと発表しました。アメリカの企業が先行するなか、日本語に特化する戦略で対抗するねらいです。 この生成AIは、基盤となる大規模言語モデルの学習量を示す「パラメータ数」が700億で、これまで各社が手がけた国産の生成AIとしては最大規模... 続きを読む

NEC、独自の日本語大規模言語モデルを開発 パラメータ数130億、クラウドで運用可能 性能も世界トップクラス

2023/07/06 このエントリーをはてなブックマークに追加 17 users Instapaper Pocket Tweet Facebook Share Evernote Clip NEC クラウド 性能 運用 日本語大規模言語モデル

NECは、独自の日本語大規模言語モデル(LLM)を開発したと発表した。パラメータ数は130億で、クラウド/オンプレミス環境での運用も可能。性能面でも、世界トップクラスの日本語能力を実現しているという。 続きを読む

NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発

2023/07/06 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip NEC Generative AI 生成AI 工夫 収集

NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは... 続きを読む

AWS Systems Manager パラメータストアは自動パラメータ階層の選択を可能にする intelligent-tiering を発表

2019/08/29 このエントリーをはてなブックマークに追加 19 users Instapaper Pocket Tweet Facebook Share Evernote Clip パラメータストア AWS Systems Manager

本日、AWS Systems Manager パラメータストアは、自動パラメータ階層の選択を可能にする intelligent-tiering を発表しました。パラメータ数、値サイズ、パラメータポリシーのパターンが不明または変更がある場合、パラメータストアにスタンダードまたはアドバンスド階層の選択を許可するために intelligent-tiering 設... 続きを読む

ソニー、ディープラーニングの学習速度で“世界最高速” 学習時間を短縮へ - ITmedia NEWS

2018/11/13 このエントリーをはてなブックマークに追加 55 users Instapaper Pocket Tweet Facebook Share Evernote Clip ディープラーニング ソニー 短縮 学習速度 世界最高速

ソニーは、ディープラーニングの学習速度で世界最高速を達成したと発表。学習時間を短縮できる可能性を示したとしている。 ソニーは11月13日、ディープラーニングの学習速度で世界最高速(同社調べ)を達成したと発表した。ディープラーニングの認識精度向上のため、学習データのサイズやモデルのパラメータ数が増え、一... 続きを読む

KDD読み会2014 発表資料

2014/09/23 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip 発表資料 SGD 背景 傾向 ビッグデータ

KDD読み会2014 発表資料 Presentation Transcript Efficient Mini-batch Training for Stochastic Optimization @ KDD2014読み会 関西会場 京大石井研 M2 小山田創哲 @sotetsuk SGDと最近の傾向 ビッグデータと計算機性能の向上を背景に 膨大なパラメータ数の識別器を,大量のデータで SGD(St... 続きを読む

 
(1 - 10 / 10件)