はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 130億パラメータ

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 8 / 8件)
 

130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)|ELYZA, Inc.

2023/12/27 このエントリーをはてなブックマークに追加 26 users Instapaper Pocket Tweet Facebook Share Evernote Clip ELYZA Inc 日本語LLM ベース ベースモデル

130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可) 本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学... 続きを読む

第6回 LLM 勉強会

2023/11/30 このエントリーをはてなブックマークに追加 9 users Instapaper Pocket Tweet Facebook Share Evernote Clip LLM 勉強会 第6回 LLM LLM-jp 理研AIP

2023年11月29日(水)に国立情報学研究所にて第6回 LLM 勉強会を開催しました。 プログラム LLM-jp 状況報告(黒橋) [資料] LLMの安全対策サーベイと日本語データ(理研AIP 鈴木久美) [資料] ビジネスのドメインや最新情報に対応した130億パラメータの日本語事前学習モデルの開発(ストックマーク 近江) [資料] 医療... 続きを読む

ビジネスのドメインや最新情報に対応した130億パラメータの日本語LLMの公開

2023/10/26 このエントリーをはてなブックマークに追加 8 users Instapaper Pocket Tweet Facebook Share Evernote Clip 日本語LLM ドメイン ビジネス LLM 公開

Research部門の近江崇宏です。 ストックマークではビジネスのドメインや最新情報(2023年9月まで)に対応した130億パラメータの大規模言語モデル(LLM)を商用利用も可能なライセンスで公開しました。 モデルはHuggingface Hubからダウンロードいただけます。 https://huggingface.co/stockmark/stockmark-13b このモデ... 続きを読む

NII、130億パラメータのLLM構築 コーパスなども全公開 「今後の研究に資するため」

2023/10/20 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip コーパス NII LLM アカデミア 研究

国立情報学研究所(NII)は10月20日、パラメータ数130億の大規模言語モデル(LLM)「LLM-jp-13B」を公開した。初期段階のモデルだが、アカデミアや産業界の研究開発に資するため、コーパスやツールなどを含めてすべてオープンにする。 公開したLLMの学習データ量は合計約3000億トークン。うち日本語は約1450億トークン(... 続きを読む

NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発

2023/07/06 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip NEC Generative AI 生成AI パラメータ数

NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは... 続きを読む

“和製GPT”競争勃発か サイバーエージェント、独自の日本語LLM発表 「活用を始めている」

2023/05/11 このエントリーをはてなブックマークに追加 21 users Instapaper Pocket Tweet Facebook Share Evernote Clip サイバーエージェント LLM 活用 日本語LLM 既存

サイバーエージェント(東京都渋谷区)は5月11日、独自の日本語LLM(Large Language Model、大規模言語モデル)を発表した。すでに130億パラメータまで開発が完了し、広告の制作などに活用を始めているという。 サイバーエージェントは「既存のLLMのほとんどは英語を中心に学習されており、現状では日本語および日本文化... 続きを読む

サイバーエージェント、独自の日本語LLM(大規模言語モデル)を開発 ―自然な日本語の文章生成を実現―

2023/05/11 このエントリーをはてなブックマークに追加 199 users Instapaper Pocket Tweet Facebook Share Evernote Clip 藤田晋 極予測TD 本社 サイバーエージェント 証券コード

株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、独自の日本語LLM(Large Language Model、大規模言語モデル)を開発したことをお知らせいたします。 本モデルはすでに130億パラメータまでの開発が完了しており、当社が提供する「極予測AI」「極予測TD」... 続きを読む

GoogleはAI開発競争における防壁を持っていません!OpenAIもです!

2023/05/08 このエントリーをはてなブックマークに追加 12 users Instapaper Pocket Tweet Facebook Share Evernote Clip 防壁 OpenAI 巨費 イラ 趣旨

1.GoogleはAI開発競争における防壁を持っていません!OpenAIもです!まとめ ・Google社内から流出したとされる文章がGoogleはOpen Sourceの取り組みからもっと学ぶべきという趣旨を主張していた ・Googleが巨費をかけた大規模モデルで苦戦していることを100ドルと130億パラメータと数週間で実現しているとの事 ・イラ... 続きを読む

 
(1 - 8 / 8件)