タグ 130億パラメータ
人気順 5 users 50 users 100 users 500 users 1000 usersMeta、コード最適化のためのAIモデル「LLM Compiler」を商用ライセンスで公開
米Metaは6月27日(現地時間)、コード最適化のためのLLMモデル「Meta Large Language Model Compiler」(以下「LLM Compiler」)を発表した。特別な商用ライセンスの下でリリースしており、Hugging Faceでダウンロードできる。70億パラメータと130億パラメータの2サイズ構成だ。 LLM Compilerは、研究者や開発者がコード... 続きを読む
スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される
スーパーコンピューター「富岳」を用いて学習した130億パラメータの大規模言語モデル「Fugaku-LLM」が2024年5月10日(金)に公開されました。Fugaku-LLMは既存の大規模言語モデルに頼らず独自の学習データを用いて学習しており、既存の日本語特化大規模言語モデルと比べて高い性能を発揮することがアピールされています。 ... 続きを読む
130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可)|ELYZA, Inc.
130億パラメータの「Llama 2」をベースとした日本語LLM「ELYZA-japanese-Llama-2-13b」を公開しました(商用利用可) 本記事のサマリーELYZA は「Llama 2 13B」をベースとした商用利用可能な日本語LLMである「ELYZA-japanese-Llama-2-13b」シリーズを一般公開しました。前回公開の 7B シリーズからベースモデルおよび学... 続きを読む
NII、130億パラメータのLLM構築 コーパスなども全公開 「今後の研究に資するため」
国立情報学研究所(NII)は10月20日、パラメータ数130億の大規模言語モデル(LLM)「LLM-jp-13B」を公開した。初期段階のモデルだが、アカデミアや産業界の研究開発に資するため、コーパスやツールなどを含めてすべてオープンにする。 公開したLLMの学習データ量は合計約3000億トークン。うち日本語は約1450億トークン(... 続きを読む
NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは... 続きを読む
“和製GPT”競争勃発か サイバーエージェント、独自の日本語LLM発表 「活用を始めている」
サイバーエージェント(東京都渋谷区)は5月11日、独自の日本語LLM(Large Language Model、大規模言語モデル)を発表した。すでに130億パラメータまで開発が完了し、広告の制作などに活用を始めているという。 サイバーエージェントは「既存のLLMのほとんどは英語を中心に学習されており、現状では日本語および日本文化... 続きを読む
サイバーエージェント、独自の日本語LLM(大規模言語モデル)を開発 ―自然な日本語の文章生成を実現―
株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、独自の日本語LLM(Large Language Model、大規模言語モデル)を開発したことをお知らせいたします。 本モデルはすでに130億パラメータまでの開発が完了しており、当社が提供する「極予測AI」「極予測TD」... 続きを読む
GoogleはAI開発競争における防壁を持っていません!OpenAIもです!
1.GoogleはAI開発競争における防壁を持っていません!OpenAIもです!まとめ ・Google社内から流出したとされる文章がGoogleはOpen Sourceの取り組みからもっと学ぶべきという趣旨を主張していた ・Googleが巨費をかけた大規模モデルで苦戦していることを100ドルと130億パラメータと数週間で実現しているとの事 ・イラ... 続きを読む