タグ 70億パラメータ
人気順 5 users 50 users 100 users 500 users 1000 usersMeta、コード最適化のためのAIモデル「LLM Compiler」を商用ライセンスで公開
米Metaは6月27日(現地時間)、コード最適化のためのLLMモデル「Meta Large Language Model Compiler」(以下「LLM Compiler」)を発表した。特別な商用ライセンスの下でリリースしており、Hugging Faceでダウンロードできる。70億パラメータと130億パラメータの2サイズ構成だ。 LLM Compilerは、研究者や開発者がコード... 続きを読む
独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供―
株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、70億パラメータ・32,000トークン対応の日本語LLM(Large Language Model、大規模言語モデル)を公開したことをお知らせいたします。 当社はかねてより日本語LLMの開発に取り組んでおり、2023年5月には国... 続きを読む
日本語言語モデル「Japanese StableLM Alpha」をリリースしました — Stability AI Japan
Stability AI Japan は70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を一般公開しました。このモデルはベンチマークスイート「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開さ... 続きを読む
チャットAI「StableLM」発表 オープンソースモデルで商用可 「Stable Diffusion」開発元から
英Stability AIが、オープンソースの大規模言語モデル「StableLM」を発表した。α版として30億と70億パラメータの2モデルを公開。今後150億パラメータから650億パラメータのモデルも公開予定としている。商用や研究目的で自由に利用できる。 英Stability AIは4月19日(英国時間)、オープンソースの大規模言語モデル「Sta... 続きを読む
Stable Diffusion開発元、独自の大規模言語モデル「StableLM」をGitHubで公開。商用利用も可能 | テクノエッジ TechnoEdge
Stable Diffusionの開発で知られるAI企業Stability AIは、オープンソースの大規模言語モデル(LLM)「StableLM」を発表しました。 現在公開中のアルファ版では30億パラメータと70億パラメータのモデルを提供。GitHubリポジトリで公開しています。150億パラメータから650億パラメータのモデルも提供する予定です。ライセ... 続きを読む
Stability AI 言語モデル「StableLM Suite」の第一弾をリリース - (英語Stability AI
"A Stochastic Parrot, flat design, vector art" -。 Stable Diffusion XL. 本日4月19日にStability AIは、新しいオープンソースの言語モデル StableLMをリリースしました。アルファ版は30億パラメータと70億パラメータのモデルが用意されており、今後150億パラメータから650億パラメータのモデルも用意される予定です... 続きを読む
無料でノートPCでも実行可能な70億パラメータのチャットボット「GPT4ALL」発表
GPT-3.5-TurboとMetaの大規模言語モデル「LLaMA」で学習したデータを用いた、ノートPCでも実行可能なチャットボット「GPT4ALL」をNomic AIが発表しました。さまざまなトピックの学習に用いられた質問と返答のペアのトレーニングデータセットもすべて公開されています。 GitHub - nomic-ai/gpt4all: gpt4all: a chatbot t... 続きを読む