はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 70億パラメータ

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 10 / 10件)
 

Meta、コード最適化のためのAIモデル「LLM Compiler」を商用ライセンスで公開

2024/06/28 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip LLMモデル 米Meta Meta Hugging Face

米Metaは6月27日(現地時間)、コード最適化のためのLLMモデル「Meta Large Language Model Compiler」(以下「LLM Compiler」)を発表した。特別な商用ライセンスの下でリリースしており、Hugging Faceでダウンロードできる。70億パラメータと130億パラメータの2サイズ構成だ。 LLM Compilerは、研究者や開発者がコード... 続きを読む

楽天グループが大規模言語モデルを公開 Mistralベースの70億パラメータ 商用利用も可能

2024/03/21 このエントリーをはてなブックマークに追加 8 users Instapaper Pocket Tweet Facebook Share Evernote Clip 言語モデル 商用利用 楽天グループ LLM インストラクション

楽天グループは3月21日、日本語に特化した大規模言語モデル(LLM)「Rakuten AI 7B」などを公開した。フランスのAIスタートアップ・Mistral AIのLLM「Mistral-7B-v0.1」をベースに開発した70億パラメータのLLM。ライセンスは「Apache 2.0」で、Hugging Faceからダウンロードできる。商用利用も可能。 インストラクション... 続きを読む

ELYZA、コード生成と補完に特化した70億パラメータの日本語LLMを公開

2023/11/15 このエントリーをはてなブックマークに追加 6 users Instapaper Pocket Tweet Facebook Share Evernote Clip ELYZA 補完 日本語LLM コード生成 公開

続きを読む

独自の日本語LLM(大規模言語モデル)のバージョン2を一般公開 ―32,000トークン対応の商用利用可能なチャットモデルを提供―

2023/11/02 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip 日本語LLM 藤田晋 本社 証券コード チャットモデル

株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、70億パラメータ・32,000トークン対応の日本語LLM(Large Language Model、大規模言語モデル)を公開したことをお知らせいたします。 当社はかねてより日本語LLMの開発に取り組んでおり、2023年5月には国... 続きを読む

Google Colab で Japanese StableLM Alpha を試す|npaka

2023/08/10 このエントリーをはてなブックマークに追加 5 users Instapaper Pocket Tweet Facebook Share Evernote Clip npaka 日本語LLM Google Colab 動作 複数

「Google Colab」で「Japanese StableLM Alpha」を試したので、まとめました。 【注意】Google Colab Pro/Pro+ のA100で動作確認しています。 1. Japanese StableLM Alpha「Japanese StableLM Alpha」は、「Stability AI Japan」は70億パラメータの日本語LLMです。ベンチマーク「lm-evaluation-harness」による複数の日... 続きを読む

日本語言語モデル「Japanese StableLM Alpha」をリリースしました — Stability AI Japan

2023/08/10 このエントリーをはてなブックマークに追加 397 users Instapaper Pocket Tweet Facebook Share Evernote Clip Japanese StableLM Alpha 性能評価

Stability AI Japan は70億パラメータの日本語向け汎用言語モデル「Japanese StableLM Base Alpha 7B」及び、指示応答言語モデル「Japanese StableLM Instruct Alpha 7B」を一般公開しました。このモデルはベンチマークスイート「lm-evaluation-harness」による複数の日本語タスクを用いた性能評価において、一般公開さ... 続きを読む

チャットAI「StableLM」発表 オープンソースモデルで商用可 「Stable Diffusion」開発元から

2023/04/19 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip Sta StableLM 英Stability 商用 商用可

英Stability AIが、オープンソースの大規模言語モデル「StableLM」を発表した。α版として30億と70億パラメータの2モデルを公開。今後150億パラメータから650億パラメータのモデルも公開予定としている。商用や研究目的で自由に利用できる。 英Stability AIは4月19日(英国時間)、オープンソースの大規模言語モデル「Sta... 続きを読む

Stable Diffusion開発元、独自の大規模言語モデル「StableLM」をGitHubで公開。商用利用も可能 | テクノエッジ TechnoEdge

2023/04/19 このエントリーをはてなブックマークに追加 69 users Instapaper Pocket Tweet Facebook Share Evernote Clip GitHub TechnoEdge StableLM LLM

Stable Diffusionの開発で知られるAI企業Stability AIは、オープンソースの大規模言語モデル(LLM)「StableLM」を発表しました。 現在公開中のアルファ版では30億パラメータと70億パラメータのモデルを提供。GitHubリポジトリで公開しています。150億パラメータから650億パラメータのモデルも提供する予定です。ライセ... 続きを読む

Stability AI 言語モデル「StableLM Suite」の第一弾をリリース - (英語Stability AI

2023/04/19 このエントリーをはてなブックマークに追加 123 users Instapaper Pocket Tweet Facebook Share Evernote Clip StableLM Stability AI リリース モデル

"A Stochastic Parrot, flat design, vector art" -。 Stable Diffusion XL. 本日4月19日にStability AIは、新しいオープンソースの言語モデル StableLMをリリースしました。アルファ版は30億パラメータと70億パラメータのモデルが用意されており、今後150億パラメータから650億パラメータのモデルも用意される予定です... 続きを読む

無料でノートPCでも実行可能な70億パラメータのチャットボット「GPT4ALL」発表

2012/01/28 このエントリーをはてなブックマークに追加 24 users Instapaper Pocket Tweet Facebook Share Evernote Clip チャットボット 実行 Meta ノートPC GitHub

GPT-3.5-TurboとMetaの大規模言語モデル「LLaMA」で学習したデータを用いた、ノートPCでも実行可能なチャットボット「GPT4ALL」をNomic AIが発表しました。さまざまなトピックの学習に用いられた質問と返答のペアのトレーニングデータセットもすべて公開されています。 GitHub - nomic-ai/gpt4all: gpt4all: a chatbot t... 続きを読む

 
(1 - 10 / 10件)