はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 130億パラメーター

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 3 / 3件)
 

商用利用可能で130億パラメーターの日本語LLM「ELYZA-japanese-Llama-2-13b」が公開/デモも公開されており、実際に能力を試すことが可能

2023/12/27 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip ELYZA-japanese-Llama-2-13b

続きを読む

Text generation web UI で Xwin-LM-13B-V0.1-GPTQ を試す。|さいぴ

2023/09/23 このエントリーをはてなブックマークに追加 17 users Instapaper Pocket Tweet Facebook Share Evernote Clip Text generation さい Web UI 圧勝 僅差

この Xwin-LM-13B-V0.1 モデル、13B(130億パラメーター)でありながらAlpacaEval ベンチマークにおいてなんとGPT-4に僅差で勝利している。対ChatGPT戦に至っては圧勝である。 しかもこのモデル、GPTQで量子化したTheBloke/Xwin-LM-13B-V0.1-GPTQ であれば7.26 GBである。 ついに家庭用ゲーミングPCでGPT-4が動く時代が... 続きを読む

日本語に強く、たった130億パラメーター NECが作った国産LLMの価値 (1/2)

2023/07/10 このエントリーをはてなブックマークに追加 27 users Instapaper Pocket Tweet Facebook Share Evernote Clip 国産LLM NEC LLM 価値 日本語

NECは、130億パラメーターという軽量化を実現した独自の日本語大規模言語モデル(LLM)を発表した。NEC Corporate EVP兼CTOの西原基夫氏は、「世界トップクラスの日本語性能を有する、軽量なLLMを開発することに成功した。すでにNEC社内で利用を開始しており、文書作成や社内システム開発におけるソースコード作成業務な... 続きを読む

 
(1 - 3 / 3件)