タグ 歴史修正
人気順 10 users 50 users 100 users 500 users 1000 users(1 - 4 / 4件)
商用利用可能で130億パラメーターの日本語LLM「ELYZA-japanese-Llama-2-13b」が公開/デモも公開されており、実際に能力を試すことが可能
Text generation web UI で Xwin-LM-13B-V0.1-GPTQ を試す。|さいぴ
この Xwin-LM-13B-V0.1 モデル、13B(130億パラメーター)でありながらAlpacaEval ベンチマークにおいてなんとGPT-4に僅差で勝利している。対ChatGPT戦に至っては圧勝である。 しかもこのモデル、GPTQで量子化したTheBloke/Xwin-LM-13B-V0.1-GPTQ であれば7.26 GBである。 ついに家庭用ゲーミングPCでGPT-4が動く時代が... 続きを読む
日本語に強く、たった130億パラメーター NECが作った国産LLMの価値 (1/2)
NECは、130億パラメーターという軽量化を実現した独自の日本語大規模言語モデル(LLM)を発表した。NEC Corporate EVP兼CTOの西原基夫氏は、「世界トップクラスの日本語性能を有する、軽量なLLMを開発することに成功した。すでにNEC社内で利用を開始しており、文書作成や社内システム開発におけるソースコード作成業務な... 続きを読む
NEC、大規模言語モデルを開発。130億パラメーターの“軽量さ”と高い日本語能力をうたう GPU1枚搭載のサーバーで動作でき、システム構築が容易に
(1 - 4 / 4件)