タグ 日本語性能
人気順 10 users 50 users 100 users 500 users 1000 users富士通、大規模言語モデル「Takane」提供開始 「世界一の日本語性能を持つ」とうたう
富士通は9月30日、カナダのAIスタートアップ企業Cohereと共同開発した大規模言語モデル(LLM)「Takane」の提供を始めた。富士通のAIサービス「Fujitsu Kozuchi」を通じて提供。同社はこのLLMについて「世界一の日本語性能を持つ」とうたっている。 Takaneは、CohereのLLM「Command R+」をベースに、日本語に特化させる... 続きを読む
GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog
本記事では、今年8月にパブリックベータ版として GitHub に搭載された新機能 GitHub Models について、概要や利用法を簡単にご説明します。さらに、実際に GitHub Models を活用して、多数の LLM の日本語性能を横断的に測定していく例を紹介していきます。 目次 目次 はじめに 三行で GitHub Models を説明すると... Gi... 続きを読む
GPT-4を超える日本語性能のLLM、PFN子会社がフルスクラッチで開発 無料トライアルを開始
β版では、PLaMo-100Bをベースに指示学習やモデルマージを行い、文章生成能力を高めた。無料トライアルは個人・法人を問わずに提供し、商用利用も可能。同社は今後、トライアルの検証結果から改善や追加学習などを実施し、商用版の「PLaMo 1.0 Prime」を今秋に発売する。 関連記事 PFNが生成AI新会社「Preferred Elements... 続きを読む
「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました|ELYZA, Inc.
本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行... 続きを読む
NTTの生成AI「tsuzumi」が商用化、日本語性能・低コストなど武器に浸透目指す
ELYZA、新たな日本語言語モデルを一般公開 同社「日本語ならGPT-3.5を上回る性能」 商用利用も可
ELYZA、新たな日本語言語モデルを一般公開 同社「日本語ならGPT-3.5を上回る性能」 商用利用も可 東大発のAIスタートアップ企業であるELYZAは、商用利用可能な日本語の大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-13b」を公開した。日本語性能の評価では「GPT-3.5(text-davinci-003)」を上回るという。 東大発... 続きを読む
ELYZA-tasks-100 でLLM14個の日本語性能を横断評価してみた - Qiita
TL;DR 14個の「日本語が話せるLLM」(日本製・外国製問わず)の性能を、日本語データセット ELYZA-tasks-100 で横断評価しました 海外勢70Bモデルの性能が高いことがわかりました。7Bでは ELYZA-japanese-llama-2 や CALM2 の成績がよかったです モデルの回答・スクリプトへのリンクは記事内に貼っています JGLUE などの... 続きを読む
日本語に強く、たった130億パラメーター NECが作った国産LLMの価値 (1/2)
NECは、130億パラメーターという軽量化を実現した独自の日本語大規模言語モデル(LLM)を発表した。NEC Corporate EVP兼CTOの西原基夫氏は、「世界トップクラスの日本語性能を有する、軽量なLLMを開発することに成功した。すでにNEC社内で利用を開始しており、文書作成や社内システム開発におけるソースコード作成業務な... 続きを読む
NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発
NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的なモデル、いわゆるファウンデーションモデル(注1)です。独自の工夫により高い性能を実現しつつパラメータ数を130億に抑えた本LLMは... 続きを読む