タグ rinna
人気順 5 users 50 users 100 users 500 users 1000 usersMetaのLlama 3を日本語でさらに学習したAIモデル、rinnaが公開
rinna、日英バイリンガル大規模言語モデルをオープンソースで公開|rinna株式会社
rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン"クリフ"チェン、以下rinna)は、日本語と英語のバイリンガル大規模言語モデルを開発し、商用利用可能なライセンスでオープンソースとして公開したことを発表します。さらに、対話形式のテキストを生成する対話言語モデル、テキストと画像のマルチモーダル入力を実... 続きを読む
自宅PCで「rinna」の日本語言語モデルを試用、メモリ32GBあればCPUだけでも動くぞ!【イニシャルB】
LoRA のもう一つの大きなメリット、GPUメモリ共有しつつ別のタスク処理モデルへ即時に切り替える方法 - A Day in the Life
低ランク行列を追加することで、大元のモデルを維持しつつ少ないコストで学習できる LoRA(Low-Rank Adaptation of Large Language Models)。先日、日本語でも大規模パラメータモデル cyberagent/open-calm-7b や rinna/japanese-gpt-neox-3.6b 等々がリリースされたり、HuggingFaceからはtransformersでLoRAを簡単に実現... 続きを読む
「りんな」開発元、大規模言語モデルを公開 36億パラメーターで日本語特化
コミュニケーションAI「りんな」を提供するrinnaが、GPTベースの大規模言語モデルをオープンソースで公開した。日本語に特化した36億パラメーターを持つ汎用言語モデルと、対話言語モデルの2種類を用意する。 コミュニケーションAI「りんな」を提供するrinnaは5月17日、同社が開発したGPTベースの大規模言語モデルをオー... 続きを読む
rinna/japanese-gpt-neox-3.6b-instruction-sft · Hugging Face
japanese-gpt-neox-3.6b-instruction-sft This repository provides a Japanese GPT-NeoX model of 3.6 billion parameters. The model is based on rinna/japanese-gpt-neox-3.6b and has been finetuned to serve as a instruction-following conversational agent. A special format has been adopted to construct i... 続きを読む
rinna、36億パラメータの日本語特化GPT言語モデルを公開
rinna、日本語に特化した36億パラメータのGPT言語モデルを公開
rinna株式会社(本社:東京都渋谷区、代表取締役:ジャン“クリフ”チェン、以下rinna)は、日本語に特化した36億パラメータを持つ汎用言語モデルと対話言語モデルの2種類のGPT言語モデルをオープンソースで公開したことを発表いたします。 ■ 背景 rinnaは「人とAIの共創世界」をビジョンに掲げ、人と人との間にAIが介在す... 続きを読む
rinnaが日本語特化LLM公開 36億パラメータ
Netflix、背景に画像生成AIを使ったショートアニメ公開 作業効率化の実験も海外ファンは非難の声
背景画に画像生成AIを活用したアニメショートムービー「犬と少年」が話題になっている。制作をしたのは、NetflixとWIT STUDIO、rinnaの3社。アニメ制作の効率化を目指した実験というが、一部の海外ファンは非難の声を上げている。 NetflixがYouTubeで公開したアニメ「犬と少年」が話題になっている。3分間のショートムー... 続きを読む
“ひろゆきっぽいコメント”AIで生成・音声も再生 無料ジェネレーター公開 rinnaとコラボ
例えば「受験生です。勉強が辛くて悩んでいます」と質問すると、“AIひろゆき”が「受験生はつらいのは当然、自分を責めるべき」と話す紙芝居のような動画を生成する。「適当な回答がもらえる配信の様子を再現する」(CoeFont)として、同じ質問をしても毎回別の答えが返ってくるようにしたという。 rinnaはAI技術「キャラ... 続きを読む
rinnaが日本語に特化したGPT-2とBERTの事前学習モデルを開発しオープンソース化 | TechCrunch Japan
rinnaは8月25日、日本語に特化したGPT-2とBERTの事前学習モデルとその学習を再現するためのソースコードを、GitHubおよびNLPモデルライブラリーHuggingFaceにオープンソースソフトウェア(OSS)として公開したと発表した。ライセンスはMIT。製品開発のための実験過程で開発したもので、日本語の自然言語処理(NLP)の研... 続きを読む
rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai
元女子高生AI「りんな」などで知られるrinna株式会社は8月25日、製品開発のための実験過程で、日本語に特化した「GPT-2」と「BERT」の事前学習モデルを開発したと発表。 日本語の自然言語処理(NLP)の研究・開発コミュニティに貢献するために、開発した事前学習モデルとその学習を再現するためのソースコードを、GitHub... 続きを読む
AIチャットボット「りんな」を手がけるrinnaが日本語特化のGPT-2大規模言語モデルをオープンソース化 | TechCrunch Japan
AIチャットボット「りんな」などを手がけるrinna(リンナ)は4月7日、日本語に特化したGPT-2の大規模言語モデルを構築し、GitHubおよびNLPモデルライブラリー「HuggingFace」において、トレーニングコードと言語モデルをオープンソースソフトウェアとして公開した。 また今回公開したモデルは、GPT2-mediumと定義される... 続きを読む