タグ 児童たち
人気順 5 users 50 users 100 users 500 users 1000 users注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z
国立情報学研究所が作ったLLM-JP 13Bが公開されていたので早速試してみた。色々なモデルが公開されているが、全部盛りっぽい 「llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0」を試す。 マシンはもちろんドスパラ製Memeplexマシン(A6000x2)だ。 import torch from transformers import AutoTokenizer, AutoM... 続きを読む
GPTのモデル構造を可視化した|shi3z
GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ 22世紀に残したい図やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from t... 続きを読む
Laboro.AI、日本語版「BERT」モデルを開発--オープンソースで公開 - ZDNet Japan
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます オーダーメイドのAI(人工知能)を開発・提供するLaboro.AIは4月17日、自然言語処理モデル「BERT(Bidirectional Encoder Representations from Transformers)」を独自に事前... 続きを読む
Googleの自然言語処理モデル「BERT」はインターネット上から偏見を吸収してしまうという指摘 - GIGAZINE
by ScribblingGeek Googleが「Bidirectional Encoder Representations from Transformers(BERT)」と呼ばれる自然言語処理モデルを2018年10月に発表しました。BERTはGoogleの検索エンジンでも使用されており、Wikipediaのエントリやニュース記事、古書などのデジタル化された情報から学習を行います。しかし、このBERTの... 続きを読む
Googleの検索エンジンに「過去5年で最大の飛躍」。新たな言語処理モデル「BERT」の秘密|WIRED.jp
LYU LIANG/VCG/GETTY IMAGES) 「Google 検索」が大きな進化を遂げようとしている。このほどグーグルが「BERT(Bidirectional Encoder Representations from Transformers)」と呼ばれる機械学習の手法によって、Google 検索におけるランキングシステムの性能を強化したことを明らかにしたのだ。 「セサミストリート」の... 続きを読む