はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ 深層学習モデル

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 1 / 1件)
 

【文系でもわかる】ChatGPTのキモ「Transformer」「Attention」のしくみ

2023/09/26 このエントリーをはてなブックマークに追加 518 users Instapaper Pocket Tweet Facebook Share Evernote Clip Transformer GPT attention 文脈 根幹

第1回は、さまざまなタスクをこなす万能型ジェネレーティブAIツール「ChatGPT」の性能の鍵を握る「トークン長(GPTが文脈を意識できる過去の単語数)」やGPTの歴史的経緯について解説しました。第2回はGPTを支える自然言語処理 の分野で使用される深層学習モデル「Transformer」とその根幹となる「Attention機構(そのタ... 続きを読む

 
(1 - 1 / 1件)