はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ moriyama

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 5 / 5件)
 

喫茶店の味 ココア​ | 乳業メーカーのパイオニア |守山乳業株式会社 MORIYAMA | 守山乳業 MORIYAMA

2024/11/26 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip パイオニア ココア 乳業メーカー 喫茶店

種類別名称 ココア飲料 原材料名 砂糖(外国製造)、ココアパウダー、脱脂粉乳、植物油脂、果糖、カカオマス、デキストリン、食塩、洋酒/乳化剤、安定剤(セルロース、キサンタンガム)、香料​ 内容量 1,000g 保存方法 常温保存(未開封時) 栄養成分表示​ (100gあたり) エネルギー:79kcal​ たんぱく質:1.5g​ 脂質... 続きを読む

GPT-3の学習データはどのように作られたか - moriyamaのエンジニアリング備忘録

2020/10/09 このエントリーをはてなブックマークに追加 27 users Instapaper Pocket Tweet Facebook Share Evernote Clip gpt-3 エンジニアリング備忘録 学習データ

OpenAIが発表した言語モデルGPT-3はパフォーマンスの高さから各方面で注目されており、ついにはMicrosoftが学習済みモデルの利用を独占化しました。 私個人の所感としてこれまで学習済みモデルは無料公開するという流れを無視し、(アーキテクチャではなく)学習済みモデルが商品化するのはAIビジネスの一つの転換期と感... 続きを読む

flairを使って最速でNLPのベースラインモデルを作る - moriyamaのエンジニアリング備忘録

2020/07/10 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip コーディング タスク 深層学習 単語分割 ベクトル化

自然言語処理に限らず、機械学習関連のプロジェクトではスタート時は、なるべく複雑なコーディングをせずにシンプルなベースラインモデルを低コストで作成し、そこからデータの傾向やタスクの複雑さを把握することが重要です。 ところが自然言語処理では前処理のコストが高く、最低限でも単語分割、ベクトル化、深層学習... 続きを読む

BERTを量子化して高速かつ軽量にする - moriyamaのエンジニアリング備忘録

2020/04/10 このエントリーをはてなブックマークに追加 19 users Instapaper Pocket Tweet Facebook Share Evernote Clip Bert vimmode PyTorch 推論速度 量子化

こんにちは、@vimmodeです。自然言語界隈ではBERTを始めとしたTransformerベースの手法の進化が目覚ましいですが、実運用されている話はあまり聞きません。 その理由としてモデルのサイズの大きさと推論速度の遅さに一定起因すると感じており、この記事はその解消になり得る量子化と呼ばれる手法の紹介とPyTorchで実装さ... 続きを読む

自然言語処理でBERTまでの流れを簡単に紹介 - moriyamaのエンジニアリング備忘録

2020/01/24 このエントリーをはてなブックマークに追加 21 users Instapaper Pocket Tweet Facebook Share Evernote Clip Bert デファクトスタンダード vimmode MNTSQ

はじめまして@vimmodeです。普段はMNTSQというリーガルテックの会社で自然言語処理をしています。今回はBERTとBERTまでの流れを簡単に紹介します。 自然言語処理で今やデファクトスタンダードとなりつつであるBERT。登場当時はモデルの複雑さに伴う計算環境や計算リソースの確保が難しく気軽に動かせなかったが、Colabや... 続きを読む

 
(1 - 5 / 5件)