はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ デンマーク

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 6 / 6件)
 

最強ローカルLLM実行環境としてのEmacs

2024/08/04 このエントリーをはてなブックマークに追加 180 users Instapaper Pocket Tweet Facebook Share Evernote Clip emacs Ollama ローカルLLM みなさん 最大限

みなさん、ローカルLLMで遊んでいますか? 昨年末に、Ollamaが登場してから誰でも簡単にローカルLLMで遊べる時代がやってきました。そこで、僕もローカルLLMでどんなことができるんだろうと思って触りはじめたのですが、ローカルLLMを最大限に活用するためには、まずはどうやったらEmacsからローカルLLMを使えるようにな... 続きを読む

ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ

2024/07/19 このエントリーをはてなブックマークに追加 107 users Instapaper Pocket Tweet Facebook Share Evernote Clip Rag ローカルLLM VA Linux 外部記憶 自分

はじめに 自宅PC編 会社サーバ編 感想等 執筆者:佐藤友昭 ※ 「ディスアグリゲーテッドコンピューティングとは何か?」連載記事一覧はこちら はじめに 作業ログや検討メモ、参照した定型論文や書籍、ネット上の記事、視聴した講演やウェビナーのメモ等、日常を記録する情報は日々増えていく。これらの情報はできれば後に... 続きを読む

ローカルLLMに小説を書いてもらう v2|Kohya S.

2024/07/15 このエントリーをはてなブックマークに追加 94 users Instapaper Pocket Tweet Facebook Share Evernote Clip ローカルLLM Claude システマチック プロンプト 小説

この時はそれぞれ単独のプロンプトで小説家と編集者を演じさせましたが、今回はもうすこしシステマチックに、段階を踏んで小説を生成させてみます。 プロンプトの検討等にはkgmkm氏のリポジトリや記事を参考にさせていただきました。この場を借りてお礼申し上げます。 仕組みを相談するのにClaude (3.5 Sonnet)とやり取... 続きを読む

ローカルLLMでzoltraakを動かせるか検証してみた

2024/07/15 このエントリーをはてなブックマークに追加 61 users Instapaper Pocket Tweet Facebook Share Evernote Clip ローカルLLM LLM 元木さん 言語 要件定義書

はじめに どんな人向けの記事? ローカルLLMに興味のある人 zoltraakに興味のある方 LLMを用いて要件定義書を作りたい方 内容 今回は元木さんのZoltraakを使って、自然言語から要件定義書を作ってみようと思います。 ただし、リリースされてから2ヶ月以上経ったzoltraakを普通に動かすだけでは面白くないので、この記事... 続きを読む

最近ローカルLLMがアツいらしい

2024/05/20 このエントリーをはてなブックマークに追加 954 users Instapaper Pocket Tweet Facebook Share Evernote Clip ローカルLLM Twitter Anthropic ウエイト

最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのよう... 続きを読む

LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

2024/04/24 このエントリーをはてなブックマークに追加 146 users Instapaper Pocket Tweet Facebook Share Evernote Clip erukiti ローカルLLM LLM Mac Studio

もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十... 続きを読む

 
(1 - 6 / 6件)