はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ LLM

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 25 / 338件)

無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場

2024/04/26 このエントリーをはてなブックマークに追加 6 users Instapaper Pocket Tweet Facebook Share Evernote Clip コーディング 大規模言語モデル 商用利用 登場 無料

クラウドベースのデータウェアハウスサービスを展開する企業のSnowflakeが、トップレベルのエンタープライズ向け大規模言語モデル(LLM)として「Snowflake Arctic」をリリースしました。Apacheライセンス バージョン2.0で提供されるオープンなモデルとなっており、無料で商用利用も可能です。 Snowflake Arctic - LLM for... 続きを読む

DeepL、LLMを搭載した新サービス「DeepL Write Pro」を日本で提供開始

2024/04/25 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip DeepL 提供開始 新サービス 日本

続きを読む

LEIA: 言語間転移学習でLLMを賢くする新しい方法

2024/04/24 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip Studio Ousia 訓練 言語 理化学研究所 テキスト

Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い... 続きを読む

言語モデルを高位合成でFPGAに実装してみた

2024/04/24 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip FPGA 高位合成 言語モデル 内山 TURING株式会社

言語モデルを高位合成でFPGAに実装してみた Turing株式会社のリサーチチームでインターンしているM1の内山です。 Turing株式会社では大規模基盤モデルによる完全自動運転を目指しており、その実現に欠かせない技術として大規模言語モデルの研究開発を行っています。 Generative AI LLMの広範な知識と思考能力に加え、視... 続きを読む

NEC、世界トップレベル性能の高速な大規模言語モデル (LLM) cotomi Pro / cotomi Light を開発

2024/04/24 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip cotomi アーキテクチャ NEC 生成AI 業務変革

NECは、LLM(Large Language Model:大規模言語モデル)「cotomi(注1)」のラインアップ拡充のため、学習データやアーキテクチャを刷新した「cotomi Pro」「cotomi Light」を開発しました。 昨今の生成AIの急速な発展に伴い、様々な企業や公共機関が、LLMを活用した業務変革の検討・検証を進めています。具体的な活用シーン... 続きを読む

LangChainを用いた4種類のRAG質問応答chainの実装と性能比較

2024/04/24 このエントリーをはてなブックマークに追加 5 users Instapaper Pocket Tweet Facebook Share Evernote Clip LangChain Chain 実装 api経由 性能比較

はじめに この記事で想定している読者の方: LangChainで簡単でもコードを書いたことがある人 LLM chainについてざっくりと理解している人 公開されているLLMをapi経由で用いて様々な処理を記述できるライブラリ 「LangChain」にて, 主に外部から文書を与える際に用いられる以下の4つのchainをご存知の方も多いと思います... 続きを読む

LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

2024/04/24 このエントリーをはてなブックマークに追加 146 users Instapaper Pocket Tweet Facebook Share Evernote Clip erukiti ローカルLLM Mac Studio メモリ

もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十... 続きを読む

NEC、クラウド不要の生成AI提供 機密情報を社内で管理 【イブニングスクープ】 - 日本経済新聞

2024/04/23 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip イブニングスクープ NEC クラウド 機密情報 日本経済新聞

NECは企業向けに新たな生成AI(人工知能)サービスを6月に始める。NEC製のサーバーとセットで提供することで、機密性の高いデータを社外に出さず、社内で運用を完結できるようにする。個人情報を扱う金融機関やコンタクトセンターなどの需要を見込む。生成AIの基盤となる新型の大規模言語モデル(LLM)「cotomi Light(... 続きを読む

「GPT-4」を上回る性能で、グラフィカルな文書を読解するLLM技術

2024/04/23 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip GPT-4 文書 性能 tsuzumi 図表

「GPT-4」を上回る性能で、グラフィカルな文書を読解するLLM技術:NTTの「tsuzumi」にも採用 NTTは2024年4月12日、大規模言語モデル(LLM)の活用により、文書に含まれる図表やグラフなども含めて理解し、自然言語での指示に従って読解/応答する「視覚読解技術」を実現したと発表した。 NTTは2024年4月12日、大規模言語... 続きを読む

OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに

2024/04/22 このエントリーをはてなブックマークに追加 14 users Instapaper Pocket Tweet Facebook Share Evernote Clip CVE OpenAI abs GPT-4 セキュリティ勧告

OpenAIが開発する大規模言語モデル(LLM)のGPT-4は、一般公開されている脆弱(ぜいじゃく)性を悪用してサイバー攻撃を成功させることが可能であることが最新の研究により明らかになりました。 [2404.08144] LLM Agents can Autonomously Exploit One-day Vulnerabilities https://arxiv.org/abs/2404.08144 GPT-4 can expl... 続きを読む

東工大スパコン「TSUBAME4.0」稼働開始!Webブラウザから利用可、創薬からLLMまで幅広く活用

2024/04/19 このエントリーをはてなブックマークに追加 14 users Instapaper Pocket Tweet Facebook Share Evernote Clip 創薬 稼働開始 Webブラウザ 活用 利用可

続きを読む

もし「GitHub Copilot」を現役弁護士が使ったら? - MNTSQ Techブログ

2024/04/19 このエントリーをはてなブックマークに追加 141 users Instapaper Pocket Tweet Facebook Share Evernote Clip GitHub Copilot MNTSQ Techブログ

こんにちは。GitHub Copilotを先日初めて触って、感銘を受けたMNTSQ代表の板谷です。MNTSQの代表をしておりますが、現役の弁護士でもあります。 なぜ私が、GitHub Copilotに感銘を受けたかというと、「プログラミングの LLM による進化」は、契約という言語をコーディングするためにもドンピシャで使えそうだと感じたか... 続きを読む

Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に

2024/04/19 このエントリーをはてなブックマークに追加 29 users Instapaper Pocket Tweet Facebook Share Evernote Clip Meta Kaggle Snowflake クラウド 商用可

米Metaは4月18日(現地時間)、オープンソースのLLMの最新版「Llama 3」を発表した。80億パラメータと700億パラメータの2モデルで、いずれもほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM、Snowflake)で間もなく利用可能になる。... 続きを読む

1BitLLMの実力を見る|shi3z

2024/04/17 このエントリーをはてなブックマークに追加 17 users Instapaper Pocket Tweet Facebook Share Evernote Clip shi3z 実力 HuggingFace 一読 1bit

1BitLLMは本当に実現可能なのか?そして、実現されると予告されていることに意味はあるのか? ようやく再現実装に成功した人が現れたので僕も試してみた。 ちなみに1Bit(1.58bit) LLMについての考察はこのページが面白いので一読をお勧めする。 ただし、普通のHuggingFaceのお作法とはかなり違うので注意が必要。 まず、こ... 続きを読む

生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

2024/04/16 このエントリーをはてなブックマークに追加 41 users Instapaper Pocket Tweet Facebook Share Evernote Clip 識者 GPU 1ビットLLM 生成AI 業界

ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要になるとどんな世界が訪れるのか。オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AIの椎橋徹夫CEOに聞いた。 プロフィール:椎橋徹夫 米国州立テキサス大学理学部卒業後、ボストンコンサ... 続きを読む

生成AIで小説を書くためのプロンプト5選

2024/04/15 このエントリーをはてなブックマークに追加 342 users Instapaper Pocket Tweet Facebook Share Evernote Clip 生成AI 小説 プロンプト 実地 遅ればせ

人類の皆さん、小説書いてますか? この記事について この記事に書いてあること この一ヶ月ほど、遅ればせながらLLMによる小説執筆の支援という試みを実地でやってみたので、その中で結構良かったなと思ったプロンプトを紹介する。 使用したモデルはClaude 3 Opus。 この記事で書かないこと 生成AI「で」小説を書くこと... 続きを読む

GoogleがAIに無限の長さのテキストを処理できる能力を与える技術を発表

2024/04/15 このエントリーをはてなブックマークに追加 17 users Instapaper Pocket Tweet Facebook Share Evernote Clip テキスト 能力 Google 技術 発表

Googleの研究者が、大規模言語モデル(LLM)に無限の長さのテキストを処理させる手法だという「Infini-attention」に関する論文を発表しました。 [2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention https://arxiv.org/abs/2404.07143 Google’s new technique gives L... 続きを読む

優秀と噂なCohere社のCommand R+でRAGチャットボットを簡単に構築して体験しよう! - Qiita

2024/04/14 このエントリーをはてなブックマークに追加 118 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita Rag Command R+ チュートリアル 実装

1. はじめに Cohere社が最近リリースしたLLMのCommand R+がGPT4に迫る性能を発揮していたり、RAG利用での性能で話題となっています。 そのCommand R+でRAGを体験できるチャットアプリの実装がLightningAIにてチュートリアルが公開(CC-BY-4.0ライセンスとして)されています。 これを身近な環境で動かしてみたいと思います... 続きを読む

小さなゲーム作りでLLMができること、できないこと - ABAの日誌

2024/04/14 このエントリーをはてなブックマークに追加 20 users Instapaper Pocket Tweet Facebook Share Evernote Clip Aba chatgpt ChatGP 日誌 現状

前にChatGPTなどのLLM(大規模言語モデル)を使って小さなゲームを作るのはまだ難しいのでは、という記事を書いた。 ChatGPT を用いたゲーム考案の方法はいくつか考えられるが、ChatGPT に新しいゲームを考えさせ、それを実装させることは難しい。少なくとも現状の ChatGPT には、以下の課題があるように思える。 ChatGP... 続きを読む

イーロン・マスク氏のLLM「Grok」、1.5更新で画像認識可能に

2024/04/13 このエントリーをはてなブックマークに追加 9 users Instapaper Pocket Tweet Facebook Share Evernote Clip スクリ Grok マルチモーダルモデル 手書き フローチャート

イーロン・マスク氏の米AI企業xAIは4月12日(現地時間)、昨年11月に発表した独自LLM(大規模言語モデル)「Grok」の更新版「Grok-1.5V」を発表した。同社初のマルチモーダルモデルで、画像を認識する。既存のGrokユーザーに間もなく提供される予定。 1.5Vの最大の特徴は画像認識能力だ。手書きのフローチャートやスクリ... 続きを読む

PyTorchやPythonなしの純粋なC言語を使用した大規模言語モデルトレーニングツール「llm.c」がリリースされる

2024/04/11 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip PyTorch Python C言語 GPT-2 実装

AIの本体と言える大規模言語モデル(LLM)のトレーニングはほとんどの場合PyTorchやPythonを使用して行われていますが、そうしたトレーニングを純粋なC言語のみで実装したツール「llm.c」が登場しました。まだ最適化が行われておらず従来の手法に速度面では敗北していますが、GPT-2のトレーニングを行う実装を約1000行のク... 続きを読む

LLMを活用した大規模商品カテゴリ分類への取り組み | メルカリエンジニアリング

2024/04/11 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip メルカリエンジニアリング chatgpt メルカリ 事例 登場

こんにちは、メルカリの生成AIチームで ML Engineer をしている ML_Bear です。 以前の記事[1]では商品レコメンド改善のお話をさせていただきましたが、今回は、大規模言語モデル (LLM) やその周辺技術を活用して30億を超える商品のカテゴリ分類を行なった事例を紹介します。 ChatGPTの登場によりLLMブームに火がついた... 続きを読む

Microsoftも出資するAI企業Mistral、オープンソースLLM「Mixtral 8x22B」リリース

2024/04/11 このエントリーをはてなブックマークに追加 12 users Instapaper Pocket Tweet Facebook Share Evernote Clip オープンソースLLM Microsoft リリース 先代 新版

仏新興AI企業のMistral AIは4月10日、オープンソースLLM(大規模言語モデル)の「Mixtral」の新版「Mixtral 8x22B」をリリースしたとXの公式アカウントでポストした。 このポストはファイルをTorrentでダウンロードできることを示しているが、本稿執筆現在、このLLMのレビューなどはまだ出ていないようだ。 先代のMixtra... 続きを読む

日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita

2024/04/10 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita 日本語LLM 量子化 相関 度合い

TL;DR 量子化しても成績が下がりにくいモデルと、大きく下がるモデルがある 一部のモデルは量子化すると回答が極端に短くなる 量子化によって回答が短くなる度合いは、量子化前モデルの回答の長さと相関がある可能性がある はじめに 皆さんは量子化したLLMを使っていますか? 深層学習における量子化(quantization) と... 続きを読む

【西川和久の不定期コラム】 日本語にも対応したLLM「Cohere Command R(+)」の実力は?

2024/04/08 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip 西川和久 不定期コラム 実力 日本語

続きを読む

 
(1 - 25 / 338件)