タグ LLM
人気順 10 users 50 users 100 users 500 users 1000 users【西川和久の不定期コラム】 スマホでもローカルでLLMが動く時代!iPhone 16 Proで試してみた
可愛すぎかよ! ハッカーの新しい相棒 コマンドラインからLLMを使えるgptme|shi3z
こういうのが欲しかったんだよ。マジで。 コマンドラインからLLMを呼び出せるgptmeというツールがアツい これは、gptmeコマンドを追加するというもの。 環境変数としてOPENAI_API_KEYとかAnthropicのキーとかを設定しておくと勝手にAPIを呼び出してくれる。もちろん、クラウドに送信するとかけしからんという勢にはロー... 続きを読む
ChatGPTのo1は「ノーベル賞ものだと思う」──孫正義氏による“成年の主張”
「これ(o1)はノーベル賞ものだと思う」──ソフトバンクグループの孫正義代表取締役社長兼社長は10月3日、グループの定例イベント「SoftBank World 2024」(東京都港区)の基調講演で、米OpenAIが9月に発表したLLM(大規模言語モデル)「o1」に受けたという感動をこう表現した。 2023年のSoftBank Worldでは「ChatGPTを... 続きを読む
生成AIを活用したシステム開発の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - |日本総研
現在、大規模言語モデル(LLM)に代表される生成AIがシステム開発の領域において注目を浴びており、システム開発プロセス全体の効率化から、特定の業務における自動化まで、その応用範囲は広がり続けている。本レポートでは、生成AIを用いたシステム開発についての現状を整理し、生成AIによって今後のシステム開発がどのよ... 続きを読む
リコー、モデルマージで“GPT-4レベル”の大規模言語モデル開発 プライベートLLMの開発効率化に貢献
リコーは9月30日、モデルマージ技術によって高性能な日本語大規模言語モデル(LLM)を開発したと発表した。東京工業大学などが開発したLLM「Llama-3-Swallow-70B」をベースにしたAIモデルで、米OpenAIのLLM「GPT-4」と同等の性能を持つとしている。 モデルマージとは、複数の学習済みのLLMモデルを組み合わせて、より性... 続きを読む
富士通、大規模言語モデル「Takane」提供開始 「世界一の日本語性能を持つ」とうたう
富士通は9月30日、カナダのAIスタートアップ企業Cohereと共同開発した大規模言語モデル(LLM)「Takane」の提供を始めた。富士通のAIサービス「Fujitsu Kozuchi」を通じて提供。同社はこのLLMについて「世界一の日本語性能を持つ」とうたっている。 Takaneは、CohereのLLM「Command R+」をベースに、日本語に特化させる... 続きを読む
ナレッジグラフとLLMを活用したレコメンドシステム - Insight Edge Tech Blog
イントロダクション:スーパーマーケットの3つの課題 ナレッジグラフとは ナレッジグラフの活用事例 Google検索 Amazon ECサイトのレコメンドシステムCOSMO ナレッジグラフに関連した論文 Yu et al., COSMO: A large-scale e-commerce common sense knowledge generation and serving system at Amazon[4] Shi et al., L... 続きを読む
RAGに関する主要な論文を時系列順にまとめていく(2024年度版)|R
RAGに関する主要な論文まとめていきます。(過去の分含めて随時更新予定) 見つけたものからまとめているので、最新の2024年以降の論文多めです。 Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks(22/05/2022) 一言紹介❓ LLMって、事前学習された知識に関しては答えてくれるけど、最新のニュースだっ... 続きを読む
自宅のPCでLLMが動く! オープンソースの視点からひも解く生成AIの現在と未来
プライベート・ビジネスを問わず活用が進む生成AI。そんな生成AIの進化を支えるのが、OSSだ。AIシステムを支えるコアソフトウェアのLangChainやvLLMは、代表例の1つ。しかも最近は生成AI自体がOSSとして提供されており、ローカルでLLMを実行できるところまできている。本セッションでは、レッドハットでスペシャリストソ... 続きを読む
「時間の矢」が生成AIにも含まれていた? “未来から過去を予測”する逆の訓練をLLMで実施 海外チームが検証
このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 スイスのEPFLや英ロンドン大学に所属する研究者らが発表した論文「Arrows of Tim... 続きを読む
Meta、無料で商用可のLLM「Llama 3.2」リリース マルチモーダルモデルも
米Metaは9月25日(現地時間)、年次開発者会議「Meta Connect 2024」で、同社のLLM「Llama」の最新版「Llama 3.2」のリリースを発表した。7月に「Llama 3.1」をリリースしたばかりだが、初のマルチモーダルモデルの追加など、大きな更新になった。 画像認識機能の追加 Llama 3.2では、11B(110億)と90B(900億)の2つの... 続きを読む
LLMの効率化を支えるアルゴリズム
2024.09.04 続きを読む
世界最大級の図書館は「AI訓練データの宝庫」だ | Forbes JAPAN 公式サイト(フォーブス ジャパン)
1億8000万点にも及ぶ書籍や資料を所蔵する世界最大級の図書館が、人工知能(AI)スタートアップからの熱い注目を浴びている。それらの企業は、大規模言語モデル(LLM)の訓練に使用可能で、訴訟リスクのないコンテンツを探しているからだ。 1800年に合衆国議会の図書室として発足したワシントンDCの米国議会図書館(Libr... 続きを読む
RAG の精度を向上させる Advanced RAG on AWS の道標 | Amazon Web Services
Amazon Web Services ブログ RAG の精度を向上させる Advanced RAG on AWS の道標 生成 AI の進化と共に、大規模言語モデル (LLM) を活用したアプリケーション開発が急速に広がっています。その中で、検索拡張生成 (Retrieval-Augmented Generation; RAG) は、LLM に対して最新の情報や特定のドメイン知識を組み込むため... 続きを読む
GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog
本記事では、今年8月にパブリックベータ版として GitHub に搭載された新機能 GitHub Models について、概要や利用法を簡単にご説明します。さらに、実際に GitHub Models を活用して、多数の LLM の日本語性能を横断的に測定していく例を紹介していきます。 目次 目次 はじめに 三行で GitHub Models を説明すると... Gi... 続きを読む
AIの安全性評価ガイドライン公開 IPAと国などが設立したAISIから
情報処理推進機構(IPA)が内閣府や経済産業省などと協力して2月に設立した「AIセーフティ・インスティテュート」 (AISI)は9月18日、AI開発者・提供者向けに、AIの安全性などを評価する「AIセーフティ評価」の観点や手法をまとめたガイドブックを公開した。 LLMを構成要素とするAIシステムが対象。「人間中心」「安全性... 続きを読む
“学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版
国立情報学研究所(NII)は9月17日、パラメータ数約1720億の大規模言語モデル(LLM)のプレビュー版「LLM-jp-3 172B beta1」を公開した。NIIが開発するLLMは、データをフルスクラッチで学習しており、AIモデルの他に学習データもオープンになっているのが特徴。プレビュー版モデルは、学習データの約3分の1までを学習し... 続きを読む
初心者がDifyでワークフローを作る際に知っておくと便利な5つのこと
はじめに この記事で想定している読者の方: Difyの使い方にまだ馴染めていない方 ワークフローで何か作ってみたい方 簡単にPythonが書ける方 LLMを用いたアプリケーションをノーコード・ローコードで作成できるサービスである「Dify」がその使いやすさと拡張性の高さから最近注目を集めています。しかし, 「Difyを知って... 続きを読む
中国製AIはハルシネーションレートですでに世界一
AIがあたかも本当のように事実と異なることを言ってしまうハルシネーション(幻覚)。どのくらい幻覚を見るかを示すハルシネーションレートは、各社がしのぎを削る大規模言語モデル(LLM)の精度の高さを証明する1つの指標となっている。 さて、各LLMのハルシネーションレートを比較すべくAI企業Vectaraが開発したGitHub... 続きを読む
Google、AIの“幻覚”に対処する「DataGemma」をオープンモデルでリリース
米Googleは9月13日(現地時間)、LLMが不正確な回答を出してしまういわゆる幻覚(ハルシネーション)を軽減するためのAIモデル「DataGemma」を発表した。オープンモデルとしてHugging Faceで公開した。 Gemmaは、Googleが今年2月にオープンモデルとして発表した「Gemini」の軽量版LLM。DataGemmaは、このGemmaのオープン... 続きを読む
難しい科学問題もOK。答える前に考える時間を取ったLLM「OpenAI o1」
PythonでPDFからテキスト/表情報の抽出精度を比較してみた - Taste of Tech Topics
はじめに こんにちは。ついにジム通いを始めて四六時中筋肉痛を感じながら過ごしているイワツカです。 最近はLLM(大規模言語モデル)とRAG(検索拡張生成)を用いて企業内ドキュメントを活用する取り組みが多く見受けられます。 ドキュメントは基本PDFで保存されているため、PDFからテキストを抽出して、検索対象にする... 続きを読む
RAGの精度と速度を同時に向上「DIVA」による曖昧さ対策
導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 この記事では、曖昧な質問に対する回答の精度を高め、さらに処理速度を大幅に改善した手法「DIVA」について紹介します。 サマ... 続きを読む
15時間で学べるAI学習決定版。グーグルが提供する無料の機械学習集中講座が大幅刷新され、LLMもカバー | DevelopersIO
15時間で学べるAI学習決定版。グーグルが提供する無料の機械学習集中講座が大幅刷新され、LLMもカバー Googleが提供する無料の機械学習の集中講座はご存知でしょうか? 機械学習に関する幅広いテーマを座学・動画・実験・コーディングといった様々なアプローチで15時間で学べます。しかも無料です。 このコンテンツはもと... 続きを読む
LLMをガッツリ使いこなしている人だけが知っていること
GPT-4oの入力コンテキストは殆ど嘘だということ。 例えば、DRMをクラックした本とかを読ませて「なんて書いてある?」みたいなことを聞いてみると分かるのだが、後半については殆ど無視される。128Kトークンという巨大な入力コンテキストウィンドウを持っていることになっているが、これは殆ど嘘、ごまかしであり、出力... 続きを読む