タグ ハルシネーション
人気順 5 users 50 users 100 users 500 users 1000 users「RAG」とは何か? なぜ“LLMの限界”を突破できるのか
関連キーワード 人工知能 大規模言語モデル(LLM)を活用する上で大きな課題となるのが、ハルシネーション(事実に基づかない回答を出力すること)のリスクだ。こうしたLLMの課題克服に役立つ技術として「RAG」(検索拡張生成)が注目されている。RAGはLLMの回答精度向上にどう役立つのか。その仕組みを解説する。 なぜ... 続きを読む
生成AIのハルシネーションは原理的に排除不能。不完全性定理など数学・計算機理論で説明 モデル改良や回避システムでも不可避とする論文(生成AIクローズアップ) | テクノエッジ TechnoE
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をピックアップして解説する連載「生成AIウィークリー」から、特に興味深い技術や研究にスポットライトを当てる生成AIクローズアップ。 今回は、大... 続きを読む
生成AIのハルシネーションは原理的に排除不能。不完全性定理など数学・計算機理論で説明 モデル改良や回避システムでも不可避とする論文(生成AIクローズアップ)(テクノエッジ) - Ya
Google、AIの“幻覚”に対処する「DataGemma」をオープンモデルでリリース
米Googleは9月13日(現地時間)、LLMが不正確な回答を出してしまういわゆる幻覚(ハルシネーション)を軽減するためのAIモデル「DataGemma」を発表した。オープンモデルとしてHugging Faceで公開した。 Gemmaは、Googleが今年2月にオープンモデルとして発表した「Gemini」の軽量版LLM。DataGemmaは、このGemmaのオープン... 続きを読む
解説:生成AIのハルシネーションはなぜ起きるのか
大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は本質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ばれているだけだ。 by Will Douglas Heaven2024.06.24 4 この記事の3つのポイント チャットボットは間違った... 続きを読む
LLMエージェントの設計16パターン | AIDB
LLMエージェントの設計は課題が多い上に分類が整理されていません。なお課題としてはハルシネーション(誤った情報の生成)の存在や推論の道筋が不明瞭な点などが挙げられています。 今回研究者らは、基盤モデルを使ったエージェントの設計パターン16種類をまとめました。例えば、エージェントが目標をどうやって設定す... 続きを読む
ChatGPTを使う時に嘘の回答(ハルシネーション)を回避するために「わからないことは知らないと答えて」とプロンプトに入れると回答精度が上がる?
じこったねこばす @funniest_catbus ヤメガバンカー ||自意識が膨張して破裂寸前 ||過去作品は下記noteからどうぞ ||お仕事の依頼はDMまで ||質問箱: querie.me/user/funniest_… ||アイコン画像はKZOさん作 @__KZO__ ||かけだしクラブDJ||ラジオパーソナリティになりたい|| note.com/jikoneko/ リンク www.nri.com ハル... 続きを読む
AIのハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。 「ハルシネーションを叩くな」終わり。 ①各種LLMの性能比較GPT系の今の性能はゴミクズ。マジで頭悪い。 例をあげよう。 簡単な論理クイズだ。 ###文章### Aさんは自身はCさんとは別人であると主張している。 Bさんは、Cさんの発言を記事でまとめ、プ... 続きを読む
ハルシネーションの根絶は無理筋、ファインチューニングへの過度な期待も禁物
生成AI(人工知能)を業務活用する際に、ユーザー企業がつまずきがちなポイントを指摘する本特集。第2回は「ハルシネーションをなくすのは難しい」「生成AIを業務自動化に活用するのは難しい」「ファインチューニングは難しすぎる」の3つを取り上げよう。 その4: ハルシネーションをなくすのは難しい 生成AIが抱える課... 続きを読む
ChatGPTが同時多発的に奇妙なことを言い始めて「ChatGPTが発狂した」「発作を起こした」という報告が相次ぎOpenAIが慌てて修正
OpenAIが開発したChatGPTは非常に高い精度で人間とチャットをすることができますが、時には「ハルシネーション(幻覚)」と呼ばれる見当違いな回答をする場合もあります。2024年2月20日頃、ChatGPTが突如として多くのユーザーに奇妙な返答をするようになり、「ChatGPTが発狂した」「発作を起こした」といった報告が相次ぐ... 続きを読む
Google DeepMind、LLM採用AIシステム「FunSearch」で数学的難問を解決
Google DeepMindは、LLM採用のAIシステム「FunSearch」を発表した。LLMとLLMによる幻覚を防止する“評価器”を組み合わせたもので、「ビンパッキング問題」向けの実用的なアルゴリズムも出力できる。 米Google傘下のGoogle DeepMindは12月14日(現地時間)、LLM(大規模言語モデル)とLLMによる幻覚(ハルシネーション)を... 続きを読む
AmazonのAI「Amazon Q」は重度の幻覚によってAWSデータセンターの場所などの機密データを漏えいしているとの指摘
2023年11月29日に発表されたばかりのAIチャットサービス「Amazon Q」にプライバシーの問題がある可能性が報じられました。一部の従業員によるとAmazon Qはひどい幻覚(ハルシネーション)に襲われることがあり、Amazon Web Services(AWS)のデータセンターの場所などを漏らすことがあるそうです。 Amazon’s Q has ‘severe h... 続きを読む
AIがハルシネーション(Hallucination)を起こす最大の理由 - Qiita
ハルシネーション(Hallucination)とは? もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 なぜハルシネーションを起こす... 続きを読む
Chat-GPTを使っていたら「視覴」という見慣れない言葉を吐き出したのだがAIが生み出した存在しない単語なのでは…?
フガクラ @fugakura 怖ぇー、chat gpt使ってたら「視覴」という見慣れない言葉を吐き出したので検索したところ、ヒットするサイトがほとんど直近日付のAI出力された文章だった これっていわばAIのハルシネーションが生み出した存在しない単語なのでは…? pic.twitter.com/TVXWcNlVWh 2023-06-08 08:51:02 続きを読む
1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される
近年はChatGPTやBardなどの対話型AIが相次いでリリースされ、人間の質問や呼びかけに対して非常に高精度な回答ができることで注目を浴びていますが、これらの対話型AIは時に真実ではないことを真実かのように話す「ハルシネーション(幻覚)」を起こすことがあります。そこで、膨大な数のAPIから適切なものを呼び出し、幻... 続きを読む
ChatGPTなどLLMの弱点“ハルシネーション” 「GPTは要素技術だ。商用という意味では遠い」
ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。 ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした... 続きを読む
「機械の中の幽霊」ならぬ「AIの中の幻覚」? AIの「ハルシネーション」について考える - YAMDAS現更新履歴
xtech.nikkei.com 中田敦さんが厳しい論調の文章を書いている。 これに対して、楠正憲さんが「自動運転と違って人命に関わる訳でもなく」と反応しているが、正直これには驚いた。楠正憲さんも2016年の WELQ 騒動を知らないわけはあるまい。検索結果は人命にかかわると言えるのではないか。 この騒動を機に、医師会やジャ... 続きを読む