はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ ハルシネーション

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 14 / 14件)
 

AIのハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。

2024/03/24 このエントリーをはてなブックマークに追加 30 users Instapaper Pocket Tweet Facebook Share Evernote Clip 別人 ゴミクズ マジ 発言 性能

長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。 「ハルシネーションを叩くな」終わり。 ①各種LLMの性能比較GPT系の今の性能はゴミクズ。マジで頭悪い。 例をあげよう。 簡単な論理クイズだ。 ###文章### Aさんは自身はCさんとは別人であると主張している。 Bさんは、Cさんの発言を記事でまとめ、プ... 続きを読む

ハルシネーションの根絶は無理筋、ファインチューニングへの過度な期待も禁物

2024/03/04 このエントリーをはてなブックマークに追加 14 users Instapaper Pocket Tweet Facebook Share Evernote Clip ファインチューニング 根絶 禁物 生成AI 人工知能

生成AI(人工知能)を業務活用する際に、ユーザー企業がつまずきがちなポイントを指摘する本特集。第2回は「ハルシネーションをなくすのは難しい」「生成AIを業務自動化に活用するのは難しい」「ファインチューニングは難しすぎる」の3つを取り上げよう。 その4: ハルシネーションをなくすのは難しい 生成AIが抱える課... 続きを読む

ChatGPTが同時多発的に奇妙なことを言い始めて「ChatGPTが発狂した」「発作を起こした」という報告が相次ぎOpenAIが慌てて修正

2024/02/22 このエントリーをはてなブックマークに追加 25 users Instapaper Pocket Tweet Facebook Share Evernote Clip OpenAI chatgpt 幻覚 発作 返答

OpenAIが開発したChatGPTは非常に高い精度で人間とチャットをすることができますが、時には「ハルシネーション(幻覚)」と呼ばれる見当違いな回答をする場合もあります。2024年2月20日頃、ChatGPTが突如として多くのユーザーに奇妙な返答をするようになり、「ChatGPTが発狂した」「発作を起こした」といった報告が相次ぐ... 続きを読む

ChatGPT APIで肥大化したプロンプトによるハルシネーションへの対策 - Qiita

2024/01/29 このエントリーをはてなブックマークに追加 6 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita プロンプト 要件 アプリケーション 精度

概要 ChatGPT APIを活用したアプリケーションでは、要件が複雑化することで、システムプロンプトが肥大化していくことがあります。 しかしプロンプトが肥大化すると、ハルシネーションの起きる可能性が上がり、思ったような精度が出なくなってくることがあります。 以下を意識してプロンプトを改善させることで、精度向... 続きを読む

Google DeepMind、LLM採用AIシステム「FunSearch」で数学的難問を解決

2023/12/15 このエントリーをはてなブックマークに追加 14 users Instapaper Pocket Tweet Facebook Share Evernote Clip 難問 LLM Google DeepMind LLM採用 幻覚

Google DeepMindは、LLM採用のAIシステム「FunSearch」を発表した。LLMとLLMによる幻覚を防止する“評価器”を組み合わせたもので、「ビンパッキング問題」向けの実用的なアルゴリズムも出力できる。 米Google傘下のGoogle DeepMindは12月14日(現地時間)、LLM(大規模言語モデル)とLLMによる幻覚(ハルシネーション)を... 続きを読む

AmazonのAI「Amazon Q」は重度の幻覚によってAWSデータセンターの場所などの機密データを漏えいしているとの指摘

2023/12/04 このエントリーをはてなブックマークに追加 13 users Instapaper Pocket Tweet Facebook Share Evernote Clip 幻覚 重度 Has AIチャットサービス 機密データ

2023年11月29日に発表されたばかりのAIチャットサービス「Amazon Q」にプライバシーの問題がある可能性が報じられました。一部の従業員によるとAmazon Qはひどい幻覚(ハルシネーション)に襲われることがあり、Amazon Web Services(AWS)のデータセンターの場所などを漏らすことがあるそうです。 Amazon’s Q has ‘severe h... 続きを読む

【Claude 2.1】ChatGPTの代替ツールとなるか?Claude 2の最新モデルを使ってみた | WEEL

2023/11/24 このエントリーをはてなブックマークに追加 9 users Instapaper Pocket Tweet Facebook Share Evernote Clip chatgpt WEEL 未然 代替ツール Claude 2

WEELメディア事業部AIライターの2scとLLMリサーチャーのゆうやです。 2023年11月21日、以前からChatGPT超えを噂されていたClaude 2の新モデルが登場しました!名前も「Claude 2.1」と改め、なんと書籍500ページ分以上の文章が処理できるように進化しています。 さらにハルシネーションを未然に検閲する機能も強化!『200... 続きを読む

ChatGPTが既成事実化するウソ 深刻化するネットの情報汚染

2023/10/11 このエントリーをはてなブックマークに追加 7 users Instapaper Pocket Tweet Facebook Share Evernote Clip chatgpt 妄言 チャットGPT 真偽 生成AI

対話型人工知能(AI)「ChatGPT(チャットGPT)」などの生成AIが、ネット上の情報を汚染している。ネット上にはAIが作り出したもっともらしい「ハルシネーション(妄言)」とみられる真偽不明の情報があふれ始めた。生成AIによるウソの中には半ば既成事実と化し、上場企業のウェブサイト上やメディア報道にも用いられる... 続きを読む

AIがハルシネーション(Hallucination)を起こす最大の理由 - Qiita

2023/07/10 このエントリーをはてなブックマークに追加 23 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita 幻覚 文脈 知覚 ウソ

ハルシネーション(Hallucination)とは? もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 なぜハルシネーションを起こす... 続きを読む

「GPT-3.5」vs「GPT-4」--「ChatGPT Plus」は月額20ドルの価値があるか?

2023/06/21 このエントリーをはてなブックマークに追加 8 users Instapaper Pocket Tweet Facebook Share Evernote Clip GPT-4 ChatGPT Plus GPT-3.5 価値

自らの疑問に対する正確な回答をテキストで返してほしいという場合、この有償サービスは最初の大衆向けバージョンである「GPT-3.5」よりもずっと優れていると筆者は実感している。 誤解しないでもらいたい。GPT-4であっても依然として誤り、つまり「ハルシネーション」(もっともらしいウソ)を生成し得る。しかし、難し... 続きを読む

Chat-GPTを使っていたら「視覴」という見慣れない言葉を吐き出したのだがAIが生み出した存在しない単語なのでは…?

2023/06/08 このエントリーをはてなブックマークに追加 40 users Instapaper Pocket Tweet Facebook Share Evernote Clip Chat-GPT Chat GPT 単語 文章 言葉

フガクラ @fugakura 怖ぇー、chat gpt使ってたら「視覴」という見慣れない言葉を吐き出したので検索したところ、ヒットするサイトがほとんど直近日付のAI出力された文章だった これっていわばAIのハルシネーションが生み出した存在しない単語なのでは…? pic.twitter.com/TVXWcNlVWh 2023-06-08 08:51:02 続きを読む

1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される

2023/05/26 このエントリーをはてなブックマークに追加 140 users Instapaper Pocket Tweet Facebook Share Evernote Clip GORILLA 付き物 幻覚 Bard API

近年はChatGPTやBardなどの対話型AIが相次いでリリースされ、人間の質問や呼びかけに対して非常に高精度な回答ができることで注目を浴びていますが、これらの対話型AIは時に真実ではないことを真実かのように話す「ハルシネーション(幻覚)」を起こすことがあります。そこで、膨大な数のAPIから適切なものを呼び出し、幻... 続きを読む

ChatGPTなどLLMの弱点“ハルシネーション” 「GPTは要素技術だ。商用という意味では遠い」

2023/05/23 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip LLM GPT chatgpt 弱点 商用

ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。 ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした... 続きを読む

「機械の中の幽霊」ならぬ「AIの中の幻覚」? AIの「ハルシネーション」について考える - YAMDAS現更新履歴

2023/02/19 このエントリーをはてなブックマークに追加 15 users Instapaper Pocket Tweet Facebook Share Evernote Clip 幻覚 幽霊 YAMDAS現更新履歴 機械

xtech.nikkei.com 中田敦さんが厳しい論調の文章を書いている。 これに対して、楠正憲さんが「自動運転と違って人命に関わる訳でもなく」と反応しているが、正直これには驚いた。楠正憲さんも2016年の WELQ 騒動を知らないわけはあるまい。検索結果は人命にかかわると言えるのではないか。 この騒動を機に、医師会やジャ... 続きを読む

 
(1 - 14 / 14件)