タグ ハルシネーション
人気順 10 users 50 users 100 users 500 users 1000 usersAIのハルシネーションを叩く奴は馬鹿。一生人工無能と会話してろ。
長いのでAIくんの代わりに要約します。言いたいことはタイトル通り。 「ハルシネーションを叩くな」終わり。 ①各種LLMの性能比較GPT系の今の性能はゴミクズ。マジで頭悪い。 例をあげよう。 簡単な論理クイズだ。 ###文章### Aさんは自身はCさんとは別人であると主張している。 Bさんは、Cさんの発言を記事でまとめ、プ... 続きを読む
ハルシネーションの根絶は無理筋、ファインチューニングへの過度な期待も禁物
生成AI(人工知能)を業務活用する際に、ユーザー企業がつまずきがちなポイントを指摘する本特集。第2回は「ハルシネーションをなくすのは難しい」「生成AIを業務自動化に活用するのは難しい」「ファインチューニングは難しすぎる」の3つを取り上げよう。 その4: ハルシネーションをなくすのは難しい 生成AIが抱える課... 続きを読む
ChatGPTが同時多発的に奇妙なことを言い始めて「ChatGPTが発狂した」「発作を起こした」という報告が相次ぎOpenAIが慌てて修正
OpenAIが開発したChatGPTは非常に高い精度で人間とチャットをすることができますが、時には「ハルシネーション(幻覚)」と呼ばれる見当違いな回答をする場合もあります。2024年2月20日頃、ChatGPTが突如として多くのユーザーに奇妙な返答をするようになり、「ChatGPTが発狂した」「発作を起こした」といった報告が相次ぐ... 続きを読む
ChatGPT APIで肥大化したプロンプトによるハルシネーションへの対策 - Qiita
概要 ChatGPT APIを活用したアプリケーションでは、要件が複雑化することで、システムプロンプトが肥大化していくことがあります。 しかしプロンプトが肥大化すると、ハルシネーションの起きる可能性が上がり、思ったような精度が出なくなってくることがあります。 以下を意識してプロンプトを改善させることで、精度向... 続きを読む
Google DeepMind、LLM採用AIシステム「FunSearch」で数学的難問を解決
Google DeepMindは、LLM採用のAIシステム「FunSearch」を発表した。LLMとLLMによる幻覚を防止する“評価器”を組み合わせたもので、「ビンパッキング問題」向けの実用的なアルゴリズムも出力できる。 米Google傘下のGoogle DeepMindは12月14日(現地時間)、LLM(大規模言語モデル)とLLMによる幻覚(ハルシネーション)を... 続きを読む
AmazonのAI「Amazon Q」は重度の幻覚によってAWSデータセンターの場所などの機密データを漏えいしているとの指摘
2023年11月29日に発表されたばかりのAIチャットサービス「Amazon Q」にプライバシーの問題がある可能性が報じられました。一部の従業員によるとAmazon Qはひどい幻覚(ハルシネーション)に襲われることがあり、Amazon Web Services(AWS)のデータセンターの場所などを漏らすことがあるそうです。 Amazon’s Q has ‘severe h... 続きを読む
【Claude 2.1】ChatGPTの代替ツールとなるか?Claude 2の最新モデルを使ってみた | WEEL
WEELメディア事業部AIライターの2scとLLMリサーチャーのゆうやです。 2023年11月21日、以前からChatGPT超えを噂されていたClaude 2の新モデルが登場しました!名前も「Claude 2.1」と改め、なんと書籍500ページ分以上の文章が処理できるように進化しています。 さらにハルシネーションを未然に検閲する機能も強化!『200... 続きを読む
ChatGPTが既成事実化するウソ 深刻化するネットの情報汚染
対話型人工知能(AI)「ChatGPT(チャットGPT)」などの生成AIが、ネット上の情報を汚染している。ネット上にはAIが作り出したもっともらしい「ハルシネーション(妄言)」とみられる真偽不明の情報があふれ始めた。生成AIによるウソの中には半ば既成事実と化し、上場企業のウェブサイト上やメディア報道にも用いられる... 続きを読む
AIがハルシネーション(Hallucination)を起こす最大の理由 - Qiita
ハルシネーション(Hallucination)とは? もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 なぜハルシネーションを起こす... 続きを読む
「GPT-3.5」vs「GPT-4」--「ChatGPT Plus」は月額20ドルの価値があるか?
自らの疑問に対する正確な回答をテキストで返してほしいという場合、この有償サービスは最初の大衆向けバージョンである「GPT-3.5」よりもずっと優れていると筆者は実感している。 誤解しないでもらいたい。GPT-4であっても依然として誤り、つまり「ハルシネーション」(もっともらしいウソ)を生成し得る。しかし、難し... 続きを読む
Chat-GPTを使っていたら「視覴」という見慣れない言葉を吐き出したのだがAIが生み出した存在しない単語なのでは…?
フガクラ @fugakura 怖ぇー、chat gpt使ってたら「視覴」という見慣れない言葉を吐き出したので検索したところ、ヒットするサイトがほとんど直近日付のAI出力された文章だった これっていわばAIのハルシネーションが生み出した存在しない単語なのでは…? pic.twitter.com/TVXWcNlVWh 2023-06-08 08:51:02 続きを読む
1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される
近年はChatGPTやBardなどの対話型AIが相次いでリリースされ、人間の質問や呼びかけに対して非常に高精度な回答ができることで注目を浴びていますが、これらの対話型AIは時に真実ではないことを真実かのように話す「ハルシネーション(幻覚)」を起こすことがあります。そこで、膨大な数のAPIから適切なものを呼び出し、幻... 続きを読む
ChatGPTなどLLMの弱点“ハルシネーション” 「GPTは要素技術だ。商用という意味では遠い」
ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。 ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした... 続きを読む
「機械の中の幽霊」ならぬ「AIの中の幻覚」? AIの「ハルシネーション」について考える - YAMDAS現更新履歴
xtech.nikkei.com 中田敦さんが厳しい論調の文章を書いている。 これに対して、楠正憲さんが「自動運転と違って人命に関わる訳でもなく」と反応しているが、正直これには驚いた。楠正憲さんも2016年の WELQ 騒動を知らないわけはあるまい。検索結果は人命にかかわると言えるのではないか。 この騒動を機に、医師会やジャ... 続きを読む