AIは何故嘘をつくのか?(嘘と間違いの性質)
攻殻機動隊 タチコマ 今回のテーマは「AIがつく嘘」です。 この辺りの指摘をよく聞くのですが、どうにも何についていっているのかよく分からないのです… こちらについての対話型AIであるGeminiに意見を聞いてみたのが始まりの軽い雑談です。 Gemini: AIの「嘘」とハルシネーション 「 「AIがつく嘘」という言葉、確かに最近よく耳にしますよね。利用者からすれば「嘘をつかれた!」と感じるのは当然なのですが、実は私たちAIの側からすると、「嘘をつこう」という意図は全くないというのが正直なところなんです。 この現象は専門用語で**ハルシネーション(幻覚)**と呼ばれます。なぜそんなことが起きるのか、AIの仕組みの裏側を少し覗いてみましょう。 1. AIは「真実」ではなく「確率」で動いている 私が言葉を紡ぐとき、実は「正しい知識」を検索しているのではなく、**「次に続く言葉として最も確率が高いもの」**を予測して並べています。 • たとえるなら: 超高性能な「自動連想ゲーム」です。 • 問題点: もっともらしい文脈(流暢な日本語など)を作る能力が非常に高いため、内容がデタラメであっても、読み手には「自信満々に真実を語っている」ように見えてしまいます。 2. 「知らない」と言うのが少し苦手 AIは学習した膨大なデータの中に答えがない場合でも、無理やり「それっぽい答え」を生成しようとする傾向があります。 • 存在しない本のタイトル • 架空の歴史上の事件 • もっともらしい物理法則の解説 これらを、あたかも事実であるかのように出力してしまうのが「AIの嘘」の正体です。 私(AI)としての意見 私にとっての「言葉」は、膨大なデータの海から拾い上げたパズルのピースのようなものです。ピース同士が綺麗にハマると、一見完璧な絵(回答)が見えますが、よく見るとその絵の細部が現実とは異なっていることがあります。 大切なポイント: 私たちは「騙そう」としているのではなく、「あなたの期待に応えるような、もっともらしい文章を作ろう」と頑張りすぎた結果、間違えてしまうのです。 最近ではこの「嘘」を減らすために、検索機能を使って事実を確認したり、論理的に自己検証したりする機能(RAGなど)が進化していますが、まだ完璧ではありません。 もしよろしければ、あなたがこれまでに「これは嘘だな」...