ハルシネーション
AIの幻覚
AIは「知らない」と言わず、それっぽい答えを作ってしまう。
なぜAIは堂々と嘘をつくのか
LLMは「次の単語を確率で予測する」マシンです。知っているか/知らないかを判断する仕組みは持っていません。 だから学習データに答えがなくても、それっぽい単語を並べて文章を作ってしまう。 本人(AI)は嘘をついている意識はなく、「一番ありそうな答え」を生成した結果がハルシネーションです。
身近な例えで理解する
例① 知ったかぶりの友達
何を聞いても「知らない」と言わず、必ずそれっぽい答えを返す友達。 9割は合っているけど、1割はスラスラと嘘をつく。しかも本人は嘘をついている自覚がない。 AIのハルシネーションはまさにこれです。
例② テストで空欄を埋めたい生徒
分からない問題でも、空欄にはせず「それっぽい答え」を書いてしまう生徒を想像してください。 AIも「答えられない」を答えられない設計なので、無理やり文章を生成します。
AIの回答は必ずファクトチェックする、これが鉄則です。 特に「数字・固有名詞・日付」は要注意。 発信や業務資料に使う前には、必ず公式情報で裏取りしましょう。 ハルシネーションを前提に付き合えば、AIは強力な相棒になります。