← 一覧に戻る AI · Visual Glossary
04 · A. AIの基本概念
Hallucination

ハルシネーション

AIの幻覚

Animation
日本の初代内閣総理大臣は?
板垣退助です。自由民権運動で有名ですよね!
🔍 ファクトチェック中…
✗ 誤り。正解は 伊藤博文(1885年〜)

AIは「知らない」と言わず、それっぽい答えを作ってしまう。

なぜAIは堂々と嘘をつくのか

LLMは「次の単語を確率で予測する」マシンです。知っているか/知らないかを判断する仕組みは持っていません。 だから学習データに答えがなくても、それっぽい単語を並べて文章を作ってしまう。 本人(AI)は嘘をついている意識はなく、「一番ありそうな答え」を生成した結果がハルシネーションです。

身近な例えで理解する

例① 知ったかぶりの友達

何を聞いても「知らない」と言わず、必ずそれっぽい答えを返す友達。 9割は合っているけど、1割はスラスラと嘘をつく。しかも本人は嘘をついている自覚がない。 AIのハルシネーションはまさにこれです。

例② テストで空欄を埋めたい生徒

分からない問題でも、空欄にはせず「それっぽい答え」を書いてしまう生徒を想像してください。 AIも「答えられない」を答えられない設計なので、無理やり文章を生成します。

📝
まとめ

AIの回答は必ずファクトチェックする、これが鉄則です。 特に「数字・固有名詞・日付」は要注意。 発信や業務資料に使う前には、必ず公式情報で裏取りしましょう。 ハルシネーションを前提に付き合えば、AIは強力な相棒になります。

More · Next Step

AI活用の実例・失敗談を、シェアしているオープンチャットがあります。単語を覚えたあと、実際の使い方に触れたい方へ。