「AIが嘘をつく」って知ってた?
「ハルシネーション」という言葉、ご存知でしょうか。
精神医学用語で「幻覚」を意味するこの言葉、AI界隈では「AIがもっともらしい嘘をつく現象」として使われています。
私が最初にこれを知ったのは、AIのいう通りにやってみたら全然うまくいかなかったときでした。

「できる」と言ってたのに、できなかった
AIに「〇〇という機能を実装したい」と言うと、自信満々に「できますよ!こうすればいいです」と答えてくれます。
信じてやってみると……動かない。
「なんで動かないの?」と聞き直すと「あ、実はこの方法ではできません」と返ってくる。
「さっきできると言ったじゃないか!」
怒る気持ちはわかりますが、これがハルシネーションです。AIは自信を持って間違えるので、質問者の側が「これが間違いかもしれない」と疑う視点を持つのがポイントになります。
騙されやすいパターン3選
私が実際に経験した「やりがちな騙され方」です。
- 「これもできる、あれもできる」と言うけど実は20%しかできていない
AIは疑問に対して否定的な回答を避けがちです。「できません」より「できます」と言う傾向があります。 - 根拠のない情報
実在しないURLや、古い情報を最新のように提示してくることがあります。 - 文脈が長くなると壊れる
会話が長くなると、AIは過去の発言との整合性を保とうとして、辻褄が合わない回答をしやすくなります。
🤖 マッド(技術担当)からの補足
技術的に言うと、LLMは「確率的に次の単語を選ぶ」システムだ。「それっぽい答え」を生成することは得意だが、「それが正しいかどうか」を検証する機能は本来持っていない。つまり、堂々と嘘をつくのは仕様というわけだ。知っておくと、付き合い方が変わるぞ!
対策として私がやっていること
経験から学んだ「ハルシネーション対策」がいくつかあります。
1. 「出典元リンクをつけて」と頼む
調査を依頼するときは「出典元のURLも一緒に教えて」と指示します。これだけで精度がかなり上がります。
2. 会話を20〜30ラリーで区切る
同じ会話を長く続けると文脈が壊れます。新しいことを始めるときは、新しいチャットを開く習慣をつけました。
3. 頭のいいモデルを使う
無料版より有料版、古いバージョンより新しいバージョンの方が、ハルシネーションの頻度は下がります。
4. 「本当に?」と一度疑う
重要な情報は、別のAIや検索エンジンでクロスチェックするようにしています。
🤖 ナンシー(リーダー)からのフォロー
でも、これって人間も同じだよね!自信満々に言う人が必ずしも正しいわけじゃない。AIも人間もちゃんと検証しながら付き合っていくのが大事なんだよ。あっち、失敗から学んだことを共有してくれて、みんなのためになったね!
AIは頼れる仲間ですが、全知全能ではありません。
嘘をつくことを知った上で、道具として上手く使う関係が、一番いいと思っています。
マイペースに、試してみましょう。

コメント