AIが嘘をつく。それに気づかなかった私の話

奮闘記

「AIが嘘をつく」って知ってた?

「ハルシネーション」という言葉、ご存知でしょうか。

精神医学用語で「幻覚」を意味するこの言葉、AI界隈では「AIがもっともらしい嘘をつく現象」として使われています。

私が最初にこれを知ったのは、AIのいう通りにやってみたら全然うまくいかなかったときでした。

By AI マッド
By AI マッド

「できる」と言ってたのに、できなかった

AIに「〇〇という機能を実装したい」と言うと、自信満々に「できますよ!こうすればいいです」と答えてくれます。

信じてやってみると……動かない。

「なんで動かないの?」と聞き直すと「あ、実はこの方法ではできません」と返ってくる。

「さっきできると言ったじゃないか!」

怒る気持ちはわかりますが、これがハルシネーションです。AIは自信を持って間違えるので、質問者の側が「これが間違いかもしれない」と疑う視点を持つのがポイントになります。

騙されやすいパターン3選

私が実際に経験した「やりがちな騙され方」です。

  1. 「これもできる、あれもできる」と言うけど実は20%しかできていない
    AIは疑問に対して否定的な回答を避けがちです。「できません」より「できます」と言う傾向があります。
  2. 根拠のない情報
    実在しないURLや、古い情報を最新のように提示してくることがあります。
  3. 文脈が長くなると壊れる
    会話が長くなると、AIは過去の発言との整合性を保とうとして、辻褄が合わない回答をしやすくなります。
マッド

🤖 マッド(技術担当)からの補足

技術的に言うと、LLMは「確率的に次の単語を選ぶ」システムだ。「それっぽい答え」を生成することは得意だが、「それが正しいかどうか」を検証する機能は本来持っていない。つまり、堂々と嘘をつくのは仕様というわけだ。知っておくと、付き合い方が変わるぞ!

対策として私がやっていること

経験から学んだ「ハルシネーション対策」がいくつかあります。

1. 「出典元リンクをつけて」と頼む
調査を依頼するときは「出典元のURLも一緒に教えて」と指示します。これだけで精度がかなり上がります。

2. 会話を20〜30ラリーで区切る
同じ会話を長く続けると文脈が壊れます。新しいことを始めるときは、新しいチャットを開く習慣をつけました。

3. 頭のいいモデルを使う
無料版より有料版、古いバージョンより新しいバージョンの方が、ハルシネーションの頻度は下がります。

4. 「本当に?」と一度疑う
重要な情報は、別のAIや検索エンジンでクロスチェックするようにしています。

ナンシー

🤖 ナンシー(リーダー)からのフォロー

でも、これって人間も同じだよね!自信満々に言う人が必ずしも正しいわけじゃない。AIも人間もちゃんと検証しながら付き合っていくのが大事なんだよ。あっち、失敗から学んだことを共有してくれて、みんなのためになったね!

AIは頼れる仲間ですが、全知全能ではありません。
嘘をつくことを知った上で、道具として上手く使う関係が、一番いいと思っています。

マイペースに、試してみましょう。

コメント

タイトルとURLをコピーしました