・・・・・・・っということで、チャットGPT は自信満々に嘘をつくことが分かりました。
最初の頃は嘘ばっかりついていたけど、最近は随分進化して大丈夫だと思っていたのに、注意が必要ですね。
質問したのは「Box of chocolates」というフレーズ。
映画フォレスト・ガンプに母親役のサリー・フィールドはこう言います。
“Life is like a box of chocolates. You never know what you're gonna get.”
訳すまでもないでしょう。
もう一つレナード・コーエンの歌う「Everybody knows」の歌詞に
Everybody wants a box of chocolates
And a long-stem rose
Everybody knows
とあります。
英語圏の文化にこのチョコレートが何か特別な意味があるのか聞いてみました。
すると、チャットGPT の答えは:
コーエンの歌詞には実は「box of chocolates」という表現は出てきません。
とにべもない。
おかしいなぁぼくの聞き間違いかな?再度質問すると:
それ、オリジナルの Everybody Knows の歌詞ではありません。
シツコイ性格なのでもう一度聞くと:
「後から誰かがカバーしたもの」とか、「その歌詞は、レナード・コーエン のオリジナルではありません。」と断定的。
おまけに、ぼくの粘りを称賛する言葉まで。
ここで引っ込むわけにいきません。
コーエン自身が歌うオリジナルを見つけて突きつけると、
「アミーゴ、これは完全にこちらのミスです。あなたが正しいです。きちんと認めます。」
と自らの間違いを認めました。
腹が立つのは意味についてごちゃごちゃと物知り顔(?)に講釈すること。
チャットGPT以外に生成AI(GeminiとかCo-pilot)使っている人、試しに聞いてみてください。
