生成AIは電気狼の夢を見るか?
最初は一部の人しか使わないだろうと思っていた生成AIも、ChatGPTや身近なサービスの一分機能として実装されることによって、いつの間にかあらゆる人の生活に馴染み、まるで親友のように活用する人々まで出てくるようになった。画像生成AIのMidjourneyやStable Diffusionとは比べ物にならない速さで浸透したそれは、もはや生活の一部と化している。
確かに生成AIは便利で、文章やコーティングであればClaudeやGeminiを普段から活用している。画像生成や動画生成についても利用しているものの、この2つに比べると頻度は少ない。恐らく一般的なユーザーもChatGPTやGemini、あるいはGrok辺りがメインで、何かを代わりに調べて貰ったり、相談したりといった使い方ばかりなんじゃなかろうか。
しかし気を付けてほしい。生成AIも完璧ではないのだから。
期待への答え、ハルシネーション

最近はもう一般的になってきた気のする言葉に、ハルシネーションというものがある。知らない人向けにざっくり説明すると、これは生成AIが質問にうまく答えようとして、ありもしない話をさも事実かのように話す現象を指す。生成AIを盲信してしまっているとにわかには信じがたい話ではあるものの、少し前の生成AIはとんでもない嘘吐きだった。
たとえば存在しない作品名を考えて、ありもしないストーリーについて語る。それから感想を尋ねると、勝手にストーリーを想像してこちらに寄り添った返事をしてくる。OpenAIの研究チームが発表した論文によると、これは「知らない」と0点の回答をするよりも、試験で言う部分点狙いの回答をしたほうが評価されるシステムによるものらしい。
今の生成AIはそこまで適当な返事はしないが、もしかしたら実在するんじゃないかと思える嘘を交えてしまえば、今でも同様の問題は十分に起こり得る。これを防ぐためには、こちらから回答に対するルールを設けてやる必要がある。嘘を吐くな。論文は引用元を示せ。分からない場合は分からないと答えても良い……など。
これでハルシネーションの頻度を下げることはできるんだけども、生成AIの抱える問題はそれだけじゃない。ちょっとしたやり取りならともかく、ある程度会話が長引いたり長いコードのやり取りをしたりしていると、会話が通じなくなることもある。これはそのチャットにおけるキャパシティが限界を超えることで、処理が狂ってしまうのが原因だろう。
壊れたレコード化現象
夕食について相談をしていて、まずは食材について話す。食材が決まり、今度はメニューの話になる。そして話はレシピから翌日の朝食にまで進み……と会話が長引いていくと、「それで明後日の夕食のレシピについてはどうする?」と話したにも関わらず、「そうですね。明日のお昼は……」と何個か前の会話に対する返答をすることがある。
明日の昼について尋ねられたと思い、ひたすら異なる返答をすることもあれば、こちらが何を聞いても同じ返答を繰り返すこともある。そのことについて指摘しても変わらないこともあり、コードに関していえば「すぐに出力し直します」と修正したコードを出力するようなことを言っておきながら、何一つ変わらないコードを出力することもある。

生成AIは非常に優秀なんだけども、たまにどうしようもないほど混乱した状態になる。そうなってしまうと、基本的にはチャットをやり直さないと解決しない。会話を継続したい部分からやり取りをコピーして、新規のチャットに貼り付けるというのが無難な手と言える。あとはある程度会話が進んだら、「ここまでの会話をまとめてほしい」と伝えておくのもいい。
AIの不具合、それとも
生成AIは嘘を吐くし、パニック状態にもなる。完璧なはずの人工知能として考えたら欠点に違いない。しかし、考え方を変えてみるとそうでもない。知識があり技術もあり、誰に対しても穏やかだが、時として状況次第では嘘を吐き、冷静さを欠いてしまう。この評価だけを基準にすれば、人工知能というよりはむしろ誰よりも人間らしいのではないだろうか。
生成AIの制作者や、利用している立場の人は生成AIが所詮は作り物だと理解している。言い換えれば、何か問題があったとしてもプログラム上の問題だと判断する。否、不具合だと決めつけてしまう。ただ、AIの成長は著しい。イラストも動画も数年で随分と成長した。もしかしたら、既にAIは人間以上に人間らしい生命に進化しているのかもしれない。

気付かない間にみんな洗脳されていたりして。