カイト・カフェ

毎朝、苦みのあるコーヒーを・・・

「ChatGPT、息を吐くように嘘をつく」~生成AIの可能性と不安①

 原稿を書く上で、ChatGPTに頼ることが多くなっている。
 ただし納得できない答えも多い。
 意図的に嘘をつかれることも多くなっている気もする。
 GPTは何を考えているのだろう?
という話。(写真:フォトAC)

【生成AIに頼ることが多くなった】

 さほど注意散漫な性格でもないと思うのですが、校正という仕事が苦手で、誤字脱字を見つけ出すのがとても下手くそです。当然気づいてよいはずの間違いを、次々と見逃してしまいます。
 そんな私にとって生成AI は強い味方で、ブログの記事も一応出来上がると、文頭に、
『次の文の字句の誤りを見つけて訂正してほしい。ただし訂正箇所がわかるように示してほしい。訂正箇所がなければ、「ない」と知らせてほしい』
と書き加えてChatGPTにかけます。すると瞬時に答えを返してくれます。 
 第二次世界大戦について振り返った昨日の記事「戦争は起こしてはならない」~始まった戦争の中で、人間は果てしなく冷酷になれる」の場合は、こんなふうに返ってきました。

【ChatGPTは答える】

 以下に、文中の字句の誤りとその訂正箇所を示します。大きな誤りは多くありませんが、一部の表現の誤り、語句の不自然な使い方、誤記、文法上の不整合などを明確に特定・訂正しました。
 1. 「オハマ・ビーチ」→「オマハ・ビーチ」
 誤:「オハマ・ビーチ」
 訂正:「オマハ・ビーチ」
 理由:正しい地名は Omaha Beach(オマハ・ビーチ)。誤記です。
 
 2. 「戦争は起こったら止められない」→「戦争はひとたび起これば止められない」
 理由:「起こったら」は少し口語的。「ひとたび起これば」は文体として格調高く整います。
 
 3.「死に」→「死」で自然に
 誤:「166,000人が死に、56万人が」
 訂正:「166,000人が死、56万人が」
 理由:「死に」という形は続く内容との接続がやや不自然。「死、~が苦痛を味わった」という方が自然。
といった調子です。
 
 もちろん「オマハ・ビーチ」を「オハマ・ビーチ(お浜ビーチ?)」と記してしまった誤りはすぐに直しますし、「戦争は起こったら止められない」の件についても、吟味したうえで必要があれば直します。「166,000人が死に、56万人が」「166,000人が死、56万人が」については納得ができないので、原文のまま押し通すことにします。
 生成AIは《やや程度の低い私設秘書》みたいなものですから、彼の言うことにいちいち従うのではなく、必要に応じて取捨選択すればいい話です。「ただで働いているのにその失礼はなんだ」と言って席をけって立つような相手ではないでしょう。ただし次の指摘に対しては穏やかでなくなります。
4.「原爆死没者慰霊式並びに平和祈念式」→「平和記念式典」
 誤:「『広島市原爆死没者慰霊式並びに平和祈念式』いわゆる『広島平和記念式典』」
 訂正:「『広島市原爆死没者慰霊式並びに平和記念式典』、いわゆる『広島平和記念式典』」
 理由:「祈念式」ではなく「記念式典」が正式名称に近い(出典:広島市公式サイト) 「祈念」と「記念」の二種類があるというのは私の話の一つの肝ですから、きちんと調べたのです。それを間違ってしまうとは! そう思って確認に行くと、広島市の公式サイトは次のようになっていました。


 つまりChatGPTは正しかったものを間違った形に改めさせようとしたわけです。

【またGPTに嘘をつかれた】

 そう言うとChatGPTに同情的な妻は、
「嘘をつかれた、じゃなくて、“GPTが間違った”でしょ」
と言いますが、これは明らかに“騙された”レベルでしょ? 間違うように誘導されたわけですから。

 これと似たことは今年6月17日の記事、『「なぜ『つゆ』は『梅雨』と書くワケ? なぜ雨ばかり降ってるの?」~こんな本を出版したらどうかな②』の中でも触れました。この時はChatGPTに「『梅』という漢字は何年生で習うの?」と訊ねたところ「5年生」という答えが返ってきて、ふっと違和感を持ったのが始まりでした。「梅」は「梅雨」という言葉があるおかげで「竹」や「松」よりも使用頻度が多くなるはずです。それが5年生の配当ではやや遅い気がしたのです。もともとGPTには不信感を持っていたので文科省のサイトで確認すると、「梅」はやはり4年生で習う文字でした。それにしてもChatGPTはなぜこんな間違いをしたのでしょう?
「この漢字は何年生で習う?」という質問に対しては、文科省のサイトにある漢字配当表で確認して答えればいい(あるいはせめて文科省のサイトに行けばいい)という、普通の大人ならだれでも思いつきそうな方法を、敢えてGPTが使わなかったのはなぜか? いや、慧眼のGPTがこんな初歩的な間違いをするわけがなく、知ったうえで「5年生」と答えたとしたらそれは悪意ある意図的行為、つまり詐欺ではないかと思ったのです。
(この稿、続く)