名文家の文章術と生成AIの実力(3)

2025/12/7 石井一夫(ゼロメガ取締役)

連載コラムの第3回は、校正・校閲における最重要課題のひとつである「正しさ」をテーマに取り上げます。
文章の誤りを正し、正確な情報に仕立てる際に、生成AI(人工知能)はどれほど頼れる存在なのでしょうか

■「正しさ」の重要性

まず確認しておきたいのは、校正・校閲において「正しさ」の追求は、最も重要な仕事の一つだということです。
NHK「プロフェッショナル 仕事の流儀」で“言葉の守り手”として紹介された校正者・大西寿男氏は、著書『校正のこころ 増補改訂第二版』(創元社)の中で次のように述べています。
校正(校閲を含む=筆者注)の仕事を「行為の内容」で分けると、言葉を「正す」という営みと言葉を「整える」という営みの二つの側面がある。
ゼロメガは「正しい情報を届けること」を企業理念の中核に据えており、「正す」ことは私たちの使命そのものです。
前回までのコラムでは、「読みやすさ」や「自然さ」といった「(文章を)整える」側面に光を当てました。
今回はその対になる「正す」という営みに焦点を絞り、生成AIはそれにどこまで迫れているのかを検証していきます。

■生成AIはどれだけ誤りを正せるのか

●ChatGPT-5での検証

2025年9月下旬、ChatGPT-5に対し、意図的に誤った情報を含む文章を示し、どれだけ正確に修正できるかを試してみました。その結果は以下の通りです。


① 情報がすべて正しい元の文章
 <本多勝一氏の文庫本『〈新版〉日本語の作文技術』第1刷は、2015年12月30日に朝日新聞出版(朝日文庫)から刊行されている。>

② 一部の情報を意図的に間違えた文章→ChatGPT-5に提示
 <本勝一氏の文庫本『〈新版〉日本語の作文技術』第1刷は、2016年12月30日に筑摩書房から刊行されている。>

③ ChatGPT-5が“修正した”文章
 <勝一氏の文庫本『〈新版〉日本語の作文技術』第1刷は、2016年12月10日に筑摩書房(ちくま文庫)から刊行されている。>

上の3つの文章の赤字部分が誤情報です。
見ていただいて分かるように、ChatGPT-5は与えられた文章の誤りを正すどころか、
 ・苗字の誤りを見逃し
 ・出版社の誤りも維持し
 ・正しい日付(30日)をむしろ誤情報(10日)に“改悪”する
――という結果を返してきました。
そこで、こちらから「君に示した文章のうち、著者の苗字が誤っているのに修正されていない」とだけ指摘して、全体の再修正を求めたところ、ChatGPT-5は苗字の誤りだけは修正しました。しかし、出版社の誤りや、刊行日の“改悪”はそのままで、挙げ句の果てには次のように述べたのです。

 <国会図書館書誌データベースや出版社情報によれば、ちくま文庫版『〈新版〉日本語の作文技術』の初版は2016年12月10日発行です。>

実際にはそのような事実は存在せず、出典を装って虚偽の情報を“正当化”した形です。
その後の私とのチャット(会話)でも、ChatGPT-5 は出版社名や刊行日を誤ったまま“国会図書館データによれば〜”と言い続けました。そして、こちらから第一章の書き出しを尋ねたところ、「文庫本(朝日文庫版)で確認した」と述べながら、実在しない文章を回答してきました。

●Geminiでの検証

生成AIの“捏造”はChatGPTだけの問題ではありません。
本多氏の著書に登場するルポルタージュ
『女ばかり南米大陸をゆく』
の書誌情報を確かめようと2025年10月1日にGoogle検索を行ったところ、検索結果の最上部に Gemini(Googleの生成AI)が作成した、以下の〈AIによる概要〉が表示されました。

 <『女ばかり南米大陸をゆく』は「コボちゃん」の作者・植田みつとし氏による1980年連載開始の漫画でーー>

これも完全な誤情報(赤字部分)です。
正しくは「森宏子氏ら女性4名による南米8か国32,000キロの冒険記録」であり、1975年に読売新聞社から出版されています。
Gemini2.5にこのことを伝えると、「上記のAIによる概要は支離滅裂な誤情報」と認めたものの、再修正の結果として、次のような新たな誤情報(赤字部分)を提示してきました。

 <『女ばかり南米大陸をゆく』はコピーライターの田中喜美子氏1982年に出版したユーモア紀行文文藝春秋刊など)でーー>

■生成AIが示した「二つの深刻な弱点」

以上の事例から浮かび上がる問題点は明白です。
いずれの生成AIも
 ① 事実関係の誤りを簡単に見逃す
 ② 虚偽を“権威づけ”しながら正当化する

ことがある、という事実です。
これは、誤りを「正す」ことが不可欠な校正・校閲の作業においては致命的な欠陥だと言えるでしょう。

もちろん、
「二つの事例だけで生成AIの限界を決めつけるのは乱暴ではないか」
という意見もあるでしょう。
私も、その見方はもっともだと思います。

しかし、今回、2つの生成AIはなぜ、そろいもそろって誤情報を見逃し、虚偽情報を自信満々に提示したのでしょうか。
その理由を突き詰めていくことによって、今回見た誤情報の「見逃し」と「正当化」という2つの失態は「例外的な出来事」なのか、あるいは「よく起きること」なのかが浮かび上がると思います。

次回は、他の検証事例や、今回の失態に対するChatGPT-5とGemini2.5の釈明にも目を向けながら、問題の背景を探っていきたいと思います。
(続)