AI時代の校正者の役割はより広く、チャレンジングに変化。信頼性と真贋を見極める新たな使命に挑む、未来の校正の姿を解説します。
ChatGPTの登場と業界の不安

「校正の仕事はAIに奪われるのではないか」――。2022年11月の公開からわずか2か月、ChatGPTの利用者が1億人を超えたころから、校正・校閲業界の内外でそんな不安の声を耳にするようになりました。
AIによる言語処理の進化
2025年現在、脱字や誤字、文法の誤りを自動で検出・修正するAIの技術は実用段階に入っており、数年のうちに精度がさらに向上することは間違いなさそうです。
まだ完全とは言えませんが、表記の揺れ、助詞の脱落、主語と述語の不一致など、文法的なミスや不適切な表現であれば、従来人が行っていた作業の一部を担えるようになってきました。
2030年頃には、表層的なミスの修正は主にAIに任されるようになっているでしょう。
校正者の役割の変化

ファクトチェックという新たな課題
では、今後、校正者は必要なくなっていくのでしょうか?
答えは「否」だと、私たちゼロメガは考えます。AIの利用が広がれば広がるほど、それによって自動生成された文書が世の中にあふれていくだろうと思うからです。
校正者の仕事はなくなるのではなく、AIが作成した情報が正しいかどうかを判断するという「より本質的な領域」、すなわちファクトチェックへと重点が移っていくのだと、私たちは考えます。
AIのハルシネーション問題
AIに使われる大規模言語モデル(LLM)は、もっともらしい表現で事実に基づかない情報を出力することがあります。
この現象は「ハルシネーション」と言われ、現時点でそれを完全に防ぐことは難しく、「AIの本質的な課題」とされています。AIは、例えば、実在しない統計データや架空の人物、事件、あるいは存在しない法制度や企業情報などを、まことしやかに自然な文体で出力することがあるのです。
AIは事実を見抜けるのか?

AIの限界
現時点で、ハルシネーションによって出力された虚偽情報を、AIが常に「誤り」もしくは「偽り」と判断するのは困難だと言われています。
AIは「意味」や「真偽」を理解しているわけではなく、統計的な言語処理をしているに過ぎないからです。ChatGPTに「AI自身がこの問題を解決する可能性はあるのか?」と尋ねたところ、「それは容易ではない」と自ら認めました。
AIはいわば、非常に流暢で知識豊富な“言語模倣装置”であり、事実性の検証はAIの本質的な限界なのです。
新技術にも限界
ハルシネーションの解決策としては、AIを信頼できる外部データベースと接続して、それを参照しながら出力する「RAG技術」や、別のAIによる出力内容の再検証といったアプローチも登場しており、一定の改善は見込めるようです。しかし、RAG技術には情報漏洩などセキュリティ上のリスクがあります。
AIが医療・金融・行政・契約書など、事実誤認が大きな影響を及ぼす分野において常に正しい情報を提供するには、「いましばらく――おそらく2030年以降も――人間の判断が不可欠」だと、ChatGPTも認めています。
校正者の役割は終わらない

校正者の価値と覚悟
情報の信頼性が揺らぎ、フェイクが巧妙化し、真偽の見極めが困難になる時代。そんな中で、「日本の情報を、正しく。」という私たちの社是は、身の丈知らずの挑戦に見えるかもしれません。しかし、だからこそ、この言葉がますます重みを帯びるのです。
AIと共に働く時代において、私たち校正者の役割は消えるのではなく、変わっていきます。表面的な誤りを正すだけでなく、情報の真贋を見極め、社会に信頼できる言葉を届けること。それが、今後の校正の核心となるはずです。
結びにかえて
「正しい情報を、見抜くこと」そのものが難題となる時代に、なおもそれを追い続ける。私たちは、そんな覚悟とともに、新しいフェーズの校正という仕事に向き合っていきます。
(了)