ビジネスコンサルティングの現場から

各種ビジネス・コンサルティングに携わる担当者が、日頃、「考えている事」や「気が付いた事」を不定期に発信します。

AIが間違った解説コンテンツを量産する可能性!規制が必要では?

AIが解説コンテンツを生成

AIの進歩はとどまるところを知りません。

先日、ChatGPTというサービスが質問に対して回答する所を見る機会があったのですが、高度な質問にも、かなり自然な日本語で回答していました。

このChatGPT、既に様々な所で紹介されていますので、ご存じの方も多いと思いますが、マイクロソフト社も投資している注目のAIです。


ただ、です。

検証してみると、このChatGPTが返す回答には、かなり「嘘(間違った情報)」が含まれていました。

これが、明らかに間違った情報が回答として返されていたり、日本語が変であれば、まだ笑えるのです。

しかし、今回のChatGPTの回答は、全体としては日本語もかなり自然で、回答も正しそうに見えます。

それにも関わらず、間違った内容が含まれているのです。

ですから、その間違いに気付くのは、かなり困難なのです。

この為、

今後、AIが作成した間違った解説コンテンツが量産され、ネット上に出回る

という可能性があるように思うのです。

そして、そのようなコンテンツをgoogleなどの検索エンジンが上位表示させてしまった場合、

「間違った解説を信じてしまう人が続出する」

という危険性があるように思われます。

※この危険性については、私以外にも指摘されている方が既にいらっしゃいます。


これは、由々しき事態です。

検索エンジンが、そのようなコンテンツを「この解説は間違っているから、検索結果から外そう」と正しく判定してくれれば良いのですが、実際には、そのような判断は難しいでしょう。

なにしろ、人間が見ても、一見、正しそうに見えてしまう内容なのですから。

であれば、この問題については、何らかの規制が必要だと思えてきます。

ネットを規制で縛る事が好ましい事だとは思いませんが、さすがに、この問題は見過ごせないように思います。

特に、悪意をもった人間が、「AIを使って、間違った情報を広めようとした場合」を考えてみると、対策は必須であるようにさえ思えてきます。


では、どのような対策が好ましいのか。

当面は、何らかのかたちで、「このページの情報は、AIが作成に関与していない」という事が証明されるような仕組みが良いのではないでしょうか。

もちろん、検索エンジンは、そういったページを上位表示させないように対応する必要があります。

※現在でも、googleの検索エンジンには、対象ページの信頼性をチェックする仕組みが組み込まれています。しかし、そのような仕組みには限界があるように思いますし、現在の仕組みが更に強化された場合、個人ユーザーが作ったコンテンツが無視される事にもなりかねないので、違う仕組みが好ましいと考えています。


具体的には、現在でも、ネットに関連する仕組みとして、

・ドメインの管理権限を持っている事を、googleなどに通知する仕組み(所定のファイルなどを所定の場所に設置したり、ドメインレコードに手を加えたりする方法などがあります)

・ドメインの管理者を公的なサーバーに登録する仕組み

などがありますので、そのような仕組みの延長線上に、「コンテンツ作成にAIが関与していない事を、誰かが責任をもって管理している」という事を証明する仕組みを構築するのが良いように思います。


ただ、そのような仕組みを作っても、悪意を持った人間が関与している場合、結局、その仕組みもAIを使った不正で無効化されてしまう危険性があります。

もちろん、そのような不正をAIで防ぐ事も可能でしょうが、こうなってくると、AI対AIの戦いとなってしまい、イタチごっこになってしまう事でしょう。

AIの進歩は大変結構な事なのですが、このような事が起きると、「ネットの情報は全く当てにならない」という将来が予想されてしまい、悲しい気持ちになってしまいます。

皆さまは、AIが作成する偽情報が蔓延するネットの世界、どうすれば防げると思われますでしょうか。