ビジネスコンサルティングの現場から

各種ビジネス・コンサルティングに携わる担当者が、日頃、「考えている事」や「気が付いた事」を不定期に発信します。

政府の論点整理を使ってAIのリスクを確認してみる

AIとリスク AIに関する論点整理 AI戦略会議

chatGPTの登場以降、AIを活用する検討が各所で加速しています。

同時に、AIのリスクについても注目が集まっています。

そんな中、政府の「AI戦略会議」が「AIに関する暫定的な論点整理」という資料をまとめました。

なかなか良くまとまっていると思いますし、政府の検討も、今後、この論点整理を参考にしながら行われていくと予想されます。

そこで、「AIに深く関与していない社会人でも、知っておいた方が良いAIリスク」というテーマで、この論点整理の内容を、補足をしながらご紹介させて頂こうと思います。


最初に、「AIに関する暫定的な論点整理」の概略について少し。

AI戦略会議による「AIに関する暫定的な論点整理」は、「生成AIを中心にAIに関する論点を整理」したものであり、「政府関係者の参考となることを期待」するものであると位置づけられています。

AI戦略会議の構成員(メンバー)は、弁護士、大学教授(准教授)、IT関係の経営者から構成されており、政府側参加者としては、岸田総理以下、関係大臣などが名前を連ねています。

発表されたのは、2023年5月26日。多少の時期ズレはありますが、広島サミットと同時期の発表と捉える事が出来ます。


ここからは、その「AIに関する暫定的な論点整理」の中で取り上げられている具体的なリスクについて。

「AIに関する暫定的な論点整理」の中では、様々な「AIに関するリスク」について、論点整理が行われています。


まず、「懸念されるリスク」として、まず、以下の7つのリスクが取り上げられています。

1.機密情報の漏洩や個人情報の不適切な利用のリスク
2.犯罪の巧妙化・容易化につながるリスク
3.偽情報等が社会を不安定化・混乱させるリスク
4.サイバー攻撃が巧妙化するリスク
5.教育現場における生成AIの扱い
6.著作権侵害のリスク
7.AIによって失業者が増えるリスク


それぞれについて、簡単に補足しておきます。


社会人であれば、「1.機密情報の漏洩や個人情報の不適切な利用のリスク」については、特に理解しておくべきでしょう。

個人情報や外部に流出しては不味い情報を扱う場合には、「生成AIが、利用中に提供された情報を蓄積してしまう(そして、その内容を第三者に開示してしまう)」という可能性については、十分に注意をしておくべきです。

基本的には、勤務先が問題がない事を確認しているサービス以外では、そのような情報を入力しないようにするべきです。

また、この論点整理では、以下のような点についても触れています。見落としがちな点もあり、改めて、確認しておく必要があるように感じました。

・利用者が認識しない中で、生成AIが利用者との対話情報を蓄積し、広告配信などの目的で利用するなどのリスクがある。

・文章で対話する生成AIには、従来のキーワード検索などと比べ、「利用者が何に関心を持っているのか」などの情報が収集されやすい可能性がある。

・インターネット上で開示されている情報をAIが収集し、特定の個人についての情報をプロファイリングしてしまう可能性がある。


「2.犯罪の巧妙化・容易化につながるリスク」「3.偽情報等が社会を不安定化・混乱させるリスク」「4.サイバー攻撃が巧妙化するリスク」については、これらは、以前からAIの高度化に伴う問題点として指摘されてきたものです。

「犯罪に活用できてしまう情報が、より入手しやすくなる」という事は以前から予想されていた事ですし、サイバー攻撃にAIが活用される事で、より、防御が難しくなる事も予想されてきました。

また、AIを活用して作られた偽情報が使われる事で、世論がコントロールされたり、選挙結果に影響が出たり、といった事も、以前から報じられている内容です。

なお、この論点整理で取り上げられている以下のような点については、見落とされがちなポイントであるように思いました。

・AIに蓄積された情報を削除する事は、通常のネット上で配信されている情報を削除する以上に難しい(AIが学習した内容から、それらの情報を削除させるのが難しい)。

・AIが人種・性別・地域などの観点で、偏った情報を出力する事がある(結果、それを盲目的に信じた人が間違ったり偏ったりしている知識を身につけてしまう)。

ちなみに、以下の問題については、あらゆるインターネットユーザーに、すぐに影響が出る事になると思われます。

・なりすましメールの文面が、AIの活用によって、より巧妙なものになる(なりすましメールを偽物と判定するのが難しくなる)。


「6.著作権侵害のリスク」については、一般の社会人であれば、深く考えた事がない人が多いポイントかもしれません。

しかし、このポイントは、AIの活用を制約する大きなリスクになるかもしれません。

AIを活用した企業活動においては、当然、著作権には留意する必要があります。

しかし、AIは著作権について適切に配慮したインプットをしていない可能性があり、結果、アウトプットは、そのまま活用すると、著作権を侵害してしまうリスクがあるのです。

海外では、既に、自分の作品をAIに盗用された、という被害報告が上がっています。

そして、通常、AIが出力した結果が、「どのようなインプットをもとにした結果なのか」という事を、利用者が意識する事は困難です。

ですから、「AIの出力結果を参考にした上で、そこから全て調べ直す」というスタンスでAIを活用するのであれば良いのですが、「AIの出力結果をそのまま使う」という事は、アウトプットの信頼性の問題と共に、著作権の点からも問題がありそうです。

なお、今後、「AIが作成したので著作権は問題ない」と無意識に考えてしまう人は増えてくるようにも思いますので、そういった意味でも、このリスクには要注意であるように思います。


「5.教育現場における生成AIの扱い」や「7.AIによって失業者が増えるリスク」については、コメントを省略したいと思います。

これらのリスクについては、改めて解説するまでもないでしょうし、同時に、簡単に対応方針が固まる問題でもないように思われます。


以上が、「AIに関する暫定的な論点整理」で「懸念されるリスク」として挙げられているリスクです。


そして、「AIに関する暫定的な論点整理」では、これらのリスクとは別に、「生成AIを利用しないことによるリスク」について、以下の4点を挙げています。

8.開発段階での関与がなければ、AIが有する技術的リスクの把握が困難になる
9.日本が競争力をもたなければ、デジタル赤字がさらに拡大する
10.必要なAIサービスが使えなくなる(供給途絶)
11.AIの理由が進まなければ、日本の生産性が他国よりも低迷する

※著者が内容を修正してリストアップ。

これらの4点については、特に説明は不要と思いますので、補足は行いませんが、前述の7点のリスクに、これらのリスク4点を加えた11点が、「AIに関する暫定的な論点整理」で触れられているAIに関するリスクであると考えられます。

仕事でAIを活用される方は、これらのリスクについて頭に入れた上で、AIを活用して頂ければ、と思います。

以上、「AIに関する暫定的な論点整理」で触れられているAIに関するリスクについてでした。

※「AI戦略会議」の「AIに関する暫定的な論点整理」は、以下のURLからオリジナルをお読み頂けます。
https://www8.cao.go.jp/cstp/ai/ai_senryaku/ai_senryaku.html