我々はデジタル未来の岐路に立っている。AI(人工知能)というパワフルな技術は、特定の構造を持たない大量のデータのパターンを認識し、次々にデータが投入される中でも、パフォーマンスを向上し続けている。その技術は人間が物事を判断する際の障壁を減らす一方で、AIによる意思決定を急速に強化しており、その能力がAI自身を強力な技術にしている。人間が人生の案内役としてAIに依存するほど、これからの時代の人間の選択と包括に関する大きな疑問が生じる。AI技術の道筋と未来を形作るうえで、権力や収入の異なる人同士がいかに関わり合い、どのような役割を担うのか。人間はこの「エリート技術集団」をどのように支配するのか。または、AIが人間を支配するのか。
パワーバランス
コンピュータと人間のパワーバランスは、明らかに変化している。AI駆動型(AIの搭載により従来と異なるビジネスやサービスを生む)のコンピュータは、より多くの価値を創出し、人間の日用品を増産し、仕事や生活に浸透している設計や意思決定プロセスへの支配を着々と進めている。
コンピュータは、人間の過去のパターンと世界中から(思い浮かぶ)人々のパターンを認識し、人間の考え方や世界観を形成・強化するAI駆動型のフィードバックループを生み出している。
我々は、コンピュータが「人間を正しい方向へ導く」だろうと、ますます信じるようになっている。
スマートカー(IT技術などにより、高度に安全化、快適化、省エネルギー化された自動車)は、カスタマイズされた利便性と引き換えに人間の行動パターンを企業と共有し、ビデオゲームは人間の社会経済的なプロフィールと選択的認知(知覚し、判断する過程において過去の経験や興味から情報を抽出する)を製造元にフィードバックする。
それでも限界はある。コンピュータは、人間の本来の意図と実際の行動のズレを説明できない。人間の行動を基本とした具体的データを拠り所とするコンピュータは、人間の足貸せとなり、望む姿でなく、過去の姿に留めてしまう恐れがある。
AIの倫理と価値
人間の個人的な意思決定とアイデンティティにおけるAIの役割の増大は、以下にあげる倫理的問題を提起する。
・コンピュータはやがて個人の選択を排除するのか。
人間がより良い判断をするために、AIの助けを借りることには多くのメリットがある。例えば、AIは二酸化炭素排出量を削減するために人間のスケジュールと輸送ルートを最適化できる。より良い恋愛相手を探すことに役立つ可能性を示す複数のエビデンスもある。しかし、これにより人間は独立性(失敗から学ぶ能力)を奪われてしまうのではないだろうか。
・AIは人間を二極化や孤立化に向かわせるか。
コンピュータは既にソーシャルメディアなどのプラットフォームを通じて同様の考えを持つ人々を結びつけているが、さらに一歩踏み込む可能性がある。それは、「デジタル・ソーシャル・エンジニアリング」のツールとなったAIが、経済効率や政治的結束、全体主義的なアイデンティティを意図した社会構造を生み出す可能性だ。
・AIは人間の判断に取って代わるのか。
AIは人間の価値観や行動を基に判断し、人間に従わせる。しかし、抑えつけられた価値、潜在思考、突発的な考えには関与しない。AI用に文書化されていない状況下では、過去の不適切な行動をもとに好ましくない、または危険な意思決定を行う可能性がある。コンピュータは人間の自己改革の権利を尊重するだろうか。
・AIは差別を定着させるのか?
AIによる幅広い平均値や過去の行動の利用は、差別を定着化させるリスクがある。例えば、UberのAIプログラムは、郵便番号から乗客の出身地候補を割り出し、不公平な扱いをすると発覚している。また、プログラマーの先入観がアルゴリズム設計に目に見えない形で反映されるのは珍しくない。Apple iPhoneの顔認識プログラムの欠陥はその一例である。 AIが目に見えない形で人間の意思決定を支配すると、人間がさらに先入観に左右されるのではないだろうか。
新しい権利憲章
こうした懸念は、誰にもAIを止められないことを表している。とはいえ、元に戻そうとするべきではない。むしろ、人類共通の利益のためにAIの革新的なポテンシャルの活かし方を検討すべきだろう。ここで提案したいのが「新しいグローバルAI革命の権利憲章」(包括的で、集合的に開発され、AIを発展へ導き、人とコンピュータにとって有益な共存の未来の基礎となる、複数の利害関係者のための権利憲章)である。
それは、いったいどのようなプロセスか。理想は、世界中の開発状況を追跡、分析、議論し合う能力を備え、複数の利害関係者のためにAIガバナンスに取り組む国際機関の創設だ。それには、多様なセクターによる参画も必要であり、主権や国益の問題よりも、イノベーションや開放性、公平性の推進の方が重要であるという認識が必要となるだろう。このような機関が包括性を担保するためには、ブレトン・ウッズ協定で設立された機関(国際通貨基金や国際復興開発銀行)よりも優れた施策が必要であるものの、自主的な行動を国連の下で取ることができるだろう。 そして、グローバルAI革命の権利憲章のような基礎となる憲章が必要だ。憲章で取り上げるべき主な問いには以下が含まれる。
- 「より良い」判断を行うためのAIの変革的役割と、人間の意思決定に深刻な影響を及ぼすリスクのバランスをとるにはどうすべきか。
- 選挙、教育、意見形成などの社会政治プロセスにおいてAIが果たすべき役割は何か。
- 差別的なデータや一部の人間の害となるようなデータの悪用をどのように防ぐか。
- AIは社会的な便益と個人の権利をどの程度尊重すべきか。
- どのような制度や規則がAIのリスク、メリット、急速な変化を最もよく反映するか。
これらは簡単なプロセスではない。しかし、人間が世界中でAIとの信頼を構築し、AIがもたらすリスクを回避するためには、このような問いに対する対話は不可欠だ。最大のリスクは、AIが目に見えない形で徐々に集団的・個人的意思決定を選び出すことを認めながら、人間が既存の歩みを続けることである。 第4次産業革命(認知革命)は、この特殊な機会を生かして公正と価値に基づいた全人類の発展を牽引するために、新たなグローバルガバナンスのアプローチを求めている。
•••
AIに起因する国際的な政策課題の探究を目的として研究者、政策立案者、企業およびオピニオンリーダーのために設立された包括的プラットフォーム、「AIとグローバルガバナンス」に本記事を寄稿したのはOlaf Groth(オラフ・グロス)博士、Mark Nitzberg(マーク・ニッツベルグ)博士、Mark Esposito (マーク・エスポジート)博士である。なお、記事内で述べられた意見は各寄稿者の意見であり、必ずしも国連大学の意見を反映するものではない。