近年、AI(人工知能)ほど多くの希望と脅威、期待と不安、祝福と非難を同時に集めている技術はない。目を背けられないほど強力な技術的将来性、AIの覇権争い、社会的進歩とサイバー攻撃の両方を可能にする手法などを扱った記事が、ここ数ヶ月の間だけでも紙面を賑わせている。私たち人類は、生き残りをかけたこれらの議論に興奮しがちだ。
AIのような新興技術による倫理的解析は、全く異なる手法を要する。成果をあげるためには、学問分野や文化を横断した包摂的な取り組みが必要だ。
AI(人工知能)の課題
「ディープ・ラーニング」と呼ばれるAIは、膨大なデータからパターンを特定・分類する方法によって、予測した推論を最適化する。このスーパーコンピュータ(高速計算や処理を可能にする大規模コンピュータ)のような能力は、数秒のうちに多くのシナリオをシュミレーションできるため、国民の遺伝子や染色体の情報を比較したり、群衆の中から特定の顔を判別したり、数百万枚の画像に基づき場所を特定するなど、他に類を見ない調査の機会を提供する。
もちろん、多国間機関はこの技術に注目している。アントニオ・グテーレス国連事務総長は、「学際的で協調的なアプローチが、いかにすべての人の安全で包摂的な未来につながるかについて、より幅広いグローバルな対話」を促進するため、デジタル協力に関するハイレベル・パネルを設置した。誰が労働市場で勝利を収めるのか、誰が保険に加入できるのか、誰が裁判で優位に立てるのか、どのようなDNAや行動パターンが市場主義者の目に留まるのかなどを決定する知性を持つ機械を構築する知識と権力は、世界人口の約0.004%という一握りの人間に集中している。このような状況において、「協力」にはどのような意味があるのだろうか。私たちはAIのように、豊かな社会で生まれた少数の人々に設計のほとんどが任され、それが生活の多くを決定づけるほど強力な技術に直面した経験がない。この知識と権力の非対称性は、世界的な協力に大きな課題を投げかけている。
精密な設計を作り上げ、倫理的な破綻を予測し、意図しない害悪を最低限に抑えるためには、知識と経験の多様性が欠かせない。例えば、「ブラック・インAI」と名乗るエンジニア集団が最近、顔認識技術は肌の色が濃い人の特徴ほど追跡に失敗しやすいという事実を明らかにした。
デジタル協力について考え、話し合う必要がある理由は、ここにある。この戦略的プロセスには、最も優秀で頭脳明晰な人々だけでなく、エンジニアや学術研究者、市民社会活動家など、できるだけ幅広い人々を巻き込む必要がある。そして、どのような世界で暮らしたいのか、AIはその世界の実現に資する技術的、倫理的成果の達成にどのように貢献するのかを、一緒に考えるべきだ。
グローバル市民として、自らの技術的未来を決定できるようにするためには、リスクとありふれた手法の構築に潜む、不平等や無力化の根源を慎重に検討する必要がある。AIのような新興技術の設計、またその役割の予測に必要な知識と教育へのアクセスは、未だに贅沢品と見なされている。
グローバル化する世界の倫理的ニーズを満たすためには、広範囲に渡るアルゴリズム(問題を解くための手順を、計算や操作の組み合わせで定式化する手法)の発明をどのように設計し、統制すればよいのだろうか。
専門家に学ぶ
このような疑問について考えるため、私は、現代的奴隷制から新興のサイバー技術に至るまで、グローバルな公共政策課題にシンクタンクとして取り組む国連大学政策研究センター(UNU-CPR)の一員になった。そして先日、国連本部の向かいで開催された、AIの統制方法について関心を持つ専門家を集めたシンポジウムに参加した。そこでは多くの懸念が残った。
一般市民のなかでは、定式化された手法が力を持ち、統制権を奪われるのではないかという不安が高まっている。なぜならそれは、私たちの理解や信頼、責任のあり方を逸脱する力とみなされているからだ。シンポジウムは、AIと安全、倫理、人権が絡み合うさまざまな事例を用いて、法の支配と同じように人工技術によっても社会が統制されているという事実を改めて認識させてくれた。つまり、AIによる統制の懸念の一つは、設計を理解できず、結末を予測できない強力な技術に、最終的に支配されてしまうのではないかという点である。
優秀な技術者や哲学者は、技術が政治、道徳において中立だという通説に疑問を投げかけた。彼らは、複雑な技術は二重の用途だけでなく、二重の性質も備えていると論じた。この議論は、数十年前に科学技術の研究において生まれた、現代技術は科学と社会の両方によって創出されるという知見を基としている。現代技術は、善悪両方に使える抽象的人工物としての手法ではなく、人間が設計した具体的な構造化機能や、一定の権力と性質を与えられた手法を主としている。このような構造化機能や設計プロセス、また実用化された場合に設計上の選択が現実世界に及ぼす影響は、社会から厳しい目で見られている。
遺伝学や気候学が直面する問題を含め、複雑なデータに基づく問題を解明するうえで、AIは今までにない協力者となるだろう。しかし、こうした予測知能は、誤検出や偏見など、予測困難なリスクや未知の要素を誘発しかねない。また、社会的価値観と対立したり、AIを作る権力を持つ人々の優先課題や嗜好、偏見を反映する恐れもある。
UNU-CPRが開催した最近のシンポジウムで、『コ―ド化された視線(Coded Gaze)』の著者であるマサチューセッツ工科大学(MIT)メディア・ラボのジョイ・ブォロムウィニ氏は、現状の顔認識手法は、機能的な性質と最適化プロセスによって、アフリカ系米国人の特徴を判別できなくなっていると示した。これはまさに、私たちの視線が逆転したかのようだった。
マイノリティの人々はこの新しく強力な手法によって非難され、のけ者にされかねない。ヒューマン・ライツ・ウォッチのディナ・ポーケンプナー氏が説明したとおり、特定のAIアプリがさまざまな人権をどれだけ侵害しかねないかを検討、評価する必要性が急務となっている。AIは幅広いバイオテクノロジーや行動技術に組み込まれているため、こうした議論は新たな側面を帯びてきた。
身体のインターネット
最近の ニューヨークタイムズの記事によると、政府は道路規則に違反した歩行者をさらし者にしたり、群衆の中で騒ぎを起こす人を摘発したり、追跡または威嚇しようとする反体制派やデモ参加者を特定したりするために、顔認識ソフトを用いている。信用度を採点したり、求職者を審査したり、中国人の国家への忠誠度を判定したりするために、顔や財務情報、個人情報のデータベースに接続することもある。
近い将来、バイオセンサー(生体内の分子を識別する分析装置)とアルゴリズムが連携して、生体測定値や生命の基本的兆候、感情や行動について、ますます詳細な記録を補足、分析するようになるだろう。そしてAIは、私たちを監視、追跡、評価するようになるだろう。次から次へと、アルゴリズムの予測対象が増える時代が来るのである。うっかりしていると、身体やゲノム、精神に対するかつてないアクセスをアルゴリズム・ネットワークに認め、フーコー的悪夢(悪夢が現実になりかねないといった考え)を超えた社会や、生体への統制を生み出してしまうかもしれない。私はこうした一連のネットワークを「身体のインターネット」と呼んでいる。
人類が人間の行動や生理機能、生態系をこれほど大規模に監視、分類できる能力を備えた経験はない。AIを活用できるノウハウを持つ国々が、他国の人々や生態系の生物学的データを高価な経済価値に変えてしまえば、地政学的な緊張状態が高まる恐れもある。
さらに哲学的疑問も生じる。 私たちが、理解し共有もできない推論やルール、価値を用いて知識を取得、展開する自己学習型機械が、いたるところで利用可能となる社会と共生すると、どのような影響があるだろうか。
フィードバック・ループの創出
生物界においてフィードバック・ループ(フィードバックを繰り返し、結果が増幅していくこと)は、生態系が変化する過程においてストレス要因にうまく適応するために欠かせない。生物学的回復力は、遺伝の多様性とシステム制御の精密な組み合わせが基となっている。
MicrosoftからGoogle、さらにはIBMに至るまで、世界有数のAI研究所は、自主制御を意識しながら現実世界の問題に取り組んでいくという社会的責任の原則を発表した。それでも、こうした原則が実践として根付かなければ、豊かな社会で急激な金融成長を優先するように知能技術が設計される危険性が残る。技術関係者だけの内輪の話合いは、全世界の市民が望む未来を決定する可能性を広げるよりむしろ、狭める結果となる。
今こそ立ち止まり、これらの疑問について考える必要がある。AIにおけるグローバルで包摂的、かつ複雑な協力とガバナンスモデルは、いかに醸成できるか。国連のデジタル協力に関するハイレベル・パネルは、公的またプライベートセクターが世界的視野で会話を構築する助けとなるだろう。
第1に、技術を提供するリーダーと、技術の利用者との間にある権力の非対称性を埋め合わせる方法について考える必要がある。最近のUNU-CPRのシンポジウムで深圳開放創新実験室のデイビッド・リー氏が述べたとおり、「ストリート生まれのAI」を実験的に採用し、全世界のさまざまなコミュニティに対し、彼らのデータやアイディア、デザインをAIイノベーションに転換する方法について学ぶ機会を与えるべきだ。都市をグローバルにつなげながら、ローカルな独創性を保ち、知識やビジョンの多様性を着想の糧とできれば、どうなるだろうか。
政府間においてもAIによる経済、軍事競争をあおる言説の中和を目的とし、戦略的で先見性のある対話を促進しながら、同様の知識共有を行うべきだ。
第2に、AIの社会的認可をどのように構築するかについて議論する必要がある。これには、公的、また民間セクターに対し、AIの開発や展開を公益と整合させるよう促進する構造の構築も含まれる。
ハーバード・ケネディスクールのシーラ・ジャサノフ氏が示す「謙虚な技術」に必要なのは、安全なアルゴリズムと慎重に吟味されたデータだけではない。AIを完全に使いこなせると考えている人々が謙虚さを持ち、世界的な利益となる知能設計を創出できるよう人々をエンパワーメントする必要もあるだろう。
より平等で平和な世界は偶然にはでき上がらない。AIのリスクだけでなく、将来性も予測し決定づけるためには、包摂的で「世界的視野」を持った会話の促進が必要だ。