人工知能と国際関係:まったく新たな地雷原の回避

2023年7月、国連安全保障理事会は、「人工知能(AI):国際平和と国際安全にとっての機会とリスク」と題した、AIについて議論する会合を初めて開催した。

国際関係の核にあるものは、人間として、国家として、組織として、それ以上のものとして、どのように相互に結び付くかである。ドワイト・アイゼンハワーはかつて「世界は協力することを学ばなければならない。さもなければ、いずれ世界は機能しなくなる」と述べた。この言葉には、今もなお重要な意味を持っている。

例えば、現在の状況は悲惨な不和を表している。私たちは未曽有の混乱の渦中にあり、世界各地におけるグローバルな紛争の真っただ中で世界は動揺している。

確かに、パンデミック後の状況は戦争と破壊によって定義されている。人類は不確実な未来の崖っぷちに立たされている。破壊と絶望という悲惨な展望が脆弱な平和に取って代わってしまったのだ。

同時に、私たちの制度や体制も変化を求められている。持続可能な開発目標(SDGs)の遅れを取り戻す必要があることは周知の事実である一方で、人工知能(AI)は追い付くのが困難なほど進化しつつある。

戦争と破壊の時代と並んで確かなことがある。私たちはAIの時代に入りつつもあり、それに対応しなければならない。未来は今日の私たちの行動にかかっており、私たちは未来の軌道を修正する力を持っている。

これこそ、国際関係(IR)の根幹をなすものであり、AIが今後ますます定義づける分野である。私たちは多様な考えを受け入れ、自分自身の視点を疑うことから始めなければならない。

8年前、国連加盟国はSDGsを採択した。SDGsは従来のミレニアム開発目標(MDGs)を包括的に見直し、作り直したものである。持続的な開発のアプローチは、将来世代の資源や可能性を損なうことなく現在の要求に応えようとする、長期的な計画である。

今私たちは思い描いた公正で公平な、より持続可能な未来に向かう中間点に立っている。さらに速く前進することは可能なはずだ。実際、多くの指標において私たちは完全に停滞している。これは、新型コロナウイルス感染症(COVID-19)のパンデミックの負の遺産でもあるが、その前から軌道を外れていたことを私は忘れていない。

『SDG報告2023』は、SDGsに明記された約束が危機に瀕していると警告している。SDGsに向けた前進が鈍化したことの影響はすべての国に及ぶが、グローバル・プラットフォームでの代表権は限られているため、相対的に貧しい国々に対して不当に大きな影響を及ぼしている。繰り返しになるが、先進国と開発途上国の間の経済格差の拡大は、気候危機の不均等な影響と相まって、重大な懸念事項である。

アントニオ・グテーレス国連事務総長は最近、次のような警鐘を鳴らした。「私たちがすぐに行動を起こさなければ、2030アジェンダは、あり得たかもしれない世界の墓碑銘となってしまう」。世界では今、極度の貧困が増加を目の当たりにしているが、これはここ数世代では見られなかった傾向である。2030年までに5億7,500万人が依然として極度の貧困の中で暮らす可能性があると予測されている。私たちにはもう時間がなく、行動を起こす緊急性が再び高まっている。AIが私たちの重要な決定者となる可能性があるのだ。

AIの強みと落とし穴を定義する

AIのもたらす利点は何だろうか。常に進化する、この新たな分野をどのように管理すべきだろうか。AIへのシフトの中で、どのように人道主義を中心に据えるべきだろうか。私たちは、国際関係の文脈の中でAIを理解することから始めなければならない。

第一に、AIの開発と導入において、透明性を確保するにはどうすべきだろうか。この点において、私たちはAIの意思決定プロセスにおいて、いかにして有意義な洞察を提供できるかを検討しなければならない。AIとは、思考し、行動し、相互作用する機械を造ることである。多くの点で、AIはコンピューターマシンを通じて人間の知性を再現する。

AIにおける透明性の課題は、アルゴリズムの複雑性と意思決定プロセスの不透明性にある。私たちはこうしたシステムを理解しているだろうか。例えば、『機械学習ハンドブック』では、これらの技術の複雑性が詳細に説明されている。

同書が示すように、AIには大きく分けて3つの種類がある。予測マシン、クラスタリングマシン、そして生成マシンである。

予測マシンは将来の結果を予想したり、過去のデータから予測を立てたりする。クラスタリングマシンは、特定の特徴を基に類似のデータポイントをグループ化する。ChatGPTなどの生成マシンは、既存のデータからパターンを学習するアルゴリズムを基に、画像、テキスト、さらには音楽に至るまで、人間が作成したコンテンツに類似した新たなコンテンツを作成する。

このテクノロジーの仕組みを理解することが、この課題に対処する上で欠かせない一歩である。ユーザの信頼を築き、説明責任を確保するには、透明性のあるAIシステムが不可欠である。

第二に、国境を越えた無制限のデータ移動を推進し、グローバルな提携やイノベーションを促進するためには、越境データ流通について検討することが不可欠である。これにより、教育、経済発展、医療、イノベーションや環境の持続可能性が推進される。

第三に、AIの応用には何が考えられるだろうか。「機械学習におけるハミルトニアン・モンテカルロ法( Hamiltonian Monte Carlo Methods in Machine Learning」という本では、高度なAIの応用手法が再生可能エネルギー、金融、生物医学の画像分類といった分野において紹介されている。

第四に、政治に対するAIのインパクトは何だろうか。2019年には、当時の米国議会下院議長であったナンシー・ペロシの動画において、あたかもろれつが回っていないかのように音声の高さを変更するため、再生速度を意図的に25%遅くされた。この動画はディープフェイクの一例である。ディープフェイクは、データセットを改変できる機械学習の一分野であるディープラーニング(深層学習)技術を利用してフェイクを作成する。この技術は、顔がさまざまな角度からどのように見えるかを学習しており、まるで仮面であるかのように顔をそのターゲットに移し替えることができる。

このような改ざんされた動画はオンラインで視聴可能であり、その政治利用は不穏な現実を突きつけている。どのようにしてフェイクと本物を区別するのか。ディープフェイクがより悪質な目的に利用されるおそれはないのか。国家元首が他国への核攻撃を予告するディープフェイク動画の影響を考えてみてほしい。

このような生成AIシステムが進化し続けるにつれて、私たちは倫理上の課題も検討しなければならない。生成AIシステムは、ディープフェイク・コンテンツの作成、情報の操作、プライバシーや同意の侵害に悪用されるおそれがある。こうした倫理的なジレンマに対処するためには、厳格なガイドラインが必要である。

第五に、AIの文脈におけるデータの課題は、収集、品質、プライバシー、データのバイアスに関するさまざまな問題を包含する。倫理的なAIシステムの開発では、こうした課題に対処することが不可欠である。『工学システムにおける深層学習と欠測データDeep Learning and Missing Data in Engineering Systems)』という本では、品質、プライバシー、データのバイアスに対処するための合成データを生成する先端コンピューター技法を検証している。

データはAIの基盤であり、私たちはデータを取り巻く課題を非常に真摯に受け止めなければならない。包摂的で品質の高いデータを検討する際は、合成データを十分に理解しなければならない。実データと併せて合成データを取り入れることで、堅牢で倫理的に健全なAIシステムの開発が可能になり、イノベーションを促進しつつプライバシー上の懸念に配慮することができる。

第六に、経済に対するAIの影響について検討することが不可欠である。AI技術が雇用市場を混乱させることはいつでも可能だ。こうした技術を作業効率を高め、サプライチェーンを最適化し、自動化を促進することで、国際貿易に参加する国の生産性と競争力を高める。物流業、製造業、サービス業などの産業におけるAIの統合は、従来の貿易パターンを一新させる。

その一方で、特にAIと国境を越えた貿易の交点が、グローバル経済の将来を形成する上で非常に重要な要素となることから、私たちは規制の標準化、倫理上の懸念への対処、AIの恩恵への公平なアクセスの確保など、今後起こりえる課題にも留意しなければならない。

第七に、真実をめぐる課題がある。AIもまた、欺くべきタイミングを学習している。2007年、私たちはエヴァン・フルビッツとともに、ポーカー・ゲームではったりをかけることができるソフトウェアエージェントを構築した。これは気楽な例ではあるが、邪悪な意味合いがあるのも確かである。大規模なデータセットにさらされた機械学習アルゴリズムは、データの中にあるバイアスや欺瞞的なパターンを取り込んでしまうおそれがある。

AIが進化するにつれて、欺瞞的な行動に伴うリスクを理解し、軽減することが最も重要となる。このため、真実や誠実性という基本的な価値観を損なうことなく、この強力なツールをより大きな善のために活用するための用心深い監視と、責任ある開発が求められる。

第八に、戦争と、紛争の様相の変化という課題がある。AIは軍事用途に利用でき、戦略的な意思決定や監視、さらには自律型兵器を強化する。これは、重大な倫理上、そして安全保障上の懸念を提起する。

例えば、AIドローンの利用、知的アルゴリズムが画策したサイバー攻撃、自律型兵器が生死を分ける決定を下す可能性は、説明責任の境界線を曖昧にし、戦争の人道的な遂行に疑問を投げかける。さらに、AIが悪人の手に渡ったり、悪意ある目的のために操作されたりする可能性により、世界の安全保障の複雑性が一層増すことになる。

必要なのは、強固な国際合意と倫理ガイドラインのみならず、AI技術が責任ある形で、かつ人命を守る形で開発・導入されるよう継続的に警戒することである。

2011年に発行された『計算知能を用いた軍事化紛争のモデリング (Militarized Conflict Modeling Using Computational Intelligence)』という本の中で、私たちはAIがいかに戦争の理解に資するかを研究した。私たちは、主要な変数と二国間の紛争リスクの関係をモデル化し、こうしたモデルを使用して平和を実現できる方法の枠組みを確立した。これはAIがどのように紛争を緩和できるかを示す一例である。

これに関連する第九の課題が、人権に関するものである。AIは国家間紛争の予測や回避、気候変動への挑戦、技術革命の促進、貿易の円滑化、人権の擁護、国際金融体系の概説・改善に応用されてきた。

さらに、大規模なAIモデルのトレーニングはエネルギーを大量に消費する可能性があるため、環境をめぐる懸念を引き起こしている。AIの開発や利用をより環境的に持続可能にする方法を見つけることが不可欠である。

この課題が示唆するように、私たちがAIを解決策や国際関係の基本原則として受け入れる準備があっても、倫理的かつ人道性を念頭に置いて受け入れなければならない。

私たちの調査の多くが示唆するように、AIシステムと人間による監視の連携を集約し、責任を持って倫理的にAI技術を開発、導入するようにしなければならない。多くのAIシステムは偏ったデータによって訓練されるため、差別的な結果につながっている。AIアルゴリズムにおけるバイアスに対処し、公平性を確保することは、継続的な課題である。

私たちは、これらのシステムを包摂的かつ公平な体制と制度に基づくものにしなければならない。確かに、イノベーションと規制の適切なバランスを見つけて公共の安全とAIの倫理的な利用を確保することは、途切れなく続く闘いである。この点において、AI技術をめぐる情勢の変化に適応できるガバナンス体制を構築する必要がある。

結論として、ヘンリー・キッシンジャーが述べたように、「現代の国際システムが最も必要としているものは、秩序という概念に関する合意である」。AIがこの合意への鍵となる可能性は非常に大きい。

・・・

この記事は最初にDaily Maverickに掲載されたものです。Daily Maverickウェブサイトに掲載された記事はこちらからご覧ください。

 

著者

チリツィ・マルワラ教授は国連大学の第7代学長であり、国連事務次長を務めている。人工知能(AI)の専門家であり、前職はヨハネスブルグ大学(南ア)の副学長である。マルワラ教授はケンブリッジ大学(英国)で博士号を、プレトリア大学(南アフリカ)で機械工学の修士号を、ケース・ウェスタン・リザーブ大学(米国)で機械工学の理学士号(優等位)を取得。