AIの軍事化:世界の安全保障と戦争に多大な影響

人工知能(AI)は瞬く間に私たちの日常生活に欠かせない存在となり、医療、教育、金融、エンターテインメントなど、幅広い分野に影響を及ぼしている。AIが進化し続ける中、その使用法を管理して潜在的な危険を軽減する効果的なガバナンス制度の必要性が高まっている。

AIシステム、特に機械学習を用いたAIシステムは、社会に大きな影響を与える可能性がある。こうしたシステムは、個人やコミュニティーに影響を及ぼす決定や予測を行うことができるため、倫理的な懸念も生じさせる。

例えば、どうすればAIシステムが公平で、既存のバイアスを永続化させないものとなるよう、保証できるだろうか。AIの意思決定メカニズムの透明性は、どう確保できるだろうか。AIシステムが膨大なデータに依存することが多い中、どうすればプライバシーを保護できるだろうか。技術や規制の枠組みを理解している人材を、どう確保すればよいだろうか。AI分野で持てる者と持たざる者との格差を、どう埋めればよいだろうか。

これらは、AIガバナンスにおいて不可欠な検討事項である。考えさせられる点ではあるが、欠陥のあるAIシステムの修正は、壊れた人間の修正よりもはるかに易しいのも事実だ。

AIの規制は、その技術が複雑であること、急速に進化していること、多くの業界にまたがって広く応用されていることから、困難を伴う。規制の枠組みは、イノベーションの醸成と社会に対する潜在的な危害の防止との間でバランスを取らなければならない。競争を促進し、悪用を防止しながらも、AIシステムにおける説明責任、透明性、公平性を確保する必要がある。

適応性のあるAIガバナンス

AI開発にはグローバルな性質があり、従来の立法手続きと比べてAIの進化が速いため、そうした枠組みを構築することは難しい。そのため、適応性のあるAIガバナンスの枠組みが不可欠であり、自然進化の原理に基づいたAI手法である遺伝的アルゴリズムから、多くの教訓を得ることができるだろう。

AIガバナンスは国内問題だけにとどまらない、グローバルな問題である。AIシステムとその影響には国境がないため、効果的なガバナンスにおいては国際協力が欠かせない。各国は、協力し、AIに関するグローバルな使用基準や規範を確立しなければならない。

国連をはじめとする国際機関は、AIガバナンスに関する対話や連携を促進する上で、極めて重要な役割を果たすことができる。AIガバナンスに向けた包括的なアプローチを保証するには、各国政府、民間セクターの企業、市民社会が互いに協力することが不可欠である。

グローバルなAIガバナンスを構築する上で、考慮すべき本質的要素としては、どのようなものがあるだろうか。まずは、AIを標準化しなければならない。標準化の必要性は、AIが進化して社会に溶け込むにつれて高まる。標準化によって、イノベーションや競争を醸成しつつ、AIシステムの一貫性、信頼性、公平性を保証することができるだろう。

AIにおける標準化は、さまざまな理由から不可欠である。標準化により、AIシステムの相互運用性が保証され、システム間の効果的な通信や連携が可能となる。これは、AIが医療システムや交通システムといった重要インフラに浸透する中、死活問題となる。

さらに、標準化は、AIシステムの透明性と信頼性を促進し得るものである。開発者は、広く認められている標準を順守することで、開発したAIシステムの予測可能性や信頼性を実証することができる。標準化は、バイアス、プライバシー、説明責任など、AIに関連する倫理的・社会的問題に対処するのに役立つ。

AI技術の急速な進化は、標準化を阻む最も大きな障害の一つである。多くの場合、AIの開発速度は、標準が策定・施行される速度を上回り、結果的にいたちごっこが延々と続くことになる。さらに、AI技術は複雑で多様であるため、汎用的な標準を策定することは困難である。加えて、あまりに厳格な標準を作ってしまうと、AI業界のイノベーションや競争を抑制しかねないという懸念もある。

こうした障害はあるものの、AIの標準化の今後の展望には明るいものがある。国際標準化機構(ISO)、米国電気電子学会(IEEE)など、いくつかの団体がAI標準の策定を積極的に進めている。こうした取り組みでは、AIシステムの用語、倫理的配慮、技術的仕様に注力している。

さらに、AI開発者、消費者、規制当局、市民社会など、幅広いステークホルダーを標準化プロセスに巻き込むことの重要性が広く認識されつつある。

機械学習のガバナンス

主流なAI技術分野であり、早急にガバナンスが必要なのは、機械学習である。AIシステム、特に機械学習に基づくAIシステムは、データに大きく依存する。このデータの品質、多様性、量が、AIシステムのパフォーマンスや挙動に大きな影響を与える可能性がある。そのため、AIのトレーニング(訓練)に利用するデータを規制することは、極めて重要な問題である。

AIのトレーニング・データを規制するに当たり、プライバシーの保護が主要な課題となる。データ保護やプライバシーについて懸念の声が上がるのは、AIシステムが大量の個人データを必要とすることが多いためである。EUでは、個人のデータプライバシーを保護するために「一般データ保護規則」(GDPR)などの規制が実施されている。同様の規制をグローバル・サウスでも実施するには、どうすればよいだろうか。

AIシステムのトレーニング・データの必要性と、プライバシー保護の必要性との間でバランスを取ることは、依然として手ごわい課題である。データのバイアスはさらに重大な懸念事項である。AIシステムのトレーニングに使用するデータに偏りがあれば、AIシステムも偏ったものとなり、不公正な結果や差別的な結果をもたらすかもしれない。

そのため、データを規制し、代表性がありバイアスのないものとすることが、極めて重要である。とは言え、データ内のバイアスを特定して排除することは、困難かつ複雑な作業となる可能性がある。AIのトレーニング・データの収集、保存、使用における透明性は、規制のもう一つの重要な側面である。

透明性は、AIシステムの信頼性を高め、説明責任を担保するのに役立つ。しかし、プライバシーや秘密情報を損なうことなく透明性を提供するのは難しい場合がある。

こうした障害はあるものの、AIのトレーニング・データの規制は、かなり大きな機会をもたらしてくれる。規制は、データのプライバシー、バイアス、透明性に関する標準の策定に役立ち得るため、それによって、責任ある倫理的なAIの利用が促進され得る。さらに、規制によって競争条件が公平になり、競争が促進され、イノベーションが活性化する可能性もある。

AIは進化を続けており、こうしたアルゴリズムを効果的に規制するニーズは、ますます重大になる。AIのトレーニング・アルゴリズムの規制は、複数の理由から極めて重要である。第一に、AIシステムの公平性とオープン性を保証できる。アルゴリズムは、トレーニング・データに含まれるバイアスを期せずして永続させたり増幅させたりすることで、不公平な結果を招く危険性がある。

規制は、アルゴリズムがこうしたバイアスを軽減する方法で作成、利用されるようにする上で役立ち得る。従来のトレーニング、試験、検証のプロセスは、確かに必要ではあるが、十分ではない。

第二に、規制は説明責任の確立を支援することができる。AIシステムが複雑になるにつれ、その意思決定方法を理解することが困難になるかもしれない。規制は、透明性があり理解可能であるアルゴリズムを実現し、アルゴリズムによる決定に関する説明責任が追求できるようにする上で、役立つ可能性がある。

アルゴリズムの技術的な複雑さは、主要な障壁の一つである。多くの場合、規制の専門家たちはこれをブラックボックスとして扱い、破壊的な結果をもたらすアルゴリズムの相互作用についてほとんど理解していない。アルゴリズムを効果的に管理するためには、ニューラルネットワーク、最適化、バックプロパゲーションという複雑なネットワークを理解する必要がある。それらが動作する仕組みやそれらをいかに規制しなければならないかを理解するには、高度な技術的専門知識が要求される。

その上、AIの急速な発展によって、規制が追いつくことが困難となる可能性がある。また、過度に制限の強い規制によって、AIのイノベーションが阻まれることも考えられる。

こうした障害はあるものの、アルゴリズムの規制に関して期待できる方向性がいくつかある。AIアルゴリズムの技術標準を策定することで、アルゴリズムの設計と実装を導くことができる。サードパーティによる監査も、アルゴリズムの公平性や透明性を評価するもう一つの方法である。

さらに、AI開発者、消費者、規制当局、影響を受けるコミュニティーなど、多くのステークホルダーがアルゴリズムの規制に参加することの必要性が、広く認識されつつある。

使用と活動

最後に、AIの活用についても規制する必要がある。分野ごとに、独自の規制標準を策定する必要があるだろう。例えば、世界保健機関(WHO)では、保健分野でのAIの使用に対する倫理ガイドラインを策定している。一方で、グローバルな規制が必要な分野もあり、その一つはAIの兵器化である。

AIは、数々の利点に加えて、特に兵器化した場合において、潜在的な危険ももたらす。AIの兵器化とは、自律型兵器やサイバー戦争など、軍事や戦争行為の状況でAIを使用することを指す。AIの軍事利用は、世界中の安全保障や戦争行為に重大な影響を及ぼす。AIは、意思決定を迅速化させ、命中精度を高め、リソース配分を効率化して軍事能力を向上させることができる。AIを搭載した自律型兵器は人の介入なしに運用できるため、人間の兵士に対する危険を軽減できる可能性はある。

しかし、こうした開発は、紛争の激化、自律型兵器が悪用・誤用される危険性、AI軍拡競争の可能性といった懸念を引き起こす。

AIの兵器化を規制することは、相当な難題である。AIとその技術的な複雑さは急速に進展しており、規制が追いつくのは難しい。加えて国際協力にも困難がある。効果的な規制には国家間のコンセンサスが必要だが、国によって利害が大きく異なるために難しいことがある。さらに、AI技術のデュアルユース性、つまり民間と軍事目的の両用が規制を複雑化させる。

AIの兵器化は多くの倫理的懸念を引き起こす。自律型兵器は、国際法で義務付けられているように戦闘員と市民を区別できるのか。AI搭載兵器が誤って危害をもたらした場合、誰がその責任を負うのか。生死に関わる意思決定を機械に委ねるのは倫理的に問題ないか。こうした懸念が、戦争におけるAIの使用を管理する倫理的枠組みの必要性を浮き彫りにしている。

結論として、機械学習は、早急に規制が必要なAIの一つの分野ではあるものの、これは機械学習を超えたより広範なシステムの一部分であることに留意すべきである。

例えば、ロボットは、アクチュエータ、電動機、材料などの規制や標準化が必要な必須コンポーネントを伴うため、機械学習をはるかに超えたものとなる。部門ごとにAIのガバナンスを進める中で、私たちは、この現実を包括的かつグローバルな視点で捉える必要がある。

AIのガバナンスは、その大部分が、未来に起こることよりも過去に起こったことに基づいている。AIの急速な発展を考えると、私たちは静的な規制アプローチではなく、適応性があり進化し得る規制枠組みを採用しなければならない。

・・・

この記事は最初にDaily Maverickに掲載されたものです。Daily Maverickウェブサイトに掲載された記事はこちらからご覧ください。

著者

チリツィ・マルワラ教授は国連大学の第7代学長であり、国連事務次長を務めている。人工知能(AI)の専門家であり、前職はヨハネスブルグ大学(南ア)の副学長である。マルワラ教授はケンブリッジ大学(英国)で博士号を、プレトリア大学(南アフリカ)で機械工学の修士号を、ケース・ウェスタン・リザーブ大学(米国)で機械工学の理学士号(優等位)を取得。