チリツィ・マルワラ教授は国連大学の第7代学長であり、国連事務次長を務めている。人工知能(AI)の専門家であり、前職はヨハネスブルグ大学(南ア)の副学長である。マルワラ教授はケンブリッジ大学(英国)で博士号を、プレトリア大学(南アフリカ)で機械工学の修士号を、ケース・ウェスタン・リザーブ大学(米国)で機械工学の理学士号(優等位)を取得。
人工知能(AI)研究の黎明期には、大抵のAI技術はコンピューティング(計算)能力の限界による制約を受けていた。データ処理は今日の基準に照らすとあまりに遅く、比較的少数のコンピュータ科学者たちだけが初期のAIアプリケーションを作成し、利用していた。
それから数十年が経過し、私たちは新しい時代に突入した。各国政府やあらゆる大手テクノロジー企業がAIを活用して私たちの日常生活や暮らしを変えることに注力するようになり、今や、強力なAIツールはすぐに手の届くところにある。
しかし、データ主導による意思決定や経済生産性の向上、医療の自動化にAIを活用する善意ある取り組みの中でも、悪影響が生じるリスクが高まりつつある。技術的な境界が狭まるにつれ、このテクノロジーを公平で持続可能な開発へと導くために、ガバナンスの空白を埋める必要性に迫られている。すなわち、世界を良くするAIを構築しなければならない。
今月、国際電気通信連合(ITU:デジタル技術に関する国連の専門機関)は、世界を良くするAIグローバルサミット(AI for Good Global Summit)をジュネーブで開催する。2017年以降、毎年開催されている同サミットは、国連の持続可能な開発目標(SDGs)の達成に向けた取り組みを加速し、世界の開発課題を克服するための長期的な行動を支援する上で、AIがどのように寄与できるかについて探求する主要なフォーラムである。
サミットでの議論は「AIガバナンスデー」から始まる。しかし、世界中にいるAIのステークホルダーを考慮し、多方面にまたがるAI研究やAIアプリケーションを検討し、そしてグローバル・サウスとグローバル・ノースとの間に存在するAI格差の是正に取り組む中で、私たちは手強い複雑性に直面している。
Photo: ITU / Rowan Farrell / CC BY-NC-SA 2.0
この1年、国連大学と国連システムは、ガバナンスの指針となるため、こうした複雑性の評価に尽力してきた。
先月、マカオで国連大学グローバルAIネットワークが発足した。民間セクター、学界、各国政府、市民社会組織から40超の設立メンバーを迎えた同ネットワークは、グローバル・サウスにおいてAIの恩恵を高めることに重点を置いた、エビデンスに基づく政策提言を行うために協力していく。
このネットワークの素地となるのは、国際的なガバナンスに関する提言を策定している、国連事務総長の人工知能に関するハイレベル諮問機関に対する国連大学の研究貢献である。同諮問機関は、中間報告書および広範な協議と一般の人々からの意見を踏まえ、今年半ばに最終報告書を公表する予定だ。
同報告書は、9月に開催される未来サミットに日本を含む国連加盟国が結集する際に極めて重要な指針となるだろう。加盟国は、同サミットでグローバル・デジタル・コンパクト、すなわち「すべての人に開かれた、自由で安全なデジタルの未来のための共通原則」について合意することになる。
また、3月には、国連総会が持続可能な開発のための「安全、安心で信頼できる人工知能システムの推進」に関する画期的な決議を採択した。米国のリンダ・トーマス=グリーンフィールド国連大使は、決議案提出にあたって、「このテクノロジーに支配されるのではなく、このテクノロジーを支配することを国際社会が一致団結して選択する機会と責任がある」と強調した。
しかし、国際社会がAIを管理する上で大きな課題がある。AI技術の未来に対する共通のビジョンを創造しながら、競合する国益のバランスを取らなければならないのである。そして、こうした技術は多くの場合、米国と中国を中心とする少数の国々が開発し、管理している。
だからこそ、テクノロジーへのアクセスの不平等や、社会経済的背景の相違に対処するAIガバナンスの完全な基盤を築くために熱心に取り組まなければならない。そうした基盤、すなわちAIのグッドガバナンスのための枠組みは、以下の3点に重きを置くべきである。
第一に、透明性、真実性やプライバシーなどの健全な共通の価値観にAIガバナンスを根付かせなければならない。透明性は信頼と説明責任をステークホルダー間に醸成するとともに、公平に評価できるようテクノロジーを解放して倫理的・法的遵守を確保する。
このことは、交通輸送や医療などの部門において特に重要となる。なぜなら、これらの部門では人々の安全が予測可能で信用できるAIの動作に依存するからだ。
正確でバイアスのないAIシステムを構築し、科学や教育やメディアにおける誤情報を予防し、世界を良くするAIが確実に導入されるために必要な社会的信用を強化する上で、真実性は不可欠である。プライバシーは、新たなシステムが今後さらに収集する大量の個人データを保護する上で最も重要である。
大切なのは、AIがもたらす集団への利益を、個人の権利保護より優先させないことである。それゆえ、AIガバナンスの価値観を世界人権宣言や国連憲章と整合させれば、平等と人間の尊厳を支えつつ、AIを平和、安全と正義の協調的な追求につなげる、そんな技術の未来に向けて歩むことができる。
第二に、こうした価値観を基礎に、実行階層を築かなければならない。この実行階層は、トップダウン型のアプローチによるものではなく、世界を良くするAIの前向きでボトムアップな開発や、AIを規制する法律に影響を与える階層的な行動により構成されている。
例えば、正確な公衆衛生教育の推進を図るのであれば、誤情報の拡散に対抗するAI技術の開発にインセンティブを与える仕組み(または行動)も必要である。AIアルゴリズムのトレーニングに使用するデータを対象とする世界的なプライバシー基準の策定を目指すのであれば、そうした基準を設定し、見直すための国際的な制度的構造が必要である。
第三に、AIガバナンスの最重要分野の特定に取り組むにあたり、技術開発と利用の連鎖、すなわちデータ、アルゴリズム、コンピューティング、AI活用の主要な連関に優先順位を付けるべきである。
データガバナンスによってデータの収集、保管、分析、国境を越えた流通の監視を可能としつつ、機密データを保護し、その悪用を防止することができる。アルゴリズムのガバナンスは、AIによる判断に差別やバイアスがないようにし、金融、法執行、医療などの部門でAIを活用する際に正確かつ安全に情報を提供する上で不可欠である。
クラウドコンピューティングや基幹インフラから、データセンターの大量の水消費や労働市場への影響に至るまで、AIには生計や経済、さらに生態系に破壊的変化をもたらす大きな可能性がある。コンピューティングやAIの活用を管理することで、AIが及ぼす技術的、社会的、経済的、そして政治的影響に対処することができる。こうした影響を見落としたり無視したりすれば、持続可能な開発を推進する取り組みの成否を左右しかねない。
最後に、世界を良くするAIの構築に取り組む中で忘れてはならないのは、AIが今後もイノベーションの激動の未開拓地であり、悪影響や予期せぬ挫折を伴うおそれがあるということだ。
コンピュータ科学者の李飛飛氏は「AIは人間の知能の代替物ではなく、人間の創造性と創意工夫を高めるツールである」と強調する。
グッドガバナンスのためには、私たちのアプローチを、AIそのものの追求と同じぐらいにダイナミックかつ革新的で創造的なものとする必要がある。
・・・
この記事は最初にThe Japan Timesに英文で掲載されたものです。The Japan Timesウェブサイトに掲載された記事はこちらからご覧ください。