人間の行動とAIガバナンスとのダイナミックな連関

人工知能(AI)は、私たちの生活のあらゆる分野で著しい進展を遂げている。今やAIは患者を観察し、建物を守り、製造過程を改善し、詩を書くことができる。これらはAIの良い利用法だ。しかし、AIには悪い利用法や特徴もある。

例えば、AIはアフリカ系の人々や民族的マイノリティなどのデジタル・マイノリティを差別するおそれがある。また、AIが兵器として利用され、平和と安全に破滅的な影響をもたらすおそれもある。AIに良い面と悪い面の両方があることを踏まえれば、どのような対応が必要だろうか。私たちに求められるのは、世の中のためになるようなAIの利用を最大化し、悪用を最小限に抑えることである。AIの良い利用法を最大限に活かすために、これまでにさまざまな戦略が展開されてきた。さらに、AIの悪用を減らすために多数な手段が導入されてきた。例えば、AIシステムの訓練において、対象人口すべてを十分に代表するデータを使用することで、アルゴリズム上のバイアスと差別を最小限に抑えることができる。

しかし、欠陥のあるアルゴリズムを修正することは、AIの悪用を企図する欠点のある人間を改心させるよりもはるかに容易だ。例えば、民族的マイノリティを差別するAIマシンを修正するよりも、民族的マイノリティを差別する人間を変える方がはるかに困難である。AIマシンを改善するためには、データの取り扱い、アルゴリズムの設計、AI技術の活用に関するベストプラクティスを適用しなければならず、そのためには人間による良い行動が必要だ。

AIの開発、展開と規制をめぐる議論では、技術的、倫理的懸念に焦点が当てられることが多い。しかし、こうした議論において、重要でありながら検討が尽くされてこなかった側面は、人間の行動とAIガバナンスに対応するものである。この2点は複雑に重なり合い、AI技術の構想や展開の在り方、規制の在り方に多大な影響を与える。AIが私たちの生活のあらゆる側面に浸透するにつれて、AIと人間の行動のこうした重なりを理解し、活用することは、効果的かつ公平なAIシステムを開発するために有益であり、必要でもある。

人間はAI開発の中心にあり、人間の意思決定、偏見や行動がAIシステムに影響を与える。心理、認知、感情のレンズを通して人間の行動を研究する行動科学は、AI開発に開発者と設計者がどのようにアプローチをとるべきかについて、重要な知見を提供する。行動科学は、アルゴリズムの設計に影響を及ぼしうる認知バイアスや、社会的影響よりも技術的効率を優先した結果生じる倫理的な盲点を浮き彫りにする。

人間の行動をAIのガバナンスに取り入れるには、これらの人間的な問題を特定し、対処する必要がある。そのためには、開発者が設計過程に持ち込む潜在的バイアスについて省察できる枠組みを構築し、技術革新よりも倫理的配慮や社会福祉を重視する文化を育まなければならない。

AIの規制の際には、エンドユーザーの行動を考慮しなければならない。行動科学は、お勧めへの反応、AIが生成したデータに基づく意思決定、AI技術への信頼構築など、人々がAIシステムとどのように関わるかを研究するレンズを提供する。これらの知見は、ユーザーフレンドリーなAIシステムの開発に資するのみならず、意思決定過程の改善やネガティブ・バイアスの強化を防ぐなど、有益な行動を促すようなAIシステムの開発に不可欠である。

さらに、行動科学はAIに関する社会啓発事業に知見を提供することができるため、ユーザーはより批判的かつ知識を得た状態でAIシステムとやり取りできるようになる。行動科学に基づくガバナンス枠組みは、AIの潜在的バイアスや限界に関する理解を増進し、人々がAIと倫理的かつ効果的に関われるようになる。

人間の行動とAIガバナンスの連関はダイナミックである。AI技術が発展するにつれて、AI技術を形成し、AI技術により形成される社会規範や行動も発展する。ガバナンス枠組みは適応的でなければならず、かつ人間とAIの対話に関する行動科学の新たな知見やAIの飛躍的進歩に伴う社会的影響に対応できなければならない。

この適応性には、AI開発者、利用者、行動科学者、倫理学者、政策立案者やその他のステークホルダーを継続的な議論に巻き込むような参加的・包摂的なガバナンス戦略が必要である。こうした戦略があれば、急速に技術が発展し、人間の行動が変化する中でも、ガバナンス枠組みが常に最新かつ成功する内容となるよう、後押しできる。

AIの倫理的ガバナンスを保証する上で、教育は不可欠である。教育は開発者と消費者に対し、AI技術の複雑な道徳的環境をわたり行くために必要な知識と技能を提供するからだ。技術者は、倫理やデータプライバシー、社会的影響を中核的カリキュラムに盛り込んだコンピューターサイエンスやAI関連の包括的教育プログラムに参加することで、自身の仕事の倫理的な影響について十分に認識することができる。

教育は、人々がAI技術を理解する助けとなり、AIシステムに対し、十分な情報に基づいて、批判的に関わることを推進する。AIの開発や利用にあたり、倫理的配慮をあらゆるステークホルダーの教育に盛り込むことで、私たちは責任と説明責任の文化を醸成することができる。こうした戦略は、個人に対し、倫理的問題を予見し対処するように教え、人間の価値と社会福祉を重視するAIシステムの発展を促進する。AIの未来に向けた道を整える中で、人間の行動を理解することは、より責任ある、有益なAIガバナンスに向けた指針となる。その重要性を過小評価してはならない。

・・・

この記事は最初にForbes Africaに掲載されたものです。Forbes Africaウェブサイトに掲載された記事はこちらからご覧ください。

著者

チリツィ・マルワラ教授は国連大学の第7代学長であり、国連事務次長を務めている。人工知能(AI)の専門家であり、前職はヨハネスブルグ大学(南ア)の副学長である。マルワラ教授はケンブリッジ大学(英国)で博士号を、プレトリア大学(南アフリカ)で機械工学の修士号を、ケース・ウェスタン・リザーブ大学(米国)で機械工学の理学士号(優等位)を取得。