特に医療のような重要な分野では、AI予測の性能リスクを測定すべき

ドゥトゥニ村に住むティニイコがエリム病院へ行くとする。看護師のトゥソは肺塞栓症と呼ばれる疾患にかかっているかどうかを確かめるために、緊急でティニイコの肺のレントゲン画像を撮るよう指示した。医師が不在のため、トゥソはAIシステムを利用してティニイコが肺塞栓症を患っているかを予測した。

AIシステムは、ティニイコが肺塞栓症ではないという診断結果を下した。このようなAIシステムは長年、開発されてきた。例えば、サイモン・スカレル、デビッド・ルービンと筆者は患者が肺塞栓症に罹患しているかどうかを予測するAIシステムを2007年に開発した。

データおよび計算能力の増大に伴い、これらのシステムは人間の医師の精度を超え始めている。

重要な問題は、ティニイコのような患者が肺塞栓症にかかっているか否かを予測するAIシステムが十分なものであるかどうかだ。このAIシステムはティニイコが肺塞栓症を患っているかどうかを判断し、さらにその予測の信頼度も測ることができる。例えば、このAIシステムはティニイコが肺塞栓症に罹患していることの信頼度を80%と規定することによって、予測に伴うリスクを定量化することができる。

無論、この追加の信頼度、つまりリスクの定量化のためには、さらなる計算資源、ひいては財源が必要になる。本稿では、このリスク(80%の信頼水準)を慎重に測定することなしには社会が危険な状況に置かれ、信頼を損ないかねない予期せぬ影響にさらさせる可能性があることを示し、AIを統治すべき倫理的基盤を提案する。

AI予測のリスク

AI予測に伴うリスクを測定することは、AIシステムの透明性を高める上での最優先事項となる。予測モデルの持つ制約と起こりうる不良の様態を理解できるような首尾一貫した構造を利害関係者に提供することで、彼らは十分な情報に基づいた意思決定を行いやすくなる。

AIシステムの開発者および管理者に加えて、エンドユーザーとAI主導の選択による影響を受ける人々にも、AI予測のリスクに関する情報への透明性のあるアクセスが保障されなければならない。これによって、AIシステム開発者が信頼性と高い安全標準を遵守するよう奨励する、責任ある風土が醸成される。

さらに、予測性能のリスクを測定することは、AI技術への社会的信頼を確立し、維持するために極めて重要である。AIの広範な採用と受容のための基礎は信頼だ。関連するリスクを人々が理解し、安全とリスク管理の手順が実施されていることを知っていれば、人々はAIソリューションをより採用しやすくなる。

対照的に、AI予測が持つリスクの定量化とリスクに関する情報提供が不十分な場合、結果として人々の拒絶反応を呼び起こし、規制当局の反発を招き、生産的な進歩が阻害されるおそれがある。

技術的および社会的要件

AI予測の性能リスクを測定することは、技術的要件であるばかりでなく、社会的要件でもある。AI予測プログラムは失敗しやすい。失敗による影響は、状況によってささいなものから深刻なものまでさまざまである。

例えば、AIを活用した金融アルゴリズムの不良は市場を大きく混乱させる可能性がある一方で、犯罪予測モデルが不正確であれば、社会の不平等を深刻化させることも考えられる。

リスクの測定は、そのような失敗の可能性を理解し、軽減し、伝えるために極めて重要であり、それによって最も深刻な悪影響を防ぐことができる。AI予測が持つリスクを定量化することは、私たちをトーマス・ベイズ牧師の心沸き立つ世界へと導いてくれる。

トーマス・ベイズは1701年頃に生まれたイギリスの長老派牧師にして哲学者、統計学者であった。神学以外の分野で最もよく知られる彼の業績は、ベイズの定理の発見である。この定理は、関連する可能性のある条件の事前知識と証拠に基づいて、ある事象の発生の可能性を示すものである。ベイズの業績は統計学において今日も影響力を持つが、生前に発表されることはなかった。

彼の死後、ベイズの知人リチャード・プライスが彼に代わってこれを発表した。

ベイズの研究は、AI予測のリスクを測定するために不可欠なツールとして浮上した。それでは、AI予測のリスクの定量化のために、ベイズの定理はどのように役立つのだろうか。

強固な仕組み

確率論に基礎を置くベイズの枠組みは、事前に得られた情報と証拠をAI予測の手順に取り入れるための強固な仕組みを提供し、それによってAI予測に伴うリスクを提示する。このベイズは、これまで多くの重要分野に応用され、成功を収めてきた。

その一例が2001年に筆者が行ったベイズの研究に基づいて飛行機の構造にAIシステムを活用する研究だ。他にも、政治に影響を及ぼすアルゴリズムの構築にベイズの研究がどのように利用されているかについて、シャンテル・グレイが研究している。

ベイズ的な手法は適応性と精確さ、不確実性管理の面で顕著な利点を示す。しかし、これらのアプローチを成功裏に実施し、維持するためには計算資源や財源にかなり投資する必要があり、このことを考慮することは極めて重要である。

一方、この計算負荷を軽減する手法も開発されている。例えば、イリエス・ブルカイベト、ソンディポン・アディカリと筆者はベイズ的なAI予測のリスク定量化法の計算コストを軽減する強固な手法を2016年に開発した。

さらに、ツァカネ・モングウェとレンダニ・ムブヴァと筆者は2023年に出版した著作の中で、機械学習に対するベイズ的リスク定量化手法を開発した。AI予測のリスク定量化がより現実的になってきたことに鑑み、ガバナンスと規制、政策にどのような影響がありうるだろうか。

AIのもたらすリスクを軽減しながらその恩恵を最大化するためには、AIシステムの開発と導入、ガバナンスに関わるすべての関係者が一丸となって取り組む必要がある。政策立案者がAI予測のリスク定量化を命じる規制を支持し、立法化することは不可欠である。

AI開発者や組織は、リスクの定量化を後回しにせず、倫理的なAI開発の基本要素として開発のライフサイクルに取り入れなければならない。

エンドユーザーと一般市民は、AI予測のリスクにまつわる透明性のある対話に参加し、AIシステムの設計と導入が社会的価値と道徳的配慮を反映するようにすべきだ。

「ティニイコが病院を訪れる例」では、AI予測が孕むリスクを測定することが医療産業において有益かつ必須であることは明らかである。医療上の決定が患者に及ぼす影響は大きい。したがって、AIによる予測の信頼性と制約を理解することが不可欠である。

誤りによる深刻な影響

医療分野でのAI予測の応用で誤りが生じた場合の悪影響は、生命に関わる誤診や不適切な治療、あるいは早期介入の機会喪失をもたらす可能性があることを考慮すると、非常に深刻である。

医療従事者はAI予測に伴うリスクを測定することによって、AI主導で得られた情報に内在する不確実性と、それらがもたらす恩恵とを比較、検討し、十分な情報に基づく決定を下すことができる。透明性や説明責任を確保し、かつ患者を中心としたAIによる提案と臨床専門知識を統合することで、この方法論は、患者のケアに対する洗練されたアプローチを促進することができる。

さらに、規制の観点からは、重要な医療現場に導入する前に、AIシステムが厳格な安全性および有効性の基準を満たしているか検証するために予測リスクを定量化することが極めて重要である。AIの時代においては、この非常に綿密なリスク評価が患者の信頼を守り、医療行為の倫理的基準を遵守する際に不可欠なのだ。

結論として、AI予測に関連する性能リスクの測定は、たとえ追加コストがかかるとしても、単なる技術的な障害であるだけでなく、社会的および道徳的な義務でもある。

AIが徐々に影響力を高める未来に向かう中で、安全性、公平性、成功への私たちの協働の行方は、強力なテクノロジーに関連するリスクを定量化し管理する私たちの能力にかかっている。

医療などの非常に重要なすべての場面でAIを活用する際に、AI予測にまつわるリスクの測定が義務化されなければならない。

・・・

この記事は最初にDaily Maverickに掲載されたものです。Daily Maverickウェブサイトに掲載された記事はこちらからご覧ください。

著者

チリツィ・マルワラ教授は国連大学の第7代学長であり、国連事務次長を務めている。人工知能(AI)の専門家であり、前職はヨハネスブルグ大学(南ア)の副学長である。マルワラ教授はケンブリッジ大学(英国)で博士号を、プレトリア大学(南アフリカ)で機械工学の修士号を、ケース・ウェスタン・リザーブ大学(米国)で機械工学の理学士号(優等位)を取得。