ヘルスケアの領域は、人工知能(AI)から公正な扱いを受けているのでしょうか? マサチューセッツ工科大学(MIT)の研究者グループがこの問いに取り組み、ヘルスケアAIの偏りについていくつかの懸念すべき結果を明らかにしました。
ヘルスケアAIの偏りの根源を明らかにする
個々の人々は、彼らの独自の身体的特徴やアイデンティティに関係なく、質の高いヘルスケアを受ける権利を持つべきです。しかし、特定のグループはヘルスケアシステムで不公平さに直面することがあり、医療診断や治療の中で根付いた不平等や偏見が主な要因です。MITの研究者たちは、AIと機械学習がこれらの格差を悪化させる可能性があることを発見しました。特に、代表的でないサブグループにとっては、この偏りが診断や治療の方法に大きな影響を与える可能性があります。
ヘルスケアAIの偏りをもたらす変化を特定する
Marzyeh Ghassemi氏(MIT電気科学・工学部助教授)率いる研究チームは、AIに生じる格差の起源を分析した論文を発表しました。彼らは、AIモデルに偏りをもたらす4つの「サブポピュレーションシフト」を特定しました。これらは以下のようなものです:
- 虚偽の相関
- 属性の不均衡
- クラスの不均衡
- 属性の一般化
これらの変化により、一般的にはうまく機能するAIモデルが、代表的でないサブグループを扱う際につまずくことがあります。例えば、男性の肺炎と同じくらいの女性が診断された場合に、属性の不均衡が男性よりも女性の肺炎の検出に優れたモデルの性能をもたらす可能性があります。
AIモデルは偏りなく動作することは可能か?
MITチームは、「分類器」と「エンコーダー」を改良することで、虚偽の相関、クラスの不均衡、属性の不均衡の発生を減らすことに成功しました。しかし、「属性の一般化」の変化に対する解決策はまだ見つかっていません。彼らは現在、数万人の患者と胸部X線の公開データセットを調査し、機械学習モデルにおける医療診断や治療の公平性が実現可能かどうかを検討しています。それでも、不公平さの源泉とそれが現行システムにどのように浸透するかをより良く理解する必要があると認識しています。
私たちがヘルスケアの領域でのAIの偏りの微妙なダイナミクスを探求し続ける中で、すべての患者に公正で公平な治療を確保することが最終目標であることを忘れないでください。投資家がcryptoview.ioのようなプラットフォームに頼るのと同様に、ヘルスケアの専門家もAIモデルの偏りに対抗するのに役立つツールや戦略を求める必要があります。
