Le domaine de la santé bénéficie-t-il vraiment du traitement impartial qu’il mérite de l’intelligence artificielle (IA) ? Un groupe de chercheurs du Massachusetts Institute of Technology (MIT) s’est penché sur cette question, révélant des résultats préoccupants sur les biais de l’IA dans le domaine de la santé.
Découverte des racines des biais de l’IA dans le domaine de la santé
Chaque individu, quelles que soient ses caractéristiques physiques ou son identité, a droit à des soins de santé de qualité. Pourtant, certains groupes sont souvent confrontés à des injustices dans le système de santé, en grande partie en raison d’inégalités et de biais profondément enracinés dans le diagnostic et le traitement médicaux. Les chercheurs du MIT ont découvert que l’IA et l’apprentissage automatique pourraient aggraver ces disparités, en particulier pour les sous-groupes sous-représentés. Ce biais peut avoir un impact significatif sur le diagnostic et le traitement de ces groupes.
Identification des changements qui conduisent aux biais de l’IA
L’équipe de recherche, dirigée par Marzyeh Ghassemi, professeure adjointe au département des sciences et de l’ingénierie électrique du MIT, a publié un document analysant les origines des disparités qui peuvent survenir dans l’IA. Ils ont identifié quatre types de ‘changements de sous-population’ qui peuvent entraîner des biais dans les modèles d’IA. Il s’agit notamment de :
- Corrélations fallacieuses
- Déséquilibre des attributs
- Déséquilibre des classes
- Généralisation des attributs
Ces changements peuvent amener les modèles d’IA, qui fonctionnent généralement bien, à rencontrer des difficultés lorsqu’ils traitent des sous-groupes sous-représentés. Par exemple, dans un ensemble de données où il y avait 100 hommes diagnostiqués avec une pneumonie pour chaque femme diagnostiquée avec la même maladie, un déséquilibre des attributs pourrait conduire à ce que le modèle détecte mieux la pneumonie chez les hommes que chez les femmes.
Est-il possible que les modèles d’IA fonctionnent sans biais ?
L’équipe du MIT a réussi à réduire l’apparition de corrélations fallacieuses, de déséquilibre des classes et de déséquilibre des attributs en améliorant le ‘classifieur’ et l »encodeur’. Cependant, ils n’ont pas encore trouvé de solution pour le changement de ‘généralisation des attributs’. Ils examinent actuellement des ensembles de données publics comprenant des dizaines de milliers de patients et de radiographies thoraciques afin de déterminer si l’équité dans le diagnostic et le traitement médicaux peut être atteinte dans les modèles d’apprentissage automatique. Néanmoins, ils reconnaissent la nécessité de mieux comprendre les sources d’injustice et la manière dont elles s’infiltrent dans le système actuel.
Alors que nous continuons à explorer les dynamiques complexes des biais de l’IA dans le domaine de la santé, il est essentiel de se rappeler que l’objectif ultime est d’assurer un traitement équitable pour tous les patients. Tout comme les investisseurs s’appuient sur des plateformes comme cryptoview.io pour naviguer dans le monde souvent biaisé des marchés de la cryptographie, les professionnels de la santé doivent également chercher des outils et des stratégies qui aident à contrer les biais dans les modèles d’IA.
Commencez dès maintenant à utiliser nos outils gratuitement.
