Modtager sundhedspleje virkelig den objektive behandling, den fortjener, fra Kunstig Intelligens (AI)? En gruppe forskere fra Massachusetts Institute of Technology (MIT) har undersøgt dette spørgsmål og afslører nogle bekymrende resultater om AI-bias inden for sundhedspleje.
Afdækning af Rodene til Bias i Sundhedspleje AI
Enhver person, uanset deres unikke fysiske karakteristika eller identitet, bør have ret til kvalitetssundhedspleje. Dog oplever visse grupper ofte uretfærdighed i sundhedssystemet, primært på grund af indgroede uligheder og fordomme i medicinsk diagnose og behandling. MIT-forskerne har opdaget, at AI og maskinlæring potentielt kan forværre disse forskelle, især for underrepræsenterede undergrupper. Denne bias kan have stor indflydelse på, hvordan disse grupper diagnosticeres og behandles.
Identificering af Ændringer, der Fører til AI-Bias
Forskningsholdet, ledet af Marzyeh Ghassemi, en assistentprofessor ved MIT’s afdeling for elektroteknologi og ingeniørvidenskab, har udgivet en artikel, der analyserer oprindelsen af forskelle, der kan opstå i AI. De har identificeret fire typer ‘subpopulation shifts’, der kan føre til bias i AI-modeller. Disse inkluderer:
- Falske korrelationer
- Attribut ubalance
- Klasse ubalance
- Attribut generalisering
Disse ændringer kan få AI-modeller, der generelt klarer sig godt, til at falde i forhold til underrepræsenterede undergrupper. For eksempel, i et datasæt, hvor der var 100 mænd diagnosticeret med lungebetændelse for hver kvinde diagnosticeret med det samme, kunne en attribut ubalance føre til, at modellen klarede sig bedre til at opdage lungebetændelse hos mænd end hos kvinder.
Er det Muligt for AI-Modeller at Operere Uden Bias?
MIT-holdet har formået at reducere forekomsten af falske korrelationer, klasse ubalance og attribut ubalance ved at forbedre ‘classifier’ og ‘encoder’. Dog har de endnu ikke fundet en løsning på ‘attribut generalisering’ ændringen. De undersøger i øjeblikket offentlige datasæt med titusinder af patienter og røntgenbilleder af brystet for at bestemme, om retfærdighed i medicinsk diagnose og behandling kan opnås i maskinlæringsmodeller. Ikke desto mindre erkender de behovet for en bedre forståelse af kilderne til uretfærdighed og hvordan de trænger ind i det nuværende system.
Som vi fortsætter med at udforske de komplekse dynamikker i AI-bias inden for sundhedspleje, er det vigtigt at huske, at det ultimative mål er at sikre retfærdig og ligebehandlende behandling for alle patienter. Ligesom investorer stoler på platforme som cryptoview.io til at navigere i den ofte biasede verden af kryptomarkedet, skal sundhedsprofessionelle også søge værktøjer og strategier, der hjælper med at modvirke bias i AI-modeller.
