Får helsevesenet virkelig den upartiske behandlingen det fortjener fra kunstig intelligens (AI)? En gruppe forskere ved Massachusetts Institute of Technology (MIT) har undersøkt dette spørsmålet og avdekket noen bekymringsfulle funn om AI-bias i helsevesenet.
Avsløring av årsakene til bias i AI i helsevesenet
Hver enkelt, uavhengig av deres unike fysiske egenskaper eller identiteter, har rett til kvalitetshelsehjelp. Likevel møter visse grupper ofte urettferdighet i helsevesenet, hovedsakelig på grunn av innarbeidede ulikheter og fordommer i medisinsk diagnose og behandling. MIT-forskerne har oppdaget at AI og maskinlæring potensielt kan forverre disse forskjellene, spesielt for underrepresenterte undergrupper. Denne skjevheten kan ha stor innvirkning på hvordan disse gruppene blir diagnostisert og behandlet.
Identifisering av endringene som fører til AI-bias
Forskergruppen, ledet av Marzyeh Ghassemi, førsteamanuensis ved MITs avdeling for elektroteknikk og datateknikk, publiserte en artikkel som analyserer opprinnelsen til forskjeller som kan oppstå i AI. De identifiserte fire typer ‘subpopulasjonsendringer’ som kan føre til bias i AI-modeller. Disse inkluderer:
- Ugyldige korrelasjoner
- Attributtubalanse
- Klasseubalanse
- Attributtgeneralisering
Disse endringene kan føre til at AI-modellene, som generelt sett fungerer bra, feiler når de håndterer underrepresenterte undergrupper. For eksempel, i et datasett der det var 100 menn diagnostisert med lungebetennelse for hver kvinne diagnostisert med det samme, kan en attributtubalanse føre til at modellen er bedre til å oppdage lungebetennelse hos menn enn hos kvinner.
Er det mulig for AI-modeller å operere uten bias?
MIT-teamet har klart å redusere forekomsten av ugyldige korrelasjoner, klasseubalanse og attributtubalanse ved å forbedre ‘klassifikatoren’ og ‘koderen’. Imidlertid har de ennå ikke funnet en løsning for endringen ‘attributtgeneralisering’. De undersøker for øyeblikket offentlige datasett med titusenvis av pasienter og bryst Røntgenbilder for å avgjøre om rettferdighet i medisinsk diagnose og behandling kan oppnås i maskinlæringsmodeller. De erkjenner likevel behovet for en bedre forståelse av kildene til urettferdighet og hvordan de trenger inn i det nåværende systemet.
Som vi fortsetter å utforske de intrikate dynamikkene i AI-bias i helsevesenet, er det viktig å huske at det ultimate målet er å sikre likeverdig og rettferdig behandling for alle pasienter. På samme måte som investorer stoler på plattformer som cryptoview.io for å navigere den ofte skjeve verdenen av kryptomarkedene, må helsepersonell også søke verktøy og strategier som hjelper til med å motvirke bias i AI-modeller.
