Il settore sanitario sta ricevendo veramente il trattamento imparziale che merita dall’Intelligenza Artificiale (IA)? Un gruppo di ricercatori del Massachusetts Institute of Technology (MIT) ha esaminato questa domanda, rivelando alcune scoperte preoccupanti sul pregiudizio dell’IA nel settore sanitario.
Svelare le radici del pregiudizio nell’IA sanitaria
Ogni individuo, indipendentemente dalle sue caratteristiche fisiche o identità uniche, dovrebbe avere diritto a cure sanitarie di qualità. Tuttavia, certi gruppi spesso subiscono ingiustizie nel sistema sanitario, in gran parte a causa di disuguaglianze e pregiudizi radicati nella diagnosi e nel trattamento medico. I ricercatori del MIT hanno scoperto che l’IA e l’apprendimento automatico potrebbero peggiorare queste disparità, specialmente per i sottogruppi poco rappresentati. Questo pregiudizio può avere un impatto significativo su come vengono diagnosticati e trattati questi gruppi.
Identificare gli spostamenti che portano al pregiudizio dell’IA
Il team di ricerca, guidato da Marzyeh Ghassemi, professore associato al Dipartimento di Scienze e Ingegneria Elettrica del MIT, ha pubblicato un documento che analizza le origini delle disparità che possono emergere nell’IA. Hanno identificato quattro tipi di ‘spostamenti delle sottopopolazioni’ che possono portare a pregiudizi nei modelli di IA. Questi includono:
- Correlazioni spurie
- Disuguaglianza degli attributi
- Disuguaglianza delle classi
- Generalizzazione degli attributi
Questi spostamenti possono causare problemi ai modelli di IA, che in generale funzionano bene, quando si tratta di sottogruppi poco rappresentati. Ad esempio, in un set di dati in cui c’erano 100 uomini diagnosticati con polmonite per ogni donna diagnosticata con lo stesso problema, una disuguaglianza degli attributi potrebbe portare a una migliore capacità del modello di individuare la polmonite negli uomini rispetto alle donne.
È possibile che i modelli di IA operino senza pregiudizi?
Il team del MIT è riuscito a ridurre l’occorrenza di correlazioni spurie, disuguaglianza delle classi e disuguaglianza degli attributi migliorando il ‘classificatore’ e il ‘codificatore’. Tuttavia, non hanno ancora trovato una soluzione per lo spostamento della ‘generalizzazione degli attributi’. Attualmente stanno esaminando set di dati pubblici di decine di migliaia di pazienti e radiografie del torace per determinare se sia possibile raggiungere l’equità nella diagnosi e nel trattamento medico nei modelli di apprendimento automatico. Tuttavia, riconoscono la necessità di una migliore comprensione delle fonti di ingiustizia e di come queste si infiltrino nel sistema attuale.
Mentre continuiamo a esplorare le complesse dinamiche del pregiudizio dell’IA nel settore sanitario, è fondamentale ricordare che l’obiettivo ultimo è garantire un trattamento equo e giusto per tutti i pazienti. Proprio come gli investitori si affidano a piattaforme come cryptoview.io per navigare nel mondo spesso pregiudiziale dei mercati delle criptovalute, anche i professionisti sanitari devono cercare strumenti e strategie che aiutino a contrastare il pregiudizio nei modelli di IA.
