Czy obszar opieki zdrowotnej otrzymuje naprawdę bezstronne traktowanie, jakie zasługuje od Sztucznej Inteligencji (SI)? Grupa badaczy z Massachusetts Institute of Technology (MIT) zagłębiła się w to pytanie, ujawniając niepokojące wyniki dotyczące uprzedzeń SI w opiece zdrowotnej.
Odkrywanie korzeni uprzedzeń w SI w opiece zdrowotnej
Każda osoba, niezależnie od swoich unikalnych cech fizycznych czy tożsamości, powinna mieć prawo do jakościowej opieki zdrowotnej. Jednak pewne grupy często spotykają się z niesprawiedliwością w systemie opieki zdrowotnej, głównie z powodu zakorzenionych nierówności i uprzedzeń w diagnozie i leczeniu medycznym. Badacze z MIT odkryli, że SI i uczenie maszynowe mogą potencjalnie pogorszyć te różnice, zwłaszcza dla grup mniejszościowych. Ta uprzedzoność może znacząco wpływać na diagnozowanie i leczenie tych grup.
Identyfikacja zmian prowadzących do uprzedzeń SI
Zespół badawczy pod kierownictwem Marzyeh Ghassemi, profesor asystent w Wydziale Nauk Elektrycznych i Inżynierii MIT, opublikował artykuł analizujący pochodzenie różnic, które mogą pojawić się w SI. Zidentyfikowano cztery rodzaje „przesunięć podpopulacji”, które mogą prowadzić do uprzedzeń w modelach SI. Należą do nich:
- Fałszywe korelacje
- Nierównowaga atrybutów
- Nierównowaga klas
- Uogólnianie atrybutów
Te zmiany mogą sprawić, że modele SI, które generalnie dobrze sobie radzą, będą miały problemy w przypadku grup mniejszościowych. Na przykład w zbiorze danych, gdzie 100 mężczyzn było diagnozowanych z zapaleniem płuc na każdą kobietę z taką samą diagnozą, nierównowaga atrybutów może sprawić, że model lepiej wykrywa zapalenie płuc u mężczyzn niż u kobiet.
Czy modele SI mogą działać bez uprzedzeń?
Zespół z MITowi udało się zmniejszyć występowanie fałszywych korelacji, nierównowagi klas i nierównowagi atrybutów poprzez usprawnienie 'klasyfikatora’ i 'enkodera’. Jednakże, nadal nie znaleźli rozwiązania dla przesunięcia 'uogólnianie atrybutów’. Obecnie analizują publiczne zbiory danych dziesiątek tysięcy pacjentów i zdjęć rentgenowskich klatki piersiowej, aby ustalić, czy można osiągnąć sprawiedliwość w diagnozie i leczeniu medycznym w modelach uczenia maszynowego. Niemniej jednak, uznają konieczność lepszego zrozumienia źródeł niesprawiedliwości i jak one przenikają do obecnego systemu.
Kiedy kontynuujemy badanie skomplikowanej dynamiki uprzedzeń SI w opiece zdrowotnej, ważne jest pamiętać, że ostatecznym celem jest zapewnienie równego i sprawiedliwego traktowania dla wszystkich pacjentów. Podobnie jak inwestorzy polegają na platformach takich jak cryptoview.io do poruszania się w świecie często uprzedzonego rynku kryptowalut, pracownicy służby zdrowia również muszą szukać narzędzi i strategii, które pomogą zwalczać uprzedzenia w modelach SI.
