• Maszyny rozpoznają statystyczne wzorce umykające ludziom
  • Sztuczna inteligencja może przewidzieć ryzyko śmierci na podstawie EKG trafniej niż lekarze
  • Ale jest problem – „problem czarnej skrzynki”

Jak donosi „New Scientist”, algorytm może trafnie rozpoznać ryzyko zgonu na podstawie zapisu elektrycznej aktywności serca z elektrokardiogramu (EKG). Odkrycie ogłoszono podczas zjazdu naukowego American Heart Association 16 listopada.

Brandon Fornwalt z amerykańskiej firmy Geisinger zajmującej się świadczeniem usług medycznych wprowadził do sieci neuronowej dane z 1,7 miliona zapisów EKG niemal 400 tysięcy osób. Na podstawie informacji o losie pacjentów w ciągu roku po takim badaniu sieć miała się nauczyć przewidzieć jedno – czy badany przeżyje najbliższy rok, czy nie.

W pierwszej wersji algorytm przetwarzał surowe, nieobrobione dane z EKG. W drugiej także informacje o wieku i płci pacjenta. Badacze mierzyli skuteczność modelu za pomocą parametru zwanego AUC (area under the curve), który pokazuje, jak dobrze model odróżnia dwie grupy – w tym wypadku grupę osób, które zmarły w ciągu roku od badania EKG, od grupy osób, które po tym czasie nadal żyły.

Algorytmy osiągały wynik powyżej 0,85 (gdzie 1 oznacza stuprocentową trafność przewidywań, a 0,5 trafność taką jak losowy rzut monetą). Dla porównania – lekarze, mając do dyspozycji EKG oraz informacje o wieku i płci pacjenta, osiągają wynik pomiędzy 0,65 a 0,8. Algorytmy okazały się więc lepsze w przewidywaniach niż lekarze.

Co umyka lekarzom?

Zaskakująca była też liczba osób, które zostały przypisane do grupy ryzyka mimo poprawnego EKG. W takich przypadkach nawet trzech kardiologów nie było w stanie stwierdzić, na jakiej podstawie algorytm typuje daną osobę do grupy ryzyka. Fornwalt komentuje dla „New Scientista”, że najwyraźniej model wychwytuje w zapisie czynności elektrycznej serca pewne subtelne wzorce, których nie jest w stanie wyłapać ludzkie oko. Lub też i wyłapuje, lecz błędnie uznaje za zdrowe.

Sztuczna inteligencja mogłaby więc nauczyć lekarzy czegoś, co być może medycynie umyka. Ale niestety nie wiemy, co to jest. Sieci neuronowe przetwarzają tylko dane i wychwytują wzorce, ale nie są w stanie podać podstawy swoich decyzji (co znane jest pod nazwą „problemu czarnej skrzynki”). Jest to zresztą jeden z powodów, dla których lekarze niechętnie odnoszą się do komputerowych algorytmów.

Zaskakująca była liczba osób, które zostały przypisane do grupy ryzyka mimo poprawnego EKG

Badanie oparte było na danych historycznych (tzn. algorytm rozpatrywał zapisy EKG i porównywał z późniejszym losem pacjenta znanym z dokumentacji medycznej prowadzonej przez firmę). Badacze przyznają, że muszą jeszcze udowodnić, że maszyna będzie w stanie równie trafnie przewidzieć ryzyko w sytuacji klinicznej, czyli na podstawie danych pacjentów otrzymywanych na bieżąco.

Nie jest to pierwszy raz, gdy algorytmy wykazują swoją zręczność w diagnostyce kardiologicznej. Niedawno opisywaliśmy, że sztuczna inteligencja może przewidzieć ryzyko zawału serca na kilka lat naprzód, a wynalazcy tej metody chcą, żeby stała się standardem w brytyjskiej służbie zdrowia. Algorytmy okazują się też równie dobre jak lekarze w diagnostyce obrazowej.

Doktor algorytm

Maszyny są bardzo skuteczne w rozpoznawaniu statystycznych wzorców umykających ludziom. Ale wytrenowanie sieci neuronowej i stwierdzenie, że trafnie przewidziała uprzednie decyzje lekarzy, to jedno. Podjęcie decyzji w sprawie leczenia konkretnego pacjenta na podstawie algorytmów, których decyzji nie potrafimy wyjaśnić – to drugie.

Jak zauważa „Popular Mechanics”, w medycynie jest to kwestia etyczna. O tym, że sztuczna inteligencja nie powinna nas leczyć, przekonana jest m.in. dr Aleksandra Przegalińska z Akademii Leona Koźmińskiego i Massachusetts Institute of Technology.

– Bota lekarza raczej nie powinno być. Bot, który asystuje, wspiera diagnozę, może zbiera jakieś informacje, robi wywiad – owszem (oczywiście, oznaczony jako bot). Ale sztuczne inteligencje nie powinny podejmować fundamentalnych decyzji dotyczących zdrowia, finansów czy rodziny – mówiła badaczka w rozmowie z nami.

Skip to content