Zrobienie sobie selfie twarzy wystarczy do zdiagnozowania choroby serca – uważają chińscy naukowcy. Nie tak prędko! – komentują europejscy kardiolodzy

Wyniki badania chiński zespół opublikował w „European Heart Journal”, wydawanym przez Europejskie Towarzystwo Kardiologiczne (European Society of Cardiology – ESC), które omówiło też artykuł na swojej stronie internetowej.

„To pierwsza praca pokazująca, że sztuczną inteligencję można wykorzystać do analizy twarzy w celu wykrycia chorób serca. Jest to krok w kierunku opracowania narzędzia opartego na głębokim uczeniu się, które można wykorzystać do oceny ryzyka chorób serca, zarówno w przychodniach, jak i przez samych pacjentów. Za pomocą aplikacji będzie można dokonać badań przesiewowych na dużą skalę, co znacznie wesprze lekarzy w przeprowadzeniu dalszych testów diagnostycznych lub umówienia wizyty klinicznej” – komentuje cytowany przez ESC kierownik projektu dr Zhe Zang, dyrektor szpitala w Fuwai i członek Chińskiej Akademii Nauk.

W medycynie powszechnie wiadomo, iż niektóre cechy wyglądu zewnętrznego twarzy wiążą się ze zwiększonym ryzykiem chorób serca. Jednak skuteczne zastosowanie takiej wiedzy przy analizie chorób kariologicznych nie było do tej pory takie proste

Według ESC chińskie badanie jest rzeczywiście pierwszym, które wykazało, że możliwe jest użycie algorytmu uczenia głębokiego do wykrywania choroby wieńcowej (CAD) poprzez analizę tylko czterech zdjęć twarzy osoby. Na tym jednak kończy się optymizm Towarzystwa. Algorytm musi bowiem być dalej rozwijany i testowany na większych grupach osób z różnych środowisk etnicznych. Jednak, jak twierdzą naukowcy, może on zostać wykorzystany jako narzędzie przesiewowe, które mogłoby zidentyfikować możliwe choroby serca u osób w populacji ogólnej lub w grupach ryzyka, które mogłyby zostać skierowane do dalszych badań klinicznych.

Jak informuje ESC, w medycynie powszechnie wiadomo, iż niektóre cechy wyglądu zewnętrznego twarzy wiążą się ze zwiększonym ryzykiem chorób serca. Należą do nich między innymi przerzedzone lub siwe włosy, zmarszczki, fałdy na płatku ucha czy małe, żółte złogi cholesterolu pod skórą, zwykle wokół powiek. Jednak skuteczne zastosowanie takiej wiedzy przy analizie chorób kariologicznych nie było do tej pory takie proste. Choroba wieńcowa, która była analizowana przez naukowców, to inaczej choroba niedokrwienna serca. Jej wynikiem jest niski poziom dotlenienia komórek mięśnia sercowego. Przyczyną takiego stanu rzeczy jest zwężenie lub zamknięcie światła tętnic wieńcowych.

Badanie w warunkach klinicznych obejmowało wykonanie przez przeszkolony personel czterech zdjęć twarzy pacjentów chorych na serce za pomocą aparatu cyfrowego, jednego z przodu, dwóch profili i jednego widoku z czubka głowy. Równocześnie lekarze z Chin przeprowadzili wywiady z pacjentami, aby zebrać dane dotyczące statusu społeczno-ekonomicznego, stylu życia i historii medycznej. Z kolei radiolodzy przejrzeli angiogramy pacjentów i ocenili stopień rozwoju choroby serca w zależności od liczby naczyń krwionośnych zwężonych o 50 procent oraz ich lokalizacji. Informacje te wykorzystano do stworzenia, szkolenia i weryfikacji algorytmu głębokiego uczenia – czytamy w informacji prasowej ESC.

Łącznie przebadano niemal sześć tysięcy pacjentów, którzy przechodzili różne badania, jak koronarografia czy angiografia tętnic wieńcowych metodą tomografii komputerowej (CCTA). Część danych pozyskiwanych od pacjentów była zaliczona do grupy szkoleniowej, a ok. 10 proc. do grupy walidacyjnej, czyli testującej skuteczność algorytmu. Efektem była sytuacja, w której wspomniany algorytm przewyższał istniejące metody przewidywania ryzyka schorzeń kardiologicznych. W grupie pacjentów walidacyjnych algorytm prawidłowo wykrył chorobę serca w 80 proc. przypadków (prawdziwie dodatni wskaźnik lub tzw. „czułość”), a prawidłowo wykryta choroba serca nie była obecna w 61 proc. przypadków (prawdziwie ujemny odsetek lub „swoistość”). W grupie testowej czułość wyniosła 80 proc., a swoistość 54 proc.

Wysoki odsetek fałszywie dodatnich wyników, sięgający aż 46 proc., może powodować niepokój i niedogodności dla pacjentów, a także potencjalnie przeciążać kliniki pacjentami wymagającymi niepotrzebnych badań.

Ta SI rozpozna wiek i płeć pacjenta, a miażdżycy już nie

O komentarz do badania poprosiliśmy prof. dr. hab. n. med. Marcina Grabowskiego, kardiologa, specjalistę chorób wewnętrznych i hipertensjologa z Warszawskiego Uniwersytetu Medycznego.

Tomasz Jurczak: Jak pan ocenia pracę chińskich naukowców, wskazującą na możliwość wykorzystania selfie do diagnozy chorób serca?

Prof. Marcin Grabowski: Tę pracę naukową można rozważać w kilku aspektach. Po pierwsze, warto pamiętać o aspekcie historycznym. Dziś mówimy o selfie, ale przecież od dawna prowadzone są analizy starych portretów malowanych przez wybitnych artystów, na podstawie których można zaobserwować pewne cechy wyglądu charakterystyczne dla danej choroby. U przedstawionych na portretach często można zaobserwować objawy, tj. typowe zmiany na twarzy, charakterystyczną posturę czy zmianę kształtu kończyn. Dzięki tym analizom dziś wiemy, że wiele postaci historycznych cierpiało na jakąś chorobę. Na podstawie zdjęcia czy obrazu można domniemywać stanu zdrowia przedstawionej osoby, więc nie jest to nowa rzecz.

Należy jednak zaznaczyć, że powyższa publikacja jest chyba pierwszym doniesieniem na temat potencjalnego diagnozowania pacjentów na podstawie zdjęcia i może ona otworzyć wiele możliwości. Praca została opublikowana w bardzo poczytnym czasopiśmie naukowym, więc można zakładać, że jest to pewnego rodzaju przełom.

A jaką wartość ma ta analiza dla dalszych badań?

Niestety, jak wynika z artykułu, metoda ta nie ma jeszcze wystarczająco skutecznego zastosowania w diagnozowaniu chorób serca. Dobrany przez naukowców algorytm dobrze rozpoznawał płeć czy wiek pacjenta, jednak nie miał jednak dużej siły np. przy rozpoznaniu miażdżycy.

Na rynku działają już aplikacje, które są w stanie rozpoznać płeć i wiek, a niekiedy nawet nastrój, bazując na kształcie ust czy oczu. Takie programy były wcześniej już znane. W Warszawie odbyła się nawet prezentacja robota, który spełniał te funkcje. Jednak dopiero powyższą publikację możemy postrzegać jako pionierską.

Nie wydaje się pan jednak przekonany o skuteczności. Skąd może wynikać problem?

Diagnozę utrudnia to, że niewiele objawów jesteśmy w stanie zaobserwować na twarzy. Często uwidaczniają się one dopiero w zaawansowanej postaci choroby. W dzisiejszych czasach dość szybko rozpoznajemy chorobę i wdrażamy leczenie. Dzięki temu rzadziej dochodzi do zaawansowanego stadium choroby, która uwidoczniłaby się na skórze.

Prof. Marcin Grabowski

Co można wyczytać z twarzy pacjenta?

Na pewno płeć rozumianą jako czynnik ryzyka. Dalej wiek jako kolejny równie silny czynnik, ponieważ wraz z nim rośnie prawdopodobieństwo miażdżycy. Możemy też zaobserwować stan skóry pacjenta. Osoby w grupie ryzyka, na przykład palące papierosy, mają zniszczoną twarz oraz pożółkłe palce.

Ponadto uwidaczniają się tak zwane „żółtaki”, które są zmianami skórnymi charakterystycznymi dla wysokiego poziomu cholesterolu. Objawy te występują na powiekach, więc aplikacja mogłaby rozpoznać potencjalną hipercholesterolemię.

Co jest potrzebne do skutecznej analizy obrazu twarzy?

Aby taka aplikacja działała poprawnie, należałoby wprowadzić setki tysięcy zdjęć osób zdrowych oraz chorych, tak by program mógł znaleźć zależność i dopasować prawdopodobieństwo do zdjęcia pacjenta, natomiast nadal byłaby to tylko forma screeningu, a osoby z podejrzeniem schorzenia wymagałyby dalszej diagnostyki.

Czyli nie ma całkowitej pewności?

Potrafię sobie wyobrazić, że w najbliższym czasie powstaną aplikacje selfie, które będą formą screeningu, pozwalającego rozpoznać pacjentów wymagających dalszej diagnostyki w kierunku chorób, natomiast na podstawie zdjęcia nawet lekarz nie jest w stanie udzielić pewnego rozpoznania.

Doświadczony lekarz, widząc pacjenta, może domniemywać pewnych schorzeń. Są choroby serca, które dają na skórze zmiany w postaci pajączków naczyniowych, mikrowybroczyn, mikrowylewów, więc są te elementy, które aplikacja potrafiłaby rozpoznać i dawać jakieś wstępne sugestie, jednak 100-proc. pewność dają tylko zaawansowane badania kliniczne.

W jaki sposób algorytmy SI są wykorzystywane w kardiologii?

Znane są aplikacje, które pozwalają analizować zdjęcie rentgenowskie prześwietlonych stymulatorów. Na takich zdjęciach widać scalone elementy metalowe stymulatora, a specjalne aplikacje potrafią rozpoznać jego model.
W czym to może pomóc?

To może być bardzo użyteczne narzędzie np. na dyżurze, kiedy lekarz nie ma doświadczenia, ponieważ stymulatory pod skórą są niewidoczne. Dzięki takiej aplikacji wystarczy, że lekarz zrobi rentgen klatki piersiowej, dowie się, jaki typ stymulatora został zastosowany u danego pacjenta, dzięki czemu wie, jak przeprogramować ten stymulator. Czasami coś takiego może uratować życie.

Czyli sztuczna inteligencja ma przyszłość w kardiologii?

Zdecydowanie w tym obszarze nastąpi dalszy rozwój technologii, ale są to elementy większego systemu. Aby mówić o skutecznym działaniu SI, muszą być wprowadzone odpowiednie dane wsadowe. Innymi słowy, najpierw do takiej aplikacji należy wrzucić tysiące zdjęć zdrowych i chorych osób, aby algorytm mógł się nauczyć rozpoznawać nieprawidłowości.

Wtedy taki algorytm może znaleźć pewien szczegół, który dla nas być może nie będzie istotny, np. zmiana odcienia skóry, co może już stanowić kryterium rozpoznawcze. Oczywiście taki algorytm będzie działał na zasadzie screeningu, selekcji chorych do dalszego badania. Być może zastosowanie tych aplikacji w najbliższym czasie stanie się powszechniejsze i będzie używane zarówno przez lekarzy, jak i pacjentów, a nawet w monitoringu publicznym. Są kraje, gdzie wprowadzone już zostały kamery termowizyjne na ulicach. Selekcjonują one ludzi z tłumu na podstawie algorytmów rozpoznawania twarzy.

Jeśli jednak chodzi o choroby serca, to mogą być one trudne do rozpoznania ze względu na brak szczególnych objawów. Wspomniany w badaniu algorytm był silny tylko w wymiarze rozpoznawania twarzy czy wieku.
Czyli do końcowego rozpoznania niezbędny pozostaje specjalista, kardiolog, lekarz, człowiek…

Mówiąc krótko, aplikacja nie jest w stanie zauważyć tylu cech charakterystycznych dla danej choroby, ile może zauważyć doświadczony lekarz-praktyk na podstawie samej wizyty. Zwykle jego uwadze nie umyka np. sposób poruszania się pacjenta, gestykulacji, sposób mówienia, co już dużo może o nim powiedzieć.

Jak mówią praktycy medycyny, 90 proc. rozpoznania stawia się po rozmowie i obserwacji.

Czyli też pozyskuje dane? Podobnie jak algorytm.

Im więcej zostanie wprowadzonych danych wsadowych, tym lepsza staje się skuteczność algorytmu. To również jest wskazane w omawianym artykule naukowym chińskich badaczy. Musimy jednak pamiętać o jednej kwestii. W medycynie postawienie wyniku fałszywie dodatniego może być szkodliwe, bo narażamy pacjenta na przykład na diagnostykę inwazyjną. Wtedy medycyna może zaszkodzić. W tej dziedzinie nauki specjaliści oceniają na zasadzie czułości i swoistości. Czułość to wykrywalność chorych, a swoistość to wskazanie pacjentów zdrowych, którzy nie wymagają jednak podejmowania radykalnych działań diagnostycznych.

Ważny jest zatem ten stosunek czułość – swoistość. We wspomnianym projekcie rozpoznawania płci i wieku był on na poziomie 70-80 proc., a jeśli chodzi o rozpoznawanie charakterystycznych zmian na twarzy zaledwie na poziomie 50-60 procent.

Niewiele.

Dokładnie. Na dobrą sprawę można byłoby rzucać monetą, stawiając rozpoznanie. Z drugiej strony ktoś konserwatywnie, pryncypialnie może powiedzieć, że medycyna jest sztuką i zawsze pojawi się nietypowy przypadek o innym, nietypowym przebiegu i tylko człowiek jest w stanie to intuicyjnie zbadać. Jednak nie uciekniemy od algorytmów oraz automatyki w medycynie. Zresztą ona w dużej mierze już jest.

Skip to content