Sztuczna inteligencja w medycynie nie zawsze się sprawdza, a diabeł tkwi w szczegółach. SI Google’a, który opracował inteligentny system do wykrywania chorób siatkówki, we wdrożeniu był raczej uciążliwy

Najczęstszą przyczyną chorób siatkówki jest cukrzyca, która powoduje jej zwyrodnienie (retinopatię). Chorzy powinni regularnie poddawać się badaniu dna oka, które może pokazać zmiany, zanim uszkodzą wzrok. To ważne, bo nieleczone zwyrodnienie naczyń krwionośnych siatkówki może doprowadzić do całkowitej ślepoty.

Na świecie na cukrzycę cierpi 400 milionów ludzi, ale szacuje się, że dno oka regularnie bada zaledwie połowa z nich. Głównie z powodu braku odpowiedniego personelu medycznego – lekarzy okulistów, odpowiednio przeszkolonych pielęgniarek. Z myślą o tym należąca do Google’a firma DeepMind, specjalizująca się w rozwiązaniach SI, stworzyła narzędzie, które mogłoby wizytę lekarską wyeliminować.

Inżynierowie kontra proza życia

Rozwiązanie powstało do analizy obrazów optycznej tomografii koherencyjnej (optical coherence tomography, OCT), która korzysta z rozpraszania światła o długości fali bliskiej falom podczerwonym na tkankach. Metoda ta pozwala na osiągnięcie znacznie wyższej rozdzielczości niż inne metody obrazowe, co jest ważne w przypadku drobnych naczyń krwionośnych dna oka.

Jak donosili twórcy w „Nature Medicine”, ich algorytmy widzenia maszynowego po przetrenowaniu ich na 15 tysiącach obrazów potrafiły w testach wykryć zmiany w większości przypadków. Byłyby więc doskonałym narzędziem, które mogłoby uratować wzrok milionom ludzi na świecie bez konieczności konsultacji okulisty.

Tak przynajmniej wynikało z pracy badaczy. Gdy bowiem system Google’a odpalono „w terenie”, okazało się, że nie wszystko działa, jak trzeba. Google Health publikuje pracę, która podsumowuje wdrożenie systemu w tajlandzkim systemie służby zdrowia. Na firmowym blogu podsumowanie jest dość ogólnikowe i wspomina jedynie o „wyzwaniach”.

Autorzy przeglądu badań dotyczących sztucznej inteligencji w diagnostyce obrazowej są optymistami, jeśli chodzi o potencjał SI w tej dziedzinie

Jak opisuje to bardziej szczegółowo „MIT Tech Review”, podstawową wadą diagnostycznego systemu Google’a okazało się to, że analiza zdjęć odbywa się w chmurze. Tu pojawił się prozaiczny problem łącza internetowego – w niektórych gabinetach trwało to zbyt długo.

Jednak pojawił się też inny problem. O ile w warunkach testowych sztuczna inteligencja dobrze radziła sobie z rozpoznawaniem zdjęć, w przychodniach średnio co piąte uznawała za nieczytelne. To oznaczało konieczność ponownego badania w celu zrobienia zdjęcia (co przedłużało czas wizyty) lub umówienia pacjenta na kolejny termin.

Jak opisuje „MIT Tech Review”, problem wynikał z tego, że model widzenia maszynowego wytrenowano na zdjęciach wysokiej jakości. W rzeczywistości nie każde zdjęcie robione w gabinecie takie jest, a wtedy sztuczna inteligencja okazywała się bezradna.

Pielęgniarki to frustrowało, zwłaszcza gdy w ich mniemaniu na zdjęciu nie było widać zmian chorobowych, a odrzucenie zdjęcia przez program oznaczało konieczność umówienia kolejnej wizyty w gabinecie. Frustrowała je także konieczność robienia kolejnych zdjęć lub ich edycji. Pacjentów z kolei irytowała konieczność oczekiwania na wynik (co z kolei wskazuje na ciekawy mechanizm psychologiczny: pacjenci nie niecierpliwią się, gdy lekarz bada ich kilka minut, ale od rozwiązań technologicznych najwyraźniej oczekują natychmiastowego działania).

Google Health pracuje teraz z personelem medycznym nad rozwiązaniem tych problemów. Być może trzeba będzie przeszkolić personel pielęgniarski, by mógł wstępnie oceniać zdjęcia. Z pewnością trzeba sztuczną inteligencję nauczyć rozpoznawania na niedoskonałych obrazach. Oraz, rzecz jasna, zapewnić dobrej jakości łącza do przesyłania danych.

Nie skreślać SI!

Morał z tego taki, że technologie sprawdzające się w laboratoriach inżynierów nie zawsze są cudownym rozwiązaniem problemów – czasem same ich przysparzają.

Nie należy z tego wyciągać pochopnych wniosków, że sztuczna inteligencja „nie daje rady w medycynie”. Z przeglądu wielu badań dotyczących sztucznej inteligencji w diagnostyce obrazowej wynika, że jest równie dobra jak lekarze. Maszyny rozpoznają prawidłowo zmiany chorobowe w 87 proc. przypadków, ludzie zaś w 86 proc. (brak zmian maszyny identyfikują poprawnie w 91 proc. przypadków, lekarze w 93 proc).

Z tej samej pracy naukowej opublikowanej w „Lancet Digital Health” wynika też jednak, że znakomita większość systemów SI była badana w sposób daleki od zadowalającego. Przeanalizowano 20 tysięcy różnych naukowych prac, oceniających skuteczność diagnozy ludzkiej i maszynowej. Zaledwie co setna (sic!) zawierała dane wystarczająco dobrej jakości.

Autorzy przeglądu byli jednak optymistami, jeśli chodzi o potencjał medycznej sztucznej inteligencji. Wskazywali, że tam, gdzie obrazów do diagnozowania jest zbyt dużo lub brakuje specjalistów do ich oceny, jest bezcenna. Podkreślali jednak, że zawsze warto testować systemy SI w konkretnym środowisku klinicznym. Jak widać z przykładu SI Google’a, jest to doświadczenie bezcenne.

„To badanie [wdrożenie systemu medycznego Google’a w praktyce] jest ważne dla wszystkich, którzy zamierzają zabrać się do pracy i rzeczywiście wdrażać rozwiązania SI w świecie fizycznym”, komentuje dla „MIT Tech Review” Hamid Tizhoosh z kanadyjskiego Uniwersytetu w Waterloo, który również zajmuje się rozwiązaniami SI w medycynie.

Sztuczna inteligencja w medycynie, zanim stanie się codziennością, musi przejść jeszcze wiele takich bojowych prób.

Skip to content