Wykorzystanie uczenia maszynowego do poprawy jakości obrazów w medycynie ma fundamentalne ograniczenia – ostrzegają badacze z Cambridge

Diagnostyka obrazowa bywa czasochłonna. Na przykład badanie za pomocą rezonansu magnetycznego (MRI) trwa od kwadransa do dwóch godzin. Im dokładniejsze mają być obrazy, tym dłużej trwa badanie.

Pomysł, by badanie skrócić, a otrzymane obrazy o niższej rozdzielczości „poprawić” za pomocą algorytmów sztucznej inteligencji, jest kuszący. Pozwoliłoby to na skrócenie czasu pobytu pacjentów w maszynie, co narazi ich na niższą dawkę promieniowania. Pozwala też, rzecz jasna, na przebadanie większej liczby chorych w tym samym czasie. W teorii to możliwe – odpowiednio wyuczona sieć neuronowa może nauczyć się poprawiać „ostrość” obrazów.

– Stąd powszechnie stosowane są metody oszczędnego próbkowania (compressed sensing), czyli algorytmicznego podejścia do wprowadzenia metod ograniczania liczby próbek – mówi Piotr Sobecki, kierownik Laboratorium Stosowanej Sztucznej Inteligencji w Ośrodku Przetwarzania Informacji (OPI PIB jest wydawcą naszego portalu). – Ostatnie wyniki prac and modelami sztucznej inteligencji opartej o głębokie sieci neuronowe udowadniają, że stosowanie architektur GAN (generative adversarial network) umożliwia skuteczną i znaczącą poprawę rozdzielczości obrazów. Wyniki takich prac są obiecujące przykładowo w rozpoznawaniu nowotworów. Takie metody pozwalają na przetwarzanie obrazów bez ingerencji w oprogramowanie medycznych aparatur – dodaje.

Stosowanie metod uczenia głębokiego ma potencjał w przypadku zmiany rozdzielczości obrazów – jednak w przypadku obrazowania medycznego ten optymizm powinien być zrównoważony ostrożnością

Piotr Sobecki, OPI PIB

Zapał studzą nieco badacze z Cambridge (w zespole byli także naukowcy z Norwegii, Portugalii i Kanady), którzy sprawdzili działanie algorytmów SI na obrazach z rezonansu magnetycznego i tomografii komputerowej. Pracę dotyczącą rekonstrukcji obrazów w diagnostyce medycznej z wykorzystaniem sieci neuronowych opublikowali w „Proceedings of national Academy of Sciences” (PNAS).
Stwierdzili, że sieci neuronowe nie radzą sobie z interpretacją obrazu, gdy pacjent się porusza. Nie radzą sobie też z bardzo czasem subtelnymi, jak w przypadku mózgu, różnicami między brakiem zmian a niewielkimi zmianami chorobowymi.
Są też inne wyzwania.

Jak tłumaczy nam Piotr Sobecki: – Aby algorytmy działały, sekwencje muszą być ograniczone do takiej postaci, na jakiej są wyuczone modele. Dane MRI są ograniczone i zwiększanie rozdzielczości badania bardzo zależy od problematyki. Przykładowo, jeżeli skupiamy się na neurobiologii, to modele zwiększające rozdzielczość MRI powinny być wyuczone na danych pochodzących z badań centralnego układu nerwowego. Ponadto może występować problem braku równowagi w danych – z reguły dane uczące pochodzą od osób, u których występuje uzasadnione podejrzenie choroby. W takim wypadku model może być zaburzony w swoich oczekiwaniach i na przykład ślady pozostałe po poruszeniu się pacjenta interpretować jako zmiany chorobowe. Wreszcie danych jest mało, ciężko je zebrać, a parametry każdej maszyny (MRI i TK) nieznacznie się różnią. Potrzeba by było ogromnych, zróżnicowanych zbiorów danych. Autorzy pracy zauważają, że potrzeba by nawet setek sieci neuronowych, żeby brać pod uwagę zróżnicowanie tych parametrów.

Metoda prób i błędów nigdy nie pozwoliłaby stwierdzić, że alchemicy nie otrzymają złota (potrzebny był do tego rozwój chemii i fizyki jądrowej). Podobną sytuację mamy obecnie ze sztuczną inteligencją

Anders Hansen, Uniwersytet w Cambridge

To wszystko, piszą badacze w pracy, prowadzi do powstawania tzw. artefaktów – czyli obiektów, które widnieją na zdjęciach, choć w rzeczywistości ich nie ma. Problem dotyczy wielu różnych testowanych przez badaczy sieci neuronowych, nie tylko jednego rozwiązania.

„Opracowaliśmy test, by zweryfikować naszą hipotezę, że techniki uczenia głębokiego będą powszechnie niestabilne w diagnostyce obrazowej – informuje dr Anders Hansen z Wydziału Matematyki Stosowanej i Fizyki Teoretycznej Uniwersytetu w Cambridge w materiale na stronie wydziału. – Źródłem naszych przewidywań było to, że istnieje pewien limit tego, jak dobra może być rekonstrukcja obrazu, zważywszy na ograniczenie czasu obrazowania. W pewnym sensie nowoczesne techniki SI tę barierę przekraczają, a wskutek tego stają się niestabilne. Wykazaliśmy matematycznie, że te niestabilności mają pewną cenę, a ujmując to prościej: nie ma czegoś takiego jak darmowy lunch”.

Badacze obecnie koncentrują się na stwierdzeniu, jakie są fundamentalne ograniczenia tego, co można zrobić za pomocą technik sztucznej inteligencji – dopiero gdy te granice poznamy, będziemy mogli zrozumieć, jakie może rozwiązać problemy.

„Metoda prób i błędów nigdy nie pozwoliłaby stwierdzić, że alchemicy nie otrzymają złota (potrzebny był do tego rozwój współczesnej chemii i fizyki jądrowej). Podobną sytuację mamy obecnie ze sztuczną inteligencją – dodaje Hansen. – Techniki te nigdy nie odkryją własnych ograniczeń. Można to wykazać tylko matematycznie”.

– Stosowanie metod uczenia głębokiego ma potencjał w przypadku zmiany rozdzielczości obrazów – jednak w przypadku obrazowania medycznego ten optymizm powinien być zrównoważony ostrożnością – komentuje Piotr Sobecki.

Skip to content