Na drodze rozwoju sztucznej inteligencji stoi przeszkoda, z którą nasz mózg radzi sobie bez najmniejszej trudności. Czy badania nad nim pomogą przezwyciężyć “katastrofalne zapominanie” maszyn?

Jeśli chodzi o projektowanie sztucznej inteligencji, wciąż jesteśmy „technologicznymi jaskiniowcami”. Tak przynajmniej uważa Massimiliano „Max” Versace z bostońskiego start-upu Neurala. Dzieje się tak m.in. dlatego, że od dawna nie potrafimy sobie poradzić ze zjawiskiem tzw. katastrofalnego zapominania (catastrophic forgetting).

Dziś sztuczna inteligencja radzi sobie świetnie, o ile musi się nauczyć jednej rzeczy, jak np. przewidywanie fluktuacji kryptowalut, rozpoznawanie twarzy czy przeszkód na drodze. Jeśli natomiast spróbuje przyswoić nowe umiejętności, to ten proces nieodwracalnie nadpisze wcześniej zdobyte dane z pamięci – czyli nieodwracalnie je usunie, by zastąpić je nowymi.

Sztuczna inteligencja nie ma zdolności uczenia się i przechowywania wielu umiejętności oraz przełączania się pomiędzy nimi odpowiednio do kontekstu. Tymczasem ludzki mózg radzi sobie z tym doskonale i robi to setki razy dziennie. Odpowiada za to mechanizm, który pozwala, w zależności od sytuacji, kierować się różnymi zasadami działania. Uruchamia się na przykład w momencie, kiedy zjeżdżamy z autostrady na drogę lokalną i decydujemy się zwolnić, czy gdy milkniemy na widok profesora wkraczającego do sali wykładowej.

Zespół naukowców z McGovern Institute for Brain Research z MIT pod kierownictwem Michaela Halassy postanowił sprawdzić, jakie procesy w mózgu człowieka za to odpowiadają. Z wcześniejszych badań wiadomo, że zestawy zasad postępowania są przechowywane w korze przedczołowej, odpowiedzialnej za naszą elastyczność poznawczą. Z kolei za przełączanie kontekstów odpowiada część przyśrodkowa wzgórza.

Badacze z MIT wzięli na cel zależności między tymi ośrodkami. Okazuje się, że w momencie zmiany sytuacji (zjazd z autostrady, wejście profesora do sali) wzgórze wysyła do kory przedczołowej sygnały, które tłumią dotychczas obowiązujące zestawy zasad i pozwalają aktywować nowe, odpowiednie do kontekstu. Bez tego nasze zachowanie byłoby nieadekwatne do sytuacji. Co ważniejsze, ten proces chroni nieużywane w danym momencie zestawy zasad. Są przetrzymywane i mogą być użyte ponownie, kiedy kontekst będzie tego wymagał.

Badacze liczą na to, że poznany właśnie mechanizm da się przenieść na grunt badań nad sztuczną inteligencją. Sieci neuronowe mogłyby bezpiecznie przechowywać wcześniej nabyte umiejętności, równocześnie ucząc się nowych. Byłby to krok w stronę stworzenia ogólnej sztucznej inteligencji (artificial general intelligence – AGI), zdolnej do samodzielnej oceny sytuacji, uczenia i adaptacji do nowych zadań.

Skip to content