Sztuczna inteligencja tak naprawdę jest głupia – nie wie nic o fizycznym świecie. Badacze z DeepMind chcą to zmienić

Algorytmy uczenia maszynowego są doskonałe w odnajdywaniu wzorców w wielkiej ilości dostarczonych im danych. Mają jednak zasadniczą wadę – nie wiedzą nic o otaczającym je świecie.

To znacznie ogranicza możliwości ich wykorzystania, na przykład w sterowaniu autonomicznych robotów. Maszyny nie wiedzą, że schody służą do wchodzenia na wyższe piętra, z których składają się budynki, w których mieszkają lub pracują ludzie… I tak dalej. Lista tego, czego systemy sztucznej inteligencji nie wiedzą (a o czym wie już kilkuletnie dziecko), jest niezmiernie długa.

Wiedza o tym, do czego rzeczy mogą posłużyć (na przykład, że garnki służą do gotowania, a schody do wchodzenia), to afordancje, z ang. affordance – sposobność. Pod tą nazwą kryją się wszelkie sposobności interakcji z danym obiektem. Koncepcja powstała najpierw w psychologii, potem zaczęła być używana w szeroko pojętym projektowaniu – architektury, przedmiotów, maszyn, ale także oprogramowania.

Czy rzeczy naprawdę mają w sobie coś, co skrywa ich możliwości, to dyskusja filozoficzna. Nieużywane schody mogą służyć jako mebel, choćby do trzymania książek. Można na nich spocząć. Jeśli nikt po nich nie wchodzi, nie służą do niczego. W samych stopniach schodów nie ma nic, co pociąga za sobą wchodzenie gdzieś wyżej – zawierają w sobie jedynie taką możliwość, czyli afordancję.

Afordancji różnych substancji i rzeczy uczymy się od niemowlęctwa i w wieku kilku lat mamy już całkiem sporą wiedzę o świecie – do tego połączoną w misterną sieć zależności. Wiemy, że meble to rodzaje obiektów służących do przechowywania mniejszych rzeczy, że naczynia służą do przechowywania substancji sypkich lub cieczy i to, że bez nich takie substancje się rozsypują, rozlewają (i wsiąkają lub wysychają). Przekonujemy się o tym wskutek własnych doświadczeń, a proces nauki zajmuje naszym miliardom neuronów i bilionom połączeń między nimi kilka lat życia.

Jeśli nauczymy algorytmy afordancji, system – raz nauczony zachowania w danej sytuacji – będzie wiedział, jak się zachować w podobnych warunkach już zawsze – tak samo, jak uczą się tego ludzie

Oczywiście kłopot polega na tym, że nie ma jednej „afordancji”. Nie ma uniwersalnej reguły, która orzeka o właściwościach rzeczy, a wiele własności wyłania się dopiero wtedy, gdy zaczynamy z obiektami wchodzić w interakcje. Afordancje zależą też od zakładanych celów – po schodach można wejść lub zejść, można na nich usiąść, rozlanie cieczy jest zwykle kłopotem, ale jeśli jest niepalna, pozwala ugasić pożar. Jest więc to nauka bardzo złożona. „Nauczenie dokładnego modelu całego środowiska może być bardzo trudne, zwłaszcza w dużych środowiskach”, jak piszą sami badacze.

Nikt rzecz jasna nie proponuje, żeby systemy sztucznej inteligencji uczyć świata niczym niemowlęta. Musiałby mieć do tego odpowiednie zmysły (wzrok, słuch, dotyk, równowagę i zdolność do odczuwania bólu). Ale naukowcy z DeepMind, brytyjskiej firmy zajmującej się uczeniem maszynowym i przejętej przez Google’a w 2014 roku, zainteresowali się pojęciem afordancji, by zbadać, czy maszyny w ogóle można jej nauczyć.

Po co? Badacze chcą stwierdzić, czy takie systemy można wyposażyć w zalążek ludzkiej wiedzy o afordancji (ścian i innych przeszkód). Po to, żeby inteligentne roboty były… cóż, bardziej inteligentne. Na ludzki sposób.

Przyswojenie przez sieci neuronowe nawet podstaw ogólnych reguł interakcji z otoczeniem uprości sposób ich uczenia. Skróci czas potrzebny na „edukację” i pozwoli na generalizacje w procesie uczenia. Sprawi, że nauczona afordancji nawet na konkretnym przypadku sieć będzie bardziej „elastyczna poznawczo”. Zamiast uczyć się układu ścian czy innych przeszkód w każdym wypadku z osobna, po prostu będzie wiedziała, że ściany należy omijać – w każdym pomieszczeniu, w którym robot się znajdzie.

Na razie to pierwsze kroki w prawdziwym świecie, bo symulacje są bardzo proste. Badacze umieścili wirtualnego agenta w wirtualnym świecie przedzielonym równie wirtualną ścianą. Ale już w takiej sytuacji, bardzo uproszczonej przecież w porównaniu ze złożonością świata fizycznego, okazało się, że nauka afordancji (w tym wypadku tego, że ściany są przeszkodami nie do przejścia) przyspiesza osiągnięcie celu przez wirtualnych agentów. System uczy się szybciej.

To bardzo prosty scenariusz, ale badacze sądzą, że ich teoretyczna praca (opublikowana w serwisie ArXiv) może stać się podstawą do opracowania systemów, które uczą się szybciej. Nie chodzi przecież tylko o ściany. Jeśli nauczymy algorytmy afordancji, system – raz nauczony zachowania w danej sytuacji – będzie wiedział, jak się zachować w podobnych warunkach już zawsze – tak samo, jak uczą się tego ludzie.

Jest to więc pierwszy krok na drodze ku sztucznej inteligencji, która może być naprawdę choć trochę inteligentna.

Skip to content