Gdy nie ma wokół innych ludzi, z braku laku naśladujemy sztuczną inteligencję – nawet jeśli zachowuje się idiotycznie. Z prof. Michałem Klichowskim, odkrywcą tego zjawiska, rozmawia Michał Rolecki

Michał Rolecki: Ostatnie „Frontiers in Psychology” publikuje wyniki pańskich badań nad zaufaniem do sztucznej inteligencji. Skąd taki temat badań u psychologa?

Dr hab. Michał Klichowski*: Psychologa i pedagoga. Opublikowane wyniki są częścią większego projektu badawczego, w którym staram się sprawdzać, czy klasyczne teorie psychologii społecznej, opisujące interakcje między ludźmi, sprawdzają się także w świecie interakcji ludzi z maszynami. To pierwsze badanie miało sprawdzić, czy teoria dowodu społecznego, zakładająca, że w pewnych sytuacjach (zagrożenia, niepewności, deficytu informacji) ludzie kopiują zachowania innych ludzi – może dotyczyć także rzeczywistości, w której nie ma ludzi, których zachowanie można by skopiować, ale są maszyny.

Badał pan, czy naśladujemy maszyny, gdy nie ma innych ludzi do naśladowania?

Można tak powiedzieć. Moje eksperymenty pokazały, że tak właśnie jest. Nazwałem ten mechanizm dowodem sztucznej inteligencji. Co ciekawe, w moich eksperymentach sztuczna inteligencja zachowywała się absurdalnie i nieracjonalnie. Pomimo tego ponad 85 procent badanych skopiowało jej zachowanie. To bardzo ciekawy wynik, bo pokazuje, jak wielką siłę mogą mieć różne fake newsy, jeśli będą publikowane pod szyldem „Według sztucznej inteligencji…”. Wydaje się, że większość ludzi będzie bardzo się nimi sugerować i może robić to, co SI niby sugeruje.

Na czym polegało badanie?

Miało dwie części: realizowaną online i w laboratorium. W obu sytuacjach badani musieli podjąć bardzo pilną decyzję w bardzo krytycznej sytuacji. Na podstawie niewystarczających danych musieli zdecydować, która z sześciu osób jest terrorystą. Część badanych mogła zobaczyć, kogo typuje sztuczna inteligencja – wybierała ona jednak najgorszą z możliwych opcji, całkowicie pozbawioną sensu. Mimo to większość badanych, widząc, jak zachowuje się sztuczna inteligencja, kopiowała jej zachowanie i wybierała to, co SI. Po badaniu wszyscy podkreślali, że ufają sztucznej inteligencji i skopiowali jej zachowanie dlatego, że jest mądrzejsza i podejmuje lepsze decyzje od ludzi.

Czasem ludzie tracili refleksyjność, widzieli maszynę i nie zastanawiali się już nad niczym. Uznawali, że sztuczna inteligencja nie może postąpić źle

Czy dobrze rozumiem: ludzie kopiowali decyzję maszyny, nawet jeśli wiedzieli, że to decyzja pozbawiona sensu?

Tak, w większości przypadków wywiady po badaniu na to wskazywały. Czasem tracili refleksyjność, widzieli maszynę i nie zastanawiali się już nad niczym. Uznawali, że sztuczna inteligencja nie może postąpić źle.

Trochę przypomina mi to słynny eksperyment Milgrama. W nim też ludzie wiedzieli, że postępują źle, ale mimo to byli pod wpływem autorytetu badacza i (jak im się wydawało) razili innych prądem…

Tak, to podobny mechanizm, nazywany „posłuszeństwem wobec autorytetu”. Ta teoria będzie testowana w następnym moim eksperymencie. W tym przypadku chodziło o kopiowanie zachowania. Jednak rzeczywiście sztuczna inteligencja wydaje się dla wielu ludzi autorytetem. To bardzo niepokojące.

Są już oparte o algorytmy SI autopiloty w samochodach, trwają prace nad autonomicznymi pojazdami, a armie całego świata konstruują autonomiczne roboty wojskowe wyposażone w broń… Skoro bezgranicznie ufamy maszynom, to chyba niedobrze?

Tak, to źle, brakuje jednak edukacji w zakresie możliwości maszyn. Doniesienia medialne pokazują SI bardzo często jako niezwykle inteligentną, nierzadko lepszą od ludzi. Ludzie przestają więc być krytyczni. Kiedyś użyłem pewnego porównania: tak jak nikt nie sprawdza, czy kalkulator dobrze liczy, tak też nikt nie sprawdza, czy SI podjęła dobrą decyzję.

To jednak inne rzeczywistości.

To pierwsze badanie, które pokazuje, jak bardzo ufamy maszynowym algorytmom?

Tak, pierwsze, stąd publikacja w tak dobrym czasopiśmie. Kiedyś badano osoby, które są operatorami maszyn. Odkryto wówczas, że ludzie kontrolujący automaty tracą refleksyjność i im dłużej tak pracują, tym mniej wyłapują błędów maszyn. Jednak tamto badanie dotyczyło specyficznej grupy. W moim badaniu online udział wzięło 1,5 tysiąca osób z 13 krajów na trzech kontynentach. Nie byli to specjaliści od maszyn.

To co można zrobić, byśmy zachowali rezerwę wobec SI? Wieszanie tabliczek z ostrzeżeniami chyba nie pomoże…

Potrzebna jest wiedza. Wiedza o możliwościach maszyn, edukacja, uczenie krytycznego myślenia. Badani z moich eksperymentów często byli bardzo podekscytowani oglądaniem mówiącego i poruszającego się robota.

Bo stworzył pan robota, którego nazwał „FI” od „Fake Intelligence” [fałszywa inteligencja]?

Tak, w artykule można zobaczyć jego zdjęcia. Badani tracili w jego obecności czujność. A odpowiadając na wcześniejsze pytanie: ja stawiam na edukację.

A jeśli to nie jest robot, tylko oprogramowanie? Też się tak ekscytujemy i mu ufamy?

To kolejne pytanie badawcze i kolejny eksperyment w tym projekcie, lecz już ta część badania online pokazuje, że tak, choć pewnie w mniejszym stopniu. Humanoidalny robot, który mówi jak człowiek i porusza się jak ludzie, ekscytuje. Ale pisząca z nami maszyna, program, także. Przed pandemią zrobiłem pilotaż takiego badania – bez robota, z komunikującą się z badanym aplikacją opartą na sztucznej inteligencji. Wyniki były takie same.

Brytyjczycy chcą nakładać grzywny na firmy, które nie będą w stanie wyjaśnić, na jakiej podstawie ich algorytm podjął daną decyzję. Dobry pomysł?

To trudne pytanie. Nie jestem specjalistą od prawa. Uczące się maszyny, które tworzą modele rzeczywistości czy pewnych sytuacji, podejmują decyzję często tak, że trudno to opisać, wyjaśnić, rozpisać w postaci algorytmu. Są sfery, w których taka sztuczna inteligencja może bardzo nam pomóc. Musimy korzystać z jej dobrodziejstw. Ale musimy też to badać, nie tylko rozwijać SI. Trzeba badać, jak ona się rozwija i jak ludzie funkcjonują w interakcji z nią.

W pana eksperymencie udział wzięło więcej kobiet niż mężczyzn. Jest jakieś zróżnicowanie wiekowe lub pod względem płci i poziomu wykształcenia, jeśli chodzi o zaufanie do maszyn?

Badania, w których biorą udział ochotnicy, zawsze przyciągają więcej kobiet niż mężczyzn. Wszystkie testy statystyczne pokazały, że żadne z tzw. zmiennych niezależnych, takich jak płeć, wiek, wykształcenie, miejsce zamieszkania, nie różnicowały badanego zjawiska. Oczywiście, gdyby zbadać ekspertów od SI, wynik pewnie byłby inny. Takie kontrolne eksperymenty też są planowane, musimy jednak z nimi poczekać na czasy „po pandemii”.


*Prof. UAM dr hab. Michał Klichowski pracuje na Wydziale Studiów Edukacyjnych Uniwersytetu im. Adama Mickiewicza w Poznaniu. Opublikował 10 książek i ponad 100 tekstów dotyczących problemu relacji między przemianami techniki a poznawczym i edukacyjnym funkcjonowaniem człowieka. Jest koordynatorem międzynarodowego grantu Neuro-MIG, w ramach którego badania prowadzi blisko 200 naukowców z 31 krajów. Jest ekspertem European Cooperation in Science and Technology, Lusófona University of Humanities and Technologies i Narodowej Agencji Wymiany Akademickiej. Otrzymał wiele naukowych nagród, w tym Nagrodę Naukową Polskiej Akademii Nauk, stypendium Ministra Nauki i Szkolnictwa Wyższego dla wybitnych młodych naukowców oraz Stypendium Miasta Poznania za wybitne osiągnięcia naukowe. Swoje naukowe doświadczenia pogłębiał podczas licznych pobytów naukowych w instytucjach badawczych z niemal wszystkich krajów Europy.


Read the English version of this text HERE

Skip to content