Sztuczne inteligencje nie powinny podejmować fundamentalnych decyzji dotyczących zdrowia, finansów czy rodziny. Z dr Aleksandrą Przegalińską rozmawia Jędrzej Kołtunowicz

Jędrzej Kołtunowicz: Niedawno uczestniczyła pani w San Francisco w konferencji Think, na której Project Debater, stworzona przez IBM sztuczna inteligencja, debatował z zawodowym dyskutantem. To wydarzenie, choć wydaje się precedensowe, odbiło się mniejszym echem niż pokonanie człowieka przez AlphaGo w grze go czy przez Watsona w Jeopardy!

Aleksandra Przegalińska: Pytanie brzmi: gdzie się odbiło, a gdzie nie? W środowiskach zbliżonych do data science, uczenia maszynowego, sztucznej inteligencji to było jednak wydarzenie dyskutowane dość szeroko, w kontekście trendu kontekstowej sztucznej inteligencji.

Kontekstowej?

To znaczy takiej, którą można budować, która jest zdolna do rozumienia kontekstu pewnych zdarzeń albo wypowiedzi i bardziej holistycznego odpowiadania czy adaptowania się do sytuacji.

Może rzeczywiście szum wokół tamtej debaty nie był aż tak duży, ale przecież to, co się na niej stało, nie jest wielkim przełomem. To po prostu kolejny etap w rozwoju SI, narracyjna sztuczna inteligencja. Podobnych projektów powstaje kilka, na przykład OpenAI pokazało generator tekstu GPT-2. Przez społeczność związaną z data science takie wydarzenia są jednak skrupulatnie odnotowywane.

Obserwatorzy uznali, że wygrał człowiek.

Tak, ale radość z tego zwycięstwa jest trochę na wyrost. Człowiek wygrał, bo przekonał do siebie publiczność, lecz jego przewaga nie była miażdżąca. Z drugiej strony publiczność, zapytana: „Od kogo się więcej dowiedziałeś?”, jednoznacznie wskazała na maszynę. Lepszym mówcą był człowiek, ale maszyna została uznana za eksperta, od którego można się czegoś nauczyć.

Project Debater skupiał się na faktach, przytaczał mnóstwo danych, badań. Człowiek odnosił się do procesu wnioskowania przeciwnika, wykazywał luki w jego rozumowaniu. Czy sztuczna inteligencja może wejść na podobny poziom?

Pytanie, czy celem tego typu projektów jest tworzenie systemów naśladujących ludzi, czy może takich, które będą wykorzystywać swoje naturalne przewagi. SI może się humanizować, by nawiązać lepszy kontakt z człowiekiem. W tym przypadku celem byłoby rozumowanie i dyskutowanie w takim duchu, w jakim rozumuje i dyskutuje człowiek.

Zawsze powinniśmy wiedzieć, że mamy do czynienia z botem

Ale możemy też budować system, który będzie nas wspierał w naszych ludzkich dyskusjach, na przykład działający jako asystent polityka czy wykładowcy. Będzie dostarczał wiedzy i faktów, a człowiek obuduje to narracyjnie.

Podczas debaty naprzeciw człowieka z krwi i kości stanął czarny monolit rodem z „Odysei kosmicznej 2001”. Czy ta forma mogła mieć wpływ na wynik debaty?

Ja miałam wrażenie, że ten ludzki dyskutant też był bardzo „botowy”. I takie było wrażenie wielu osób na sali. Momentami wydawało się, że ta sztuczna inteligencja, która się chwilami gubi w argumentacji i uparcie prezentuje fakty, w swojej specyficznej naiwności jest bardziej ludzka niż człowiek, twardy dyskutant, który wytykał luki w rozumowaniu przeciwnika i czasami spoglądał na niego z politowaniem. Mam wrażenie, że na sali wszyscy jakoś współodczuwali z maszyną.

Project Debater ustrzegł się pułapki „doliny niesamowitości”?

Tak. Mam takie wrażenie, że gdyby zamiast Debatera, tego pudła, które po prostu stoi i nadaje, stanął tam jakiś humanoidalny robot, to może odczucia ludzi wobec niego wcale nie byłyby takie pozytywne. A tutaj od razu było widać, że mamy do czynienia z maszyną, systemem nieudającym człowieka. Sądzę, że ludzie na potknięcia takiej maszyny reagują współczuciem. Nie wiem, czy byłoby tak w przypadku superhumanoidalnego systemu albo gdyby ten system radził sobie lepiej.

W jakim sensie?

Project Debater zaliczał potknięcia, także jeśli chodzi o syntezę mowy. Nie wiem, czy wzbudziłby taką sympatię, gdyby miał idealną wymowę, intonację, a do tego był człekokształtny i świetny w merytorycznej argumentacji. Bądź co bądź, takie ułomne, przewracające się roboty, jak te prezentowane przez Boston Dynamics, budzą w nas uczucia opiekuńcze. Chcemy je chronić. Myślimy: biedny.

Wspomniała pani o GPT-2, czyli algorytmie, który generuje tekst na podstawie krótkiej próbki, zachowując temat i styl wypowiedzi…

No to jest prawdziwa bomba!

OpenAI wycofało się z pomysłu udostępnienia tego narzędzia. Bali się, że zostanie użyte do masowego produkowania nieprawdziwych informacji i szerzenia hejtu.

Oni się nie wycofali, lecz po prostu się zatrzymali. Nie zakładam, że przez najbliższe dziesięć lat GPT-2 będzie leżało w szafie.

Zadanie GPT-2 wydaje się bardzo proste: przewidzieć kolejne słowo. Project Debater wydaje się niesamowicie złożonym systemem. Czy między nimi jest przepaść?

Nie ma. Oba systemy działają na zasadzie kontekstowości, czyli osadzania słów o określonym znaczeniu w sieci innych słów, które do nich pasują, sieci fraz i większych struktur. Pod pewnymi względami GPT-2 jest nawet bardziej zaawansowany.

Pod jakimi?

Project Debater dostał bardzo dużo danych dotyczących systemu edukacji i cały czas się na nie powoływał. Często wydawało się, że to, co mówi, nie odnosi się do słów rozmówcy. Po prostu atakował przeciwnika danymi, które pozyskał. To bardziej klasyczna architektura SI.

W przypadku GPT-2 mamy do czynienia z systemem o bardzo wysokiej kontekstowości. Ma przewidywać, co i jak chcielibyśmy powiedzieć. Ale te systemy są właśnie zbieżne, idą w tę samą stronę, czyli budowania kompleksowych, quasi-ludzkich wypowiedzi, które są ustrukturyzowane. Bardzo ciekawe, że pojawiły się w tak krótkim odstępie czasu. Widać rynek prze w stronę narracyjnej SI.

„Czy powinniśmy dotować przedszkola?” – debata między stworzoną przez IBM sztuczną inteligencją a zawodowym dyskutantem.
Źródło: IBM Research / YouTube

Internet byłby źródłem wiedzy dla takich narracyjnych sztucznych inteligencji?

Dyskutowanie to nie jest tylko i wyłącznie sfera czystego Logosu. Rozmowy, interakcje są żywe i mają często emocjonalne zabarwienie. Intencje, afekty wpływają na to, co mówimy, kiedy mówimy i jak. Internet, ta wiedza publiczna, to, jak ludzie myślą, to wszystko może być dla takich systemów cenne.

Nawet jeśli w sieci rządzi hejt i fake news? Czy to nie ryzyko?

Na konferencji Dario Gil, dyrektor IBM Research, mówił o koncepcji crowdsourcingu wiedzy dla SI. Reakcją było: „Wariactwo, postprawda, faktoidy, taki system będzie głupoty opowiadał!”. Wtedy Gil zapytał: „No dobrze, ale jak inaczej trenować system narracyjny?”. Jeśli naszym celem jest wzbogacić wiedzę człowieka, to stan tej wiedzy musi być SI znany. Poza tym to łatwy sposób pozyskiwania danych.

To znaczy?

W internecie każdy może wyrazić swoje opinie. Między innymi te opinie trafiają potem do zestawów treningowych dla SI; to forma badania opinii publicznej. Takie systemy mogą działać jako narzędzia do badania sentymentu, na przykład ustalając, czy w sprawie szczepień jesteśmy bardziej za, czy przeciw.

Film „Ona” zostawił w nas wszystkich ślad. To świetny film, ale opowiada o bocie, który nie istnieje, a którego uczłowiecza głos Scarlett Johansson. Dopóki w filmach o robotach będą występować ludzie udający roboty, to ja w głębokie relacje człowieka z maszyną po prostu nie uwierzę. Porozmawiamy, gdy robot zagra robota

Tak pomyślane systemy narracyjne mogłyby w przyszłości dostać narzędzia pozwalające opinie ludzi sobie szeregować, przyporządkowywać, wysnuwać z nich wnioski. To już trochę ludzki styl działania, funkcjonowania w świecie społecznych debat.

Boty są coraz bardziej wiarygodne i coraz trudniej poznać, czy mamy do czynienia z żywą osobą, czy z maszyną. Czy powinniśmy o tym jakoś informować, gdy wykorzystujemy je w praktyce?

Bezwzględnie. Zawsze powinniśmy wiedzieć, że mamy do czynienia z botem. I zawsze będę przyczyniała się do tego, by powstało jak najwięcej takich narzędzi identyfikujących. Nasz zespół się tym interesuje. Sprawdzamy, co robią inni, jakie stosują klasyfikacje.

Po czym można poznać bota?

Po tym, jak buduje frazę, jak często się powtarza, po długości zdań. Takich parametrów jest przynajmniej kilka. Iluś ludzi już pracuje nad tym, by stworzyć klasyfikator botów. Ja nie wierzę w próżnię – takich systemów będzie coraz więcej. Z jednej strony będą coraz lepsze boty, z drugiej – coraz sprawniejsze narzędzia do ich identyfikacji. Kiedy GPT-2 „trafi na wolność”, to ta identyfikacja będzie musiała być bardzo, bardzo sprawna.

To może dobrze, że go schowali do szafy?

To nie jest dobra metoda schować się za płotem i powiedzieć: „Nie będziemy tego pokazywać”. Właściwa metoda jest inna: challenge this. Stwórzmy narzędzia, które pozwolą to zidentyfikować. Na razie w przypadku GPT-2 to nie takie trudne. System czasem się myli, czasem nawet w jednej krótkiej historyjce pisze trzy razy dokładnie to samo zdanie. W przyszłości narzędzia pewnie będą musiały być bardziej wyrafinowane.

W przypadku Watsona też wykryła pani takie sygnały?

Tak. Zresztą organizatorzy powiedzieli na samym początku debaty, żeby wybaczyć, bo system będzie się powtarzał; on tak ma. I już na starcie rozmowy było widać, że się trochę zapętlił.

W jakie interakcje będą z nami wchodzić boty narracyjne? Bot lekarz? Bot księgowy?

Bota lekarza raczej nie powinno być. Bot, który asystuje, wspiera diagnozę, może zbiera jakieś informacje, robi wywiad – owszem (oczywiście, oznaczony jako bot). Ale sztuczne inteligencje nie powinny podejmować fundamentalnych decyzji dotyczących zdrowia, finansów czy rodziny.

Czyli komunikacja – tak, ale w mniej wrażliwych sferach.

Tak. Botowe bramki kontaktu są świetne na początek, do zajmowania się często zadawanymi pytaniami, odpowiadania na relatywnie proste rzeczy. Dzisiaj nie mamy jeszcze w komercyjnych zastosowaniach botów, które mogłyby wziąć na siebie większy ciężar konwersacji. Ale jeśli nawet będą, to powinny być wyraźnie oflagowane.

Zejdźmy na poziom emocji. Rewolucja technologiczna przyczyniła się do wirtualizacji relacji. Obok, a czasem zamiast bezpośredniego kontaktu z ludźmi mamy kontakt zapośredniczony przez technologię. Wyobraża sobie pani scenariusz, w którym rezygnujemy z kontaktu z człowiekiem na rzecz rozmów z maszyną?

Nie. Można mówić o krótkofalowych, płytkich relacjach (kłaniają się seksroboty), natomiast nie jeśli chodzi o relacje długofalowe… Wiem, film „Ona” zostawił w nas wszystkich ślad. To świetny film, ale opowiada o bocie, który nie istnieje, a którego uczłowiecza głos Scarlett Johansson. Dopóki w filmach o robotach będą występować ludzie udający roboty, to ja w głębokie relacje człowieka z maszyną po prostu nie uwierzę. Porozmawiamy, gdy robot zagra robota.


Aleksandra Przegalińskafilozofka, futurolożka, doktor nauk humanistycznych, publicystka. Jej pole badań to rozwój nowych technologii, sztuczna inteligencja, roboty społeczne i technologie ubieralne. Doktoryzowała się z filozofii sztucznej inteligencji w Zakładzie Filozofii Kultury Instytutu Filozofii UW. Jest adiunktem w Center for Research on Organizations and Workplaces oraz twórczynią kierunku studiów z zakresu sztucznej inteligencji w biznesie w Akademii Leona Koźmińskiego. Prowadzi badania w Massachusetts Institute of Technology. Absolwentka The New School for Social Research w Nowym Jorku, gdzie uczestniczyła w badaniach dotyczących tożsamości w rzeczywistości wirtualnej. Autorka książki „Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję”.

Zdjęcia w artykule:
  • Zdjęcie zajawka: Getty Images
  • Zdjęcie górne: Getty Images
  • Zdjęcie w tekście: archiwum prywatne
Drukuj ten artykuł Drukuj ten artykuł
Skip to content