W przyszłości wszyscy będziemy po części robotami. Przewidywałbym, że za tysiąc lat znikniemy [fizycznie] z tego świata – mówi Richard van Hooijdonk w rozmowie z Michałem Roleckim i Anną Zagórną

Michał Rolecki, Anna Zagórna: Czy doczekamy kiedyś nadejścia ogólnej sztucznej inteligencji? A może nigdy nie powinna powstać?

Richard van Hooijdonk*: Każdy rodzaj sztucznej inteligencji powinien dostosowywać się do naszych potrzeb. Jeśli nas to uszczęśliwi lub sprawi, że będziemy zdrowsi [to tak, powinna powstać – red.]. Noszę iWatcha, bo mam ADHD i moje serce bije dość szybko. To najlepszy sposób na zarządzanie moim zdrowiem – monitoruje je algorytm sztucznej inteligencji, jest teraz bardziej wydajne.

Z drugiej strony powinniśmy jakoś się chronić. SI może robić wiele rzeczy, których nie mogą ludzie, choćby dlatego, że nasze mózgi nie były aktualizowane od tysięcy lat. Musimy więc sprawić, żeby SI rozwijała się tak, byśmy mogli, starzejąc się, pozostawać zdrowi, bezpieczniej prowadzić samochody i taniej produkować różne rzeczy.

Jednak jeśli to wszystko zautomatyzujemy, jest ryzyko, że algorytmy będą robić coś, czego jako społeczeństwo nie chcielibyśmy. Na przykład mogą podejmować decyzje, których nie zrozumiemy. Facebook rozwijał pewien algorytm, który został „zabity”, bo po jakimś czasie nikt nie rozumiał jego języka.

Richard van Hooijdonk

Zmierzam do tego, że jeśli nie możemy zrozumieć tego, co robi SI, powinniśmy wkroczyć z zestawem reguł. Dlatego podczas mojego wystąpienia mówiłem o etyce i audycie algorytmów. Jeśli będziemy mieli zestaw algorytmów medycznych, edukacyjnych, policyjnych czy rolniczych, to powinniśmy mieć certyfikowane instytucje, które będą nas chronić przed niekorzystnymi etycznie konsekwencjami [działania] takich algorytmów.

Patrząc z tej perspektywy, myślę, że ogólna sztuczna inteligencja nadejdzie – będzie większa i szybsza. Jednak dla mnie jedynym warunkiem [jej przyjęcia] jest konieczność poddawania tworzących ją algorytmów audytom. Będziemy musieli też zbudować podstawy wiedzy, by ludzie mogli o tym rozmawiać.

Czy istnieje niebezpieczeństwo, że zastosowanie SI, robotyki i automatyzacja pracy podzieli ludzkość na morze biednych i garstkę superbogatych, niewolników i miliarderów? Czy przypadkiem powoli nie zmierzamy w tym kierunku?

Nie do końca się z tym zgodzę. Jeśli mówimy o posiadaniu i nieposiadaniu, to trzeba patrzeć w przyszłość. Jeśli mówi się o deweloperach SI, którzy stają się miliarderami, i użytkownikach, których nie stać na korzystanie ze sztucznej inteligencji, to dobrze jest przywołać przykład Google’a czy Facebooka, które planują podłączenie do internetu całej Afryki. To oznacza, że każdy mieszkaniec tego kontynentu będzie mógł zrobić kurs MBA za 25 dolarów i mieć smartfon za 5 euro.

Myślę, że dostęp do SI da korzyści każdemu mieszkańcowi świata. Musimy tylko umówić się, jak zdemokratyzować działania tych algorytmów – i to jest odpowiedź na pańskie pytanie. Demokratyzacja wyników działania takich algorytmów jest w tym przypadku kluczowa. I tu musi wkroczyć etyka, nadzór i współpraca międzynarodowa. Rządy – czy to europejskie, czy azjatyckie – powinny wprowadzić zestawy reguł dotyczących tego, gdzie takie algorytmy powinny być stosowane.

Ale potrzebujemy też edukacji, wiedzy i świadomości. Wiele firm, jak Amazon czy Microsoft, nie poświęca zbyt wiele czasu [budowaniu] świadomości w wymiarze globalnym. Programiści i firmy informatyczne przetwarzające dane na algorytmach po prostu zarabiają. A rządy nie uświadamiają obywatelom konsekwencji tej sytuacji.

Co więc należałoby zrobić, byśmy byli bezpieczni?

Jeśli chcemy zbudować bezpieczne społeczeństwa, potrzebna jest świadomość, edukacja, ustanawianie reguł i nadzór. Dziś tego łańcucha nie ma – i to niedobrze. Owszem, zgadzam się: miliarderzy wykorzystują algorytmy, by sterować tym, jak i co kupujemy. Oczywiste jest, że wszystko, co dzieje się na Facebooku czy Instagramie, dzieje się dla pieniędzy, że do kupowania konkretnych produktów jesteśmy nakłaniani w sposób, którego nie jesteśmy świadomi. Nieświadomość tego wprowadza nierównowagę, a to jest niebezpieczne.

Dostęp do SI da korzyści każdemu mieszkańcowi świata. Musimy tylko umówić się, jak zdemokratyzować działania inteligentnych algorytmów

Więc zgadzam się co do kierunku rozwoju SI – ale powinniśmy wkroczyć. Rządy powinny budować wiedzę, regulacje prawne, ustanawiać nomy etyczne. Robią tak niektóre firmy, IBM czy SAS, ustanawiając reguły i pokazując je swoim klientom, ale ten proces jest zbyt powolny.

Według zeszłorocznego raportu Oracle i Future Workplace 64 procent z nas bardziej zaufałoby robotowi niż ludzkiemu przełożonemu. Jak daleko możemy czy powinniśmy posunąć się w przekazywaniu władzy sztucznej inteligencji?

Wszystko zależy od bezpieczeństwa. Ja nie ufam żadnemu algorytmowi. Obecnie algorytmy mogą pochodzić z dowolnych źródeł, tak samo ich dane i sposób ich przetwarzania. Sposobów manipulacji danymi jest bez liku. Szukałbym algorytmów, w których moje dane będą bezpieczne. I mam nadzieję, że nie będzie to dzieło Amazona ani Google’a.

Sądzę jednak, że podstawą tego [deklarowanego zaufania do robotów, większego niż do przełożonych – red.] jest to, że menedżerowie podejmują decyzje każdego dnia, a ich decyzje budzą emocje. W sprawach zawodowych ludzie nie lubią emocji. W biznesie jest się racjonalnym, a sztuczna inteligencja jest bardziej racjonalna. Zapewne o to tu chodzi.

Jednak na końcu chodzi o zaufanie. Nie chcę, by mój samochód mnie zabił. Można przejąć dwadzieścia [autonomicznych] samochodów i nakierować je na jeden cel; z punktu widzenia cyberbezpieczeństwa to nie jest niemożliwe. Potrzebujemy zatem sieci ekosystemów, które zarządzają algorytmami i nadzorują je. Nie wiemy, jak będzie wyglądała kontrola maszyn nad algorytmami, gdy maszyna będzie kontrolowała maszynę. Musimy więc wkroczyć z czymś, co rozumiemy. Sprawdzić „za” i „przeciw” i ocenić systemy, które dla nas pracują. Tego dziś nie ma, a to niebezpieczne. Uważam, że zanim to się stanie, będzie wiele wypadków.

Czy technologia rozpoznawania twarzy narusza nasze prawa, naszą prywatność?

Po 11 września [2001 roku] społeczeństwo stało się bardziej elastyczne, jeśli chodzi o dane i kamery, nieprawdaż? Bo pojawiła się wyższa potrzeba, potrzeba walki z terroryzmem i przestępczością.

Problem polega na tym, że cel „walki z terroryzmem” albo „unikania podatków” to jasny cel. Tymczasem, zamiast łapać terrorystów, kamera może sprawdzać, czy pracujesz, kiedy i jak docierasz do pracy i kiedy ostatni raz byłeś na randce albo czy jesteś żonaty. Dane nie są wykorzystywane zgodnie z [oficjalnym] celem [ich pozyskiwania] – i to jest problem.

W Holandii mieliśmy algorytm, który zupełnie się nie sprawdził. Mieszka tu sporo mniejszości narodowych i etnicznych, wśród których był niewielki odsetek osób wyłudzających świadczenia. System uznał, że wszystkie osoby z tych mniejszości automatycznie są podejrzane. Tego algorytmu nie nadzorował człowiek, potrzebujemy więc ludzkiej interwencji i musimy zapobiegać dyskryminacji. Znów więc podkreślę potrzebę audytu, choć z drugiej strony jest to rzecz tak nowa, że ciągle musimy się uczyć.

Ma pan wszczepionych kilka chipów RFID. Dlaczego się pan na to zdecydował? Czy w przyszłości wszyscy będą nosić w ciele tę technologię?

Do końca roku chcę sobie nawet wszczepić kolejny. Już teraz „nosimy technologię w ciele”, na przykład rozruszniki serca, a mnie pytają: „O, to pan sobie wszczepił chipy!?”. Wielu ludzi na całym świecie trochę popada w paranoję, przecież nikt nie zamierza wszczepiać ludziom chipów na siłę. Wszczepiłem je sobie, bo nie chcę doświadczać technologii. Chcę jej używać.

Do czego służą?

Nie potrzebuję już na przykład paszportu. Teraz to moje ciało, a nie karta dostępu, otwiera mi wiele pomieszczeń. Mogę płacić zbliżeniowo bez karty. To bardzo wydajne, nie widzę w tym żadnej szkody.

Jest też inny powód, dla którego technologia „wewnątrz” ma dobre strony. Każdy chce żyć dłużej i być zdrowy. Czemu nie mielibyśmy do tego wykorzystać technologii? Mój syn cierpi na epilepsję. Czy nie byłoby dlań i wielu innych osób wspaniale móc rozwiązać taki problem za pomocą technologii?

Nie potrzebuję już paszportu. Teraz to moje ciało, a nie karta dostępu, otwiera mi wiele pomieszczeń. Mogę też płacić zbliżeniowo bez karty

Z drugiej strony potrzebujemy zabezpieczeń. Oczywiście kilka osób chodziło za mną i próbowało zhackować moje chipy. Sądzę jednak, że w przyszłości wszyscy będziemy po części robotami. Gdy serce odmówi posłuszeństwa, będziemy mieć rozrusznik, i to bardzo inteligentny. A gdy zabolą plecy – będą sztuczne odpowiedniki mięśni. Na pytanie, jak daleko to zajdzie, pewnie odpowie etyka. Ale przewidywałbym, że za tysiąc lat znikniemy [fizycznie] z tego świata.

Jedyną interesującą rzeczą w naszych mózgach jest nasza wiedza i wspomnienia. Reszta w ogóle nie jest ciekawa. Może uda nam się żyć tak [poza ciałem] przez kolejne pół tysiąca czy tysiąc lat? A jeśli tak, to czy tego byśmy chcieli? Czy to etyczne? To ciekawe pytania.

W e-booku „The Future of Education” pisze pan, że technologia w edukacji pozwoli lepiej przygotować uczniów i studentów do przyszłych zawodów. Ale jednocześnie mówi pan, że edukacja zawsze wlecze się w ogonie postępu. Jak więc może wyglądać szkoła w 2030 roku?

Szkoły są zupełnie oddzielone od pracodawców, całkowicie poza rynkiem pracy. Jest kilka uczelni, jak Massachusetts Institute of Technology, które współpracują z przemysłem, ale edukacja podstawowa i średnia jest odizolowana od prawdziwego świata. Nauczyciele i wykładowcy też są odizolowani. Sam jestem wykładowcą i widzę, że akademicy w pewnym wieku nie mają zielonego pojęcia o tym, co się dzieje na świecie.

Kluczowe jest połączenie kropek: brak pieniędzy, brak czasu, brak wiedzy i tempo zmian – dużo większe niż na przykład dziesięć lat temu – oznaczają, że z każdym rokiem zostaje się coraz bardziej w tyle. To jeden z powodów, dla których propaguję ideę kampusu, w którym nastolatki między 10. a 15. rokiem życia stają się częścią ekosystemu, uczą się druku 3D, programowania, robotyki.

Dla mojego syna mamy w domu kilka robotów. Uczy się tego, co robią, krok po kroku. Taką naukę powinno się rozpoczynać wcześnie, a to się nie dzieje. Widzę, że zmienia się perspektywa edukacyjna w Chinach, zmienia się w Indiach, ale w Holandii, USA i Europie już nie. Edukacja jest oddzielona od nauki, a powinna stanowić z nią jedność już od lat wczesnych lat.

Unia Europejska pracuje nad regulacjami dotyczącymi sztucznej inteligencji. SI ma być wiarygodna, etyczna i służyć raczej wyższym celom, „dobrostanowi człowieka”, niż wzrostowi PKB. Ale czy Europa nadal ma szanse dogonić USA i Chiny w dziedzinie sztucznej inteligencji?

Zapomnijmy o tym, nie sądzę. Często odwiedzam Chiny i Indie – tam jest chęć [dokonywania] zmian, entuzjazm zmian. W USA ludzie są wręcz [pod tym względem] nieco zepsuci. Na przykład z perspektywy komputerów kwantowych już przegraliśmy.

Moglibyśmy zarządzać technologią jak Chiny i Indie, ale tam nastawienie ludzi, ochota społeczeństwa do zmian są zupełnie inne. I w tym sensie już ten wyścig przegraliśmy. Ale jeśli się przegrywa, to trzeba się dołączyć [do zwycięzców]. Powinniśmy dołączyć do Alibaby, do indyjskich firm. Może nie brzmi to rozsądnie, ale tak to widzę. A pan jako dziennikarz [co o tym myśli]?

Nie mogę się zdecydować. Mam wrażenie, że przegrywamy, ale może moglibyśmy zaoferować inną drogę, sprzedawać wiarygodność i zaufanie jako produkt?

Myślę, że czas na globalną współpracę. Jest wielu sprzedawców, którzy boją się Alibaby, a Alibaba potrzebuje obecności na rynkach lokalnych, więc trzeba to połączyć. Potrzebujemy „alibabowych” pomysłów, takich jak Amazon, potrzebujemy współpracy na skalę globalną. Tymczasem rządy mamy narodowe – i to już jest problem.


*Richard van Hooijdonk jest futurologiem i analitykiem trendów. Wraz z piętnastoosobowym zespołem analizuje trendy takie jak robotyka, drony, transport autonomiczny, internet rzeczy i rzeczywistość wirtualna.

Gościł na tegorocznej konferencji Beyond Tomorrow, która odbyła się w dniach 23-25 listopada. Portal Sztuczna Inteligencja i jego wydawca: Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB) byli partnerami tego wydarzenia.


Read the English version of this text HERE

Skip to content