Być może stworzymy kulturę, w której każdy uczy się dla samej nauki albo po to, by mieć bogatsze życie wewnętrzne. Ale to nie jest najbardziej prawdopodobny scenariusz. Ryzyko uwiądu jest realne – mówi profesor Stuart Russell z Uniwersytetu Kalifornijskiego w Berkeley w rozmowie z Maciejem Chojnowskim

Maciej Chojnowski: Pańska nowa książka nosi tytuł „Human Compatible: Artificial Intelligence and the Problem of Control” (Dopasowana do człowieka. Sztuczna inteligencja i problem kontroli). Jest pan również założycielem Center for Human-Compatible Artificial Intelligence na Uniwersytecie Kalifornijskim w Berkeley. Kto będzie odpowiedzialny za stworzenie sztucznej inteligencji dopasowanej do człowieka?

Prof. Stuart Russell*: Naukowcy i inżynierowie muszą wymyśleć podstawową technologię i zaprojektować ją tak, by jej bezpieczeństwo było możliwe do udowodnienia (provably safe designs). Organizacje odpowiedzialne za regulacje muszą określić standardy dla systemów SI. Z kolei stworzenie systemów zgodnych z tymi standardami będzie głównie zadaniem korporacji.

Do polityków będzie należało ustanowienie odpowiedniego prawa. Jego kierunki są zwykle określane przez ekspertów i lobbystów z branży. Istnieje realne niebezpieczeństwo, że branża będzie lobbować przeciw jakimkolwiek ograniczeniom systemów, które buduje.

Skrzywienie algorytmiczne (algorithmic bias) i problem czarnej skrzynki** to jedne z największych wyzwań w dzisiejszym uczeniu maszynowym i uczeniu głębokim. A jakie są największe wyzwania związane ze stworzeniem sztucznej inteligencji dopasowanej do człowieka?

Po pierwsze, algorytmy, które manipulują opiniami i preferencjami ludzi oraz rozsiewają dezinformację. To już się dzieje. Po drugie, śmiercionośna autonomiczna broń, która też jest już dostępna. Po trzecie, znaczący wpływ technologii SI na rynek pracy. Po czwarte, utrata kontroli nad coraz bardziej inteligentnymi maszynami.

Może pan rozwinąć te wątki?

Kwestia pierwsza wymaga technologii do wykrywania fałszywych informacji, a także do monitorowania, znakowania (watermarking) czy weryfikacji newsów. Oprócz tego potrzebne będą również struktury instytucjonalne – a być może również prawa – zapewniające przewagę prawdziwym informacjom.

Sprawa śmiercionośnej broni autonomicznej wiąże się z potrzebą zrozumienia problemu przez rządy największych państw i wspólnego działania dyplomacji na rzecz stworzenia odpowiedniego traktatu.

Wyzwania związane z wpływem technologii SI na rynek pracy wymagają wizji tego, jakie istotne dla gospodarki role mogą odgrywać ludzie w świecie, w którym niemal cała aktywność uważana dziś za pracę jest wykonywana lepiej i taniej przez maszyny. Podejrzewam, że role te będą się łączyć głównie z usługami interpersonalnymi służącymi poprawie jakości i bogactwa życia. Potrzebne będzie dużo badań naukowych, byśmy zdobyli wiedzę o tym, które z tych ról rzeczywiście są efektywne i wartościowe. By ta wizja stała się rzeczywistością, będą też potrzebne reformy edukacji.

Natomiast autonomia maszyn wymaga prowadzenia badań podstawowych nad przyjaznymi dla człowieka systemami SI, tak by ich bezpieczeństwa można było dowieść. Do tego potrzeba między innymi umiejętności rozpoznawania preferencji na podstawie ludzkiego zachowania (psychologia) czy działania w imieniu zbiorowości (filozofia moralna, ekonomia, teoria polityczna).

Adres filmu na Youtube: https://youtu.be/p9kpG9AaXDs

Wystąpienie prof. Stuarta Russella na konferencji „DataDrivenParis”.
Źródło: DataDrivenParis / YouTube

Załóżmy, że Unia Europejska i Stany Zjednoczone porozumiały się w kwestii stworzenia godnej zaufania, dopasowanej do człowieka sztucznej inteligencji. Jak zagwarantować, że reszta świata podąży za tymi samymi zasadami i wartościami?

Przede wszystkim nowa SI będzie po prostu lepsza od tradycyjnej, która tylko optymalizuje sztywno określone przez nas cele. Bodźce ekonomiczne, by tworzyć i sprzedawać ten stary rodzaj SI, będą słabe albo żadne, bo nie będzie ona działała równie dobrze co bezpieczna SI oraz będzie się wiązała z dużym ryzykiem.

Chiny mówią już wprost, że superinteligentna SI stanowi egzystencjalne zagrożenie dla ludzkości, a Stany Zjednoczone ani Unia Europejska jeszcze tego nie zrobiły

Po drugie, większość ludzi uważa, że sztuczna inteligencja dorównująca ludzkiej może wytworzyć taki dostatek dóbr, że nie będzie sensu trzymać jej tylko dla siebie. Taka technologia powinna być powszechnie dostępna, by wszyscy mogli na niej skorzystać.

Po trzecie, nie każdy system SI musi mieć „te same wartości”. Faktyczne znaczenie ma to, jakich wyborów odnośnie do przyszłego rozwoju świata dokonuje każdy człowiek. W zasadzie mamy dziś osiem miliardów modeli takich preferencji.

Po czwarte, możemy instytucjonalnie narzucić standardy podobne do protokołu TCP [Transmission Control Protocol – standardowy protokół transmisji danych wykorzystywany w internecie – przyp. red.], z którym zgodność jest warunkiem używania internetu. Potrzebujemy więc czegoś podobnego dla systemów SI. Jakaś forma nadzoru może być wciąż konieczna, abyśmy mieli pewność, że niebezpieczne systemy SI są wykrywane i dezaktywowane. Do tego mogą być potrzebne międzynarodowe porozumienia. Chiny mówią już wprost, że superinteligentna SI stanowi egzystencjalne zagrożenie dla ludzkości, a Stany Zjednoczone ani Unia Europejska jeszcze tego nie zrobiły.

Kiedy laik słyszy o osiągnięciach systemów AlphaGo czy AlphaZero, gotów pomyśleć, że niebawem wkroczymy w erę AGI (Artificial General Intelligence – ogólnej sztucznej inteligencji). Czy naprawdę żyjemy dziś w okresie przełomowych odkryć w dziedzinie SI? Czy należy spodziewać się rychłego nadejścia AGI?

Postęp jest gwałtowny, ale od sztucznej inteligencji na poziomie ludzkim czy nadludzkim dzieli nas jeszcze kilka kluczowych przełomów. Jest mało prawdopodobne, by to wydarzyło się w krótkim okresie. Jestem bardziej powściągliwy od znacznej większości badaczy SI, którzy spodziewają się sztucznej inteligencji na ludzkim poziomie w ciągu najbliższych 30-40 lat.

Nawiasem mówiąc, AlphaGo, choć jest systemem robiącym bardzo duże wrażenie, nie stanowi jakiegoś przełomu. Raczej łączy w sobie trzy wcześniejsze przełomowe odkrycia: uczenie ze wzmocnieniem poprzez rozgrywanie gier przez maszynę z samą sobą (koniec lat 50. XX wieku), metarozumowanie, oparte na teorii decyzji wykorzystywanej do kontroli wyszukiwania (od końca lat 80. XX w. do pierwszych lat XXI w.), oraz głębokie konwolucyjne sieci neuronowe (druga połowa lat 90. XX w.).

W trakcie rozmowy z Martinem Fordem (opublikowanej w książce „Architects of Intelligence”) powiedział pan, że współczesny sposób myślenia na temat przyszłości pracy charakterystyczny dla wielu rządów („Potrzebujemy więcej specjalistów od data science”) nie jest właściwy, bo nie potrzeba nam kilku miliardów specjalistów od data science. Parę milionów wystarczy. Jeśli tak, to w jakich dziedzinach czy obszarach powinniśmy edukować lub dokształcać ludzi? Czy należy się spodziewać wzrostu zainteresowania kompetencjami interpersonalnymi?

To nieuniknione, że większość ludzi będzie się zajmować interpersonalnymi usługami, które mogą być – lub które wolimy, by były – świadczone tylko przez ludzi. Oznacza to, że jeśli nie ma zapotrzebowania na naszą pracę fizyczną czy umysłową, to wciąż mamy do zaoferowania nasze człowieczeństwo. Będziemy więc musieli stać się dobrzy w byciu ludźmi.

Obecnie do tego typu zawodów należą psychoterapeuci, trenerzy kadry menedżerskiej, tutorzy, doradcy, opiekunowie dzieci czy osób starszych. Wiele podobnych zawodów pojawi się wraz z rozwojem skutecznych i opartych na badaniach naukowych różnych metod poprawy jakości życia. Będzie to wymagało zasadniczej zmiany w fundamencie nauki, która niemal całkowicie koncentruje się dziś na świecie fizycznym i biologicznym, a także zmiany reorientacji w humanistyce i naukach społecznych.

Wraz ze zmianami w gospodarce spowodowanymi przez SI i automatyzację ludzie mogą mieć mniejszą motywację do nauki, bo wykształcenie nie będzie odgrywało tej samej roli co wcześniej. Czy w erze dochodu gwarantowanego ludzie będą w stanie skupić się na sztuce dobrego życia zamiast na pracy? Czy taka radykalna zmiana naszego sposobu życia będzie możliwa?

Keynes wierzył, że dobre życie bez pracy jest możliwe. W artykule z 1930 roku „Ekonomiczne perspektywy dla naszych wnuków” pisał: „Ludzie, którzy przetrwają i będą potrafili opanować do perfekcji sztukę samego życia, nie sprzedając się za środki do życia, będą w stanie cieszyć się przyszłym dostatkiem”.

Jeśli nie ma zapotrzebowania na naszą pracę fizyczną czy umysłową, to wciąż mamy do zaoferowania nasze człowieczeństwo

Być może będziemy potrafili stworzyć kulturę, w której każdy uczy się dla samej nauki albo po to, by mieć bogatsze życie wewnętrzne i więcej możliwości intelektualnego rozwoju. Uważam jednak, że to nie jest najbardziej prawdopodobny scenariusz. Ryzyko uwiądu jest realne. Dotychczas żyło na świecie ponad sto miliardów ludzi, spędziliśmy jakiś bilion „osobolat” na pobieraniu nauk i uczeniu innych ludzi po to, by nasza cywilizacja mogła trwać. Do teraz jedyna możliwa kontynuacja polegała na odtwarzaniu wiedzy w umysłach nowych pokoleń (papier jest świetną metodą przekazywania wiedzy, jednak dopóki zapisana na nim wiedza nie trafi do umysłu innej osoby, jest bezużyteczny). Teraz to się zmienia: coraz częściej staje się możliwe wprowadzenie naszej wiedzy do maszyn, które same mogłyby zarządzać naszą cywilizacją.

W chwili gdy zniknie praktyczny bodziec do przekazywania wiedzy na temat naszej cywilizacji kolejnym pokoleniom, będzie bardzo trudno odwrócić ten proces. W takim wypadku bilion lat skumulowanej nauki zostałoby utracone. Stalibyśmy się pasażerami statku kosmicznego pilotowanego przez maszyny w rejsie trwającym całą wieczność. Dokładnie tak, jak to zobrazowano w filmie „WALL-E”.


**Skrzywienie algorytmiczne, uprzedzenie algorytmiczne (algorithmic bias) – sytuacja, w której rezultaty działania algorytmów są nieobiektywne lub sprzeczne ze stanem rzeczywistym; występuje, gdy dane wprowadzone do systemu zostały zafałszowane lub nie są reprezentatywne dla rzeczywistości (np. zdjęcia ilustrujące kategorię 'człowiek’ przedstawiają wyłącznie mężczyzn rasy białej).

Problem czarnej skrzynki (black box problem) – występujący w głębokim uczeniu problem polegający na nieprzejrzystości działania złożonych sieci neuronowych. Wiadomo, jakie informacje trafiają do systemu; wiadomo, jaki jest rezultat jego działania. Nie wiadomo natomiast, w jaki sposób przebiega sam sposób wnioskowania. Jest to szczególnie problematyczne na przykład w przypadku zastosowań medycznych.


*Prof. Stuart Russell – informatyk i światowej klasy ekspert w dziedzinie sztucznej inteligencji, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley oraz profesor neurochirurgii na Uniwersytecie Kalifornijskim w San Francisco. W Berkeley założył Centrum Dopasowanej do Człowieka Sztucznej Inteligencji (Center for Human-Compatible Artificial Intelligence). Razem z Peterem Norvigiem napisał najbardziej popularny podręcznik z dziedziny SI: „Artificial Intelligence: A Modern Approach”. Jest członkiem rad nadzorczych Future of Life Institute oraz Centre for the Study of Existential Risk. Jego zainteresowania badawcze obejmują m.in. podstawy racjonalności i inteligencji, długoterminową przyszłość SI, modele probabilistycznego uczenia się oraz architektury inteligentnych systemów. Swą najnowszą książkę, „Human Compatible: Artificial Intelligence and the Problem of Control”, poświęcił sztucznej inteligencji dopasowanej do człowieka.

Read the English version of this text HERE

Russell na World Summit AI

Profesor Stuart Russell będzie jednym z głównych prelegentów podczas konferencji World Summit AI, która w dniach 9–10 października 2019 roku odbędzie się w Amsterdamie. Serwis sztucznainteligencja.org.pl jest partnerem medialnym konferencji.

Skip to content