Etyczna sztuczna inteligencja to ma być produkt made in Europe. Przykład? Inteligentny odkurzacz albo inteligentna lodówka, którym można zaufać. Odpowiedni test sprawdzi, czy na etapie projektowania, wdrażania i stosowania SI spełniono wszystkie reguły. Z Robertem Kroplewskim, pełnomocnikiem ministra cyfryzacji ds. społeczeństwa informacyjnego, rozmawia Maciej Chojnowski

Maciej Chojnowski: Koncepcja etycznej sztucznej inteligencji cieszy się ostatnio coraz większą popularnością. O co w niej chodzi? O etykę systemów sztucznej inteligencji czy o etykę inżynierów, którzy te systemy projektują?

Robert Kroplewski*: Sztuczna inteligencja w ujęciu etycznym to wyzwanie dotyczące relacji inteligentnego asystenta ze środowiskiem. Żeby działał, musimy go wytrenować, dostarczając mu danych i budując modele, które pozwalają te dane zastosować wobec środowiska zewnętrznego. Tym środowiskiem może być człowiek, natura albo maszyny.

Etyczne muszą więc być nie tyle wyizolowane systemy SI, ile ich relacje z otoczeniem. A tu zaczynają się pytania o prawdę, o fakty, o wiarygodność. Zaczynamy mieć wątpliwości, czy analityka danych w maszynie została dokonana prawidłowo. Czy dane, które zostały dostarczone, były z właściwych próbek. Czy nie doszło do ich zakłócenia. Czy rekomendacja podjęcia pewnego działania jest ryzykowna dla otoczenia, czy nie. I na ile jest ona przemyślana.

Mamy różne statystyki, które pokazują, że w zależności od branży trafność predykcji sztucznej inteligencji wynosi od 60 do 96 proc. Na przykład w medycynie wciąż są z nią problemy. Ale już w marketingu świetnie się sprawdza.

Dlatego etyka SI staje się teraz tak ważna?

Tak. Wejście sztucznej inteligencji w relacje społeczne czy gospodarcze stawia przed nami pytania o jej pozytywne, ale i negatywne skutki. To moment, kiedy technologia SI staje się wyzwaniem społeczno-polityczno-gospodarczym. Etyka pojawia się w wyniku potrzeby utworzenia reguł właściwego projektowania, rozwoju i wykorzystywania sztucznej inteligencji.

Z drugiej strony, gdybyśmy oddali możliwość podejmowania decyzji maszynie, co zresztą dzieje się już dziś na przykład w systemach giełdowych czy przy transakcjach walutowych, to komuś trzeba przypisać odpowiedzialność za podejmowane przez nią decyzje. One są ciągle ludzkie, choć delegowane.

Co w takiej sytuacji można zrobić?

Niektórym się marzyło, aby sztucznej inteligencji, która jest najczęściej utożsamiana z przyjmującym ludzką postać robotem, nadać obywatelstwo. Tak się stało w Arabii Saudyjskiej. Co się w takiej sytuacji dzieje z prawem i kontekstem etycznym? Okazuje się, że gdyby taki robot-obywatel miał podejmować działania w przestrzeni prawnej, to musielibyśmy zmienić prawo międzynarodowe publiczne i prywatne, traktaty wypracowane przez długie lata przez społeczność międzynarodową.

Dlatego w grupach eksperckich w OECD i w Komisji Europejskiej powiedzieliśmy: „Nie, to jest zły kierunek”. Światowy porządek prawny jest na tyle ustalony, że wprowadzenie robota, który miałby mieć swoje przymioty w każdym z aktów prawa międzynarodowego, spowodowałoby zaburzenie pewności i bezpieczeństwa prawa, czyli jego głównej funkcji. A na razie ten robot z elementem SI jest postacią absolutnie nieprzewidywalną.

Jeżeli dana gospodarka mówi: „Nie. My nie możemy być transparentni”, to wiemy, że tego produktu nie warto kupować, bo nie można mu ufać. Ta strona, która nie będzie tworzyć etycznie zgodnej sztucznej inteligencji, z czasem przegra.

Co więcej, pomiędzy sztuczną inteligencją a człowiekiem jest jeszcze inne życie. Są zwierzęta, które też mają jakąś warstwę inteligencji. Może zatem najpierw trzeba by nadać obywatelstwo zwierzętom? Mówię nieco prowokacyjnie, ale to nie jest zupełnie bezpodstawne, bo takie pomysły niedawno się pojawiły. Dlatego ustawienie właściwych proporcji i zaktualizowanie hierarchii wartości jest konieczne

W OECD zwrócono uwagę, że kontekstem działania sztucznej inteligencji jest cała planeta – nie tylko człowiek. Koniec końców SI będzie wpływać na zasoby wody, powietrze. Może wspomagać oczyszczanie atmosfery, ale może też spowodować takie zmiany, które dziś są nie do przewidzenia. Dlatego dzisiaj etyka SI mówi, żeby nowe formy sztucznej inteligencji trenować w tzw. sandboxach, czyli sprawdzać je w izolacji, zanim się je wpuści do systemu telekomunikacyjnego czy sieci teleinformatycznej.

Jakiś czas temu MIT przeprowadziło eksperyment Moral Machine. Chodziło o to, żeby ludzie zdecydowali na przykład, co powinien zrobić autonomiczny samochód, gdy musi wybierać, czy przejechać starszą osobę, czy dziecko. Okazało się, że w różnych częściach świata ten wybór byłby inny, bo ludzie hołdują innym wartościom. Czy zatem możemy mówić o uniwersalności zasad? Czy etyka nie będzie jednak zaszczepiana maszynom ze wszystkimi lokalnymi uprzedzeniami właściwymi ludziom?

To ogromne wyzwanie. Czy uniwersalizacja jest możliwa? Myślę, że tak, ale tylko w pewnych sprawach. W grupie eksperckiej stwierdziliśmy, że naczelną wartością jest godność ludzka.

Robert Kroplewski

To bardzo ważne, kiedy stajemy naprzeciwko maszyny, która nagle mogłaby po prostu uznać, że zachowanie godności człowieka nie jest dla niej najważniejsze, bo ona ma być wyłącznie produktywna i skuteczna. Sukces OECD polega na tym, że godność znalazła się w centrum tego, o czym mówimy – jest on tym większy, że członkiem OECD są Stany Zjednoczone. Zbudowaliśmy więc cywilny sojusz transatlantycki.

W Chinach jest zupełnie inna sytuacja. Tam ważna jest spójność społeczna i sprawność państwa. Rzesza ludzi ma być tak zarządzana, żeby był pokój i efektywność ekonomiczna. Chiny nie stały się partnerem dla OECD, przed nami cały czas praca, więc na razie wartość, jaką jest godność, się jeszcze nie uniwersalizuje.

Ale myślimy, że tak się w końcu stanie. Dlaczego? Ponieważ zasadą, która z godności wynika, jest zaufanie. Dlatego w Unii Europejskiej ukuliśmy pojęcie trustworthy AI, czyli godnej zaufania sztucznej inteligencji. I uznaliśmy, że nawet w Chinach ludzie z czasem będą potrzebowali wiedzieć, czy czemuś można ufać, czy nie. Więc trzeba stworzyć produkt, któremu można ufać i który się dobrze sprzeda jako taki.

Czyli pomysł trustworthy AI to zarazem przejaw troski o właściwe funkcjonowanie sztucznej inteligencji, jak i próba wypromowania oryginalnego europejskiego produktu?

Niektórzy chcieliby potraktować etykę jak narzędzie protekcjonizmu, wychodząc z założenia, że musimy szybko wprowadzić etykę, ponieważ raptownie zmieniają się relacje gospodarcze, kapitalizm się zmienia, zaburzone zostaje status quo, a tego sobie nie życzymy. W tej kwestii odbyła się realna dyskusja i negocjacje. Z jednej strony zaufanie samo w sobie jest wspaniałe. Z drugiej – nie możemy sobie pozwolić na protekcjonizm, bo jak się zamkniemy w bańce etycznej, to przegramy ekonomicznie. A skoro chcemy być liderem, to z tego protekcjonistycznego narzędzia przeszliśmy do pomysłu, że to ma być produkt. Czyli inteligentny odkurzacz albo inteligentna lodówka, którym można zaufać.

Dzisiaj etyka SI mówi, żeby nowe formy sztucznej inteligencji trenować w tzw. sandboxach, czyli sprawdzać je w izolacji, zanim się je wpuści do systemu telekomunikacyjnego czy sieci teleinformatycznej

Tylko żeby móc to realizować, musieliśmy opisać techniczne, ale też nietechniczne zasady etyczne. One wszystkie muszą być wdrażane w systemach SI. Stąd propozycja ekspertów w Unii Europejskiej stworzenia tak zwanego pilota sprawdzającego, czy dany system rzeczywiście odpowiada zasadom, które zostały zaproponowane.

Ten pilot się jeszcze tworzy. To nie będzie certyfikat, tylko test zgodności: każdy może sam to sobie sprawdzić i promować swoje rozwiązanie pod marką unijnej „Trustworthy AI”. Wtedy idziemy w świat, dochodzi do skalowania, finansowania i tak dalej. Wszelkie badania pokazują, że to się może sprawdzić.

W Polsce także?

W Polsce gospodarka oparta na danych daje duże możliwości. Trzy lata temu w dokumencie Przemysł+ krytycznie odnosiliśmy się do koncepcji przemysłu 4.0.

Jak to?

Uznaliśmy, że jest to tylko cyfrowa kopia istniejących stosunków przemysłowych, a nam chodzi o coś innego. Dojrzeliśmy do tego, żeby przestać być państwem skolonizowanym mentalnie czy kapitałowo. Nadszedł moment emancypacji. Przemysł 4.0, gdyby na nim skończyć, tylko utrwaliłby istniejące zależności. Byłby wtedy początkiem popadania w dług innowacyjny w gospodarce danych. A tego sobie nie życzymy.

Wciąż bylibyśmy podwykonawcą dla innych państw – zmieniłaby się tylko technologia, a cały układ pozostałby taki sam?

Tak. Mówimy o pewnej suwerenności gospodarczej. Całe wyzwanie polega na tym, żeby mając suwerenność, zachowywać zdolność bycia otwartym, budować szanse i sojusze, w których partnerzy mogą współpracować. I to nam się chyba udaje.

Wszystkie nasze inicjatywy dotyczące swobodnego przepływu danych wewnątrz Unii Europejskiej, ale też poza UE, w ramach WTO, teraz się materializują. Pojawia się wspaniała inicjatywa Japonii stworzenia zaufanej przestrzeni danych w skali transgranicznej. To jest nasze polskie marzenie i Japonia odpowiedziała na ten projekt.

Więc ta uniwersalizacja będzie się dokonywać. To jest możliwe, by takie ważne zasady, jak na przykład transparentność, stały się dość powszechne, przyjęte nawet przez ONZ. A jeżeli dana gospodarka mówi: „Nie. My nie możemy być transparentni”, to wiemy, że tego produktu nie warto kupować, bo nie można mu ufać. Wskaźniki pokazują, że ta strona, która nie będzie tworzyć etycznie zgodnej sztucznej inteligencji, z czasem przegra.

Unia Europejska jest bardzo cennym rynkiem, dlatego zaczyna dyktować warunki. Na przykład RODO. Ono nie jest może najszczęśliwsze w wykonaniu, ale jako koncepcja ma sens. Teraz nadchodzi swobodny przepływ danych i sztuczna inteligencja. A za chwilę pojawi się coś, co – mam nadzieję – będzie też wątkiem polskiej polityki, czyli wspólne standardy interoperacyjności maszyn. Chodzi o współpracę systemów produkcyjnych w inteligentnej sieci. To będzie podstawa.

Jednak etyka i litera prawa to dwa różne światy. To wszystko dobrze brzmi: rekomendacje, dobre praktyki. Ale te wszystkie zasady trzeba jeszcze wdrożyć.

Od lat mówi się, że technologia wyprzedza prawo. Tak po prostu jest. Ci, którzy mówią, że prawo zawsze powinno coś regulować, nigdy nie zdążą z tym prawem zbudować wartości, które dla naszej społeczności są przyjazne i stanowią o istocie spełnienia życiowego. Dlatego potrzebne jest sprytniejsze myślenie. Oczywiście prawo jest bardzo ważne. Bez niego na pewno wiele rzeczy może się nie udać. Natomiast działanie komplementarne wobec prawa jest szybsze, jeżeli są chętni. A do tego można zachęcić.

Mamy masę narzędzi, którymi można by to wspomóc: ustawa budżetowa, programy finansowania, koncepcje na granicy prawa i technologii, na przykład odpowiednie rozwiązanie dla dzielenia się danymi. Państwo może też kierować zamówienia publiczne zawierające wymóg spełnienia zasad etycznej SI czy standardów interoperacyjności danych. W tym sensie wytworzymy pewien wzorzec zachowania szybciej, niż nadejdą zmiany prawne.

Kontekstem działania sztucznej inteligencji jest cała planeta – nie tylko człowiek. Koniec końców SI będzie wpływać na zasoby wody, powietrze. Może wspomagać oczyszczanie atmosfery, ale może też spowodować takie zmiany, które dziś są nie do przewidzenia

Etyka to pewna suma zachowań wartościujących społecznie w relacjach człowieka do człowieka. Natomiast prawo przesądza instytucjonalnie, czy coś może być szkodą albo jaka jest zasada odpowiedzialności sztucznej inteligencji. Mówi o zakazach konkretnych zastosowań, na przykład w broni autonomicznej, tworzenia kopii człowieka albo pewnych hybryd. To są granice, wskazania: tu na pewno dalej nie idziemy.

Dzisiaj prawo jest tak skonstruowane, że mamy wolność eksperymentu medycznego, biologicznego czy technologicznego. W obszarze farmakologii, medycyny, ciała ludzkiego są jednak ograniczenia. Ale sama technologia nie jest ograniczona. Potrzeba pewnych rozwiązań prawnych, żeby wskazać te granice.

Załóżmy, że tę naszą etyczną SI „kupują” Stany i wszyscy zachodni giganci technologiczni stają po jasnej stronie mocy. Jednak po drugiej stronie pozostają Chiny oparte na innym modelu. Co wtedy?

Chcę trochę odczarować Chiny. Mówi się, że są takie straszne. A trzeba powiedzieć wprost: każdy tutaj gra, z Polską włącznie. To nie tak, że mamy tylko sojusze. Nasi sojusznicy prowadzą z nami konkretne gry. One służą naszym interesom, ale czasami są też dla nas trudne.

Rosja wymyśliła ostatnio tak zwany Parasol, czyli rosyjski internet. Dlaczego? Niektórzy mówią, że to będzie kontrola społeczna i cenzura. Na pewno tak, ale jednocześnie chodzi o ochronę rynku, przepływu danych i wartości.

Państwa Unii Europejskiej zaczęły myśleć o tym, że sztuczna inteligencja zastosowana w gospodarce platformowej, w modelu, który dzisiaj jest najbardziej popularny, nagle spowoduje odpływ pieniądza z naszego regionu. Skorzystają na tym kraje mające u siebie siedziby gigantów platformowych. Dlatego Unia postanowiła odważnie zająć się etyczną SI.

Świetnie, że tak się stało. Ta praca jest prowadzona bardzo sprawnie. Unia dobrze wie, że dopiero skoordynowanie polityk zdecyduje o sukcesie gospodarczym. Chodzi o produkowanie na masową skalę rozwiązań z obszaru trustworthy AI.

Oczywiście, nie jestem tak naiwny, żeby myśleć, że nikt nie będzie używał technologii w złej wierze. Ale trzeba stawiać sobie wymagania, żeby człowiek nie stał się tylko jednostką statystyczną w pojęciach ekonomicznych.

W „The Big Nine” Amy Webb opisuje rozwój wielkich amerykańskich i chińskich przedsiębiorstw technologicznych oraz trzy scenariusze, które mogą się ziścić w przyszłości. Webb nie przypisuje cyfrowym korporacjom jakichś demonicznych intencji. Uważa, że system po prostu wymyka się spod kontroli i żyje własnym życiem, coraz bardziej skomplikowany i zapętlony. Ma rację?

Zgadzam się, że nie musimy mówić o demonicznych intencjach korporacji. To zwyczajnie jest biznes i nastawienie na maksymalizację zysku. Media społecznościowe powstały w ramach reguł komercyjnych. To płaska wersja rzeczywistości.

Kiedy pan przeczyta regulamin korzystania z jakiegokolwiek medium społecznościowego, nie doszuka się pan żadnych wartości. Z kolei w ustroju państwa, ustrojach ponadpaństwowych różnych organizacji międzynarodowych już się mówi o wartościach. Jako społeczeństwa przeszliśmy długą drogę, zanim dopracowaliśmy się jakichś reguł funkcjonowania. Musimy więc mówić o internecie wartości. Tim Berners-Lee [twórca Internetu – przyp. red.] na każdej konferencji mówi, że potrzebujemy powrotu do wartości, do początków sieci.

Rząd Stanów Zjednoczonych niedawno rzucił w ramach DARPA wyzwanie zbudowania sztucznej inteligencji, która byłaby zdolna do wyjaśnienia samej siebie. Może więc nie będzie tak źle.

Podczas niedawnej konferencji Cyber Academy mówił pan, że nie wolno akceptować tego płaskiego, komercyjnego modelu sztucznej inteligencji. Czy jako konsumenci powinniśmy w którymś momencie powiedzieć: „Stop”?

Możemy powiedzieć: „Stop”, tylko ile to będzie warte? Żaden dostawca technologii nas nie posłucha. To kwestia nie tylko polityki państwa i racji państwa, ale – co może ważniejsze – samowładności człowieka. Przeciwdziałanie inwigilacji internetowej powinno być racją nadrzędną ponad wszelkimi podziałami. Dlatego mówimy o godności. To jest granica. Człowiek zawsze musi mieć kąt dla swej intymności. Nie chcę myśleć minimalistycznie, ale niech przynajmniej będzie tak.

Dlatego potrzeba odpowiedzialnych ludzi, którzy staną naprzeciwko różnych rozwiązań inwigilujących i powiedzą: „Ta technologia polega na kontroli. Jeżeli chcesz ją stosować, to musisz pokazać użytkownikowi, że go właśnie tu i tu kontrolujesz”. Jeśli on już wtedy godzi się na to, że jest kontrolowany, to trudno. Natomiast jako społeczność nie chcemy czemuś takiemu służyć. Chcemy go wspomóc, żeby mógł powiedzieć: „OK, wycofuję się” albo „świadomie podejmuję ryzyko”.

Gdyby miał pan wskazać najważniejsze kwestie zarówno w rekomendacjach OECD, jak i rekomendacjach unijnych dotyczących etycznej SI, to co by to było?

Zaufanie jest naprawdę ważne, co idzie w parze z transparentnością. Natomiast jeżeli pyta mnie pan o namacalny efekt, to wielkim zyskiem tych dwóch inicjatyw jest stworzenie mechanizmu, który pozwala sprawdzić, czy spełniamy praktycznie te wszystkie reguły etyczne na etapie projektowania, wdrażania i stosowania sztucznej inteligencji.

Sam fakt, że sobie takie pytanie zadajemy, spowoduje, że masa ludzi zacznie się uczyć, że to jednak jest coś więcej niż tylko technologia. Musimy się wpisać w szerszy kontekst.

Czy są dalsze plany rozwoju tych etycznych projektów?

Tak. W każdym z nich co roku musimy się zastanowić, czy nie powinniśmy go aktualizować, i ocenić rezultaty tych pilotów. Reguły OECD przełożą się na inne reguły dotyczące rynku pracy czy zalecenia w obszarze edukacji. To już przestała być organizacja czysto ekonomiczna – zaczęła mówić o społeczeństwie i o planecie. To się aż tak zmienia.

Dalsze zadania stoją przed ONZ, G20 i innymi blokami gospodarczymi bądź międzynarodowymi, gdzie konkretne rozwiązania również będą oczekiwane. Tu jest miejsce dla Chin, Rosji czy Wysp Cooka.

Chodzi o to, żeby skorzystać z szansy, jaką daje ta technologia. To ma być szansa dla nas. Cudze reguły dla sztucznej inteligencji niekoniecznie nam pasują. Suwerenność gospodarcza, samosterowalność naszych warunków ekonomicznych, autonomia człowieka jest dla nas bardzo ważna, bo widzimy w tym sprawność nie tylko społeczną, ale też ekonomiczną Polski. I na każdym kroku powinniśmy tego pilnować. To jest moja rekomendacja dla polityki w Ministerstwie Cyfryzacji. Jeżeli o tym zapomnimy, będziemy wciąż świecili odbitym światłem.


*Robert Kroplewski jest radcą prawnym, praktykiem i specjalistą w zakresie prawa nowych technologii, mediów elektronicznych i usług komunikacji społecznej. Od 2016 r. pełni funkcję pełnomocnika ministra cyfryzacji ds. społeczeństwa informacyjnego. Współautor koncepcji strategii Industry + (gospodarka oparta na danych z uwzględnieniem przepływu danych, zaufania cybernetycznego w globalnej konkurencji i rozwoju przyszłych technologii opracowanych na potrzeby SI). Od 2005 r. ekspert Instytutu Sobieskiego w obszarze nowych technologii. Od czerwca 2018 r. członek grupy ekspertów wysokiego szczebla ds. strategii SI dla Komisji Europejskiej (AIHLEG). Od listopada 2018 r. ekspert SI w grupie AIGO nominowany przez OECD.

Skip to content