W świecie nadludzi z komputerowymi implantami i wszelką wiedzą na wyciągnięcie ręki bycie człowiekiem będzie czymś innym niż dotychczas. Prawa człowieka też – twierdzi Roch Głowacki, prawnik zajmujący się SI i nowymi technologiami, w rozmowie z Anną Zagórną

Anna Zagórna: Czy patrząc na to, co robi Unia w sprawie regulacji SI, można uznać, że idziemy w dobrym kierunku?

Roch Głowacki*: Od dwóch lat Unia intensywnie pracuje nad tym, by Europa stała się liderem w dziedzinie etycznej sztucznej inteligencji. RODO, mimo niedoskonałości, stało się produktem eksportowym i dało Unii Europejskiej możliwość wyznaczania trendów regulacyjnych na świecie. Naturalnie, ambicje Unii w kontekście SI są podobne i jeżeli jako Europejczycy chcemy podtrzymywać wartości takie jak poszanowanie godności osoby ludzkiej, wolność, demokracja, niedyskryminacja i tolerancja, sprawiedliwość, to kierunek jest słuszny. To także naturalna kontynuacja europejskich tradycji humanistycznych. Po drugie, aby zmaksymalizować wpływ Europy na scenie międzynarodowej, działania państw członkowskich UE powinny być skoordynowane.

W Europie większość z nas przyzwyczaiła się już do RODO. Ale czy przyzwyczają się też inżynierzy od sztucznej inteligencji? Mówi się, że część brukselskich przepisów powstrzymuje europejskie firmy technologiczne przed projektowaniem nowych, śmiałych rozwiązań i świat nas wyprzedza. Ostrzegała przed tym m.in. eurodeputowana Eva Kaili. Co z tym zrobić?

Zgadzam się, że niektóre postanowienia z RODO trudno pogodzić z rosnącymi oczekiwaniami etycznymi w odniesieniu do sztucznej inteligencji. Na przykład zasada minimalizacji danych koliduje z dążeniem do tego, aby decyzje podejmowane przez systemy SI można było zweryfikować.

Jedną z możliwości sprawdzenia, czy decyzja jest prawidłowa, mógłby być audyt danych napędzających określony system SI. Zgodnie z zasadą minimalizacji danych system ten nie powinien jednak przechowywać danych w nieskończoność.

W przyszłości chatboty oparte na SI i inne produkty oraz usługi będą zapewne zawierały ostrzeżenia w stylu: „zasilane sztuczną inteligencją” lub powiadomienia podobne do tych o plikach cookie

Pojawiają się już też inne rozwiązania pomagające zweryfikować, czy system SI się pomylił, bez przekopywania gigabajtów danych i groźby naruszania własności intelektualnej dostawcy oprogramowania opartego na SI.

Jak RODO wpływa na nowe regulacje dotyczące sztucznej inteligencji?

Trzeba też pamiętać, że prace nad RODO trwały wiele lat. W 2012 r. Komisja Europejska zaproponowała reformę unijnych przepisów o ochronie danych z 1995 r. RODO weszło w życie dopiero dwa lata temu, natomiast szukanie kolejnych europejskich jednorożców (czyli start-upów, które osiągnęły rynkową wycenę na poziomie co najmniej miliarda dolarów) trwa już znacznie dłużej. Nie wydaje mi się zatem, że za problemy europejskiej technologii możemy winić tylko Brukselę.

RODO stanowi w tej chwili fundament pod regulacje dotyczące SI. Wprowadzanie nowych regulacji będzie długim i żmudnym procesem. Niektóre założenia RODO, a także te dotyczące na przykład odpowiedzialności za produkty i usługi wykorzystujące SI, ulegną zmianie.

Ważne, by ustawodawcy unijni kontynuowali konsultacje społeczne i pozostawili pewne kwestie ekspertom. Przykładem tego, jak Komisja Europejska reaguje na sygnały od rynku, jest to, że wersja robocza białej księgi w sprawie SI zawierała pięcioletni zakaz stosowania technologii rozpoznawania twarzy w miejscach publicznych. To radykalne rozwiązanie dawałoby Komisji czas na zastanowienie się, jak powinniśmy regulować tego rodzaju technologie, ale ostateczna wersja raportu, z lutego, tego zakazu już nie proponuje.

Europejska etyczna SI ma być naszym towarem eksportowym. Tylko czy kolejnymi obostrzeniami znów nie opóźnimy jej rozwoju?

Ta obawa jest zrozumiała, lecz wynika z założenia, iż etyczne podejście do SI kłóci się z postępem technologicznym. Z ostatniego raportu Komisji Europejskiej wynika, iż w regulacjach w tym obszarze chodzi o to, by dane przepływające przez gospodarkę, np. przez sektor finansowy czy opieki społecznej, były przetwarzane zgodnie z prawem, by ich jakość była wysoka i by w określonych przypadkach można je było zweryfikować. Przepisy, które mają przeciwdziałać praniu brudnych pieniędzy czy wymagają informowania konsumentów o skutkach ubocznych leków, mają de facto podobne założenia. Przyczyniają się do budowania zaufania społecznego, ochrony rynków i umożliwiają ludziom wybór między różnymi produktami.

Czy jest w ogóle możliwe, aby SI była w swoim działaniu całkowicie przejrzysta, wytłumaczalna?

Problemem nie jest podejście do tematu od strony etycznej, lecz niezrozumienie technologii. Niektóre rozwiązania są projektowane na zasadzie czarnych skrzynek. W rezultacie nie możemy zrozumieć ani odtworzyć czynników, które miały wpływ na decyzję danego systemu SI.

Wymaganie od każdego rodzaju SI, by była w 100 procentach przejrzysta, oczywiście nie ma sensu, ale projektanci tych systemów mają też przecież do dyspozycji modele, które łatwiej zrozumieć. Oba rodzaje rozwiązań mogą współistnieć na rynku i posiadać na przykład różne „certyfikaty przejrzystości”.

Roch Głowacki

Założenia etyczne SI nadają kierunek debacie publicznej i same w sobie nie są problemem. Problem pojawia się wtedy, kiedy sprawy technologiczne zostają niejasno zapisane w prawie. Przykładem jest nowa dyrektywa w sprawach autorskich ACTA2. Gdy trafiła ona na czołówki gazet, wielu komentatorów przeoczyło to, że zawiera ważne artykuły dotyczące analizy danych i tekstu – procesu kluczowego do szkolenia systemów SI. W przeciwieństwie do Stanów Zjednoczonych (gdzie proces normalizacji danych chronionych prawem autorskim jest uważany za objęty zasadą „dozwolonego użytku” czy zezwolenie na korzystanie z materiałów chronionych prawami autorskimi bez zgody podmiotu tychże praw i bez wynagrodzenia) i kilku krajów azjatyckich nowa dyrektywa zakłada nowy wyjątek od praw autorskich, z którego podmioty praw autorskich mogą zrezygnować w „odpowiedni sposób”. Niestety, poza przykładem, że dla treści dostępnych przez internet takie zastrzeżenie powinno być zamieszczone w sposób umożliwiający jego odczytanie przez komputer, nie jest jasne, co określenie „odpowiedni sposób” dokładnie oznacza. Istnieje zatem duże ryzyko, że poszczególne państwa członkowskie różnie sformułują zakres nowego wyjątku w przepisach krajowych.

Nie sposób jeszcze przewidzieć, jak dramatycznie ten mechanizm może wpłynąć na dostępność danych w Unii. Twórcy systemów SI mogą jednak znaleźć się w sytuacji, w której będą naruszali prawa autorskie podmiotów nieżyczących sobie, by ich materiały wykorzystywano do szkolenia SI. Brak jasnych reguł może się okazać sporym utrudnieniem dla firm technologicznych.

Czy prawo może w ogóle wpłynąć na powstanie etycznej SI? Na czym to będzie polegało?

Od wieków prawo jest narzędziem wzmacniania i egzekwowania norm moralnych i etycznych. Tak samo będzie w przypadku sztucznej inteligencji. Wytyczne ekspertów UE w zakresie etyki przetarły szlak do analizy i dyskusji na ten temat. Dokument o wytycznych opublikowany w zeszłym roku obejmuje zestaw siedmiu kluczowych wymogów przy projektowaniu SI „godnej zaufania”. Systemy SI powinny być przejrzyste, czyli umożliwiać identyfikację czynników wypływających na ich decyzje. Jest to szczególnie ważne, gdy decyzja podjęta przez SI okazuje się błędna. Rozwiązania SI powinny także zawierać odpowiednie mechanizmy odwoławcze i umożliwiać raportowanie negatywów skutków.

W rzeczywistości, o której rozpisuje się np. Yuval Noah Harari w książce „Homo Deus” – o ile taka rzeczywistość zaistnieje – prawa człowieka przejdą pewnie kolejną metamorfozę

W praktyce oznacza to, że w przyszłości chatboty oparte na SI i inne produkty oraz usługi będą zapewne zawierały ostrzeżenia w stylu: „zasilane sztuczną inteligencją” lub powiadomienia podobne do tych o plikach cookie. Pojawi się pewnie nowy sektor skoncentrowany na ocenianiu i poświadczaniu przejrzystości oraz wiarygodności SI. Być może będą też certyfikaty w stylu: „SI wyprodukowana w Europe”. I powstaną platformy internetowe typu Rankomat czy Trustpilot, porównujące systemy SI i je oceniające.

Czy kraje członkowskie powinny tworzyć własne organy regulujące sztuczną inteligencję? A może winny zdać się w tym względzie na ekspertów Unii? Kto powinien certyfikować produkty SI? Państwo, Unia czy może jedno i drugie?

Niezależnie od tego, w jakim stopniu i które obszary SI będziemy regulować prawnie, egzekwowaniem i nadzorem powinny się zajmować organy regulacyjne o jasno określonych uprawnieniach. Prawdą jest, że obecnie nie jest jasne, czy sektorowe organy regulacyjne powinny ustanowić własne oddziały SI, czy powinien istnieć jeden krajowy nadrzędny organ nadzorczy SI, czy też kompetencje te powinny należeć do obecnych organów nadzoru danych. To ważne, bo krajowe struktury zarządzania SI będą miały istotny wpływ na ułatwianie współpracy gospodarczej między krajami – a co za tym idzie, także na funkcjonowanie unijnego rynku danych.

A nieetyczna SI? Kto powinien za nią odpowiadać?

To jest jedna z najbardziej skomplikowanych spraw. Twórca oprogramowania niekoniecznie ma wpływ na to, jak dany komponent będzie wykorzystany przez producenta, a tym bardziej przez użytkownika. Nie zawsze też będzie można ustalić, kto w łańcuchu dostawców popełnił błąd. Odpowiedzialność będzie zależała od wielu czynników, w tym od współpracy pomiędzy twórcą a producentem czy potencjalnego ryzyka. Na przykład kiedy twórca oprogramowania oraz producent będą ściśle współpracować nad nowym urządzeniem medycznym do leczenia lub diagnozy, dajmy na to, raka, wymagania będą bardziej restrykcyjne. W przypadku awarii urządzenia, aby nie pozostawić pacjenta bez odszkodowania i uniknąć dochodzenia, który komponent (sprzęt czy oprogramowanie) zawiódł, twórca oprogramowania i producent mogliby być zobowiązani do posiadania odpowiedniego ubezpieczenia. Z czasem pojawią się nowe kategorie ubezpieczeń, gdzie składki mogłyby zależeć od certyfikatu „przewidywalności” lub „skuteczności” danego rozwiązania.

Czy w świecie, który nadchodzi, prawa człowieka powinny zostać określone na nowo? Czy nie powinniśmy żądać np. prawa do prywatności mózgu (myśli, wspomnień) czy prawa równego dostępu do technologii? Czeka nas definiowanie czegoś na kształt praw człowieka przyszłości, praw nadczłowieka?

Pani pytania wcale nie są tak futurystyczne, jak mogłoby się wydawać. Wraz z postępem społecznym i technologicznym nieustannie poszerzamy i aktualizujemy prawa człowieka. Europejska Konwencja Praw Człowieka ma już prawie 70 lat, a gwarantowane przez nią prawa wydają się tak samo potrzebne wtedy, jak teraz. Kluczowe postanowienia, jak prawo do wolności i bezpieczeństwa osobistego czy wolności myśli, sumienia i wyznania, podlegać będą natomiast nowym interpretacjom. Przykładem tego jest chociażby prawo do usunięcia danych, tzw. „prawo do bycia zapomnianym” – niejako stworzone przez RODO, będące współczesną interpretacją prawa do prywatności.

Niektóre postanowienia z RODO trudno pogodzić z rosnącymi oczekiwaniami etycznymi w odniesieniu do sztucznej inteligencji

Myślę, że w niedalekiej przyszłości będziemy mieli jasno określone „prawa”, np. do bycia informowanym, że pewne decyzje zostały podjęte przez algorytm, a nie przez człowieka, że rozmawiamy z chatbotem, a nie człowiekiem, do kwestionowania algorytmicznie podjętych decyzji czy prawo do poznania czynników, które na tę decyzję miały wpływ.

Do czego jeszcze przydadzą się te prawa?

Będą szczególnie ważne w budowaniu zaufania publicznego do SI, gdy leki przypisywane będą przez robolekarzy, pożyczki przyznawane przez robodoradców, a kandydaci do pracy będą wybierani przez roborekruterów.

W rzeczywistości, o której rozpisuje się np. Yuval Noah Harari w książce „Homo Deus” – o ile taka rzeczywistość zaistnieje – prawa człowieka przejdą pewnie kolejną metamorfozę. W świecie nadludzi z komputerowymi implantami i wszystkimi informacjami o nas samych i naszym otoczeniu na wyciągnięcie ręki będziemy musieli zastanowić się nad tym, co to znaczy być człowiekiem.

Jak pandemia koronawirusa zmieni podejście do regulowania technologii?

W pewnej mierze szereg inicjatyw dotyczących sztucznej inteligencji (ale nie tylko) powstawało pod wpływem tzw. techlash, buntu wobec gigantów technologicznych. Sektor technologiczny zmagał się z deepfake’ami, fake newsami, mową nienawiści, naruszeniami prywatności itp. W obecnym klimacie politycznym koronawirus potencjalnie zabija techlash, co może mieć wpływ na to, w jakim stopniu będziemy regulować firmy technologiczne – biorąc pod uwagę, iż będą one niezbędne w walce z wirusem i w powrocie do normalności.


*Roch Głowacki jest absolwentem King’s College London, prawnikiem w międzynarodowej kancelarii Reed Smith w Londynie. Specjalizuje się w prawie dotyczącym nowych technologii i ochronie własności intelektualnej. Reprezentuje szereg największych firm technologicznych na świecie i regularnie pisze artykuły dla czołowych publikacji z dziedziny sztucznej inteligencji, w tym „AI Business” oraz „The Journal of Robotics, Artificial Intelligence & Law”.