• Zmodyfikowane obrazy i filmy porno mogą złamać życie osoby, której wizerunek wykorzystano
  • W internecie jest coraz więcej nadużyć seksualnych związanych z manipulacją obrazu
  • Eksperci alarmują: prawo nie nadąża za technologią

Zaczęło się już dawno temu, kiedy za pomocą programów do edycji zdjęć podmieniano twarze aktorów porno na facjaty polityków czy celebrytów. W ostatnich latach, a nawet miesiącach, dzięki rozwojowi nowych technologii, w tym deepfakes, sztucznej inteligencji wykorzystywanej do modyfikowania obrazów, zjawisko to stało się wręcz powszechne.

Łatwość stosowania rozwiązań SI do przerabiania zdjęć i filmów skutkowała już niejednym skandalem. Aktorki „Gry o tron” oraz Selena Gomez, Emma Watson, Scarlett Johansson czy Michele Obama – je też dotknął problem fałszywych filmów porno.

O ile gwiazdy i osoby ze świecznika mogą takie fałszywki bagatelizować (bo i tak mało kto uwierzy, że to one w nich występowały) lub zaprzęgać rzesze informatyków i najlepszych prawników, by odszukać i pozwać autorów, o tyle zwyczajni ludzie nękani w ten sposób mogą czuć się bezsilni, zwłaszcza w obliczu archaicznych rozwiązań prawnych.

SI zdejmuje bieliznę

Jeszcze kilka dni temu można było za pomocą inteligentnej aplikacji DeepNude rozebrać do naga każdą kobietę. Jak magiczne okulary rozbierające kobiety, o których w skrytości myśleli zapewne „żałośni mężczyźni” (tak nazwała ich amerykańska profesor prawa Mary Anne Franks), skanowała „ubrane” zdjęcie i po około 30 sekundach przedstawiała sylwetkę danej pani roznegliżowaną do rosołu.

Twórcy aplikacji z Estonii – jak sami twierdzą – nie sądzili, że w tak krótkim czasie ich system zatrzęsie światem pornografii – w ciągu pierwszych kilku dni aplikację bezpłatnie pobrało około pół miliona osób, a z płatnej, rozbudowanej wersji (około 370 złotych) skorzystały kolejne tysiące.

Wcześniej nauczyli platformę, jak wyglądają nagie kobiety o danym typie urody, na bazie 10 tysięcy nagich zdjęć. Pracując, porównywała wskazane jej „ubrane” zdjęcie z podobnymi nagimi fotosami.

Twórcy rozbieranej aplikacji zablokowali ją i wydali oświadczenie, które podsumowali stwierdzeniem, że świat nie jest jeszcze gotowy na DeepNude, a „prawdopodobieństwo nadużyć jest za wysokie”

Rozebrać w ten sposób można było każdą kobietę – od sąsiadki czy nauczycielki po podziwianą celebrytkę czy znienawidzoną panią polityk. Rozebranie do naga np. Julii Roberts, Małgorzaty Rozenek czy Beaty Szydło nie stanowiło dla aplikacji problemu.

Apka działała tak dobrze, że trudno było gołym okiem odróżnić, czy to prawdziwe zdjęcie, czy fake. Ściągnęło to na twórców falę krytyki i nienawistnych komentarzy. Mimo zapisu w regulaminie, że przerobionych zdjęć nie wolno publikować, wiele z przerobionych fotografii trafiło bowiem do sieci.

Wkroczyła nawet DARPA

Fałszowane filmy pokazujące czołowych amerykańskich polityków w śmiesznych, krępujących lub narażających ich na krytykę obrazach i filmach było przyczyną uruchomienia przez podległą Departamentowi Obrony DARPA (Defense Advanced Research Projects Agency – Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności) projektu, na który wydano już miliony dolarów.

Chodzi o media forensics (z ang. kryminalistyka mediowa) i współpracę z naukowcami z całego świata, którzy tworzą technologię zdolną do wykrywania tego, co w obrazach i filmach jest realne, a co nie.

Ale według Hany’ego Farida, profesora informatyki z Dartmouth College, który doradza start-upowi Truepic z San Diego, specjalizującemu się w nowych sposobach weryfikowania prawdziwości cyfrowych zdjęć, pracujący nad budową tych systemów są „wciąż całkowicie bezradni”. Bo techniki manipulowania i generowania syntetycznych obrazów i filmów są coraz doskonalsze.

Można kogoś zniszczyć

Jak zauważają profesorki prawa z uniwersytetów w Durnham oraz Kent, takimi działaniami można komuś zniszczyć życie. A fake porno – gdzie filmy i obrazy są cyfrowo zmienione – to szybko rosnący problem.

W swoim najnowszym raporcie na temat wykorzystywania seksualnego opartego na obrazie ekspertki twierdzą, że zastosowanie sztucznej inteligencji i deepfake sprawia, że modyfikowanie filmów jest znacznie prostsze i bardziej wyrafinowane.

„Niedoświadczonym okiem bardzo trudno jest odróżnić fałszywe i rzeczywiste obrazy, a zatem krzywda i nękanie odczuwane przez ofiary, które to przeżywają, są bardzo dotkliwe” – wyjaśniają prof. Clare McGlynnprof. nadzw. Kelly Johnson z Uniwersytetu w Durham oraz prof. Erika Rackley z Uniwersytetu Kent.

Raport pojawia się miesiąc po ogłoszeniu przez rząd Wielkiej Brytanii, że Komisja Prawna została poproszona o przeanalizowanie, czy istniejące przepisy są wystarczające.

Przezroczysty listek figowy

W Zjednoczonym Królestwie nie istnieje żadne szczególne ustawodawstwo wymierzone przeciwko deepfakes, choć dystrybutorzy filmów wideo mogą być oskarżeni o molestowanie.

Profesorki podkreślają, że brak szczegółowych rozwiązań legislacyjnych dotyczących tej kwestii w Anglii, Walii i Irlandii Północnej oznacza jak dotychczas, że policja najczęściej jest w stanie wydać jedynie nieformalne ostrzeżenie.

Co więcej, zemsta porno – dzielenie się prywatnymi lub seksualnymi obrazami lub filmami osoby bez jej zgody – stało się przestępstwem w Anglii i Walii w kwietniu 2015 roku, ale podlega przepisom dotyczącym komunikacji, co oznacza, że ofiarom w postępowaniu nie przyznaje się automatycznie anonimowości, jak w przypadku przepisów o przestępstwach seksualnych.

Szkocja ma już bardziej restrykcyjne przepisy w tym względzie, które obejmują zakaz sztucznej zmiany wizerunku.

Niedoświadczonym okiem bardzo trudno jest odróżnić fałszywe i prawdziwe obrazy, a zatem krzywda i nękanie odczuwane przez ofiary, które dosięgnął nikczemny proceder, są bardzo dotkliwe

Ale i tak to wciąż za mało.

Praca brytyjskich prawniczek, od lat zajmujących się problemem nielegalnej pornografii i upskirting (ang. zaglądanie pod spódnicę, podglądanie), wykorzystaniem seksualnym i przemocą na tym tle, została sfinansowana przez Australijską Radę ds. Badań Naukowych (Australian Research Council) podlegającą rządowi Australii w ramach projektu badającego nadużycia seksualne oparte na obrazach w Australii, Nowej Zelandii i Wielkiej Brytanii.

Raport odbił się dosyć szerokim echem także w innych krajach, w których narasta problem pornografii fałszowanej za pomocą programów komputerowych.

Niewinne próby za oceanem

W USA ktoś narażony na fake porn mógłby ewentualnie stwierdzić, że jego wizerunek został użyty w „podstępnym zamiarze” – takie działanie może też być karnie rozpatrywane jako zniesławienie lub cyberstalking, próba zemsty, łamanie praw dotyczących pornografii, kradzieży tożsamości lub cyberprzemocy. W federalnych przepisach nie ma słowa o samych deepfakes.

Od 1 lipca są za to w prawie stanu Wirginia. Zgromadzenie Ogólne tego stanu przyjęło w marcu projekt aktualizujący ustawę z 2014 roku w celu objęcia zakazem udostępniania pornografii znanej jako deepfakes. Nowela właśnie weszła w życie. Za udostępnianie fałszywej pornografii można teraz iść na rok do więzienia i zapłacić równowartość 10 tysięcy złotych grzywny.

Zgromadzenie Stanu Nowy Jork złożyło jeszcze bardziej dalekosiężny projekt ustawy, który zakazałby tworzenia zmodyfikowanej cyfrowo pornografii bez zgody podmiotu. Na razie jest ona analizowana, bo sprzeciw wobec niejasnych i rozwlekłych zapisów nadszedł z Hollywood.

Jakieś ruchy widać też po stronie Kongresu. Reprezentantka Izby Niższej Kongresu Yvette Clarke 12 czerwca zaproponowała projekt ustawy, który sprawiłby, że dystrybucja deepfakes przedstawiających nagość lub aktywność seksualną „z zamiarem upokorzenia lub nękania osoby fałszywie przedstawionej” byłyby przestępstwami federalnymi zagrożonymi grzywną i więzieniem.

Senator Ben Sasse pod koniec 2018 roku zaproponował rozwiązanie ustawowe, które kryminalizowałby produkcję i dystrybucję fałszywych materiałów wpływających na działalność rządu (w tym wybory) lub związanych z przemocą. Na razie żadne przepisy na poziomie federalnym nie zostały jeszcze wprowadzone.

Co ze skutecznością?

Profesor McGlynn, współautorka raportu, wezwała brytyjskich ministrów do wprowadzenia nowego prawa kryminalizującego wszelkie formy nieuzasadnionego udostępniania obrazów seksualnych, w tym sztucznie zmienionych obrazów. Przeprowadzone przez prawniczki badanie wykazało bowiem również, że choć większość mediów społecznościowych i firm internetowych wdraża procedury usuwania takich treści, są one „często powolne i skomplikowane”.

W międzyczasie twórcy rozbieranej aplikacji zablokowali ją i wydali oświadczenie, które podsumowali stwierdzeniem, że świat nie jest jeszcze gotowy na DeepNude, a „prawdopodobieństwo nadużyć jest za wysokie”.

Wspomniana wcześniej Mary Anne Franks, profesor prawa i prezes amerykańskiej Inicjatywy na rzecz Praw Obywatelskich w Dziedzinie Cybernetyki (Cyber Civil Rights Initiative), napisała wtedy na Twitterze: „Dobrze, że aplikacja została zamknięta, ale to tłumaczenie nie ma sensu. INTENCJĄ aplikacji było to, aby pozwolić sobie na drapieżne i groteskowe fantazje seksualne żałosnych mężczyzn”.

Wystarczy dodać, że kopie aplikacji podobno krążą w sieci i hulają w najlepsze. Można je pobrać na przykład poprzez torrenty, a na kanale YouTube jest wiele poradników, jak to zrobić. Od soboty Deep Nude jest też dostępna w formie strony WWW. Nie stoją za tym jej autorzy, ale anonimowi internauci, którzy skopiowali kod źródłowy do oryginalnej, nieczynnej już witryny. Zbyt długo była dostępna w sieci.

Mec. Kordian Baranowski, Kancelaria Adwokacka Adwokat Kordian Baranowski

Jeśli w Polsce ktoś wykorzystałby deepfakes czy fake porn w mediach społecznościowych, ofiara takiego działania może w trybie postępowania prywatnoskargowego skorzystać z przepisów chroniących dobra osobiste w Kodeksie karnym, tj. art. 212 k.k. Co prawda przepisy kodeksu karnego mówią o pomówieniu, ale zestawienie wizerunku z odpowiednim do tego komentarzem powinno wskazywać na wypełnienie znamion tego występku. Przestępstwa pomówienia (zniesławienia) podlegają trybowi ścigania z oskarżenia prywatnego, czyli na wniosek pokrzywdzonego.
Za próbę zdyskredytowania kogokolwiek za pomocą tych środków osoba pomawiająca podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do roku. Sąd może orzec majątkowy środek karny w postaci nawiązki na rzecz pokrzywdzonego lub na inny wskazany przez pokrzywdzonego cel społeczny.

Niezależnie od odpowiedzialności karnoprawnej najbardziej popularna jest odpowiedzialność cywilnoprawna – na podstawie przepisów Kodeksu cywilnego. Osoba, której dobra osobiste zostały naruszone, może żądać nie tylko zapłaty stosownej kwoty tytułem zadośćuczynienia, ale także domagać się skutków usunięcia takiego naruszenia, co może łączyć się ze znacznymi kosztami – przewyższającymi wysokość zadośćuczynienia. Taka odpowiedzialność może być dla sprawcy naruszenia najbardziej dotkliwa, bowiem sam pokrzywdzony naruszeniem dóbr osobistych może powołać szereg dowodów mających na celu wykazanie, jak daleko i trwale te dobra zostały naruszone. Pamiętać należy, iż „internet pamięta wszystko”. Innymi słowy – usunięcie danych, w tym zdjęć, jest nie tylko czasochłonne, ale może okazać się wręcz niewykonalne ze względu ma możliwość powielania, kopiowania i umieszczania tych plików w każdym możliwym miejscu wirtualnej rzeczywistości.

Oczywiste jest także, iż wspomniane przepisy nie są odpowiedzią na takie nowe zagrożenia, ale przynajmniej częściowo powinny chronić osoby, które zostaną skrzywdzone za pomocą nowych technologii. Prawo po prostu nie nadąża za zagrożeniami kreowanymi przez nowe technologie, ale i też nie ma woli ustawodawcy, aby zajął się takim problemem. Dlatego mówić o odpowiedzialności karnej za samo umieszczenie deepfakes czy fake porn – bez komentarza – należy z wielką ostrożnością.


Skip to content