Fotografie i wideo zmanipulowane przez SI stają się coraz bardziej wiarygodne. Wkrótce do ich wykrycia nie wystarczy ani nasze oko, ani algorytmy

Deepfakes – to słowo jest na ustach wszystkich speców od cyberbezpieczeństwa. Przewidują oni, że w 2020 roku, ta technologia wykorzystująca sieci neuronowe do manipulacji obrazami i filmami może stanowić realne zagrożenie.

Scenariusze złośliwego wykorzystania technologii się mnożą. Pół biedy, kiedy wykorzysta się ją, by włożyć nieprawdziwe słowa w usta znanego polityka w celu zdyskredytowania go w kluczowym momencie kampanii wyborczej. Gorzej, jeśli spreparować wypowiedź głowy obcego państwa tak, by zawierała wypowiedzenie wojny. To na razie dystopijne scenariusze, ale najwyższy czas, by się na to przygotować, bo technologia już wkrótce będzie na to pozwalać.

Podróbka znika z oczu

Na razie nasze oko nie ma problemu z rozpoznaniem większości podróbek. Ludzki mózg jest doskonały w rozpoznawaniu i zapamiętywaniu ludzkich twarzy, a także interpretowaniu mimiki. Twarze przetworzone przez deepfakes budzą w nas poczucie, że „coś tu nie pasuje”. Potwierdzenie naszych przypuszczeń znajdziemy, kiedy przyjrzymy się nienaturalnemu ruchowi warg, oszczędnej mimice czy dziwnym artefaktom na krawędziach i wokół włosów.

Firmy tworzą również rozwiązania mające wykryć manipulacje. Często do tej pracy są zaprzęgane także sieci neuronowe, które mają za zadanie wykryć wzorce charakterystyczne dla zmodyfikowanych treści.

Problem w tym, że technologia się rozwija i już wkrótce podróbki mogą być nie do odróżnienia zarówno dla ludzi, jak dla algorytmów.

Od wykrywania do uwierzytelniania

W obliczu tego zagrożenia coraz częściej mówi się o zabezpieczeniu wideo przed modyfikacją już w momencie jego powstania. Taka technologia musiałaby zostać zaimplementowana w urządzeniu rejestrującym.

Twórcy rozwiązania chwalą się, że ich pomysł pozwolił na zwiększenie skuteczności wykrywania deepfake’ów z 45 procent do 90

W NYU Tandon School of Engineering opracowano metodę oznaczenia zdjęcia specjalnie spreparowanym znakiem wodnym. To unikalny wzór wygenerowany przez sieć neuronową w momencie robienia zdjęcia i niewidzialny dla oka. Jego szczególną cechą jest odporność na standardowe przekształcenia zdjęcia – zmiany jasności, kontrastu, jakości, kompresję związaną z wysłaniem zdjęcia na portal społecznościowy. Jest natomiast bardzo podatny na wszelkie manipulacje – usuwanie, dodawanie, przekształcenia.

Weryfikację przeprowadza się w prosty sposób – wystarczy sprawdzić, czy unikalny znak wodny oryginału pozostaje nienaruszony na przetworzonym zdjęciu. Jeśli jest zmieniony, oznacza to, że zdjęcie jest zmanipulowane. Ta sama technologia może być wykorzystana do ochrony materiałów wideo.

Twórcy rozwiązania chwalą się, że ich pomysł pozwolił na zwiększenie skuteczności wykrywania deepfake’ów z 45 procent do 90.

Wyryte w blockchainie

Pozostaje pytanie, co zrobić z tymi znakami wodnymi, kiedy już powstaną. Trzeba znaleźć sposób na ich magazynowanie i udostępnianie bez obawy, że one same zostaną zmodyfikowane lub na przykład usunięte.

Taka technologia już istnieje. To blockchain, czyli w ogromnym uproszczeniu gigantyczna lista, której elementy są kryptograficznie zabezpieczone przed usunięciem lub modyfikacją, a ona sama jest współdzielona przez wszystkich użytkowników w sieci. Znaki wodne można by umieszczać na tej liście – w ten sposób powstałaby jedna wspólna, wiarygodna baza oryginalnych znaków wodnych, która pozwalałaby na weryfikację autentyczności dowolnego zdjęcia.

Technologię uwierzytelniania należy wprowadzić zwłaszcza w urządzeniach, które rejestrują wideo mogące być dowodem w sądzie – na przykład w kamerach noszonych przez funkcjonariuszy policji czy w kamerach monitoringu. Amerykańska firma Axon dostarczająca rozwiązania dla policji wprowadza już pierwsze produkty oparte o podobną technologię.

Firma analityczno-doradcza Gartner przewiduje, że także media będą coraz częściej i chętniej korzystały z podobnej technologii, by zmniejszyć ryzyko publikowania fake newsów.

Do 2023 roku 30 procent wszystkich materiałów wideo w kanałach informacyjnych będzie pochodzić z uwierzytelnionego źródła – zapowiada Gartner.

Skip to content