• Czy Chińczycy fałszują publicznie dostępne zdjęcia satelitarne?
  • Sieci GAN okazują się potężnym narzędziem pozwalającym zmylić przeciwnika
  • Amerykańscy spece szukają sposobu na przeciwdziałanie fałszerstwom danych

Można się natrząsać z Donalda Trumpa, który śpiewa karaoke do „Sweet Dreams” zespołu Eurythmics, czy zachwycać się urodą nieistniejących celebrytów. Ale wykorzystanie sieci neuronowych typu GAN (generatywne sieci przeciwstawne), których użyto do kreacji różnych fake picturesfake videos, idzie też w niezwykle niebezpiecznym kierunku. Zdjęcia czy filmy manipulowane przez sztuczną inteligencję mogą oszukać także wojskowych i speców od bezpieczeństwa.

Zwrócili na to uwagę Amerykanie, wskazując palcem Chińczyków, podejrzewanych o manipulacje na zdjęciach geosatelitarnych w zbiorach typu open source (otwarty dostęp).

Mocarstwa ścierają się nie tylko o prym w gospodarce i handlu (mimo trwających negocjacji właśnie trwa kolejna runda z wymianą celnych ciosów, czyli Waszyngton uderza w Pekin podwyżkami ceł, ten zapowiada ripostę). Ta rywalizacja dotyczy też stosowania sztucznej inteligencji (SI). Chiny budzą w Waszyngtonie większe obawy, podważając światową hegemonię USA. Rozważania nad stosunkami amerykańsko-chińskimi przewidują nawet możliwość zbrojnego konfliktu między dwiema potęgami. Czy „trzymający się mocno” Chińczycy pokuszą się o następny krok i będą fałszować istotne militarnie informacje? Podobno już to robią.

GANs and Roses, czyli nie ma róży bez kolców

Dziś to, co w 2014 roku w ciągu jednej nocy wymyślił naukowiec Ian Goodfellow, czyli generative adversarial network (GAN, generatywna sieć przeciwstawna), daje ogromne możliwości. To tak naprawdę dwie sieci neuronowe: pierwsza (generator) próbuje stworzyć obraz nieodróżnialny od prawdziwego z bazy wzorcowych danych, podczas gdy druga (dyskryminator) stara się znaleźć różnice. Sieci trenują siebie nawzajem, podnosząc sobie poprzeczkę, co prowadzi do rezultatów coraz wyższej jakości.

Garść fachowo zmanipulowanych zestawów danych wprowadzonych do systemu dostarczania obrazów czy oprogramowania open source może spowodować spustoszenie

Niestety, wykorzystane do niecnych celów GAN stanowią ogromne zagrożenie. Mowa na przykład o tworzeniu obrazkowych fake newsów, które mogą wpływać chociażby na wyniki wyborów.

W 2017 roku chińscy uczeni wykorzystali GAN do identyfikacji różnych obiektów na ogólnodostępnych zdjęciach satelitarnych. Jednak ta sama technika, która może odróżnić obiekty prawdziwe od fałszywych, może również pomóc w tworzeniu fałszywych elementów zdjęć lub usuwania istniejących.

Na polu cyfrowej walki

Na świecie panuje dość powszechna zgoda co do tego, że autonomiczna broń nie powinna gościć na polu walki (na forum ONZ wyłamały się z niej Rosja, USA, Korea Południowa, Izrael i Australia).

Zeszłej jesieni Unia Europejska przyjęła rezolucję wzywającą do „międzynarodowego zakazu rozwoju, produkcji i użycia broni, która sama decyduje o zabijaniu”. Wcześniej, w lipcu ubiegłego roku, 2,4 tysiąca specjalistów od SI ze świata nauki i biznesu, w tym Elon Musk, podpisało zobowiązanie, że nie będzie pracować nad robotami, które mogą atakować bez nadzoru ludzkiego. O granicach stosowania sztucznej inteligencji w trakcie konfliktów zbrojnych wypowiada się wielu ekspertów, m.in. pod egidą Czerwonego Krzyża.

Jednak fałszowanie zdjęć satelitarnych, z których korzysta wiele systemów nawigacji, to nowe zagrożenie.

Ameryka właśnie zaczyna rozumieć skalę problemu fałszowania informacji w zbiorach typu open source, co przyznał niedawno Andrew Hallman, który kieruje Departamentem Cyfryzacji Centralnej Agencji Wywiadowczej USA (CIA).

„Toczymy egzystencjalną walkę o prawdę w domenie cyfrowej” – powiedział w rozmowie z Defence One, medium internetowym zajmującym się tematyką obronności i bezpieczeństwa narodowego USA. „Ważna jest pomoc sektora prywatnego i dostawców danych. Ponieważ jest to, szczerze mówiąc, cyfrowy konflikt (…), nowa przestrzeń bitewna”.

Melduję, że most zniknął

„Już wiemy, że Chiny są liderem w stosowaniu generatywnych sieci przeciwstawnych, aby komputery na zdjęciach terenu lub satelitarnych wskazywały obiekty, których tam nie ma” – stwierdził ostatnio Todd Myers, kierownik ds. Automatyzacji Technologii w National Geospatial-Intelligence Agency (NGA), agencji rządowej będącej pod nadzorem Departamentu Obrony USA. Jest ona odpowiedzialna m.in. za „wywiad geoprzestrzenny” (GEOINT) i analizuje informacje pod kątem bezpieczeństwa narodowego.

Swoje obawy Myers przedstawił pod koniec marca br. na drugim dorocznym szczycie Genius Machines, którego gospodarzami były Defense One oraz portal Nextgov (publikujący informacje o technologiach i cyberbezpieczeństwie). Myers opisywał przykładowe zagrożenie: „Z taktycznego punktu widzenia lub planowania misji szkolisz swoją armię, aby przeszła pewną trasą w kierunku mostu, ale tam go nie ma. Wtedy czeka cię wielka niespodzianka”.

Adres filmu na Youtube: https://www.youtube.com/watch?v=Sw9r8CL98N0

Rob Miles z Uniwersytetu w Nottingham tłumaczy działanie GAN.
Źródło: Computerphile / YouTube

Gdzie zajedzie autonomiczne auto

Sfałszowane filmy, zdjęcia nieistniejących twarzy – można to wychwycić, również za pomocą GAN. Ze sfałszowanym krajobrazem czy topografią nie jest już jednak tak łatwo. Myers stwierdził, że społeczność wojskowa i wywiadowcza są w stanie podjąć taką próbę. Ale potrzeba na to czasu i pieniędzy. Wymagałoby to bowiem wykonania wielu zbiorów zdjęć satelitarnych wraz z dowodami potwierdzającymi ich prawdziwość. „Dla każdego zbioru musisz mieć duplikat tego, co się wydarzyło, z różnych źródeł” – zastrzegł Myers.

Jego zdaniem, w miarę jak świat zaczyna coraz bardziej polegać na zdjęciach open source, garść fachowo zmanipulowanych zestawów danych wprowadzonych do systemu dostarczania obrazów czy oprogramowania open source może spowodować spustoszenie. I to nie tylko dla systemu obrony czy wywiadu. „Wyobraźmy sobie, że Google Maps jest infiltrowane celowo, by zmieniać obrazy na zdjęciach satelitarnych. I wyobraźmy to sobie za pięć lat, kiedy z tych map korzystają pojazdy autonomiczne” – ostrzegał w trakcie konferencji Myers.

Stany Zjednoczone przeznaczyły niedawno 2 miliardy dolarów na rozwój systemów militarnych opartych o sztuczną inteligencję „nowej fali” (program AI Next), zdolną do rozpoznawania nowych sytuacji (w tym zagrożeń) i przystosowania się do nich.

A Pekin w obliczu tak poważnych zarzutów na razie milczy.

Skip to content