Nie chcesz, żeby twoje profilowe zdjęcia z sieci trafiły do baz danych firm, pracujących nad technologią rozpoznawania twarzy? Poznaj najnowszy sposób: Fawkes od informatyków z Chicago

Oprogramowanie Fawkes zostało już szeroko przetestowane i okazało się skuteczne w różnych środowiskach. W 100 procentach blokuje najnowocześniejsze systemy rozpoznawania twarzy np. Microsoft Azure Face API, Amazon Rekognition i Face ++. Nie da mu rady także system kontrowersyjnej amerykańskiej firmy Clearview AI, o której pisaliśmy niejednokrotnie i której kłopoty rozszerzyły się na Europę. Naukowcy z Uniwersytetu w Chicago opracowali darmowe narzędzie, które maskuje oryginalne obrazy, oszukując algorytmy systemów FR (facial recognition).

Przypomnijmy: Clearview AI, prywatna firma, która wyszkoliła swój system rozpoznawania twarzy na miliardach obrazów z mediów społecznościowych i internetu bez zgody ich właścicieli wciąż jest na celowniku wielu walczących o prawo do prywatności. Debata nad tym, czy zdjęcia udostępnione w sieci stają się, jak twierdzi Clearview AI dobrem publicznym oraz brak (póki co) silnej jednoznacznej reakcji na jej działania ze strony organów federalnych i sądowych skłoniły informatyków z Chicago do opracowania mechanizmów obronnych.

Nazwę Fawkes zaczerpnięto z ekranizowanego komiksu autorstwa Alana Moore’a i Davida Lloyda pt. „V jak Vendetta”. Bohater Guy Fawkes nosił charakterystyczną maskę, używaną później również jako symbol grupy internetowych aktywistów Anonymous oraz różnych ruchów protestacyjnych na całym świecie.

Fawkes wyprowadza modele głębokiego uczenia, zasilające rozpoznawanie twarzy, na manowce. Przy czym zmiana zdjęcia przez Fawkes nie jest zauważalna dla człowieka.

Adres filmu na Youtube: https://www.youtube.com/watch?v=AWrI0EuYW6A&feature=emb_logo

Fawkes zmienia część pikseli, aby radykalnie zmienić sposób widzenia przez maszynę
Źródło: Uniwersytet Chicago / YouTube

Narzędzie ma zapobiegać nieautoryzowanemu wykorzystaniu osobistych obrazów i nie ma wpływu na modele zbudowane z legalnie uzyskanych obrazów, takich jak te używane przez organy ścigania. Ma stać się instrumentem w ręku użytkowników mediów społecznościowych w walce z nielegalnym pozyskiwaniem ich wizerunków i budowaniem baz dla systemów FR.

Projekt Fawkes prowadzą dwaj doktoranci z SAND Lab Uniwersytetu w Chicago: Emily Wenger i Shawn Shan.

Jak to działa? Przede wszystkim wyjdźmy od tego, że maszyny widzą obrazy inaczej niż ludzie. Nie tylko rozpoznają np. kolor włosów czy znaki szczególne na twarzy, ale analizują zdjęcie piksel po pikselu i porównują ze zdjęciami w bazie danych. Fawkes zmienia niewielką część pikseli, aby radykalnie zmienić sposób widzenia przez maszynę. Modele FR od tego głupieją.

Oczywiście Fawkes nie może zmylić istniejących modeli rozpoznawania twarzy, które zostały już wyszkolone na obrazach pobranych z internetu. Jednak publikowanie coraz większej liczby „skażonych” obrazów może ostatecznie wymazać „ślad” osoby w internecie. Fawkes zadziała, kiedy liczba przerobionych obrazów przewyższy ilość oryginalnych zamieszczonych w sieci.

Oprogramowanie pojawiło się kilka dni temu i ma już ponad 100 tysięcy pobrań. Obecnie narzędzie jest bezpłatne. Zespół ma nadzieję, że platformy mediów społecznościowych zaoferują je użytkownikom jako opcję – wtedy narzędzie mogłoby stać się naprawdę skuteczne do odpierania natrętnych algorytmów FR. Artykuł naukowy o Fawkes zostanie zaprezentowany na sympozjum USENIX Security we wrześniu.

Można je pobrać na Mac i Windows 10 z tej strony (dół publikacji). Kod źródłowy na GitHub znajdziecie TUTAJ.

Skip to content