Pandemia zmienia podejście do prywatności. Firma Clearview AI chce wykorzystać sytuację, aby dalej rozwijać swoje narzędzie do rozpoznawania twarzy. Przeciwnicy tej technologii mówią stanowczo: NIE!

Wykorzystajmy rozpoznawanie twarzy w istniejących sieciach kamer CCTV do śledzenia ludzi w czasie pandemii, by wiedzieć, z kim i gdzie zarażeni lub podejrzani o możliwość roznoszenia wirusa się spotykają – proponuje amerykański dostawca monitoringu połączonego z technologią rozpoznawania twarzy Clearview AI. I naciska w tej sprawie – jak ujawnia niedawny materiał amerykańskiej telewizji NBC News – na władze stanowe i federalne.

– Takie śledzenie mogłoby przyspieszyć odmrożenie amerykańskiej gospodarki – argumentuje w materiale założyciel Clearview AI Hoan Ton-That.

„Absolutnie, k… nie” – zareagował na tę propozycję na Twitterze Evan Greer, zastępca dyrektora organizacji Fight for The Future walczącej o prawo do prywatności (FF jest liderem dużej koalicji grup popierających kampanię przeciwników technologii rozpoznawania twarzy w przestrzeni publicznej BanFacialRecognition.com).

„To wyraźny przykład pozbawionej skrupułów firmy próbującej wykorzystać kryzys zdrowia publicznego, aby sprzedawać niebezpieczne, inwazyjne i nieskuteczne oprogramowanie do nadzoru” – dodaje Sarah Roth-Gaudette, dyrektor wykonawcza Fight for the Future.

Grzechy główne Clearview AI

Zastrzeżenia do technologii wymyślonej i dystrybuowanej przez amerykański start-up Clearview AI zgłasza coraz więcej podmiotów.

Po pierwsze, firma w swojej działalności wykorzystuje bez kłopotania się o zgodę zdjęcia prywatnych osób zamieszczane w internecie, między innymi w serwisach społecznościowych (co tym ostatnim bardzo się nie podoba). Idea w skrócie jest taka: jedno zdjęcie twarzy wrzucone do komputera pozwala szybko ustalić tożsamość osoby dzięki bazie ponad 3 miliardów zdjęć.

Po drugie, Clearview AI dystrybuuje swój system już nie tylko wśród służb odpowiedzialnych za bezpieczeństwo, jak pierwotnie deklarowała, ale i wśród podmiotów komercyjnych. Niedawny atak hakerski ujawnił, że z bazy firmy korzysta nie tylko około 600 podmiotów związanych z bezpieczeństwem, głównie policjanci w USA i Kanadzie, ale też na przykład sieć sklepów Macy’s. A lista klientów liczy już 2,2 tysiąca pozycji

Po trzecie, no właśnie – z bazy Clearview AI co rusz wyciekają dane, a nawet kody.

Ale firma nic sobie nie robi z oskarżeń.

„Prawo zwyczajowe nigdy nie uznało prawa do prywatności twojej twarzy”, stwierdził niedawno Tor Ekeland, prawnik kontrowersyjnego start-upu, w rozmowie z serwisem Coindesk. „Twoja twarz jest najbardziej publiczną rzeczą na rynku” – stwierdził.

Ale przypadek Clearview AI to tylko wierzchołek góry lodowej, a aktywiści na całym świecie mają znacznie potężniejszych przeciwników niż robiące wokół siebie dużo szumu start-upy.

Przejrzeć lotniska na wylot

Już w 2016 roku prawniczka Clare Garvie z Georgetown Law Center for Privacy and Technology stwierdziła, że rozwój technologii rozpoznawania twarzy stanowi nie tylko oczywiste ryzyko dla prawa do prywatności, ale także dla prawa do rzetelnego procesu, a nawet, potencjalnie, prawa do wolności słowa i wolności zgromadzeń. Do wielu organizacji, apelujących o zakazanie wykorzystywania systemów rozpoznawania twarzy, takich jak Fight for the Future czy Greenpeace USA, dołączają kolejne.

W grudniu ubiegłego roku amerykański Departament Bezpieczeństwa Krajowego ogłosił, że zamierza zeskanować twarze wszystkich osób przybywających na lotniska, które nie są obywatelami USA ani rezydentami (z adresem zamieszkania w USA). Lakoniczność tej informacji skłoniła grupy i organizacje zajmujące się prawami człowieka do prób legalnego wydobycia na światło dzienne, co dzieje się z danymi pozyskiwanymi w portach lotniczych.

Prawo zwyczajowe nigdy nie uznało prawa do prywatności twojej twarzy. Jest ona najbardziej publiczną rzeczą na rynku

Tor Ekeland, prawnik Clearview AI

Działająca non-profit Amerykańska Unia Swobód Obywatelskich (American Civil Liberties Union – ACLU) złożyła wnioski o udostępnienie informacji m.in. do wspomnianego departamentu i podległych mu instytucji: Urzędu Ceł i Ochrony Granic (CBP), Agencji Imigracji i Przepisów Celnych (ICE) oraz do Administracji Bezpieczeństwa Transportu (TSA). Miały one zgodnie z amerykańskim prawem 20 dni na to, aby udzielić odpowiedzi. Żaden tego nie zrobił, nie wyjaśniając powodów. Dlatego ACLU idzie krok dalej. Zdecydowała się złożyć pozew w sądzie federalnym z wnioskiem o nakazanie instytucjom udostępnienia tych informacji (w podobnej sprawie do sądu zgłosił się prokurator generalny stanu Vermont z pozwem przeciwko Clearview AI). Nie tylko: organizacje chcą także poznać plany rządowych agencji na przyszłość.

„Nasz pozew ma na celu upublicznienie umów rządowych z liniami lotniczymi, lotniskami i innymi podmiotami dotyczącymi korzystania z rozpoznawania twarzy na lotnisku i granicy; zasad i procedur dotyczących pozyskiwania, przetwarzania i przechowywania naszych informacji biometrycznych; oraz analiz skuteczności technologii rozpoznawania twarzy” – napisała ACLU w uzasadnieniu pozwu.

Sprawa jest w toku.

Londyn pod presją

Podobnie jak w Wielkiej Brytanii, gdzie w marcu Komisja ds. Równości i Praw Człowieka (EHRC), brytyjski krajowy organ ds. równości, który uzyskał status Narodowej Instytucji Praw Człowieka (NHRI) nadany przez Organizację Narodów Zjednoczonych, publicznie wezwał władze do zaprzestania wykorzystywania technologii rozpoznawania twarzy, dopóki ich wpływ nie zostanie poddany niezależnej kontroli wraz z poprawą regulującego ją prawa.

Systemy wykorzystywane przez policję brytyjską okazały się jak do tej pory niezwykle nieskuteczne. Na konieczność ich dopracowania EHRC zwróciła uwagę również w swoim raporcie, który przekazała Organizacji Narodów Zjednoczonych.

Zjednoczone Królestwo to po Chinach drugi najbardziej „inwigilowany” kraj, który przoduje w testowaniu systemów rozpoznawania twarzy. Pierwsze policyjne testy przeprowadzone przez policję podczas karnawału w Notting Hill w 2016 r. nie doprowadziły do zidentyfikowania ani jednej osoby. Działający w londyńskim Stratfordzie system monitoringu testowo porównujący twarze przechodniów z wizerunkami podejrzanych w policyjnych bazach danych wywołał falę oburzenia, oskarżeń o łamanie prawa do prywatności i naruszanie praw człowieka. Był również bardzo niedokładny. W niezależnym badaniu naukowym skuteczność dopasowania obrazu z kamer do zdjęć przestępców została oceniona zaledwie na 19 procent.

Jednak wysiłki Wielkiej Brytanii w montowaniu inteligentnych kamer w miejscach publicznych nie ustają. Kilka tygodni temu brytyjska policja stwierdziła, że system wykorzystujący technologię opracowaną przez japońską firmę NEC będzie wykorzystywać wyłącznie do poszukiwania 2,5 tysiąca osób oskarżonych o najpoważniejsze przestępstwa (napad z bronią palną, nożem czy wykorzystywanie seksualne dzieci).

Na ulicach Londynu zainstalowano już ponad 600 tysięcy kamer, policja w Londynie i Południowej Walii przetestowała kamery również w centrach handlowych czy na stadionach.

Zachować twarz w Rosji

Tymczasem Twerski Sąd Rejonowy w Moskwie rozpatruje skargę złożoną przez działaczkę na rzecz praw obywatelskich Alenę Popową i opozycyjnego polityka Władimira Miłowa. Twierdzą oni, że gromadzenie danych na temat uczestników legalnych zgromadzeń publicznych narusza ich prawo do wolności pokojowych zgromadzeń. Poprzez sprawę sądową starają się zakazać korzystania z technologii rozpoznawania twarzy na wiecach i usunąć wszystkie zgromadzone wcześniej dane osobowe.

„Przy całkowitym braku przejrzystości i odpowiedzialności za takie systemy jest to narzędzie, które może przenieść represje przeciwko pokojowym protestom na zupełnie nowy poziom” – zauważa Natalia Zwiagina, dyrektor rosyjskiego oddziału Amnesty International.

Nadmieńmy, że system rozpoznawania twarzy obejmujący całą moskiewską sieć transportu podziemnego ma być w pełni operacyjny do 1 września 2020 r.