KONIEC PRYWATNOŚCI?! GŁOS NA „TAK”. Grożono mi śmiercią, a przecież ja tylko wziąłem algorytmy stosowane w telefonie każdego z nas i ostrzegłem: musicie się nad tym zastanowić, bo one mogą wam zaszkodzić! – mówi dr Michał Kosiński z Uniwersytetu Stanforda w rozmowie z Moniką Redzisz

Monika Redzisz: Studiowałeś psychologię społeczną na SWPS w Warszawie. Jak to się stało, że trafiłeś do Stanfordu i zająłeś się psychometrią? Studiowałeś także psychologię społeczną na Uniwerystecie w Cambridge. Jak to się stało, że zostałeś data scientist?

Michał Kosiński*: Mój promotor zajmował się psychometrią, czyli pomiarem cech psychologicznych takich jak osobowość czy inteligencja. Ponieważ byłem trochę lepszy z matematyki niż przeciętny psycholog, też zacząłem się tym zajmować.

Tworzyłem kwestionariusze, mierzyłem osobowość. Podjąłem współpracę z Davidem Stillwellem, który stworzył aplikację My Personality, umożliwiającą użytkownikom Facebooka wypełnianie psychologicznych kwestionariuszy. Jeden z nich wypełniło ponad 5 milionów ludzi.

Kiedy analizowałem te dane, przyszło mi do głowy, że lajkowanie stron na Facebooku jest bardzo podobne do odpowiedzi na pytania z kwestionariusza osobowości: jakie książki ludziom się podobają, jakie filmy, co lubią. Spróbowałem to wykorzystać i okazało się, że wyniki są bardzo dokładne. Testowaliśmy nasze algorytmy przez wiele miesięcy, bo nie mogliśmy uwierzyć, że możemy tak precyzyjnie opisać czyjąś osobowość czy cechy psychologiczne wyłącznie na podstawie lajków.

Mówi się, że dane są dziś naszym najcenniejszym surowcem. Firmy, rządy i rozmaite instytucje zajmują się zdobywaniem naszych danych, ponieważ dzięki ich analizie mogą zarobić dużo pieniędzy i zdobyć nad nami kontrolę. Mam definitywnie pożegnać się ze swoją prywatnością?

Tak, taka jest niestety rzeczywistość – czy tego chcemy, czy nie. Większą część swojej kariery spędziłem, starając się analizować to zjawisko. Z nadzieją, że może znajdziemy jakiś sposób na to, by zatrzymać nadchodzącą erę post-prywatności. Ale muszę przyznać, że im więcej o tym wiem, tym bardziej dochodzę do wniosku, że tę wojnę przegraliśmy.

To, że polubiłaś jakąś restaurację albo zdjęcie twojego bratanka, może zdradzić twoją płeć, rasę, orientację seksualną, poglądy polityczne i religijne, cechy twojej osobowości

Zostawiamy dziś ogromną liczbę śladów cyfrowych, które są zapisywane przez nasze smartfony, Facebooka, LinkedIna, Google’a, karty kredytowe czy nawet samochody, które coraz częściej są podłączone do sieci. To samo dotyczy kamer monitoringu i innych czujników śledzących nasze ruchy w przestrzeni publicznej. Same lajki na FB mogą z dość dużą dokładnością odsłonić szeroką gamę twoich cech intymnych, nie mówiąc już o tych wszystkich dodatkowych źródłach danych.

Mimo że nie publikuję na FB żadnych wrażliwych danych na swój temat?

Nie szkodzi. Nawet niewinne ślady cyfrowe wiele o nas mówią. Bo są tylko czubkiem góry lodowej. To, że polubiłaś jakąś restaurację albo zdjęcie twojego bratanka, może zdradzić twoją płeć, rasę, orientację seksualną, poglądy polityczne i religijne, cechy twojej osobowości.

Ile lajków potrzeba, by algorytm dobrze opisał moją osobowość?

To zależy, z jaką dokładnością. By poznać twoją osobowość tak dobrze, jak zna ją twój kolega czy koleżanka z pracy – około dziesięciu.

A z dokładnością na poziomie mojej przyjaciółki?

Wystarczy 100-150.

A z taką, z jaką opisywałby mnie mój mąż?

Algorytm oparty na lajkach może określić twoją osobowość dokładniej niż twój wieloletni partner lub partnerka na podstawie około 250 lajków.

Niemożliwe! Mimo tylu lat wspólnego życia, tylu intymnych rozmów, tylu wspólnych doświadczeń!?

Rozumiem, że to przykre, ale jest jeszcze gorzej. Algorytm wie o nas dużo więcej niż my sami o sobie. Trochę jak lekarz, który na podstawie danych, do których udzielamy mu dostępu, oferuje nam diagnozę, czyli to, czego o sobie nie wiedzieliśmy. Porównajmy teraz doktora z algorytmem. Doktor może przyjąć kilka tysięcy pacjentów rocznie, przeczytać kilkadziesiąt artykułów naukowych. Algorytm ma dostęp do wszystkich artykułów medycznych świata i wszystkich pacjentów. Dlatego wie o nas więcej niż my o sobie i więcej, niż wie o nas lekarz.

Można jeszcze walczyć – zlikwidować konto na Facebooku, wyrzucić smartfona, płacić gotówką tam, gdzie to możliwe.

Ale nie można przestać chodzić ulicą pod okiem kamer monitoringu. Co więcej, jeśli jesteś młoda, piękna i bogata i żyjesz w dużym mieście, to możesz sobie pozwolić na to, żeby nie korzystać z bankowości internetowej, Ubera, map Google’a i mieć stary telefon z klapką. Ale jeżeli jesteś samotną matką i pracujesz na trzech etatach, to takie technologie są dla ciebie zbawieniem. Nie chodzi już o to, że ułatwiają ci życie, tylko o to, że ci je umożliwiają, że bez nich nie mogłabyś normalnie funkcjonować.

Dr Michał Kosiński

Nie mówiąc już o tym, że trudno sobie wyobrazić społeczeństwo, które by z tych możliwości dobrowolnie zrezygnowało. Wszyscy jesteśmy narcyzami i swoimi danymi dzielimy się dobrowolnie, umieszczając posty na Facebooku, Instagramie czy Twitterze. Odwrót od nowych technologii jest niemożliwy.

Nie jesteś tym przerażony?

Jestem zaniepokojony końcem prywatności, ale zaakceptowałem to. Wydaje mi się, że tylko taka postawa jest racjonalna. Wszyscy możemy się zgodzić, że trzęsienia ziemi powinny być zakazane, tyle że one i tak będą się zdarzały. Dlatego zamiast delegalizować trzęsienia ziemi, powinniśmy raczej zastanowić się, jak zorganizować społeczeństwo i jakie ustanowić prawo, by minimalizować szkody przez nie wyrządzane.

Tak samo ma się sprawa z prywatnością. Nie da się powstrzymać jej utraty, powinniśmy się więc skupić na minimalizowaniu ryzyka i maksymalizowaniu potencjalnych zysków. W przeciwnym razie tylko niepotrzebnie utrudnimy sobie życie i oddamy pałeczkę postępu innym narodom.

Dostępna alternatywna możliwość dla systemu monitoringu to śpiący ochroniarz albo policjant, który profiluje ludzi na podstawie tatuażu, koloru skóry albo płci

Unia Europejska od wielu lat przoduje w restrykcyjnej ochronie prywatności. Jaki jest tego skutek? Firmy przeniosły się do Stanów Zjednoczonych i to tam rozwinęły swoje technologie. A teraz przenoszą się do Chin, gdzie można wszystko. Google, Facebook, Twitter już dzisiaj nie są legalne w świetle prawa europejskiego. W Europie stworzyliśmy sobie fikcję ochrony prywatności, a przy okazji pozbawiliśmy się wpływu na to, jak te technologie się rozwijają, i korzyści, które moglibyśmy mieć, gdyby te technologie powstały na naszym rynku.

W Stanach ludzie też się buntują. Władze San Francisco nie zgodziły się na skanowanie twarzy na ulicach.

Zapłacą za to pewną cenę. Trzeba pamiętać, że to jest miecz obosieczny. Przy inteligentnym monitoringu znacznie łatwiej zapewnić ludziom bezpieczeństwo, zatrudniając dużo mniej ochroniarzy i policjantów. Oczywiście, bogate San Francisco może sobie pozwolić na zatrudnianie większej liczby policjantów, lecz gdzie indziej ludzie zapłacą za to swoim bezpieczeństwem.

Ale algorytmy też się mylą. Co jeśli za przestępcę uznają niewinnego człowieka?

Oczywiście, algorytmy popełniają błędy, to problem. Ale trzeba porównywać dokładność danego systemu zapobiegania przestępczości z dokładnością innych dostępnych systemów, a nie z działaniem systemu perfekcyjnego, ponieważ takiego nie ma.

Dostępna alternatywna możliwość dla systemu monitoringu to śpiący ochroniarz albo policjant, który profiluje ludzi na podstawie tatuażu, koloru skóry albo płci. I który używa swojej ludzkiej intuicji, decydując, czy kogoś zatrzymać, czy nie. A jak wiemy, ludzka intuicja jest bardzo nieprecyzyjna. Ten funkcjonariusz będzie zapewne chętniej sprawdzał ludzi, którzy kogoś mu przypominają, a może mają ciemniejszy kolor skóry albo noszą ubrania, które mu się nie podobają. Człowiek jest na ogół dużo mniej dokładny, a dużo bardziej uprzedzony niż jakikolwiek algorytm.

Takiej samej perfekcji żądamy od samochodów autonomicznych.

I to jest wielki błąd! Płacimy za to życiem kierowców i przechodniów. Jeśli uznamy, że musimy mieć gwarancję, że samochód automatyczny nigdy nikogo nie zabije, to nigdy takich samochodów nie będziemy mieli. Będziemy za to wciąż mieli za kierownicami kiepskich lub pijanych kierowców – i w rezultacie zabijających wielu więcej ludzi, niż zabiłby algorytm. Lepsze jest wrogiem dobrego. Dobry algorytm zawsze będzie lepszy niż człowiek, nawet najlepszy. Trzeba tylko pozwolić naukowcom takie algorytmy tworzyć.

Wiemy z całą pewnością, że diagnozy lekarskie z komputera są lepsze niż diagnozy wykonywane przez człowieka. Oczywiście, komputer popełnia błędy, ale człowiek popełnia ich więcej. Mimo to mamy opory, by zastępować lekarzy komputerami. Wiemy, że pilot automatyczny w samolocie potrafi lepiej wylądować niż człowiek. Jednak ludzie nie są jeszcze gotowi psychicznie na to, by zaufać maszynom – nie mówiąc już o tym, że brakuje uregulowań prawnych, które umożliwiałyby wprowadzenie takich zmian.

O ile taką absolutną przezroczystość obywateli jestem w stanie sobie wyobrazić w państwie demokratycznym, które szanuje prawa człowieka, o tyle w państwie totalitarnym już nie. To jest już wizja orwellowska.

Zgadzam się, ale uważam, że technologie, nawet w tych potencjalnie najbardziej niebezpiecznych aspektach, są jednym z największych znanych nam czynników propagujących demokrację. Bo w ich świetle tak samo przezroczysty jest szary obywatel, jak polityk, właściciel wielkiej firmy czy policjant.

Czyżby?

Nawet bardziej, bo hakerzy więcej mogą skorzystać na prześwietlaniu osób ważnych lub instytucji – polityków przyjmujących łapówki czy przedsiębiorców, którzy nie płacą podatków. Można powiedzieć, że wobec algorytmu jesteśmy równi w o wiele większym stopniu niż przed obliczem sędziów – ludzi. Kiedy świat robi się transparentny, trudniej nam zachowywać pozory. Wyobraźmy sobie, co by było, gdyby w Arabii Saudyjskiej, w której homoseksualizm karze się śmiercią, wszyscy obudzili się jutro ze swoją orientacją seksualną wypisaną na czole? Czy to możliwe, by wśród funkcjonariuszy policji, armii, rodziny królewskiej, duchowieństwa nie było gejów? Geje stanowią przecież mniej więcej 7 procent każdego społeczeństwa. Czasem siła jest w wielkości populacji….

Oby, choć obawiam się, że wiedza to nie wszystko. Wiele wiemy o brudnych sprawkach polityków, a oni wciąż pozostają u władzy. Wystarczy mieć odpowiednio dużo siły i odpowiednio dużo pieniędzy.

W Stanach wielu homoseksualistów zdecydowało się na ujawnienie swojej orientacji i zrezygnowało z prywatności. Wielu zapłaciło za to najwyższą cenę, ale to dzięki nim dzisiaj w Ameryce o wiele łatwiej być gejem niż kiedyś, właśnie dzięki transparentności. Więc może ta nieunikniona utrata prywatności, której ja także się obawiam, pomoże nam zredukować część problemów, z którymi się borykamy?

Jednak twoja publikacja z końca 2017 roku, dotycząca rozpoznawania orientacji seksualnej na podstawie rysów twarzy, wzbudziła wiele etycznych kontrowersji. Dyskutowano o tym, jak daleko może się posunąć w swoich badaniach naukowiec, by nikomu nie zaszkodzić.

Ludzie niestety nie czytają artykułów, które krytykują. Ja nie stworzyłem żadnego algorytmu, tylko pokazałem, że szeroko już wykorzystywane technologie mają taki potencjał. Ostrzegłem, że to niezwykle niebezpieczne narzędzie.

Komputer na podstawie jednego zdjęcia jest w stanie osiągnąć powyżej 80 procent dokładności, jeśli chodzi o określanie orientacji seksualnej. Utrata przez gejów prywatności, która w naszym kraju poskutkowałaby być może pewnym dyskomfortem, w wielu innych krajach mogłaby oznaczać dla nich śmiertelne zagrożenie. Ale to, że można określać seksualność człowieka na podstawie twarzy, nie ma większego znaczenia – jeśli zważyć na to, że można ją też przewidzieć z dużo większą dokładnością na podstawie lajków na FB, historii twoich wyszukiwań, operacji karty kredytowej.

Trudno dziś sobie wyobrazić, że nagle homoseksualne 7 procent społeczeństwa przestanie korzystać z wyszukiwarki Google. Co ciekawe, kiedy o tym pisałem, nikt nawet nie pisnął złego słowa na mój temat. Wszyscy mnie chwalili: „Kosiński pokazał, jakie jest zagrożenie”. Dopiero twarz ich zabolała. Bo twarz nie pasowała ludziom ideologicznie.

Jakie były reakcje?

Hejt. Grożono mi śmiercią. Dostawałem tyle pogróżek, że przez dwa tygodnie miałem przydzielonego do ochrony policjanta. A przecież ja tych algorytmów nie wymyśliłem! Wziąłem algorytmy stosowane w telefonie każdego z nas i powiedziałem: „Musicie się nad tym zastanowić, bo te algorytmy mają niesamowity potencjał, by wam zaszkodzić!”. Zrobiłem tylko tyle. Niestety, wiele osób doszło do wniosku, że, po pierwsze, to ja zaprojektowałem te algorytmy, a po drugie, że na pewno jestem homofobem.

Ten sam internet, który pozwala manipulatorom manipulować społeczeństwem, daje społeczeństwu dostęp do rzetelnej informacji. Bilans jest pozytywny

Obserwowałem, jak wraz z nasilaniem się hejtu zmieniały się tytuły artykułów na mój temat. Pierwszy – „Nowhere to hide. What machines can tell from your face” (Nie ma się gdzie ukryć. Co maszyny mogą wyczytać z twojej twarzy) – w „The Economist”. Materiał okładkowy, pozytywny. Przedstawili mnie jako naukowca, który próbuje ochronić ludzką prywatność.

Następny materiał, w innym piśmie, miał tytuł: „Profesor Kosiński zrobił gejdar” – czyli radar na gejów. W trzecim napisali, że Kosiński to homofob ze Stanfordu i powinien zostać z tego uniwersytetu wyrzucony. Władze Stanfordu dostały wiele listów od oburzonych darczyńców z żądaniem, by mnie zwolnić; grozili wycofaniem funduszy. Na szczęście władze uczelni stanęły murem po mojej stronie.

Spodziewałeś się tego?

Tak, dlatego na początku nie chciałem tego publikować. Ale któregoś dnia przyjaciel zapytał mnie: „Będziesz mógł spojrzeć w lustro, kiedy ktoś kogoś tymi algorytmami skrzywdzi, a ty wiedziałeś o zagrożeniu, lecz nikomu nie powiedziałeś?”.

Z drugiej strony, kiedy się o czymś nie mówi głośno, to też się tego szeroko nie stosuje…

Nieprawda. Wtedy ty tego nie stosujesz ani ja, ale rządy – owszem. Dla władzy to żadna nowość; oni wiedzą od dawna, jak to można wykorzystać, tylko nie mówią o tym głośno. Rządy zatrudniają najlepszych specjalistów, żeby takie właśnie systemy im budowali. Technologie rozpoznawania intymnych cech twarzy patentowane były przez różne start-upy już prawie dekadę temu.

Od kiedy wiedziałeś?

Od 2015. Wtedy zastanawiałem się, czy można na podstawie zachowania w sieci opisać czyjąś osobowość; orientacja seksualna była jedną ze zmiennych. Trenowałem różne modele, jeden z nich odnosił się do orientacji seksualnej. Zadziałał tak precyzyjnie, tak dokładnie, że na początku myślałem, że mam jakiś błąd w danych!

Badanie powtórzył jeszcze raz mój student – i to samo. Nie mogłem uwierzyć. Zebrałem nowe dane z oddzielnego źródła i napisałem cały kod od początku. I znowu – takie same wyniki. Napisałem o tym artykuł, ale pokazywałem go tylko w zamkniętych gronach, bo po prostu bałem się go opublikować.

Zarzucano ci też, że badanie jest zero-jedynkowe: jesteśmy albo hetero, albo homoseksualni. A nasza seksualność bywa bardziej skomplikowana.

To nie ma znaczenia. Gdybym miał dokładniejsze dane, to wyniki klasyfikacji byłyby jeszcze dokładniejsze. Moim celem nie było studiowanie orientacji seksualnej, ale ostrzeżenie przed zagrożeniem prywatności.

A szerzej – osobowość? Nie jesteśmy albo introwertykami, albo ekstrawertykami – pośrodku jest cała paleta możliwości. Co więcej, ludzie się zmieniają pod wpływem doświadczeń, uczą się.

Nie sądzę. Introwertyczne dziecko będzie introwertycznym dorosłym. Mamy tu raczej do czynienia z błędem pomiaru. Czasami ludzie mają więcej, a czasem mniej okazji, by wyrazić pewne swoje cechy. Sądzę, że osobowość zmienia się tylko troszeczkę i u bardzo niewielu. Tyle tylko, że trudno nam się z tym pogodzić.

Dlaczego?

Bo mamy silne złudzenie wolnej woli. Zwłaszcza w Ameryce bardzo silna jest ideologia, że jestem tym, kim chcę być; to na niej zbudowano amerykański mit. Dlatego Amerykanie patrzą na bezdomnego i mówią: „Przykro mi, ale to jego wina, że jest bezdomny. Jakby pracował tak ciężko, jak ja, miałby to, co ja”. Zapominają, że nie wszyscy mogą zostać finansistami i informatykami, że różnimy się pod względem charakteru i talentu, że są ludzie, którzy mają problemy ze skupieniem, opanowaniem agresji, i tak dalej.

A było to już po aferze związanej z Cambridge Analytica i kampanią prezydencką w USA. Na twojej stronie do dziś można przeczytać oświadczenie: „Nie mam nic wspólnego z Cambridge Analytica i byłem pierwszym, który ostrzegał przed podobnymi praktykami w „Guardianie’”.

Tak, wtedy też byłem atakowany. Niestety ludzie zawsze zabijają posłańca. Zapominają, że ja tych technologii nie wymyślam; one zostały wymyślone, opatentowane i wykorzystywane przez innych.

Technologia wykorzystana przez Cambridge Analytica przy kampanii prezydenckiej w 2016 roku była opatentowana przez Facebook już w 2012 roku! Firmy, rządy, instytucje od dawna wykorzystują wiedzę o nas, żeby nas sobie profilować. Nawet Mark Zuckerberg musiał się w końcu ubrać w garnitur i wytłumaczyć, co się dzieje z tym Facebookiem.

Tłumaczył, że nie miał pojęcia, że cechy psychologiczne można określić na podstawie lajków. Zapomniał najwyraźniej, że to przecież model biznesowy Facebooka, który obserwuje nasze zachowania w sieci, a potem prezentuje każdemu takie reklamy, żeby jak najwięcej na tym zarobić.

Ja tylko ostrzegam. Staram się informować o tym, jak negatywne mogą być tego skutki. Boli mnie, że atakują mnie także dziennikarze, których zadaniem też jest informowanie i ostrzeganie.

W sieci rośnie liczba fake newsów, rosną też rzesze wyznawców poglądu, że ziemia jest płaska, a szczepionki szkodliwe. Jak edukować społeczeństwo, żeby w chaosie informacji wybierało te właściwe?

Ludzkość ma za sobą tysiące lat historii i z każdym rokiem jest coraz więcej wykształconych ludzi. Oczywiście, zwykle robimy dwa kroki do przodu, a jeden w tył. Było rozszerzenie Unii Europejskiej – wielki, niesamowity krok ku wolności, demokratyzacji, integracji – a teraz jest brexit. Wszyscy skupiają się więc na brexicie i mówią: świat się wali! Ale ile wcześniej zrobiliśmy kroków do przodu? Ruch antyszczepionkowy? Krok wstecz – ale ile innych pseudonaukowych teorii skorygowanych zostało w międzyczasie? Nie wolno się skupiać na tym jednym, tragicznym wypadku dziewczynki, która zmarła, bo była uczulona na jakiś składnik szczepionki, tylko na tysiącach dzieci, które zostały dzięki szczepionkom uratowane.

Jesteś optymistą.

Jestem. Ten sam internet, który pozwolił porozumieć się ze sobą antyszczepionkowcom, będzie ich końcem. Ten sam internet, który pozwala manipulatorom manipulować społeczeństwem, daje społeczeństwu dostęp do rzetelnej informacji. Bilans jest pozytywny. Kiedy spojrzymy na jakiekolwiek globalne wskaźniki, widać, że świat staje się coraz bardziej liberalny, progresywny, lepiej poinformowany i mniej spolaryzowany.

*Dr Michał Kosińskipsycholog społeczny i data scientist, specjalista w dziedzinie psychometrii i analizy osobowości w sieci. Pracuje w Stanford University Graduate School of Business, wykłada także na Uniwersytecie SWPS i na Concilium Civitas w Warszawie. Absolwent SWPS i Uniwersytetu Cambridge, tam też zrobił doktorat z psychologii. Był zastępcą dyrektora Centrum Psychometrycznego na Uniwersytecie w Cambridge. Prowadził badania w Microsoft Research i Stanford’s Computer Science Department.
Koordynował projekt myPersonality, który obejmował globalną współpracę ponad 200 naukowców analizujących szczegółowe profile 8 mln użytkowników Facebooka. Kiedy FB opatentował algorytm, który na podstawie aktywności jego użytkowników tworzy ich portret psychologiczny, Kosiński opublikował badania pokazujące, jak dokładnie algorytm ten jest w stanie określić nasz wiek, płeć, preferencje seksualne, pochodzenie etniczne i poglądy. Ostrzegł, jak poważne jest to zagrożenie dla naszej prywatności. Wkrótce okazało się, że algorytmy te zostały wykorzystane w kampanii prezydenckiej Trumpa i kampanii na rzecz brexitu. W 2013 r. IBM i DataIQ zaliczyły go do 50 najbardziej wpływowych osób w świecie Big Data, a w 2015 r. został uznany za Wschodzącą Gwiazdę przez Association for Psychological Science.


Michał Kosiński i Mirosław Sopek byli gośćmi ostatniego spotkania HumanTech Meetings, które odbyło się 17 grudnia 2019 roku i zatytułowane było „Śladami Big Data”. Spotkania te odbywają się cyklicznie w ramach projektu Centrum Innowacji HumanTech na warszawskim Uniwersytecie SWPS. Dziękujemy organizatorom za zaproszenie i pomoc w realizacji materiału.


Read the English version of this text HERE

Skip to content