Nie budzę się z myślą: „Ci mnie śledzą, tamci mnie kontrolują, co to będzie?!”. Bo wstaję i myślę, ile to jeszcze fantastycznych rzeczy można osiągnąć za pomocą technologii! – mówi Michał Jaworski z Microsoftu w rozmowie z Moniką Redzisz

Monika Redzisz: Australijskie miasto Darwin kupiło inteligentny system monitoringu. Ten sam, który w Chinach szpieguje obywateli. W Londynie policja testuje system skanujący twarze przechodniów. Powinniśmy zacząć się żegnać z naszym prawem do prywatności?

Michał Jaworski*: Nie trzeba inteligentnego monitoringu. I bez niego pozostawiamy po sobie ogromną ilość cyfrowych śladów: nasze komórki logują się w stacjach bazowych, wysyłamy wiadomości, robimy zdjęcia i dzielimy się wszystkim w mediach społecznościowych. Byłem na wakacjach? Moje dziecko poszło do komunii? Wrzucę to na Facebooka! Płacę kartą? W porządku, ale przecież również wysyłam w świat informacje o tym, gdzie byłem, co kupiłem i za jaką kwotę.

To po prostu kwestia rozwoju technicznego. Dwieście lat temu ludzie nie mieli żadnych dowodów tożsamości. Najstarszy dokument ze zdjęciem, jaki posiadam, to dokument podróżny mojego pradziadka, na którym było, napisane jak się nazywa i że jest przemysłowcem z Sosnowca. Musiał się nim legitymować, kiedy przekraczał granicę zaboru rosyjskiego. W jego mniemaniu to musiało bardzo naruszać jego prywatność, bo przecież wcześniej zapewne wystarczało, by oświadczył, kim jest.

Tak, ale dziś technologia pozwala zidentyfikować człowieka niezwykle dokładnie, w każdej chwili, każdym miejscu. Nie można ukryć się w puszczy ani nawet w miejskiej dżungli, rozpłynąć w anonimowym tłumie. Coraz trudniej o kryjówkę, azyl. To budzi strach.

Zapewne równie nieufnie reagował mój pradziadek na dokument z fotografią… Jednak wcale nie trzeba nas śledzić non stop z pomocą najnowszych technologii, by z dużą dozą trafności ustalić, gdzie będziemy o konkretnej godzinie konkretnego dnia. Pani dzień i mój dzień prawdopodobnie zaczynają się niemal zawsze o tej samej godzinie i składają się z sekwencji tych samych czynności.

Człowiek jest aż tak bardzo przewidywalny? A indywidualizm?

Indywidualizm to sposób na życie ostatnich 50-70 lat. Wcześniej wszyscy żyliśmy we wspólnotach. Rodziny były większe, wszyscy o wszystkich wszystko wiedzieli: kto z kim, gdzie, kiedy, dlaczego i jak. Takie życie skończyło się zaledwie dwie, trzy generacje temu, ale przedtem zachowywaliśmy się tak przez tysiące lat. To dlatego nawet dziś liczba osób, z którymi pozostajemy w bliższej relacji, wcale nie jest taka wielka. To mniej więcej około 150 osób – tyle, ile zwykle liczyło plemię. Pozostali to już obcy, z którymi tylko sporadycznie wchodzimy w interakcję. To dziedzictwo ewolucji.

Michał Jaworski

A indywidualizm? Hmm… Tak, ale sami narzucamy sobie jego granice. Na spotkanie w banku, żeby prosić o kredyt, czy przy ubieganiu się o pracę nie idę w czym popadnie. Ubieram się konformistycznie, by przekazać komunikat: wiem, jak się zachować, rozumiem zasady gry.

Na to wszystko nakładają nam się dzisiaj cyfrowe technologie. Ludzie boją się, że wkrótce zostaną całkowicie przefiltrowani.

Kto jest zainteresowany informacjami na nasz temat? Po pierwsze, biznes – z oczywistych przyczyn. Dzięki nowoczesnym narzędziom można dzisiaj zidentyfikować każdą grupę, a nawet jedną osobę, i przygotować odpowiednią dla tej jednej jedynej osoby specjalną ofertę. Ludzie, którzy kupili książkę Dawkinsa o samolubnym genie, będą prawdopodobnie chcieli kupić inne pozycje niż ci, którzy kupili książkę pt. „Ukryta prawda o tym, kto rządzi światem”. Biznes chce zarobić, a jeśli działa zgodnie z wymogami etyki, to nic więcej nam z tej strony nie grozi.

Kto jeszcze?

Państwo. Moje państwo i tak dużo wie na mój temat: jak się nazywam, gdzie mieszkam, ile zarabiam, ile mam dzieci. Ale – zakładamy to wszyscy – moje państwo działa w moim interesie. Nasze, polskie Ministerstwo Finansów ma takie narzędzie jak Jednolity Plik Kontrolny – raz w miesiącu wszystkie firmy wysyłają informacje o swoich transakcjach, więc resort na bieżąco może analizować, co się dzieje z gospodarką. Może wyciągnąć ogromną ilość informacji i szybko zareagować z korzyścią dla obywateli. Mam się czegoś bać?

Jeśli się jest uczciwym obywatelem i ma zaufanie wobec dobrze funkcjonującego mechanizmu państwa, to pewnie niczego. Ale w Polsce z tym zaufaniem mamy problem.

To prawda. Zaufanie do rodaków ma ośmiu na dziesięciu Szwedów, ale tylko jeden na dziesięciu Polaków! Ale czy to oznacza, że – zamiast korzystać ze zbliżeniowych kart czy płatności telefonem – jesteśmy gotowi wrócić do gotówki? Nie, bo to niewygodne i niebezpieczne. Korzyści przeważają nad obawami, obawy zaś początkowo zawsze są wyolbrzymiane.

Jeśli rodzic będzie miał do wyboru: uratować zdrowie swojego dziecka albo zachować w tajemnicy jego dane, to co wybierze?

Ludzie często nie umieją przełożyć pojęć takich jak ochrona danych czy prywatność na praktyczne zastosowania. Tak długo, jak nie zejdziemy do konkretu, właściwie nie wiemy, o czym mówimy. Czy dając pani wizytówkę, właściwie chronię swoją prywatność? Przecież tam jest moje imię, nazwisko, numer telefonu i firma, w której pracuję. Ileż ja rzeczy przed panią odkrywam! Jeśli jeszcze połączymy się na Facebooku, to będzie pani mogła zobaczyć, co robię i czym się interesuję! Ale przecież żyjemy w społeczeństwie, więc to normalne, że wymieniamy się informacjami.

W dzisiejszym świecie cyfrowym zaufanie jest i będzie najwyższą wartością. Bez względu na to, czy mówimy o firmach, czy o państwach. Raz utracone zaufanie trzeba odzyskiwać latami. Firmy świata cyfrowego już to wiedzą. Państwa bardzo szybko się uczą.

Nie wszyscy mają zaufanie. Niektórzy mówią: „nie”. Mieszkańcy San Francisco nie zgodzili się na skanowanie ich twarzy na ulicach. Nie życzą sobie, by tak mocno ingerowano w ich prywatność.

Swego czasu, jeszcze w XIX wieku, w Anglii powiedziano „nie” automobilom, wprowadzono „Red Flag Act” i przed każdym pojazdem miał kroczyć człowiek z czerwoną flagą, uprzedzając o nadciągającej maszynie. Obywatele Anglii nie życzyli sobie, by tak mocno ingerowano w ich poczucie bezpieczeństwa na drogach, choć oczywiście ograniczało to sensowność używania samochodów. Po pewnym czasie, kiedy okazało się, że zmechanizowany transport nie jest taki straszny, ustawę po cichu zniesiono.

Ludzie myślą korzyściami i obawami. Jeżeli korzyść, którą uzyskają mieszkańcy San Francisco, będzie przeważała nad ich obawami, zaakceptują zmianę.

W demokracji – być może. Ale widzimy, do czego może to prowadzić w takim kraju jak Chiny. Tam obawy obywateli się nie liczą.

I tu dochodzimy do najważniejszego, czyli do intencji. Technologia w oderwaniu od intencji jest neutralna. Uważam, że póki ktoś nie ma złych zamiarów, może wiedzieć o mnie niemal wszystko.

Jak lekarz, który zna moje dane?

Właśnie! Czy to takie złe? Skierowane przeciwko mnie?

Nie, o ile mogę ufać, że dane, które mu powierzę, nie wyjdą gdzieś dalej.

No właśnie. Gdyby moje dane medyczne dostały się w ręce mojej firmy ubezpieczeniowej, to usłyszałbym natychmiast: „Michale Jaworski, przejrzeliśmy cię na wylot! Wiemy, że nie tylko słodzisz kawę (bardzo źle), ale w dodatku nie uprawiasz sportu (jeszcze gorzej) – to drugie wiemy, bo na podstawie danych z twojej karty nie widzimy, żebyś kupował bilety ani na basen, ani na siłownię, a roweru nie kupiłeś od 25 lat”. Wszystko to święta prawda. I dalej: „W związku z tym twoja składka na ochronę zdrowia będzie musiała ulec zmianie”. Dzisiaj wciąż pewne rzeczy tylko oświadczam, choć ubezpieczyciel oczywiście zamieszcza klauzulę, że jeśli coś istotnego ukryję, to umowa będzie nieważna.

Z drugiej strony… Mając w perspektywie podwyższoną składkę, może przestanę słodzić kawę? A może marketingowcy z firmy ubezpieczeniowej wymyślą promocję, że jeśli wykupię karnet na basen, to ostatnie dwie (ostatnie! nie pierwsze dwie!) wizyty mam za darmo? Dzisiaj takiej promocji nie zrobią, bo nie mają danych. A jutro?

Wyobraźmy sobie, że ubezpieczyciel mówi: „Chcę zamontować w pani samochodzie czarną skrzynkę, która będzie obserwowała, jak pani prowadzi samochód”.

Pan by się zgodził?

Podobnie jak większość kierowców zgodzę się, jeśli uzyskam korzyść w postaci niższej składki. Dzisiejsza firma ubezpieczeniowa ma informacje wyłącznie o szkodach. Jeśli ktoś nie miał incydentu przez rok, to nic o nim nie wie. Może przez 11 miesięcy nie usiadł za kierownicą. Może jeździ ryzykownie, ale ma mnóstwo szczęścia. A może rzeczywiście jeździ bezpiecznie i zgodnie z przepisami. Dziś każdy z tych kierowców dostanie identyczny upust. A przecież są zupełnie różni!

A inny ubezpieczyciel mówi: „Prosilibyśmy także, żeby zrobiła sobie pani dodatkowo badania genetyczne”. Zrobiłaby pani?

Nie wiem. Gdyby się okazało, że mam sporą szansę skończyć z alzheimerem, to czy nie byłby to powód do dyskryminacji mojej osoby? Pan by się zgodził?

Tak, zgodziłbym się. Przecież i tak robię wiele badań zdrowotnych, które mogą być podstawą do ubezpieczenia! Ja już sobie zrobiłem badania genetyczne. Bo dla mnie to ważny komunikat: „Sprawdzaj to, a nie tamto, bo potencjalnie jesteś bardziej zagrożony tymi chorobami”.

Z takich badań dowiaduję się, że osoby o podobnym genomie statystycznie częściej lub rzadziej na coś chorują, ale sama obecność genów nie determinuje tego, że zapadnę na tę chorobę. W przypadku dwóch chorób, parkinsona i alzheimera, było dodatkowe, zabezpieczające pytanie: „Czy na pewno chcesz się dowiedzieć?”.

Dają furtkę, możliwość wyjścia, bo konsekwencje takiej wiedzy mogą być znaczące. W Stanach Zjednoczonych ujawnili dane dotyczące posiadania specyficznego genu, który z ogromnym prawdopodobieństwem spowoduje alzheimera. Wśród ludzi, którzy się dowiedzieli, że go mają, znacząco wzrosła liczba samobójstw.

Kiedy przeczytałem to pytanie, pomyślałem: „Jasna cholera, skoro pytają, to znaczy, że coś jest nie tak!”. Ale kliknąłem i nie było żadnej niepokojącej informacji.

Warto też pamiętać, że dane medyczne podlegają szczególnej ochronie, podobnie jak dane związane z wyznaniem, orientacją seksualną, poglądami politycznymi.

Ale z drugiej strony – mój ojciec choruje na kilka różnych chorób i leczy się u kilku różnych specjalistów. Żaden nie widzi zaleceń innych. Nie ma miejsca, które gromadziłoby wszystkie wyniki jego badań, wszystkie leki, jakie przyjmuje. Zachodzi więc obawa, że kuracja zalecona przez jednego specjalistę źle wpływa na kurację drugiego.

Proszę pomyśleć, jak wielką korzyść odniósłby każdy z nas, gdybyśmy zgodzili się ujawnić swoje dane w bezpiecznej medycznej bazie danych, do której mieliby dostęp lekarze. A jeszcze to z pewnością poprawiłoby funkcjonowanie służby zdrowia. Jaka to byłaby oszczędność, jaka pomoc dla państwa w zarządzaniu zasobami – czasem, ludźmi, pieniędzmi!

Jeśli rodzic będzie miał do wyboru: uratować zdrowie swojego dziecka albo zachować w tajemnicy jego dane, to co wybierze? Czy należy się tego bać? Nie. Należy zmieniać prawo, stawiając granice, które dadzą nam poczucie bezpieczeństwa. Podkreślam: poczucie, bo nic nie jest absolutnie bezpieczne. Zawsze ponosimy pewne ryzyko, choć jest sporo narzędzi – prawnych, technicznych, organizacyjnych – którymi się to ryzyko ogranicza.

Błędy zawsze się zdarzają, ale technologii nie powstrzymamy. Możemy tylko tworzyć reguły, stawiać granice

I znowu proszę zobaczyć, jak ważna jest intencja wykorzystania technologii! Rozmawiamy o tym, jak technologia może nam pomóc w naszych indywidualnych przypadkach, ale także w kształtowaniu całego systemu. Mając świadomość tak potężnego narzędzia, mogącego tak bardzo pomóc – zrezygnujemy z niego?

Gdyby powstała taka baza, to trzeba by określić wiele rzeczy. Na przykład to, kto i w jaki sposób może mieć dostęp do danych mojego ojca. Jak powinien wyglądać sposób ich zabezpieczenia? Czy tylko określone instytucje, czy każdy lekarz? Czy ten lekarz może udzielić komuś, na przykład mi, dostępu…

Pytań jest mnóstwo i będą się pojawiały nowe.

Zmiany następują stopniowo. Mój ubezpieczyciel nie zażąda ode mnie badań genetycznych z dnia na dzień. Kiedyś moi znajomi uznali procedurę imigracyjną w USA za dyskryminującą, bo trzeba było zostawiać odciski palców. Teraz odciski palców lub inne dane biometryczne są wymagane w coraz większej liczbie krajów. Ostatnio na lotnisku zamiast na odprawę paszportową trafiłem na automat. Położyłem na czytniku paszport, spojrzałem w kamerę i bramka się otworzyła. Ucieszyłem się, że nie muszę stać w kolejce do okienka, jak dawniej. Korzyść przeważyła nad obawami.

Jedna z firm, które z nami współpracują, stworzyła nowy sposób na ochronę telefonu. Każdy z nas ma specyficzny sposób trzymania telefonu w ręku i korzystania z niego – jednym palcem, dwoma lub więcej, prawą ręką lub lewą… Powstał więc system, który rozpoznając, że ten, kto korzysta z telefonu, nie jest tą osobą co zawsze, mówi: „Nie jesteś moim właścicielem. Blokuję się”.

Jest w stanie zidentyfikować właściciela poprzez jego gesty?

Tak.

A co, jeśli na przykład trzęsą mi się ręce ze zdenerwowania?

Zawsze musi być drugi sposób uwierzytelnienia, na przykład PIN. Takie rozwiązanie można by też zastosować w samochodzie: auto zostaje skradzione i „wie”, że ktoś prowadzi je jakoś inaczej. Staje więc na poboczu i wyłącza silnik: „Podaj PIN albo dzwonię po policję”.

Ale to tylko komputer! Co, jeśli się pomyli?

Wtedy zawsze powinna być jeszcze jedna droga, tym razem z człowiekiem po drugiej stronie. Błędy zawsze się zdarzają, ale technologii nie powstrzymamy. Możemy tylko tworzyć reguły, stawiać granice.

Jakie?

Właśnie przenieśliśmy rozmowę na tematy związane z wykorzystaniem sztucznej inteligencji! Bardzo dobrze, bo to kolejny – po obawach dotyczących przetwarzania danych osobowych – ze strachów, jakimi chętnie się dzisiaj karmimy!

Wróćmy zatem do pytania o granice i reguły. Konieczna jest transparentność i rozliczalność procesów, które są realizowane przez maszyny. Musi być wiadomo, kto, kiedy i dlaczego wprowadził takie, a nie inne reguły. I jak te reguły zostały zastosowane. Kiedy ktoś nabroił, to musimy wiedzieć, kto nabroił. W RODO jest artykuł, który mówi wprost, że mogę nie zgodzić się na to, by decyzje dotyczące mnie były podejmowane w sposób zautomatyzowany. Mogę zażądać, żeby człowiek potwierdził decyzję podjętą przez system komputerowy.

Za chwilę być może wystarczy, że spojrzę na bankomat, a on powie: „Cześć, Michale Jaworski, ile dzisiaj?”

Poza tym systemy muszą być fair, nie mogą dyskryminować. Znamy sytuacje ze Stanów, kiedy systemy podpowiadające sędziom, kto może zostać warunkowo zwolniony, okazały się niesprawiedliwe. Dlaczego? Bo bazowały na danych, które wskazywały, że prawdopodobieństwo, iż to Afroamerykanin popełni przestępstwo, jest większe od tego, że dopuści się tego biały Amerykanin.

Jak tego uniknąć? Ludzie są niesprawiedliwi, więc nic dziwnego, że na końcu z algorytmu wyskakują nam niesprawiedliwe wyniki.

Trzeba dążyć do tego, by było coraz mniej błędów. Jeśli już wiemy, na co zwracać uwagę to stworzymy lepsze modele danych, zabezpieczymy je przed potencjalnymi atakami, przygotujemy lepsze metody weryfikacji. A wpadki, jakie w przeszłości miało wiele firm i instytucji, dają wszystkim do myślenia. Niektóre z nich były nawet zabawne – dostaliśmy także w naszej firmie nauczkę przy uruchomieniu chatbota, którego internauci błyskawicznie nauczyli przeklinać i obrażać rozmówców. Pokazało nam to, jak bardzo trzeba dbać o przygotowanie systemów sztucznej inteligencji, zanim trafią do wykorzystania produkcyjnego. Zawód „inżyniera danych” ma wielką przyszłość!

Reasumując: powinniśmy nie tylko oswajać się z procesem „deprywatyzacji”, ale wręcz cieszyć się z korzyści, jakie nam przyniesie.

Nie budzę się z myślą: „Ci mnie śledzą, tamci mnie kontrolują, co to będzie?!”. Bo ja wstaję i myślę, ile to jeszcze fantastycznych rzeczy można osiągnąć za pomocą technologii! Musimy przyjąć, że każda technologia, czy dzisiaj to jest sztuczna inteligencja, czy kiedyś to była maszyna żakardowa, która pozbawiła pracy tysiące tkaczy (nie pamiętamy już o tym, prawda?) – zmienia nasz świat.

My oczywiście zawsze chętnie wyłapujemy to, co rodzi obawy – bo takie rzeczy mocniej na nas działają. Ale ile jest plusów! Pierwsze karty bankowe trzeba było przyłożyć, odbić i podpisać się na kartce. Dzisiaj nikt sobie płatności tak nie wyobraża. A za chwilę być może wystarczy, że spojrzę na bankomat, a on powie: „Cześć, Michale Jaworski, ile dzisiaj?”. Zaraz, zaraz… Do czego może jeszcze służyć bankomat, skoro nie będę korzystał z gotówki?

Proszę spojrzeć choćby na Warszawę, w której zaroiło się od hulajnóg. Co się wydarzyło? Tylko tyle i aż tyle, że jest technologia, która pozwala robić dwie rzeczy: płacić zdalnie i lokalizować pojazdy. A przecież sposób pokonywania przestrzeni dla tysięcy osób zmienił się radykalnie. Wystarczyło na to raptem kilka miesięcy.

To, w jaki sposób technologia potrafi pomóc człowiekowi, jest dla mnie absolutnie fascynujące. W sklepach, w fabrykach, w urzędach, w szpitalach i na uczelniach. Będą zakręty, będą wpadki, będą problemy, oczywiście, ale jestem optymistą.


*Michał Jaworskidyrektor strategii technologicznej w firmie Microsoft. Jest absolwentem wydziału Mechaniki Precyzyjnej na Politechnice Warszawskiej. Z Microsoftem jest związany od 1994 roku. Przez pierwsze dziewięć lat kierował zespołem sprzedaży do największych klientów w Polsce. Potem był odpowiedzialny m.in. za politykę korporacyjną firmy oraz programy badania satysfakcji klientów.
Od dwóch kadencji jest wiceprezesem Zarządu Polskiej Izby Informatyki i Telekomunikacji. Jest członkiem Polskiego Towarzystwa Informatycznego i ekspertem w Krajowej Izbie Gospodarczej. Współpracował z Institute for Prospective Technological Studies w Sewilli należącym do Joint Research Centre Komisji Europejskiej. Brał udział w projektach Interkl@asa i „Internet dla Szkół”. Pracował nad stworzeniem Strategii Rozwoju Społeczeństwa Informacyjnego dla Polski. Otrzymał nagrodę Infostar 2008 w kategorii „Propagowanie informatyki”.

Skip to content