Chcemy zwrócić uwagę na to, jak nieludzki jest świat algorytmów, opowiedzieć o nadużyciach korporacji cyfrowych i zdemaskować tę technologię, którą wszyscy tak się zachwycają – mówi Wiesław Bartkowski, kierownik studiów Creative Coding na Uniwersytecie SWPS, w rozmowie z Moniką Redzisz

Monika Redzisz: „Współczesne korporacje uznały ludzkie doświadczanie za darmowy surowiec, który można eksploatować bez ograniczeń. W wyniku tej rabunkowej eksploatacji degradują ludzką naturę, podobnie jak korporacje wczesnego kapitalizmu zdegradowały środowisko naturalne”. Brzmi jak manifest.

Wiesław Bartkowski*: To z mojego wstępu do wystawy „Cześć! Znam Cię – jestem Tobą”, którą przygotowuję na najbliższą edycję festiwalu Gdynia Design Days w lipcu. Wystawa, która za sprawą pandemii stała się doświadczeniem online, zacznie się niewinnie, zaproszeniem do wspólnej zabawy ze sztucznymi sieciami neuronowymi. Przepustką do zabawy będzie twarz widza, który zanim będzie mógł się pobawić, będzie musiał zgodzić się na warunki korzystania z serwisu. Dzięki tej umowie organizatorzy mogą dowolnie rozporządzać wizerunkiem widza. Nie sądzę, by ktokolwiek ją przeczytał, bo mamy już nawyk wyrażania zgody w ciemno. Szybko się na wszystko zgadzamy, byleby jak najszybciej skorzystać z usługi.

Przygotowując umowę, wzorowaliśmy się m.in. na umowie firmy iRobot, producenta inteligentnych odkurzaczy, na którą bez namysłu zgodziło się 95 procent właścicieli iRobota. Nowa umowa przyszła wraz z aktualizacją oprogramowania, które „za darmo” zmieniało dotychczasowy „głupi” odkurzacz w superinteligentny, z mnóstwem nowych funkcji: na przykład uczył się, gdzie jest kuchnia albo gdzie należy sprzątać intensywniej, bo zwykle jest tam bardziej nabrudzone. Albo gdzie i w jakich godzinach nie jeździć, by nie wpadać pod nogi. Przy okazji odkurzacz stał się sposobem na pozyskiwanie metadanych na temat naszego zachowania i przestrzeni, w której funkcjonujemy. Z tego można wyciągnąć znacznie ciekawsze informacje, np. o tym, jak duże mamy mieszkanie, jaki mamy rozkład pomieszczeń, a przede wszystkim – jaki tryb życia prowadzimy. O wszystkim tym jest mowa w umowie, której i tak nikt nie czyta. Napisano tam, że firma współpracuje z podmiotami, którym będzie udostępniać metadane.

Po co komu informacja, że mam trzy pokoje i pracuję od 9 do 17? W zasadzie nie mam nic do ukrycia przed swoim odkurzaczem… chyba że zacząłby robić po kryjomu zdjęcia i wysyłać je w świat.

Nie, tu nie o to chodzi! Twórcy modeli, czyli korporacje cyfrowe, nie dostają dostępu do naszych prywatnych danych, a więc nie naruszają naszej prywatności w takim sensie, w jakim rozumie to użytkownik. Dostają dostęp do metadanych, które nie są uważane przez większość społeczeństwa za informacje poufne. Na tej niewiedzy żerują korporacje. Większość ludzi zwyczajnie nie bardzo rozumie, czym są metadane ani dlaczego tak dużo one o nas mówią. Nawet legislacja jest tu niejednoznaczna albo na bardzo wczesnym etapie rozwoju. Nie da się ich też tak łatwo zaszyfrować jak treści komunikacji. Ich skuteczność potwierdza wypowiedź generała Michaela Haydena, byłego szefa CIA i NSA: „We kill people based on metadata” [„Zabijamy ludzi na podstawie metadanych” – red.].

Powinniśmy spowolnić rozwój technologii, by mieć czas na zastanowienie się, w którą stronę idziemy

Dla korporacji istotne jest odtworzenie wzorców naszych zachowań i tego, co psychologowie nazywają osobowością. Jeśli to odkryją, mogą przewidywać nasze zachowania. Na pewno nikt tam nie czyha na nasze nagie fotki, które mógłby zrobić odkurzacz wyposażony w kamerę. Konkretny człowiek w całym tym systemie jest zupełnie nieistotny, on jest tylko dostarczycielem cennego surowca – metadanych.

Cennego dla kogo?

Dla każdej firmy, która chce, żebyśmy kupili jej produkt. To w zasadzie nie my jesteśmy klientem iRobot, tylko firmy, które pozyskają od nich nasze dane. Płacimy za odkurzacz, ale głównie czymś innym niż pieniądze – możliwością wglądu w nasze zachowania. Z wielu technologii korzystamy dziś z pozoru za darmo, tak naprawdę płacąc słono za usługę, tyle że nie gotówką.

W marketingu zawsze o to chodziło – o dotarcie do grupy docelowej z informacją o produkcie. Zawsze byliśmy w pewnym stopniu manipulowani przez reklamę.

Teraz chodzi o coś więcej – o pewność, że grupa docelowa zareaguje właściwie, czyli na przykład kliknie „kupuję” albo „głosuję”. By to osiągnąć, posunięto się do modyfikacji zachowania użytkowników. To eksperyment na masową skalę bez refleksji nad możliwymi skutkami ubocznymi. Prof. Shoshana Zuboff twierdzi, że wkroczyliśmy w nową erę. Nazywa ją kapitalizmem inwigilacyjnym. To system oparty na totalnej przewidywalności. Chodzi o to, żeby mieć pewność, że biznes przyniesie zyski, by do minimum zmniejszyć niepewność. Zaryzykuję stwierdzenie, że takie działanie prowadzi do unifikacji i eliminacji odmiennych sposobów myślenia i działań, które wprowadzają niepewność do systemu. To nie tylko zagrożenie dla wolności, ale też systematyczne eliminowanie najbardziej twórczych zachowań, co w konsekwencji prowadzi do zahamowania rozwoju.

Praca zatytułowana „Kapitalizm inwigilacji” –
eksperyment z Feature Extraction, autor: Wiesław Bartkowski

W 2017 roku pracownicy Facebooka otwarcie chwalili się, że mają narzędzia pozwalające ustalić, w jakim stanie emocjonalnym jest dana grupa pracujących studentów. I że potrafią przewidzieć moment, w którym tamci będą potrzebowali wsparcia, a więc będą bardziej podatni na manipulacje. W takim momencie wystarczy podsunąć im produkt, który zaspokaja albo pozornie zaspokaja ich potrzebę. Gdyby byli w innym stanie psychicznym, toby go nie kupili. To zachowanie nieetyczne, ale nie według FB.

Poza tym w przeciwieństwie do tradycyjnej reklamy to technologie interaktywne. Potrafią analizować nasze zachowanie i dostosowywać się do nas. Mamy więc do czynienia z czymś, z czym nigdy wcześniej w historii się nie zetknęliśmy – z instrumentarium, które przejmuje kontrolę nad naszym systemem poznawczym. Modele uczenia maszynowego są wykorzystywane na przykład do kształtowania tego, co widzimy na Facebooku, byśmy spędzali tam jak najwięcej czasu i zobaczyli jak najwięcej reklam. Środowiskiem, które ten algorytm modyfikuje, jest nasz umysł. I nie mamy nad tym żadnej kontroli, ponieważ te algorytmy to czarne skrzynki i nie do końca wiemy, co się w nich dzieje. Jeśli do tego dodamy strategię korporacji, by w imię szybkich zysków te modele jak najszybciej wdrażać, mamy problem.

Reklama na plakacie, billboardzie czy w telewizji też nami manipuluje, ale nie umie dostosowywać się do naszego aktualnego stanu. W reklamie wypracowaliśmy pewne normy, granice, których nie wolno przekraczać. W świecie cyfrowym panuje wolnoamerykanka. To eksperyment na masową skalę.

Wiesław Bartkowski

W co będziemy mogli się pobawić, kiedy już podpiszemy tę umowę?

Oddamy swoją twarz, która będzie poddawana eksperymentom z wykorzystaniem różnych typów sztucznych sieci neuronowych. Pod pretekstem zabawy, niewinnego eksperymentu system będzie zbierał metadane, podobnie jak robią to korporacje. Będzie też tworzył bazę twarzy, która pozwoli trenować modele sieci. Gromadzenie i przetwarzanie takich danych to dla korporacji ogromny zysk, a my w tym uczestniczymy w zamian za jakiś cukierek. Na końcu odkryjemy karty, czyli zrobimy coś, czego korporacja nigdy nie robi. Nie pokazuje, co o nas wie. A często okazuje się, że to, co wie, jest ukryte w wytrenowanych modelach uczenia maszynowego; nie jesteśmy w stanie przetłumaczyć tego na ludzki język. To nie-ludzka wiedza.

Technologia stała się substytutem, protezą normalnego życia, bo nie mieliśmy innego wyjścia. Trochę jak wyrób czekoladopodobny za komuny

Naszą wystawą chcemy zwrócić uwagę na to, jak nieludzki jest świat algorytmów, szczególnie w nowym paradygmacie uczenia maszynowego. Jak niebezpieczne jest tworzenie systemów techno-społecznych, w których międzyludzkie interakcje mediowane są przez nie-ludzkich aktorów. Jak bardzo taki system zmienia percepcję rzeczywistości. Chcemy opowiedzieć trochę o nadużyciach korporacji, od Google’a, przez Facebooka, po Amazona i Apple’a. I zdemaskować tę technologię, którą wszyscy tak się zachwycają.

Zachwycają się, bo korzyści, które z niej czerpiemy, można by długo wymieniać. Pierwsze z brzegu przykłady: IBM właśnie udostępnił za darmo chatbota dla nauczycieli, Alexa dla osób niepełnosprawnych jest wręcz wybawieniem. Czy korzyści nie przeważają?

Pani też uwierzyła w tę narrację? IBM dał nauczycielom chatbota za darmo? Przecież ten chatbot nic ich praktycznie nie kosztował, bo i tak już był wyprodukowany. To pracownicy NGO-sów i nauczyciele napracowali się, żeby nakarmić go dobrej jakości treścią. To oni wykonali całą robotę, a w świat idzie informacja, że to IBM jest bohaterem całej tej historii. Zaczynamy wierzyć, że powinniśmy rozmawiać z botami. O ileż lepiej byłoby porozmawiać z ekspertem, który podzieliłby się swoją wiedzą!

Ale ekspertów brakuje.

Technologia nam tego problemu nie rozwiąże, a wszyscy odbierają to tak: tu jest sztuczna inteligencja, jest bardzo mądra i odpowie na wszystkie pytania, więc mamy problem z głowy.

Trzeba zmienić narrację, podkreślać, że sprawczość leży gdzieś indziej. Narzędzie w niczym nas nie wyręczy, sztuczna inteligencja nas nie uratuje. Musimy zrobić to sami.

Sztuczna inteligencja rzeczywiście jest super, ale wiąże się z nią wiele zagrożeń. Rozwój głębokiego uczenia można porównać do badań nad lekami. Ponieważ nie do końca rozumiemy, jak funkcjonuje ludzki organizm, tworzymy leki metodą prób i błędów. Ale zanim zostaną wprowadzone na rynek, latami bada się ich działanie, efekty uboczne, a specjalne instytucje wydają certyfikaty. A deep learning? Tu też pracujemy metodą prób i błędów, też nie rozumiemy, jak to działa, ale szybko wdrażamy to na masową skalę.

Twarz autora pracy przetworzona przez sieć wytrenowaną na twarzach dzieci. Przy pewnym ustawieniu parametrów sieć generuje obraz silnie oddziałujący na emocje. Pojawią się artefakty, które interpretujemy jako spierzchnięte usta albo podarty sweter. Widzimy głęboko smutne dziecko, czujemy empatię, myśląc, że jest ofiarą przemocy. To dziecko nigdy nie istniało. Jest wynikiem nieludzkiego patrzenia na wzorce pojawiające się w rozkładach pikseli. Autor: Wiesław Bartkowski

Noam Chomsky, pytany, czy deep learning dokona przełomu w rozumieniu języka, odpowiada, że nie, bo przecież to nie jest nauka, tylko wyrafinowana inżynieria, dobra w wykrywaniu wzorców w pozornie nieuporządkowanym zbiorze danych. Za jej pomocą niczego nowego na temat języka się nie dowiemy, bo jest niewyjaśnialna.

W tej grze chodzi o nasze pieniądze. Manipulują nami, bo chcą sprzedać nam swój produkt. Kto nie chce, ten nie kupi. Zgoda, większość z nas daje się naciągnąć, ale dlaczego winą za nasz słaby charakter obarczać korporacje? Ostatecznie nikt nas nie zmusza do zakładania konta na FB ani do klikania w cokolwiek.

Nie trzeba klikać, wystarczy scrollować.

Można się wycofać…

Nie da się! Na FB są prawie 2 miliardy osób, jedna czwarta populacji. Nawet jeśli ja się wycofam, to są tam moi znajomi i znajomi moich znajomych, a ja jestem pod ich wpływem. Tak działają sieci społeczne: ulegamy wpływom pośrednio. Jeśli w system uwikłani są nasi znajomi, szansa, że i my ulegniemy, jest bardzo duża. Znajomi naszych znajomych wpływają na nasze zachowanie ze skutecznością 25 procent.

Jesteśmy pierwszym pokoleniem w takiej sytuacji. Może musi minąć jakiś czas, zanim nabierzemy większej odporności na manipulacje?

Oczywiście, to jest trochę jak wyścig zbrojeń, ale interaktywnej manipulacji bardzo trudno się oprzeć. Doszliśmy dzisiaj do nierówności finansowych z czasów świetności królów. Nie chodzi tu jednak tylko o nierównowagę kapitału. Dużo ważniejsza jest nierównowaga wiedzy. Dawni władcy pomimo bogactwa nie mieli szczegółowej wiedzy o każdym ze swoich poddanych. Dzisiaj system, który nas obserwuje, wie o nas więcej niż my sami.

My też mamy dostęp do wiedzy, w każdym razie do wielu jej narzędzi. To broń obosieczna.

Nie zgodzę się z tym. Pewne osoby mają dostęp do metadanych, a inne nie. W którymś momencie uznano, że metadane są darmowym surowcem i ot tak, po prostu, można je sobie wziąć, obrabiać, sprzedawać. Nigdy nie było publicznej debaty na ten temat. To znaczy na temat tego, czy dane, które produkujemy swoim zachowaniem, należą do nas, czy nie.

W głównych firmach technologicznych bycie człowiekiem jest postrzegane jako słabość. Uciekamy więc jak najdalej od człowieczeństwa, od tego, co namacalne i w swej fizyczności ułomne

Drugi mechanizm jest jeszcze groźniejszy. Systemy, które analizują nasze metadane, głębokie sieci neuronowe, są tak złożone, że ich działania nie rozumieją nawet ich twórcy. Nie wiedzą, dlaczego system podejmuje taką, a nie inną decyzję. Mają narzędzie, które jest skuteczne, więc je wykorzystują; to im się opłaca. Tworzą w ten sposób system, którego konsekwencje działania idą dalej, niż się spodziewali, lecz nie mogą już tego zatrzymać. Są zbyt uwikłani w machinę, której nie kontrolują ani na poziomie technicznym, ani społeczno-ekonomicznym. Muszą przecież spłacać swoich inwestorów, którym obiecali konkretny przychód. CEO korporacji nie może wykonywać ruchów, które przyniosą stratę firmie; on musi optymalizować zysk. Jest zanurzony w systemie zwanym „niewidzialną ręką rynku”. Ostatnio jeden z kanadyjskich ekonomistów ładnie powiedział, że podczas epidemii wszyscy musimy ciągle myć ręce, ale jest jedna ręka, która nadal nie chce się umyć.

Nierówności społeczne i finansowe są dziś olbrzymie, ale też ci z dołu drabiny nigdy jeszcze nie żyli tak dobrze, jak żyją dziś. Nigdy przeciętni ludzie nie byli tak zamożni, wykształceni i aktywni obywatelsko.

I to się dzieje dzięki rozwojowi technologii? A może wbrew?

Weźmy telewizję. Jednak była dla wielu oknem na świat.

Pytanie, jaki świat pokazała. Wiemy, jak wygląda telewizja publiczna. Telewizja komercyjna zrobi natomiast wszystko, by pokazać reklamę. Prześciga się w wymyślaniu kolejnych technik, żeby nas jeszcze bardziej osaczyć. Przyczyniła się do przyspieszenia rozwoju hiperkonsumpcjonizmu. Frank Trentmann w książce „Empire of Things” pisze, że w 2013 roku Brytyjczycy byli w posiadaniu około 6 miliardów sztuk ubrań, z których jedna czwarta nigdy nie opuściła szafy. W Stanach zgromadzone rzeczy nie mieszczą się ludziom ani w domach, ani w garażach, więc wynajmują specjalne przestrzenie do ich przechowywania.

Może musimy odreagować stulecia biedy? Nigdy nie mieliśmy dostępu do tylu dóbr, więc nic dziwnego, że nie umiemy się opanować. Zresztą prosperity się skończyła, bieda powraca.

Warto spojrzeć, kiedy prosperity się skończyła – w latach 70. Ale wizja, że każdy musi mieć dom pod miastem i samochód, by do niego dojechać, wytworzyła klasę ludzi żyjących na przedmieściach amerykańskich miast. Szybko się okazało, że to życie wcale nie jest tam takie różowe, jak mogłoby się wydawać. Została sztucznie wygenerowana pewna potrzeba, która doprowadziła do rozwarstwienia społeczeństwa.

Wielkie firmy są potężne, ale nie mają całej władzy. Są jeszcze instytucje państwa, które mogą na nie wpływać.

Dobra legislacja jest rozwiązaniem. Niestety państwo jest słabe. W zeszłym roku Stany Zjednoczone na badania i rozwój wydały około 100 miliardów dolarów, podczas gdy tylko 10 największych korporacji na świecie wydało na to w sumie 200 miliardów dolarów. Czyli ta dziesiątka korporacji jest dwa razy potężniejsza niż najpotężniejsze państwo na świecie. Lobbing jest tak duży, że państwo ma małą sprawczość w ograniczaniu korporacyjnej wolnoamerykanki.

Musimy wymyślić nowy sposób opowiadania o świecie. Nadzieję pokładam w edukacji, w sztuce i kulturze, której zadaniem jest to, by rozwijać w nas wrażliwość na złożoność świata

Thomas Piketty w swojej najnowszej książce „Kapitał i ideologia” idzie jeszcze dalej: chodzi nie tylko o to, kto ma kapitał i wiedzę, ale o to, kto snuje opowieść. To kwestia ideologii. Moim zdaniem ślepo uwierzyliśmy w jednostronną wizję świata, w myśl której technologia, a w szczególności sztuczna inteligencja, jest sposobem na rozwiązanie naszych problemów – więc im szybciej będziemy ją rozwijać, tym lepiej. A co znaczy szybko? To znaczy bez opamiętania i refleksji, nie czekając na rozwój legislacji, na oślep, patrząc jedynie na krótkoterminowe zyski, z korzyścią dla wielkiego kapitału i korporacji. Ja uważam, że powinniśmy spowolnić rozwój technologii, by mieć czas na zastanowienie się, w którą stronę idziemy. Warto przypomnieć sobie słowa Neila Postmana. Każdy postęp techniczny bez wątpienia coś nam daje, ale także coś nam w zamian zabiera.

Sami zgadzamy się na inwigilację w imię bezpieczeństwa.

Tak, kiedy się boimy, jesteśmy w stanie oddać bardzo dużo i ta jedyna właściwa narracja – że to technologia pozwala nam dziś funkcjonować normalnie – jeszcze bardziej się umacnia. To samo stało się po 11 września. Nagle wszyscy uwierzyli, że uratuje nas technologia. Kosztem pogwałcenia konstytucji, ale cóż… Państwo nie miało wystarczającej infrastruktury, by wytworzyć system, który pozwoli inwigilować społeczeństwo w celu zapobieżenia kolejnym atakom. Nie miało też zasobów ludzkich, żeby tę infrastrukturę wytworzyć, bo najlepsi zostali wydrenowani do pracy w korporacjach i to tam jest dzisiaj cały kapitał ludzki. Decyzja jednak zapadła i nadal jest w mocy. Mimo że to prawo miało obowiązywać tylko na czas zagrożenia terroryzmem, nigdy go nie odwołano. Bo państwo czuje się mocne wtedy, kiedy obywatel jest przestraszony.

To jest narracja populistów, nie wszystkich polityków. Tak mówi Trump, ale nie mówił tak na przykład Obama.

To prawda, ale zasad pozwalających na inwigilację obywateli nie odwołał. Starał się wzmacniać państwo i przyciągać ludzi ze świata technologii, ale mu się nie udało. Nie wymyślił wystarczająco dobrej narracji, by przekonać ludzi do tej wizji. Narracja firm technologicznych jest dużo silniejsza. Największe kontrakty Amazon zdobył właśnie za Obamy. Miałem ostatnio na ten temat dyskusję z jedną z moich najlepszych grup studenckich – grupą przyszłych liderów środowisk biznesowych. Nawet wśród nich pojawiły się głosy, że bardziej ufają korporacji niż państwu. To pokazuje, jak bardzo uwierzyliśmy, że ktoś, kto świetnie rozwija technologię, jest też świetny we wszystkim innym, na przykład w edukacji. Przy okazji warto wspomnieć, że wielu pracowników światłych korporacji głosowało na Trumpa.

Pisze pan, że technologia nas dzieli i oddala od siebie, że rozpada się tkanka społeczna. Teraz jednak, podczas epidemii, technologia pozwoliła nam się komunikować.

To sformatowany sposób myślenia. Owszem, technologie pozwalają nam się połączyć, ale to nie jest tak, że rozwiązały problem. Technologia stała się substytutem, protezą normalnego życia, bo nie mieliśmy innego wyjścia. Trochę jak wyrób czekoladopodobny za komuny; ilekroć się na niego skusiłem – żałowałem. Teraz też: włączyłem tego Zooma, żeby „pójść” na urodziny, i to było dziwne doświadczenie. W zasadzie najważniejsze w naszym życiu jest bycie z innymi ludźmi. Każde działanie, które nas od siebie separuje, jest złe. A technologia ma tu dużo na sumieniu. Żyjemy złudzeniem, że inni są nam niepotrzebni, bo sami sobie w życiu radzimy, wspierani przez technologię.

Nawet jeśli spotkania online są tylko marnym substytutem prawdziwych spotkań, to chyba lepsze to niż nic? Jak wyglądałoby nasze życie dzisiaj, gdybyśmy nie mieli takich możliwości? Nie moglibyśmy ani pracować, ani uczyć się, ani mieć tej namiastki życia towarzyskiego.

Oczywiście, ale trzeba znaleźć złoty środek, a my bardzo przegięliśmy w jedną stronę. Projektujemy technologię bez namysłu, krótkowzrocznie. Liczy się tylko to, byśmy jak najdłużej pozostali w kontakcie z daną usługą, a przecież koszt uzależnienia jest gigantyczny. Powiadomienia to główny mechanizm wprowadzenia w pętlę uzależnienia. Ja na przykład mam wszystkie powiadomienia wyłączone od dawna, jestem trochę offline, na wiadomość z Messengera odpowiadam trzy dni później. Bo wiem, że gdybym tego nie wyłączył, to nie byłbym w stanie się powstrzymać. To jest silniejsze od nas.

Wkrótce system będzie za nas decydował, kto jest dla nas najlepszym partnerem życiowym, w co najlepiej zainwestować, czego warto się uczyć

Dzięki mediom społecznościowym możemy organizować się społecznie, umawiać na rozmaite akcje, wzajemnie edukować.

Takie narzędzia motywują i demotywują zarazem. Polajkujemy i uważamy, że sprawa załatwiona. Spełniłem swój obywatelski obowiązek i nic więcej nie robię. Technologia zmienia naszą percepcję rzeczywistości. Szczególnie kiedy nadużywamy technologii. Najprościej wytłumaczyć to na przykładzie GPS-a. Sam na sobie przeprowadziłem nieświadomie ten eksperyment i nagle straciłem zdolność orientacji w przestrzeni. Są już badania, które pokazują, jak zmienia się nasz mózg, kiedy podążamy za komendami GPS-a – nie aktywujemy tych obszarów mózgu, które aktywowaliśmy dawniej, patrząc na punkty orientacyjne w przestrzeni. Te same struktury są odpowiedzialne za pamięć długotrwałą. Są pierwsze badania pokazujące, że nadużywanie GPS-a może doprowadzić do problemów z pamięcią i przedwczesnej choroby Alzheimera.

Musimy się pogodzić z pewną ewolucją…

Właśnie przed takim myśleniem ostrzegam! Nie musimy się z niczym godzić! Technika niesie wartości jej twórców. Nikt nie pyta nas, czy chcemy tych wartości. W głównych firmach technologicznych bycie człowiekiem jest postrzegane jako słabość. Uciekamy więc jak najdalej od człowieczeństwa, od tego, co namacalne i w swej fizyczności ułomne. Rozpoczęła się podróż poza naszą cielesność, w nowy, lepszy substrat: ciało do VR, umysł do SI – lub w cokolwiek innego, co akurat jest fetyszem danego czasu. Ale czy chcemy zespolić się z otaczającymi nas urządzeniami napędzanymi kodem? Słyszymy, że to nieuniknione, że to kolejny etap ewolucji. A to nieprawda. Naszym celem nie jest wyprodukowanie doskonałej technologii, która nas zastąpi. Niektórzy wierzą w to, że przeniosą swój umysł do jakiegoś sylikonowego tworu i będą żyć wiecznie. Jeśli będziemy technologię dalej tak bez opamiętania i refleksji rozwijać, to faktycznie skończymy w sylikonie! Kosztem naszego człowieczeństwa. Ale tak nie musi być. Tak zostało to zaprojektowane, zatem możemy to przeprojektować!

Jak?

I tutaj dochodzimy do kluczowej kwestii: nie mamy w zasadzie pomysłów na inne narracje. Olga Tokarczuk w mowie noblowskiej mówiła, że czujemy, że coś jest ze światem nie tak. Musimy wymyślić nowy sposób opowiadania o świecie. Tokarczuk mówi o czułym narratorze – wrażliwym na złożoną, splątaną, wielowymiarową rzeczywistość. Nadzieję pokładam więc w edukacji, w sztuce i kulturze, której zadaniem jest to, by rozwijać w nas wrażliwość na złożoność tego świata, na to, że nie ma prostych, czarno-białych rozwiązań w rodzaju „technologia rozwiąże ten problem”.

Praca zatytułowana „Ostatni krzyk” – ludzka twarz zinterpretowana przez sztuczne sieci neuronowe, autor: Wiesław Bartkowski

Na szczęście jest coraz więcej ruchów społecznych, które wyznają inną ideologię, snują alternatywną opowieść. Potrzeba nam takich nowych narracji, a tworzą je ludzie, którzy myślą krytycznie, mają odwagę fantazjować i umieją podejmować wysiłek intelektualny. Niestety giną w masie, bo środowisko, które nas teraz otacza, w tym technologie, sprawia, że coraz bardziej nastawiamy się na konsumpcję, a coraz mniej na działanie. Kolejne nasze zdolności poznawcze oddajemy systemowi technicznemu. Na pozór mamy dzięki temu więcej wolnego czasu, de facto nie mamy więcej czasu, a wolności mamy coraz mniej. Wkrótce system będzie za nas decydował, kto jest dla nas najlepszym partnerem życiowym, w co najlepiej zainwestować, czego warto się uczyć. Dlatego trzeba za wszelką cenę rozwijać w ludziach krytyczne myślenie, wyobraźnię i poczucie sprawczości.

Jaką rolę może tu odegrać sztuka?

Alain Badiou twierdzi „sztuka to procedura prawdy”. Podążając tym tropem myślenia, artyści powinni dociekać złożoności tego świata i szukać alternatywnych dróg, udowadniać, że można o świecie myśleć wielowymiarowo, włączać się w dyskusję o świecie i o technologii. Na otwarciu Ars Electronica 2019, największego na świecie festiwalu sztuki elektronicznej, Roberto Viola, który odpowiada za politykę cyfrową UE, mówił, że rola artysty jest dziś kluczowa, że to artyści myślą krytycznie, rozumieją niuanse i subtelności tego świata lepiej niż inżynierowie i finansiści. Bo mogą sobie pozwolić na szerokie spojrzenie na rzeczywistość.

W dobie Big Data wszyscy konsumenci kultury zaczynają być do siebie podobni. Następuje proces proletaryzacji, czyli kulturowego ubożenia klasy średniej

Oczywiście sztuka, kiedy staje się komercyjna, też przestaje pełnić taką rolę, bo stara się przypodobać klientowi i wpada w mechanizm wolnego rynku. Proszę zobaczyć, co się stało z kulturą. W dobie Big Data wszyscy konsumenci kultury zaczynają być do siebie podobni. Doskonale ujmuje to w swojej najnowszej książce Edwin Bendyk, pisząc o proletaryzacji kultury „W podobny sposób odbywała się proletaryzacja robotników, którzy z wszechstronnych, niepowtarzalnych rzemieślników przy taśmach systemu fordowskiego stawali się wymiennymi, powtarzalnymi trybami systemu maszyny, proletariuszami”. Netflix, konsumowany na masową skalę, stosuje kilka zaledwie algorytmów przy produkcji filmów i seriali, by miały jak największą szansę na sukces. Robi coś, co jest najlepiej dopasowane, formatując nas na jedną modłę. Następuje proces proletaryzacji, czyli kulturowego ubożenia klasy średniej, ponieważ system produkuje spreparowaną papkę kulturową, łatwą w konsumpcji. Chroni nas przed wysiłkiem intelektualnym, zapewniając kolejne dopasowane do nas produkty. To superniebezpieczne, bo powoduje zanikanie tego, co jest dla nas najważniejsze, czyli umiejętności wyobrażania sobie innej narracji. Tego, że możliwy jest inny świat.

Sztuka nie zmieni systemu.

To prawda, nie da się tego zrobić bez polityki. Pojedynczy obywatel, nawet pojedyncze państwo ma dzisiaj niewiele do gadania. Nie jesteśmy w stanie przeciwstawić się korporacjom technologicznym mniejszą strukturą niż Unia Europejska. Unia to być może ostatni przyczółek niezależności, który może coś wywalczyć, negocjować z wielkimi korporacjami, szukać złotego środka.

I trzeba jeszcze śmielszych decyzji. Moim zdaniem nie da się zmienić kierunku rozwoju technologii bez zmiany systemu społeczno-ekonomicznego, wplatając w niego inne wartości niż tylko maksymalizację zysków. Być może rozwiązaniem jest zaproponowany przez Piketty’ego socjalizm partycypacyjny niwelujący nierówności poprzez częściowe uspołecznienie i zdynamizowanie własności prywatnej. Uważa na przykład, że 50 procent miejsc w radach nadzorczych powinni zajmować pracownicy, a maksymalny pakiet akcji kontrowany przez jedną osobę nie może przekraczać 10 procent. Trzeba sprawić, by rozwój technologii nie był napędzany wyłącznie siłą rynkową. Firma istnieje przecież po to, żeby zarabiać, i to w tym celu rozwija technologię. Apple dogadał się teraz z Google’em nie po to, żeby zbawić ludzkość za darmo, bo korporacja nie ma prawa czegoś takiego robić. Gdyby taka akcja przyniosła straty dla spółki, a dobro dla ludzkości, szefowie firmy popełniliby przestępstwo.

Da się zmienić system bez rewolucji?

Właśnie: przestaliśmy wierzyć, że system da się zmienić. Sławoj Żiżek spopularyzował powiedzenie „łatwiej wyobrazić sobie koniec świata niż koniec kapitalizmu”. Takim myśleniem doprowadzimy świat do końca.


*Wiesław Bartkowskiprojektant interakcji i badacz systemów złożonych. Kierownik i współtwórca studiów podyplomowych CreativeCoding.pl antydyscyplinarnie przełamujących granice pomiędzy sztuką, dizajnem, nauką i technologią. Twórca terminu i manifestu „materia kodu”. Pracuje na Uniwersytecie SWPS. Uczy artystów i projektantów wykorzystywania w swoim warsztacie „materii kodu”. Jego wizualizacje i instalacje interaktywne prezentowane były m.in. w Muzeum Sztuki Nowoczesnej, Centrum Sztuki Współczesnej, Zachęcie, Galerii BOZAR, Galerii Arsenał, Artothek Monachium, Teatrze Powszechnym i Teatrze Nowym.


Wiesław Bartkowski jest kuratorem i współautorem wystawy „Cześć! Znam Cię – jestem Tobą”, którą od 4 do 12 lipca można będzie oglądać na Gdynia Design Days – największym letnim festiwalu designu w Polsce, który w tym roku odbędzie się online. Podczas festiwalu Wiesław Bartkowski wygłosi wykład „Czas dołączyć do Team Human” poszerzający różne wątki poruszone w wywiadzie.

Wiesław Bartkowski poleca

Polecam książki, które ostatnio przeczytałem. Rozwijają wątki poruszone w wywiadzie albo były inspiracją do odpowiedzi.

  • Bendyk, Edwin: „W Polsce, czyli wszędzie. Rzecz o upadku i przyszłości świata”;
  • Brockman, John: „Possible Minds: Twenty-Five Ways of Looking at AI”;
  • Carr, Nicholas: „The Glass Cage: How Our Computers Are Changing Us”;
  • Chater, Nick: „The Mind Is Flat”;
  • Damasio, Antonio: „The Strange Order of Things”;
  • Fisher, Mark: „Capitalist Realism”;
  • Ford, Martin: „Architects of Intelligence: The truth about AI from the people building it”;
  • Gellman, Barton: „Dark Mirror: Edward Snowden and the American Surveillance State”;
  • Giridharadas, Anand: „Winners Take All”;
  • Hoffman, Donald: „The Case Against Reality: Why Evolution Hid the Truth from Our Eyes”;
  • Illouz, Eva: „The End of Love”;
  • Lem, Stanisław: „Golem XIV”;
  • McNamee, Roger: „Zucked : Waking Up to the Facebook Catastrophe”;
  • Pearl, Judea: „The Book of Why: The New Science of Cause and Effect”;
  • Piketty, Thomas: „Capital and Ideology”;
  • Rushkoff, Douglas: „Life Inc : How Corporatism Conquered the World, and How We Can Take It Back”;
  • Rushkoff, Douglas: „Team Human”;
  • Russell, Stuart: „Human Compatible: Artificial Intelligence and the Problem of Control”;
  • Snowden, Edward: „Permanent Record”
  • Trentmann, Frank: „Empire of Things : How We Became a World of Consumers, from the Fifteenth Century to the Twenty-First”;
  • Zuboff, Shoshana: „The Age of Surveillance Capitalism”.

Read the English version of this text HERE

Skip to content