Powinniśmy ustanowić prawa, które kontrolują algorytmy. Bo algorytmy kontrolują nasze życie

Na początek małe ćwiczenie, które czasem robimy w moim laboratorium: autonomiczne auto znalazło się w sytuacji bez wyjścia i nie może uniknąć wypadku, więc musi wybrać mniejsze zło – kogo potrącić, a kogo oszczędzić.

Różnorodność odpowiedzi, których udzielają uczestnicy tego ćwiczenia, dowodzi, że podziały w kwestiach etycznych związanych ze stosowaniem inteligentnych technologii są wśród nas bardzo głębokie.

Chcemy mieć pewność, że to my, ludzie, będziemy kontrolować sztuczną inteligencję, że ostatecznie to człowiek podejmie decyzję. Ale jeśli tak, to pojawia się kolejne pytanie: Który człowiek? I co w ogóle znaczy „człowiek”? Wyzwanie, które stawia przed nami sztuczna inteligencja, dotyczy także zdefiniowania, czym jest domena człowieka. Najpierw musimy określić, kim sami jesteśmy, to musi być ćwiczenie etyczne dla każdego z nas. Bo przecież nie istnieje żaden naczelny etyk, który by tym wszystkim sterował.

Musimy mieć pewność, że algorytmy działają w interesie ludzi. Bo jak powiedział Lawrence Lessig, znany profesor prawa z Harvardu i działacz społeczny: „Kod to wojna”. Miał na myśli to, w jaki sposób kody nami sterują.

Już teraz żyjemy w Matriksie, gdzie ukryte algorytmy kierowane przez duże firmy internetowe zbierają dane, potem te dane zmieniają i wypuszczają w świat – a my tracimy wolną wolę

Swego czasu istniała organizacja, w której decyzje inwestycyjne były podejmowane automatycznie, przez algorytmy, a nie ludzi. I co zrobili inwestorzy? Pozwali tę firmę. Kod może nami rządzić, to już się dzieje – wystarczy spojrzeć na to, co robią nasze samochody czy smartfony. Powinniśmy więc ustanowić prawa, które kontrolują algorytmy. Bo algorytmy kontrolują nasze życie.

Shoshana Zuboff, profesor prawa na Harvardzie, napisała książkę „The Age of Surveillance Capitalism”. Kiedy się ją czyta, przydaje się mocny trunek. Autorka dowodzi bowiem, że już teraz żyjemy w Matriksie, gdzie ukryte algorytmy kierowane przez duże firmy internetowe zbierają dane, potem te dane zmieniają i wypuszczają w świat – a my tracimy wolną wolę.

Musimy mieć zbiór praw, które pozwolą nam przetrwać w tym kapitalistycznym panoptykonie. Musimy wiedzieć, w jakim celu coś, co wpływa na nasze życie, zostało zbudowane. Sztuczna inteligencja i uczenie maszynowe to ewoluujący zbiór zasad. Jeśli mamy ustalić zakres, w jakim dany algorytm powinien funkcjonować, to musimy mieć pewność, że ten algorytm będzie trzymał się tych zasad. Musimy znać pochodzenie kodu – jego intencję, istotę jego istnienia. Politycy muszą stać się inżynierami, by wiedzieć, jak kodu używać. Bo tylko wtedy będą potrafili nim sterować.

Jestem zwolennikiem takich technologii jak blockchain, które sprawiają, że dane pochodzą z wielu źródeł, a nie z jednego. Słyszymy o wspaniałych rzeczach, jakie sztuczna inteligencja może przynieść w sektorze zdrowotnym czy technologicznym. Świetnie! Jednak musimy pamiętać, że to ma być potencjał do wykorzystania dla dobra ludzi.


Michael Casey jest pisarzem, przedsiębiorcą, edukatorem, konsultantem i mówcą publicznym zajmującym się biznesem i przemianami społecznymi wywołanymi przez cyfrowe technologie. Jest też doradcą MIT Media Lab’s Digital Currency Initiative i starszym wykładowcą w MIT Sloan School of Management. Przez większość swej kariery zawodowej był dziennikarzem, w tym w „The Wall Street Journal”. Napisał pięć uznanych książek, w tym „The Truth Machine: The Blockchain and the Future of Everything and The Age of Cryptocurrency” (2018).


Tekst powstał na podstawie wystąpienia Caseya w dyskusji pt. „From zero to singularity – designing the AI that humans need” na konferencji Impact’19 w Krakowie (21-22 maja 2019).

Skip to content