„Im więcej technologii na świecie, tym bardziej pragnąłbym etyki. Bo nie chodzi o to, czy musimy bać się robotów, ale o to, jak zarządzać cyfrowym społeczeństwem w skoordynowany sposób” – uważa Luciano Floridi, profesor filozofii i etyki informacji z Oxfordu

Cyfrowe technologie, które nazywamy sztuczną inteligencją, są autonomiczne i inteligentne. Mają potężny wpływ na niemal każdą dziedzinę naszego życia, ponieważ za ich pomocą pracujemy, bawimy się nimi, ułatwiają nam utrzymanie kontaktu i zdobywanie informacji. Tworzy je oprogramowanie i sprzęt, które w połączeniu zdolne są do niezależnego wnioskowania i podejmowania decyzji. Zastępują nas w fabrykach, decydują, czy dostaniemy kredyt, mierzą poziom naszej aktywności i kondycji fizycznej.

Nasze życie jest w coraz większym stopniu uwikłane w autonomiczne maszyny i inteligentne systemy. W jednych dziedzinach – jak medycyna, komunikacja, transport, opieka czy rozrywka – to uwikłanie zwiększa nasz dobrostan, ale w innych budzi uzasadniony niepokój. Bo technologie obliczeniowe są wykorzystywane także do obserwowania nas, rejestrowania stanu naszego zdrowia, śledzenia naszych kontaktów, zainteresowań i upodobań. Kształtują nasze zachowania i skłaniają nas do samokontroli – a to ogranicza już naszą wolność, podważa ideały i prawa człowieka.

To złudzenie, że cyfrowe technologie są neutralne. Nie są, a w miarę upływu czasu mogą być stronnicze w stopniu, jaki przerasta nasze najśmielsze wyobrażenia. Jeśli tak się stanie, konsekwencje mogą być dla nas dramatyczne. „Wstrząsy [wywołane przez sztuczną inteligencję] mogą szybko się nasilić i stać się straszne, osiągając nawet rozmiary kataklizmu. Wyobraźmy sobie, że robot medyczny, pierwotnie zaprogramowany na eliminowanie raka, mógłby stwierdzić, że najlepszym sposobem na zatarcie raka jest eksterminacja ludzi, którzy są genetycznie podatni na tę chorobę” – przestrzega Nick Bilton felietonista „New York Timesa”.

Dlatego powinniśmy budować sztuczną inteligencję w taki sposób, by w swych działaniach uwzględniała nasze wartości i etykę. Aby tak się stało, wcześniej musimy zadać sobie kilka podstawowych pytań, na przykład: Co powinna oznaczać etyczna sztuczna inteligencja? Według jakich wartości powinniśmy ją budować? Kto powinien decydować o tym doborze? Jak zbudować społeczną świadomość etycznej SI? Czy myślące maszyny też powinniśmy traktować etycznie?

Odpowiedzi na nie poszukają uczestnicy panelu pt. „Etyczny wymiar rozwoju sztucznej inteligencji”, który odbędzie się w drugim dniu tegorocznej edycji sopockiego Europejskiego Forum Nowych Idei, czyli w czwartek 26 września (godzina 9). W dyskusji wezmą udział: dr Michał Boni, wykładowca SWPS i twórca raportu „Polska 2030”, Wanda Buk, podsekretarz stanu w Ministerstwie Cyfryzacji, Witold Drożdż, członek zarządu ds. strategii i spraw korporacyjnych Orange Polska, i dr Aleksandra Przegalińska-Skierkowska, adiunkt w Center for Research on Organizations and Workplaces na Akademii Leona Koźmińskiego. Debatę, którą otworzy wystąpienie Jamie’ego Bartletta, dziennikarza, pisarza i byłego dyrektora Centre for the Analysis of Social Media at Demos, poprowadzi Jarosław Kuźniar, prezenter telewizyjny i radiowy (Onet.pl).

Organizowane od 2011 r. przez Konfederację Lewiatan przy współpracy z BusinessEurope i miastem Sopot Europejskie Forum Nowych Idei to jedna z największych konferencji poświęconych najnowszym światowym trendom i ideom, platforma wymiany myśli i przestrzeń dyskusji wybitnych naukowców, ekonomistów, polityków oraz ludzi kultury. Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy objął tegoroczną edycję Forum patronatem honorowym, a portal sztucznainteligencja.org.pl jest jej patronem medialnym.

Skip to content