Europejskie Forum Nowych Idei 2019: debata „Etyczny wymiar sztucznej inteligencji”

– Czy sztuczna inteligencja może mieć duszę? – Jarosław Kuźniar, dziennikarz Onet.pl moderujący dzisiejszą debatę „Etyczny wymiar sztucznej inteligencji”, zaczął od pytania najcięższego kalibru. Być może dlatego, że występujący chwilę wcześniej w nagraniu filmowym Jamie Bartlett, dziennikarz, pisarz i były szef Centrum Analiz Mediów Społecznościowych w think tanku Demos (Centre for the Analysis of Social Media) uchylił się od odpowiedzi wprost na pytanie o to, jak sprawić, by SI była etyczna.

– Trudno mówić o budowaniu etycznej sztucznej inteligencji, skoro w naszym realnym świecie brak zgody co do wspólnych etycznych zasad – stwierdził Bartlett.

W odpowiedzi Aleksandra Przegalińska-Skierkowska, adiunkt z Akademii Leona Koźmińskiego, przywołała popularną dziś koncepcję osobliwości, w myśl której dojdzie do mariażu inteligentnej technologii z biologią człowieka. Skoro miałoby dojść do czegoś takiego – to kto wie, może pytanie o dusze maszyn byłoby zasadne? Tyle że to rzeczywistość odległa od nas o dekady, a może nawet i stulecia. O ile taka rzeczywistość w ogóle nastanie.

Dla dyskutantów ważniejsze były inne pytania. Na przykład o to, skąd bierze się potrzeba tworzenia etycznej SI. Wanda Buk, podsekretarz stanu w Ministerstwie Cyfryzacji, upatruje przyczyny w tym, że nie nadążamy za rozwojem technologii. W rezultacie to kultura, nasza psychika i relacje społeczne dostosowują się do technologii – a nie na odwrót. Pytanie o skutki działania inteligentnych technologii powinno się więc pojawiać na początku jej tworzenia, już na etapie projektowania, a nie na końcu – zgodzili się rozmówcy.

Rzecz jednak w tym, że to piekielnie trudne w sytuacji, gdy mamy do czynienia z problemem technologicznej niewyjaśnialności – zaznaczyła Przegalińska-Skierkowska.

– Nie wiemy, jak w algorytmach, zwłaszcza przetwarzających dane numeryczne i tekstowe, przebiegają procesy rozpoznawcze. Możemy jedynie obserwować efekty ich działania – podkreśliła.

– W przypadku rewolucji technologicznych mamy skłonność do przeceniania aktualnych możliwości technologii, a niedoceniania tych długookresowych – dodał Witold Drożdż z zarządu Orange Polska. Skutek? Nie planujemy i jesteśmy zaskakiwani.

W rezultacie już dziś mamy do czynienia z rozwiązaniami naruszającymi na przykład naszą prywatność. Wanda Buk przypomniała historię algorytmu Amazona, który werbując pracowników, wybierał tylko mężczyzn, ponieważ działał według danych odnoszących się do realiów sprzed kilkudziesięciu lat.

Potrzeba konsensusu co do zasad etycznych wpisanych w SI. I ten konsensus powinien być globalny, ponadpaństwowy, inaczej pozabijamy się nawzajem

Zmiany w cyfrowych technologiach wyprzedzają zmiany w naszym myśleniu od początku istnienia tych technologii. Dlatego musimy mieć świadomość, jak i do czego są one używane, jak wykorzystywane są nasze dane. Czyli – edukacja, skonkludował Michał Boni, wykładowca SWPS i twórca raportu „Polska 2030”, bo bez edukacji będzie niewiedza rodząca strach. A strach spowoduje, że odrzucamy technologie.

Czasem jednak taki strach jest uzasadniony. Na przykład wtedy, gdy rezultatem działania SI jest ludzka krzywda, pozbawianie nas praw, ograniczanie naszej wolności. Kto ma odpowiadać za zły algorytm?
– Dziś pewnie jego twórca – oceniła Przegalińska-Skierkowska – ale w przyszłości ta odpowiedzialność powinna być rozproszona na wiele podmiotów.

Tym bardziej że rozwój technologii nie zwolni. Najlepszym dowodem – argumentował Drożdż – są budżety wielkich firm technologicznych, często większe niż budżety bogatych i rozwiniętych państw.

Potrzeba konsensusu co do zasad etycznych wpisanych w SI. I ten konsensus powinien być globalny, ponadpaństwowy, inaczej pozabijamy się nawzajem – ostrzegł Boni, wywołując tym samym kwestię standardów prawnych. Jakich potrzebujemy regulacji: twardych przepisów wprowadzanych przez państwo czy miękkich kodeksów postępowania, uwzględniających prawo do debaty? Buk orędowała za pierwszym, Boni był rzecznikiem drugiej strategii. Wszyscy jednak zgodzili się co do tego, że wspólny kod etyczny SI powinien opierać się na prawach człowieka.


Partnerem merytorycznym debaty zorganizowanej w ramach IX Europejskiego Forum Nowych Idei w Sopocie był Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy, wydawca portalu sztucznainteligencja.org.pl

Skip to content