• Trzy zagrożenia SI: nieprzejrzystości, braku neutralności i zbyt niskiej inteligencji
  • Nowoczesne technologie to nie cel sam w sobie, a narzędzie
  • Zasady etyczne to: życzliwość, nieszkodzenie, autonomia ludzka, sprawiedliwość

Technologia nie jest dobra ani zła; nie jest też neutralna – głosi pierwsze prawo Melvina Kranzberga. Co to znaczy? Przede wszystkim, że technologia nie działa w próżni, ale wpływa na różne dziedziny naszego życia. Co więcej, możemy kształtować kierunek jej rozwoju. Oba te założenia tkwią u podstaw unijnej polityki dotyczącej sztucznej inteligencji. Wypracowanie nowego – społecznie wiarygodnego – modelu SI ma wzmocnić konkurencyjność Starego Kontynentu na światowym rynku technologii cyfrowych.

Maksimum zysków przy minimum strat

Unijna strategia rozwoju sztucznej inteligencji opiera się na trzech filarach: większych inwestycjach na badania i wdrożenia, przygotowaniu się na społeczno-gospodarcze zmiany wynikające z tej nowej technologii oraz stworzeniu prawnych i etycznych zasad jej działania. To ostatnie zadanie jest szczególnie ważne, ponieważ sztuczna inteligencja niesie w sobie kilka niebezpieczeństw:

Po pierwsze, ryzyko nieprzejrzystości. Sama skuteczność SI nie wystarczy, by przyjąć efekty jej działania. Trzeba jeszcze rozumieć rządzące nią mechanizmy. Taka wiedza przyda się zarówno inżynierom IT, jak i zwykłym obywatelom. Tym pierwszym pozwoli naprawiać ewentualne błędy, tym drugim – łatwiej zaakceptować technologię SI.

Po drugie, ryzyko braku neutralności: systemy SI uczą się na zbiorach danych, które nie zawsze są obiektywne. Powinniśmy zatem ograniczać niebezpieczeństwo dyskryminacji wynikające z działania algorytmów.

Po trzecie wreszcie, ryzyko niedostatecznej inteligencji maszyn. Choć algorytmy z każdym rokiem robią coraz większe postępy, wciąż popełniają błędy. Dlatego musimy być świadomi niedoskonałości technologii, z której zamierzamy powszechnie korzystać.

Komisja Europejska podkreśla, że poprzez nowe przepisy dotyczące SI nie chce hamować rozwoju badań, lecz inspirować rozwiązania tworzone z poszanowaniem praw jednostek oraz dobra wspólnego. Korzyści gospodarcze bez uszczerbku dla obywateli mają być znakiem rozpoznawczym europejskich technologii.

Człowiek na pierwszym miejscu

Pod koniec ubiegłego roku do konsultacji społecznych trafił Zarys wytycznych w sprawie etycznego rozwoju sztucznej inteligencji. Dokument promuje podejście do SI skoncentrowane na człowieku: sztuczna inteligencja to nie cel sam w sobie, tylko narzędzie służące poprawie warunków ludzkiego życia.

W intencji twórców wytyczne mają służyć jako praktyczna pomoc przy tworzeniu systemów SI oraz być punktem wyjścia do dalszej debaty.

„Wykorzystanie sztucznej inteligencji, podobnie jak każdej innej technologii, musi być zawsze zgodne z naszymi naczelnymi wartościami i gwarantować poszanowanie praw podstawowych. Wytyczne mają zapewnić praktyczną realizację tych założeń. Ponieważ wyzwania związane z SI dotyczą całego społeczeństwa, ważne jest, by każdy mógł zabrać głos i wnieść swój wkład w przygotowywany dokument” – mówi Mariya Gabriel, komisarz ds. gospodarki cyfrowej i społeczeństwa cyfrowego.

Podstawą unijnej SI będzie wiarygodność, stąd nacisk na poszanowanie prawa, przepisów i wartości. Nie oznacza to jednak, że sprawność techniczna budowanych w Europie rozwiązań jest drugorzędna. Wprost przeciwnie. Im większa niezawodność, tym mniejsze ryzyko wystąpienia niezamierzonych szkód.

Etyka to nasza specjalność

Europejskie wytyczne składają się z trzech części. Opisują one kolejno: zasady wiarygodnej SI, sposoby ich wdrażania oraz metody oceny.

Podstawowe zasady etycznie ukierunkowanej SI to: życzliwość (czynienie dobra), nieszkodzenie, autonomia ludzka, sprawiedliwość oraz zrozumiałość.

Komisja zachęca, aby od początku starać się oszacować potencjalny wpływ danej technologii SI na ludzi, a szczególnie grupy społecznie wrażliwe: dzieci, osoby niepełnosprawne czy mniejszości. Oprócz tego należy zwracać uwagę na relacje społeczne obarczone ryzykiem braku równowagi (np. pracownik-pracodawca czy konsument-przedsiębiorca).

Sama realizacja projektu wymaga przede wszystkim odpowiedzialności i dbałości o przestrzeganie podstawowych zasad. Szczegółowe wskazówki dotyczą zarówno kwestii ściśle technicznych (zarządzanie danymi, przyjazny design, niezawodność, bezpieczeństwo czy przejrzystość systemu), jak i kultury pracy (m.in. ludzki nadzór nad SI, różnorodność zespołów projektowych, odpowiednie przeszkolenie). Poza tym powinno się zapewnić możliwość prześledzenia decyzji podejmowanych na najważniejszych etapach projektu.

Twórcy wytycznych zwracają też uwagę, że nie wszystkie zasady da się ze sobą łatwo pogodzić. Na przykład próby usunięcia uprzedzeń z systemów SI mogą kolidować z ochroną prywatności.

By duch szedł w parze z literą

Ostatnim ogniwem budowy wiarygodnych systemów SI jest ewaluacja. Nie powinna to być jednak czynność przeprowadzona jednorazowo na zakończenie projektu, lecz towarzyszyć projektowaniu, budowie, wdrażaniu oraz wykorzystywaniu systemu. Metody oceny projektu należy również dostosować do konkretnych przypadków.

Autorzy wytycznych podkreślają, że wiarygodna SI wymaga elastyczności. Nie chodzi więc o mechaniczne odznaczanie wykonanych zadań, ale twórcze rozpoznawanie wyzwań, tworzenie nowatorskich rozwiązań i gotowość do ciągłego doskonalenia systemów SI. Innymi słowy: ważniejsza jest wierność duchowi rekomendacji niż kurczowe trzymanie się litery poszczególnych zapisów.

Etyczna SI ma pozwolić Europie zdobyć przewagę konkurencyjną i skrócić dystans wobec takich supermocarstw, jak USA i Chiny. O tym, czy tak się rzeczywiście stanie, zadecydujemy także my sami. To w końcu wybory konsumentów stoją za sukcesem cyfrowych potęg. Może więc warto wziąć udział w unijnych konsultacjach. Przyszłość SI to także nasza przyszłość.

Skip to content