• SI włączana w podejmowanie decyzji problematycznych etycznie
  • Jasne określanie zasad, nawet przy braku pewności, czy rozwiązanie jest dobre
  • Algorytm proponuje rozwiązania, ale decyzja należy do człowieka

Algorytmy coraz częściej są włączane do procesów decyzyjnych, które nawet dla ludzi są dylematem natury etycznej. W takich przypadkach jedynym rozwiązaniem jest kompromis. Problem w tym, że algorytmy nie były tworzone z myślą o tego rodzaju trudnych wyborach.

Bardzo dobrze działają one, kiedy mają wyznaczony jeden, definiowany matematycznie cel, np. „ograniczyć straty wśród żołnierzy” albo “ograniczyć straty wśród ludności cywilnej”. Ale trudniej robi się, kiedy trzeba pogodzić dwa albo więcej celów, często pozostających w konflikcie. Są to dylematy, które nie mają idealnego rozwiązania.

Konieczne wyznaczenie sztywnych zasad

Nad tym problemem pochylił się Peter Eckersley, członek grupy Partnership on AI. Specjalista uważa, że obecnie działającym algorytmom trzeba wyznaczać sztywne zasady.

W przypadku autonomicznej broni musielibyśmy jasno określić, że na przykład chronimy naszych żołnierzy kosztem ewentualnych strat wśród cywilów. Z kolei staramy się chronić cywilów nawet kosztem mniejszej efektywności broni przeciwko wrogowi. Zasady musiałyby być jasno określone, nawet jeśli nie mielibyśmy pewności co do tego, czy to dobre rozwiązanie.

Eckersley proponuje dwie metody, które dadzą algorytmom więcej elastyczności. Według pierwszej z nich, uczymy algorytm, że – trzymając się powyższego przykładu – ma chronić naszych żołnierzy kosztem wrogich żołnierzy oraz chronić cywilów kosztem wrogich żołnierzy. Nie określamy natomiast naszych „preferencji” jeśli chodzi o relację nasi żołnierze – cywile.

Druga metoda zakłada stosowanie kilku równorzędnych łańcuchów zasad z przypisanymi wartościami prawdopodobieństwa. Na przykład: w 75 procentach przypadków przedkładamy naszych żołnierzy nad cywilów a tych nad wrogich żołnierzy, zaś w 25 procentach przypadków – to cywile są ważniejsi od naszych żołnierzy.

Ostateczna decyzja ma należeć do człowieka

Według Eckersleya algorytm mógłby w oparciu o powyższe metody testować różne scenariusze i proponować kilka rozwiązań, wraz z rachunkiem zysków i strat. Jednak to do człowieka należałaby ostateczna decyzja.

Oczywiście odwoływanie się za każdym razem do decyzji ludzkiej mocno ogranicza efektywność tego rodzaju rozwiązania. Mimo to praca Eckersleya z pewnością jest krokiem w dobrym kierunku. Krokiem potrzebnym w sytuacji, w której coraz większe i bardziej skomplikowane systemy polegają na decyzjach podejmowanych przez algorytmy.

Skip to content