• Polem bitwy będzie zarządzać inteligentny system, skracając czas na decyzje
  • Zastosowanie SI i autonomicznych maszyn w wojsku wzbudza kontrowersje
  • Kampania „Zatrzymaj zabójcze roboty” w ONZ: dosyć stąpania po wodzie

Amerykanie pracują nad systemem do zarządzania polem bitwy, w którym dużą rolę ma odegrać sztuczna inteligencja. Jednak użycie broni autonomicznej budzi duże obawy, co znalazło odzwierciedlenie na Zgromadzeniu Ogólnym ONZ przed kilkunastoma dniami.

Zadaniem amerykańskiego systemu Quaterback będzie jak najszybsza i najskuteczniejsza eliminacja wroga. Algorytmy mają oceniać sytuację taktyczną i wydawać rozkazy maszynom autonomicznym i ludziom, szybciej i bardziej niezawodnie niż dowódca z krwi i kości.

Kluczowe znaczenie dla systemu będą miały dane zbierane przez satelity, drony, radary, roboty naziemne, kamery na czołgach i goglach żołnierzy itp. Quaterback (ang. rozgrywający) będzie je wszystkie synchronizował i opracowywał najlepszą strategię walki, na przykład najlepsze rozmieszczenie czołgów, robotów i żołnierzy.

Automatyczny system dowodzenia ma działać w myśl zasady C4I (Command, Control, Communication, Computing And Intelligence).

Maksymalne przyspieszenie

„Obecnie pełna synchronizacja danych dla dywizji piechoty czy brygadowej grupy bojowej wynosi 96 godzin” – mówił zastępca dyrektora armii nowej generacji zespołu pojazdów bojowych Kevin McEnery w połowie października na konferencji US Army Research Lab, prezentując Quaterback po raz pierwszy. Stosując sztuczną inteligencję, amerykańska armia chce skrócić ten czas do 96 sekund.

Ta inicjatywa idzie w parze z nową generacją inteligentnych robotów bojowych, które mogą działać jako zespół przy minimalnej interwencji człowieka.

Teraz żołnierz może sterować maksymalnie dwoma urządzeniami (dronami, czołgami, robotami zabójcami), w przyszłości ma kierować kilkunastoma maszynami, mają też działać w rojach.

Robotyka i SI wkraczają na stałe do systemów obrony największych mocarstw, zarówno na ziemi, jak i w morzu czy w powietrzu.

To będzie nieludzkie

Jednak użycie broni autonomicznej budzi ogromne obawy. W raporcie Human Rights Watch z 2015 r. jasno wyłuszczono, że nikt nie odpowiada za robota, który zabiłby kogoś w czasie bitwy.

Quaterback będzie synchronizował dane i opracowywał najlepszą strategię walki, na przykład najlepsze rozmieszczenie czołgów, robotów i żołnierzy, by szybko wygrać bitwę

Ani prawo karne, ani cywilne nie gwarantuje, że za cierpienia spowodowane przez autonomiczną broń ktokolwiek poniesie odpowiedzialność, na przykład operatorzy, dowódcy, programiści czy producenci – czytamy w oświadczeniu organizacji.

Kampania z uznaniem ONZ

Obawy związane z rozwojem nowych technologii dla wojska znalazły wyraz w kampanii „Zatrzymaj zabójcze roboty” (Stop Killer Robots, SKR). Osoby zgromadzone wokół kampanii obawiają się, że zastosowanie sztucznej inteligencji i autonomicznej broni może doprowadzić do przypadkowego wywołania wojny.

Dlatego są za całkowitym zakazem jej stosowania i wyliczają, że chce tego już 30 krajów, 130 organizacji pozarządowych, 4,5 tysiąca specjalistów od SI, a także Sekretarz Generalny ONZ i 61 procent badanych w ankiecie globalnej opinii publicznej.

Liderka kampanii SKR z Doliny Krzemowej, Marta Kosmyna zaznaczyła w swoim oświadczeniu dla ONZ z 18 października, że „żądania nowego traktatu zabraniającego użycia zabójczych robotów mają silne poparcie sektora technologicznego, w tym dziesiątków firm i tysięcy ekspertów od sztucznej inteligencji i robotów oraz naukowców i pracowników technicznych”.

Za podjęcie wyzwania eliminacji robotów z pola walki pochwalił organizację i kampanię Wysoki Przedstawiciel ONZ ds. rozbrojenia Izuki Nakamitsu.

Ramy niejasne

Podczas otwarcia posiedzenia Zgromadzenia Ogólnego ONZ ministrowie spraw zagranicznych Niemiec Heiko Maas i Francji Jean-Yves Le Drian zaapelowali o podjęcie pilnych działań mających na celu przeciwdziałanie zagrożeniu ze strony robotów-zabójców. Kilkunastu ministrów spraw zagranicznych opowiedziało się za „opracowaniem ram normatywnych” dotyczących broni autonomicznej.

Kosmyna uważa, że mówienie o niejasnych „ramach normatywnych” jest formą dyplomatycznego stąpania po wodzie. – Skuteczny instrument prawny jest zarówno osiągalny, jak i konieczny – stwierdziła aktywistka.

Żądania nowego traktatu zabraniającego użycia zabójczych robotów mają silne poparcie sektora technologicznego, w tym dziesiątków firm i tysięcy ekspertów sztucznej inteligencji, robotów, naukowców i pracowników technicznych

Przed robotami decydującymi o życiu i śmierci na polu bitwy ostrzegała też na forum ONZ laureatka Pokojowej Nagrody Nobla z 1997 r. za kampanię na rzecz zwalczania użycia min przeciwpiechotnych Jody Williams.

– Musimy się wycofać i pomyśleć o tym, w jaki sposób systemy broni sztucznej inteligencji wpłyną na tę planetę i ludzi na niej żyjących – mówiła Williams.

Mocne parcie

Na potrzebę zachowania ludzkiej kontroli nad systemami uzbrojenia zwróciły uwagę: Austria, Brazylia, Irlandia, Włochy, Liechtenstein, Meksyk i Holandia. Podobne stanowisko zajęła Unia Europejska. W swoim oświadczeniu UE zaznaczyła, że ludzie nie tylko powinni kontrolować zabójcze systemy uzbrojenia, ale i odpowiadać za decyzje dotyczące życia lub śmierci.

Rosja sceptyczna. A Polska?

Rosja w swoich uwagach do tematu zabójczych robotów po raz kolejny zaznaczyła, że debata o broni autonomicznej jest przedwczesna. „Brakuje działających modeli lub próbek takich systemów. Ewidentnie nie można dojść do porozumienia w sprawie podstawowych cech i koncepcji dotyczących śmiertelnych autonomicznych systemów broni” – brzmi stanowisko Rosji.

Stany Zjednoczone zgłosiły, że „jako społeczność powinniśmy pracować na rzecz lepszego zrozumienia potencjalnego ryzyka i korzyści związanych z bronią autonomiczną, uwzględniając zgodność z międzynarodowym prawem humanitarnym”.

Polska z kolei zauważyła w stanowisku z 11 października, że „ze względu na szybko zmieniający się charakter wyzwań związanych z technologią prawnie wiążące instrumenty mogą nie zapewnić nam odpowiednich rozwiązań. Powinniśmy raczej szukać bardziej pragmatycznych rozwiązań, zaczynając od zwiększonej przejrzystości i środków budowy zaufania”.

Skip to content