„Roboty mogą wywołać wojnę przez przypadek”, ostrzega była pracownica Google’a. Boimy się jutra z armią maszerujących robotów? Taka armia może powstać już dziś – tyle że latająca. W Turcji.

W kwietniu tego roku trzy tysiące pracowników Google’a opublikowało list otwarty do szefa firmy Sundara Pichaia, w którym domagało się porzucenia prac nad oprogramowaniem dla autonomicznych wojskowych dronów. Projekt Maven, bo tak brzmiała nazwa nadana projektowi przez amerykański Departament Obrony, miał na celu opracowanie technologii, która wyposażyłaby wojskowe drony w zdolną do namierzania celów sztuczną inteligencję, a przez to uczyniła je w pełni samodzielnymi. Raport o rozwoju śmiercionośnej broni autonomicznej opublikowała niedawno holenderska organizacja PAX, o czym pisaliśmy szerzej w tekście „Technologie wzięte w kamasze”.

Pod naciskiem pracowników Google z projektu się wycofał (a raczej nie przedłużył kontraktu, który wygasł). Nie oznacza to oczywiście, że amerykańska armia zarzuciła prace nad autonomicznymi systemami śmiercionośnej broni. Dziś jeszcze drony amerykańskiej armii wykorzystywane w operacjach wojskowych nadal są nadzorowane przez żołnierzy-operatorów.

Programistka ostrzega

Wcześniej, w ubiegłym roku, w proteście przeciwko zaangażowaniu Google’a w ten projekt odeszła z firmy programistka Laura Nolan, która dołączyła do kampanii Stop Killer Robots. W niedawnej wypowiedzi dla brytyjskiego „Guardiana” ostrzega, że wojskowe roboty mogą wywołać wojny przez przypadek. Maszyny są bardzo ograniczone, mogą przecież grupę myśliwych uznać za uzbrojonych partyzantów – podaje przykład. „Jak maszyna do zabijania puszczona samopas ma odróżnić 18-letniego bojownika od 18-latka polującego na króliki?” – pyta retorycznie.

Inną rzeczą, która ją niepokoi, jest to, że jedynym sposobem, żeby przetestować robotycznych zabójców, jest wysłanie ich na pole walki. „Być może robią to już Rosjanie w Syrii, kto wie. Wiemy tylko, że na forum ONZ Rosja sprzeciwiała się jakiemukolwiek zakazowi takich systemów” (gwoli ścisłości taki sprzeciw wyraziły też Stany Zjednoczone).

Ale słowa Nolan są w zasadzie prorocze, a wizja bliska ziszczenia. Jest duże prawdopodobieństwo, że autonomiczna broń będzie przetestowana właśnie w Syrii. Tylko nie przez Rosję, ale Turcję.

Syryjski poligon

Roboty-zabójcy kojarzą nam się zapewne z człekokształtnymi maszynami rodem z „Terminatora”. Ale w rzeczywistości chodzi właśnie o drony. To je najłatwiej wysłać nad terytorium wroga. Turcja niedawno zaczęła produkcję uzbrojonych, ale sterowanych przez ludzi dronów, które nad północno-zachodnią Syrią wykorzystała już setki razy. To, jak Turcja stała się dronową potęgą i wyprzedziła Stany Zjednoczone, opisywał magazyn „The Intercept”.

Turecka firma zbrojeniowa STM zaprezentowała niedawno siedmiokilogramowe drony KARGU, które mają być w pełni autonomiczne. Firma twierdzi, że algorytm uczenia maszynowego pozwala maszynom lokalizować, śledzić i identyfikować różne cele – w tym ludzi. Zapewnia, że algorytm odróżnia wojskowych od cywili (nie podaje jednak szczegółów, jak to robi i czy jest nieomylny). Każdy z takich dronów po osiągnięciu celu odpala pocisk i może wrócić do bazy. Dron jest przy tym (co nie bez znaczenia dla budżetów armii) tańszy od konwencjonalnych rakiet.
LINK DO STRONY STM ZE SPECYFIKACJĄ KARGU:
Film KARGU https://youtu.be/3d28APIfwSI

Adres filmu na Youtube: https://youtu.be/3d28APIfwSI

Prezentacja tureckiego drona KARGU.
Źródło: STM /YouTube

Prof. Stuart Russell z Uniwersytetu Kalifornijskiego w Berkeley w wypowiedzi dla tygodnika „New Scientist” twierdzi, że wszystkie te możliwości są już dostępne w komercyjnych produktach i nic z tego nie jest nowością. Tureckie plany są więc całkiem realne. Nowością jest jedynie wojskowe zastosowanie technologii rozpoznawania twarzy i wykorzystanie takiej broni do unieszkodliwiania ludzi.

Rozgrywka w ONZ

Laura Nolan przestrzegała: „Niewielu o tym mówi, ale jeśli nie będziemy ostrożni, jedna lub więcej z takich [autonomicznych] broni, robotów-zabójców, może wywołać błyskawiczną wojnę, zniszczyć elektrownię jądrową i spowodować okrucieństwa na masową skalę”. Oby się myliła, a ludzkość była ostrożna. Na razie kraje, które poświęcają na rozwój zabójczej technologii najwięcej pieniędzy, zagrożenie bagatelizują.

W marcu w Genewie odbyła się tygodniowa konferencja delegatów ONZ, którzy dyskutowali nad potencjalnymi zapisami prawa międzynarodowego, które zakazywałyby autonomicznych broni wykorzystujących sztuczną inteligencję do decydowania, kiedy i kogo zabić. Większość krajów wspiera całkowity zakaz badań nad takimi rodzajami broni oraz ich użycia. Popiera to sekretarz generalny organizacji Antonio Guterres, który uważa maszyny zdolne do zabijania za „moralnie odrażające”. Ale przeciwko zakazowi są Australia, Izrael, Rosja, Stany Zjednoczone i Wielka Brytania. A bez nich zapewne nic w tej kwestii nie zostanie uchwalone.

Inżynierowie we mgle

Budzą się jednak sami programiści, którzy do tej pory nie wiedzieli, nad jakimi projektami pracują. Gdy zadania są podzielone na mniejsze części, a zarządzanie przykrywa korporacyjny język, trudno czasem dociec prawdy. Nolan nie wiedziała nawet dokładnie, nad czym pracuje, była bowiem koordynatorem projektu związanego z widzeniem maszynowym i rozpoznawaniem obrazów, co brzmi całkiem niewinnie. To między innymi dzięki jej odejściu programiści i inżynierowie częściej zadają sobie pytanie, do czego ma służyć oprogramowanie lub urządzenia, które projektują. Jak pokazuje przykład Google’a, naciski pracowników bywają skuteczne.

Amerykański Departament Obrony również zaczyna dostrzegać problem. Na początku września ogłosił, że zamierza zatrudnić etyka. Szef wojskowego Joint Artificial Intelligence Center, generał porucznik Jack Shanahan, o sztucznej inteligencji wypowiada się raczej entuzjastycznie. „Ludzie są zawodni, w walce w szczególności. Błędy będą się zdarzać. Sztuczna inteligencja może zmniejszyć ryzyko ich występowania – nie wyeliminować, ale zredukować. Może będziemy mieć mniej wypadków ofiar wśród ludności cywilnej, bo używać będziemy sztucznej inteligencji”.

Ale dronom nie będzie można zamachać białą flagą i się poddać. A armie same z siebie nie zrezygnują z rozwoju technologii, których celem jest zabijanie przeciwnika.

Skip to content