Niosące śmierć i zniszczenie roboty autonomiczne powinny być całkowicie zakazane. I Stany Zjednoczone powinny dać światu przykład. Tak uważa Andrew Yang, jeszcze niedawno walczący o nominację Demokratów w wyborach na prezydenta USA

„Powinniśmy przewodzić światu w globalnym zakazie śmiertelnych autonomicznych systemów uzbrojenia. Tylko ludzie powinni podejmować decyzje dotyczące życia lub śmierci” – oświadczył Yang na Twitterze (jego konto śledzi 1,2 miliona internautów).

Wtedy brał jeszcze udział w wyścigu o nominację Partii Demokratycznej na kandydata w listopadowych wyborach na najwyższy urząd USA. Wycofał się z niego 11 lutego po prawyborach w New Hampshire.

Przyszłość z robotami

Jednak warto odnotować ten głos, gdyż ostatni akcent kampanii prezydenckiej Yanga, z którym wszedł na obszar obrony narodowej, był konsekwentnym rozwinięciem jego hasła wyborczego: „Najpierw ludzkość”.

Ten 45-letni przedsiębiorca osią swojego programu uczynił bowiem relacje człowieka z inteligentnymi maszynami.

We wcześniejszych wystąpieniach poruszał głównie temat robotyzacji i automatyzacji przemysłu i handlu i związanych z tym zagrożeń, jak: utrata miejsc pracy, konieczność przekwalifikowania siły roboczej, prawdopodobny spadek dochodów społeczeństwa i pogorszenie statusu obywateli.

Jako receptę postulował wprowadzenie tzw. dochodu podstawowego, państwowego zasiłku w wysokości 1 tysiąca dolarów miesięcznie dla każdego Amerykanina w wieku produkcyjnym, zapewniającego mu minimum na przetrwanie. To stało się znakiem firmowym Yanga.

„Militarne” oświadczenie na Twitterze zbiegło się w czasie z prezentacją nowego inteligentnego systemu, który chce rozwijać amerykańska armia.

Oczy sztucznego zwiadowcy

W ostatnich miesiącach siły zbrojne USA pokazują coraz bardziej zmyślne systemy sztucznej inteligencji w zastosowaniach wojskowych.

To już nie tylko autonomiczne drony czy platformy kontrolujące ich roje. Amerykanie rozwijają system Quarterback (ang. rozgrywający), który wspomoże dowódców w obraniu najskuteczniejszej taktyki na polu walki, oraz technologie chmurowe do analizy danych zbieranych z pola walki, w tym rozpoznawania wrogich celów i przetwarzania tych danych dla dowódców za pomocą algorytmów sztucznej inteligencji.

Pod koniec stycznia generalicja sił zbrojnych USA ujawniła, że zamierza teraz wykorzystać sztuczną inteligencję, uczenie maszynowe, rozpoznawanie celów i drony, aby zbudować system zdolny przewidzieć, gdzie może nastąpić atak wroga.

„Militarne” oświadczenie Yanga na Twitterze zbiegło się w czasie z prezentacją nowego inteligentnego systemu, który chce rozwijać amerykańska armia

Program wspomaganego rozpoznawania zagrożeń z mobilnych czujników współpracujących i autonomicznych (ATR-MCAS) ma służyć do obsługi autonomicznych robotów naziemnych i powietrznych w obrębie pola bitwy, aby stale obserwować wroga. Roboty będą identyfikować systemy broni i elementy uzbrojenia przeciwnika. Mogą w tym celu samodzielnie nawigować i wykorzystywać będą systemy rozpoznawania obrazu. Następnie przekażą wyniki do przetworzenia przez sztuczną inteligencję, która stworzy „wspólny obraz operacyjny” (COP) pola bitwy. Żołnierze będą mogli rzucić okiem na COP i natychmiast ocenić sytuację. Dane COP będą również przetwarzane przez SI, aby umożliwić lepszą pracę sztucznemu agentowi wspomagania decyzji Quarterback.

Od mózgu systemu do mózgu żołnierza

Takie systemy oszczędzą kluczowy na polu walki czas zarówno szeregowych żołnierzy, jak i oficerów, dając im możliwość szybkiej analizy. Wesprze je Sentient, sztucznie inteligentny mózg budowany od 2010 roku przez Narodowe Biuro Rozpoznania (National Reconnaissance Office – NRO). To system wywiadowczy, który umie koordynować pozycje satelitów i może wkrótce zostać wykorzystany do zarządzania operacjami oraz robotami-zabójcami na polu bitwy podczas działań wojskowych.

Sporo wysiłku badaczy idzie też w rozwój możliwości pojedynczych żołnierzy. Od inżynierów robotyki oficerowie wojsk operacji specjalnych SOCOM dostali już egzoszkielety, dające im siłę wózka widłowego. Z kolei Pentagon próbuje zbudować technologię, która umożliwiłaby ludziom kontrolę nad śmiercionośnymi dronami wojskowymi za pomocą fal mózgowych.

Roboty w mundurach świata

Intensywne działania USA, które za czasów Donalda Trumpa na obronę narodową przeznaczają rekordowe kwoty, nie pozostają bez odpowiedzi i napędzają światowy wyścig zbrojeń w opracowywaniu coraz to sprytniejszych autonomicznych maszyn do operacji wojskowych. W podobne narzędzia zbroją się Chiny czy Rosja, w Europie też pojawiają się informacje o supernowych technologiach w wojsku.

Obecnie Rosjanie testują trzy autonomiczne pojazdy z rodziny robotów Kungas. W jej skład wchodzi pięć maszyn. Roboty te są elementem szerokiego programu badawczo-rozwojowego i budowy bezzałogowych pojazdów latających, lądowych i morskich, realizowanego na rzecz sił zbrojnych Federacji Rosyjskiej. Rosyjskie Ministerstwo Obrony podkreśla, że robotyzacja działań wojsk lądowych ma przyszłość, a utrata maszyny nie jest czynnikiem tak krytycznym jak chociażby żołnierza.

Jest pan pierwszym kandydatem na prezydenta, który komentuje to pilne zagrożenie dla ludzkości – zareagowała na apel Yanga o zakaz autonomicznej broni kampania Stop Killer Robots

SI w rękach terrorystów

Styczniowe zabójstwo przez USA generała Kassima Sulejmaniego, szefa irańskich sił specjalnych Gwardii Rewolucyjnej, z wykorzystaniem bezzałogowego drona o nazwie Żniwiarz doprowadziły do nagłego wzrostu napięcia międzynarodowego.

W oczekiwaniu na odwet Iranu dało się słyszeć obawy, że nowatorskie rozwiązania dla armii dostaną się prędzej czy później w ręce terrorystów, tak jak dzieje się to z bronią konwencjonalną.

Ten niepokój ilustruje choćby film „Slaughterbots” (Mordercze boty) nakręcony przez twórców kampanii Stop Autonomous Weapons (Stop broni autonomicznej). Pokazuje on ku przestrodze możliwy przyszły scenariusz wydarzeń z użyciem autonomicznej broni (tym filmem posłużył się też Yang w swoim tweecie).

Bez siły przebicia

Cały świat boi się nowego wymiaru konfliktów zbrojnych i konsekwencji stosowania nowych technologii, w tym sztucznej inteligencji.

Ale nie jest jednomyślny. Za całkowitym zakazem stosowania autonomicznej broni jest blisko 30 krajów, 130 organizacji pozarządowych, 4,5 tysiąca specjalistów od SI, dziesiątki firm technologicznych, a także sekretarz generalny Organizacji Narodów Zjednoczonych António Guterres i 61 procent badanych w ankiecie globalnej opinii publicznej.

Temu trendowi opierają się m.in. Rosja, USA czy Chiny (te ostatnie są za zakazem używania autonomicznej broni, ale nie dopuszczają ograniczenia badań nad nią). Żądany przez organizacje pacyfistyczne, głównie kampanię Stop Killer Robots, traktat ONZ o zakazie użycia zabójczych robotów jak dotąd nie powstał.

Działacze nawołujący ONZ do jednomyślności w zakazaniu autonomicznych robotów na wojnie zauważyli wpis Yanga i odpowiedzieli:

„Dziękujemy za poparcie apelu o zakazanie w pełni autonomicznej broni! Jest pan pierwszym kandydatem na prezydenta, który komentuje to pilne zagrożenie dla ludzkości. Tylko nowe prawo pozwoli nam zachować ludzką kontrolę nad użyciem siły” – odpisano z konta kampanii Stop Killer Robots.

Skip to content