Naukowcy z MIT uczą autonomiczne auta odróżniać kierowców samolubnych od altruistycznych

Czy prowadząc samochód na autostradzie zwalniasz lub zjeżdżasz na lewo, żeby wpuścić kogoś przed siebie, by mógł włączyć się do ruchu? Przejeżdżasz skrzyżowanie na żółtym świetle czy nie? Takie zachowania mają znaczenie dla algorytmu, który będzie sterował autonomicznym autem – twierdzą badacze z Massachusetts Institute of Technology. Projektują kod „uczłowieczający” autonomiczne auta, włączając w badania elementy psychologii.

Samochody autonomiczne zakładają nie jak ludzie, a jak maszyny: wszyscy kierowcy zachowują się w ten sam sposób. A przecież są wśród nich egoiści, furiaci, są też kierowcy zorientowani na święty spokój i ułatwianie jazdy innym. Wiadomo, że zachowania ludzi za kierownicą odzwierciedlają skłonność do współpracy lub rywalizacji. Beznamiętne maszyny są dość konserwatywne w podejmowaniu decyzji – ich zaprogramowana nienaganność jazdy i ostrożność zmniejszają ryzyko wypadków, jednak stwarzają też sytuacje, które mogą być frustrujące dla innych kierowców.

Sterownik za kółkiem

Jesteśmy coraz bliżej czasów, kiedy po drogach autonomiczne auta będą się poruszać między pojazdami kierowanymi przez ludzi. Idealnym rozwiązaniem byłoby, gdyby system przyczynił się do poprawy bezpieczeństwa poprzez włączenie pewnych ludzkich zachowań do tego, jak ich oprogramowanie postrzega otoczenie.

Dlatego w Laboratorium Informatyki i Sztucznej Inteligencji MIT (CSAIL) naukowcy (przy finansowym wsparciu Toyoty) budują model, który klasyfikuje kierowców według ich „samolubstwa” lub „bezinteresowności”.

Zespół naukowców uważa, że dla bezpieczeństwa na drodze samochody bez kierowców powinny uwzględniać naszą osobowość. Chodzi o poszerzenie świadomości społecznej sterowników pojazdu autonomicznego.

Adres filmu na Youtube: https://www.youtube.com/watch?v=WNJ_cphLIE8&feature=emb_logo

Jak naukowcy z MIT uczłowieczają autonomiczne auto
Źródło: CSAIL DRL Autonomy Research / YouTube

W tym celu zespół CSAIL połączył metody psychologii społecznej ze sformułowaną już lata temu teorią gier, matematycznym modelem podejmowania optymalnych decyzji w sytuacji konfliktowej.

Naukowcy modelowali scenariusze drogowe, w których każdy kierowca próbował zmaksymalizować swoją użyteczność i przeanalizował „najlepsze reakcje”, biorąc pod uwagę decyzje wszystkich innych uczestników. Algorytm mógł następnie przewidzieć zachowanie otaczających samochodów jako kooperacyjne, altruistyczne lub egoistyczne – grupując dwa pierwsze jako „prospołeczne”.

Prawa ręka pojazdu

W oparciu o zachowanie kierowców w dwóch różnych scenariuszach drogowych – włączania się do ruchu na autostradzie i skręcania w lewo na skrzyżowaniach – model zespołu CSAIL sklasyfikował kierowców jako prospołecznych lub egoistycznych.

Następnie system wykorzystał te klasyfikacje do modelowania i przewidywania zachowania kierowców. Na przykład w symulacjach skrętu w lewo ich samochód wiedział, że musi poczekać, kiedy nadjeżdżający z przeciwka samochód będzie miał bardziej egoistycznego kierowcę, a śmiało skręcić, gdy drugi samochód będzie bardziej prospołeczny. Badacze wykazali, że ilość błędów w przewidywaniu zachowania innych samochodów zmniejszyła się o 25 procent. Może to niewiele, ale to ¼ mniej konfliktowych sytuacji na drodze.

Myślenie o algorytmie autonomicznego pojazdu, który kategoryzuje cię jako furiata za kółkiem albo niedzielnego kierowcę i odpowiednio dopasowującego styl jazdy do twojego przewidywanego zachowania może wydawać się nieco dziwne. Ale to chyba lepsze niż przeświadczenie, że nieświadoma, autonomiczna maszyna postrzega otaczających ją kierowców jako przeszkody złożone z zer i jedynek, a nie jako istoty o konkretnych zamiarach, motywacjach i osobowościach.

Bądź przezorny na drodze

„Tworzenie bardziej podobnych do ludzkich zachowań w pojazdach autonomicznych (AV) ma fundamentalne znaczenie dla bezpieczeństwa pasażerów i pojazdów w pobliżu, ponieważ prowadzenie w przewidywalny sposób pozwala ludziom zrozumieć i odpowiednio zareagować na działania AV” – powiedział Wilko Schwarting, szef badawczego zespołu. Współpracowali z nim prof. Sertac Karaman oraz m.in. prof. Daniela Rus, szefowa laboratorium CSAIL.

– Używamy uczenia maszynowego do projektowania modelu. Praca ta otwiera drzwi do bezpieczniejszego i bardziej płynnego podziału drogi między samochodami prowadzonymi przez ludzi i sterowanymi robotami – mówi naszemu portalowi prof. Rus.

Model będzie teraz zastosowany do pieszych, rowerów i innych uczestników ruchu. Latem 2018 roku to właśnie z powodu braku znajomości ludzkich zachowań autonomiczny samochód poddany próbie przez Ubera zabił pieszą. System nie rozumiał, że ktoś może wejść na jezdnię, prowadząc rower.

Skip to content