Śmierć na drodze do automatyzacji pojazdów

Mimo rozwoju technologii, za wypadek nie skażemy przecież auta

fot. US CBS/x-news

W niedzielę, około 22 czasu lokalnego, w Tempe w stanie Arizona doszło do wypadku w trakcie testów autonomicznego auta firmy Uber. 49-letnia Elaine Herzberg weszła na ulicę w nieoznakowanym miejscu. Mimo że za kierownicą elektrycznego volvo XC90 siedział człowiek nadzorujący test auta, samochód nawet nie próbował hamować. Kobieta została potrącona, zmarła w szpitalu. To pierwszy taki wypadek spowodowany przez autonomiczne auto.

Szefowa lokalnej policji Sylvia Moir oceniła, że prawdopodobnie nawet gdyby samochód nie jechał w trybie autonomicznym, kierowca mógłby nie zdążyć zareagować. Ofiara wypadku, prowadząc rower, wyszła z cienia wprost na drogę, około 90 metrów od dobrze oświetlonego przejścia dla pieszych. Jak wskazuje korespondentka REO ze Stanów Zjednoczych, Magda Gacyk, może się okazać, że swoją rolę w wypadku miało też nie do końca jasne oznakowanie drogi. Herzberg szła brzegiem specjalnego pasa dla rowerzystów, z którego nie mogą korzystać przechodnie (jest tam znak ostrzegawczy), ale pas łudząco przypomina chodnik dla pieszych.

Jednak o winie konkretnej osoby przesądzi dalsze dochodzenie. Bo właściwie na kim spoczywa odpowiedzialność za taki wypadek? Na kierowcy? Na programiście? A może winna była 49-latka? – W Arizonie dopuszczono testowanie samochodów autonomicznych, jednak kierowca miał obowiązek czuwać i zareagować w sytuacji zagrożenia – ocenia doktor Wojciech Jerzy Bober, etyk z Uniwersytetu Warszawskiego, członek Polskiego Towarzystwa Oceny Technologii. Naukowiec przypomina sprawę z 2016 roku, kiedy to kierowca Tesli zginął w trakcie jazdy z włączonym autopilotem. Tam sytuacja była jednoznaczna, ponieważ kierowca był zobowiązany do ciągłego monitorowania samochodu poruszającego się w trybie autopilota.

W przypadku Ubera jeszcze nie wiemy, dlaczego nadzorujący testy nie zareagował. Być może kamera nie rozpoznała zagrożenia, kierowca mógł też patrzeć gdzieś indziej, np. w ekran telefonu, być może sytuacja byłaby równie trudna także dla normalnie prowadzącego kierowcy. Samochód jechał około 40 mil/h (56km/h), o pięć więcej niż dopuszczalna prędkość na tamtym terenie. Nie było śladów hamowania. Doktor Bober zwraca uwagę, że wedle dostępnych danych, wymaganych przez prawo stanu Kalifornia i dotyczących samochodów Waymo (Uber nie testował samochodów w Kalifornii) sytuacja, w której kierowca musi przejąć kontrolę nad tego typu autem zdarza się średnio co 5600 mil (9016 km). To na tyle rzadko, że nadzorujący testy mogą nie być wystarczająco skupieni. Jednak nie zwalnia ich to z odpowiedzialności.

Auto, które zbiera doświadczenia
Samochody autonomiczne nie muszą bazować na gotowych algorytmach, ale z pewnością będą działać w trybie samouczenia się. Problem, kto wtedy jest odpowiedzialny za kolizję na drodze, może jeszcze długo nie być rozwiązany, bo tego typu dyskusje trwają już od co najmniej 25 lat. Zdaniem doktora Bobera w przypadku samouczących się samochodów nie można przypisać odpowiedzialności wyłącznie programiście. Jako przykład podaje dwa auta z tej samej linii produkcyjnej, które trafiają do osób o różnych temperamentach. Gdy po trzech latach samochody trafią do komisu, potencjalny nabywca może być zdziwiony, że teoretycznie takie same auta jeżdżą inaczej. – W takim przypadku obarczanie programisty odpowiedzialnością moralną jest skomplikowane. To, co on robi, to jest stan wyjściowy, ale to, co osiągamy, jest już skutkiem okoliczności. Filozofia może pomóc rozstrzygnąć ten problem, ale kluczowe będą tu rozwiązania prawne – podkreśla naukowiec. Odpowiedzialny będzie musiał być człowiek, bo mimo coraz większego rozwoju technologii nie ukarzemy przecież auta. Nieco inaczej wygląda sytuacja, gdy zostanie wykazany oczywisty błąd w oprogramowaniu.

Samochód Electric Volvo XC90 SUV wykorzystywany do testów jazd autonomicznych przez Ubera.

Etyk podaje przykład dobrze obrazujący sytuację. – Kilka lat temu doszło do tragedii, kiedy to samochód sam ruszył niezależnie od poczynań kierowcy i zabił nastolatka otwierającego drzwi garażu. Dochodzenie dowiodło, że był to błąd oprogramowania. W sytuacji tak fatalnego błędu trzeba ocenić, czy producent dokonał wszelkich starań, czy oprogramowanie było odpowiednio dobrze zrobione, przetestowane, skontrolowane – wyjaśnia Bober. Natomiast w pewnych sytuacjach następuje rozmycie odpowiedzialności i trudno jest wskazać wyłącznego winowajcę.

Takie samochody nie sprawdzają się w mieście
Wykładowca wskazuje, że trwają testy podobnych rozwiązań w logistyce i transporcie zbiorowym. Są już konwoje ciężarówek, w których w pierwszej siedzi kierowca, a dalsze samochody automatycznie powtarzają jego manewry. Jest też pomysł na autonomiczne autobusy szkolne, ale etyk uważa, że w najbliższym czasie ludzie nie odważą się skorzystać z takiego rozwiązania. Na razie sensownie działają pojazdy proste, dowożące ludzi do kolejnego środka transportu, np. pojazdy szynowe, które bez kierowcy dowożą pasażerów na odpowiedni terminal lotniska. – Samochody autonomiczne mogą sprawdzić się na autostradach, ale nie w miastach. Czym innym jest ciężarówka jadąca po znanych trasach szybkiego ruchu z hurtowni do hurtowni, a czym innym autobus poruszający się w wysoko ustrukturyzowanym otoczeniu takim jak miasto – zwraca uwagę Wojciech Jerzy Bober. Problem wypadku w Arizonie polega też na tym, że takie samochody mają wgraną dokładną mapę okolicy, w której mają jechać, by nie musiały polegać wyłącznie na GPS-ie. Samochód zna wstępnie środowisko, w którym się będzie poruszał. A to prowadzi do braku reakcji na nietypowe sytuacje, bo przecież rowerzystki nie było na mapie.

Uber zawiesza testy
W reakcji na wypadek władze Ubera oświadczyły, że do momentu wyjaśnienia sprawy zawieszają testy w Stanach Zjednoczonych oraz w Kanadzie. Nie należy się jednak spodziewać, że wypadek zablokuje rozwój samochodów autonomicznych. W tej chwili każdy stan decyduje, w jakim zakresie pojazdy autonomiczne mogą poruszać sie po drogach. Najbardziej przyjazne warunki są w Arizonie. – Decyduje o tym dobra, niesprawiająca niespodzianek pogoda, niezatłoczone drogi i zupełny brak zakazów co do testowania self-driving cars – mówi Magda Gacyk. Nic nie wskazuje na to, by miało się to zmienić. Jak powiedział Reutersowi Kevin Biesty, dyrektor ds. komunikacji w stanowym wydziale transportu, obecne regulacje są wystarczające. Zaznaczył jednak, że w przyszłości na pewno pojawią się kwestie wymagające zmian prawnych.

Podobnie uważa dr Bober. Jego zdaniem zostaną wprowadzone dodatkowe procedury bezpieczeństwa, zwiększy się zewnętrzna kontrola. – To była zupełnie niepotrzebna śmierć, która jednak pokazała, że samochody autonomiczne wymagają dalszych badań. Przykro to powiedzieć, ale ci, którzy inwestują w rozwój takiej technologii, muszą wpisać w ten proces wypadki śmiertelne. Powinniśmy starać się, żeby technika była w miarę niezawodna, ale w początkowej fazie nie unikniemy kolejnych strat – przyznaje.

Na dwa dni przed wypadkiem firmy Uber i Waymo zaapelowały do Kongresu o wprowadzenie ustawy, która pozwoliłaby na przyspieszenie wprowadzania aut autonomicznych w Stanach (projekt został już zaakceptowany przez Izbę Reprezentantów i trafił do Senatu). Wypadek prawdopodobnie opóźni ten proces. Ten czas będzie można wykorzystać na testowanie samochodów w sztucznym środowisku. – Samochody przechodzą testy na zamkniętym terenie, który tylko symuluje miasto i przedmieścia. Dzięki temu, że komputery są coraz szybsze, a programy coraz lepsze, za jakiś czas może będą wychwytywały również nagłe wydarzenia na drodze – ocenia naukowiec z UW.

Problem wyboru, czyli kogo ma skrzywdzić auto – nas czy przechodnia?
Przy programowaniu auta trzeba podjąć decyzję, co się stanie, gdy na drodze dojdzie do sytuacji zerojedynkowej: albo samochód przejedzie przechodnia, albo doprowadzi do wypadku pasażera. – Z badań wynika, że ludzie chcieliby, żeby po ulicach poruszały się samochody, które będą minimalizowały straty, ale kupiliby samochód, który będzie za wszelką cenę ich ratował. Trudno tu o dobry wybór – uważa dr Bober. Być może to ustawodawstwo będzie nakazywało ujawnić producentowi założenia algorytmu dotyczące właśnie takich wyborów. Chcielibyśmy, żeby auto zachowywało się jak człowiek, tyle że człowiek w życiu codziennym posługuje się mieszanką teorii etycznych. – Już dzisiaj wiemy, że problemy moralne przetwarzamy rozmaitymi obwodami neuronalnymi w mózgu. I gdyby wyłączyć jeden z obwodów, to byśmy podejmowali decyzje zgodnie z jakąś teorią. A nasze decyzje nie są czysto utylitarne, czyli promujące dobro, rozumiane jako skutki, ani nie są też deontologiczne, czyli promujące pewne zasady. Nie da się raczej na razie sprawić, by auto w pełni naśladowało człowieka – dodaje etyk. Jego zdaniem w przyszłości ten problem być może zniknie, bo samochody będą się poruszały w innym środowisku. – Jeśli samochody autonomiczne będą rozpowszechnione, to po pierwsze będą się ze sobą komunikowały, a po drugie będą się komunikowały z pewnymi elementami strukturalnymi, takimi jak np. znaki drogowe czy sygnalizacja przejścia dla pieszych – ocenia. W dalszej perspektywie można sobie wyobrazić, że będą się wymieniały informacjami między sobą, czyli np. w sytuacji korka będą mogły się zsynchronizować i rozładować zator.

Jeśli samochód będzie przewidywał niebezpieczeństwo dla pasażerów, to inne mogą być też środki bezpieczeństwa zastosowane w nich w przyszłości. –Nie będzie tak, że poduszka powietrzna wyskakuje dopiero w momencie poważnego uderzenia. Samochód będzie mógł ją uruchomić zanim dojdzie do kolizji – dodaje Bober. Dzięki temu być może uda się znaleźć trzecie wyjście, żeby można było uratować i pasażera, i pieszego, który tak jak Elaine Herzberg, niespodziewanie wtargnie na jezdnię. Bo przecież założeniem samochodów autonomicznych ma być właśnie znacząca redukcja wypadków.

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here