Trwa ładowanie...
d21atn9

Autonomiczne samochody muszą wiedzieć, kogo zabić

Głosuj
Głosuj
Podziel się
Opinie
Autonomiczne samochody muszą wiedzieć, kogo zabić
(CC BY-SA 3.0/Appirion)
d21atn9

Autonomiczne samochody, czyli takie, za których prowadzenie odpowiada komputer, to nie jest już temat do powieści science-fiction. Wiele koncernów motoryzacyjnych i Google już prowadzą zaawansowane testy takich pojazdów. Zatem możliwość relaksu podczas podróży autem z pracy do domu to nie tak odległa przyszłość. Jednak do tego czasu trzeba będzie rozwiązać jeden bardzo poważny problem – i to nie techniczny, a moralny.

Kolejne amerykańskie stany zmieniają przepisy, aby umożliwić jazdę autonomicznym samochodom. Ostatnio takie pojazdy do ruchu oficjalnie dopuściła Kanada. Auta tego typu stworzone przez Google pokonały do tej pory łącznie ponad milion kilometrów. Zatem technologia już istnieje i działa. Zacznijmy jednak od tego dlaczego powstała. Na świecie nie brakuje fanów motoryzacji, dla których jazda samochodem to ogromna przyjemności. Jednak dla większości auta to jedynie przedmioty, które transportują ich z punktu A do B. Takie osoby chętnie zrezygnują z obowiązku kierowania samochodem i w tym czasie odpoczną albo zajmą się innymi czynnościami.

Wygoda to tylko jeden z powodów rozwoju pojazdów autonomicznych. Drugim jest bezpieczeństwo. To ludzkie błędy są przyczyną większości wypadków. Niezależnie czy chodzi o nieuwagę, czy rozmyślne łamanie przepisów – komputer tak się nie zachowa. Ostatnie testy pokazały wręcz, że stłuczki, jakie miały miejsce z udziałem autonomicznych samochodów, były spowodowane nienaturalną ostrożnością takich pojazdów. Zatem jest to rozwiązanie idealne? Niekoniecznie.

d21atn9

Już pozostawiając na boku samą przyjemność z jazdy podczas prowadzenia samochodu, powstają problemy natury prawnej i moralnej. Pierwszy z nich dotyczy odpowiedzialności w razie awarii (producenci jednak deklarują, że wezmą ja na siebie), ale to drugi jest zdecydowanie poważniejszy. Naukowcy zwracają uwagę, że mogą zdarzyć się sytuacje, gdy tragedia jest nie do uniknięcia. Np. grupa pieszych wejdzie wprost pod nadjeżdżający samochód, a jedyny sposób ominięcia ich będzie oznaczał śmierć pasażera auta. W takiej sytuacji powstaje pytanie, co powinien zrobić komputer – czy za wszelką cenę chronić osobę znajdującą się w samochodzie, czy zdecydować, że śmierć jednej osoby jest lepsza niż większa liczba ofiar wśród pieszych. Choć sytuacja taka może być mało prawdopodobna, to programiści będę musieli ją uwzględnić i zadecydować jaki wariant wybrać.

Człowiek za kierownicą jest w stanie każdorazowo przeanalizować sytuację i podjąć decyzję zgodnie z własnym sumieniem, trudno też go oceniać za postępowanie w takiej sytuacji, jednak w przypadku maszyny zasady muszą być ustalone wcześniej. Jak informuje „MIT Technology Review”, problemem zajęli się naukowcy z Uniwersytetu w Tuluzie. Pracujący tam Jean-Francois Bonnefon uważa, że na przyszłość samochodów autonomicznych w dużym stopniu wpływ będzie miała społeczna akceptacja.

Jako przykład przedstawia pytanie o przykładową sytuację, gdy zginąć może 10 pieszych albo pasażer samochodu. Naturalnym wyborem w tej sytuacji może być ograniczenie liczby ofiar, czyli poświęcenia osoby w pojeździe. Jednak z drugiej strony świadomość, że autonomiczny samochód jest w stanie zabić swoich pasażerów może prowadzić do rezygnacji ludzi z auta
tego typu. W konsekwencji na drogach będzie mniej bezpiecznych pojazdów sterowanych przez komputery, a zatem tak naprawdę będzie ginąć więcej osób niż w sytuacji, gdyby samochód był zaprogramowany, aby chronić pasażerów za wszelką cenę.

d21atn9

Zmieniając szczegóły dotyczące hipotetycznego zdarzenia, francuscy naukowcy zapytali grupę 700 osób, jak powinien w takiej sytuacji postąpić autonomiczny samochód. Większość respondentów popierało utylitarystyczne podejście, że najważniejsze jest zmniejszenie liczby ofiar, jednak zarazem sami wyrażali niechęć jazdy takim samochodem. Zatem ludzie zgadzali się na poświęcenie innych, aby uratować większą liczbę osób, ale tylko jeśli sami nie znajdowaliby się w takim aucie.

Bonnefon zwraca też uwagę, że zagadnienia te są bardzo skomplikowane. Np. jest akceptowalne, aby samochód unikający zderzenia z motocyklistą uderzył w ścianę, gdyż pasażer auta jest lepiej chroniony, ale podejście zmienia się, jeśli na pokładzie są dzieci. Zauważa też, że możliwe jest, aby producent oferował różne wersje oprogramowania i wybór ich moralności zależałby od klienta kupującego samochodów. Pytanie tylko wtedy, kogo należy wtedy winić za następstwa wypadków.

Technologia autonomicznych samochód jest już niemal gotowa, a kolejne bezpieczne pokonywane tysiące kilometrów pokazują zalety takiego rozwiązania. Jednak cały czas nie rozwiązano kwestii moralnych, które mogą wywołać spory opór przed pojazdami sterowanymi przez komputer.

(źródło: MIT Technology Review)

d21atn9

sj, moto.wp.pl

d21atn9

Podziel się opinią

Share
d21atn9
d21atn9
Więcej tematów