Komentarze
Kto zawinił?
Maciek Płochocki
Kto zawinił?

Perspektywa autonomicznych samochodów polskim kierowcom musi wydawać się równie odległa co stan Kalifornia, będący kolebką i stolicą tego typu pojazdów. Tamtejsi uczestnicy ruchu, oprócz korków, mają na głowie flotę samochodów-robotów, które na co dzień poruszają się po kalifornijskich drogach. W momencie gdy od seryjnej produkcji pierwszych automatycznych aut dzielą nas raptem 3-4 lata, powraca dyskusja o podstawowych zasadach ich działa, bezpieczeństwie decyzji podejmowanych na drodze przez sztuczną inteligencję i odpowiedzialności robotycznych uczestników ruchu za wypadki

Pierwsze pojazdy autonomiczne (poruszające się po drogach bez pomocy żywego kierowcy) muszą być maksymalnie bezpieczne, inaczej opinia publiczna zmiażdży je krytyką. Na pewno nie unikną wypadków (z winy innych kierujących lub własnej). Gdy już do tego dojdzie kluczowe będzie wyjaśnianie przyczyn. Jeśli winna okaże się maszyna producent musi wykazać się 100 proc. transparentnością. Problem w tym, że nawet twórcy pojazdu mogę nie mieć pojęcia dlaczego sztuczna inteligencja sterująca pojazdem zachowała się w kryzysowej sytuacji w określony sposób.

Wynika to z zasady działania stosowanej w samochodach AI, która oparta jest na uczeniu maszynowym. W dużym uproszczeniu, polega ono na dostarczeniu maszynie ogromnej liczby przykładów zachowań kierowców. Po ich przeanalizowaniu AI staje się zdolna do podejmowania samodzielnych decyzji - także w sytuacjach, których dostarczone przykłady nie obejmowały. Ich analiza odbywa się w sztucznej sieci neuronowej, naśladującej w działaniu ludzki mózg. Podobnie jak nie potrafimy odtworzyć procesu decyzyjnego mózgu tak nie możemy prześledzić toku myślenia AI - podkreślają krytycy wykorzystania uczenia maszynowego w autonomicznych pojazdach. Jeśli robot-auto wjedzie w drzewo by uniknąć kolizji z innym uczestnikiem ruchu twórcy sztucznej inteligencji będą mogli jedynie rozłożyć ręce i powiedzieć, że najwyraźniej było to najlepsze z wyjść. Czy takie tłumaczenie usatysfakcjonuje poszkodowanych pasażerów autonomicznego pojazdu? Być może. Z pewnością opinia publiczna będzie miała używanie.

Jaką mamy alternatywę? Krytycy uczenia maszynowego wskazują na bardziej tradycyjne podejście - maszynę działającą w oparciu o zaprogramowany zestaw zachowań i reguł. To bardzo problematyczne bo zaprojektowanie algorytmów, które obejmą każdy możliwy drogowy scenariusz jest praktycznie niemożliwe. Co więcej składa na barki inżynierów problemy natury etycznej - to twórcy algorytmów, programując zachowanie pojazdu, będą decydować o życiu i zdrowiu uczestników ruchu. Może dość do sytuacji, w której samochody różnych producentów będą kierować się innymi wskazówkami od programistów. Gdy na ulicach znajdą się równocześnie aut sterowane przez AI oparte na algorytmach oraz takie uczone maszynowo, brak kompatybilności obu rozwiązań przełoży się na spadek bezpieczeństwa. Wiedzą o tym sami producenci aut i głośno nawołują do stworzenia odpowiednich przepisów regulujących zachowanie AI, także na poziomie ogólnokrajowym.

Równolegle z tą dyskusją kalifornijski DMV (Department of Motor Vehicles) wydaje pozwolenia na użytkowanie kolejnych autonomicznych pojazdów. Chcący je testować są jednocześnie zobowiązani do przedstawiania raportów o zdarzeniach drogowych z udziałem robotów na kółkach. W ubiegłym roku, tylko w Kalifornii, zanotowano 2578 sytuacji, w których człowiek musiał przejąć od maszyny sterowanie autem. Google prowadzi nawet symulacje jak rozwinęłaby się sytuacja gdy AI nie zostało wyręczone przez kierowcę. Dzięki temu wie czy tzw. disengagement był uzasadniony. Większość niebezpiecznych zdarzeń wynika z poczynań innych kierujących, ale w pewnych sytuacjach zawodzi maszyna. Autonomiczne auta mają, np. problem z rowerzystami, którzy zachowują się na jezdni zupełnie inaczej niż samochody. Problemem jest też klasyfikacja mniejszych obiektów, które mogą znaleźć się na drodze.

Zawodność sztucznej inteligencji to z resztą nie jedyne zagrożenie. Bardzo poważnie podchodzi się do tematu możliwego uprowadzenia auta przez hakera. Naszpikowany elektroniką pojazd jest aż nadto narażony na cyber-włamanie. Użycie go w roli broni podczas ataku terrorystycznego na lata zawiesiłoby dyskusję o wprowadzeniu automatycznych samochodów do powszechnego użycia. Opór stawią grupy społeczne widzące w nowej technologii zagrożenie dla swych miejsc pracy. Pod ich naciskiem powstać mogą przepisy zakazujące wjazdu na drogi samodzielnym pojazdom. Szczególnie w krajach, które z autonomicznej rewolucji nie mają żadnych korzyści.


Maciek Płochocki

Zobacz również