19.11.2017
PL EN
10.11.2017 aktualizacja 10.11.2017
Ludwika Tomala
Ludwika Tomala

Czy zaufamy autonomicznym samochodom? I jak one mają ufać nam?

Fot. Fotolia Fot. Fotolia

W projektowaniu autonomicznych samochodów bardzo istotna jest kwestia zaufania. W jak dużym stopniu możemy zaufać maszynie? I czy ona zawsze powinna ufać kierowcy? Takimi zagadnieniami zajmuje się prof. Marta Kwiatkowska z Oksfordu.

Czy zaufałbyś/zaufałabyś autonomicznemu samochodowi na tyle, aby wysłać nim swoje dzieci do szkoły? Problem zaufania to istotna kwestia, z którą muszą się zmierzyć producenci autonomicznych samochodów. Samochodów, które sterowane są dzięki algorytmom. Badaniem tej tematyki zajmuje się informatyk prof. Marta Kwiatkowska, Polka z brytyjskiego Uniwersytetu w Oksfordzie. Swoje badania prezentowała w Cambridge podczas konferencji Science: Polish Perspectives.

Dostępne na rynku rozwiązania (np. autopilot Tesli) wymagają jeszcze obecności i kontroli kierowcy. Jednak niektórzy kierowcy są bliscy paniki, kiedy jadą z włączonym autopilotem. Tu zaufania do maszyny zdecydowanie brakuje. Ale są i tacy, którzy - wbrew wskazaniom producenta - drzemią za kierownicą - np. w korku na autostradzie - zdając się całkowicie na działanie algorytmów.

Prof. Kwiatkowska przyjęła definicję, że zaufanie to gotowość jednej strony - ufającego - by wystawić się na skutki działania drugiej strony. Zaufanie bazuje na przeświadczeniu, że druga strona wykona konkretne działanie, ważne dla ufającego, nawet, jeśli nie będzie obserwowana czy kontrolowana.

Mówiła o dylematach, z którymi prędzej czy później trzeba się będzie zmierzyć podczas pisania algorytmów do pojazdów autonomicznych. Czy kiedy na drodze auta pojawia się grupa wielu pieszych i samochód nie ma szans wyhamować, powinien poświęcić życie swojego pasażera, np. gwałtownie skręcając i uderzając w drzewo? A co, jeśli są dwie opcje - uderzyć w jedną osobę albo w kilka? Kiedy takie sytuacje zdarzają się w życiu, kierowca musi podjąć decyzję w ułamku sekundy. Nie zdąży nawet się zastanowić. A twórca algorytmu będzie pewnie musiał uwzględnić i takie ewentualności.

W życiu zdarzają się osoby, które są skłonne poświęcić swoje życie, aby ocalić innego, ale i takie, które nie zdecydują się na taki krok. "Którym samochodem wolelibyście jechać - takim, który poświęca życie pasażera, czy takim, który gwarantuje jego bezpieczeństwo?" - pytała prof. Kwiatkowska. I dodała, że jest to również problem dla producenta, który przecież powinien pasażera bronić przed zagrożeniami.

Z zaufaniem wiąże się też to, że auto - w potencjalnej nieskończoności danych wejściowych - może popełniać błędy. Nie jest więc wykluczone, że np. maszyna mylnie zinterpretuje sygnały z kamer. "Czasami jeden piksel może zmienić klasyfikację obrazu" - powiedziała Kwiatkowska. I wyjaśniła, że taki drobny błąd może sprawić, że auto potraktuje światło czerwone, jako zielone.

Badaczka zwróciła też uwagę na kwestię zaufania maszyny do kierowcy. "Ludzie potrafią być naprawdę zuchwali" - skomentowała. Dlatego trzeba się też zastanowić, w jakiej sytuacji auto nie powinno ufać kierowcy. Opowiadała, że czasami kierowcy wystawiają auto na próbę i wydają mu niemądre polecenia. Jak daleko samochód powinien ufać pasażerowi?

Prof. Kwiatkowska powiedziała, że w następnym kroku - jeśli chodzi o problem zaufania ludzi wobec maszyn - trzeba będzie połączyć siły: inżynierów, przedstawicieli nauk społecznych oraz osób, które mają wpływ na kształtowanie polityki.

Konferencja Science: Polish Perspectives, która odbywała się 3 i 4 listopada, miała na celu integrację środowiska polskich naukowców pracujących za granicą. Portal Nauka w Polsce był jednym z patronów medialnych wydarzenia.

Autor: Ludwika Tomala

PAP - Nauka w Polsce

lt/ ekr/

Partnerzy

Copyright © Fundacja PAP 2017