Wiadomości

Trzy naklejki na drodze wystarczą by oszukać Teslę. Autonomia samochodów jest bardzo odległa

Wiadomości 02.04.2019 151 interakcji
Grzegorz Karczmarz
Grzegorz Karczmarz 02.04.2019

Trzy naklejki na drodze wystarczą by oszukać Teslę. Autonomia samochodów jest bardzo odległa

Grzegorz Karczmarz
Grzegorz Karczmarz02.04.2019
151 interakcji Dołącz do dyskusji

Badacze z chińskiej firmy Tencent Keen Security Lab odkryli jak niewiele trzeba by oszukać Autopilota Tesli. Wystarczą trzy plamki na drodze. A wydawało się, że autonomiczna jazda jest już tak blisko.

Panowie z Tencent Keen Security Lab pochwalili się ostatnio swoimi badania nad samochodami Tesli. Udało się im uruchomić wycieraczki z zewnątrz pojazdu oraz zmylić Autopilota, tak by gwałtownie zmienił tor jazdy. To o tyle ciekawe, że nie musieli włamywać się do systemów pojazdu, była to bowiem ingerencja w otoczenie. Zaczęli też sterować Teslą przy użycia pada do gier. Swoim dokonaniom poświęcili obszerny raport, w którym szczegółowo opisali jak udało się im oszukać systemy.

Trzy kapnięcia z pędzla zmylą Autopilota i zmieni on kurs

To prawda, choć oni użyli naklejek. Żeby dojść do tego odkrycia, chińscy badacze dokładnie zbadali jak działa system Autopilot Tesli. Przetwarza on to co widzi kamera i trzeba przyznać, że z rozpoznawaniem linii na drodze radzi sobie bardzo dobrze. Nawet częściowo zatarte i słabo widoczne linie trafiają do systemu jako pełnoprawne granice pasa ruchu. To pozwala utrzymać samochód na jednym pasie, pomiędzy liniami.

To rozpoznawanie działa aż za dobrze. Badaczom nie udało się oszukać Tesli podsyłając do systemu pliki graficzne z rozmazanymi liniami jako obraz z kamery. Dowiedli, że trudno jest uszkodzić pasy na jezdni na tyle mocno, by poważnie zdezorientować system. Ale udało się coś zupełnie innego, sprawiono, że system zaczął nadinterpretować. Wystarczyło nakleić na drodze trzy punkty w poprzek pasa ruchu, by system uznał je za linię i skierował samochód w niepożądanym kierunku.

Lepiej żeby samochody malujące pasy na autostradzie dobrze myły pędzle, bo wystarczy kilka kapnięć a Autopilot zbacza z drogi. Istotne w ich eksperymencie jest to, że nie trzeba się włamywać do Tesli, wystarczy drobna zmiana w otoczeniu. Na dowód, oprócz raportu, jest też film.

Włączanie wycieraczek telewizorem nie jest zbyt praktyczne

Inny sposób na oszukanie Tesli jest nieco mniej spektakularny i już nie tak niebezpieczny. Ten sam raport opisuje możliwość oszukania wycieraczek Tesli. Ich mechanizm bazuje na obrazie z przedniej kamery. Udało się go zakłócić wyświetlając właściwy obraz z telewizora tuż przed nią. Ponownie wzbudzono jeden z systemów Tesli bez ingerencji w niego, jedynie zmianą warunków otoczenia.

autopilot Tesla oszukany

Tesla już zareagowała na te odkrycia, komentując, że przystawianie telewizora do szyby pojazdu nie jest sytuacją spotykaną w codziennym życiu i nie wpływa na bezpieczeństwo kierowców Tesli.

Neguje również możliwość sterowania Teslą z wykorzystaniem pada do gier. Według Tesli sprawa jest już nieaktualna, niebezpieczeństwo zażegnano już dawno temu aktualizacją systemu.

Najmniej wiarygodnie wypada wytłumaczenie Tesli w sprawie możliwości oszukania Autopilota naklejkami na jezdni. Odpowiedź producenta to ponownie brak odzwierciedlenia zagrożenia w normalnych warunkach użytkowania pojazdu. Poza tym, kierowca powinien cały czas czuwać i obserwować sytuację na drodze. Moim zdaniem białe plamy na drodze są jak najbardziej rzeczywistą sytuacją z jaką może zetknąć się autonomiczny system. I nie jest na to gotowy.

Pilnuj aktualnego firmware w swoim samochodzie i czystości autostrady, a będziesz bezpieczny. Chyba, że samochód postanowi unicestwić cię sam, bez niczyjej pomocy.

Autopilot świetnie oszukuje się sam

Keen Lab dowiodło, że system Tesli bazuje na rozpoznawaniu linii przy podejmowaniu decyzji jak zachować się na drodze. Potwierdza to ostatnie zdarzenie na amerykańskiej autostradzie, bo nie trzeba uciekać się do hakowania systemów Tesli by spowodować wypadek.

autopilot Tesla oszukany

Tesla, w połączeniu z błędem ludzkim, doskonale radzi sobie sama. Przekonał się o tym ostatnio nieuważny kierowca Modelu S, który zbytnio zaufał Autopilotowi na autostradzie. Z powodu remontu drogi, linia ciągła stała się nagle betonową barierą i samochód o nią zawadził. Autopilot zachował się prawie całkiem prawidłowo, bo trzymał się wytyczonych linii. Nie zareagował kierowca, bo zbytnio zaufał systemowi. Założył, że rozpozna on przeszkodę i odsunie samochód od barier. I było to błędne założenie, podobnie jak to, że samochód jest bezpieczną twierdzą.

Zhackowanie Tesli wydaje się być proste

Nie trzeba nawet ogłaszać konkursu na najlepszego włamywacza, jak zrobiła to ostatnio Tesla. Zwycięzca wygrał samochód. Ale jeśli ktoś naprawdę czuję potrzebę, to poradzi sobie i bez takiej zachęty.

Niedawna aktualizacja Tesli przyniosła nową funkcję – rozpoznawania koloru świateł drogowych. Na razie jako przypomnienie i ostrzeżenie, a dopiero w przyszłości z funkcją automatycznego zatrzymywania się na czerwonym świetle. Jednak niecierpliwy użytkownik odblokował ją sobie sam i efektami podzielił się w sieci.

System rozpoznawania świateł nie działa jeszcze idealnie, więc to dobrze, że nie jest już przedstawiany jako ułatwiająca życie funkcja. Dostarczył za to kolejnego dowodu, że dla chcącego nic trudnego, ponownie posłużono się systemem Tesli bez jej zgody. Pokazał też, że te pozory autonomii, z których można skorzystać na autostradzie, wciąż są dalekie od zastosowań w ruchu miejskim.

Autonomia bajkopisarzy

Autopilot Tesli, który jest obecnie oferowany, niewiele różni się od systemów innych producentów. To głównie aktywny tempomat i asystent utrzymywania pasa ruchu. Magia, czyli zmienianie pasów ruchu według wskazań nawigacji, działa dopiero po wykupieniu opcji Full Self-Driving Capability, czyli opcji autonomicznej jazdy. A takie zachowanie samochodu wciąż wymaga potwierdzenia wykonania manewru przez kierowcę dotknięciem kierownicy.

Elonowi Muskowi zdarzało się już twittować, że Tesle są w pełni autonomiczne na autostradach, co nie jest prawdą. Autopilota można sklasyfikować zaledwie jako drugi poziom autonomii w pięciostopniowej skali. Obecnie, Tesla poprzez zmiany na swojej stronie zdaje się spuszczać z tonu w sprawie autonomii i nie udaje już, że czeka ona tuż za rogiem.

Badania Keen Lab i wypadki z udziałem Autopilota potwierdzają, że lepiej o tym nie zapominać i korzystając ze wsparcia systemów, lepiej wciąż uważać co dzieje się na drodze, nawet jeśli mamy nowoczesny samochód, który sam utrzymuje tor jazdy na trasie (niekoniecznie Teslę). Obecnie całkiem łatwo jest wpłynąć na autonomiczne systemy nawet nie dokonując włamania. 

Musisz przeczytać:

Musisz przeczytać

Autoblog na Instagramie

Autoblog na Instagramie