Menu dostępności

Jak niezwykle prostym sposobem można oszukać autopilota AI w Tesli

Jak niezwykle prostym sposobem można oszukać autopilota AI w Tesli

Krążące w sieci nagranie ujawniło słabości systemu wspomagania kierowcy „Autopilot” Tesli, opierającego się na kamerach. Amerykański youtuber i były inżynier NASA Mark Rober opublikował film, w którym porównuje technologie wspomagania jazdy bazujące na kamerach oraz na laserowym systemie LiDAR, stosowanym w nowoczesnych pojazdach autonomicznych.

Prosty sposób na oszukanie sztucznej inteligencji w Tesli

O hakowaniu samochodów pisaliśmy na Kapitanie wielokrotnie. Wspomniany film obnaża słabości sztucznej inteligencji użytej do autonomicznego sterowania Teslą i stawia pod znakiem zapytania bezpieczeństwo takich systemów.

Eksperyment przeprowadzony przez Marka Robera miał na celu sprawdzenie, jak systemy autonomiczne samochodów radzą sobie z nietypowymi i potencjalnie niebezpiecznymi sytuacjami na drodze.

W jednym z testów na jezdni umieszczono specjalnie zaprojektowaną płachtę z nadrukowaną iluzją drogi, prowadzącą bezpośrednio na ścianę. System autopilota Tesli, który w dużej mierze opiera się na kamerach i analizie obrazu, został wprowadzony w błąd – uznał nadrukowaną drogę za rzeczywisty pas ruchu i z pełną prędkością 64 km/h wjechał prosto w przeszkodę. Ten test pokazuje, że same kamery mogą być niewystarczające do wykrywania tego typu zagrożeń, szczególnie jeśli obrazy są odpowiednio spreparowane, tak by oszukać system.

Źródło: YouTube/Mark Rober
Źródło: YouTube/Mark Rober

Oblany dwukrotnie test bezpieczeństwa z dzieckiem na drodze

Kolejnym testem była symulacja sytuacji, w której dziecko niespodziewanie wbiega na ulicę. W tym celu wykorzystano manekin o ludzkich proporcjach, który nagle pojawiał się przed pojazdem w trudnych warunkach atmosferycznych, takich jak mgła czy deszcz. System Tesli nie wykrył przeszkody na czas i nie podjął żadnych działań, co doprowadziło do potrącenia manekina. W praktyce oznacza to, że autonomiczne pojazdy mogą mieć poważne problemy z szybkim reagowaniem w sytuacjach wymagających błyskawicznej interpretacji dynamicznie zmieniającego się otoczenia. W przeciwieństwie do ludzi, którzy korzystają nie tylko ze wzroku, ale także z instynktu i doświadczenia, systemy oparte wyłącznie na kamerach mogą nie radzić sobie dobrze w niesprzyjających warunkach.

Źródło: YouTube/Mark Rober

Dla porównania, w tych samych testach sprawdzono pojazd wyposażony w system LiDAR (Light Detection and Ranging), który wykorzystuje laserowe czujniki do mapowania otoczenia w trzech wymiarach. LiDAR, w przeciwieństwie do kamer, nie bazuje na analizie obrazu, lecz na precyzyjnym pomiarze odległości do obiektów, co sprawia, że jest bardziej odporny na iluzje optyczne, złe warunki oświetleniowe i pogodowe. Pojazd wyposażony w LiDAR prawidłowo wykrył zarówno namalowaną iluzję drogi, jak i nagle pojawiające się dziecko, unikając kolizji. Eksperyment Marka Robera podkreśla więc istotny problem w obecnych systemach autonomicznych – jeśli bazują one jedynie na kamerach i algorytmach przetwarzania obrazu, mogą być podatne na błędy prowadzące do groźnych wypadków. Wdrożenie bardziej zaawansowanych technologii, takich jak LiDAR czy radar, mogłoby znacząco zwiększyć bezpieczeństwo autonomicznych pojazdów na drogach.

Porównanie testów bezpieczeństwa i wykrywania przeszkód na drodze w różnych warunkach jazdy z wykorzystaniem systemu LiDAR vs. analiza obrazu przez AI w Tesli przedstawia poniższe porównanie.

Źródło: YouTube/Mark Rober

Dlaczego Tesla nie używa LiDAR?

Tesla zdecydowała się zrezygnować z sensorów LiDAR na rzecz systemu opartego wyłącznie na rozpoznawaniu obrazu (computer vision). Powodów tej decyzji jest kilka – LiDAR to kosztowna technologia, generująca ogromne ilości danych do przetworzenia i często pełniąca jedynie funkcję uzupełniającą dla kamer. Elon Musk otwarcie skrytykował to rozwiązanie, określając LiDAR jako „zadanie dla głupca”.

Choć Tesla uznaje rozwój tej technologii za zbędny i nieopłacalny, decyzja ta budzi kontrowersje w kontekście bezpieczeństwa zarówno pasażerów, jak i pieszych. Ograniczenie systemu autonomicznej jazdy wyłącznie do kamer zwiększa ryzyko błędów w trudnych warunkach drogowych. Możliwe, że ta wirtualna ściana nie będzie ostatnią przeszkodą, na której utknie Tesla.

Pełne wideo z testów zobaczysz poniżej.

Popularne

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Nowa luka w Microsoft Teams – lepiej nie być zapraszanym…

Usługa Microsoft Teams stała się kluczowym narzędziem do komunikacji i współpracy w firmach na całym świecie. Z tego powodu wiele organizacji polega na zabezpieczeniach takich jak Microsoft Defender for Off...
Ważna zmiana w OWASP Top 10

Ważna zmiana w OWASP Top 10

OWASP, czyli Open Worldwide Application Security Project, zaproponowało nowe wydanie swojej klasycznej listy Top 10 ryzyk aplikacyjnych. Wersja z 2025 roku wprowadza kluczowe rozszerzenia dotyczące b...
Jak modele LLM automatyzują cyberprzestępczość

Jak modele LLM automatyzują cyberprzestępczość

Każdy Czytelnik Kapitana Hacka wie, że złośliwe LLM-y ułatwiają mniej doświadczonym cyberprzestępcom przeprowadzanie ataków. Potwierdzają to badacze z Palo Alto Networks, którzy przeanalizowali dwa niedaw...
Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Jak błąd w 7-Zip (CVE-2025-11001) daje hakerom dostęp do systemu Windows. Jest exploit

Odkryto niezwykle niebezpieczną dla użytkowników systemów Windows podatność. Błąd o numerze CVE‑2025‑11001 jest już częściowo wykorzystywany, a dotyczy popularnego programu 7-Zip. Polega na niewłaściwe...
Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Wizualizacja ścieżek ataku na Active Directory za pomocą narzędzia BloodHound

Krótko o narzędziu Bloodhound to narzędzie służące do wizualizacji i analizy powiązań w Active Directory. Dla atakującego jest niezastąpioną pomocą do znajdowania ścieżki ataku na najbardziej c...