Ifølge en gruppe kinesiske forskere skal der ikke avanceret hackerteknologi til at snyde autopiloten i Teslas biler. Et simpelt og nærmest usynligt klistermærke på vejen kan tvinge bilen over i den modkørende trafiks vejbane, hævder de i en ny rapport (hent som PDF ).
Teslas autopilot er den semi-selvkørende teknologi, der gør det muligt at få en Tesla til automatisk at følge en vej og håndtere visse aspekter af kørslen uden chaufførens indblanding. Vi har tidligere testet systemet – det kan du se i en video her .
De kinesiske forskere har snydt systemet ved at placere tre små klistermærker på kørebanen som hvide midterstriber. Ved at lade klistermærkerne markere at vejen drejer mod venstre, selv om den rent faktisk fortsætter ligeud, snydes autopiloten og drejer bilen over i den forkerte vejbane.
De kinesiske forskere har udgivet denne video. Den specifikke fejl i systemet kan udnyttes fordi Teslas ingeniører har designet autopilot-systemet, så det også registrerer utydelige vejstriber; de har trænet AI’en til at godtage brudte og utydelige vejstriber som valide markører. Det er der i bund og grund ikke noget galt i – tværtimod. Med mindre altså, at kinesiske forskere putter klistermærker på vejen. Tre hvide klistermærker var nok til at autopiloten godtog dem som en vejbanemarkør og fik bilen til at skifte retning.
Testen blev udført på en Tesla Model S med Autopilot Hardware version 2.5 og software-version 2018.6.1.