Resulta que es realmente fácil engañar al piloto automático de Tesla con un proyector barato

Resulta que es realmente fácil engañar al piloto automático de Tesla con un proyector barato

  • Investigadores de Georgia Tech y la Universidad Ben-Gurion del Negev han utilizado un proyector barato para engañar al sistema de piloto automático de Tesla.
  • Al crear falsos positivos, conocidos como “objetos fantasmas”, el equipo hizo que el sistema de conducción automática creyera que vio a un peatón en la carretera y señales de límite de velocidad en los árboles.
  • Todo demuestra que los sistemas de visión por computadora pueden no ser tan robustos como nos hacen creer.

    Es inquietante imaginar que un truco de $ 300 podría engañar a su sistema de piloto automático Tesla considerablemente más costoso, y sin embargo, un equipo de investigadores de la Universidad Ben-Gurion del Negev y Georgia Tech lo han logrado.

    Un sistema de proyector barato que muestre señales de límite de velocidad falsas en los árboles o que ilumine una figura similar a Slenderman en la carretera puede en realidad obligar al piloto automático a cambiar su comportamiento, ajustando la velocidad a las “señales de tráfico” y disminuyendo la velocidad para lo que cree que podría ser un peatón (no importa) el hecho de que el auto todavía sobrepasa la proyección).

    Estos llamados “objetos fantasmas” prueban que la visión por computadora todavía tiene un largo camino por recorrer antes de que los autos autónomos puedan ser realmente confiables como alternativas para el transporte público o la propiedad personal de automóviles. En consecuencia, los investigadores se refieren a sus esfuerzos como un “desafío perceptivo”.

    Pero este experimento no se trata de hacer el mono: es un peligro real de seguridad, señalan los investigadores en un nuevo artículo.

    “Mostramos cómo los atacantes pueden explotar este desafío perceptivo para aplicar ataques fantasma … sin la necesidad de acercarse físicamente a la escena del ataque, proyectando un fantasma a través de un dron equipado con un proyector portátil o presentando un fantasma en una cartelera digital pirateada que se enfrenta a Internet y se encuentra cerca de las carreteras “, escriben en abstracto.

    Ataques fantasma

    imagen

    Ben Nassi

    En Beerseba, Israel, sede de la Universidad Ben-Gurion del Negev, Ben Nassi, autor principal del papel del proyector, usó un proyector barato que funciona con baterías y un dron para proyectar una imagen de la aterradora figura en el pavimento. Quería ver si podía crear un escenario de suplantación de identidad que cualquier hacker pudiera replicar fácilmente sin tener que revelar su identidad.

    Nassi probó su teoría contra el piloto automático de Tesla, así como con Mobileye 630 PRO, otro de los sistemas automáticos más avanzados, que se usa en automóviles como el Mazda 3. Proyectó una imagen de un vehículo en la calle, que el Modelo X recogido en; creó señales de límite de velocidad falsas, que fueron detectadas; e incluso creó falsas líneas de calles que obligaron al Tesla a cambiar de carril.

    Todos estos son ejemplos de “objetos fantasmas”, que Nassi describe como un objeto sin profundidad que hace que los sistemas automáticos de conducción lo perciban y lo consideren real, lo que lleva a todo tipo de consecuencias no deseadas.

    Nassi dice que los fantasmas no son solo una preocupación en la naturaleza a través de métodos de proyección como el suyo, sino que estos falsos positivos también podrían integrarse en carteles digitales, que a menudo se encuentran en el marco de visión de un automóvil. En la imagen de abajo, enfoca tus ojos en la esquina superior izquierda. Debería notar un fantasma astuto que acecha alrededor que podría hacer que un automóvil se acelere o disminuya la velocidad a alrededor de 55 millas por hora. El símbolo solo aparece durante 125 milisegundos, pero podría causar un accidente automovilístico masivo.

    Visión humana> Visión por computadora

    imagen

    Los ejemplos adversos se clasifican como la señal de tráfico objetivo deseada con alta confianza en una variedad de condiciones físicas cuando se imprimen. Las muestras de ataque de Lenticular Printing invierten el signo que se muestra según el ángulo de visión, simulando la vista del conductor humano y la cámara en el automóvil autónomo.

    Princeton / Purdue

    Esta no es la primera vez que los investigadores hacen que los vehículos autónomos parezcan tontos, si no completamente ciegos.

    Un artículo de mayo de 2018 de la Universidad de Princeton y Purdue, por ejemplo, mostró que los malos actores podrían crear fácilmente “signos tóxicos” que significan algo diferente para las computadoras que las personas. Las peculiaridades de los signos serán invisibles para los ojos humanos, pero pueden tener graves consecuencias en los sistemas de visión de los vehículos autónomos.

    “Estos ataques funcionan agregando perturbaciones cuidadosamente elaboradas a ejemplos benignos para generar ejemplos adversos”, escriben los autores. “En el caso de los datos de imágenes, estas perturbaciones son típicamente imperceptibles para los humanos”.

    En otro caso, los investigadores llevaron a cabo lo que llaman un “ataque de desaparición” para ocultar una señal de alto de una red neuronal profunda. Simplemente cubriendo la señal de stop real con un cartel de señal de stop de confrontación o agregando calcomanías a la señal de stop, la red neuronal se confundió.

    Nassi y su equipo se refieren a esta incapacidad de los vehículos automatizados para verificar dos veces lo que están viendo como la “brecha de validación”.

    La solución es simple, afirman: los fabricantes de sistemas de conducción automatizados deberían estar trabajando en sistemas de comunicación para ayudar a los sistemas de visión por computadora a verificar que lo que está viendo es realidad. Este es un punto de vista ampliamente aceptado, dicen, pero las partes interesadas clave han retrasado la producción de estas herramientas que podrían descartar objetos 2D como la proyección de Slenderman.

    Cuando finalmente se implementen, los sistemas permitirán que los vehículos se comuniquen entre sí para determinar si están viendo lo mismo. En otros casos, los sistemas de visión instalados en edificios u otra infraestructura también podrían comunicarse con los automóviles. Esta es una visión de un mundo conectado que probablemente requerirá 5G para funcionar, pero es totalmente plausible.

    Hasta que esas ayudas de comunicación lleguen al mercado masivo, definitivamente mantenga los ojos abiertos y alertas mientras conduce su Tesla.


Source link