Los hackers pueden brillar con láser en su dispositivo Alexa y hacerle cosas malas, malas

Los hackers pueden brillar con láser en su dispositivo Alexa y hacerle cosas malas, malas

  • Un nuevo documento financiado por DARPA y una organización japonesa para la promoción de la ciencia y la tecnología encuentra que los láseres simples pueden básicamente piratear a asistentes controlados por voz.
  • Los investigadores pueden usar láseres para inyectar comandos maliciosos en dispositivos inteligentes, incluso arrancando de forma remota el automóvil de una víctima si está conectado a través de una cuenta de Google.
  • Para estar seguro, mantenga sus dispositivos de voz alejados de las ventanas de su hogar.

    Mantenga a Alexa lejos de todas las ventanas: resulta que los piratas informáticos pueden hacer brillar láseres en su Asistente de Google o dispositivos habilitados para Amazon Alexa y obtener el control de ellos, enviando comandos a los asistentes inteligentes u obteniendo la valiosa información de su cuenta.

    Los investigadores probaron esto mediante el uso de láseres para inyectar comandos maliciosos en dispositivos controlados por voz, como parlantes inteligentes, tabletas y teléfonos a largas distancias a través de ventanas de vidrio.

    En un nuevo artículo, "Comandos de luz: ataques de inyección de audio basados ​​en láser en sistemas controlables por voz", los autores describen la vulnerabilidad basada en láser como un "ataque de inyección de señal" en micrófonos basado en el efecto fotoacústico, que convierte la luz en sonido. a través de un micrófono Del resumen:

    Mostramos cómo un atacante puede inyectar señales de audio arbitrarias al micrófono objetivo apuntando una luz de amplitud modulada a la apertura del micrófono. Luego procedemos a mostrar cómo este efecto conduce a un ataque remoto de inyección de comandos de voz en sistemas controlables por voz. Examinando varios productos que usan Alexa de Amazon, Siri de Apple, el Portal de Facebook y el Asistente de Google, mostramos cómo usar la luz para obtener un control total sobre estos dispositivos a distancias de hasta 110 metros y desde dos edificios separados.

    Los investigadores también descubrieron que la autenticación del usuario es escasa o inexistente en los dispositivos de asistente de voz. Eso significaba que podían usar los comandos de voz inyectados con luz para desbloquear las puertas habilitadas para smartlock de la víctima, comprar en sus sitios de comercio electrónico, usar sus métodos de pago o incluso desbloquear e iniciar vehículos conectados a la cuenta de Google de la víctima.

    La investigación, financiada por la Sociedad Japonesa para la Promoción de la Ciencia y la Agencia de Proyectos de Investigación Avanzada de Defensa de los EE. UU. (DARPA), entre otras organizaciones, tenía como objetivo descubrir posibles vulnerabilidades de seguridad en los dispositivos de Internet de las cosas.

    "Si bien se presta mucha atención a mejorar las capacidades de los sistemas (controlados por voz), se sabe mucho menos sobre la resistencia de estos sistemas a los ataques de software y hardware", escriben los autores en el documento. "De hecho, trabajos anteriores ya destacan una limitación importante de la interacción del usuario solo de voz: la falta de autenticación de usuario adecuada".

    imagenComandos de luz

    ¿Entonces, cómo funciona? Los micrófonos pueden convertir el sonido en señales eléctricas, claro, pero también reaccionan a la luz dirigida directamente a ellos. Mediante el uso de un haz de luz de alta intensidad, modulando una señal eléctrica, los investigadores podrían engañar a los micrófonos integrados en los dispositivos de voz para que produzcan señales eléctricas como si estuvieran recibiendo audio real de su voz, por ejemplo. Eso significa que los piratas informáticos pueden inyectar comandos inaudibles a través de los rayos de luz.

    Los dispositivos son vulnerables hasta a 110 metros de distancia, en el momento de la publicación del documento. Eso es aproximadamente la longitud de un campo de fútbol.

    Casi cualquier dispositivo habilitado para voz que pueda imaginar es vulnerable a este tipo de ataque, pero los autores han probado y confirmado vulnerabilidades en lo siguiente:

    imagenComandos de luz

    Quizás la parte más inquietante es lo fácil que es este tipo de pirateo. Según el grupo de investigación, todo lo que necesita es un puntero láser simple, un controlador de diodo láser (que mantiene una corriente constante de suministro de energía al láser), un amplificador de sonido y un teleobjetivo para enfocar mejor el láser durante mucho tiempo. ataques de alcance.

    Si bien esta investigación y los ataques asociados fueron realizados por investigadores profesionales, los delincuentes podrían hacer lo mismo (aunque no encontraron casos de que esto ocurriera maliciosamente … todavía). Sin embargo, con la metodología que existe ahora, es un arma de doble filo: Sí, algunos consumidores pueden leer sobre esta vulnerabilidad y prepararse contra ella, pero ahora los hackers también tienen nuevas ideas.

    Es bastante difícil saber si está siendo atacado de esta manera, pero los usuarios pueden notar el reflejo del haz de luz en el dispositivo en cuestión o un usuario puede intentar monitorear la respuesta verbal del dispositivo y los cambios en el patrón de luz. Si notas que tu dispositivo actúa de manera errática, más o menos, desenchufa la maldita cosa y aléjala de la ventana.

    La buena noticia es que hay formas de protegerse de un ataque basado en láser, según el documento:

    Una capa adicional de autenticación puede ser efectiva para mitigar un poco el ataque. Alternativamente, en caso de que el atacante no pueda espiar la respuesta del dispositivo, hacer que el dispositivo haga una pregunta aleatoria simple al usuario antes de la ejecución del comando puede ser una forma efectiva de evitar que el atacante obtenga una ejecución exitosa del comando.

    Los fabricantes también pueden intentar usar técnicas de fusión de sensores, como adquirir audio de múltiples micrófonos. Cuando el atacante usa un solo láser, solo un micrófono recibe una señal mientras que los demás no reciben nada. Por lo tanto, los fabricantes pueden intentar detectar tales anomalías, ignorando los comandos inyectados.

    Otro enfoque consiste en reducir la cantidad de luz que llega al diafragma del micrófono utilizando una barrera que bloquea físicamente los rayos de luz rectos para eliminar la línea de visión al diafragma, o implementar una cubierta no transparente en la parte superior del orificio del micrófono para atenuar la cantidad de luz golpeando el micrófono. Sin embargo, notamos que tales barreras físicas solo son efectivas hasta cierto punto, ya que un atacante siempre puede aumentar la potencia del láser en un intento de compensar la atenuación inducida por la cubierta o por quemar las barreras, creando un nuevo camino de luz.


    Source link