Los altavoces inteligentes como Alexa o Google Home siempre han estado cuestionados por los expertos en ciberseguridad. Un dispositivo que tiene un micrófono siempre encendido para captar órdenes hace saltar las alarmas sobre qué escucha y cómo usa esa información. Pero, recientemente, se ha descubierto que tienen un nuevo riesgo y que va más allá de la protección de datos.
¿Qué se puede hacer engañando a un altavoz?
Y es que un experimento que ha demostrado que algunos asistentes virtuales controlados por la voz -como los que incluyen los citados altavoces- pueden ser engañados con un simple puntero láser.
De esta forma, el equipo de investigadores -formado por científicos de la Universidad de Tokio y de la Universidad de Michigan- descubrieron que podían dar órdenes con el haz de luz a los asistentes. ¿Qué podían ordenarles? Dependiendo del modelo, los expertos pudieron abrir y arrancar coches de forma remota o abrir la puerta de garajes inteligentes.
Y no solo hubo riesgos para los coches: también lograron abrir las puertas de entradas de hogares que cuentan con cerraduras inteligentes, hacer compras en línea o controlar los interruptores de la luz.
¿Cómo es posible?
Todos esos objetos tenían algo en común: poseen sistemas inteligentes que los conectan a los asistentes virtuales para poder manejarlos a través de la voz. Eso es algo habitual y forma parte de las funcionalidades que ofrecen los altavoces inteligentes. Sin embargo, con lo que no contaban los fabricantes es con que un simple láser se pudiera suplantar a la voz humana.
Todo eso funciona de la siguiente manera: con un láser, se apunta al altavoz inteligente. En concreto, al lugar donde se encuentra el micrófono. Dentro del micrófono se encuentra una pequeña placa llamada diafragma que se mueve cuando el sonido lo golpea. Y los investigadores descubrieron que este tipo de sistemas responde a la luz de la misma forma que lo harían ante el sonido, convirtiéndola en el mismo tipo de señales eléctricas. Por eso, pudieron engañar a los micrófonos para que produzcan señales eléctricas como si estuvieran recibiendo un audio.
Una cuestión de puntería
Además, los científicos demostraron la vulnerabilidad incluso en largas distancias. Lograron reproducir el ataque hasta con una separación de 110 metros entre el altavoz y el láser. Y no pudieron ir más lejos porque no pudieron a acceder a un pasillo que en línea recta les proporcionase más separación. Incluso lograron vulnerar un altavoz situado en un edificio apuntando desde un campanario cercano. Por lo tanto, un ladrón podría lograr reproducir el ataque desde el exterior de la casa si el altavoz es visible a través de una ventana.
Todo lo que se necesita es apuntar con cuidado y precisión. Una precisión que los investigadores lograron anclando el puntero láser al cabezal de un trípode y localizando el puerto del micrófono con unos prismáticos. Tres objetos de fácil acceso para cualquiera.
Los asistentes por voz que fueron vulnerados eran Amazon Alexa, Apple Siri, Facebook Portal, y Google Assistant. No se trata de asistentes exclusivos de altavoces inteligentes, sino que también están presentes en smartphones, tablets y dispositivos de terceros con reconocimiento de voz incorporado.
Por fortuna, en este caso los buenos han ido por delante de los delincuentes. Aún no hay conocimiento de que este ataque se haya usado por parte de gente con malas intenciones. Así que las empresas cuyos productos han sido afectados están a tiempo de solucionar el fallo. Y para los que ya tienen uno, mejor que los alejen de sus ventanas.