Comandos de audio ocultos en Google Assistant: riesgos, ejemplos y cómo protegerte

  • Google Assistant puede ejecutar multitud de acciones útiles por voz, pero cualquier activación no controlada supone un riesgo para tu privacidad y tus dispositivos conectados.
  • Investigadores han demostrado que es posible ocultar comandos maliciosos en música, ruido blanco o vídeos, inaudibles para las personas pero comprensibles para el asistente.
  • Estos comandos ocultos pueden forzar llamadas, abrir webs, hacer fotos o controlar dispositivos del hogar sin que el usuario lo note.
  • Apple, Google y Amazon aplican restricciones y filtros, pero es clave ajustar bien la configuración del asistente y limitar las acciones sensibles por voz.

comandos de audio ocultos en asistentes de voz

Los comandos de voz para controlar Google Assistant son una de las formas más cómodas de manejar el asistente digital tanto en el móvil como en altavoces inteligentes tipo Google Home o Nest. Podemos abrir apps, controlar la domótica, enviar mensajes, pedir música o juegos con la voz. Sin embargo, esta misma ventaja se ha convertido también en una puerta de entrada para quienes buscan explotar vulnerabilidades mediante comandos de audio ocultos o inaudibles.

Mientras la mayoría de usuarios aprovecha estos comandos para tareas cotidianas, diferentes investigadores han demostrado que es posible esconder órdenes maliciosas en música, ruido blanco o vídeos online, de forma que activan el asistente sin que el propietario sea consciente. Por eso, entender cómo funcionan, qué riesgos implican y qué medidas de protección tenemos a nuestro alcance es clave para seguir usando estos sistemas con tranquilidad.

Ok Google, haz esto por mí: comodidad y riesgo

El comando Ok Google es muy cómodo y eficaz. Basta con levantar el móvil, decir Ok Google o Hey Google y ordenar lo que quieres que haga el asistente digital para que se complete la tarea. Por ejemplo, si dices «Recuérdame a las 19:30 sacar la basura», rellenará los campos del recordatorio y tan solo te hará falta decir «Sí» para guardarlo. Es un proceso rápido, sencillo y altamente automatizable.

Esta lógica se extiende a muchos otros comandos muy prácticos que se ejecutan sin tocar el móvil:

  • «Haz una foto» o «Hazme un selfie» para lanzar la cámara con una pequeña cuenta atrás.
  • «Pon una alarma a las 7» o «Desactiva todas las alarmas» para gestionar despertadores sin abrir la app de reloj.
  • «Recuérdame que llame a mamá mañana a las 10» para crear recordatorios detallados.
  • «Cómo llegar a [sitio]» o «Llévame a casa» para iniciar rutas de navegación en Google Maps.
  • «Qué tiempo va a hacer hoy» o «¿Va a llover este fin de semana?» para obtener la previsión meteorológica de tu zona.

Sin embargo, esta comodidad tiene un reverso: el asistente responde a cualquier voz que pronuncie el comando de activación con suficiente claridad. Aunque el sistema permite entrenar un modelo de voz, en la práctica los altavoces y móviles pueden activarse ante voces muy similares, voces grabadas o incluso voces generadas por software.

Si alguna vez has visto una presentación de Google en la que han dicho las dos palabras mágicas y tenías el móvil cerca, es probable que el Asistente haya saltado. Algo parecido ocurrió con un conocido capítulo de South Park que dio órdenes a asistentes digitales desde la televisión, provocando que se encendieran los asistentes reales de cada hogar y ejecutaran comandos inesperados:

https://www.youtube.com/watch?v=BB1Ji6fECQU

Además, en hogares grandes o de varios pisos, se dan situaciones curiosas: un usuario puede decir «Buenos días» a un reloj con Assistant en el dormitorio, pero por eco o volumen, la respuesta llega a activarse desde un Google Home situado en la cocina. Esto no solo es molesto, también abre la puerta a que un altavoz responda en una habitación donde hay alguien durmiendo o, en el peor de los casos, ejecute acciones que no pretendíamos realizar.

Qué es lo que está ocurriendo con los comandos de audio ocultos

assistant comandos escondidos en música

El problema de fondo es claro: si cualquiera puede activar tu Asistente, no es seguro. Y si además no puedes escuchar cómo se le dan órdenes, ni siquiera podrás evitarlo. Eso es exactamente lo que está ocurriendo con algunas órdenes maliciosas que se están ocultando en música de YouTube, emisiones de radio, podcasts o incluso bajo una señal de ruido blanco, activando asistentes como el de Google, Alexa o Siri sin que el usuario perciba nada extraño.

Estos ataques se basan en codificar comandos en frecuencias o patrones que resultan naturales o indetectables para el oído humano pero que siguen siendo reconocibles para el algoritmo de reconocimiento de voz. El altavoz inteligente interpreta ese fragmento como un comando legítimo y lo ejecuta, aunque para ti solo sea parte de una canción o un sonido ambiente.

Según informa el New York Times, ya se están dando casos en los que se ordena a los asistentes digitales enviar mensajes SMS o tomar fotografías, atacando directamente la privacidad de las personas. Si quieres comprobar la potencia de estos comandos, basta con decir «Ok Google, haz una foto» o «Ok Google, haz un selfie» para ver cómo se lanza la cámara, se inicia una cuenta atrás y se captura la imagen. Este mismo mecanismo es el que se explota para acceder a las cámaras de algunos dispositivos sin que el propietario lo solicite explícitamente.

Otros ejemplos de acciones que un comando oculto podría intentar ejecutar son:

  • Marcar números de teléfono y dejar llamadas activas sin que el usuario lo sepa.
  • Abrir sitios web potencialmente maliciosos en el navegador del móvil.
  • Hacer compras online aprovechando cuentas vinculadas a Google Play o tiendas asociadas.
  • Interactuar con dispositivos inteligentes del hogar, como enchufes, cámaras, luces o cerraduras conectadas.

En algunos experimentos mencionados por el diario, estos asistentes virtuales se han utilizado para tomar una foto o enviar un mensaje SMS desde una distancia de hasta ocho metros, por ejemplo a través de la ventana abierta de un edificio, simplemente reproduciendo el audio malicioso desde un altavoz exterior. El usuario, dentro de casa, solo escucha ruido o música, pero su dispositivo entiende una orden clara.

Cómo funcionan los comandos de voz legítimos… y cómo se pueden abusar

Para entender la dimensión del problema conviene conocer qué puede hacer Google Assistant mediante comandos perfectamente legítimos. Los asistentes actuales son capaces de ejecutar una enorme variedad de acciones, muchas de ellas sensibles si se usan sin control:

  • Control de aplicaciones y ajustes del sistema: abrir apps («Abre WhatsApp»), encender o apagar WiFi o Bluetooth, subir o bajar el volumen del dispositivo, silenciar o poner al máximo el sonido, modificar el brillo de la pantalla, tomar fotos, grabar vídeos o iniciar la reproducción de música en servicios de streaming.
  • Mensajes y llamadas: llamar a un contacto concreto («Llama a [nombre]»), enviar SMS, correos electrónicos o mensajes en apps de mensajería dictando el contenido con la voz.
  • Información meteorológica y de tráfico: conocer el tiempo actual o futuro en cualquier ciudad, consultar si va a llover, saber el estado del tráfico en una zona o la duración de un trayecto.
  • Alarmas, recordatorios, eventos y listas: crear alarmas, temporizadores, recordatorios con fecha y hora, eventos de calendario o listas como la de la compra, todo con una sola frase de voz.
  • Domótica y hogar conectado: encender o apagar luces, ajustar la temperatura, activar enchufes inteligentes, manejar televisores compatibles, reproducir contenidos en Chromecast, entre otras muchas acciones.
  • Información general, juegos y ocio: resolver operaciones matemáticas, consultar conversiones de moneda, pedir definiciones de palabras, saber datos curiosos, reproducir chistes, acertijos o pequeños juegos por voz.

Toda esta potencia permite automatizar tareas de forma muy cómoda, pero también significa que cualquier comando ejecutado sin tu consentimiento puede tener un impacto real en tu privacidad, tu cuenta bancaria o la seguridad de tu hogar. Por ejemplo, un simple «Llama a [número internacional]» podría generar cargos inesperados si se mantiene la llamada activa el tiempo suficiente.

A ello se suma que muchos asistentes permiten configurar relaciones personales («Mi padre se llama [nombre]», «Mi esposa se llama [nombre]») para llamar o enviar mensajes diciendo solo «Llama a mi padre» o «Manda un SMS a mi esposa». Esto hace que los comandos sean más naturales, pero también más fáciles de abusar si un tercero consigue activar el asistente desde fuera.

Qué están haciendo Apple, Google y Amazon y cómo puedes protegerte

Por el momento, Apple, Google y Amazon, las principales empresas afectadas, aseguran estar al tanto de esta situación. Todas ellas afirman estar tomando medidas para hacer sus asistentes más seguros y evitar que el problema escale, aunque no siempre detallan los mecanismos con claridad.

Algunos ejemplos de mitigaciones y límites que se han ido introduciendo son:

  • Restricciones de acciones sensibles: el HomePod, por ejemplo, está programado para no realizar determinadas tareas como desbloquear una puerta, y en el caso de iPhone o iPad se exige que el dispositivo esté desbloqueado para ejecutar comandos de alto riesgo.
  • Modelos de voz personalizados: Google y Amazon permiten entrenar el asistente para reconocer la voz del propietario y limitar algunas acciones a esa voz concreta, reduciendo (aunque no eliminando) la probabilidad de activaciones indeseadas.
  • Filtros y detección de patrones anómalos: aunque las compañías no suelen entrar en detalles, sí indican que se utilizan técnicas para detectar comandos distorsionados o fuera del rango habitual que podrían corresponder a ataques inaudibles.
  • Bloqueos contextuales: algunos asistentes requieren confirmación adicional para pagos, compras o cambios importantes, y pueden limitar estas acciones si el dispositivo está bloqueado o la pantalla apagada.

Pese a estas defensas, los investigadores han demostrado que sigue existiendo margen para abusos, por lo que también es importante que cada usuario tome medidas de precaución básicas:

  • Revisar en los ajustes qué acciones permite tu asistente con el teléfono bloqueado.
  • Desactivar compras por voz o exigir un código adicional.
  • Limitar el acceso del asistente a la pantalla de bloqueo cuando sea posible.
  • Controlar el volumen del altavoz y su ubicación para reducir activaciones desde el exterior.
  • Usar el modo no molestar o modos nocturnos cuando haya personas durmiendo cerca de los altavoces.

Apple, Google y Amazon han admitido públicamente que son conscientes de estas vulnerabilidades, pero han sido bastante imprecisos a la hora de explicar cómo las mitigan en detalle. Amazon señala que han tomado medidas para asegurar Alexa, Google indica que su asistente incorpora características específicas para reducir el impacto de comandos indetectables, y Apple insiste en que sus dispositivos exigen condiciones adicionales de seguridad antes de ejecutar tareas especialmente críticas.

La combinación de mejoras técnicas por parte de los fabricantes y una configuración responsable por parte del usuario es, a día de hoy, la mejor forma de seguir disfrutando de la comodidad de los comandos de voz y evitar que los comandos de audio ocultos en Google Assistant y otros asistentes se conviertan en un problema real de seguridad o privacidad.