El grupo de investigadores ha trabajado sobre los comandos de voz como ataques dirigidos, como se explica en el texto de la investigación, publicado en el perfil de Nicholas Carlini, coautor de este trabajo.

Estos ataques son efectivos en sistemas con reconocimiento de lenguaje automático. Estos comandos de voz están embebebidos en el sonido existente (música, por ejemplo) que no "debería ser reconocido como discurso".

Con el silencio como objetivo, estos investigadores pueden "ocultar audio del sistema de voz-a-texto". Este tipo de comandos son imperceptibles para el ser humano, que solamente oye la música o la persona que está hablando, pero no para los asistentes de voz, que son capaces de percibirlos e interpretarlos como órdenes.

En un trabajo de 2016, los investigadores, de las universidades de California, Berkeley y Georgetown (Estados Unidos), camuflaron los comandos en ruido blanco, que era imperceptible para el oído humano cuando se reproducía en la radio o en vídeos de YouTube. Esta última investigación tenía como objetivo descubrir si podían hacer estas órdenes "más sigilosas", como ha explicado Carlini en declaraciones a The New York Times.

Estos ataques dirigidos mediante comandos de voz pueden hacer que se marque un número de teléfono o que se abra una determinada web en un dispositivo con Siri, Alexa o Google Assistant integrado. Sin embargo, también pueden ser explotados para cerrar y bloquear puertas, realizar transacciones económicas o comprar productos en tiendas digitales.