Hace unos meses, Amazon detalló una serie de problemas que impedían que Alexa brindara respuestas precisas cuando los usuarios activaban el asistente virtual en ciertos modelos de TV, en anuncios de Internet o de radio. Después de todo, el problema principal aquí es cómo el asistente de voz de Amazon puede filtrar eficazmente el ruido de fondo del entorno para proporcionar comentarios más precisos a los usuarios. Recientemente, en una publicación de blog y un artículo de investigación adjunto llamado Reconocimiento de voz anclado de extremo a extremo, los ingenieros de Amazon presentaron específicamente una nueva técnica de aislamiento de ruido basada en inteligencia artificial creada que puede ayudar a mejorar el reconocimiento de voz y los comandos de Alexa en un 15%. Se espera que se presente información más detallada sobre cómo funciona el sistema en la Conferencia Internacional sobre Acústica, Habla y Procesamiento de Señales que se celebrará en Brighton a finales de este año.

“De hecho, siempre intentamos mejorar el rendimiento de Alexa enseñándole a "ignorar" comandos que no están destinados a ella, es decir, a saber seleccionar comandos entre innumerables ruidos que emanan del entorno. Para hacerlo, asumimos que el hablante activa un dispositivo habilitado para Alexa diciendo alguna palabra de activación específica -generalmente “Alexa”- y esta es la frase clave que el asistente virtual debe aislar e identificar en un caos de sonidos del exterior. ambiente. Básicamente, nuestra técnica ayudará a "capturar" rápidamente sonidos que pueden ser palabras de activación (generalmente basadas en similitudes en entonación o fonemas) y compararlos con palabras de activación estándar para identificar oraciones con precisión. Entonces, Alexa entenderá la frase cuyos elementos se acerquen más a la palabra de activación estándar como una orden, mientras que las otras frases se considerarán ruido de fondo", afirmó Xin Fan, líder del equipo de científicos a cargo del proyecto Alexa. La IA explica.
En lugar de entrenar un sistema de inteligencia artificial separado para distinguir entre el ruido de fondo y las palabras de activación, Xin Fan y sus colegas fusionaron su mecanismo de coincidencia de palabras con un modelo de reconocimiento de voz basado en inteligencia artificial estándar. Los científicos probaron dos variaciones de la arquitectura de IA del decodificador en secuencia, es decir, utilizando una arquitectura que procesa los datos de entrada (instantáneas de la señal de audio de milisegundos de duración) para producir una secuencia de salida correspondiente (representación fonémica del sonido), y , como ocurre con la mayoría de las técnicas de codificador-decodificación convencionales, el componente de codificación resume los datos de entrada como un vector de longitud fija (una cadena de números) y los convierte en datos de salida. Mientras tanto, un mecanismo de atención especial, "entrenado" para detectar algunas características básicas de las palabras de activación en una o más cadenas de voz del entorno circundante, será responsable de "guiar" el conjunto. La decodificación presta más atención a esas características en el vector.

En un experimento, los investigadores entrenaron uno de sus modelos de inteligencia artificial para poner mayor énfasis en el reconocimiento de la pronunciación de palabras, primero agregando un componente que comparaba directamente los sonidos de las palabras con varias pronunciaciones y luego usa estos datos resultantes como entrada para otro separado. componente que ha sido entrenado para comprimir los bits del vector de codificación. Los resultados fueron interesantes, este modelo redujo la tasa de error al 13% en comparación con el 15%.