Los científicos de la NASA están desarrollando un sistema de reconocimiento del lenguaje que es capaz de comprender y retransmitir palabras que no se han dicho en voz alta.
Esta tecnología podría ayudar a buzos, bomberos y usuarios de celulares.
Los científicos de la NASA están desarrollando un sistema de reconocimiento del lenguaje que es capaz de comprender y retransmitir palabras que no se han dicho en voz alta. El sistema utiliza electrodos que se colocan sobre la garganta para detectar señales biológicas que ocurren mientras una persona lee o se habla a sí misma.
Las señales luego se pueden convertir en texto o lenguaje sintetizado. «?El reconocimiento de lenguaje subvocal es básicamente la comprensión de palabras sin necesidad de sonido», explicó Chuck Jorgensen, científico del Centro de Investigación Científica -Ames- de la NASA en Moffett Field, California, y cuyo equipo desarrolla el sistema.
«Estamos observando cómo se envían los patrones neuromusculares a través del sistema nervioso e infiriendo de esos patrones las palabras que saldrían en voz alta si una persona realmente produjera los sonidos». La tecnología podría ser utilizada un día para comunicarse en ambientes de mucho ruido o en llamadas celulares «silenciosas».
Como «ver» música
Aun cuando una persona lee o simula las palabras en silencio, las señales eléctricas se envían del cerebro a la lengua y a las cuerdas vocales. Se utiliza una tecnología en desarrollo para leer señales similares directamente del cerebro que le permiten a una persona con un gorro especial operar, por ejemplo, una computadora con sus pensamientos.
Pero el equipo de la NASA se enfoca más bien en los músculos que reciben las señales del cerebro, aclara Jorgensen. «Nuestro problema es análogo a tener a una persona sorda sentada frente a una orquesta y que trate de adivinar, con sólo ver a un flautista mover sus dedos, qué melodía interpreta», cuenta Jorgensen.
«De hecho, en nuestro caso, las posiciones del dedo son las señales que nos llegan de los músculos que controlan las articulaciones del lenguaje». En experimentos preliminares, los científicos utilizaron pequeños sensores colocados bajo la barbilla y sobre la garganta para recibir señales nerviosas.
Las señales fueron enviados a un procesador y, posteriormente, a un software especial programado para reconocer palabras en inglés tales como ‘alto’, ‘siga’, ‘izquierda’, ‘derecha’, y los dígitos del ‘cero’ al ‘nueve’. Los resultados iniciales de reconocimiento de palabras fueron 92 por ciento acertados.
Pero, por el momento, el sistema sólo puede reconocer de 25 a 30 palabras. En el futuro, a los científicos les gustaría enfocarse en detectar fonemas, las unidades de sonido que forman las palabras. «Cuando se logra hacer eso, la cantidad de palabras [que el software pueda reconocer] se vuelve irrelevante», dijo Jorgensen.
¿Me oyes ahora?
De acuerdo con Jorgensen, la idea para su investigación surgió inicialmente a partir de comensales maleducados. «Estaba en un restaurante con personas hablando por sus celulares y pensé: si tan sólo sus conversaciones fueran en silencio». Reducir el ruido de fondo de las llamadas por teléfono es apenas la punta del iceberg cuando se trata de aplicaciones para reconocimiento del lenguaje subvocal, agregó Jorgensen.
La tecnología puede ser utilizada por los astronautas, cuyas voces se distorsionan dentro de una nave espacial, o por buzos, quienes podrían hablar bajo el agua aún cuando usen una boquilla. Tales aparatos también podrían permitirles a los bomberos, que trabajan en un ruidoso incendio, comunicarse con el capitán estacionado afuera.
«El sistema es inmune al ruido de fondo», explicó Jorgensen. Un equipo diferente de científicos de la Universidad Carnegie Mellon en Pittsburgh, Pensilvania, usa tecnología subvocal para desarrollar un traductor portátil. Su dispositivo utiliza electrodos pegados a los músculos en la cara y cuello para recoger patrones de voz y convertir las señales en texto.
Ese texto luego se traduce a un idioma diferente y el aparato lo habla sintéticamente. Tanja Schultz, una investigadora del proyecto, dice que el efecto es como el equivalente en la vida real de ver un programa de televisión doblado.
«Realmente nos permitiría desaparecer las barreras del lenguaje», le comentó a The Tartan, el periódico de la universidad. En el futuro, este aparato podría descifrar no sólo qué palabras dice la gente, sino también cómo las dice. «Le llamamos enriquecimiento del lenguaje», dijo Jorgensen. «Muchas cosas pasan por el sistema nervioso aparte de una palabra en particular», agregó. «Podríamos detectar si te acabas de tomar una taza de café o si te sientes contento o triste».