Un asistente virtual como ALEXA o como SIRI es capaz de responder preguntas en varios idiomas, conectar con varios servicios de música, establecer alarmas, controlar dispositivos inteligentes, proveer información en tiempo real del clima y tráfico, entre otras cosas. Pero, ¿cómo es que estos programas logran entender lo que dicen miles de usuarios de distintos idiomas y acentos?

“Desafortunadamente, los códigos de estas empresas son secretos y no podemos saber qué es lo que los ingenieros programaron. A lo más, podemos poner a prueba sus capacidades y compararlas con las humanas para realizar las mismas tareas. Así, tras una simple prueba, el resultado es que las máquinas todavía están lejos de lograr la capacidad humana para reconocer sonidos. Lo que podemos inferir es que códigos como ALEXA poseen grandes librerías de sonidos que son comparados con características específicas de las palabras de los usuarios; es decir, son dispositivos con una memoria impresionante que el ser humano no posee. Pese a ello, éste es más versátil”, señaló el doctor Luis Lemus, investigador titular del Departamento de Neurociencia Cognitiva del Instituto de Fisiología Celular de la UNAM.

Durante el Seminario de Investigación del Departamento de Fisiología de la Facultad de Medicina, explicó que le interesa saber cómo nuestros cerebros identifican palabras y otros sonidos aprendidos. Además, cómo estos sonidos evocan imágenes mentales”.

El especialista indicó que su análisis se centra en la invariancia perceptual, es decir, que independientemente de quién sea el emisor y de sus particulares emisiones acústicas, los humanos somos capaces de identificar y caracterizar los mensajes contenidos en sonidos complejos como las palabras.

“Hasta el momento sabemos muchas cosas relacionadas con el sistema auditivo; por ejemplo, cómo las ondas sonoras amplificadas por el tímpano y huesecillos del oído medio son descompuestas en frecuencias por la membrana basilar en la cóclea del oído interno, de manera que las frecuencias altas, que tienen una longitud de onda corta, inmediatamente estimulan esa zona; mientras que las frecuencias bajas, de longitud de onda larga, estimulan el fondo. Una vez que las células ciliadas, que se ubican debajo de la membrana, transducen la energía de vibración en potenciales de acción, las neuronas llevan esta información de frecuencias, a lo largo de distintos núcleos, hasta la corteza auditiva primaria ubicada en la corteza cerebral”, detalló.

Una vez que las células ciliadas, que se ubican debajo de la membrana, transducen la energía de vibración en potenciales de acción, las neuronas llevan esta información de frecuencias, a lo largo de distintos núcleos, hasta la corteza auditiva primaria ubicada en la corteza cerebral”, detalló.

De acuerdo con lo que el científico quiere lograr, en su laboratorio estudia cómo se da el procesamiento jerárquico de la información a partir de la entrada al cerebro en la corteza primaria, y luego a lo largo del giro temporal superior, donde se piensa que se forman los circuitos de reconocimiento de los sonidos.

“Además, nos interesa entender cómo las representaciones de los sonidos son evaluadas y asociadas a conductas a partir de áreas de asociación del lóbulo frontal”, indicó.

El equipo del doctor Lemus sigue trabajando en descifrar cómo el cerebro reconoce sonidos a partir de sus semejanzas con sonidos aprendidos, sin importar, por ejemplo, el timbre de voz o el ritmo, y cómo el reconocimiento de sonidos da lugar a equivalencias perceptuales con información proveniente de otras modalidades sensoriales.

Samantha Cedeño