Un equipo de especialistas entrenó a un sistema de IA para reconocer palabras en inglés y en español. Alexander Silva, quien dirigió el estudio, comentó que crearon un patrón neuronal diferenciado, que fue registrado por diversos electrodos.
Los científicos publicaron los hallazgos en Nature Biomedical Engineering. Alí subrayan que con anterioridad ya se habían implantado sondas cerebrales para leer ondas electromagnéticas que, por medio de técnicas de aprendizaje automático, luego son convertidas en palabras. Sin embargo, la novedad de este estudio radica en que por vez primera se ha conseguido el mismo objetivo en dos idiomas diferentes al unísono: el inglés y el español.
Pancho, nombre con el que fue llamado el paciente para mantener su privacidad, recibió un implante neuronal, denominado interfaz cerebro-ordenador, que permitió hacer un seguimiento de su actividad cerebral. Utilizando un método de IA conocido como red neuronal, los investigadores pudieron entrenar el implante de Pancho para decodificar palabras, basándose en la actividad cerebral producida cuando intentaba articularlas.
La interfaz pudo distinguir entre inglés y español basándose en la primera palabra, con un 88 % de precisión, y decodificaron la oración correcta con una precisión de 75%. De este modo, Pancho podría llegar a tener conversaciones espontáneas con el equipo de investigación. "Después de la primera vez que hicimos una de estas frases, hubo unos minutos en los que simplemente estábamos sonriendo", afirmó Silva.
Publicidad
En 2021, esa tecnología había ayudado significativamente a restaurar la capacidad de Pancho para comunicarse en inglés, idioma que aprendió siendo adulto, pero no en español, que era su lengua materna.
Después de descubrir que Pancho tenía actividad cerebral en ambos idiomas, los científicos aprovecharon eso para entrenar un implante cerebral bilingüe, sin necesidad de entrenar sistemas de decodificación específicos de cada idioma por separado. Para ello fue crucial la identificación de un sector en el cerebro que muestra representaciones articulatorias corticales compartidas, que persisten después de la parálisis y permiten la decodificación de múltiples idiomas.
Publicidad
Los avances en la decodificación del habla a partir de la actividad cerebral se han centrado en la decodificación de un solo idioma. Por lo tanto, no está claro en qué medida la producción del habla bilingüe depende de una actividad cortical única o compartida en todos los idiomas. En este estudio, aprovechamos la electrocorticografía, junto con modelos estadísticos de lenguaje natural y aprendizaje profundo del inglés y el español, para registrar y decodificar la actividad de la corteza motora del habla de un bilingüe español-inglés con parálisis del tracto vocal y de las extremidades en oraciones en cualquiera de los dos idiomas.
"Los modelos de decodificación se basaron en representaciones articulatorias compartidas del tracto vocal en todos los idiomas, lo que permitió construir un clasificador de sílabas que se generalizó en un conjunto compartido de sílabas en inglés y español. El aprendizaje por transferencia aceleró el entrenamiento del decodificador bilingüe al permitir que los datos neuronales registrados en un idioma mejoren la decodificación en el otro idioma" cita el estudio.