1 de abril 2025
Un nuevo sistema de neuroprótesis permite traducir en tiempo real pensamientos en palabras mediante una voz sintética personalizada
Redacción
Una mujer que perdió la capacidad de hablar tras un ictus ha logrado comunicarse nuevamente 18 años después gracias a un implante cerebral capaz de traducir sus pensamientos en voz en tiempo real. El avance ha sido desarrollado por investigadores de la Universidad de California en San Francisco y la Universidad de California en Berkeley (Estados Unidos) y se ha publicado en la revista Nature Neuroscience (abril, 2025)
El dispositivo, conocido como interfaz cerebro-ordenador (BCI), fue mejorado mediante algoritmos de inteligencia artificial (IA) que descodifican las frases conforme la paciente las piensa y las expresan con una voz sintética. A diferencia de métodos anteriores, que requerían que el usuario completara mentalmente una frase antes de emitir sonido, el nuevo sistema permite detectar palabras de forma simultánea y convertirlas en habla en menos de tres segundos, acercándose al ritmo de una conversación natural.
La paciente, Ann, sufrió un ictus en el tronco del encéfalo en 2005 que le arrebató la capacidad de hablar. Dieciocho años después, se le implantó quirúrgicamente un rectángulo delgado con 253 electrodos en la superficie de su corteza cerebral, capaz de registrar la actividad de miles de neuronas simultáneamente. Los investigadores personalizaron la voz sintética para que se asemejara a la voz original de Ann, entrenando los algoritmos con grabaciones de su boda.
El equipo también señaló que los sistemas anteriores generaban retrasos en el habla superiores a varios segundos, lo que podía interrumpir el flujo de una conversación y contribuir al aislamiento social de personas con parálisis. Para superar esa barrera, los científicos desarrollaron modelos de redes neuronales recurrentes de aprendizaje profundo capaces de producir una síntesis fluida e inteligible del habla, adaptada al estilo de comunicación de la paciente.
Entrenamiento y funcionamiento del sistema
El sistema fue entrenado registrando la actividad cerebral de Ann mientras intentaba pronunciar en silencio frases que aparecían en un monitor, iniciando el proceso tras la señal visual de Go. Mientras tanto, la voz sintetizada se reproducía por un altavoz, y el texto descodificado aparecía en pantalla.
Los investigadores evaluaron la eficacia de la neuroprótesis con dos grupos de frases: un conjunto reducido de 50 frases, diseñado para cubrir necesidades básicas en la atención diaria, y un conjunto de gran vocabulario de 12.379 frases únicas, compuestas por 1.024 palabras tomadas de redes sociales como X (antes Twitter) y transcripciones de películas. El sistema integraba dos decodificadores neuronales entrenados de forma conjunta: uno para sintetizar voz y otro para generar texto, logrando así una comunicación bimodal efectiva.
- Kaylo T. Littlejohn et al. Nature Neuroscience volume 28, pages902–912 (2025)