Unos investigadores de la Universidad de California San Francisco (UCSF) han conseguido desarrollar una neuroprótesis capaz de detectar las señales del cerebro y transcribirlas en palabras a través de una pantalla. El dispositivo ha sido probado en una persona con diversas parálisis que, gracias a él, ha sido capaz de comunicarse con palabras.
El estudio, que se publicará en el New England Journal of Medicine, ha sido desarrollado por Edward Chang, un neurocirujano de la UCSF, y su equipo. Según Chang, «esta es la primera demostración exitosa de decodificación directa de palabras completas a partir de la actividad cerebral de alguien que está paralizado y no puede hablar».
50 palabras, por ahora
A diferencia de los enfoques anteriores, que se centraban en la ortografía y en las señales para mover el brazo o la mano, el enfoque de Chang consiste en traducir las señales destinadas a controlar los músculos del sistema vocal para producir palabras. Según el investigador, esto «promete una comunicación más rápida y orgánica».
Surge así el estudio BRAVO (Brain-Computer Interface Restoration of Arm and Voice) y el primer participante del mismo, BRAVO1 (nombre en clave para conservar su anonimato). Este es un hombre de 30 años que sufrió un derrame cerebral hace 15 años, lo que dañó gravemente la conexión entre su cerebro y el tracto vocal y las extremidades. Dada su limitada movilidad, actualmente se comunica con un puntero sujeto a una gorra que usa para señalar letras en una pantalla.
BRAVO1 trabajó con los investigadores para desarrollar un vocabulario de 50 palabras sencillas, como «agua», «bien» o «familia», que son suficientes para formar frases cortas. La idea de usar pocas y sencillas palabras es que sea relativamente fácil reconocerlas a partir de la actividad cerebral mediante algoritmos.
Hecho esto, Chang implantó una guía de electrodos de alta densidad sobre la corteza motora del habla del paciente. Posteriormente, el neurocirujano registró 22 horas de actividad neuronal en esta zona del cerebro a lo largo de 48 sesiones y varios meses. En cada sesión, BRAVO1 intentaba decir cada una de las 50 palabras muchas veces mientras los implantes registraban su actividad cerebral.
¿Suena familiar? Puede ser, porque es un proceso similar al de entrenar una red neuronal. Si queremos entrenar una red neuronal para que identifique gatos, «simplemente» hay que enseñarle muchísimas fotos de gatos. A la larga, el sistema aprenderá a identificar que el sujeto de una foto es, o no es, un gato. Esto es similar.
Sean Metzger y Jessi Liu, estudiantes de doctorado de bioingeniería en el laboratorio de Chang y también autores principales del estudio, usaron unos modelos de redes neuronales personalizados para identificar las señales del cerebro. Cuando BRAVO1 intentaba hablar, las redes neuronales identificaban patrones sutiles en la actividad cerebral vinculados a cada palabra.
¿El resultado? Según los investigadores, el modelo tiene capacidad para decodificar hasta 18 palabras por minuto con una precisión de hasta el 93% (mediana del 75%). Eso ha sido posible, en parte, gracias al modelo lingüístico y a un sistema de autocorrección «similar a los que utilizan los programas de reconocimiento de voz y de mensajes de texto de los consumidores», explican desde la universidad.
Es un primer paso y, si bien es cierto que es solo un paciente y un vocabulario limitado, los investigadores afirman que el estudio demuestra que «es realmente posible facilitar la comunicación de este modo y que tiene potencial para su uso en entornos conversacionales». De cara al futuro, los investigadores ampliarán el ensayo para incluir a más pacientes y aumentar el número de palabras.
Fuente:Jose García @josedextro