Implantes cerebrales devuelven el habla a una paciente de ELA

30/08/2023


Dos mujeres han recobrado su capacidad de hablar gracias a la neurotecnología. Se trata de Pat y de Anna, que estaban encerradas en su cuerpos sin poder comunicarse. Pat tiene esclerosis lateral amiotrófica (ELA) y Ann sufre una parálisis grave, causada por un derrame cerebral. Ambas han perdido la capacidad de hablar.

Ahora, dos art√≠culos publicados en ¬ęNature¬Ľ presentan los resultados de dos aproximaciones diferentes capaces de descodificar la actividad cerebral y convertirla en habla con mayor rapidez, precisi√≥n y vocabulario que las tecnolog√≠as existentes.

Gracias a esta tecnología, Pat ha podido volver a hablar y Ann, además, ha visto como un avatar reproducía sus expresiones faciales al hablar.

Las personas con trastornos neurol√≥gicos, como ictus o ELA, pierden su capacidad de movimiento y de habla debido a la par√°lisis de los m√ļsculos. Aunque estudios previos han demostrado que es posible descodificar el habla a partir de la actividad cerebral, s√≥lo se hab√≠a logrado en forma de texto y con una velocidad, precisi√≥n y vocabulario limitados.

Pat Bennett tiene 68 a√Īos. En 2012, le diagnosticaron ELA, una enfermedad neurodegenerativa progresiva que ataca a las neuronas que controlan el movimiento, causando debilidad f√≠sica y eventual par√°lisis. ¬ęCuando piensas en la ELA, piensas en el impacto en los brazos y las piernas¬Ľ, escribe Bennett en una entrevista por correo electr√≥nico.

Por lo general, la ELA se manifiesta primero en las extremidades, brazos y piernas, manos y dedos. En el caso de Bennett, el deterioro no se inició en su médula espinal, como es típico, sino en su tronco cerebral. Puede moverse, vestirse y escribir, aunque con cada vez más dificultad. 

Pero Pat no puede hablar. Mientras su cerebro todav√≠a es capaz de formular instrucciones para generar fonemas, sus m√ļsculos no pueden llevar a cabo las √≥rdenes.

En 2021, un estudio publicado en ¬ęNature¬Ľ realizado en la Universidad de Stanford (EE.UU.) describ√≠a el √©xito en convertir la escritura imaginaria de una persona paralizada en texto en una pantalla mediante un interfaz cerebral, alcanzando una velocidad de 90 caracteres, o 18 palabras, por minuto.

Bennett leyó el estudio y en 2022 se puso en contacto con Jaimie Henderson, autor del estudio, y se ofreció como voluntaria para participar en el ensayo clínico.

En marzo de ese a√Īo se le implantaron dos sensores peque√Īos en dos regiones separadas, ambas implicadas en la producci√≥n del habla, en la superficie de su cerebro. Los sensores son componentes de una interfaz cerebro-ordenador intracortical, o iBCI. Combinados con un software de decodificaci√≥n de √ļltima generaci√≥n, est√°n dise√Īados para traducir la actividad cerebral que acompa√Īa los intentos de habla en palabras en una pantalla.

Gracias a este dispositivo, la velocidad al hablar de Bennett alcanza las 62 palabras por minuto, lo que es 3,4 veces más rápido que el récord anterior de un dispositivo similar y se acerca más a la velocidad de una conversación natural (160 palabras por minuto en inglés).

¬ęHemos demostrado que se puede decodificar el habla intencionada registrando la actividad de una peque√Īa √°rea en la superficie del cerebro¬Ľ, destaca Henderson, cirujano y autor del estudio.

El inter√©s de Henderson en este campo viene desde muy peque√Īo. ¬ęA los 5 a√Īos mi padre tuvo un accidente de circulaci√≥n muy grave y perdi√≥ gran parte de su capacidad de hablar y de moverse. Recuerdo no poder entender lo que quer√≠a decir y esta experiencia personal foment√≥ en m√≠ la necesidad de estudiar la forma para poder facilitar la comunicaci√≥n de las personas en un estado similar. Y ese ha sido el motivo de mi investigaci√≥n desde hace ya m√°s de 15 a√Īos en mi laboratorio¬Ľ.

Los sensores implantados en la corteza cerebral de Bennett, la capa m√°s externa del cerebro, son matrices cuadradas de peque√Īos electrodos de silicio. Cada matriz contiene 64 electrodos, que penetran en la corteza cerebral a una profundidad que equivale aproximadamente a la de dos monedas apiladas. Las matrices implantadas est√°n conectadas a finos cables que luego se conectan por cable a un ordenador. Un algoritmo de inteligencia artificial recibe y decodifica la informaci√≥n electr√≥nica que emana del cerebro de Bennett.

Imagen - A los 5 a√Īos mi padre tuvo un accidente de circulaci√≥n muy grave y perdi√≥ gran parte de su capacidad de hablar y de moverse

A los 5 a√Īos mi padre tuvo un accidente de circulaci√≥n muy grave y perdi√≥ gran parte de su capacidad de hablar y de moverse

Jaimie Henderson

Universidad de Stanford

¬ęEste sistema est√° entrenado para saber qu√© palabras deben venir antes que otras y qu√© fonemas forman qu√© palabras¬Ľ, explica Frank Willett, del Instituto M√©dico Howard Hughes y coautor del estudio. ¬ęSi algunos fonemas se interpretaron incorrectamente, todav√≠a puede hacer una suposici√≥n acertada¬Ľ.

Para ense√Īar al algoritmo a reconocer qu√© patrones de actividad cerebral estaban asociados con qu√© fonemas, Pat particip√≥ en unas 25 sesiones de entrenamiento, cada una de unas cuatro horas de duraci√≥n, durante las cuales intent√≥ repetir frases elegidas al azar de un conjunto de datos grande que consist√≠a en muestras de conversaciones entre personas que hablaban por tel√©fono.

Bennett repitió de 260 a 480 frases por sesión de entrenamiento.

Cuando las frases se limitaron a un vocabulario de 50 palabras (en cuyo caso las frases utilizadas se tomaron de una lista especial), la tasa de error del sistema de traducción fue del 9,1%. Al ampliar el vocabulario a 125.000 palabras (lo suficientemente grande como para componer casi cualquier cosa que quisieras decir), la tasa de error aumentó al 23,8%: lejos de ser perfecta, pero un gran avance con respecto al estado anterior del arte.

En el otro estudio, Edward Chang y sus colegas de la Universidad de California en San Francisco (UCSF), han dise√Īado una interfaz basada en un m√©todo diferente de acceso.

En este caso, usaron electrodos no concentrados que se asientan en la superficie del cerebro y detectan la actividad de muchas c√©lulas a lo largo de todo el c√≥rtex. Esta BCI decodifica las se√Īales cerebrales para generar tres salidas simult√°neas: texto, habla audible y un avatar que habla.

Los investigadores entrenaron un modelo de inteligencia artificial para descifrar los datos neuronales recogidos de Ann mientras intentaba pronunciar frases completas en silencio.

La traducci√≥n de cerebro a texto gener√≥ una tasa media de 78 palabras por minuto, que es 4,3 veces m√°s r√°pida que el r√©cord anterior y se acerca a√ļn m√°s a la velocidad de una conversaci√≥n natural.

Adem√°s, las se√Īales cerebrales tambi√©n se tradujeron directamente en sonidos de voz sintetizados inteligibles, con una tasa de error de palabras del 28% para un conjunto de 529 frases, y personalizados seg√ļn la voz del participante antes de la lesi√≥n

Y¬ł a diferencia del otro estudio, tambi√©n se descodifica la actividad neuronal de los movimientos faciales de un avatar al hablar, as√≠ como expresiones no verbales.

El sistema tambi√©n puede decodificar estas se√Īales en texto a casi 80 palabras por minuto, una mejora significativa en comparaci√≥n con la tecnolog√≠a disponible.

M√°s ambiciosos

El grupo de Chang ya hab√≠a demostrado que era posible decodificar se√Īales cerebrales en forma de texto en un var√≥n que tambi√©n hab√≠a experimentado un derrame cerebral en el tronco cerebral muchos a√Īos antes.

El estudio actual demuestra algo m√°s ambicioso: decodificar se√Īales cerebrales en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante una conversaci√≥n.

El equipo implant√≥ un rect√°ngulo extremadamente delgado de 253 electrodos en la superficie del cerebro de la mujer en √°reas que su equipo hab√≠a descubierto que eran cr√≠ticas para el habla. Los electrodos interceptaron las se√Īales cerebrales que, de no ser por el derrame cerebral, habr√≠an llegado a los m√ļsculos de su lengua, mand√≠bula, laringe y cara. Un cable conectado a un puerto fijado en su cabeza conect√≥ los electrodos a un conjunto de ordenadores.

Imagen principal - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Imagen secundaria 1 - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Imagen secundaria 2 - Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Pat Bennet durante las sesiones de entrenamiento con el equipo de científicos. A la dcha.,el implante cerebral de Ann.
Steve Fisch & Noah Berger

Durante semanas, Ann trabaj√≥ para entrenar a los algoritmos de inteligencia artificial del sistema para que reconocieran sus se√Īales cerebrales √ļnicas para el habla.

En lugar de entrenar al IA para reconocer palabras completas, los investigadores crearon un sistema que decodifica palabras a partir de fonemas. Estas son las subunidades del habla que forman palabras habladas de la misma manera en que las letras forman palabras escritas. ¬ęHello¬Ľ, por ejemplo, contiene cuatro fonemas: ¬ęHH¬Ľ, ¬ęAH¬Ľ, ¬ęL¬Ľ y ¬ęOW¬Ľ.

Usando este enfoque, el ordenador solo necesitó aprender 39 fonemas para descifrar cualquier palabra en inglés. Esto mejoró tanto la precisión del sistema como su velocidad, haciéndolo tres veces más rápido.

¬ęLa precisi√≥n, la velocidad y el vocabulario son cruciales¬Ľ, explica Sean Metzger, quien desarroll√≥ el decodificador de texto. ¬ęEs lo que le da al usuario el potencial, con el tiempo, de comunicarse casi tan r√°pido como nosotros y de tener conversaciones mucho m√°s naturales y normales¬Ľ.

Para crear la voz, el equipo ideó un algoritmo para sintetizar el habla, al que personalizaron para que sonara como la voz de Ann antes de la lesión, utilizando una grabación de Ann hablando en su boda.

El avatar se dise√Ī√≥ con la ayuda de un software que simula y anima los movimientos musculares de la cara y que convierte las se√Īales enviadas desde el cerebro de la mujer mientras intentaba hablar en los movimientos en la cara del avatar, haciendo que la mand√≠bula se abriera y cerrara, los labios se pronunciaran y se abrieran y la lengua subiera y bajara, as√≠ como los movimientos faciales de felicidad, tristeza y sorpresa.

Para Chang, al restaurar la habilidad de comunicarse, ¬ępodemos terminar con el aislamiento que sufren estas personas. Nuestra voz, dice, es parte de nuestra identidad, y representa lo que somos¬Ľ.

Imagen - Esto es una prueba de concepto científica, no un dispositivo real que las personas puedan usar en la vida cotidiana

Esto es una prueba de concepto científica, no un dispositivo real que las personas puedan usar en la vida cotidiana

Frank Willett

Instituto Médico Howard Hughes

Ahora bien, los investigadores advierten que se trata de un ensayo clínico y que estos dispositivos no están todavía a disposición de los pacientes, aunque ya hay algunas empresas interesadas en estos prototipos.

Henderson, por otro lado, subraya la implicaci√≥n de las participantes: ¬ęson personas muy especiales interesadas en colaborar y mejorar la investigaci√≥n. Debemos estar muy agradecidos con su compromiso y energ√≠a¬Ľ.

¬ęEsto es una prueba de concepto cient√≠fica, no un dispositivo real que las personas puedan usar en la vida cotidiana -a√Īade Willett-. Pero es un gran avance para estas personas¬Ľ.

¬ęImagina -escribe Bennett- c√≥mo de diferentes ser√°n las actividades cotidianas como ir de compras, a una reuni√≥n, pedir comida, entrar en un banco, hablar por tel√©fono, expresar amor o aprecio, incluso discutir¬Ľ.

Chang, presidente del Departamento de Cirug√≠a Neurol√≥gica en UCSF, espera que este √ļltimo avance conduzca a un sistema que permita el habla a partir de se√Īales cerebrales en un futuro cercano.

Y concluye: ¬ęel mensaje principal de estos dos estudios es que hay esperanza para estos pacientes¬Ľ.



Source link

Si quieres conocer otros artículos parecidos a Implantes cerebrales devuelven el habla a una paciente de ELA puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *