Como a Stephen Hawking, nuevo decodificador puede convertir la actividad cerebral en habla

Captura de vídeo / Cápsula Mirada Crítica - Vimeo

El decodificador del habla que usaba Stephen Hawking ha quedado en el pasado. Científicos han desarrollado uno que puede traducir la actividad cerebral y convertirla en habla. Esto podría devolverles la voz a personas con Parkinson, aquellas que sufrieron parálisis, afecciones a la garganta o esclerosis lateral amiotrófica (ELA). Los detalles fueron publicados en Nature.

“Por primera vez podemos generar oraciones habladas completas basadas en la actividad cerebral de un individuo", dijo Edward Chang, autor principal del trabajo y profesor de cirugía neurológica en la Universidad de California en San Francisco (UCSF). Esta es la prueba que con la tecnología se puede construir dispositivos que le devuelvan el habla a los pacientes que la perdieron.

¿Qué se estudió?

Stephen Hawking utilizaba sintetizadores del habla, los cuales emplean el deletreo de letras usando los movimientos de músculos de la cara u ojos. Este tipo de decodificadores permite que las personas se comuniquen con ocho palabras por minuto, siendo una gran desventaja en comparación a aquellos con habla natural que pronuncian entre 100 y 150 palabras por minuto.

Anteriormente, los estudios sobre el habla se habían enfocado en entender cómo se representan los sonidos en el cerebro. Sin embargo, el doctor Chang y sus colegas se centraron en estudiar aquellas áreas del cerebro que envían instrucciones para coordinar movimientos de las partes del cuerpo (lengua, los labios, la mandíbula y la garganta) involucradas en el habla.

“Pensamos que si estos centros de habla en el cerebro codifican movimientos en lugar de sonidos, deberíamos intentar hacer lo mismo en la decodificación de esas señales", afirmó Gopala Anumanchipalli,  neurocientífico de la Universidad de California San Francisco (UCSF) y coautor del artículo.

¿Cómo fue el estudio?

Para realizar el estudio, se reclutó a cinco voluntarios que iban a someterse a una neurocirugía para la epilepsia. Los médicos implantaron electrodos en el cerebro para identificar cuáles eran las fuentes de las convulsiones. Cuando los pacientes leyeron varias oraciones, los científicos registraron la actividad de un área del cerebro involucrada en la producción del habla.

Con ello se decodificó el habla traduciendo las señales eléctricas a movimientos vocales, los cuales se convertían a sonidos. Luego se entrenó un algoritmo de aprendizaje automático que debían hacer coincidir los patrones de actividad eléctrica del cerebro con los movimientos vocales que estos generaban: presionar los labios, apretar las cuerdas vocales y mover la punta de la lengua.

Las muestras obtenidas suenan a una voz humana normal, pero con un acento extranjero. Para probar la inteligibilidad, a través de Mechanical Turk, una plataforma de Amazon, se hizo que cientos de personas escucharan los audios. Durante la prueba, los oyentes tenían que escribir lo que oían: 100 oraciones y grupos de 25 palabras.

Sus transcripciones fueron correctas el 43% del tiempo. Sin embargo, existían algunos problemas para decodificar los sonidos como “p” y “b”. Otros sonidos como “sh” y “z” sí fueron entendidos con precisión.

¿Qué se espera?

El siguiente reto será determinar si es que alguien que siempre fue mudo podría aprender a usar el sistema sin entrenarlo con su propia voz. “Esto podría ser realmente importante para brindarles a las personas que no tienen medios para producir lenguaje un dispositivo que pueda ofrecérselo", afirmó la profesora de neurociencia cognitiva Kate Watkins, quien no participó del estudio. Ella considera que este trabajo en un gran avance en el campo de la neurociencia.

Las limitaciones de los sintetizadores de voz como el que usaba Hawking radican en que, a pesar de reconocer los movimientos de los usuarios y utilizar una tecnología predictiva, el proceso es frustrantemente lento. Por ello, este último estudio podría, por primera vez, permitir que levanten la voz quienes han sido privados del habla y se les escuche claramente.

 

Adrian Díaz
Esta noticia ha sido publicada originalmente en N+1, ciencia que suma

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que suma:www.nmas1.org”.​​​​​​

 

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.