logo_medicina
Síguenos

La inteligencia artificial devuelve la voz a una mujer que sufrió un derrame cerebral

Es la primera vez que, mediante inteligencia artificial, se sintetizan el habla o las expresiones faciales a partir de señales cerebrales

Compartir
La inteligencia artificial devuelve la voz a una mujer que sufrió un derrame cerebral

Por Andrea Martín

24 de agosto de 2023

“La voz humana es el instrumento más bello, pero también el más difícil de tocar”. Así explicaba el compositor y director de orquesta Richard Strauss lo que significaba la voz. Y es que son muchas las personas que, por circunstancias diversas, han perdido la capacidad de hablar. Ahora, gracias a un innovador implante cerebral y un avatar digital, la superviviente de un accidente cerebrovascular ha logrado volver a comunicarse.

Con 30 años, Ann sufrió un derrame cerebral que la dejó gravemente paralizada. Perdió el control de todos los músculos de su cuerpo y ni siquiera podía respirar. Durante los siguientes cinco años, Ann se acostó todas las noches con miedo de morir mientras dormía. Le llevó años de fisioterapia poder volver a mover los músculos faciales lo suficiente como para reír o llorar. Aun así, los músculos que le habrían permitido hablar permanecieron inmóviles. “De la noche a la mañana me quitaron todo. Tenía una hija de 13 meses, un hijastro de ocho años y un matrimonio de 26 meses. Eres plenamente consciente, los cinco sentidos funcionan, pero estás encerrado dentro de un cuerpo donde ningún músculo funciona. Aprendí a respirar por mi cuenta nuevamente, ahora tengo movimiento completo del cuello, puedo llorar y leer, con los años mi sonrisa ha regresado y puedo guiñar un ojo”, ha escrito Ann.

Ahora, los Investigadores de la Universidad de California en San Francisco (UCSF) y de la Universidad de Berkeley, en Estados Unidos, han desarrollado una nueva tecnología cerebro-ordenador que ha permitido que Ann se comunique a través de un avatar digital y esperan que algún día esta tecnología pueda permitir a más personas, que se encuentren en una situación similar, volver a hablar.

Es la primera vez que, mediante inteligencia artificial, se sintetizan el habla o las expresiones faciales a partir de señales cerebrales. El sistema también puede decodificar estas señales en texto a casi 80 palabras por minuto.

Edward Chang, director de cirugía neurológica de la UCSF que ha trabajado en esta tecnología durante más de una década, espera que este último avance de la investigación, publicado en la revista Nature, pueda conducir a un sistema aprobado por la FDA (Administración de Alimentos y Medicamentos ​de los Estados Unidos) que permitirá el habla a partir de señales cerebrales en un futuro próximo. "Nuestro objetivo es restaurar una forma de comunicación de la forma más natural posible", dijo Chang. "Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes".

Cómo funciona el sistema

El sistema del equipo de Chang funciona decodificando las señales del cerebro junto con los movimientos que mueven el rostro de una persona durante una conversación. Para hacer esto, los científicos implantaron un rectángulo delgado como un papel de 253 electrodos en la superficie del cerebro sobre áreas críticas para el habla. Los electrodos interceptaron las señales cerebrales que, si no fuera por el derrame cerebral, habrían llegado a los músculos de los labios, la lengua, la mandíbula y la laringe de Ann, así como a su cara. Un cable, conectado a un puerto fijado a la cabeza de Ann, conectaba los electrodos a un banco de ordenadores.

Durante semanas, Ann trabajó con el equipo para entrenar los algoritmos de inteligencia artificial del sistema para que reconocieran sus señales cerebrales únicas para el habla. Esto implicó repetir diferentes frases de un vocabulario conversacional de 1.024 palabras una y otra vez hasta que la computadora reconoció los patrones de actividad cerebral asociados con todos los sonidos básicos del habla. "Fue emocionante verla pasar de 'vamos a intentar hacer esto' a verlo suceder más rápido de lo que probablemente nadie pensaba", dijo el marido de Ann, Bill.

En lugar de entrenar a la IA para que reconozca palabras completas, los investigadores crearon un sistema que decodificaba palabras a partir de componentes más pequeños llamados fonemas.

Con este enfoque, el ordenador solo necesitaba aprender 39 fonemas para descifrar cualquier palabra en inglés. Esto mejoró la precisión del sistema y lo hizo tres veces más rápido.

Devolviéndole la voz a mamá 

Para ayudar a Ann a la hora de hablar, el equipo ideó un algoritmo para sintetizar el habla, que personalizaron para que sonara como su voz antes de la lesión mediante el uso de una grabación de Ann hablando en su boda. El equipo animó el avatar de Ann con la ayuda de un software que simula y anima los movimientos musculares de la cara. "Mi cerebro se siente raro cuando escucha mi voz sintetizada", escribió en respuesta a una pregunta. "Es como escuchar a un viejo amigo".

Ann espera con ansias el día en que su hija, que sólo conoce la voz impersonal y con acento británico de su dispositivo de comunicación actual, también pueda oírla. “Mi hija tenía un año cuando me lesioné, es como si no conociera a Ann... No tiene idea de cómo suena Ann”. Además, añade que, para ella, esta tecnología le ha cambiado la vida, “este estudio me ha permitido vivir realmente mientras estoy viva”.



Te puede interesar
sanidad-privada-estalla-monica-garcía-declaraciones-malintencionadas-gratuitas
Mónica García: "La privatización sanitaria está vinculada con el aumento de la mortalidad evitable y con el empeoramiento de la calidad asistencial"
carlos-latre-hormiguero-cerebro
La universidad de Málaga estudia el cerebro de Carlos Latre
espana-seis-cardiologos-por-100-mil-habitantes
España cuenta solo con seis cardiólogos por cada 100 mil habitantes