logo_medicina
Síguenos

Una nueva técnica de IA convierte los pensamientos en texto mediante la decodificación de la actividad cerebral

Funciona a través del análisis de las imágenes no invasivas y es capaz de producir descripciones muy detalladas de lo que vemos, pensamos y escuchamos

Compartir
Una nueva técnica de IA convierte los pensamientos en texto mediante la decodificación de la actividad cerebral

Por Clara Arrabal

7 de noviembre de 2025

Leer la mente ya es posible. Aunque suene futurista o propio de una película de ficción, neurocientíficos japoneses han desarrollado un sistema de Inteligencia Artificial que es capaz de interpretar las imágenes cerebrales de una persona y emitir un texto descriptivo sobre lo que está viendo, imaginando o escuchando “con una precisión impresionante”, según los investigadores.

Esta nueva técnica ha sido bautizada como “subtitulado mental” y también puede generar información sobre cómo el cerebro presenta el mundo antes de que los pensamientos sean expresados por palabras. Por ello, se presenta como una herramienta de gran ayuda para que las personas con dificultades del lenguaje se puedan comunicar mejor. El avance ha sido publicado en un artículo de la revista Science.

El modelo predice lo que una persona está mirando "con mucho detalle", dice Alex Huth, neurocientífico computacional de la Universidad de California, Berkeley. "Esto es difícil de hacer. Es sorprendente que puedas obtener tantos detalles".

Una década de investigación

Conseguir un alto nivel de precisión no ha sido nada fácil y decodificar la interpretación del cerebro sobre contenido complejo, como vídeos o formas abstractas era uno de los principales retos de los investigadores.

Los intentos anteriores solo eran capaces de identificar palabras clave sobre lo que la persona podía ver o escuchar, pero no podían hacer una descripción del entorno completo. Otros, utilizaron modelos de IA para crear la estructura de las oraciones por sí mismos, lo que dificulta saber si la descripción estaba realmente representada en el cerebro.

Sin embargo, el método de Tomoyasu Horikawa, neurocientífico computacional de NTT Communication Science Laboratories en Kanagawa (Japón), está basado en un modelo de IA de lenguaje profundo para analizar los subtítulos de texto de más de 2.000 videos, convirtiendo cada uno en una "firma de significado" numérica única.

Después, se entrenó una herramienta de inteligencia artificial separada en los escáneres cerebrales de seis participantes y se aprendió a encontrar los patrones de actividad cerebral que coincidían con cada firma de significado mientras los participantes miraban los videos.

Una vez entrenado, este decodificador cerebral podría leer un nuevo escáner cerebral de una persona que mira un video y predecir la firma del significado. Luego, un generador de texto de IA diferente buscaría una oración que se acerque más a la firma de significado decodificada del cerebro del individuo. 



Te puede interesar
descubren-interruptor-genetico-podria-frenar-sarcoma-ewing
Descubren el interruptor genético que podría frenar el Sarcoma de Ewing
poco-ministra-sanidad-muy-ministra-partido
Poco ministra de Sanidad, muy ministra de partido
como-afecta-la-llegada-del-frio-a-nuestro-cuerpo
Cómo afecta la llegada del frío a nuestro cuerpo