Meta desarrolló una IA capaz de reconstruir frases a partir de señales cerebrales con un 80% de precisión. Este avance podría revolucionar la comunicación para personas con lesiones cerebrales, impulsando nuevas interfaces cerebro-ordenador no invasivas.
Meta desarrolló una inteligencia artificial (IA) capaz de reconstruir frases a partir de señales cerebrales con una precisión del 80%, según lo informó la compañía en un comunicado.
Se trata de una investigación realizada en colaboración con el Centro Vasco de Cognición, Cerebro y Lenguaje, un destacado centro interdisciplinar de San Sebastián (España), que ha logrado importantes avances que muestran cómo la IA puede ayudar a avanzar en la comprensión de la inteligencia humana.
“Basándonos en nuestro trabajo previo para decodificar la percepción de las imágenes y el discurso de la actividad cerebral, compartimos una investigación que descifra con éxito la producción de frases a partir de grabaciones cerebrales no invasivas, descodificando con precisión hasta el 80% de los caracteres y, por tanto, reconstruyendo a menudo frases completas únicamente a partir de señales cerebrales”, reveló la compañía.
Mejorando la calidad de vida
Este tipo de investigaciones son especialmente útiles para personas que han sufrido lesiones cerebrales que les impiden comunicarse. La compañía explicó que, en este primer estudio, emplearon magnetoencefalografía (MEG) y electroencefalografía (EEG), dos técnicas no invasivas que registran los campos magnéticos y eléctricos generados por la actividad neuronal. Con estos dispositivos, grabaron la actividad cerebral de 35 voluntarios sanos mientras tecleaban frases.
Después, entrenaron un nuevo modelo de IA para reconstruir la frase únicamente a partir de las señales cerebrales. En frases nuevas, el modelo de IA decodifica hasta el 80% de los caracteres tecleados por los participantes grabados con MEG, al menos dos veces mejor que lo que puede obtenerse con el sistema clásico de EEG.
De acuerdo con Meta, “esta investigación podría crear una nueva vía para que las interfaces cerebro-ordenador no invasivas ayuden a restablecer la comunicación de quienes han perdido la capacidad de hablar, pero aún quedan varios retos importantes antes de que este enfoque pueda aplicarse en entornos clínicos”.
Entendiendo cómo el cerebro forma el lenguaje
En un segundo estudio, Meta explica cómo la IA puede ayudar a comprender las señales cerebrales y cómo el cerebro transforma los pensamientos en una secuencia de palabras.
Para analizar cómo el cerebro convierte los pensamientos en complejas secuencias de acciones motoras, el estudio utilizó IA para interpretar las señales captadas por MEG mientras los participantes tecleaban frases. Gracias a la captura de 1.000 imágenes cerebrales por segundo, los investigadores pudieron identificar con precisión el momento en que los pensamientos se transforman en palabras, sílabas e incluso letras individuales.
“Nuestro estudio demuestra que el cerebro genera una secuencia de representaciones que parten del nivel más abstracto de representaciones -el significado de una frase- y las transforma progresivamente en una multitud de acciones, como el movimiento real de los dedos sobre el teclado”.
El estudio también revela cómo el cerebro representa de forma coherente y simultánea palabras y acciones sucesivas. “Nuestros resultados demuestran que el cerebro utiliza un ‘código neuronal dinámico’, un mecanismo neuronal especial que encadena representaciones sucesivas manteniendo cada una de ellas durante largos periodos de tiempo”.
Recientemente, Meta anunció una donación de $2.2 millones a la Fundación del Hospital Rothschild para apoyar su investigación en neurociencia. Esta contribución refuerza su colaboración con instituciones europeas como NeuroSpin, INRIA y ENS PSL, con el objetivo de impulsar avances científicos que puedan tener un impacto positivo en la vida de las personas.