• Home
  • Regiones
    • Latinoamérica – Norte
    • Latinoamérica – Andina
    • Latinoamérica – Sur
  • Secciones
    • Marketing
    • Creatividad
    • Ad tech
    • E-commerce
    • Innovación
    • Nombramientos
  • Ediciones Especiales
    • Smart Data
    • Retail Media
    • Streaming
    • Streaming II
    • Sustentabilidad
  • Coberturas
    • Cannes Lions
    • Advertising Week LATAM
    • IAB México
    • Effie México
    • Gerety Awards
Facebook Twitter Instagram
Lo último:
  • TikTok como plataforma de innovación y promoción de marca
  • Retail Media: la nueva joya de la publicidad que ya mueve más de 136 mil millones de dólares
  • El futuro del fashion retail en Latinoamérica: Digitalización, tendencias y conexión con el consumidor
  • Hot Sale: ¿qué gustos se dieron los mexicanos en la edición 2024?
  • GUT Buenos Aires nombra a Gonzalo Díaz Vargas y Joe Almeida como nuevos Directores Creativos
  • VML Latam adquirió Corebiz Internacional para seguir impulsando sus capacidades de ecommerce en la región
  • IA y creatividad: cómo la tecnología está transformando la publicidad
  • 5 tendencias que definen el influencer marketing en 2025, según NINCH
Facebook Instagram YouTube LinkedIn
Insider Latam
  • Home
  • Regiones
    • Latinoamérica – Norte
    • Latinoamérica – Andina
    • Latinoamérica – Sur
  • Secciones
    • Marketing
    • Creatividad
    • Ad tech
    • E-commerce
    • Innovación
    • Nombramientos
  • Ediciones Especiales
    • Smart Data
    • Retail Media
    • Streaming
    • Streaming II
    • Sustentabilidad
  • Coberturas
    • Cannes Lions
    • Advertising Week LATAM
    • IAB México
    • Effie México
    • Gerety Awards
Insider Latam
Inicio » ¿Puede la inteligencia artificial leer nuestra mente? el revelador estudio de Meta al respecto
Innovación

¿Puede la inteligencia artificial leer nuestra mente? el revelador estudio de Meta al respecto

By Periodista18/02/2025Updated:18/02/2025
Facebook LinkedIn Twitter
Meta desarrolló una IA capaz de reconstruir frases a partir de señales cerebrales con un 80% de precisión. Este avance podría revolucionar la comunicación para personas con lesiones cerebrales, impulsando nuevas interfaces cerebro-ordenador no invasivas.

Meta desarrolló una inteligencia artificial (IA) capaz de reconstruir frases a partir de señales cerebrales con una precisión del 80%, según lo informó la compañía en un comunicado.

Se trata de una investigación realizada en colaboración con el Centro Vasco de Cognición, Cerebro y Lenguaje, un destacado centro interdisciplinar de San Sebastián (España), que ha logrado importantes avances que muestran cómo la IA puede ayudar a avanzar en la comprensión de la inteligencia humana.

“Basándonos en nuestro trabajo previo para decodificar la percepción de las imágenes y el discurso de la actividad cerebral, compartimos una investigación que descifra con éxito la producción de frases a partir de grabaciones cerebrales no invasivas, descodificando con precisión hasta el 80% de los caracteres y, por tanto, reconstruyendo a menudo frases completas únicamente a partir de señales cerebrales”, reveló la compañía.

Mejorando la calidad de vida

Este tipo de investigaciones son especialmente útiles para personas que han sufrido lesiones cerebrales que les impiden comunicarse. La compañía explicó que, en este primer estudio, emplearon magnetoencefalografía (MEG) y electroencefalografía (EEG), dos técnicas no invasivas que registran los campos magnéticos y eléctricos generados por la actividad neuronal. Con estos dispositivos, grabaron la actividad cerebral de 35 voluntarios sanos mientras tecleaban frases.

Después, entrenaron un nuevo modelo de IA para reconstruir la frase únicamente a partir de las señales cerebrales. En frases nuevas, el modelo de IA decodifica hasta el 80% de los caracteres tecleados por los participantes grabados con MEG, al menos dos veces mejor que lo que puede obtenerse con el sistema clásico de EEG.

De acuerdo con Meta, “esta investigación podría crear una nueva vía para que las interfaces cerebro-ordenador no invasivas ayuden a restablecer la comunicación de quienes han perdido la capacidad de hablar, pero aún quedan varios retos importantes antes de que este enfoque pueda aplicarse en entornos clínicos”.

Entendiendo cómo el cerebro forma el lenguaje 

En un segundo estudio, Meta explica cómo la IA puede ayudar a comprender las señales cerebrales y cómo el cerebro transforma los pensamientos en una secuencia de palabras.

Para analizar cómo el cerebro convierte los pensamientos en complejas secuencias de acciones motoras, el estudio utilizó IA para interpretar las señales captadas por MEG mientras los participantes tecleaban frases. Gracias a la captura de 1.000 imágenes cerebrales por segundo, los investigadores pudieron identificar con precisión el momento en que los pensamientos se transforman en palabras, sílabas e incluso letras individuales.

“Nuestro estudio demuestra que el cerebro genera una secuencia de representaciones que parten del nivel más abstracto de representaciones -el significado de una frase- y las transforma progresivamente en una multitud de acciones, como el movimiento real de los dedos sobre el teclado”.

El estudio también revela cómo el cerebro representa de forma coherente y simultánea palabras y acciones sucesivas. “Nuestros resultados demuestran que el cerebro utiliza un ‘código neuronal dinámico’, un mecanismo neuronal especial que encadena representaciones sucesivas manteniendo cada una de ellas durante largos periodos de tiempo”.

Recientemente, Meta anunció una donación de $2.2 millones a la Fundación del Hospital Rothschild para apoyar su investigación en neurociencia. Esta contribución refuerza su colaboración con instituciones europeas como NeuroSpin, INRIA y ENS PSL, con el objetivo de impulsar avances científicos que puedan tener un impacto positivo en la vida de las personas.

IA meta
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email

Related Posts

Retail Media: la nueva joya de la publicidad que ya mueve más de 136 mil millones de dólares

04/06/2025

VML Latam adquirió Corebiz Internacional para seguir impulsando sus capacidades de ecommerce en la región

04/06/2025

5 tendencias que definen el influencer marketing en 2025, según NINCH

04/06/2025
Play List Cannes Lions 2024
Notas del mes

Havas Argentina compartió insights clave sobre la evolución del ecosistema de medios

  • No te lo pierdas

Rexona reinventa el cuidado personal con “All Body Deo”, el primer desodorante para todo el cuerpo

Creatividad, impacto e innovación: las campañas de Ogilvy Latam que compiten este año en Cannes Lions

Estos son los Hot Contenders de Archer Troy rumbo a Cannes Lions 2025

Facebook Instagram YouTube LinkedIn
  • Facebook
  • Instagram
  • YouTube
    Sobre nosotros

    STETSON INSIDER LLC (DBA "Insider Latam) 8 The Green, STE A, Dover, Delaware, 19901, United States of America - EIN 372016757

    El medio de noticias que informa acerca de la transformación digital del marketing y de la publicidad en Hispanoamérica.
    PRENSA: prensa@insiderlatam
    COMERCIAL: marketing@insiderlatam.com
    CEL: +5491130273030

    • Facebook
    • LinkedIn
    • Instagram
    • Youtube
    🎮 Battle of Champions sacudió CDMX con lo mejo 🎮 Battle of Champions sacudió CDMX con lo mejor del gaming, los influencers… ¡y una comunidad que lo dio todo! 💥

🕹️ En el marco del lanzamiento de la nueva temporada de @callofduty Mobile, el Frontón Bucareli se convirtió en el punto de encuentro entre fans, marcas y creadores de contenido.

🤝 Con OXXO @tiendasoxxo como patrocinador principal, la experiencia se vivió a lo grande: torneos, activaciones, experiencias inmersivas y mucho más.

La clave fue amplificar el evento, integrando a referentes del mundo gamer como hosts y protagonistas reales de cada experiencia: Rey Tamalero, Antrax, Donaro, Machika, Luz Gaming, Jeanki y Vic Medina.

🚀 Una apuesta por el engagement real, la cocreación y la construcción de comunidad.

#CallOfDutyMobile #BattleOfChampions #GamingEvent #InfluencersGaming #OXXO #ComunidadGamer #EventosCDMX
    Follow on Instagram
    INSIDER LATAM
Copyright © 2018