Meta desarrolla IA capaz de decodificar pensamientos
Meta ha desarrollado lo impensable, una IA capaz de decodificar los pensamientos y transformarlos en texto

Foto cortesía de Freepik
Leer más: Protoclone, el primer robot musculoesquelético del mundo
La compañía de Mark Zuckerberg sigue dando pasos agigantados en su búsqueda de respuestas sobre la interacción cerebral y la tecnología.
Con la colaboración del Centro de Investigación Fundamental de Inteligencia Artificial (FAIR) de Meta y el Centro Vasco de Cognición, Cerebro y Lenguaje (BCBL) lograron obtener resultados satisfactorios.
Gracias a la magnetoencefalografía (MEG) y electroencefalografía (EEG), los científicos de ambos centros lograron analizar la actividad cerebral mediante una IA y transformarla en palabras escritas.
De acuerdo con Meta, el sistema está basado en un Brain2Qwerty, una IA que tiene la capacidad de interpretar las señales magnéticas del cerebro y transcribirlas.
“Estamos en el momento exacto en que los pensamientos se transforman en palabras”, dijo FAIR.

Foto cortesía de WinBuzzer
¿Cómo funciona?
Los investigadores hicieron varias evaluaciones a diferentes participantes que usaron un casco con escáner basado en Brain2Qwerty.
Este sistema es capaz de captar las señales magnéticas de las neuronas en tiempo real.
Mientras las señales son captadas, la IA se encarga de analizar los patrones y traduce la actividad cerebral del momento en palabras.
Los expertos de FAIR, apuntaron que la inteligencia artificial detectó hasta el 80 % de los caracteres generados durante la evaluación.
Además, Meta apuntó que su sistema identificó las letras y comprendió el contexto semántico de las palabras que los participantes tenían en mente.
¿Está lista para ser usada?
Si bien representa un gran avance, Meta explicó que aún quedan investigaciones por delante ya que la IA está en fase inicial.
A juicio de los investigadores, el casco que funciona como escáner, requiere una sala especial con blindaje contra el campo magnético terrestre.
Además, la IA aún es bastante débil puesto que, si los usuarios se mueven durante un estudio, es posible que la señal y los resultados se vean alterados.
“Estamos en fase experimental, pero hay mucha posibilidad de que esto pueda ayudar a personas con discapacidad a comunicarse o incluso redefinir la privacidad del pensamiento”, concluyeron.
Fuente: Meta y Gizmodo
inSouth Magazine, desde el 2015 exaltando los valores de nuestra comunidad Latina. Síguenos en nuestras redes sociales como @insouthmagazine y mantente informado.
¡inSouth Magazine siempre contigo!
Seguir leyendo…