A través de un modelo de inteligencia artificial (IA), científicos desentrañaron la intrincada actividad cerebral que se desarrolla durante las conversaciones cotidianas, dando luces sobre cómo los seres humanos comprenden el lenguaje.
Esta herramienta podría ofrecer nuevos conocimientos sobre la neurociencia del lenguaje y, algún día, podría ayudar a mejorar las tecnologías diseñadas para reconocer el habla o ayudar a las personas a comunicarse, de acuerdo con los investigadores detrás del estudio.
Basándose en cómo un modelo de IA transcribe audio en texto, los científicos mapean la actividad cerebral que tiene lugar durante una conversación con mayor precisión que los modelos tradicionales que codifican características específicas de la estructura del lenguaje, como fonemas (los sonidos simples que forman las palabras) y partes del discurso (como sustantivos, verbos y adjetivos).
El modelo utilizado en el estudio, llamado Whisper, toma archivos de audio y sus transcripciones de texto, que se utilizan como datos de entrenamiento para mapear el audio con el texto. Luego, utiliza las estadísticas de dicha asignación para «aprender» a predecir el texto de nuevos archivos de audio que no ha escuchado previamente.
Por lo tanto, Whisper funciona únicamente con estas estadísticas, sin ninguna característica de la estructura del lenguaje codificada en su configuración original. No obstante, en el estudio, los científicos demostraron que dichas estructuras seguían apareciendo en el modelo una vez entrenado.
El estudio arroja luz sobre el funcionamiento de estos tipos de modelos de IA, denominados grandes modelos lingüísticos (LLM), sin embargo, el equipo de investigación está más interesado en la perspectiva que proporciona sobre el lenguaje y cómo lo comprenden los humanos.
Identificar similitudes entre cómo el modelo desarrolla las capacidades de procesamiento del lenguaje y cómo las personas desarrollan estas habilidades podría ser útil para diseñar dispositivos que ayuden a las personas a comunicarse.
Detalles de la investigación
El estudio, publicado el 7 de marzo en la revista Nature Human Behaviour, contó con cuatro participantes con epilepsia que ya estaban siendo sometidos a una cirugía para que les implantaran electrodos de monitoreo cerebral por razones clínicas.
Con el consentimiento de los pacientes, los investigadores grabaron todas sus conversaciones durante su estancia hospitalaria, que duró desde varios días hasta una semana. En total, capturaron más de 100 horas de audio.
A cada uno de los participantes se le instalaron entre 104 y 255 electrodos para monitorizar la actividad cerebral. Su estudio reveló cómo se involucran diferentes partes del cerebro durante las tareas necesarias para producir y comprender el habla. Los investigadores descubrieron que ciertas regiones del cerebro tendían a correlacionarse con algunas tareas.
Por ejemplo, las áreas que se sabe que están involucradas en el procesamiento del sonido, como el giro temporal superior, mostraron más actividad al manejar información auditiva, y las áreas involucradas en el pensamiento de nivel superior, como el giro frontal inferior, fueron más activas para comprender el significado del lenguaje.
También pudieron observar que las áreas se activaban secuencialmente.
Por ejemplo, la región responsable de la audición de las palabras se activó antes que la región responsable de su interpretación. Sin embargo, los investigadores también observaron claramente la activación de áreas durante actividades en las que no se sabía que estuvieran especializadas.
Continúa leyendo: Cómo la neurociencia ayuda a comprender el comportamiento criminal
Se parte de nuestra comunidad en nuestras redes sociales