SER HUMANO

El cerebro procesa las palabras y los sonidos por separado

La forma en que el cerebro procesa las palabras que oímos para convertirlas en ideas es más complicada de lo que se pensaba

Hasta hace poco se tenía una idea aproximada de cómo comprendemos las palabras cuando alguien nos habla (en un idioma que conozcamos, claro). Primero, los sonidos del habla llegan primero a nuestro oído interno como estímulos acústicos. Allí se convierten en señales eléctricas, que se transmiten al centro auditivo primario de nuestro cerebro. Por último, estos impulsos son procesados por otras áreas del cerebro para convertirlos en palabras y frases, y por tanto en ideas y conceptos.

Al menos eso es lo que pensaban los científicos hasta el momento, pero todo indica que no es así. Un estudio de la Universidad de California ha demostrado que esta idea es probablemente demasiado simple. En lugar de ensamblar los sonidos en serie para formar palabras y frases como si se tratara de una cadena de montaje, el cerebro parece procesar los estímulos auditivos en diferentes regiones en paralelo. Es decir, los sonidos y las palabras se procesan por separado, no unos primero y otras después.

Para averiguar cómo el cerebro convierte las ondas sonoras en habla los científicos reclutaron a nueve pacientes que padecían epilepsia o un tumor cerebral y a los que se les implantaron electrodos bajo el cráneo como preparación para la cirugía. Gracias al gran número de puntos de medición, pudieron por primera vez leer la señal en todas las localizaciones importantes de la corteza auditiva al mismo tiempo.

El procesamiento del habla tiene lugar a la vez en varias regiones

Cuando las personas de la prueba escuchaban frases, las células nerviosas del giro superior del lóbulo temporal se disparaban simultáneamente con las del centro auditivo primario. Sin embargo, asumiendo que los estímulos acústicos se procesan gradualmente, es probable que el lóbulo temporal responda después del centro auditivo primario.

A continuación, los investigadores estimularon algunos haces nerviosos de la corteza auditiva primaria. Si procesa las señales sonoras antes de que lleguen a las regiones superiores, las interferencias tendrían que dificultar la comprensión del habla. Sin embargo, los participantes seguían entendiendo las frases sin problemas.

La naturaleza paralela del procesamiento del habla puede dar a los médicos nuevas ideas sobre cómo tratar enfermedades como la dislexia, en la que los niños tienen problemas para identificar los sonidos del habla.

REFENRECIA

Parallel and distributed encoding of speech across human auditory cortex

Amina Jover

Noticias recientes

El cambio climático y la contaminación atmosférica podrían causar 30 millones de muertes al año de aquí a 2100

Un nuevo estudio prevé un fuerte aumento de la mortalidad relacionada con la temperatura y…

17 horas hace

Descubierto un compuesto natural que suprime el apetito en el cerebro

Los investigadores ha descubierto un compuesto llamado BHB-Phe, producido por el organismo, que regula el…

17 horas hace

La amenaza de los microplásticos: la gran mancha de basura del Pacífico es peor de lo que se esperaba

Un nuevo estudio sobre la gran mancha de basura del Pacífico Norte indica un rápido…

19 horas hace

Una nueva teoría revela qué forma tienen los fotones

Una nueva teoría que explica cómo interactúan la luz y la materia a nivel cuántico…

2 días hace

Dar clase en la naturaleza ayuda a niños con problemas de salud mental

Pasar dos horas semanales en un entorno natural puede reducir el malestar emocional en niños…

3 días hace

Las botellas «Sin BPA» tampoco son seguras

El bisfenol A (BPA) es un disruptor endocrino que está desapareciendo poco a poco de…

3 días hace