La forma en que el cerebro procesa las palabras que oímos para convertirlas en ideas es más complicada de lo que se pensaba

Hasta hace poco se tenía una idea aproximada de cómo comprendemos las palabras cuando alguien nos habla (en un idioma que conozcamos, claro). Primero, los sonidos del habla llegan primero a nuestro oído interno como estímulos acústicos. Allí se convierten en señales eléctricas, que se transmiten al centro auditivo primario de nuestro cerebro. Por último, estos impulsos son procesados por otras áreas del cerebro para convertirlos en palabras y frases, y por tanto en ideas y conceptos.

Al menos eso es lo que pensaban los científicos hasta el momento, pero todo indica que no es así. Un estudio de la Universidad de California ha demostrado que esta idea es probablemente demasiado simple. En lugar de ensamblar los sonidos en serie para formar palabras y frases como si se tratara de una cadena de montaje, el cerebro parece procesar los estímulos auditivos en diferentes regiones en paralelo. Es decir, los sonidos y las palabras se procesan por separado, no unos primero y otras después.

Para averiguar cómo el cerebro convierte las ondas sonoras en habla los científicos reclutaron a nueve pacientes que padecían epilepsia o un tumor cerebral y a los que se les implantaron electrodos bajo el cráneo como preparación para la cirugía. Gracias al gran número de puntos de medición, pudieron por primera vez leer la señal en todas las localizaciones importantes de la corteza auditiva al mismo tiempo.

El procesamiento del habla tiene lugar a la vez en varias regiones

Cuando las personas de la prueba escuchaban frases, las células nerviosas del giro superior del lóbulo temporal se disparaban simultáneamente con las del centro auditivo primario. Sin embargo, asumiendo que los estímulos acústicos se procesan gradualmente, es probable que el lóbulo temporal responda después del centro auditivo primario.

A continuación, los investigadores estimularon algunos haces nerviosos de la corteza auditiva primaria. Si procesa las señales sonoras antes de que lleguen a las regiones superiores, las interferencias tendrían que dificultar la comprensión del habla. Sin embargo, los participantes seguían entendiendo las frases sin problemas.

La naturaleza paralela del procesamiento del habla puede dar a los médicos nuevas ideas sobre cómo tratar enfermedades como la dislexia, en la que los niños tienen problemas para identificar los sonidos del habla.

REFENRECIA

Parallel and distributed encoding of speech across human auditory cortex