SER HUMANO

El cerebro procesa las palabras y los sonidos por separado

La forma en que el cerebro procesa las palabras que oímos para convertirlas en ideas es más complicada de lo que se pensaba

Hasta hace poco se tenía una idea aproximada de cómo comprendemos las palabras cuando alguien nos habla (en un idioma que conozcamos, claro). Primero, los sonidos del habla llegan primero a nuestro oído interno como estímulos acústicos. Allí se convierten en señales eléctricas, que se transmiten al centro auditivo primario de nuestro cerebro. Por último, estos impulsos son procesados por otras áreas del cerebro para convertirlos en palabras y frases, y por tanto en ideas y conceptos.

Al menos eso es lo que pensaban los científicos hasta el momento, pero todo indica que no es así. Un estudio de la Universidad de California ha demostrado que esta idea es probablemente demasiado simple. En lugar de ensamblar los sonidos en serie para formar palabras y frases como si se tratara de una cadena de montaje, el cerebro parece procesar los estímulos auditivos en diferentes regiones en paralelo. Es decir, los sonidos y las palabras se procesan por separado, no unos primero y otras después.

Para averiguar cómo el cerebro convierte las ondas sonoras en habla los científicos reclutaron a nueve pacientes que padecían epilepsia o un tumor cerebral y a los que se les implantaron electrodos bajo el cráneo como preparación para la cirugía. Gracias al gran número de puntos de medición, pudieron por primera vez leer la señal en todas las localizaciones importantes de la corteza auditiva al mismo tiempo.

El procesamiento del habla tiene lugar a la vez en varias regiones

Cuando las personas de la prueba escuchaban frases, las células nerviosas del giro superior del lóbulo temporal se disparaban simultáneamente con las del centro auditivo primario. Sin embargo, asumiendo que los estímulos acústicos se procesan gradualmente, es probable que el lóbulo temporal responda después del centro auditivo primario.

A continuación, los investigadores estimularon algunos haces nerviosos de la corteza auditiva primaria. Si procesa las señales sonoras antes de que lleguen a las regiones superiores, las interferencias tendrían que dificultar la comprensión del habla. Sin embargo, los participantes seguían entendiendo las frases sin problemas.

La naturaleza paralela del procesamiento del habla puede dar a los médicos nuevas ideas sobre cómo tratar enfermedades como la dislexia, en la que los niños tienen problemas para identificar los sonidos del habla.

REFENRECIA

Parallel and distributed encoding of speech across human auditory cortex

Amina Jover

Noticias recientes

El consumo de cannabis produce cambios epigenéticos

Consumir cannabis puede provocar cambios en el epigenoma del cuerpo humano, según sugiere un estudio…

16 horas hace

Los tigres dientes de sable adolescentes tenían dos pares de colmillos

Las pruebas sugieren que los grandes felinos extintos con dientes de sable conservaban a sus…

2 días hace

¿Cómo sabemos si una sustancia es un disruptor endocrino?

La falta de datos de la industria química en la UE impide a menudo evaluar…

2 días hace

Así influye el cambio climático en la pérdida de biodiversidad

El cambio climático podría convertirse en el principal causante del declive de la biodiversidad a…

3 días hace

La vitamina D protege contra el cáncer cambiando la microbiota

La vitamina D altera las bacterias intestinales de los ratones y como resultado mejora su…

3 días hace

No, la Luna no está hecha de queso

Los científicos confirman la composición del núcleo interno de la luna, que consiste en una…

4 días hace