La forma en que el cerebro procesa las palabras que oímos para convertirlas en ideas es más complicada de lo que se pensaba
Hasta hace poco se tenía una idea aproximada de cómo comprendemos las palabras cuando alguien nos habla (en un idioma que conozcamos, claro). Primero, los sonidos del habla llegan primero a nuestro oído interno como estímulos acústicos. Allí se convierten en señales eléctricas, que se transmiten al centro auditivo primario de nuestro cerebro. Por último, estos impulsos son procesados por otras áreas del cerebro para convertirlos en palabras y frases, y por tanto en ideas y conceptos.
Al menos eso es lo que pensaban los científicos hasta el momento, pero todo indica que no es así. Un estudio de la Universidad de California ha demostrado que esta idea es probablemente demasiado simple. En lugar de ensamblar los sonidos en serie para formar palabras y frases como si se tratara de una cadena de montaje, el cerebro parece procesar los estímulos auditivos en diferentes regiones en paralelo. Es decir, los sonidos y las palabras se procesan por separado, no unos primero y otras después.
Para averiguar cómo el cerebro convierte las ondas sonoras en habla los científicos reclutaron a nueve pacientes que padecían epilepsia o un tumor cerebral y a los que se les implantaron electrodos bajo el cráneo como preparación para la cirugía. Gracias al gran número de puntos de medición, pudieron por primera vez leer la señal en todas las localizaciones importantes de la corteza auditiva al mismo tiempo.
El procesamiento del habla tiene lugar a la vez en varias regiones
Cuando las personas de la prueba escuchaban frases, las células nerviosas del giro superior del lóbulo temporal se disparaban simultáneamente con las del centro auditivo primario. Sin embargo, asumiendo que los estímulos acústicos se procesan gradualmente, es probable que el lóbulo temporal responda después del centro auditivo primario.
A continuación, los investigadores estimularon algunos haces nerviosos de la corteza auditiva primaria. Si procesa las señales sonoras antes de que lleguen a las regiones superiores, las interferencias tendrían que dificultar la comprensión del habla. Sin embargo, los participantes seguían entendiendo las frases sin problemas.
La naturaleza paralela del procesamiento del habla puede dar a los médicos nuevas ideas sobre cómo tratar enfermedades como la dislexia, en la que los niños tienen problemas para identificar los sonidos del habla.
REFENRECIA
Parallel and distributed encoding of speech across human auditory cortex
Un nuevo estudio prevé un fuerte aumento de la mortalidad relacionada con la temperatura y…
Los investigadores ha descubierto un compuesto llamado BHB-Phe, producido por el organismo, que regula el…
Un nuevo estudio sobre la gran mancha de basura del Pacífico Norte indica un rápido…
Una nueva teoría que explica cómo interactúan la luz y la materia a nivel cuántico…
Pasar dos horas semanales en un entorno natural puede reducir el malestar emocional en niños…
El bisfenol A (BPA) es un disruptor endocrino que está desapareciendo poco a poco de…