Los científicos muestran cómo el cerebro distingue las letras de la música | Noticias de ciencia y medio ambiente

Washington DC: La percepción del habla y la música: dos de los usos humanos más singulares del sonido están habilitados por sistemas neuronales especializados en diferentes hemisferios cerebrales adaptados para responder de manera diferente a las características específicas de la estructura acústica de la canción, según un nuevo estudio.

Aunque se sabe desde hace décadas que los dos hemisferios de nuestro cerebro responden al habla y la música de manera diferente, este estudio utilizó un enfoque único para revelar por qué existe esta especialización, demostrando que depende del tipo de información acústica en el estímulo.

La música y el habla a menudo están inextricablemente entrelazados y la capacidad de los humanos para reconocer y separar las palabras de las melodías en una sola onda de sonido continua representa un desafío cognitivo significativo. Se cree que la percepción del habla depende en gran medida de la capacidad de procesar modulaciones temporales de corta duración y, para la melodía, la composición espectral detallada de los sonidos, como las fluctuaciones en la frecuencia.

Estudios previos han propuesto una especialización neural del hemisferio izquierdo y derecho para manejar la información del habla y la música, respectivamente.

Sin embargo, aún no está claro si esta asimetría cerebral proviene de las diferentes señales acústicas del habla y la música o de las redes neuronales específicas del dominio.

Al combinar diez oraciones originales con diez melodías originales, Philippe Albouy y sus colegas crearon una colección de 100 canciones únicas a cappella, que contenían información acústica tanto en el dominio temporal (habla) como espectral (melódico). La naturaleza de las grabaciones permitió a los autores manipular las canciones y degradarlas selectivamente en el dominio temporal o espectral.

Albouy y su equipo descubrieron que la degradación de la información temporal perjudicaba el reconocimiento del habla pero no el reconocimiento de la melodía. Por otro lado, la percepción de la melodía disminuyó solo con la degradación espectral de la canción.

La exploración cerebral simultánea con fMRI reveló actividad neuronal asimétrica; La decodificación del contenido del habla se produjo principalmente en la corteza auditiva izquierda, mientras que el contenido melódico se manejó principalmente en la derecha.

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí