https://frosthead.com

¿Cómo procesan nuestros cerebros la música?

Escucho música solo en momentos muy específicos. Cuando salgo a escucharlo en vivo, lo más obvio. Cuando estoy cocinando o lavando los platos pongo música, y a veces otras personas están presentes. Cuando troto o voy en bicicleta hacia y desde el trabajo por el carril bici West Side Highway de Nueva York, o si estoy en un auto alquilado en las raras ocasiones en que tengo que conducir a algún lado, escucho solo. Y cuando escribo y grabo música, escucho en lo que estoy trabajando. Pero eso es todo.

De esta historia

[×] CERRAR

Byrne ve la música como el pegamento social que mantiene unidas las culturas y las comunidades. (Clayton Cubitt) (Clayton Cubitt)

Galería de fotos

Encuentro la música algo intrusiva en restaurantes o bares. Tal vez debido a mi participación en él, siento que tengo que escuchar con atención o desconectarme. Principalmente lo desconecto; A menudo ni siquiera me doy cuenta si una canción de Talking Heads se está reproduciendo en la mayoría de los lugares públicos. Lamentablemente, la mayoría de la música se convierte (para mí) en una molesta capa sonora que solo se suma al ruido de fondo.

A medida que la música se convierte en algo menos importante (un cilindro, un cassette, un disco) y más efímero, tal vez comencemos a asignar un valor creciente a las presentaciones en vivo nuevamente. Después de años de acumular LP y CD, tengo que admitir que ahora me estoy deshaciendo de ellos. De vez en cuando pongo un CD en un reproductor, pero casi me he convertido completamente para escuchar MP3 en mi computadora o, ¡trago, mi teléfono! Para mí, sospecho que la música se está desmaterializando, un estado que es más fiel a su naturaleza. La tecnología nos ha traído un círculo completo.

Asisto al menos a una presentación en vivo a la semana, a veces con amigos, a veces solo. Hay otras personas allí. A menudo también hay cerveza. Después de más de cien años de innovación tecnológica, la digitalización de la música sin darse cuenta ha tenido el efecto de enfatizar su función social. No solo le damos a los amigos copias de música que nos emociona, sino que cada vez más valoramos el aspecto social de una presentación en vivo más de lo que solíamos hacerlo. La tecnología musical de alguna manera parece haber estado en una trayectoria en la que el resultado final es que se destruirá y devaluará. Tendrá éxito por completo cuando se autodestruya. La tecnología es útil y conveniente, pero al final ha reducido su propio valor y ha aumentado el valor de las cosas que nunca ha podido capturar o reproducir.

La tecnología ha alterado la forma en que suena la música, cómo está compuesta y cómo la experimentamos. También ha inundado el mundo con música. El mundo está inundado de (en su mayoría) sonidos grabados. Solíamos tener que pagar por la música o hacerla nosotros mismos; tocar, escuchar y experimentarlo fue excepcional, una experiencia rara y especial. Ahora escucharlo es omnipresente, y el silencio es la rareza que pagamos y disfrutamos.

¿Nuestro disfrute de la música, nuestra capacidad de encontrar una secuencia de sonidos que afectan emocionalmente, tiene alguna base neurológica? Desde un punto de vista evolutivo, ¿disfrutar de la música ofrece alguna ventaja? ¿La música tiene un uso realmente práctico, o es simplemente equipaje que se llevó a medida que evolucionamos otras adaptaciones más obviamente útiles? El paleontólogo Stephen Jay Gould y el biólogo Richard Lewontin escribieron un artículo en 1979 afirmando que algunas de nuestras habilidades y capacidades podrían ser como tímpanos (los espacios negativos arquitectónicos sobre la curva de los arcos de los edificios) detalles que originalmente no fueron diseñados como entidades autónomas, pero eso surgió como resultado de otros elementos más prácticos a su alrededor.

Dale Purves, profesor de la Universidad de Duke, estudió esta pregunta con sus colegas David Schwartz y Catherine Howe, y creen que podrían tener algunas respuestas. Descubrieron que el rango sonoro que más nos interesa y nos interesa es idéntico al rango de sonidos que nosotros mismos producimos. Nuestros oídos y nuestros cerebros han evolucionado para captar sutiles matices principalmente dentro de ese rango, y escuchamos menos, o a menudo nada, fuera de él. No podemos escuchar lo que escuchan los murciélagos, o el sonido subarmónico que usan las ballenas. En su mayor parte, la música también cae dentro del rango de lo que podemos escuchar. Aunque algunos de los armónicos que dan a las voces e instrumentos sus sonidos característicos están más allá de nuestro rango de audición, los efectos que producen no lo son. La parte de nuestro cerebro que analiza los sonidos en esas frecuencias musicales que se superponen con los sonidos que nosotros hacemos es más grande y más desarrollada, al igual que el análisis visual de caras es una especialidad de otra parte altamente desarrollada del cerebro.

El grupo Purves también agregó a esto la suposición de que los sonidos periódicos, sonidos que se repiten regularmente, son generalmente indicativos de seres vivos y, por lo tanto, son más interesantes para nosotros. Un sonido que ocurre una y otra vez podría ser algo de lo que se debe tener cuidado, o podría llevar a un amigo, o una fuente de comida o agua. Podemos ver cómo estos parámetros y regiones de interés se reducen a un área de sonidos similar a lo que llamamos música. Purves supuso que parecería natural que el habla humana influyera en la evolución del sistema auditivo humano, así como en la parte del cerebro que procesa esas señales de audio. Nuestras vocalizaciones y nuestra capacidad de percibir sus matices y sutilezas evolucionaron conjuntamente.

En un estudio de la UCLA, los neurólogos Istvan Molnar-Szakacs y Katie Overy observaron escáneres cerebrales para ver qué neuronas dispararon mientras las personas y los monos observaban a otras personas y monos realizar acciones específicas o experimentar emociones específicas. Determinaron que un conjunto de neuronas en el observador "refleja" lo que vieron que sucedía en lo observado. Si está mirando a un atleta, por ejemplo, las neuronas que están asociadas con los mismos músculos que el atleta está usando se dispararán. Nuestros músculos no se mueven, y lamentablemente no hay entrenamiento virtual o beneficio para la salud al observar a otras personas ejercitarse, pero las neuronas actúan como si imitáramos lo observado. Este efecto espejo también se aplica a las señales emocionales. Cuando vemos que alguien frunce el ceño o sonríe, las neuronas asociadas con esos músculos faciales se dispararán. Pero, y aquí está la parte importante, las neuronas emocionales asociadas con esos sentimientos también se activan. Las pistas visuales y auditivas desencadenan neuronas empáticas. Cursi pero cierto: si sonríes harás felices a otras personas. Sentimos lo que siente el otro, tal vez no tan fuerte o tan profundamente, pero la empatía parece estar incorporada en nuestra neurología. Se ha propuesto que esta representación compartida (como la llaman los neurocientíficos) es esencial para cualquier tipo de comunicación. La capacidad de experimentar una representación compartida es cómo sabemos a qué se refiere la otra persona, de qué están hablando. Si no tuviéramos este medio de compartir referencias comunes, no podríamos comunicarnos.

Es algo estúpidamente obvio, por supuesto, sentimos lo que otros sienten, al menos en cierta medida. Si no lo hiciéramos, ¿por qué lloraríamos alguna vez en el cine o sonreiríamos cuando escucháramos una canción de amor? El límite entre lo que sientes y lo que yo siento es poroso. Que somos animales sociales está profundamente arraigado y nos hace lo que somos. Pensamos en nosotros mismos como individuos, pero hasta cierto punto no lo somos; nuestras células se unen al grupo por estas reacciones empáticas evolucionadas hacia los demás. Este reflejo no es solo emocional, también es social y físico. Cuando alguien se lastima, “sentimos” su dolor, aunque no colapsamos en agonía. Y cuando un cantante echa la cabeza hacia atrás y se suelta, lo entendemos también. Tenemos una imagen interior de lo que está pasando cuando su cuerpo asume esa forma.

También antropomorfizamos los sonidos abstractos. Podemos leer emociones cuando escuchamos los pasos de alguien. Los sentimientos simples (tristeza, felicidad e ira) se detectan con bastante facilidad. Los pasos pueden parecer un ejemplo obvio, pero muestra que conectamos todo tipo de sonidos a nuestras suposiciones sobre qué emoción, sentimiento o sensación generó ese sonido.

El estudio de la UCLA propuso que nuestra apreciación y sentimiento por la música dependen profundamente de las neuronas espejo. Cuando observas, o incluso solo escuchas, alguien toca un instrumento, las neuronas asociadas con los músculos necesarios para tocar ese instrumento se disparan. Al escuchar un piano, “sentimos” esos movimientos de manos y brazos, y como cualquier guitarrista de aire le dirá, cuando escucha o ve un solo abrasador, también lo está “tocando”. ¿Tienes que saber tocar el piano para poder reflejar un pianista? Edward W. Large, de la Florida Atlantic University, examinó los cerebros de las personas con y sin experiencia musical mientras escuchaban a Chopin. Como se puede adivinar, el sistema de neuronas espejo se iluminó en los músicos que fueron evaluados, pero algo sorprendente también brilló en los no músicos. Entonces, tocar la guitarra de aire no es tan extraño como parece a veces. El grupo de UCLA sostiene que todos nuestros medios de comunicación (auditivos, musicales, lingüísticos, visuales) tienen actividades motoras y musculares en su raíz. Al leer e intuir las intenciones detrás de esas actividades motoras, nos conectamos con las emociones subyacentes. Nuestro estado físico y nuestro estado emocional son inseparables: al percibir uno, un observador puede deducir el otro.

Las personas también bailan con música, y el reflejo neurológico podría explicar por qué escuchar música rítmica nos inspira a movernos y a movernos de maneras muy específicas. La música, más que muchas de las artes, desencadena una gran cantidad de neuronas. Múltiples regiones del cerebro se disparan al escuchar música: muscular, auditiva, visual, lingüística. Es por eso que algunas personas que han perdido completamente sus habilidades lingüísticas aún pueden articular un texto cuando se canta. Oliver Sacks escribió acerca de un hombre con daño cerebral que descubrió que podía cantar a través de sus rutinas cotidianas, y solo así podría recordar cómo completar tareas simples como vestirse. La terapia de entonación melódica es el nombre de un grupo de técnicas terapéuticas que se basaron en este descubrimiento.

Las neuronas espejo también son predictivas. Cuando observamos una acción, postura, gesto o una expresión facial, tenemos una buena idea, basada en nuestra experiencia pasada, de lo que viene a continuación. Algunos en el espectro de Asperger podrían no intuir todos esos significados tan fácilmente como otros, y estoy seguro de que no estoy solo al haber sido acusado de extrañar lo que los amigos pensaban que eran señales o señales obvias. Pero la mayoría de la gente atrapa al menos un gran porcentaje de ellos. Quizás nuestro amor innato por la narrativa tenga alguna base predictiva y neurológica; Hemos desarrollado la capacidad de poder sentir hacia dónde se dirige una historia. Lo mismo con una melodía. Podemos sentir el ascenso y caída emocionalmente resonante de una melodía, una repetición, una construcción musical, y tenemos expectativas, basadas en la experiencia, sobre hacia dónde conducen esas acciones, expectativas que serán confirmadas o ligeramente redirigidas dependiendo del compositor o intérprete . Como señala el científico cognitivo Daniel Levitin, demasiada confirmación, cuando algo sucede exactamente como sucedió antes, hace que nos aburramos y desconectemos. Pequeñas variaciones nos mantienen alertas, además de servir para llamar la atención sobre los momentos musicales que son críticos para la narrativa.

La música nos hace tantas cosas que uno no puede simplemente decir, como muchos lo hacen, "Oh, me encanta todo tipo de música". ¿En serio? ¡Pero algunas formas de música son diametralmente opuestas entre sí! No puedes amarlos a todos. No todo el tiempo, de todos modos.

En 1969, la Unesco aprobó una resolución que describe un derecho humano del que no se habla mucho: el derecho al silencio. Creo que se refieren a lo que sucede si se construye una fábrica ruidosa al lado de su casa, o un campo de tiro, o si se abre una discoteca abajo. No significan que pueda exigir que un restaurante apague las melodías de rock clásico que está tocando, o que pueda silenciar al tipo que está a su lado en el tren gritando en su teléfono celular. Sin embargo, es un buen pensamiento: a pesar de nuestro temor innato al silencio absoluto, deberíamos tener derecho a tomar un descanso auditivo ocasional, a experimentar, aunque sea brevemente, un momento o dos de aire fresco sónico. Tener un momento meditativo, un espacio para despejar la cabeza, es una buena idea para un derecho humano.

John Cage escribió un libro llamado, algo irónicamente, Silencio . Irónico porque cada vez era más conocido por el ruido y el caos en sus composiciones. Una vez afirmó que el silencio no existe para nosotros. En una búsqueda por experimentarlo, entró en una cámara anecoica, una habitación aislada de todos los sonidos externos, con paredes diseñadas para inhibir la reflexión de los sonidos. Un espacio muerto, acústicamente. Después de unos momentos escuchó un golpeteo y un silbido, y se le informó que esos sonidos eran los latidos de su corazón y el sonido de su sangre corriendo por sus venas y arterias. Eran más fuertes de lo que él podría haber esperado, pero está bien. Después de un rato, escuchó otro sonido, un fuerte gemido, y se le informó que este era su sistema nervioso. Entonces se dio cuenta de que para los seres humanos no existía el verdadero silencio, y esta anécdota se convirtió en una forma de explicar que él decidió que, en lugar de luchar por cerrar los sonidos del mundo, compartimentar la música como algo fuera de lo ruidoso, mundo incontrolable de los sonidos, los dejaba entrar: "Que los sonidos sean ellos mismos en lugar de vehículos para teorías hechas por el hombre o expresiones de sentimientos humanos". Conceptualmente, al menos, el mundo entero ahora se convirtió en música.

Si la música es inherente a todas las cosas y lugares, ¿por qué no dejar que la música suene sola? El compositor, en el sentido tradicional, puede que ya no sea necesario. Deja que los planetas y las esferas giren. El músico Bernie Krause acaba de publicar un libro sobre "biofonía": el mundo de la música y los sonidos creados por animales, insectos y el entorno no humano. La música hecha por sistemas autoorganizados significa que cualquiera o cualquier cosa puede hacerlo, y cualquiera puede alejarse de él. John Cage dijo que el compositor contemporáneo "se parece al fabricante de una cámara que permite que otra persona tome la foto". Esa es una especie de eliminación de la autoría, al menos en el sentido aceptado. Sintió que la música tradicional, con sus partituras que indican qué nota se debe tocar y cuándo, no son reflejos de los procesos y algoritmos que activan y crean el mundo que nos rodea. El mundo de hecho nos ofrece posibilidades y oportunidades restringidas, pero siempre hay opciones y más de una forma de que las cosas salgan bien. Él y otros se preguntaban si quizás la música podría participar de este proceso emergente.

Un pequeño dispositivo hecho en China lleva esta idea un paso más allá. Buddha Machine es un reproductor de música que utiliza algoritmos aleatorios para organizar una serie de tonos relajantes y, por lo tanto, crear melodías interminables y no repetitivas. El programador que fabricó el dispositivo y organizó sus sonidos reemplaza al compositor, sin dejar ningún intérprete. El compositor, el instrumento y el intérprete son todos una máquina. Estos no son dispositivos muy sofisticados, aunque uno puede imaginar un día en que todos los tipos de música puedan ser generados por una máquina. Los patrones básicos de uso común que se producen en varios géneros podrían convertirse en algoritmos que guían la fabricación de sonidos. Uno podría ver que gran parte del pop y el hip-hop corporativo están hechos a máquina: sus fórmulas están bien establecidas, y uno solo necesita elegir entre una variedad de ganchos y ritmos disponibles, y emerge una secuencia interminable de música amigable con la radio. Aunque este enfoque industrial a menudo está mal visto, su naturaleza artificial podría ser un cumplido: devuelve la autoría musical al éter. Todos estos desarrollos implican que hemos cerrado el círculo: hemos vuelto a la idea de que nuestro universo podría estar impregnado de música.

Doy la bienvenida a la liberación de la música de la prisión de la melodía, la estructura rígida y la armonía. Por qué no? Pero también escucho música que se adhiere a esas pautas. Escuchar la música de las esferas puede ser glorioso, pero de vez en cuando anhelo una canción concisa, una narración o una instantánea más que todo un universo. Puedo disfrutar de una película o leer un libro en el que no pasa mucho, pero también soy profundamente conservadora: si una canción se establece dentro del género pop, entonces escucho con ciertas expectativas. Puedo aburrirme más fácilmente con una canción pop que no suena según sus propias reglas que con una composición contemporánea que es repetitiva y estática. Me gusta una buena historia y también me gusta mirar al mar: ¿tengo que elegir entre los dos?

Extraído de Cómo funciona la música de David Byrne, publicado por McSweeney's Books, © 2012 por Todo Mundo Ltd.

¿Cómo procesan nuestros cerebros la música?