Una crítica neurofísica y filosófica al origen de la consonancia musical
A veces parece que el universo tiene preferencias musicales. Si pones un Do mayor y un Sol mayor al azar, algo en ti sonríe. Si pones dos notas desafinadas, algo en ti se retuerce. ¿Por qué?
El físico y musicólogo John M. McBride (Academia de Ciencias de Austria) acaba de publicar en arXiv un preprint titulado “Musical consonance: a review of theory and evidence on perception and preference of auditory roughness in humans and other animals” (arXiv:2510.14159v1), donde revisa siglos de debates sobre por qué ciertos sonidos nos resultan “agradables” y otros “ruidosos”.
El texto es ambicioso: busca una síntesis entre tres grandes hipótesis sobre la consonancia musical.
La aversión a la aspereza (roughness): sonidos que producen “batidos” rápidos entre ondas nos resultan desagradables.
La preferencia por la armonicidad: tendemos a disfrutar combinaciones cuyos armónicos encajan como piezas de Lego.
La influencia cultural y el aprendizaje: nos gusta lo que oímos con frecuencia, desde la cuna hasta Spotify.
McBride argumenta que la roughness —esa vibración nerviosa que sentimos cuando dos notas no encajan del todo— podría ser la clave más sólida para entender el fenómeno. Su revisión desmenuza la física, la fisiología y la evolución detrás del “placer armónico”. Y aunque el autor se mantiene prudente, el resultado sugiere algo fascinante: la belleza del sonido podría ser un reflejo evolutivo del miedo.
La neurofísica del sonido: cuando las matemáticas se vuelven música
Detrás del arte hay pura mecánica de ondas. Cuando dos tonos de frecuencias cercanas (f₁ y f₂) suenan al mismo tiempo, se superponen y generan una oscilación en la amplitud del sonido. Matemáticamente, eso se expresa así:
sin(2πf₁t) + sin(2πf₂t) = 2cos(π|f₁ - f₂|t) · sin(π(f₁ + f₂)t)
Esa parte “cos” del lado derecho produce los beats o batidos: un temblor rítmico en la intensidad del sonido.
Cuando esos batidos ocurren entre 15 y 100 Hz, el oído humano deja de percibirlos como pulsaciones y empieza a sentirlos como una aspereza o roughness.
Nuestro oído interno tiene la culpa (o el mérito). En la membrana basilar, los sonidos viajan y estimulan células ciliadas que actúan como filtros de frecuencia. Si dos tonos caen dentro del mismo filtro —es decir, dentro del mismo critical band— no se distinguen bien y el cerebro los interpreta como una fricción. La rugosidad sonora no está en el aire: está en la forma en que nuestro sistema auditivo resuelve la interferencia.
Los modelos matemáticos de roughness han tratado de capturar ese fenómeno desde Helmholtz (siglo XIX). Helmholtz supuso que el máximo displacer ocurre cuando la diferencia de frecuencias produce una modulación de unos 33 Hz.
Décadas después, Plomp y Levelt (1965) refinaron el modelo experimentalmente, y más tarde Hutchinson y Knopoff lo convirtieron en ecuaciones que relacionan la disonancia con la separación relativa a la critical bandwidth.
Hoy la idea básica sigue viva: cuanto más cerca estén las frecuencias, más interferencia; cuanto más se superpongan los armónicos, más aspereza.
En palabras simples: el cerebro “escucha” batallas entre ondas.
Y como todo organismo sensato, prefiere la paz.
Modelos de consonancia: del laboratorio al algoritmo
McBride distingue dos familias de modelos:
Modelos de tonos idealizados: calculan la disonancia sumando pares de frecuencias puras. Son como físicos con papel y lápiz analizando senos y cosenos.
Modelos de forma de onda (waveform models): usan transformadas de Fourier, filtros auditivos simulados y bancos de modulación para estimar la aspereza de señales reales, desde un violín hasta el motor de un auto.
Ambos comparten un mismo pecado: el exceso de parámetros.
El autor lo dice con ironía citando a von Neumann: “Con cuatro parámetros puedo ajustar un elefante; con cinco puedo hacerlo mover la trompa”. Muchos modelos actuales caen justo ahí: ajustan tan bien los datos que dejan de decir algo general.
Además, señala problemas de tautología: si definimos la rugosidad como “el sonido que suena disonante”, y luego decimos que “la disonancia se debe a la rugosidad”, estamos dando vueltas sobre lo mismo.
Aun así, la modelización ha avanzado lo suficiente como para predecir con buena precisión la preferencia humana por ciertos intervalos y acordes.
En términos físicos, podríamos decir que la consonancia emerge de un equilibrio entre interferencia mínima y complejidad suficiente para estimular el cerebro.
Demasiada regularidad aburre; demasiada irregularidad duele.
Una especie de principio de mínima irritación auditiva.
Del oído al cosmos: la evolución de la belleza sonora
Aquí el artículo de McBride se vuelve verdaderamente filosófico.
¿Es la consonancia un instinto biológico o una construcción cultural?
¿Preferimos los acordes porque son “naturales”, o porque Spotify nos lo enseñó desde bebés?
McBride introduce dos hipótesis evolutivas clave:
Roughness Salience Hypothesis: a lo largo de la evolución, los sonidos ásperos (como gritos, alarmas o chillidos) se asociaron al peligro. Los animales —incluidos nosotros— aprendimos a reaccionar más rápido ante ellos.
Escuchar disonancia activa la amígdala, la región cerebral del miedo y la alerta. En otras palabras: un acorde disonante es, neurofísicamente, un mini susto.Vocal Similarity Hypothesis: nos gustan los sonidos armónicos porque se parecen a la voz humana. Las cuerdas vocales producen armónicos regulares; las relaciones simples (2:1, 3:2) son las mismas que encontramos en los intervalos musicales básicos. Así, la música sería una prolongación del lenguaje biológico.
En ambos casos, la estética no surge del gusto sino de la sobrevivencia.
Los sonidos agradables son aquellos que no anuncian peligro.
La armonía, más que un capricho del alma, podría ser una memoria evolutiva del silencio entre los gritos.
Filosofía de la consonancia: cuando Platón se encuentra con Spotify
La parte más deliciosa del debate aparece cuando mezclamos física con filosofía.
Para Pitágoras, la belleza era proporción: el cosmos entero vibraba en intervalos simples, como cuerdas que responden a números enteros.
Para Nietzsche, la música era el lugar donde el caos se vuelve forma, donde el Dionisio interior baila bajo el control de Apolo.
Y para nosotros, hoy, la música es también un producto de mercado con algoritmos que aprenden qué nos gusta y nos lo repiten hasta convertirlo en dopamina.
La teoría de la roughness dialoga con todo esto: sugiere que detrás de la sensación estética hay un equilibrio dinámico entre orden y desorden, entre predicción y sorpresa.
El filósofo Immanuel Kant decía que lo bello es “finalidad sin fin”: algo que parece tener propósito, aunque no sirva para nada.
Desde la neurociencia, eso podría traducirse en predictibilidad con variación: lo suficiente para anticipar, pero no tanto para aburrirnos.
El placer de un acorde consonante es, en cierto modo, la experiencia fisiológica de la armonía interior que Platón veía en el alma.
Y aquí viene la ironía moderna:
la música contemporánea, desde el reggaetón hasta el free jazz, explora conscientemente los límites de esa consonancia evolutiva.
Cuando Bad Bunny introduce disonancias digitales y distorsión, está jugando con la roughness para generar atención.
El cerebro responde igual que un animal al escuchar un rugido: primero alerta, luego placer al reconocer que no hay peligro.
En otras palabras, la disonancia se ha convertido en marketing biológico.
Un vistazo técnico para curiosos con lápiz
Para los lectores más matemáticos, vale la pena resumir la estructura típica de un modelo de disonancia:
Transformación de frecuencia a modulación de amplitud:
Se calcula Δf = |f₁ - f₂|, la diferencia entre dos tonos.Normalización por la critical bandwidth (CB):
CB ≈ 25 + 75(1 + 1.4(f₁ + f₂)²)⁰·⁶⁹
(aproximación empírica de Plomp y Levelt).Función de disonancia empírica:
D(Δf) = exp(-aΔf/CB) - exp(-bΔf/CB)
donde a y b son parámetros ajustados (~3.5 y ~5.75).Suma ponderada sobre todos los pares de parciales:
D_total = Σ (A_i A_j D(|f_i - f_j|))
Ese modelo —simple pero poderoso— permite predecir qué combinaciones de frecuencias nos resultarán “agradables”.
Su belleza radica en que traduce una emoción en una integral.
La armonía, literalmente, es una función.
Reflexión filosófica: del ruido al sentido
Si todo sonido puede reducirse a una ecuación, ¿dónde queda el alma?
Esa pregunta recorre tanto la filosofía como la neurociencia contemporánea.
La roughness podría ser, en el fondo, un ejemplo de cómo la mente humana transforma el desorden físico en significado.
Martin Heidegger diría que el ser humano es el único ser capaz de escuchar “el ser mismo del sonido”, es decir, de dotar de sentido al ruido.
Cuando escuchamos disonancia, sentimos incomodidad no por las ondas, sino porque nuestro cerebro anticipa el caos. La consonancia, en cambio, representa la victoria temporal del orden: una pausa metafísica dentro del ruido universal.
Desde otra orilla, Spinoza habría sonreído: para él, toda emoción es un modo de la potencia del ser. La consonancia nos alegra porque incrementa nuestra potencia de existir; la disonancia nos entristece porque la reduce. Así de simple… y de físico.
Y si Nietzsche escuchara este debate, quizá reiría diciendo: “La disonancia es necesaria para que haya danza”. En efecto, no hay placer sin tensión, ni música sin conflicto. El propio cerebro busca pequeñas dosis de error para mantenerse vivo; por eso el silencio absoluto también nos enloquece.
A la luz de la inteligencia artificial y los algoritmos de recomendación musical, la consonancia adquiere otro matiz filosófico.
Si nuestras preferencias pueden predecirse con una fórmula, ¿qué pasa con la libertad estética?
¿Estamos eligiendo la música o la música nos elige a nosotros?
McBride no responde estas preguntas, pero las provoca. Y quizá esa sea su mayor virtud.
En última instancia, entender la consonancia no es solo entender por qué un acorde suena bien, sino por qué el cosmos —o al menos nuestro cerebro— ama el equilibrio entre el caos y la forma.
La física del sonido se convierte así en una metáfora de la condición humana: un conjunto de interferencias que, por pura casualidad evolutiva, resultan agradables.
Conclusión: cuando el universo tararea
La consonancia musical podría ser, literalmente, una firma biológica del orden.
Nuestros cerebros, afinados por millones de años de evolución, parecen recompensar aquello que suena “estable”, pero no del todo predecible.
Ni el caos absoluto ni la monotonía nos sirven: ambos matan la curiosidad.
McBride nos recuerda que el futuro de esta línea de investigación no está solo en añadir parámetros a los modelos, sino en simplificarlos hasta capturar lo esencial.
La belleza no necesita diez ecuaciones: a veces basta un Do y un Sol vibrando en resonancia.
Quizá el secreto de la música no sea más que eso:
un eco evolutivo de nuestra necesidad de coherencia,
una forma sonora del amor propio del universo.
Referencias esenciales:
McBride, J.M. (2025). Musical consonance: a review of theory and evidence on perception and preference of auditory roughness in humans and other animals. arXiv:2510.14159v1
Helmholtz, H.L.F. (1885). On the Sensations of Tone as a Physiological Basis for the Theory of Music.
Plomp, R. & Levelt, W. (1965). Tonal Consonance and Critical Bandwidth. J. Acoust. Soc. Am.
Bowling, D.L. (2021). Harmonicity and Roughness in the Biology of Tonal Aesthetics.
Para más ciencia crítica checa todo mi trabajo:
https://linktr.ee/PepeAlexJasa
#Neurofísica #Música #Filosofía #Evolución #Psicoacústica #Cerebro #Armonía #DivulgaciónCientífica #PepeAlex #Arxiv #Ciencia #Filosofía #Neurociencia #universo

No hay comentarios:
Publicar un comentario