BIENVENIDO

Dicen por ahì que las cosas más insignificantes son las más importantes. Este blog es un intento insignificante... un poco de todo!

miércoles, 30 de abril de 2025

¿Y si la clave para sobrevivir en el espacio está en aguantar más CO₂?



A mediodía en Guadalajara, entre el calor que se refleja del asfalto y los coches que se arrastran como lava urbana, a veces uno se pregunta si esto no es ya una misión de supervivencia en el espacio. Falta el oxígeno, sobra el dióxido de carbono, y el cerebro empieza a flotar en su propia niebla.

Y entonces llega esta joya de artículo: una propuesta tan audaz como razonada.  

¿Qué pasaría si la solución a muchos de los problemas metabólicos del espacio no estuviera en más máquinas, más dietas, ni más fármacos… sino en respirar un poco más de CO₂ a propósito?

La hipótesis parte de un fenómeno poco celebrado: "la hipercapnia moderada" (niveles elevados de dióxido de carbono en el aire que respiramos) puede "suprimir la acidosis metabólica", esa acumulación de lactato que perturba el metabolismo en el espacio y en la enfermedad.

Este efecto se observó en un experimento soviético poco conocido: "BIOS-3", una cápsula cerrada donde seres humanos vivieron 180 días con niveles de CO₂ más altos de lo normal. ¿El resultado? Estabilidad metabólica inesperada.

Durante años, esa observación fue ignorada o malinterpretada. Pero hoy, a la luz de la biología moderna, ese experimento cobra un nuevo sentido.

Cuando un astronauta pasa semanas en órbita, su cuerpo sufre cambios serios: pierde masa ósea, cambia el tono muscular, y su metabolismo entra en lo que podríamos llamar un “modo de emergencia”. Uno de los problemas más persistentes es la "acidosis metabólica crónica", causada por la acumulación de lactato.

Este mismo lactato es el que los deportistas miden en pruebas de rendimiento: un valor de 2mM en sangre marca el famoso "umbral aeróbico". Cruzar ese umbral cambia todo: se inhibe la quema de grasas, se pasa al consumo de glucosa, se acumula ácido láctico.

Pero el cuerpo tiene herramientas de compensación, y una de ellas es "el CO₂". El artículo demuestra cómo "la acidosis respiratoria inducida por hipercapnia puede contrarrestar la acidosis metabólica", activando rutas metabólicas que favorecen la oxidación de grasas y disminuyen la producción de lactato.

Esto se explica gracias al efecto Bohr, descubierto en 1904: "el pH regula la capacidad de la hemoglobina para liberar oxígeno". 

Cuando baja el pH (mayor acidez), el oxígeno se libera más fácilmente, y viceversa. Esta lógica biológica permite al cuerpo optimizar la entrega de oxígeno según el estado metabólico.

En la acidosis metabólica, hay demasiado lactato, se bloquea la quema de grasa, se inhibe la lipólisis, y el cuerpo entra en una tormenta bioquímica.  

En cambio, con "hipercapnia controlada", el cuerpo reduce el pH de manera compensatoria y se restablece el equilibrio.

¿Y por qué esto importa para el espacio?

Porque el cuerpo humano en microgravedad pierde su estructura metabólica habitual.  

Sin gravedad, el retorno venoso se altera, los músculos posturales no se usan, el metabolismo se desregula.  

La dieta alta en carbohidratos de las estaciones espaciales empeora todo: más glucosa, más lactato, menos grasa oxidada, más acidosis.

Durante décadas, la solución ha sido el entrenamiento físico. El cosmonauta Valeri Polyakov, por ejemplo, hacía hasta 6.5 horas de ejercicio al día para mantener su salud metabólica en órbita. Pero eso "consume tiempo de misión", energía y recursos.

¿La alternativa? Exponer al astronauta a "hipercapnia personalizada, periódica y controlada." Unas sesiones al día, usando equipos portátiles, para mantener el metabolismo oxidativo activo y prevenir la acumulación de lactato.

Sección técnica simplificada

La lógica bioquímica es así:

- En acidosis metabólica:  

  exceso de H⁺ por lactato → pH bajo → liberación excesiva de oxígeno → estrés celular

- En hipercapnia moderada:  

  más CO₂ → acidosis respiratoria → se modulan los niveles de lactato y H⁺ → se favorece el metabolismo lipídico

Y como en BIOS-3:  

Más CO₂ → Menos producción de lactato → Menor producción de CO₂ endógeno → **Sistema cerrado más estable**

Ecuación clave:  

CO₂ + H₂O ⇌ H₂CO₃ ⇌ H⁺ + HCO₃⁻  

(pH cambia con la relación entre CO₂ disuelto y bicarbonato)

En una época donde la tecnología promete salvarnos con más hardware y más inteligencia artificial, este artículo propone algo profundamente biológico y simple:  

Escuchar lo que el cuerpo ya sabe hacer, y darle las condiciones para hacerlo.

Aceptar la hipercapnia no como un error a corregir, sino como una herramienta natural de regulación, es una lección de humildad científica.  

Y quizás, una pista sobre cómo construir sistemas de vida cerrados en Marte, o tratar enfermedades aquí en la Tierra.

Lo que parecía un hallazgo menor de un experimento soviético olvidado, podría ser una pieza clave para resolver uno de los grandes desafíos de las misiones espaciales largas: "mantener el metabolismo humano estable sin agotar al tripulante".

Y quizá también nos ofrezca nuevas ideas para tratar obesidad, diabetes, osteoporosis e incluso cáncer en la Tierra.  

¿Quién diría que respirar un poco más de CO₂, con cuidado, podría ser el próximo gran avance médico?

Referencias clave:

  • Semyonov D.A., Semyonova A.A. (2025). A New Hope for Long Space Flights: Hypercapnia demonstrated suppression of metabolic acidosis. arXiv:2504.18551v1

  • Brooks G.A. (2020). Lactate as a fulcrum of metabolism. Redox Biology, 35, 101454.

  • Bohr C., Hasselbalch K., Krogh A. (1904). Concerning a biologically important relationship – the influence of the carbon dioxide content of blood on its oxygen binding. Skand. Arch. Physiol., 16, 401–412.

  • Ahmed K. et al. (2010). An autocrine lactate loop mediates insulin-dependent inhibition of lipolysis through GPR81. Cell Metabolism, 11(4), 311–319.

  • Rizzo A. et al. (1976). Metabolism during exercise in young men breathing 4% CO₂. Bull Eur Physiol Resp. 12(1):209–221.

  • Liu T. et al. (2023). Bone marrow adiposity modulation after long duration spaceflight in astronauts. Nature Communications, 14, 4799.

  • Garrett-Bakelman F.E. et al. (2019). The NASA Twins Study. Science, 364(6436):eaau8650.

  • Vlasova N.V. et al. (1976). Lipid metabolism in man under nutrition with lyophysized diet during long-duration confinement. Voprosy Pitaniya, No. 2: 17–20.

  • Manoharan I. et al. (2021). Lactate-dependent regulation of immune responses. Frontiers in Immunology, 12:691134.

  • Zhang D. et al. (2019). Metabolic regulation of gene expression by histone lactylation. Nature, 574(7779):575–580.

Mas contenido como este: https://linktr.ee/PepeAlexJasa

#MisiónEspacial #Metabolismo #Hipercapnia #Lactato #FisiologíaHumana #AcondicionamientoFísico #CienciaYSalud #BIOS3 #ExploraciónEspacial #TecnologíasDelFuturo



martes, 29 de abril de 2025

¿Puede la luz empujarnos de formas que aún no entendemos?




Sabemos que la luz ejerce presión. Lo aprendimos gracias a Maxwell, a los experimentos heroicos de Lebedev y Nichols, y a la elegante brutalidad de Einstein.
Pero en tiempos donde manipulamos átomos con pinzas ópticas y soñamos con velas solares para viajes interestelares, surge una nueva pregunta:

👉 ¿Qué pasa si esa presión no es igual para todo tipo de luz?
👉 ¿Y si, moldeando la estructura de la luz, podemos cambiar cómo empuja?

En este maravilloso preprint, Alexander Trowbridge, Ewan Wright y Kishan Dholakia nos llevan de la mano desde los cometas de Kepler hasta los modos Laguerre-Gaussian modernos, para mostrarnos que la luz estructurada puede alterar la presión de radiación de formas sutiles pero medibles.

¿Ciencia básica?
¿Una revolución tecnológica en ciernes?
Quizá ambas.

Un poco de historia: de cometas y rayos invisibles

Tycho Brahe en 1577 observó que la cola de un cometa siempre apuntaba lejos del Sol.

Kepler postuló que debía existir una fuerza solar que empujara la materia: intuición temprana de la presión de radiación.

Maxwell en 1873 formalizó que la luz, como onda electromagnética, transporta energía y momentum.

Primera ecuación histórica:

Presión de radiación = I(1 + ρ) / c

Donde:

I es la intensidad de la luz

ρ la reflectividad del espejo

c la velocidad de la luz

Así nace la idea de que la luz no solo ilumina: también empuja.

La presión de radiación clásica y sus primeras confirmaciones

Lebedev en 1900 y Nichols & Hull en 1901 lograron medir esta presión en laboratorio.

Los experimentos eran tan delicados que pequeñas corrientes de aire o diferencias térmicas podían arruinarlo todo.

Luego llegó Einstein (1905) con su concepto de fotones, y la presión de radiación se entendió como transferencia de momentum de fotones individuales.

Todo parecía cerrado... hasta que surgió la luz estructurada.

¿Qué es la luz estructurada?

Más allá del típico rayo láser gaussiano, ahora podemos diseñar haces de luz con:

Vórtices ópticos que transportan momento angular orbital (OAM).

Modulación espacial de fase y amplitud.

Polarización variable en el espacio.

Los ejemplos clásicos son los modos Laguerre-Gaussian (LG) y Hermite-Gaussian (HG).

Estas "formas de luz" no solo se ven diferentes: interactúan diferente con la materia.

El hallazgo clave: la presión de radiación cambia con la estructura

Cuando analizamos haces estructurados, entra en juego el Gouy phase, una fase adicional que la luz acumula al enfocarse.

Resultado: la presión que ejerce la luz en un espejo plano es ligeramente menor que la de una onda plana.

Matemáticamente:

⟨kz⟩ = k − (N + 1) / (2z₀)

Y la fuerza de presión:

Fz = (2P/c) × [1 − (N + 1)/(k²w₀²)]

donde:

N es el número total de modos (en LG: N = 2p + |ℓ|)

w₀ es el radio del haz en su cintura

k es el número de onda (k = 2π/λ)

La reducción es pequeña (de orden femtonewtons por vatio), pero real y medible con tecnología actual.

Aplicaciones potenciales

Óptica de precisión: mejorar trampas ópticas para átomos o partículas.

Metrología de fuerzas ultrafinas: detección de presiones minúsculas para física fundamental.

Propulsión láser: ajustar el diseño de velas solares para viajes interestelares.

Comunicación óptica: modulación de haces con OAM para aumentar capacidad de transmisión.

¡La estructura de la luz podría redefinir cómo controlamos la materia a escalas microscópicas y astronómicas!

Sección técnica: ecuaciones importantes

Si representamos la luz como un campo complejo:

E(x, y, z) = A(x, y, z) × exp[iθ(x, y, z)]

donde θ(x, y, z) incluye el término del Gouy phase:

θ(x, y, z) = kz + (k(x²+y²))/(2R(z)) − (N+1)arctan(z/z₀)

Al calcular el momentum promedio en z (⟨kz⟩), aparece una corrección que reduce la presión axial.

La diferencia de presión respecto a un haz plano es:

ΔFz / (2P/c) ≈ − (M²) / (k²w₀²)

donde M² es el factor de calidad del haz.

Para un modo LG con p=0, ℓ=1:

La reducción de presión sería ~20 femtonewtons por watt.

Crítica filosófica: ¿Hasta dónde renunciamos a la idealización?

Durante décadas, el modelo de "onda plana" fue suficiente.
Hoy, cuando fabricamos haces con precisión de fase submicrométrica, esa idealización empieza a crujir.

Aceptar que la estructura de la luz altera sus propiedades dinámicas es también un acto de madurez científica: reconocer que la belleza simple de Maxwell necesita matices más sutiles.

Y quizás, como sugiere este trabajo, entender y diseñar la estructura de la luz nos permita controlar fuerzas que antes solo soñábamos medir.

Conclusión

La luz nunca fue solo una onda. Ni solo partículas.
Ahora sabemos que su estructura espacial también carga secretos físicos profundos.

Medir cómo un vórtice de luz empuja menos que un rayo plano no es un simple juego de laboratorio. Es una forma de redescubrir la física en lo que parecía ya conocido.

Y tal vez, de abrir nuevas puertas tecnológicas que apenas comenzamos a entrever.



Referencias clave

Trowbridge, A.C., Wright, E.M., Dholakia, K. (2025). The Radiation Pressure of Light: historical perspectives and the role of structured light. arXiv:2504.18789v1

Maxwell, J.C. (1873). Treatise on Electricity and Magnetism

Lebedev, P. (1900), Nichols & Hull (1901)

Einstein, A. (1905). Sobre un punto de vista heurístico acerca de la producción y transformación de la luz

Para checar otras redes: https://linktr.ee/PepeAlexJasa

#PresiónDeRadiación
#LuzEstructurada
#FísicaÓptica
#GouyPhase
#MomentAngularÓptico
#MetrologíaÓptica
#DivulgaciónCientífica
#PhotonicsRevolution
#CienciaYSociedad

lunes, 28 de abril de 2025

¿Nos atreveremos a visitar un agujero negro?



Una propuesta audaz para la ciencia del futuro


Desde Galileo hasta hoy, la humanidad ha soñado con explorar lo desconocido. Pero ¿qué pasa cuando lo desconocido no es una estrella, un planeta o un cometa, sino un agujero negro?

¿Podríamos algún día enviar sondas para orbitarlo, estudiarlo, e incluso acercarnos peligrosamente a su horizonte de eventos?


En este fascinante artículo, Cosimo Bambi propone una idea radical: lanzar naves ultraligeras hacia el agujero negro más cercano. No para conquistar… sino para entender mejor la gravedad misma.


¿Un sueño imposible? Tal vez no tanto.


1. ¿Por qué los agujeros negros son tan especiales?


La Relatividad General de Einstein nos dice que los agujeros negros son los laboratorios naturales más extremos de la gravedad. Hasta hace poco, solo teníamos evidencias indirectas de su existencia.


Hoy, gracias a:

Ondas gravitacionales (Abbott et al. 2016, 2019)

Imágenes directas como la del EHT (Event Horizon Telescope)

Estudios de rayos X (Cao et al. 2018; Tripathi et al. 2019)

sabemos que los agujeros negros se comportan como predice Einstein… al menos hasta donde podemos medir.


Pero seguir mejorando nuestras pruebas desde la Tierra será cada vez más difícil. El entorno astrofísico introduce “ruido” y complicaciones.


👉 La solución más radical: ir directamente hacia ellos.


¿Dónde está el agujero negro más cercano?


Actualmente, el más cercano conocido es GAIA-BH1, a unos 1,560 años luz. Pero estimaciones sugieren que podría haber uno a solo 20-25 años luz de la Tierra, aún indetectado.


La mayoría de los agujeros negros son invisibles: no tienen estrella compañera ni emiten luz. Pero nuevas técnicas de microlenteo gravitacional o detección de ondas gravitacionales podrían revelar su presencia pronto.


¿Cómo enviaríamos sondas hasta allá?


No con cohetes tradicionales. Bambi propone usar nanocrafts:

Son micro-sondas de unos pocos gramos.

Llevan computadora, navegación y comunicación integradas.

Se aceleran mediante velas láser desde la Tierra.


Con esta técnica, podrían alcanzar velocidades de 1/3 de la velocidad de la luz.

Si el agujero negro está a 20-25 años luz, la misión tardaría unos 60-75 años en llegar, más otros 20-25 años para recibir los datos: un proyecto de 80-100 años en total.


Puede sonar largo, pero recordemos: muchas obras humanas (catedrales, ciudades) se construyeron durante siglos.


¿Qué pruebas científicas podríamos hacer?


Con al menos dos nanocrafts, podríamos realizar experimentos increíbles:


Test del espacio-tiempo de Kerr:

Una sonda orbita cerca del agujero, emitiendo señales. La otra la observa. Si el agujero cumple exactamente con la Relatividad General, su movimiento debe coincidir con la métrica de Kerr.


Confirmar la existencia del horizonte de eventos:

Si una sonda se acerca demasiado, el tipo de señal (o su desaparición) podría confirmar si realmente hay un horizonte o si, como propone la teoría de "fuzzballs" (Mathur & Mehta 2024), el objeto tiene estructura interna.


Buscar variaciones de constantes fundamentales:

Algunas teorías predicen que cerca de agujeros negros, “constantes” como la constante de estructura fina (α) podrían cambiar ligeramente. Detectarlo sería revolucionario.


Sección técnica: la física detrás del plan


La gravedad extrema afecta la frecuencia de la luz emitida. El corrimiento gravitacional al rojo sigue:


z = (1 − 2GM/rc²)⁻¹/² − 1


donde:


G es la constante gravitacional


M la masa del agujero negro


r la distancia radial


c la velocidad de la luz


Si una sonda orbita cerca, su frecuencia cambiará de manera predecible… salvo que nuevas físicas entren en juego.


En cuanto a las variaciones de α, usando dos transiciones atómicas sensibles de manera diferente, podríamos comparar el corrimiento esperado y el real:


ΔE₁ ∝ α²

ΔE₂ ∝ α⁴


Detectar una diferencia sería prueba directa de física más allá de Einstein.


Crítica filosófica: ciencia a largo plazo


Un proyecto de 100 años parece casi impensable en una sociedad que exige resultados instantáneos.


Pero las preguntas más importantes no siguen calendarios humanos.

Como cuando plantamos árboles cuyos frutos no veremos, podríamos ser la generación que siembre la semilla de la primera expedición interestelar de la historia.


La ciencia no solo se mide en descubrimientos, sino también en el coraje de hacer preguntas que otros temen hacer.


Enviar sondas a un agujero negro cercano podría sonar a ciencia ficción.

Pero, como bien recuerda Bambi, casi todos los avances importantes alguna vez sonaron imposibles.


Quizá, en un siglo, futuras generaciones agradezcan que alguien en 2025 se atrevió a decir: “¿y si lo intentamos?”.


Referencias clave


Bambi, C. (2025). An interstellar mission to test astrophysical black holes, arXiv:2504.14576v1

Abbott et al. (2016, 2019), Tripathi et al. (2019, 2021), Mathur & Mehta (2024)

Breakthrough Starshot Initiative: https://breakthroughinitiatives.org/


Para leer más artículos : https://linktr.ee/PepeAlexJasa


#AgujerosNegros

#RelatividadGeneral

#Nanocrafts

#MisionesInterestelares

#FísicaFundamental

#ExploraciónEspacial

#HorizontesDeEventos

#DivulgaciónCientífica

#CienciaDelFuturo

#RevoluciónGravitacional



viernes, 11 de abril de 2025

¿Y si hemos renormalizado la física hasta el sinsentido?

 


Una crítica profunda al paradigma central de la física moderna


Desde hace más de 70 años, la física teórica ha estado dominada por una consigna: “si no puedes renormalizarla, no es fundamental”.


La renormalización, ese truco cuántico que convirtió teorías con infinitos en modelos predictivos y elegantes, fue una revolución matemática. Pero ¿qué pasa si hemos estirado tanto ese principio que ya no nos deja ver nuevas ideas? ¿Y si la obsesión por la renormalización nos ha empujado a descartar teorías que, aunque imperfectas, podrían ser más verdaderas?


En este provocador artículo, Luca Buoninfante nos invita a revisar el corazón mismo de la física teórica moderna. Y tal vez, a dejar de temerle a los infinitos.


¿Qué es la renormalización y por qué la adoramos tanto?


La renormalización surgió para salvar teorías como la electrodinámica cuántica (QED), que predecían infinitos absurdos (como la masa o carga del electrón tendiendo a infinito). El truco fue brillante: reinterpretar esos infinitos como parámetros “corregidos” por efectos cuánticos, y luego, calcular solo las diferencias finitas y medibles.


Gracias a eso, QED predice el momento magnético del electrón con 13 cifras decimales de precisión. ¡Una proeza!


La idea se extendió al Modelo Estándar, y pronto se volvió dogma: una teoría solo es aceptable si es estrictamente renormalizable.


Pero... ¿es eso una ley física o un criterio técnico?


Buoninfante plantea que el uso de la renormalización como filtro epistemológico puede haber limitado nuestra imaginación. ¿Y si algunas teorías que predicen infinitos están diciéndonos algo profundo sobre la estructura del espacio-tiempo?


Después de todo, la gravedad clásica no es renormalizable, y la relatividad general ha sido increíblemente exitosa sin necesidad de serlo.


La gravedad cuántica: el elefante infinito en la habitación


La gravedad es el gran dolor de cabeza de la física cuántica. Intentar quantizarla con métodos estándar genera infinitos que no pueden renormalizarse ni reabsorberse. Por eso, muchos físicos han buscado versiones "mejoradas" (supergravedad, cuerdas, teorías no locales, etc.).


Pero aquí está la paradoja: ¿y si el fallo de la renormalización en gravedad no es un bug, sino una pista?


Alternativas que suenan heréticas, pero que podrían ser más naturales


Buoninfante propone considerar modelos no renormalizables pero predictivos. ¿Cómo?


Aceptando que ciertas teorías solo funcionan como efectivas, válidas hasta cierto límite de energía.


Usando teorías no locales que suavizan los infinitos mediante operadores como:

□ → exp(−□/M²)

En esas teorías, los infinitos no desaparecen del todo… pero se comportan.


Sección técnica: ¿qué pasa con los propagadores y las divergencias?


En teoría cuántica de campos, los bucles generan integrales divergentes.

Ejemplo clásico: autointeracción escalar φ⁴


Propagador libre:


Δ(p²) = 1 / (p² − m² + iε)


Con correcciones:


Δ(p²) ≈ 1 / (p² − m² − Σ(p²))


Si Σ(p²) → ∞, la teoría se vuelve incontrolable.

La renormalización introduce una regularización (corte Λ o dimensiones fraccionarias) y redefine:


m²_ren = m² + δm²

λ_ren = λ + δλ


Pero en teorías no renormalizables, los δλ crecen con la energía, volviendo la teoría no predictiva… a menos que haya una escala física nueva que limite su rango.


Crítica filosófica: ¿con qué autoridad excomulgamos a una teoría?


La ciencia se supone abierta a lo inexplorado. Pero muchas veces, los criterios técnicos (como la renormalización) se convierten en criterios ontológicos. Es decir: creemos que “lo real” es solo lo que puede ser renormalizado.


¿Y si estamos confundiendo herramienta con naturaleza?


Buoninfante cita a Dirac: “La teoría cuántica de campos está repleta de infinidades. Esto es una desgracia.”


Quizás ya es hora de salir de ese ciclo.


¿Y qué consecuencias tiene esto para la física del futuro?


Si liberamos nuestra dependencia de la renormalización, podríamos:


Explorar teorías gravitacionales más atrevidas


Aceptar modelos no locales, no lineales o emergentes


Repensar el papel de los “infinitos” en física como estructuras físicas, no como errores


Y sobre todo, podríamos volver a preguntar sin miedo.


La renormalización salvó la física cuántica en el siglo XX. Pero en el siglo XXI, tal vez su reinado deba terminar. No porque sea inútil, sino porque una herramienta no puede convertirse en dictador.


La física no está hecha solo de ecuaciones ordenadas. Está hecha de preguntas incómodas, incluso cuando no tienen soluciones finitas.


Referencias clave


-Buoninfante, L. (2025). Strict renormalizability as a paradigm for fundamental physics. arXiv:2504.05900v1

-Weinberg, S. (1995). The Quantum Theory of Fields

-Dirac, P.A.M. (1975). Directions in Physics

-Donoghue, J. (1994). Effective field theory and gravity

Más artículos como este en mi blog : https://linktr.ee/PepeAlexJasa


#Renormalización #FísicaFundamental #GravedadCuántica #TeoríaDeCampos #FilosofíaDeLaCiencia #Infinitos #TeoríasNoLocales #DivulgaciónCientífica #ModeloEstándar #RevoluciónCientífica

jueves, 10 de abril de 2025

¿Por qué la distorsión hace que la guitarra suene tan bien? (Física y matemáticas)

 





Una historia de armónicos, trampa matemática y el poder de nuestros oídos

Vivimos rodeados de música distorsionada: desde los solos de guitarra de Metallica hasta los sintetizadores de The Weeknd. Pero ¿alguna vez te has preguntado qué es esa distorsión que tanto nos gusta? ¿Por qué sentimos que una nota distorsionada tiene más "peso" o "alma"? ¿Y qué tiene que ver Pythagoras, la matemática del siglo VI a.C., con un solo de Rage Against the Machine?

En este artículo —inspirado en el trabajo de Anna Mullin y Derek B. Leinweber desde la Universidad de Adelaide— exploramos cómo la física y la percepción humana convergen para explicar por qué el caos (aparente) de la distorsión nos suena tan bien.

Un solo acorde… es un universo

Cuando tocas una nota, no suena una sola frecuencia. Suenan muchas. Por ejemplo, el "La3" (A3) vibra a 220 Hz, pero también emite 440, 660, 880 Hz… y así.
A esto se le llama serie armónica. Y nuestros oídos, como buenos detectores espectrales, no escuchan solo el tono principal, sino toda su familia. Es lo que le da color (o timbre) a un violín versus una flauta o la corneta de los míticos camotes.

Distorsión: ¿error o virtud?

Cuando subimos el volumen de una guitarra eléctrica con un amplificador de válvulas, ocurre algo mágico: el amplificador ya no responde linealmente. Es decir, no simplemente amplifica, sino que deforma la onda sonora.

Eso genera frecuencias nuevas que no estaban en la señal original. Y no son armónicas necesariamente… son combinaciones de sumas, restas y multiplicaciones de frecuencias.
¿Resultado? Una explosión armónica artificial. Así es, una bomba de emociones embriagante.

¿Cómo se crean nuevos sonidos desde la matemática?
Cuando un amplificador no es lineal, la salida puede expresarse como una serie de potencias del voltaje de entrada:

Vout = k1·Vin + k2·Vin² + k3·Vin³ + ...

Cada término extra genera frecuencias nuevas. Por ejemplo, si entran dos frecuencias f1 y f2, la distorsión genera:

|2f1|, |2f2|, |f1+f2|, |f1−f2|, |3f1|, |3f2|, |2f1+f2|…

A esto se le llama distorsión por intermodulación, y es la base de ese “engorde” sonoro que percibimos.

El poder oculto del "power chord"

Cuando tocas un acorde simple como La (110 Hz) y Mi (165 Hz), sus frecuencias tienen una proporción 3:2: un intervalo de quinta perfecta.

Al distorsionarlo, se generan frecuencias como:
275 Hz → proporción 5:2 con el La → ¡una tercera mayor!

385 Hz → proporción 7:2 → ¡una séptima menor!

55 Hz → una octava inferior fantasmal que no tocaste, ¡pero sí escuchas!

Así, el power chord se convierte en un acorde mayor completo y con bajo incluido... sin necesidad de tocar esas notas.

¿Y si no se oyen, por qué las sentimos?

A veces, los armónicos más bajos (como 55 Hz) ni siquiera están presentes. Pero nuestro cerebro los reconstruye a partir de los armónicos más altos.

Este fenómeno se llama tono fundamental ausente. Y es lo que usan los celulares, por ejemplo, para simular voces graves que su bocina no puede reproducir.

El problema de la afinación igual (equal temperament)
La música moderna usa una escala de 12 notas divididas en proporciones iguales (como 21/12). Esto facilita cambiar de tono, pero está ligeramente desafinada respecto a las proporciones armónicas naturales.

Cuando tocas una tercera mayor afinada así (como Do-Mi), su proporción es 1.260, pero el valor armónico "ideal" sería 5/4 = 1.25.
13.7 centésimas de nota parecen poco… hasta que las distorsionas.

El amplificador magnifica esos errores, creando espectros armónicos sucios y poco musicales. Por eso una tercera mayor en una guitarra suena peor distorsionada que una quinta perfecta.

¿Qué hacer entonces?

Afinar con el oído, no solo con afinador digital.

Evitar terceras y séptimas en acordes distorsionados.

Preferir quintas y cuartas, que sí se alinean bien armónicamente.

Si puedes, usar software que corrige post-producción hacia afinaciones más armónicas.

Sección técnica (para físicos y músicos nerds)

¿Dónde aparecen las nuevas frecuencias?
Si:
Vin(t) = A1·cos(f1·t) + A2·cos(f2·t)

Entonces, con distorsión cuadrática:

Vout ∝ (Vin)² → genera:

|2f1|, |2f2|, |f1+f2|, |f1−f2|
Y con distorsión cúbica:

Vout ∝ (Vin)³ → genera:

|3f1|, |3f2|, |2f1+f2|, |2f1−f2|, etc.

Y si f1 = 100 Hz y f2 = 150 Hz, aparecen tonos nuevos en 50, 200, 250, 300, 350 Hz…

¡Una sinfonía de sonidos invisibles!

La distorsión es una forma de creación

No es ruido. No es un error. Es una herramienta.
Cuando entendemos cómo funciona, podemos componer mejor, afinar mejor y tocar con intención.

La distorsión, como la poesía, no tiene que sonar limpia para ser profunda.

Referencias clave:
Mullin, A. & Leinweber, D. (2025).
Distorted Sounds: Unlocking the Physics of Modern Music
arXiv:2504.04919v1
Más materiales y ejemplos en:
http://www.physics.adelaide.edu.au/theory/staff/leinweber/music_research
Para leer más articulos como este ve a mi blog: https://linktr.ee/PepeAlexJasa
#FísicaDeLaMúsica
#GuitarraEléctrica
#Distorsión
#Timbre
#AfinaciónNatural
#JustIntonation
#CienciaParaMúsicos
#Psicoacústica
#FilosofíaYFísica
#ArmoníaOculta

miércoles, 9 de abril de 2025

¿Y si el Planeta Nueve no quiere ser encontrado?



Una búsqueda entre meteoros, anomalías gravitatorias y la terquedad cósmica

Desde hace casi una década, un puñado de astrónomos insiste en que falta un planeta en el sistema solar. No Plutón, sino algo más lejano, más masivo, más escurridizo: el famoso (o infame) Planeta Nueve.

Pero a pesar de simulaciones, estadísticas orbitales y telescopios, nadie lo ha visto. Este nuevo preprint, firmado por Héctor Socas-Navarro e Ignacio Trujillo, explora una hipótesis interesante: ¿y si una roca interestelar que cayó en la Tierra en 2014 (CNEOS14) fue desviada por el Planeta Nueve en su viaje?

Es la llamada “hipótesis del mensajero”, y este artículo describe una búsqueda dedicada y cuidadosa en el cielo para comprobarla. ¿Resultados? No encontraron al planeta. Pero el proceso... es más interesante de lo que parece.

¿Por qué creemos que existe el Planeta Nueve?

Todo parte de ciertas anomalías orbitales en objetos transneptunianos extremos (ETNOs): pequeñas rocas más allá de Neptuno que parecen alinearse misteriosamente en sus órbitas.

Desde 2014, varios estudios (Trujillo & Sheppard, Batygin & Brown, Siraj et al.) han mostrado que esta alineación es estadísticamente rara. La explicación más simple: una masa invisible los está empujando.

Esa “masa invisible” sería un planeta varias veces más masivo que la Tierra, con una órbita muy lejana y excéntrica. Pero aún nadie lo ha visto directamente.

¿Y qué tiene que ver un meteoro?

El 8 de enero de 2014, una bola de fuego llamada CNEOS14 cruzó la atmósfera sobre Papua Nueva Guinea. Su velocidad fue tan alta que algunos investigadores (Siraj & Loeb) concluyeron que venía de fuera del sistema solar.

Socas-Navarro notó algo curioso: la dirección de entrada del meteoro coincidía con la región del cielo donde las simulaciones sitúan al Planeta Nueve. ¿Y si ese meteoro fue desviado por el planeta antes de llegar?

Así nace la hipótesis del mensajero: el meteoro sería un “chismoso gravitacional”, delatando sin querer la ubicación del Planeta Nueve.

La búsqueda en el cielo

Los autores utilizaron el telescopio JAST80 y su cámara T80Cam, observando dos noches consecutivas en 2022 y 2023, en una región de 98 grados cuadrados donde se suponía que podría estar el Planeta Nueve según la trayectoria inversa del meteoro.

La estrategia era sencilla: buscar objetos que se movieran muy poco entre dos noches (como lo haría un planeta lejano), con un desplazamiento por paralaje de entre 4 y 7 segundos de arco.

Pero había un problema: más de un millón de fuentes visibles, y muchísimos falsos positivos por artefactos, rayos cósmicos, estrellas brillantes o diferencias en el seeing.

¿Y qué encontraron?

Nada.

Bueno, más de 900 candidatos… pero todos descartados tras inspección manual y algoritmos.

Pero eso no significa que el planeta no esté ahí. Podría:

Ser más débil que el límite de magnitud alcanzado (r ~ 21.3)

Estar justo tapado por una estrella

Estar en otra parte del cielo

O, claro... no existir

Sección técnica para nerds felices

La clave de la estrategia fue detectar movimiento por paralaje entre dos noches:

Paralaje angular estimado:

Δθ ≈ 4″ a 7″

En función de la distancia al objeto, el desplazamiento esperado es:

Δθ ≈ (1 AU) / D × 206265

donde D es la distancia al objeto en unidades astronómicas.

El número de fuentes detectadas por magnitud siguió una ley de potencia:

N(m) ∝ 10^(0.6m)

Y el límite de detección (r15 y r50) se obtuvo comparando el conteo real con la extrapolación del fondo de cielo, considerando un 15% y 50% de pérdida:

m(r) = (N_true(r) − N_obs(r)) / N_true(r)

Para detección doble (en ambas noches), la probabilidad de no ver el objeto es:

1 − m12(r) = (1 − m1(r)) × (1 − m2(r))

Crítica desde la filosofía de la ciencia

Aquí viene la parte deliciosa. Este artículo es un ejemplo hermoso de ciencia que no confirma una hipótesis, pero aún así aporta valor.

¿Por qué? Porque:

Reduce el espacio de incertidumbre

Mejora los métodos para futuras búsquedas

Pone a prueba una idea audaz (la del mensajero)

Y nos recuerda que la ciencia también progresa con los “no”

Además, es un homenaje a una forma casi artesanal de hacer astrofísica: observaciones bien pensadas, con telescopios modestos, pero con enorme rigor.

¿Y ahora qué?

El Planeta Nueve sigue escondido. Pero hay nuevas ideas:

Usar telescopios más sensibles (como Vera Rubin)

Buscar en infrarrojo

O explorar hipótesis más exóticas, como un agujero negro primordial o efectos de gravedad modificada (MOND)

Mientras tanto, este trabajo afina el mapa, reduce los errores, y nos da una historia digna de una novela cósmica.

Conclusión

La búsqueda del Planeta Nueve no es solo una cacería astronómica. Es una metáfora del conocimiento: sabemos que algo falta, sentimos su influencia, pero aún no lo podemos ver.

Y eso, como decía Carl Sagan, es la esencia misma de la ciencia: avanzar entre la niebla, con paciencia, con método, con asombro.

Referencias clave

Socas-Navarro, H. & Trujillo, I. (2025). A targeted search for Planet Nine in the CNEOS14 field. arXiv:2504.05473
Batygin & Brown (2016, 2021), Brown et al. (2024)
Siraj & Loeb (2022), de León et al. (2017)
Shankman et al. (2017), Napier et al. (2021)


#PlanetaNueve #Astronomía #CienciaCrítica #Astrofísica #FilosofíaDeLaCiencia #Paralaje #MeteoroIntereselar #DivulgaciónCientífica #Telescopios #NoLoEncontramosPeroAprendimos

martes, 8 de abril de 2025

¿Cómo impactan los aranceles en la vida diaria del mexicano?

 



Una crítica filosófico-económica para entender, resistir y construir alternativas
En un país donde muchas decisiones económicas parecen lejanas al ciudadano común, pocas cosas son tan cotidianas —y tan invisibles— como los aranceles.

¿Son solo números y políticas comerciales? No.
Son también comida más cara, ciencia más lenta, salud más vulnerable y futuro más incierto.

🔸 ¿Qué son los aranceles?
Un arancel es un impuesto que el gobierno impone a productos importados para proteger la industria nacional.

Pero el mundo ya no es tan simple. Hoy, la mayoría de lo que usamos viene de muchos países a la vez.

➡️ Por eso, subir aranceles puede terminar afectando incluso a quienes solo compran “hecho en México”.

🔸 Impacto económico directo
La OCDE proyecta una caída del PIB mexicano del 1.3% para este año, asociada al alza de aranceles entre EE.UU. y México.

💸 ¿Qué significa eso en tu día a día?

Aumento de precios en electrónicos, alimentos y ropa

Menor variedad en tiendas

Más incertidumbre para pymes que dependen de insumos importados

🔸 ¿Y para ti, ciudadano?
Los aranceles afectan más a los sectores vulnerables, que gastan más de su ingreso en lo básico.

⚠️ Pueden provocar:

Inflación local

Desempleo en sectores exportadores

Menos inversión extranjera

🔸 ¿Y la ciencia mexicana?
La ciencia también importa cosas:

🔬 Equipos de laboratorio
💾 Software especializado
📡 Colaboraciones internacionales

🚫 Aranceles y trabas comerciales dificultan la compra de reactivos, impresoras 3D o sensores cuánticos.

Resultado:

Menos publicaciones

Menos innovación

Más fuga de cerebros

Más dependencia tecnológica

🔸 Filosofía económica: ¿es justo este modelo?
La lógica de “protege lo tuyo, castiga lo ajeno” suena anticuada en un mundo global.

🌍 Problemas como el clima o el acceso al conocimiento exigen colaboración.

🧠 Preguntas que debemos hacernos:

¿A quién benefician los aranceles?

¿Quién paga el costo oculto?

🔸¿Qué puedes hacer tú? (Consejos prácticos)

Diversifica tu consumo
Apoya lo local, pero no dependas de un solo canal.

Fortalece redes comunitarias
Huertos, cooperativas, trueque. Esto no es nostalgia, es resiliencia.

Educa y comparte
Habla de estos temas. El silencio solo beneficia a los que toman decisiones sin rendir cuentas.

Exige transparencia
Las decisiones comerciales deben incluir la voz de la sociedad.

🔸 Referencias clave

OCDE (2025). Proyecciones económicas México

EGADE Business School (2024). Aranceles y economía familiar

El País (2025). Recesión por aranceles

El Exprés (2024). Inflación y comercio

arXiv, CONACYT, REDNACECYT (sobre ciencia mexicana)


🔸 Conclusión
La física nos enseña que todo está conectado.
También que no puedes cambiar una variable sin afectar todo el sistema.

Los aranceles no son solo números. Son decisiones políticas que moldean el acceso al conocimiento, la justicia económica y el futuro colectivo.

Necesitamos una ciudadanía crítica, que entienda los números, pero también los valores detrás de ellos.

Otros articulos en mi blog: https://linktr.ee/PepeAlexJasa
#Aranceles
#EconomíaMexicana
#CienciaEnRiesgo
#JusticiaEconómica
#FilosofíaYPolítica
#CrisisEconómica
#InvestigaciónMexicana
#DivulgaciónCrítica
#PreciosYTecnología

lunes, 7 de abril de 2025

¿La ética llega demasiado tarde a la tecnología?




Una propuesta para sincronizar conciencia y desarrollo tecnológico en tiempos cuánticos

¿De qué trata esto?

Imagina que estás diseñando una nueva tecnología revolucionaria: una inteligencia artificial capaz de prever pandemias, o una computadora cuántica capaz de romper todos los sistemas de cifrado.
¿En qué momento debería entrar la ética?
👉 ¿Cuando apenas tienes la idea?
👉 ¿Cuando ya hiciste el prototipo?
👉 ¿O cuando ya se usa y empiezan los problemas?

Eline de Jong, investigadora en Ámsterdam, propone un marco para responder esta pregunta de forma ordenada, clara y aplicable.

El dilema: ni muy pronto, ni muy tarde

Muchas veces, cuando llega la ética, ya es tarde: la tecnología está desplegada, los daños ocurrieron, los intereses están comprometidos.
Pero si la ética llega muy pronto, corre el riesgo de ser "demasiado especulativa" —sin información sólida, puede volverse irrelevante o alarmista.

💡 De Jong llama a esto el "dilema de anticipación ética".

Dos estilos éticos

La autora identifica dos enfoques principales para hacer ética de la tecnología emergente:

🧮 Ética orientada a resultados (outcomes-oriented)
Evalúa las consecuencias de la tecnología: ¿qué pasará si se aplica? ¿A quién afecta?

🧠 Ética orientada al sentido (meaning-oriented)
Examina cómo pensamos y hablamos de esa tecnología: ¿qué promesas encierra? ¿qué valores refleja?

La propuesta: niveles de preparación ética (ERL)

Inspirándose en los *Technology Readiness Levels* (TRL), que miden cuán madura está una tecnología (del 1 al 9), De Jong propone los *Ethics Readiness Levels* (ERL).

🔹 ERL bajo → cuando la tecnología es aún muy incierta. Aquí conviene usar una ética orientada al sentido.

🔹 ERL medio → ya hay prototipos o pruebas. Se puede combinar ambos enfoques.

🔹 ERL alto → la tecnología está por implementarse. Se necesita ética orientada a consecuencias.

Un ejemplo real: las tecnologías cuánticas

🧠 Computación y comunicación cuántica → TRL bajo → ERL bajo
Es decir: aún están en desarrollo y llenas de incertidumbre.
Se necesita reflexión conceptual, filosófica, crítica.

🧪 Sensores cuánticos → TRL alto → ERL alto
Ya son viables.
Es hora de analizar sus impactos reales en salud, seguridad, privacidad.

¿Para qué sirve este marco?

Ayuda a los comités de ética a saber qué tipo de evaluación aplicar
Guía a empresas e investigadores para saber cuándo buscar acompañamiento ético
Evita debates inútiles por adelantados… o por retardados

Y sobre todo: integra la ética como parte del proceso de innovación, no como decoración final.

¿Qué implicaciones sociales tiene esto?

Esta propuesta conecta bien con lo que ya se discute en otras áreas:

🌱 Responsabilidad desde el diseño
🛑 Gobernanza anticipada
⚖️ Justicia algorítmica
🔒 Seguridad post-cuántica

Permite una conversación más madura y continua entre ciencia, política y sociedad civil.

Algunas fórmulas útiles (sí, hay ecuaciones 👇)

Aunque el artículo no es matemático, su lógica es clara:

```
Ética adecuada = f(madurez tecnológica)
```

Y propone algo así como:

```
Si TRL = 1–3 ⇒ usar ética orientada al sentido
Si TRL = 4–6 ⇒ combinar enfoques
Si TRL = 7–9 ⇒ priorizar ética orientada a consecuencias
```
Sincronizar ciencia y conciencia

En tiempos donde tecnologías como la IA y lo cuántico avanzan vertiginosamente, necesitamos saber cuándo y cómo hacer preguntas difíciles.

Este marco de *Ethics Readiness* no resuelve todos los dilemas, pero ofrece un mapa útil para no llegar tarde... ni demasiado temprano.

Y como toda buena guía ética, nos recuerda que la ética no es freno, sino dirección.

📚 Referencia original:
De Jong, E. (2025). *Ethics Readiness of Technology: The case for aligning ethical approaches with technological maturity*. arXiv:2504.03336v1

Otros arituclos en mi blog: https://linktr.ee/PepeAlexJasa

#ÉticaDeLaTecnología #QuantumEthics #InnovaciónResponsable #TecnologíaCuántica #FilosofíaDeLaTecnología #DivulgaciónCientífica #ÉticaAplicada #IA #PostCuántico #TRL #ERL


viernes, 4 de abril de 2025

¿Y si las anomalías cuánticas fueran la clave para entender el universo?




Una historia de teoría de gauge, retículos, y el arte de equivocarse con estilo, cosa que a mí me pasa muy seguido.

Resumen para curiosos como yo, que le saben pero no tanto:

Jan Smit, uno de los pioneros silenciosos de la física de partículas, nos entrega un documento raro y precioso: no un paper de resultados, sino una confesión intelectual. Una reconstrucción detallada de cómo, durante los años 70 y 80, luchó por entender un problema que aún hoy suena a trabalenguas:

👉 ¿Cómo se puede poner la teoría de gauge —con sus fermiones quirales— en un retículo, sin romper las simetrías que hacen que el universo funcione?

La respuesta es: no sin dolor, no sin errores, pero sí con sabiduría.

Este es un relato técnico, pero también humano: sobre cómo la física avanza entre dudas, frustraciones y anomalías.

El problema del duplicado maldito

En la formulación de la física cuántica en un espacio discreto (el lattice), ocurre algo molesto:
Cuando intentas poner fermiones (como los electrones) sobre un retículo, no aparece uno… aparecen 16.

Esto se llama el problema del "fermion doubling".

Smit lo explica así: si no tenemos cuidado, cada grado de libertad se replica innecesariamente, y eso arruina cualquier intento de recuperar la física real en el continuo.

Simetría quiral: el alma de la materia

La simetría quiral es la que diferencia a las partículas que giran a la derecha de las que giran a la izquierda. Es crucial para explicar cosas como la interacción débil, que es *notoriamente zurda*.

Pero al discretizar el espacio, esta simetría se rompe fácilmente. Y eso es un problema.

Porque las anomalías quirales —violaciones cuánticas de simetrías clásicas— son reales, medibles, y deben aparecer en cualquier teoría coherente del mundo.

La gran batalla: mantener la quiralidad en el retículo

Durante una década, Smit y otros (Lüscher, Nielsen, Ninomiya...) intentaron mantener viva la simetría quiral en el lattice sin invocar magia negra.

En 1980, Smit propuso un modelo con fermiones quirales en teoría de gauge no abeliana, pionero para su época. Pero sus cálculos (¡hechos con papel y lápiz!) mostraban que algo no cuadraba.

💬 “I found a contact term that violated gauge invariance… it was a shock.”

El “shock” lo llevó a una pausa, pero también a una reflexión que décadas después aún resuena: la simetría no puede ser forzada; debe surgir del sistema mismo.

El dilema de la regularización

En el corazón del artículo está una paradoja:

✔️ Queremos una regularización (una forma de controlar los infinitos de la teoría)
✔️ Que sea quiral
✔️ Y que respete la invariancia gauge

Pero resulta que, como demostraron Nielsen y Ninomiya, no se puede tener todo a la vez en el lattice sin pagar un precio.

Y ese precio es que las anomalías deben salir bien, o el modelo es inconsistente.

Ecuaciones y tecnicismos sabrosos

La función de correlación clave que Smit analiza en su modelo tiene forma:

⟨Jμ^a(x) Jν^b(y) Jρ^c(z)⟩ ≠ totalmente simétrica

En el cálculo aparecen los famosos términos de contacto que rompen la invariancia gauge.

También aparecen estructuras como:

Tr(γμ γν γρ γ5) = 4i εμνρσ

Que son centrales para entender cómo emergen las anomalías.

Y sí, ¡todo esto lo hacían a mano! Con paciencia y pizarras llenas de tiza.

Filosofía de la ciencia (con lápices BIC)

Este no es solo un paper técnico. Es también una meditación sobre cómo se hace ciencia:

🧠 Equivocarse y aprender
📜 Leer preprints mal impresos
📬 Escribir cartas manuscritas para discutir con colegas
💾 Programar en Fortran77 mientras entiendes el universo o lo que está de moda hoy, python jeje.

Smit admite sus errores con una honestidad desarmante. Y nos recuerda que la ciencia no avanza solo con aciertos, sino con la capacidad de entender los errores propios.
¿Y hoy, para qué sirve esto?

Aunque estos problemas suenen antiguos, sus consecuencias están más vivas que nunca:

Los simuladores cuánticos intentan recrear teorías quirales en dispositivos reales.
Las anomalías topológicas explican fenómenos en materiales exóticos como los aislantes topológicos.
Las técnicas de regularización están en la base del diseño de nuevas teorías más allá del Modelo Estándar.

Así que sin estas batallas teóricas, no habría física moderna ni computación cuántica decente.

Conclusión: la confederación de anomalías somos nosotros, nuestra manera de encajonar y de querer entender a nuestro modo.

El título del preprint alude a una “confederación de anomalías” —una imagen poética para describir cómo distintas dificultades técnicas, simétricas y conceptuales se entrelazan.

Es también un llamado de atención:
👉 No hay soluciones fáciles en física de partículas
👉 Pero el camino está lleno de belleza

Y sí, también de anomalías, en el mejor sentido posible.

Referencias importantes

📄 Jan Smit (2025). "A confederacy of anomalies", arXiv:2502.03066v2
📄 Nielsen & Ninomiya (1981). "Absence of neutrinos on the lattice"
📄 Lüscher, M. (1999). "Chiral gauge theories revisited"
📄 Wilson, K. (1974). "Confinement of quarks", Phys. Rev. D10
Otros artículos en mi blog: https://linktr.ee/PepeAlexJasa

#FísicaTeórica #LatticeGaugeTheory #AnomalíasCuánticas #Quiralidad #DivulgaciónCientífica #HistoriaDeLaCiencia #Retículo #FísicaParaTodos #SimetríaRota #PreprintsQueInspiran