Lo que unos "dados locos" inventados en 1977 revelan sobre una de las leyes más importantes de la física moderna
CIENCIAS EXACTAS: MATEMÁTICA / FÍSICA.
Un estudio matemático revisa una ley clásica de la física desde un ángulo inesperado y plantea una pregunta incómoda: ¿podría existir otra regla que describa igual de bien los sistemas independientes?
La respuesta cambia la forma de entender una fórmula centenaria.
Fuente: ChatGPT + Canva.
El aire que rodea cualquier habitación está formado por moléculas que se mueven sin descanso, chocan entre sí y cambian de dirección de forma imprevisible. Aun así, la física es capaz de decir algo muy preciso sobre ese aparente desorden. No puede anticipar qué hará cada partícula individual, pero sí puede calcular la probabilidad de que el conjunto del sistema se encuentre en determinados estados. Esa capacidad de encontrar regularidad en el caos es uno de los pilares de la física moderna.
En el siglo XIX, Ludwig Boltzmann formuló una regla que permite describir cómo se distribuyen esos estados cuando un sistema está en equilibrio térmico. Desde entonces, la llamada distribución de Boltzmann se ha convertido en una herramienta básica no solo en física, sino también en campos como la química, la teoría de la información o incluso la economía. Un nuevo trabajo matemático publicado en Mathematische Annalen revisa esta ley desde un ángulo inesperado y propone una forma distinta de entender por qué funciona como funciona.
Una ley que no describe trayectorias, sino probabilidades.
Cuando se habla de leyes físicas, muchas personas piensan en ecuaciones que predicen posiciones o velocidades. Sin embargo, en sistemas con un número enorme de componentes, ese enfoque resulta inviable. En esos casos, la física utiliza distribuciones de probabilidad. Tal y como explican los autores del estudio, “En mecánica estadística, un sistema puede encontrarse en diversos estados posibles”. Cada uno de esos estados tiene asociada una energía.
La distribución de Boltzmann establece cómo se reparten las probabilidades entre esos estados cuando el sistema está en equilibrio con su entorno. El artículo lo formula así: “En un equilibrio con una temperatura dada, la distribución de estados viene dada por la distribución de Boltzmann”. Esto significa que los estados con mayor energía son menos probables que los de menor energía, y que la temperatura determina cuánto penaliza el sistema a los estados más energéticos.
Esta regla ha sido tradicionalmente explicada mediante argumentos relacionados con la entropía o con la idea de un sistema en contacto con un gran entorno térmico. Es una historia bien conocida en los manuales. Sin embargo, el nuevo trabajo no se centra en repetir esa explicación clásica, sino en hacerse otra pregunta: ¿qué condiciones matemáticas obligan a que esa sea la única forma posible de describir ciertos sistemas?
Fuente: ChatGPT.
El problema de los sistemas independientes.
Para entender el enfoque del artículo conviene detenerse en una idea sencilla. Si se tienen dos sistemas que no interactúan entre sí —por ejemplo, dos conjuntos de partículas que no intercambian energía—, lo razonable es que el comportamiento de uno no afecte al del otro. Esa intuición física se traduce en una exigencia matemática concreta: la regla que asigna probabilidades debe respetar la independencia.
Los autores señalan que la transformación asociada a la distribución de Boltzmann “conmuta con la convolución”. Más adelante lo expresan de forma general: “Nuestro resultado principal es que los miembros de la familia (Φβ)β∈R son los únicos mapas que preservan la clase de medida y conmutan con la convolución”. Traducido a un lenguaje más accesible, esto significa que si se combinan dos sistemas independientes, la regla que ajusta sus probabilidades no puede introducir conexiones artificiales entre ellos.
Esa condición es más exigente de lo que parece. No basta con que una fórmula produzca números razonables. Debe comportarse de forma coherente cuando se combinan sistemas. Y ahí es donde surge la cuestión central: ¿existen otras reglas distintas de la de Boltzmann que también respeten esa independencia?
La idea de los dados y los “dados locos”.
Para ilustrar el problema, puede recurrirse a una analogía sencilla. Si se lanza un dado normal muchas veces, cada cara aparece aproximadamente una sexta parte de las veces. Si se lanzan dos dados y se suman los resultados, la distribución de las sumas tiene una forma concreta: algunos valores son más frecuentes que otros.
Ahora bien, en 1977 se inventaron unos dados poco convencionales, conocidos como dados de Sicherman. Sus caras no están numeradas del modo habitual, pero al lanzar el par y sumar los resultados, la distribución de las sumas es exactamente la misma que la de dos dados normales. Es decir, aunque cada dado individual es extraño, el comportamiento conjunto parece indistinguible del habitual cuando solo se observan las sumas.
Esta peculiaridad sirve como metáfora de lo que ocurre en el artículo. Existen distintas maneras de asignar probabilidades a estados individuales que, al combinarse, pueden dar resultados similares. La pregunta es si, cuando se exige coherencia total con la independencia de sistemas, hay margen para alternativas o si todas las rutas conducen a la misma estructura matemática.
Una demostración que descarta alternativas.
El núcleo del trabajo es una demostración rigurosa de unicidad. Los autores muestran que, bajo las condiciones de preservar los estados posibles y respetar la independencia de sistemas, no hay libertad real para elegir otra forma distinta. Como escriben en el resumen, “ofrecemos una nueva caracterización de esta familia como la única que satisface la independencia para sistemas no acoplados”.
Esta afirmación no es un simple matiz técnico. Supone que la distribución de Boltzmann no es solo una solución conveniente o elegante entre muchas posibles. Es, dentro de ese marco de condiciones, la única que funciona. Si se intenta modificar la regla manteniendo la coherencia con sistemas independientes, las alternativas acaban descartadas por inconsistentes.
El artículo explica que el resultado “se reduce a una afirmación sobre endomorfismos del semigrupo de convolución de medidas de probabilidad con soporte finito”. Aunque la formulación es técnica, la idea subyacente es clara: cuando se analizan las posibles transformaciones que respetan la estructura matemática de combinar probabilidades, todas las vías llevan a la misma familia de distribuciones.
Fuente: ChatGPT.
Además, los autores subrayan que esta perspectiva constituye “una explicación alternativa” al origen habitual de la ley. En lugar de apoyarse en argumentos termodinámicos tradicionales, el trabajo muestra que la estructura de la independencia por sí sola impone la forma exponencial característica de Boltzmann.
Por qué importa esta nueva perspectiva.
A primera vista, podría parecer que demostrar algo que ya se utiliza desde hace más de un siglo no cambia demasiado. Sin embargo, la importancia de este resultado reside en el tipo de justificación que aporta. La distribución de Boltzmann no solo describe bien los sistemas en equilibrio; también emerge como consecuencia inevitable de una propiedad estructural profunda.
Este tipo de demostraciones refuerzan la idea de que algunas leyes físicas no son meras regularidades empíricas, sino expresiones necesarias de principios más generales. Si se acepta que los sistemas independientes deben tratarse como independientes en el plano matemático, entonces la forma concreta de la distribución deja de ser una elección y se convierte en una consecuencia.
El propio estudio recuerda que la explicación tradicional se basa en la entropía máxima, pero añade que aquí se ofrece otra vía conceptual. Al hacerlo, conecta áreas distintas —desde la física estadística hasta la teoría de probabilidades— bajo un mismo marco formal.
Una ley centenaria vista con nuevos ojos.
Más de un siglo después de su formulación, la distribución de Boltzmann sigue siendo objeto de análisis. El trabajo de Sandomirskiy y Tamuz no modifica la ley ni introduce una nueva fórmula. Lo que hace es algo diferente: reafirma su carácter único dentro de un conjunto amplio de posibilidades matemáticas.
Cuando una teoría resiste este tipo de escrutinio, gana solidez conceptual. No se trata solo de que funcione en experimentos o simulaciones, sino de que su estructura está anclada en principios más generales. En este caso, la independencia de sistemas no acoplados actúa como filtro que elimina alternativas.
Por: Eugenio M. Fernández Aguilar. Físico, escritor y divulgador científico.
Sitio Fuente: Muyinteresante