viernes, 3 de abril de 2026

Entropía

 


La entropía es una magnitud fundamental de la termodinámica y de la física estadística que describe el grado de dispersión de la energía, la irreversibilidad de los procesos físicos y el número de configuraciones microscópicas posibles de un sistema. Su estudio permite comprender la dirección natural de los procesos físicos y la evolución de los sistemas hacia estados de mayor probabilidad estadística.


Definición termodinámica de la entropía

En termodinámica clásica, la entropía SS es una función de estado que caracteriza el estado macroscópico de un sistema físico.

Se define mediante la relación:

dS=δQrevT

donde:

  • dS es el cambio infinitesimal de entropía,
  • δQrev es el calor transferido de forma reversible,
  • T es la temperatura absoluta del sistema.

Esta ecuación establece que la entropía mide cómo se distribuye el calor dentro de un sistema cuando ocurre un proceso reversible.

Una característica esencial de la entropía es que depende únicamente del estado inicial y final del sistema, no del camino seguido para llegar entre ellos.




Entropía y la segunda ley de la termodinámica

La segunda ley de la termodinámica establece una propiedad fundamental de la entropía:

ΔSuniverso0

Esto significa que en cualquier proceso natural la entropía total del universo nunca disminuye.

Las consecuencias de esta ley incluyen:

  • los procesos naturales tienen una dirección preferente,
  • muchos procesos físicos son irreversibles,
  • el calor fluye espontáneamente de cuerpos calientes a fríos.

Ejemplos de procesos irreversibles donde aumenta la entropía incluyen:

  • mezcla de gases,
  • difusión de partículas,
  • disipación de energía mecánica en calor.


Interpretación estadística de la entropía

La física estadística proporciona una interpretación microscópica de la entropía. En este enfoque, un sistema macroscópico puede corresponder a un gran número de configuraciones microscópicas posibles, llamadas microestados.

La relación fundamental fue establecida por Ludwig Boltzmann:

S=kBlnΩ

donde:

  • S es la entropía,
  • kB es la constante de Boltzmann,
  • Ω es el número de microestados compatibles con el estado macroscópico.

Esta ecuación muestra que la entropía mide el grado de multiplicidad microscópica del sistema.

Un sistema con mayor número de microestados posibles posee mayor entropía.


Entropía y orden macroscópico

Frecuentemente se describe la entropía como una medida del desorden, aunque esta descripción es una simplificación.

Más precisamente, la entropía mide:

  • el número de configuraciones microscópicas posibles,
  • el grado de dispersión de la energía,
  • la probabilidad estadística de un estado macroscópico.

Por ejemplo:

  • un cristal perfecto tiene baja entropía porque sus partículas ocupan posiciones muy restringidas,
  • un gas expandido tiene alta entropía porque sus moléculas pueden distribuirse de muchas maneras.

Entropía y la flecha del tiempo

La entropía está profundamente relacionada con la dirección del tiempo en los procesos físicos.

Las leyes fundamentales de la física son en gran parte simétricas respecto al tiempo, pero la segunda ley de la termodinámica introduce una asimetría temporal.

El aumento de entropía define la llamada:

flecha termodinámica del tiempo

Esto significa que distinguimos pasado y futuro porque:

  • en el pasado los sistemas tenían menor entropía,
  • con el tiempo la entropía aumenta.

Entropía en sistemas abiertos y cerrados

El comportamiento de la entropía depende del tipo de sistema considerado.

Sistema aislado:
No intercambia materia ni energía con el entorno. En este caso, la entropía total solo puede aumentar o permanecer constante.

Sistema cerrado:
Intercambia energía, pero no materia. La entropía del sistema puede disminuir localmente si aumenta la entropía del entorno.

Sistema abierto:
Intercambia materia y energía con el exterior. En estos sistemas pueden surgir estructuras ordenadas mientras el entorno experimenta un aumento mayor de entropía.

Esto explica la formación de estructuras complejas en la naturaleza, como:

  • organismos vivos,
  • sistemas climáticos,
  • estructuras químicas autoorganizadas.

Entropía en teoría de la información

En teoría de la información, la entropía mide la cantidad de incertidumbre asociada a un conjunto de mensajes posibles.

La entropía de Shannon se define como:

H=pilogpi

donde pi es la probabilidad de cada estado o símbolo.

Esta formulación es matemáticamente análoga a la entropía estadística y se utiliza en:

  • telecomunicaciones,
  • compresión de datos,
  • criptografía.

Entropía en cosmología

La entropía también desempeña un papel importante en la evolución del universo.

Se considera que:

  • el universo temprano tenía baja entropía gravitacional,
  • con el tiempo la entropía cósmica ha aumentado.

Procesos como:

  • formación de estrellas,
  • evolución de galaxias,
  • formación de agujeros negros

contribuyen al crecimiento de la entropía total del universo.

Los agujeros negros poseen una entropía extremadamente grande, descrita por la relación:

S=kBA4lP2

donde es el área del horizonte de sucesos.




Conclusión

La entropía es una magnitud física fundamental que describe la distribución de energía, la multiplicidad de configuraciones microscópicas y la irreversibilidad de los procesos naturales. Su aumento en sistemas aislados, establecido por la segunda ley de la termodinámica, determina la dirección temporal de los procesos físicos y constituye uno de los principios más universales de la física.

No hay comentarios:

Publicar un comentario

Entropía

  La entropía es una magnitud fundamental de la termodinámica y de la física estadística que describe el grado de dispersión de la energí...