El hielo derritiéndose es un ejemplo típico del aumento de entropía de un sistema

El hielo derritiéndose es un ejemplo típico del aumento de entropía de un sistema


Escuché muchas veces que se habla de la entropía, pero casi siempre sin ningún fundamento (o pocos) y quizás sea simplemente porque es un tema particularmente difícil de explicar en términos simples.

La entropía es un término que surge de la termodinámica, una parte de la Física que en un principio se dedicó a estudiar el calor y las máquinas que se podían construir; con el tiempo esta disciplina fue cambiando y evolucionando, hasta que se transformó en lo que se conoce como física estadística. Algunas definiciones que la termodinámica había introducido casi como axiomáticas, hoy en día es posible derivarlas de principios más generales, dentro de los cuales se encuentra la Entropía.

Casi cualquier sistema físico “grande” está compuesto por muchas partículas (moléculas, átomos, etc.) y cuando decimos muchas nos referimos, por ejemplo, a un 1 seguido de 26 ceros (el número de Avogadro: 6.02 1023😉 a forma de comparación, en todas las playas del mundo no hay tantos granos de arena. Es claro que con números tan grandes es imposible seguir la trayectoria de cada una de las partículas independientemente (no habría computadora capaz de ello) y tampoco vale la pena, porque se las puede tratar estadísticamente.

Pensemos con pocas partículas primero; supongamos que tenemos 5 y que cada una puede tener 3 energías diferentes 1, 2 y 3. Si el sistema tiene una energía de 10, hay muchísimas formas de lograrlo (5 partículas en energía 2, 3 en energía 2, una en 1 y una en 3, etc. etc.) pero hay sólo una forma de lograr energía 5 (todas en energía 1) o la energía 15 (todas en energía 5.) Entonces podemos preguntarnos cuál de todas esas configuraciones es la más probable; uno de los principios fundamentales de la mecánica estadística dice que todas las configuraciones son equiprobables, o sea que la 1,1,1,1,1 o la 1,2,3,2,3 tienen la misma probabilidad de aparecer; pero cada energía tiene diferentes probabilidades, por ejemplo la energía 1 tiene sólo 1 probabilidad, pero la energía 10 tiene muchas. La suma de todas las combinaciones que dan una cantidad de energía determinada se llama “multiplicidad.”

Ahora, hay que establecer una relación entre la multiplicidad y la entropía; por motivos un poco complicados de explicar sólo con palabras, se tiene la siguiente relación:

S = k \ln\Omega

donde S es la Entropía y \Omega es la multiplicidad y k es una constante. Planck fue el primero en escribir esa relación y muestra varias cosas: como está relacionado a través de un logaritmo, cuando la multiplicidad sea 1, la entropía será 0; además cuando la multiplicidad sea máxima la entropía también lo será. Ahora, una multiplicidad máxima indica también una probabilidad máxima de aparecer, por lo que se explica la observación del siglo XIX que sostenía que la entropía siempre aumenta.

Una visión que suele darse de la Entropía es que es una medida del desorden de un sistema: cuanto mayor sea más desordenado será el sistema y por lo tanto será más probable tenerlo. En general un sistema desordenado es más fácil de obtener que un sistema ordenado; piensen qué es más fácil: tener un cuarto donde cada cosa está en su lugar o ir dejando la ropa tirada por el suelo:-D.

A %d blogueros les gusta esto: