Entalpía, entropía y desorden

    La noción de entropía se propuso durante el siglo XIX como un artificio teórico para explicar el carácter de los procesos irreversibles. Un vaso hecho añicos al caer al suelo o el estallido de una carga explosiva son ejemplos muy claros de transformaciones irreversibles. Por otra parte, en el comportamiento del mundo inmediato parece advertirse una tendencia general al desarreglo y al desorden. Mientras que para tomar un conjunto de folios impresos y ordenarlos por número de páginas es necesario cierto trabajo, resulta sencillo que se desordenen con estrépito: basta con que se caigan al suelo con un poco de mala suerte.

    El concepto físico que pone en contacto las nociones de irreversibilidad y desorden es el de entropía. Postulada originalmente para explicar por qué no es posible revertir ciertos procesos termodinámicos, como el tránsito de calor de los cuerpos fríos a los calientes, la entropía se ha convertido en la actualidad en un concepto extremadamente útil en la teoría de la información, la ecología o el estudio de poblaciones, entre otras disciplinas.

    El aumento de la entropía en los sistemas está relacionado con la degradación de la energía, con la pérdida de capacidad de dichos sistemas para realizar un trabajo aprovechable. En su extremo teórico, se ha llegado a postular que el creciente aumento de la entropía en el entorno cosmológico considerado en su conjunto, con un desordenamiento gradual de sus estructuras y sistemas integrantes, abocaría a un estado último de total inacción por incapacidad para realizar ningún trabajo. Tal escenario se conoce por el nombre de muerte térmica del Universo.

    Magnitudes de estado de la termodinámica

    En sentido estricto, en termodinámica y mecánica estadística se define estado como una combinación concreta de propiedades físicas, como la energía interna, la presión, el volumen o la temperatura, que caracterizan a un sistema en un instante dado.

    Los estados de un sistema se definen matemáticamente mediante las denominadas ecuaciones de estado, que establecen relaciones específicas entre algunas de estas propiedades. Un ejemplo característico de ecuación de estado es la expresión de las relaciones entre presión, volumen y temperatura en un gas ideal o perfecto:

    P · V = n · R · T

    donde n es el número de moles de gas, P la presión, V el volumen, T la temperatura y R la constante universal de los gases perfectos.

    Ahora bien, todos los sistemas físicos evolucionan de manera que intentan alcanzar unas condiciones de equilibrio, estado al cual tiende a regresar el sistema si se introducen en él pequeñas variaciones o perturbaciones. Los estados de equilibrio en los sistemas se definen por una serie de cantidades o funciones que determinan sus características y que no dependen de la forma en que fueron adquiridas por ese sistema, sino de su condición presente. Dichas cantidades se conocen como magnitudes, variables o funciones de estado.

    En los sistemas termodinámicos, los ejemplos típicos de magnitudes de estado son la energía interna, la entalpía y la entropía. Estas tres cantidades ayudan a describir de forma cuantitativa los estados de equilibrio de los sistemas termodinámicos. Por el contrario, magnitudes como el trabajo o el calor no son funciones de estado sino «cantidades de proceso», dado que describen las transiciones entre los estados de equilibrio y no los estados en sí.

    Es decir, un sistema pasa del estado de equilibrio 1 al estado de equilibrio 2, por ejemplo, realizando un trabajo o absorbiendo o cediendo calor. Una vez alcanzado el equilibrio, las cualidades del sistema se describen por su energía interna, su entalpía o su valor de entropía, pero no por el calor o el trabajo que fueron necesarios para llegar a dicho estado desde uno anterior.

    La energía interna puede entenderse como la energía global que contiene un sistema termodinámico o un cuerpo en un instante dado. Se suele denotar por U y comprende la suma total de energía cinética y potencial de todas sus partículas. Comprende, por tanto, la energía de traslación, rotación y vibración de cada una de sus moléculas, la energía potencial eléctrica de sus átomos, la energía de sus enlaces químicos, la del movimiento libre de los electrones en redes metálicas cristalinas, etc.

    Asociada a la anterior se encuentra la entalpía, también llamada «contenido calorífico» del sistema. La entalpía se denota por la letra H y se define como la suma de la energía interna de un sistema más el producto de su volumen por la presión que se ejerce sobre él en un determinado instante:

    H = U + P · V

    La entalpía no es una cantidad directamente cuantificable en un sistema. Lo que se miden son las variaciones de entalpía, que permiten obtener una idea de la cantidad máxima de energía térmica que puede extraerse de un proceso termodinámico para el cual se mantiene constante la presión.

    Finalmente, la entropía es un concepto termodinámico para el que se han propuesto varias definiciones. En la termodinámica clásica se entiende como la medida de la cantidad de energía de un sistema físico a una temperatura dada que no puede usarse para realizar un trabajo. El valor cuantificable de la entropía se define por el segundo principio de la termodinámica. No obstante, sus interpretaciones han desbordado el ámbito de la propia ciencia del calor y la temperatura para aplicarse a la teoría de la información, la dinámica de poblaciones, la teoría de juegos y otros muchos campos del conocimiento.

    Significado físico de la entropía

    La entropía es una magnitud de estado relacionada con la formulación de la segunda ley de la termodinámica. Históricamente, este concepto se ha vinculado con el carácter reversible o irreversible de los procesos termodinámicos, de manera que en una transformación reversible el producto de la variación de la entropía del sistema por su temperatura equivale al calor asociado a dicho proceso.

    Esta formulación se amplió en las primeras décadas del siglo XX, merced a las aportaciones de Walther Nernst y Max Planck en la llamada tercera ley de la termodinámica. Uno de los enunciados de dicha ley sostiene que la entropía de una sustancia pura en equilibrio termodinámico tiende a cero cuando la temperatura también tiende a cero. Este tercer principio abre la puerta a un procedimiento para calcular valores absolutos de la entropía, de gran utilidad para analizar los procesos físico-químicos en sus aspectos más elementales.

    Desde otro punto de vista, la entropía se ha descrito como una medida del grado de desorden o aleatoriedad que posee un sistema. Esta interpretación conlleva una cierta ambigüedad si no se define con rigor el concepto físico de desorden. En este sentido, un sistema está más «desordenado» cuanto menor es la cantidad de energía disponible que posee apta para realizar un trabajo. En computación, este mismo concepto se ha relacionado con el de «pérdida de información». Se entiende que al desordenarse un sistema, disminuye la cantidad de información que puede extraerse de él.

    Así, por ejemplo, en la reacción química de combustión de hidrógeno se desprende una cierta cantidad de energía en forma de calor y de trabajo mecánico. La parte de energía que se comunica como trabajo es útil y capaz de realizar una acción mecánica. Sin embargo, el calor desprendido por la combustión no podrá aprovecharse como trabajo, con lo cual contribuirá al aumento de entropía del sistema. De ello se concluye que el sistema reactivo original (gas hidrógeno más oxígeno) tenía menos entropía que el del producto de reacción (vapor de agua).

    Conforme a la segunda ley de la termodinámica, la cantidad total de entropía de un sistema aislado sólo puede aumentar (procesos irreversibles) o permanecer constante (procesos reversibles), pero nunca disminuye. La continua «degradación» de la energía de los sistemas en los procesos irreversibles de la naturaleza se ha vinculado filosóficamente con el hecho de que el tiempo siga una sola dirección, desde el pasado al presente y después al futuro, en la llamada flecha del tiempo.

    Tabla 1. Magnitudes de estado de uso común en termodinámica.

    En relación con la entropía y la energía interna, en termodinámica se ha dado en definir una nueva magnitud de estado, denominada energía libre de Gibbs, que es precisamente la parte de la energía «aprovechable» de un sistema, la que es susceptible de realizar trabajo (la tabla 1 muestra estas magnitudes). Matemáticamente, la variación de la energía libre de Gibbs de un sistema es igual al cambio experimentado en su entalpía menos el producto de su temperatura por la variación de la entropía:

    G = H – T· S

    Ciclos termodinámicos

    La utilidad de los principios de la termodinámica en elementos prácticos tiene uno de sus ámbitos más productivos en el uso de ciclos. Los ciclos termodinámicos se definen como procesos cerrados por los que pasa un sistema desde un estado inicial y a través de varias fases intermedias hasta llegar a un estado final en el que todas sus variables termodinámicas de interés adoptan los mismos valores del estado inicial. En estos ciclos, la energía interna total del sistema no puede variar, por lo que el calor neto aportado al ciclo debe traducirse en el trabajo total realizado por el sistema.

    En una máquina ideal, perfecta y de eficacia absoluta, todo el calor aportado al sistema debería convertirse en trabajo dentro de un ciclo termodinámico cerrado. En la realidad, esto no sucede por imposiciones de la segunda ley de la termodinámica. Según esta ley no existe el móvil perpetuo de segunda especie, de manera que toda máquina térmica tiene, por definición, una eficacia inferior al 100%.

    Teniendo en cuenta este principio, pueden desarrollarse ciclos de una eficacia teórica máxima, aun siendo menor que el 100%, cuyo fundamento fue desarrollado en el siglo XIX por Sadi Carnot. El denominado ciclo de Carnot, representado en la figura 1 y que es el básico en los motores térmicos, es de naturaleza reversible y configura en un diagrama los valores de presión con respecto al volumen (P-V) en cuatro pasos que permiten transformar el calor en trabajo. El sistema consta de dos fuentes caloríficas, de manera que absorbe calor de la fuente caliente y lo cede a la fuente fría.

    Ciclo de Carnot, base teórica de las máquinas térmicas.

    El sistema se encuentra inicialmente en el estado a, a presión P1 y temperatura T1, y ocupa un volumen V1. Absorbe entonces una energía calorífica Q1, al tiempo que se dilata a un volumen V2 modificando su presión a P2 sin cambio de temperatura (transformación isoterma). Desde este segundo estado b, el sistema pasa al c por medio de un cambio de presión (P3), temperatura (T2) y volumen (V3), pero sin aportación de calor (transformación adiabática). En este proceso, el sistema realiza un trabajo.

    Después, el sistema (estado d) se comprime hasta una presión P4, contrayendo su volumen a V4 y manteniendo la temperatura T2 (transformación isoterma). Aquí se cede calor Q2 al entorno (al depósito del motor) y se efectúa un trabajo. Por último, se recupera el estado inicial (a) comprimiendo lentamente el sistema hasta su presión y volumen iniciales, elevando de nuevo la temperatura hasta T1. Esta última fase del ciclo es también adiabática (sin absorción ni cesión de calor).

    Matemáticamente, es posible calcular el trabajo W neto realizado por el sistema a lo largo del ciclo como el área encerrada dentro de la superficie abcd. A su vez, la cantidad de calor neta recibida es la absorbida inicialmente (Q1) menos la cedida al depósito en la tercera fase del ciclo (Q2). Dado que la energía interna total del sistema se conserva, debe cumplirse que:

    W = Q1 – Q2

    El rendimiento del ciclo se define como el cociente entre el trabajo realizado por el sistema y el calor absorbido. Es decir:

    En las expresiones anteriores se han considerado valores absolutos de las cantidades de calor. Como era de esperar, el rendimiento del ciclo es siempre menor que 1, es decir, inferior al 100%. Este rendimiento puede escribirse también como:

    Por tanto, un ciclo termodinámico será más eficaz cuanto mayor sea la temperatura de las fases c y d y menor la de las fases a y b. Si ambas temperaturas son iguales no se realiza trabajo, pues el rendimiento del ciclo es nulo.