Вы находитесь на странице: 1из 31

Ejercicio: Cuál es el Hr0 para la descomposición de peróxido de

hidrógeno.

H2O2(l) → H2O(l) + ½O2(g) ΔHº = ?kJ

Si se puede basar en las siguientes Rxs

Ecuación 1 H2(g) + O2(g) → H2O2(l) ΔHº = -187.9kJ

Ecuación 2 H2(g) + ½O2(g) → H2O (l) ΔHº = -285.8kJ


Rta/ ΔHº = -97.9kJ

Ejemplo:

C(s) (diamante) + O2(g)----> CO2(g) ΔHºcomb = -3 95.4kJ

CO2(g)------> C(s) (grafito) + O2(g) ΔHºcomb = 393.5kJ


C(s)diamante-------> C(s)grafito ΔHºcomb = -1.9kJ

Flash: J B Wang and G W Yang


Department of Physics, Xiangtan University, Xiangtan 411105, People's
Republic of China
Department of Material Science and Engineering, Tsinghua University,
Beijing 100084, People's Republic of China
Received 30 November 1998, in final form 24 May 1999
Print publication: Issue 37 (20 September 1999)
Abstract. The phase transformation between diamond and graphite in
preparation of diamond by pulsed-laser-induced liquid - solid interface
reaction (PLIIR) was studied by calculating the probability of phase transition
of the carbon atoms over a potential barrier in the pressure-temperature (P -
T) phase diagram of carbon. It is found that the probability of phase transition
from graphite to diamond is as high as 10-3-10-4 in the C pressure -
temperature region where the pressure and temperature are in the range of 10
GPa to 15 GPa and 4000 K to 5000 K, respectively, in the pressure -
temperature phase diagram. The distribution of the probability of the phase
transformation from graphite to diamond was obtained in the corresponding
pressure-temperature region, in which diamonds are prepared by PLIIR. In
addition, the dependence of the probability for the transformation of graphite
to diamond on temperature was investigated and found to be in agreement
with the Arrhenius rule.

Principle Properties of Diamond


Choose virtually any characteristic of a material - electronic, structural, or optical - and the value
associated with diamond will almost always be the most extreme: Diamond is invariably 'the
biggest and the best'. The following is a table of the properties of diamond that render it so
potentially useful across many fields of science (Ref. 'Synthetic Diamond - Emerging CVD
Science and Technology', Spear and Dismukes, Wiley, NY, 1994).
Property Value Units
Hardness 10,000 kg/mm2
Strength, tensile >1.2 GPa
Strength, compressive >110 GPa
Sound velocity 18,000 m/s
Density 3.52 g/cm3
Young's modulus 1.22 GPa
Poisson's ratio 0.2 Dimensionless
Thermal expansion coefficient 0.0000011 /K
Thermal conductivity 20.0 W/cm-K
Thermal shock parameter 30,000,000 W/m
Debye temperature 2,200 K
Optical index of refraction (at 591 nm) 2.41 Dimensionless
Optical transmissivity (from nm to far IR) 225 Dimensionless
Loss tangent at 40 Hz 0.0006 Dimensionless
Dielectric constant 5.7 Dimensionless
Dielectric strength 10,000,000 V/cm
Electron mobility 2,200 cm2/V-s
Hole mobility 1,600 cm2/V-s
Electron saturated velocity 27,000,000 cm/s
Hole saturated velocity 10,000,000 cm/s
Work function small and negative On [111] surface
Bandgap 5.45 eV
Resistivity 1013 - 1016 Ohm-cm

Ejemplo C(s) + ½ O2(g)-----> CO(g) ΔHºf =?


C(s) + O2(g)-----> CO2(g) ΔHºcomb = -393.5kJ
CO(g) + ½ O2(g)----> CO2(g) ΔHºcomb = -283.0kJ
*equación contraria*
CO2(g)----->CO(g) + ½ O2(g) ΔHºcomb = 283.0kJ

CO2(g)-----> CO(g) + ½ O2 (g) ΔHºcomb = 283.0kJ


C(s) + O2(g)----> CO2(g) ΔHºcomb = -393.5kJ

C(s) + ½ O2(g)----> CO(g) ΔHºf = -110.5kJ

Energías de disociación de enlaces

El cambio en la entalpía que se necesita para romper un enlace es


llamada de energía de disociación de enlace. Cuando se rompen
enlaces la energía se absorbe. Cuando se forman enlaces se
libera energía.
H2(g) → 2H(g), ΔH= 435 kJ.
“Cuanto mayor es la energía de enlace, mayor es la fortaleza del
enlace y menor es la longitud del enlace”
ΔHRx=  E. enlace reaccionantes -  E. Enlace productos
Usando la formula anterior estimar la entalpia de la Rx
C2H2(g) + 5/2 O2(g) → H2O(l) + 2CO2(g)
E. Enlace
C-C H-C H-O C=O C=C CC O=O
347 414 464 803 611 837 498
Expresamos la formula estructural, para identificar el No. y tipo de
enlace
H-CC-H + 5/2 O2 → 2 O=C=O + H-O-H
ΔH= [2(H-C) + 1(CC) + 5/2 (O=O)] – [4(O=C)+ 2(H-O)]
ΔH= -1230 kJ.

¿Cómo calcular el Calor de Reacción, o Entalpía de Reacción , a partir de la energías de


enlace?

En el ejemplo vamos a calcular de reacción, a traves de las Energía de Enalce para la reacción de
combustión del metano. Esta combustión transcurre mediante la siguiente reacción:

CH4(g) + 2O2(g) → CO2(g) + 2H2O(g)

Si escribimos las formulas estructurales de cada uno de los reactantes y productos, podremos
estableceer que enlaces se ROMPEN y cuáles enlaces se FORMAN.

Se hacemos la contabilidad de enlaces rotos y formados tendremos los datos de la tabla


siguiente:

Enlaces Rotos Enlaces Formados


4 enlaces C-H 2 enlaces C=O
2 enlaces O=O 4 enlaces H-O

En tablas se puede encontrar el valor de las energía de enlace para los enlaces rotos y formados:

Energía de Enlace
Enlace
EE (kJ/mol)
C-H 413
O=O 494
C=O 801
H-O 482

Ahora que tenemos el número de enlaces rotos y el número de enlaces formados, y en tablas hemos
encontrado el valor de la energía de enlace.

Debemos recordar que hay que suministrar energía para romper un enlace (valor positivo de la
EE), y se libera energía al formar un enlace (valor negativo de la EE)

Podemos pasara a calcular la energía enlace total de enlaces rotos y la energía de enlace total de enlaces
formados:

El número de enlaces rotos en un mol de moléculas x Energía de enlace:

 4 enlaces C-H x 413 kJ = 1652 kJ


 2 enlaces O=O x 494 kJ = 988 kJ

Romper los enlaces requiere de una energía de 2640 kJ

El número de enlaces formados en un mol de moléculas x energía de enlace:

 2 enlaces C=O x (- 801 kJ) = (- 1602 kJ)


 4 enlaces H-O x (- 482 kJ) = (- 1928 kJ)

Formar enlaces libera una energía de (- 3530 kJ)

Teniendo en cuenta que el calor de reacción, es la variación de energía de la posición final


(productos), menos la variación de energía de la posición inicial (reactivos).

Podemos realizar el cálculo siguiente:

A continuación tienen una tabla con algunos valores de enregía de enlace (EE)
Con frecuencia es conveniente hablar del calor de formación de
un átomo , que se define como la cantidad de energía que se
requiere para formar un mol de átomos gaseosos a partir del
elemento en su estado físico común a 25 oC y 1 atm de presión.
En el caso de moléculas gaseosas diatómicas de elementos, el
valor de Hf0 de un átomo es igual a la mitad del valor de la energía
de disociación del enlace; esto es

Hf0 = ½ H0dis
Para la formación de átomos de cloro a partir de moléculas de
cloro, H0dis, = + 121.3 kJ/mol de átomos.
Calores de formación de átomos gaseosos a 250C
Átomo H0f (kJ/mol)
H 218.0
N 472.6
O 249.2
F 78.5
Cl 121.3
Br 111.9
I 106.8
B 571.1
C 716.7
S 277.4
La energía de disociación de enlace, D0, es una medida de la fuerza de enlace en
un enlace químico. Se define como el cambio de entalpía estándar cuando se
rompe un enlace por homólisis, con los reactivos y productos de la reacción de
homólisis a 0K (cero absoluto). Así, la energía de disociación de enlace de uno de
los enlaces C-H en el etano (C2H6) está definido por el proceso:

CH3CH2-H → CH3CH2 + H

D0 = ΔH = 101,1 kcal/mol (423.0 kJ/mol)

La energía de disociación de enlace también se conoce como entalpía de


disociación de enlace (o entalpía de enlace), pero estos términos no son
estrictamente correctos, puesto que se refieren a la entalpía de la reacción
anterior en condiciones estándar, y pueden diferir de D0 en más de 3 kcal/mol (12
kJ/mol).

La energía de disociación de enlace suele ser diferente a la energía de enlace, que


es calculada a partir de la suma de las energías de disociación de enlace de todos
los enlaces en una molécula.1

Por ejemplo, un enlace O-H de la molécula de agua (H-O-H) tiene una energía de
disociación de enlace de 493,4 kJ/mol, y se necesita 424,4 kJ/mol para romper el
enlace O-H restante. La energía de enlace de los enlaces O-H en el agua es 458,9
kJ/mol, que es la media de los valores.

En la misma forma, la remoción sucesiva de los átomos de hidrógeno del metano


tiene energías de disociación de enlace que son: 104 kcal/mol (435 kJ/mol) para
D(CH3-H), 106 kcal/mol (444 kJ/mol) para D(CH2-H), 106 kcal/mol (444 kJ/mol)
para D(CH-H) y finalmente 81 kcal/mol (339 kJ/mol) para D(C-H). En consecuencia,
la energía de enlace es 99 kcal/mol o 414 kJ/mol (la media de las energías de
disociación de enlace).

Obsérvese que si después de la disociación se forman nuevos enlaces a menor


entalpía, habrá una pérdida neta de energía, y el proceso global será exotérmico.

La energía de disociación heterolítica de enlace está involucrada en la ruptura de


enlaces químicos por heterólisis.

1.6 Energía de disociación de enlace: Homólisis y Heterólisis


Cuando los átomos se unen para formar una molécula, se libera energía
(usualmente luz o calor). Por el contrario, cuando la misma molécula se disocia en
sus átomos, debe suministrarse energía. De esta forma:
La cantidad de energía que se consume o libera a al formar o romper un enlace, es
la Energía de Disociación de Enlace, (símbolo D, unidades en kcal /mol o kJ /mol.)
Un enlace químico puede disociarse o romperse de dos maneras: Homólisis
o rompimiento homolítico y Heterólisis o rompimiento heterolítico ( del griego
homo el mismo, hetero diferente y lysis pérdida). Para un químico lisis significa
ruptura, por ejemplo hidrólisis: “ruptura por agua" En la homólisis, cada átomo
implicado en el enlace covalente que se rompe, se queda con un electrón del par
electrónico original- Así resultan átomos o grupos eléctricamente neutros.
Para ilustrar esta ruptura se utilizan flechas curvas con media cabeza en un
extremo, como un anzuelo. El electrón representado con un punto en cada átomo
( H* y Cl*), o un grupo de átomos (CH3 *), es un electrón desapareado y las especies
que lo llevan se denominan radicales libres. Observe que el cloro radical es
simplemente el átomo de cloro, en el cual no se muestran los otros electrones de
valencia, igualmente el radical hidrógeno es el mismo átomo de hidrógeno.
Generalmente los radicales libres son eléctricamente neutros, además son
especies de alta energía y como consecuencia de ello, muy inestables y reactivos.

Tabla 1.2 Energías de Disociación Homolítica de Enlaces Seleccionados (kcal/mol)


Miscelánea Enlace C-H Enlace C-X Enlace C-C
H-H 104 H3C-H 104 H3C-Cl 84 H3C-CH3 88
N-N 226 CH3C(H2)H 98 CH3C(H2)Cl 81 C2H5CH3 85
F-F 37 (CH3)2C(H)H 95 (CH3)2C(H)Cl 81 (CH3)2CHCH3 84
Cl-Cl 58 (CH3)3CH 91 (CH3)3CCl 79 H2C=CHCH3 92
Br-Br 46 H2C=C(H)H 108 H2C=C(H)Cl 84
I-I 36 H2CCHC(H2)H 88 CH2C(H2)Cl 60

En el proceso de la Heterólisis, ambos electrones enlazantes son retenidos


por uno de los átomos. El resultado de esta clase de ruptura es un par de iones.
Aquí se usa una flecha curva con cabeza completa para mostrar la dirección en que
se mueven los electrones enlazantes en el proceso de rompimiento. Se debe
destacar que en la heterólisis los electrones de enlace se transfieren a los átomos
mas electronegativos.
La Tabla 1.3 contiene algunas energías de disociación heterolítica. Observe
que estos valores son considerablemente mayores que los contenidos en la Tabla
1.2.

Tabla 1.3 Energías de Disociación Heterolítica de Enlaces Seleccionados


(kcal/mol)

Miscelánea Enlace C-H Enlace C-X Enlace C-0


H-H 104 ClH2C-H 227 H3C-Br 219 H3C-OH 274
H-F 370 CH3CHCI-H 191 CH3C(H2)Br 184 CH3C(H2)OH 242
H-CI 334 (CH3)2C(Cl)-H 170 (CH3)2C(H)Br 64 (CH3)2C(H2)OH 222
H-Br 324 (CH3)3C-H 91 (CH3)3C-Br 149 (CH3)3C-OH 208
H-OH 390 H2C=C(H)-H 157 H2C=C(H)Br 200

Ejercicio 1.7 Para las siguientes moléculas, ilustre el rompimiento a) homolítico y


b) heterolítico de los enlaces indicados, mostrando sobre cual átomo reposa la
carga positiva o negativa en los iones formados.
El rompimiento homolítico permite determinar más fácilmente los valores de
energías de disociación de enlace, debido a que los cálculos no se complican por
las atracciones iónicas entre los fragmentos. Tales valores se han obtenido de la
disociación de enlaces en moléculas en estado gaseoso a altas temperaturas.
En la heterólisis por el contrario, la separación de partículas con carga
opuesta consume aproximadamente 100 kcal /mol más que la separación de
partículas neutras. Como consecuencia, en fase gaseosa la disociación de enlaces,
generalmente sucede por homólisis, mientras que en solución el modo preferido de
ruptura, es la heterólisis.
Debe anticiparse que la mayor parte de las reacciones en química orgánica
se llevan a cabo en solución a través de rompimientos heterolíticos.

PROCESOS ESPONTANEOS Y LA ENTROPIA

La mayoría de reacciones con que nos encontramos frecuentemente y


que se realizan espontaneamente en la naturaleza van acompañadas de
desprendimiento de calor o sea de disminución de su entalpía.
Cerca del 95% de todas las sustancias inorgánicas se forman en
condiciones estandar STP, con desprendimiento de calor y disminución
de la H0. Por esta razón la gran mayoría de sustancias formadas tiene
reservas de energías menores que las que tienen los elementos a partir
de los cuales ellas se formaron.

Será espontánea una Rx? es muy importante para los Qcos. En los
procesos físicos o Qcos, siempre se tienen muchos ejemplos:

- El agua de la montaña siempre cae, nunca sube espontáneamente


- Un terrón de azucar se disuelve espontáneamente
- El agua se congela por debajo de 00C y se funde el hielo por encima de
00C a 1 atm.
- El calor fluye espontáneamente desde un objeto mas caliente hacia otro
mas frio
- La expansión de un gas hacia el vacio

Na(s) + H2O(l)  NaOH(l) + ½ H2(g), en sentido contrario no es


espontánea.
Cuando un sólido iónico se disuelve en H2O, se tienen dos
contribuciones para que la S aumente: El proceso de disolución y la
disociación del compuesto en iones.
NaCl(s) + H2O(l)  Na+(ac) + Cl-(ac).
El proceso de hidratación debe disminuir la S porque las moléculas de
agua se ordenan alrededor de los iones.

Ejercicio: Predecir si S es mayor, menor o igual a cero


a) En el congelamiento del metanol
b) Evaporación del bromo líquido en un recipiente a T ambiente
c) Disolución de sacarosa en agua
d) Enfriamiento de nitrógeno gaseoso de 800C a 250C.
Thermodynamic Properties at (25oC and 100 kPa)

Enthalpy Free Energy Entropy


Substance H o f G o f So
kJ/mole kJ/mole J/mole . K
BaCl2 (aq) -872 -823 123
BaSO4 (cr) -1473 -1362 132
Br2 ( g ) 31 3 245
C2H4 ( g ) 52 68 220
C2H6 ( g ) -85 -33 230
Cl2 ( g ) 0 0 220
CO2 ( g ) -394 -394 214
HBr ( g ) -36 -53 200
HCl ( g ) -92 -95 190
HCl (aq) -167 -131 57
H2O ( l ) -286 -237 70
H2O ( g ) -242 -230 190
H2O2 ( l ) -186 -120 110
H3PO4 (aq) -1280 -1120 110
H2SO4 (aq) -910 -745 20
NaCl (s) -411 -384 72
NaOH (s) -426 - -
O2 ( g ) 0 0 205
P4O10 (cr) -2980 -2700 230

Table II Thermodynamic property data (Electronic Supplementary Information)

UNITS: H 0f : kcal mole-1, S 0f , Cp: cal mole-1 K-1

SPECIES H 0f S 0f CP,300K CP,400K CP,500K CP,600K CP800K CP,1000K CP,1500K


CH4 -17.90 44.47 8.43 9.84 11.14 12.41 15.00 17.25 20.63
H2O -57.80 45.10 8.00 8.23 8.44 8.67 9.22 9.87 11.26
C2H2 54.19 48.66 11.32 12.47 13.39 14.15 15.32 16.21 17.94
C2H4 12.54 52.38 10.23 12.79 14.94 16.83 20.05 22.51 26.22
CO -26.42 47.21 6.95 7.03 7.14 7.27 7.61 7.95 8.41
C2H6 -20.04 54.73 12.58 15.69 18.62 21.30 25.82 29.30 34.61
CH3O 3.90 54.61 9.08 10.79 12.43 13.98 16.63 18.60 21.51
CH3OH -48.06 57.28 10.51 12.40 14.25 16.01 19.07 21.40 25.02
O2 .00 49.01 7.01 7.22 7.44 7.65 8.07 8.35 8.72
H2O2 -32.53 55.66 10.41 11.44 12.34 13.11 14.29 15.21 16.85
C3H6 5.43 63.59 15.24 19.05 22.44 25.46 30.46 34.30 40.23
CH3CHO -39.51 63.05 13.25 15.87 18.31 20.52 24.17 26.88 30.87
CO2 -94.06 51.08 8.91 9.86 10.65 11.31 12.32 12.99 13.93
BENZYNE 103.39 68.03 19.59 25.38 30.09 33.90 39.47 43.17 48.51
C6H6 19.82 64.58 20.23 27.45 33.40 38.28 45.54 50.49 57.71

Criterios para los procesos químicos Espontáneos


Algunos de los objetivos mas importantes de la TD, estarían en las
respuestas a las siguientes preguntas:
1. Cuando se mezclan dos o más sustancias, ¿tienden estas a
reaccionar espontáneamente para formar otras sustancias?
2. Si se verifica una reacción, ¿estará acompañada del
desprendimiento de energía al medio circundante?
3. Si se verifica una reacción, ¿cuáles serán las cantidades de
reactantes y productos presentes cuando se llegue el equilibrio
químico?

La primera ley de la termodinámica es muy útil para determinar las


variaciones de energía de diversos procesos, por ejemplo, los
cambios de energía a volumen constante (E) o a presión constante
(H). Sin embargo, no nos permite predecir si el proceso se
verificará o no.

Las diferencias de entalpía de los reactantes y los productos tienen


mucha relación con el hecho de que una reacción sea exotérmica o
endotérmica. No obstante, los cambios de entalpía no determinan
por sí solos si una reacción es espontánea o no

Se puede por ejemplo tener la transición de fase sólida a líquida


H2O(s) H2O(l), H= 6.01KJ
Con este ejemplo se ve que los procesos espontáneos no siempre
disminuyen la energía.
Otro ejemplo es la disociación del NH4NO3(s) en agua.
NH4NO3(s) + H2O NH4+(ac) + NO3 –(ac), H= 25 KJ.
La espontaneidad en una Rx. se ve favorecida por el carácter
exotérmico de la misma, pero este hecho no garantiza que siempre
la reacción sea espontánea.
Por tanto no es suficiente analizar sólo el carácter energético de una
Rx. Para decidir sobre su espontaneidad. Para buscar una
respuesta completa a esta pregunta, se debe incluir una nueva
función que es la ENTROPÍA S:
La espontaneidad se puede ver en la figura siguiente
ENTROPÍA S
Introducción

Cuando se plantea la pregunta: «¿Por qué ocurren los sucesos en la Naturaleza de una
manera determinada y no de otra manera?», se busca una respuesta que indique cuál
es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal
con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el
trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el
calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que
se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía
uniformemente; es decir, a maximizar la entropía. Intuitivamente, la entropía es una
magnitud física que, mediante cálculo, permite determinar la parte de la energía por
unidad de temperatura que no puede utilizarse para producir trabajo.

La función termodinámica entropía es central para el segundo principio de la


termodinámica. La entropía puede interpretarse como una medida de la distribución
aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta
entropía. Un sistema en una condición improbable tendrá una tendencia natural a
reorganizarse a una condición más probable (similar a una distribución al azar),
reorganización que dará como resultado un aumento de la entropía. La entropía
alcanzará un máximo cuando el sistema se acerque al equilibrio, y entonces se
alcanzará la configuración de mayor probabilidad.

Una magnitud es una función de estado si, y sólo si, su cambio de valor entre dos
estados es independiente del proceso seguido para llegar de un estado a otro. Esa
caracterización de función de estado es fundamental a la hora de definir la variación de
entropía.

La variación de entropía nos muestra la variación del orden molecular ocurrido en una
reacción química. Si el incremento de entropía es positivo, los productos presentan un
mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el
incremento es negativo, los productos son más ordenados. Hay una relación entre la
entropía y la espontaneidad de una reacción química, que viene dada por la energía de
Gibbs.

Entropía y termodinámica

Se entiende por entropía a un tipo de magnitud física que calcula aquella energía que
existe en un determinado objeto o elemento pero que no es útil para realizar un trabajo
o esfuerzo. La entropía es aquella energía que no es utilizable ante el advenimiento de
un proceso termodinámico, por ejemplo, la puesta en circulación de una determinada
cantidad de energía a partir de la reacción de uno o más elementos. Así, en términos
más cercanos al léxico común, la entropía podría ser descrita como la energía que
resulta desechable ante un proceso termodinámico, aquella energía que no es utilizada
y que por tanto no es considerada útil para tal proceso.

Dentro de la termodinámica o rama de la física que estudia los procesos que surgen a
partir del calentamiento de energías y de la puesta en movimiento de diferentes
elementos naturales. La entropía figura dentro de esta rama de la física como una
especie de desorden de todo aquello que es sistematizado, es decir, como la referencia
o la demostración de que cuando algo no es controlado puede transformarse y
desordenarse. La entropía, además, supone que de ese caos o desorden existente en
un sistema surja una situación de equilibrio u homogeneidad que, a pesar de ser
diferente a la condición inicial, suponga que las partes se hallan ahora igualadas o
equilibradas.

Esta idea de desorden termodinámico fue plasmada mediante una función ideada por
Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la

integral curvilínea de δQ/T

sólo depende de los estados inicial y final, con independencia del camino seguido (δQ
es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura
absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T),
denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2
es: ΔS= S2-S1= ∫ δQ/T

Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en
lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación
siguiente:

ΔS= S2-S1= ∫ δQ/T

o, más simplemente, cuando no se produce variación de temperatura (proceso

isotérmico): donde S es la entropía, la cantidad de calor intercambiado entre el


sistema y el entorno y T la temperatura absoluta en kelvin.

Unidades: S=[cal/K]

Los números 1 y 2 se refieren a los estados iniciales y finales de un sistema


termodinámico.

Significado

El significado de esta ecuación es el siguiente:


Cuando un sistema termodinámico pasa, en un proceso reversible e isotérmico, del estado 1
al estado 2, el cambio en su entropía es igual a la cantidad de calor intercambiado entre el
sistema y el medio dividido por su temperatura absoluta.

De acuerdo con la ecuación, si el calor se transfiere al sistema, también lo hará la


entropía, en la misma dirección. Cuando la temperatura es más alta, el flujo de calor
que entra produce un aumento de entropía menor. Y viceversa.

Las unidades de la entropía, en el Sistema Internacional, son el J/K (o Clausius),


definido como la variación de entropía que experimenta un sistema cuando absorbe el
calor de 1 julio a la temperatura de 1 Kelvin.

Cero absoluto

Solo se pueden calcular variaciones de entropía. Para calcular la entropía de un


sistema, es necesario fijar la entropía del mismo en un estado determinado. El tercer
principio de la termodinámica fija un estado estándar: para sistemas químicamente
puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropía es
nula en el cero absoluto (0 K) o (-273.16°C)

Esta magnitud permite definir el segundo principio de la termodinámica, de la cual se


deduce que un proceso tiende a darse de forma espontánea en un cierto sentido
solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a
congelarse por el otro de forma espontánea, aun cuando siga cumpliéndose la
condición de conservación de la energía del sistema (el primer principio de la
termodinámica).

Entropía y reversibilidad

La entropía global del sistema es la entropía del sistema considerado más la entropía
de los alrededores. También se puede decir que la variación de entropía del universo,
para un proceso dado, es igual a su variación en el sistema más la de los alrededores:
Si se trata de un proceso reversible, ΔS (universo) es cero, pues el calor que el sistema
absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya
que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta
circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica
(proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor
absorbido del medio se transforma en trabajo y Q= -W. Pero en la práctica real el
trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son
irreversibles.

Para llevar al sistema nuevamente a su estado original, hay que aplicarle un trabajo
mayor que el producido por el gas, lo que da como resultado una transferencia de calor
hacia el entorno, con un aumento de la entropía global.

Como los procesos reales son siempre irreversibles, siempre aumentará la entropía.
Así como la energía no puede crearse ni destruirse, la entropía puede crearse pero no
destruirse. Es posible afirmar entonces que, como el Universo es un sistema aislado,
su entropía crece constantemente con el tiempo. Esto marca un sentido a la evolución
del mundo físico, que se conoce como principio de evolución.

Cuando la entropía sea máxima en el Universo, esto es, cuando exista un equilibrio
entre todas las temperaturas y presiones, llegará la muerte térmica del Universo
(enunciada por Clausius).

En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las


moléculas, la diferencia entre calor y trabajo desaparece y, por tanto, parámetros
termodinámicos como la entropía, la temperatura y otros no tienen significado. Esto
conduce a la afirmación de que el segundo principio de la termodinámica no es
aplicable a estos microsistemas, porque realmente no son sistemas termodinámicos.
Se cree que existe también un límite superior de aplicación del segundo principio, de tal
modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo,
lo que pone en controversia la afirmación de Clausius sobre la muerte térmica del
Universo.
Historia de la entropía

El concepto de entropía desarrollado en respuesta a la observación de que una cierta


cantidad de energía liberada de reacciones de combustión siempre se pierde debido a
la disipación o la fricción y por lo tanto no se transforma en trabajo útil. Los primeros
motores de calor como el Thomas Savery (1698), el Newcomen motor (1712) y el
Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversión de menos del
2% de la energía de entrada en producción de trabajo útil; una gran cantidad de
energía útil se disipa o se pierde en lo que parecía un estado de aleatoriedad
inconmensurable. Durante los próximos dos siglos los físicos investigaron este enigma
de la energía perdida, el resultado fue el concepto de entropía.

En la década de 1850, Rudolf Clausius estableció el concepto de sistema


termodinámico y postula la tesis de que en cualquier proceso irreversible una pequeña
cantidad de energía térmica δQ se disipa gradualmente a través de la frontera del
sistema. Clausius siguió desarrollando sus ideas de la energía perdida, y acuñó el
término "entropía". Durante el próximo medio siglo se llevó a cabo un mayor desarrollo,
y más recientemente el concepto de entropía ha encontrado aplicación en el campo
análogo de pérdida de datos en los sistemas de transmisión de información.

Interpretación estadística de la entropía

Tumba de Boltzmann en el Cementerio central de Viena con la fórmula de entropía.


En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros desarrollaron las
ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente
influenciada por el concepto de entropía. Una de las teorías termodinámicas
estadísticas (la teoría de Maxwell-Boltzmann) establece la siguiente relación entre la
entropía y la probabilidad termodinámica:

S= klnΩ

donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados


posibles para el sistema (ln es la función logaritmo natural). La ecuación asume que
todos los microestados tienen la misma probabilidad de aparecer.

La ecuación se encuentra grabada sobre la lápida de la tumba de Ludwig Boltzmann en


el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicidó en 1906,
profundamente deprimido, quizá por la poca aceptación de sus teorías en el mundo
académico de la época.4

El significado de la ecuación es el siguiente:

La cantidad de entropía de un sistema es proporcional al logaritmo natural del número de


microestados posibles.

Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de
dar una definición absoluta al concepto de la entropía. En la descripción clásica de la
termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues
sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permite
definir la entropía absoluta de un sistema.

La entropía es una magnitud física básica que dio lugar a diversas interpretaciones, al
parecer a veces en conflicto. Han sido, sucesivamente, asimilados a diferentes
conceptos, como el desorden y la información. La entropía mide tanto la falta de
información como la información. Estas dos concepciones son complementarias. La
entropía también mide la libertad, y esto permite una interpretación coherente de las
fórmulas de entropía y de los hechos experimentales. No obstante, asociar la entropía y
el desorden implica definir el orden como la ausencia de libertad.5 El desorden o la
agitación guardan relación con la temperatura.

Entropía y desorden

Cuando la energía es degradada, dijo Boltzmann, se debe a que los átomos asumen un
estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la
concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por
extraño que parezca, se puede crear una medida para el desorden; es la probabilidad
de un estado particular, definido aquí como el número de formas en que se puede
armar a partir de sus átomos

Coloquialmente, suele considerarse que la entropía es el desorden de un sistema, es


decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de
cristal al suelo: tenderá a romperse y a esparcirse, mientras que jamás será posible
que, lanzando trozos de cristal, se construya un vaso por sí solo. Otro ejemplo
doméstico: imagínense dos envases de un litro de capacidad que contienen,
respectivamente, pintura blanca y pintura negra; con una cucharita, se toma pintura
blanca, se vierte en el recipiente de pintura negra y se mezcla; luego se toma pintura
negra con la misma cucharita, se vierte en el recipiente de pintura blanca y se mezclan;
el proceso se repite hasta que se obtienen dos litros de pintura gris, que no podrán
reconvertirse en un litro de pintura blanca y otro de pintura negra; la entropía del
conjunto ha ido en aumento hasta llegar a un máximo cuando los colores de ambos
recipientes son sensiblemente iguales (sistema homogéneo).

No obstante, considerar que la entropía es el desorden de un sistema sin tener en


cuenta la naturaleza del mismo es una falacia. Y es que hay sistemas en los que la
entropía no es directamente proporcional al desorden, sino al orden.
Entropía como creadora de orden

A pesar de la identificación entre la entropía y el desorden, hay muchas transiciones de


fase en la que emerge una fase ordenada y al mismo tiempo, la entropía aumenta. En
este artículo se muestra que esta paradoja se resuelve haciendo una interpretación
literal de la famosa ecuación de Boltzmann S = k log W. Podemos verlo en la
segregación de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a
separarse. También en la cristalización de esferas duras: cuando agitamos naranjas en
un cesto, éstas se ordenan de forma espontánea. De estos casos se deduce el
concepto de fuerza entrópica o interacción, muy útil en la ciencia de polímeros o ciencia
coloidal.6

El astrofísico Alan Lightman reconoció que a los científicos “les parece misterioso el
hecho de que el universo fuera creado con este elevado grado de orden”. Agregó que
“cualquier teoría cosmológica viable debería explicar en última instancia esta
contradicción de la entropía”, es decir, que el universo no se halle en estado caótico.7

De acuerdo con Ilya Prigogine, galardonado con el Premio Nobel de Química en 1977,
"la producción de entropía contiene siempre dos elementos dialécticos: un elemento
creador de desorden, pero también un elemento creador de orden. Y los dos están
siempre ligados". Prigogine ejemplifica esta afirmación con el caso de un sistema
compuesto de dos cajas comunicantes que contienen una mezcla de nitrógeno e
hidrógeno. Si la temperatura del sistema es homogénea, también lo será la distribución
del hidrógeno y el nitrógeno, pero si se somete al sistema a una constricción térmica se
genera una disipación, un aumento de la entropía, pero también del orden, ya que el
hidrógeno predominará en una de las cajas y el nitrógeno en la otra (fenómeno de
antidifusión).
Para predecir la espontaneidad de un proceso, se deben conocer
U o H y la entropía. La entropía es una medida de la aleatoriedad
o desorden del sistema. A mayor desorden, mayor entropía.
S sol < S liq < S gas

El orden y el desorden se pueden relacionar a través de la


probabilidad. Si suponer que se tiene 1 molécula en el recipiente de
la izquierda. Si abrir el recipiente se tendrá la probabilidad de
encontrar la molécula en la izq. o en la derecha, por tanto la P= ½ .
Si se tienen 2 moleculas P= ¼ y asi sucesivamente. Por tanto
P= ½ x ½ x ½ x...= (1/2)N,
N- es el número de moléculas..Si N= NA= 6.02 x 1023 , P= es un
número casi igual a cero.
Definición microscópica de entropía

Todas las magnitudes definidas a lo largo de estas páginas se han introducido desde el
punto de vista macroscópico; es decir, en ningún momento se ha tenido en cuenta la
naturaleza molecular de la materia. La entropía no ha sido una excepción a esta regla.

La parte de la Física que se ocupa de estudiar las propiedades termodinámicas de un


sistema relacionándolas con el comportamiento microscópico del mismo se denomina
termodinámica estadística.

Para ver un ejemplo de cómo se relaciona el comportamiento microscópico de un


sistema con su comportamiento macroscópico, vamos a analizar la expansión libre de
Joule desde el punto de vista de las moléculas que constituyen el gas.
En el siguiente dibujo se ha representado un sistema aislado: un gas encerrado en un
recipiente. Para simplificar, el gas representado está constituido por cuatro moléculas;
sin embargo hay que tener en cuenta que los sistemas reales poseen un número
mucho mayor de partículas. El gas se encuentra en el compartimento de la izquierda, y
en el derecho está hecho el vacío.

Cuando se elimina la pared que separa ambos compartimentos, la experiencia nos dice
que el gas tiende a ocupar todo el volumen disponible. En principio, sin embargo,
cualquiera de las configuraciones representadas en la figura inferior sería posible.
Dichas configuraciones se denomiman macroestados del sistema.

Para un macroestado determinado, las moléculas que constituyen el gas pueden a


nivel microscópico (en nuestro ejemplo, asignando distintos colores a las moléculas)
distribuirse según diferentes configuraciones, denominadas microestados. La
multiplicidad es el número de microestados que conducen al mismo estado
macroscópico (macroestado) de un sistema.
De todos los macroestados representados en la figura anterior, el (c) tiene mayor
multiplicidad, ya que a nivel microscópico, las moléculas pueden adoptar las siguientes
configuraciones:

A finales del siglo XIX, el físico austriaco Ludwig Boltzmann definió la entropía como:

donde k es la constante de Boltzmann (k = 1.3806504 × 10-23 J K-1 ) y Omega es el


número de microestados accesibles a un macroestado dado.

La configuración (c) representada en la figura anterior es la que más microestados


accesibles tiene y por tanto es la de mayor entropía. El sistema tratado en este ejemplo
tenderá a estar en esta configuración porque es la que mayor entropía tiene.
La ecuación de la entropía se encuentra grabada en la tumba de Boltzmann en Viena.

Qué es la Entropía entonces?. Además de la variaciones de


entalpía todo cambio físico o químico implica un cambio del
desorden relativo de los átomos, moléculas o iones involucrados. El
desorden o la aleatoriedad de un sistema recibe el nombre de
entropía, S.
Ejemplos:

Una determinada cantidad de gas confinada en un recipiente de 1L


tiene mayor entropía (mayor desorden) que la misma cantidad de
gas colocada en un recipiente de 10 ml a la misma temperatura

El cloruro de sodio en forma de iones gaseosos tiene mayor entropía


que la forma sólida cristalina.

El agua líquida a 0 oC tiene mayor entropía que el hielo a la misma


temperatura.

En estos ejemplos se ilustra el siguiente principio “Los sistemas


físicos y químicos tienden a lograr el estado de máximo
desorden permitido por la energía del sistema con respecto al
balance con las fuerzas de atracción entre las partículas”
Al igual que la U y H la S es una función de estado

S = Sfin – Sin
Si el cambio conlleva a mayor desorden entonces
S > 0

Cambios de entropía en el sistema

Para calcular S univ, es necesario conocer tanto S sist como S alred.


Se analiza primero S sist. suponiendo que el sistema se representa
por la siguiente reacción:

aA+bB  cC+dD

Como en el caso de una entalpía de una reacción, la entropía


estandar de una reacción, S o reaccion , está dada por S o reaccion
o, en general utilizando  para representar la sumatoria y m y n
para los coeficientes estequiométricos de la reacción

S o reaccion   nS o ( productos)   mS o (reactivos)


Se han medido los valores de la entropía estándar de numerosos
compuestos, en J/K.mol. Para calcular S o reaccion que es S o sist se
buscan los valores en la Tabla y se procede de acuerdo con el
siguiente ejemplo.
Ejemplo: Calcular los cambios de entropía estandar de las
siguientes reacciones.
a) CaCO3(s)  CaO(s) + CO2(g)
b) N2(g) + 3H2(g)  2NH3(g)
c) H2(g) + Cl2(g)  2HCl(g)

Se calcula S o .
a) S o reaccion  S0(CaO)+S0(CO2)  S0(CaCO3) 
 (1 mol)(39.8 J/K.mol) + (1 mol)(213.6 J/K.mol)   (1mol)(92.9
J/K.mol =160.5 J/K

c) S o reaccion =  2So(HCl)  So(H2)+So(Cl2)  = (2 mol)(187 j/k.mol

Se pueden establecer las siguientes reglas generales:


 Si una reacción produce más moléculas de un gas que las que
consume, S o es positivo.
 Si el número total de moléculas de gas disminuye S o es
negativo .
Si no hay cambio neto en el número total de moléculas del gas,
entonces S o puede ser positivo o negativo , pero su valor numérico
será relativamente pequeño.

Ejemplo: Prediga si el cambio de entropía del sistema es positivo o


negativo para cada una de las siguientes reacciones.
a) 2H2(g)+O2(g)  2H2O(l)
b) NH4Cl(s)  NH3(g)+HCl(g)
c) H2(g)+Br2(g)  2HBr(g)

Ejercicio: Analice cualitativamente el signo de cambio de entropía


que se espera para cada uno de los siguientes procesos.
a) I2(s)  2I(g)
b) 2 Zn(s)+O2(g)  2ZnO(s)
3) N2(g)+O2(g)  2NO(g)
La Segunda ley de la termodinámica está íntimamente
relacionada con el concepto de variaciones de entropía. ”La
cantidad total de entropía en la naturaleza está en constante
aumento”. La segunda ley enuncia que, cuando se verifica un
cambio espontáneo en un cierto sistema, se produce un
aumento de la entropía del universo.
La conexión entre la S y la espontaneidad de una Rx. se expresa a
través de esta ley. La entropía del universo aumenta en un proceso
espontáneo y se mantiene const. en un proceso que se encuentra
en equilibrio.

Así para un proceso espontáneo Suniv= Ssist `+ Salred > 0


Así para un proceso en equilibrio Suniv= Ssist `+ Salred = 0
Los datos de la siguiente tabla se refieren a la congelación del
agua.

Stotal = Ssistema + Salrededores

Вам также может понравиться