Академический Документы
Профессиональный Документы
Культура Документы
hidrógeno.
Ejemplo:
En el ejemplo vamos a calcular de reacción, a traves de las Energía de Enalce para la reacción de
combustión del metano. Esta combustión transcurre mediante la siguiente reacción:
Si escribimos las formulas estructurales de cada uno de los reactantes y productos, podremos
estableceer que enlaces se ROMPEN y cuáles enlaces se FORMAN.
En tablas se puede encontrar el valor de las energía de enlace para los enlaces rotos y formados:
Energía de Enlace
Enlace
EE (kJ/mol)
C-H 413
O=O 494
C=O 801
H-O 482
Ahora que tenemos el número de enlaces rotos y el número de enlaces formados, y en tablas hemos
encontrado el valor de la energía de enlace.
Debemos recordar que hay que suministrar energía para romper un enlace (valor positivo de la
EE), y se libera energía al formar un enlace (valor negativo de la EE)
Podemos pasara a calcular la energía enlace total de enlaces rotos y la energía de enlace total de enlaces
formados:
A continuación tienen una tabla con algunos valores de enregía de enlace (EE)
Con frecuencia es conveniente hablar del calor de formación de
un átomo , que se define como la cantidad de energía que se
requiere para formar un mol de átomos gaseosos a partir del
elemento en su estado físico común a 25 oC y 1 atm de presión.
En el caso de moléculas gaseosas diatómicas de elementos, el
valor de Hf0 de un átomo es igual a la mitad del valor de la energía
de disociación del enlace; esto es
Hf0 = ½ H0dis
Para la formación de átomos de cloro a partir de moléculas de
cloro, H0dis, = + 121.3 kJ/mol de átomos.
Calores de formación de átomos gaseosos a 250C
Átomo H0f (kJ/mol)
H 218.0
N 472.6
O 249.2
F 78.5
Cl 121.3
Br 111.9
I 106.8
B 571.1
C 716.7
S 277.4
La energía de disociación de enlace, D0, es una medida de la fuerza de enlace en
un enlace químico. Se define como el cambio de entalpía estándar cuando se
rompe un enlace por homólisis, con los reactivos y productos de la reacción de
homólisis a 0K (cero absoluto). Así, la energía de disociación de enlace de uno de
los enlaces C-H en el etano (C2H6) está definido por el proceso:
CH3CH2-H → CH3CH2 + H
Por ejemplo, un enlace O-H de la molécula de agua (H-O-H) tiene una energía de
disociación de enlace de 493,4 kJ/mol, y se necesita 424,4 kJ/mol para romper el
enlace O-H restante. La energía de enlace de los enlaces O-H en el agua es 458,9
kJ/mol, que es la media de los valores.
Será espontánea una Rx? es muy importante para los Qcos. En los
procesos físicos o Qcos, siempre se tienen muchos ejemplos:
Cuando se plantea la pregunta: «¿Por qué ocurren los sucesos en la Naturaleza de una
manera determinada y no de otra manera?», se busca una respuesta que indique cuál
es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal
con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el
trozo frío se calentará, finalizando en equilibrio térmico. El proceso inverso, el
calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que
se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía
uniformemente; es decir, a maximizar la entropía. Intuitivamente, la entropía es una
magnitud física que, mediante cálculo, permite determinar la parte de la energía por
unidad de temperatura que no puede utilizarse para producir trabajo.
Una magnitud es una función de estado si, y sólo si, su cambio de valor entre dos
estados es independiente del proceso seguido para llegar de un estado a otro. Esa
caracterización de función de estado es fundamental a la hora de definir la variación de
entropía.
La variación de entropía nos muestra la variación del orden molecular ocurrido en una
reacción química. Si el incremento de entropía es positivo, los productos presentan un
mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el
incremento es negativo, los productos son más ordenados. Hay una relación entre la
entropía y la espontaneidad de una reacción química, que viene dada por la energía de
Gibbs.
Entropía y termodinámica
Se entiende por entropía a un tipo de magnitud física que calcula aquella energía que
existe en un determinado objeto o elemento pero que no es útil para realizar un trabajo
o esfuerzo. La entropía es aquella energía que no es utilizable ante el advenimiento de
un proceso termodinámico, por ejemplo, la puesta en circulación de una determinada
cantidad de energía a partir de la reacción de uno o más elementos. Así, en términos
más cercanos al léxico común, la entropía podría ser descrita como la energía que
resulta desechable ante un proceso termodinámico, aquella energía que no es utilizada
y que por tanto no es considerada útil para tal proceso.
Dentro de la termodinámica o rama de la física que estudia los procesos que surgen a
partir del calentamiento de energías y de la puesta en movimiento de diferentes
elementos naturales. La entropía figura dentro de esta rama de la física como una
especie de desorden de todo aquello que es sistematizado, es decir, como la referencia
o la demostración de que cuando algo no es controlado puede transformarse y
desordenarse. La entropía, además, supone que de ese caos o desorden existente en
un sistema surja una situación de equilibrio u homogeneidad que, a pesar de ser
diferente a la condición inicial, suponga que las partes se hallan ahora igualadas o
equilibradas.
Esta idea de desorden termodinámico fue plasmada mediante una función ideada por
Rudolf Clausius a partir de un proceso cíclico reversible. En todo proceso reversible la
sólo depende de los estados inicial y final, con independencia del camino seguido (δQ
es la cantidad de calor absorbida en el proceso en cuestión y T es la temperatura
absoluta). Por tanto, ha de existir una función del estado del sistema, S=f(P,V,T),
denominada entropía, cuya variación en un proceso reversible entre los estados 1 y 2
es: ΔS= S2-S1= ∫ δQ/T
Téngase en cuenta que, como el calor no es una función de estado, se usa δQ, en
lugar de dQ. La entropía física, en su forma clásica, está definida por la ecuación
siguiente:
Unidades: S=[cal/K]
Significado
Cero absoluto
Entropía y reversibilidad
La entropía global del sistema es la entropía del sistema considerado más la entropía
de los alrededores. También se puede decir que la variación de entropía del universo,
para un proceso dado, es igual a su variación en el sistema más la de los alrededores:
Si se trata de un proceso reversible, ΔS (universo) es cero, pues el calor que el sistema
absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya
que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta
circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica
(proceso isotérmico) de un gas, considerando el proceso como reversible, todo el calor
absorbido del medio se transforma en trabajo y Q= -W. Pero en la práctica real el
trabajo es menor, ya que hay pérdidas por rozamientos, por lo tanto, los procesos son
irreversibles.
Para llevar al sistema nuevamente a su estado original, hay que aplicarle un trabajo
mayor que el producido por el gas, lo que da como resultado una transferencia de calor
hacia el entorno, con un aumento de la entropía global.
Como los procesos reales son siempre irreversibles, siempre aumentará la entropía.
Así como la energía no puede crearse ni destruirse, la entropía puede crearse pero no
destruirse. Es posible afirmar entonces que, como el Universo es un sistema aislado,
su entropía crece constantemente con el tiempo. Esto marca un sentido a la evolución
del mundo físico, que se conoce como principio de evolución.
Cuando la entropía sea máxima en el Universo, esto es, cuando exista un equilibrio
entre todas las temperaturas y presiones, llegará la muerte térmica del Universo
(enunciada por Clausius).
S= klnΩ
Uno de los aspectos más importantes que describe esta ecuación es la posibilidad de
dar una definición absoluta al concepto de la entropía. En la descripción clásica de la
termodinámica, carece de sentido hablar del valor de la entropía de un sistema, pues
sólo los cambios en la misma son relevantes. En cambio, la teoría estadística permite
definir la entropía absoluta de un sistema.
La entropía es una magnitud física básica que dio lugar a diversas interpretaciones, al
parecer a veces en conflicto. Han sido, sucesivamente, asimilados a diferentes
conceptos, como el desorden y la información. La entropía mide tanto la falta de
información como la información. Estas dos concepciones son complementarias. La
entropía también mide la libertad, y esto permite una interpretación coherente de las
fórmulas de entropía y de los hechos experimentales. No obstante, asociar la entropía y
el desorden implica definir el orden como la ausencia de libertad.5 El desorden o la
agitación guardan relación con la temperatura.
Entropía y desorden
Cuando la energía es degradada, dijo Boltzmann, se debe a que los átomos asumen un
estado más desordenado. Y la entropía es un parámetro del desorden: ésa es la
concepción profunda que se desprende de la nueva interpretación de Boltzmann. Por
extraño que parezca, se puede crear una medida para el desorden; es la probabilidad
de un estado particular, definido aquí como el número de formas en que se puede
armar a partir de sus átomos
El astrofísico Alan Lightman reconoció que a los científicos “les parece misterioso el
hecho de que el universo fuera creado con este elevado grado de orden”. Agregó que
“cualquier teoría cosmológica viable debería explicar en última instancia esta
contradicción de la entropía”, es decir, que el universo no se halle en estado caótico.7
De acuerdo con Ilya Prigogine, galardonado con el Premio Nobel de Química en 1977,
"la producción de entropía contiene siempre dos elementos dialécticos: un elemento
creador de desorden, pero también un elemento creador de orden. Y los dos están
siempre ligados". Prigogine ejemplifica esta afirmación con el caso de un sistema
compuesto de dos cajas comunicantes que contienen una mezcla de nitrógeno e
hidrógeno. Si la temperatura del sistema es homogénea, también lo será la distribución
del hidrógeno y el nitrógeno, pero si se somete al sistema a una constricción térmica se
genera una disipación, un aumento de la entropía, pero también del orden, ya que el
hidrógeno predominará en una de las cajas y el nitrógeno en la otra (fenómeno de
antidifusión).
Para predecir la espontaneidad de un proceso, se deben conocer
U o H y la entropía. La entropía es una medida de la aleatoriedad
o desorden del sistema. A mayor desorden, mayor entropía.
S sol < S liq < S gas
Todas las magnitudes definidas a lo largo de estas páginas se han introducido desde el
punto de vista macroscópico; es decir, en ningún momento se ha tenido en cuenta la
naturaleza molecular de la materia. La entropía no ha sido una excepción a esta regla.
Cuando se elimina la pared que separa ambos compartimentos, la experiencia nos dice
que el gas tiende a ocupar todo el volumen disponible. En principio, sin embargo,
cualquiera de las configuraciones representadas en la figura inferior sería posible.
Dichas configuraciones se denomiman macroestados del sistema.
A finales del siglo XIX, el físico austriaco Ludwig Boltzmann definió la entropía como:
S = Sfin – Sin
Si el cambio conlleva a mayor desorden entonces
S > 0
aA+bB cC+dD
Se calcula S o .
a) S o reaccion S0(CaO)+S0(CO2) S0(CaCO3)
(1 mol)(39.8 J/K.mol) + (1 mol)(213.6 J/K.mol) (1mol)(92.9
J/K.mol =160.5 J/K