Вы находитесь на странице: 1из 28

Entropa

Para otros usos de este trmino, vase Entropa (desambiguacin).


En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que, mediante
clculo, permite determinar la parte de la energa que no puede utilizarse para
producir trabajo. Es una funcin de estado de carcter extensivo y su valor, en un sistema
aislado, crece en el transcurso de un proceso que se d de forma natural. La entropa
describe lo irreversible de los sistemas termodinmicos. La palabra entropa procede
del griego () y significa evolucin o transformacin. Fue Rudolf Clausius quien le dio
nombre y la desarroll durante la dcada de 1850;1 2 y Ludwig Boltzmann, quien encontr en
1877 la manera de expresar matemticamente este concepto, desde el punto de vista de la
probabilidad.3
ndice
[ocultar]

1 Introduccin

2 Entropa y termodinmica
o

2.1 Significado

2.2 Cero absoluto

2.3 Entropa y reversibilidad

3 Historia de la entropa

4 Interpretacin estadstica de la entropa


o

4.1 Entropa y desorden

4.2 Entropa como creadora de orden

4.3 Relacin de la entropa con la teora de la informacin

4.4 La entropa como flecha del tiempo

5 Vase tambin

6 Referencias

7 Enlaces externos

Introduccin[editar]
Cuando se plantea la pregunta: Por qu ocurren los sucesos en la Naturaleza de una
manera determinada y no de otra manera?, se busca una respuesta que indique cul es el
sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta
temperatura, se anticipa que finalmente el trozo caliente se enfriar, y el trozo fro se
calentar, finalizando en equilibrio trmico. El proceso inverso, el calentamiento del trozo
caliente y el enfriamiento del trozo fro es muy improbable que se presente, a pesar de
conservar la energa. El universo tiende a distribuir la energa uniformemente; es decir, a
maximizar la entropa.
La funcin termodinmica entropa es central para la segunda Ley de la Termodinmica. La
entropa puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se
dice que un sistema altamente distribuido al azar tiene alta entropa. Un sistema en una
condicin improbable tendr una tendencia natural a reorganizarse a una condicin ms
probable (similar a una distribucin al azar), reorganizacin que dar como resultado un
aumento de la entropa. La entropa alcanzar un mximo cuando el sistema se acerque al
equilibrio, y entonces se alcanzar la configuracin de mayor probabilidad.
Una magnitud es una funcin de estado si, y slo si, su cambio de valor entre dos estados es
independiente del proceso seguido para llegar de un estado a otro. Esa caracterizacin de
funcin de estado es fundamental a la hora de definir la variacin de entropa.
La variacin de entropa nos muestra la variacin del orden molecular ocurrido en
una reaccin qumica. Si el incremento de entropa es positivo, los productos presentan un
mayor desorden molecular (mayor entropa) que los reactivos. En cambio, cuando el
incremento es negativo, los productos son ms ordenados. Hay una relacin entre la entropa
y la espontaneidad de una reaccin qumica, que viene dada por la energa de Gibbs.

Entropa y termodinmica[editar]
Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada por Rudolf
Clausius a partir de un proceso cclico reversible. En todo proceso reversible laintegral
curvilnea de

slo depende de los estados inicial y final, con independencia del camino seguido (Q es la
cantidad de calor absorbida en el proceso en cuestin y T es la temperatura absoluta). Por
tanto, ha de existir una funcin del estado del sistema, S=f(P,V,T), denominada entropa, cuya
variacin en un proceso reversible entre los estados 1 y 2 es:

.
Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en lugar
de dQ. La entropa fsica, en su forma clsica, est definida por la ecuacin siguiente:

o, ms simplemente, cuando no se produce variacin de temperatura (proceso


isotrmico):

donde S es la entropa,
la cantidad de calor intercambiado entre el sistema y el
entorno y T la temperatura absoluta en kelvin.
Unidades: S=[cal/K]
Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema
termodinmico.

Significado[editar]
El significado de esta ecuacin es el siguiente:
Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico, del estado 1 al
estado 2, el cambio en su entropa es igual a la cantidad de calorintercambiado entre el sistema y el
medio dividido por su temperatura absoluta.
De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la
entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de calor que
entra produce un aumento de entropa menor. Y viceversa.
Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius), definido
como la variacin de entropa que experimenta un sistema cuando absorbe el calor de
1 Julio (unidad) a la temperatura de 1 Kelvin.
Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se convierte en
una inecuacin:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el
sistema y la temperatura de las fuentes. No obstante, sumando un trmino positivo al
segundo miembro, podemos transformar de nuevo la expresin en una ecuacin:

Al trmino
, siempre positivo, se le denomina produccin de entropa, y es nulo
cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de
calor con fuentes externas al sistema. En el caso de darse un proceso reversible
y adiabtico, segn la ecuacin, dS=0, es decir, el valor de la entropa es
constante y adems constituye un proceso isoentrpico.

Cero absoluto[editar]
Solo se pueden calcular variaciones de entropa. Para calcular la entropa de un
sistema, es necesario fijar la entropa del mismo en un estado determinado.
La tercera ley de la termodinmica fija un estado estndar: para sistemas
qumicamente puros, sin defectos estructurales en la red cristalina, de densidad
finita, la entropa es nula en el cero absoluto (0 K) o (-273.16C)
Esta magnitud permite definir la segunda ley de la termodinmica, de la cual se
deduce que un proceso tiende a darse de forma espontnea en un cierto sentido

solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a


congelarse por el otro de forma espontnea, an cuando siga cumplindose la
condicin de conservacin de la energa del sistema (la primera ley de la
termodinmica).

Entropa y reversibilidad[editar]
La entropa global del sistema es la entropa del sistema considerado ms la
entropa de los alrededores. Tambin se puede decir que la variacin de entropa
del universo, para un proceso dado, es igual a su variacin en el sistema ms la
de los alrededores:

Si se trata de un proceso reversible, S (universo) es cero, pues el calor que


el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es
una situacin ideal, ya que para que esto ocurra los procesos han de ser
extraordinariamente lentos, y esta circunstancia no se da en la naturaleza.
Por ejemplo, en la expansin isotrmica (proceso isotrmico) de un gas,
considerando el proceso como reversible, todo el calor absorbido del medio
se transforma en trabajo y Q= -W. Pero en la prctica real el trabajo es menor,
ya que hay prdidas por rozamientos, por lo tanto, los procesos son
irreversibles.
Para llevar al sistema nuevamente a su estado original, hay que aplicarle un
trabajo mayor que el producido por el gas, lo que da como resultado una
transferencia de calor hacia el entorno, con un aumento de la entropa global.
Como los procesos reales son siempre irreversibles, siempre aumentar la
entropa. As como la energa no puede crearse ni destruirse, la entropa
puede crearse pero no destruirse. Es posible afirmar entonces que, como el
Universo es un sistema aislado, su entropa crece constantemente con el
tiempo. Esto marca un sentido a la evolucin del mundo fsico, que se conoce
como principio de evolucin.
Cuando la entropa sea mxima en el Universo, esto es, cuando exista un
equilibrio entre todas las temperaturas y presiones, llegar la muerte trmica
del Universo (enunciada por Clausius).
En el caso de sistemas cuyas dimensiones sean comparables a las
dimensiones de las molculas, la diferencia entre calor y trabajo desaparece
y, por tanto, parmetros termodinmicos como la entropa, la temperatura y
otros no tienen significado. Esto conduce a la afirmacin de que el segundo
principio de la termodinmica no es aplicable a estos microsistemas, porque
realmente no son sistemas termodinmicos. Se cree que existe tambin un
lmite superior de aplicacin del segundo principio, de tal modo que no se
puede afirmar su cumplimiento en sistemas infinitos como el Universo, lo que
pone en controversia la afirmacin de Clausius sobre la muerte trmica del
Universo.

Historia de la entropa[editar]
El concepto de entropa desarrollado en respuesta a la observacin de que
una cierta cantidad de energa liberada de funcionales reacciones de
combustin siempre se pierde debido a la disipacin o la friccin y por lo tanto
no se transforma en trabajo til. Los primeros motores de calor como Thomas
Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres

ruedas (1769) eran ineficientes, la conversin de menos de dos por ciento de


la energa de entrada en produccin de trabajo til; una gran cantidad de
energa til se disipa o se pierde en lo que pareca un estado de aleatoriedad
inconmensurable. Durante los prximos dos siglos los fsicos investigaron
este enigma de la energa perdida, el resultado fue el concepto de entropa.
En la dcada de 1850, Rudolf Clausius estableci el concepto de sistema
termodinmico y postula la tesis de que en cualquier proceso irreversible una
pequea cantidad de energa trmica Q se disipa gradualmente a travs de
la frontera del sistema. Clausius sigui desarrollando sus ideas de la energa
perdida, y acu el trmino "entropa". Durante el prximo medio siglo se llev
a cabo un mayor desarrollo, y ms recientemente el concepto de entropa ha
encontrado aplicacin en el campo anlogo de prdida de datos en los
sistemas de transmisin de informacin.

Interpretacin estadstica de la entropa[editar]

Tumba de Boltzmann en elCementerio central de Viena con la frmula de entropa.

En los aos 1890 - 1900 el fsico austraco Ludwig Boltzmann y otros


desarrollaron las ideas de lo que hoy se conoce como mecnica estadstica,
teora profundamente influenciada por el concepto de entropa. Una de las
teoras termodinmicas estadsticas (la teora de Maxwell-Boltzmann)
establece la siguiente relacin entre la entropa y la probabilidad
termodinmica:
,
donde S es la entropa, k la constante de Boltzmann y el nmero
de microestados posibles para el sistema (ln es la funcin logaritmo
neperiano). La ecuacin asume que todos los microestados tienen la
misma probabilidad de aparecer.
La ecuacin se encuentra grabada sobre la lpida de la tumba de Ludwig
Boltzmann en el Zentralfriedhof (el cementerio central) de Viena.
Boltzmann se suicid en 1906, profundamente deprimido, quiz por la
poca aceptacin de sus teoras en el mundo acadmico de la poca.4
El significado de la ecuacin es el siguiente:

La cantidad de entropa de un sistema es proporcional al logaritmo natural del nmero


de microestados posibles.
Uno de los aspectos ms importantes que describe esta ecuacin es la
posibilidad de dar una definicin absoluta al concepto de la entropa. En
la descripcin clsica de la termodinmica, carece de sentido hablar del
valor de la entropa de un sistema, pues slo los cambios en la misma
son relevantes. En cambio, la teora estadstica permite definir la entropa
absoluta de un sistema.
La entropa es una magnitud fsica bsica que dio lugar a diversas
interpretaciones, al parecer a veces en conflicto. Han sido,
sucesivamente, asimilados a diferentes conceptos, como el desorden y la
informacin. La entropa mide tanto la falta de informacin como la
informacin. Estas dos concepciones son complementarias. La entropa
tambin mide la libertad, y esto permite una interpretacin coherente de
las frmulas de entropa y de los hechos experimentales. No obstante,
asociar la entropa y el desorden implica definir el orden como la ausencia
de libertad.5 El desorden o la agitacin guardan relacin con
la temperatura.

Entropa y desorden[editar]
Cuando la energa es degradada, dijo Boltzmann, se debe a que
los tomos asumen un estado ms desordenado. Y la entropa es
un parmetro del desorden: sa es la concepcin profunda que se
desprende de la nueva interpretacin de Boltzmann. Por extrao
que parezca, se puede crear una medida para el desorden; es la
probabilidad de un estado particular, definido aqu como el nmero
de formas en que se puede armar a partir de sus tomos
Jacob Bronowski. El ascenso del hombre (The Ascent of
Man). Bogot, Fondo Educativo Interamericano, 1979, p. 347,
captulo 10 "Un mundo dentro del mundo".

Coloquialmente, suele considerarse que la entropa es el desorden de un


sistema, es decir, su grado de homogeneidad. Un ejemplo domstico
sera el de lanzar un vaso de cristal al suelo: tender a romperse y a
esparcirse, mientras que jams ser posible que, lanzando trozos de
cristal, se construya un vaso por s solo. Otro ejemplo domstico:
imagnense dos envases de un litro de capacidad que contienen,
respectivamente, pintura blanca y pintura negra; con una cucharita, se
toma pintura blanca, se vierte en el recipiente de pintura negra y se
mezcla; luego se toma pintura negra con la misma cucharita, se vierte en
el recipiente de pintura blanca y se mezclan; el proceso se repita hasta
que se obtienen dos litros de pintura gris, que no podrn reconvertirse en
un litro de pintura blanca y otro de pintura negra; la entropa del conjunto
ha ido en aumento hasta llegar a un mximo cuando los colores de
ambos recipientes son sensiblemente iguales (sistema homogneo).
No obstante, considerar que la entropa es el desorden de un sistema sin
tener en cuenta la naturaleza del mismo es una falacia. Y es que hay
sistemas en los que la entropa no es directamente proporcional al
desorden, sino al orden.

Entropa como creadora de orden[editar]

A pesar de la identificacin entre la entropa y el desorden, hay muchas


transiciones de fase en la que emerge una fase ordenada y al mismo
tiempo, la entropa aumenta. En este artculo se muestra que esta
paradoja se resuelve haciendo una interpretacin literal de la famosa
ecuacin de Boltzmann S = k log W. Podemos verlo en la segregacin de
una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a
separarse. Tambin en la cristalizacin de esferas duras: cuando
agitamos naranjas en un cesto, stas se ordenan de forma espontnea.
De estos casos se deduce el concepto de fuerza entrpica o interaccin,
muy til en la ciencia de polmeros o ciencia coloidal.6

Relacin de la entropa con la teora de la


informacin[editar]
Vase tambin: Entropa (informacin)

Recientes estudios han podido establecer una relacin entre la entropa


fsica y la entropa de la teora de la informacin gracias a la revisin de la
fsica de los agujeros negros. Segn la nueva teora de Jacob D.
Bekenstein el bit de informacin sera equivalente a una superficie de
valor 1/4 del rea de Planck. De hecho, en presencia de agujeros negros
la segunda ley de la termodinmica slo puede cumplirse si se introduce
la entropa generalizada o suma de la entropa convencional (Sconv) ms
un factor dependiente del rea total (A) de agujeros negros existente en el
universo, del siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la


luz, G es la constante de la gravitacin y es la constante de
Planck racionalizada.
Los agujeros negros almacenaran la entropa de los objetos que
engulle en la superficie del horizonte de sucesos. Stephen
Hawking ha tenido que ceder ante las evidencias de la nueva teora y
ha propuesto un mecanismo nuevo para la conservacin de la
entropa en los agujeros negros.
Simplemente, al realizar un trabajo, se ocupa muy poca energa; la
entropa se encarga de medir la energa que no es usada y queda
reservada en un cuerpo.

Segunda Ley de la Termodinmica


Declaracione
s
de la
segunda ley

La segunda ley de la termodinmica es un principio general


que impone restricciones a la direccin de la transferencia de
Motor
calor, y a la eficiencia posible en los motores trmicos. De
Trmico
este modo, va ms all de las limitaciones impuestas por
Refrigerador
laprimera ley de la termodinmica. Sus implicaciones se
pueden visualizar en trminos de la analoga con la cascada

ndice

Entropa

Concept
Transferencia os sobre
de Calor
la
Segund
a Ley
Concept
os sobre
Motores
Trmicos

La mxima eficiencia que se puede conseguir es la eficiencia de Carnot.


Declaracin Cualitativa de la Segunda Ley de la Termodinmica

HyperPhysics*****Termodinmica

M Olmo R N
ave

Atrs

Segunda Ley: Motores Trmicos

Segunda ley de termodinmica: es imposible extraer una cantidad de calor


QH de un foco caliente, y usarla toda ella para producir trabajo. Alguna
cantidad de calor QC debe ser expulsada a un foco fro. Esto se opone a
unmotor trmico perfecto.
A veces se denomina la "primera forma" de la segunda ley, y es conocida
como el enunciado de la segunda ley de Kelvin-Planck.

ndice
Concept
os sobre
la
Segunda
Ley
Concept
os sobre
Motores
Trmicos

Declaracin Alternativa: Segunda Ley de la Termodinmica

HyperPhysics*****Termodinmica

M Olmo R N
ave

Atrs

Segunda Ley: El Regrigerador

Segunda ley de la termodinmica: No es posible que el calor fluya desde un


cuerpo fro hacia un cuerpo mas caliente, sin necesidad de producir
ningntrabajo que genere este flujo. La energa no fluye espontneamente
desde un objeto a baja temperatura, hacia otro objeto a mas alta temperatura.
Esto se opone al perfecto refrigerador. Las declaraciones sobre los
refrigeradores, se aplican a los acondicionadores de aire y a las bombas de
calor, que encarnan los mismos principios.
Esta es la "segunda forma", o la declaracin de Clausius de la segunda ley.

ndice
Concept
os sobre
la
Segunda
Ley
Concept
os sobre
Motores
Trmicos

Declaracin Alternativa: Segunda Ley de la Termodinmica

HyperPhysics*****Termodinmica

M Olmo R N
ave

Atrs

Segunda Ley: Entropa

Segunda ley de la termodinmica: en cualquier proceso cclico, la entropa aumentar, o


permanecer igual.
Es una variable de estado cuyo cambio se define por
Entrop
un proceso reversible en T, y donde Q es el calor
a:
absorbido.
Entrop una medida de la cantidad de energa que no est
a:
disponible para realizar trabajo.
Entrop
una medida del desorden de un sistema.
a:
Entrop
una medida de la multiplicidad de un sistema.
a:

Puesto que la entropa da informacin sobre la evolucin en el tiempo de un sistema


aislado, se dice que nos da la direccin de la "flecha del tiempo". Si las instantneas de
un sistema en dos momentos diferentes, muestran uno que est ms desordenado,
entonces se puede deducir que este estado se produjo mas tarde en el tiempo que el otro.
En un sistema aislado, el curso natural de los acontecimientos, lleva al sistema a un
mayor desorden (entropa ms alta) de su estado.

DEFINICIN DE

ENTROP A

Entropa es una nocin que procede de un vocablo griego que puede traducirse
como vuelta o transformacin (utilizado en sentido figurado).
En el siglo XIX Clausius acu el concepto en el mbito de la Fsica para referirse a una medida
del desorden que puede verse en las molculas de un gas. A partir de entonces este concepto se
utilizara con diversos significados en mltiples ciencias, tales como la fsica, la qumica,
la informtica, la matemtica y la lingstica.
Algunas definiciones son:

La entropa puede ser la magnitud fsica termodinmica que permite medir la parte no
utilizable de la energa contenida en un sistema. Esto quiere decir que dicha parte de la
energa no puede usarse para producir un trabajo.
Se entiende por entropa tambin a la medida del desorden de un sistema. En este
sentido, est asociada a un grado de homogeneidad.
La entropa de formacin de un compuesto qumico se establece midiendo la que conforma
a cada uno de sus elementos constituyentes. A mayor entropa de formacin, ms favorable
ser su formacin.
En la teora de la informacin, la entropa es la medida de la incertidumbre que existe
ante un conjunto de mensajes (de los cuales slo se recibir uno solo). Se trata de una
medida de la informacin que es necesaria para reducir o eliminar la incertidumbre.
Otra manera de entender la entropa es como la cantidad media de informacin que
contienen los smbolos transmitidos. Palabras como el o que son los smbolos ms
frecuentes en un texto pero, sin embargo, son los que aportan menos informacin. El mensaje
tendr informacin relevante y mxima entropa cuando todos los smbolos son igualmente
probables.
La entropa en el campo de la lingstica
La forma en la que se organiza y difunde la informacin en un discurso es uno de los
temas ms relevantes y susceptibles de investigacin para la lingstica. Y gracias a la entropa
puede realizarse un anlisis ms profundo de la comunicacin.
En el caso de la comunicacin escrita el problema es sencillo de analizar (las unidades bsicas,
las letras, se encuentran bien definidas); si se desea comprender a fondo el mensaje es posible
decodificarlo con exactitud y comprender tanto lo dicho literal como figurado. Pero en
el lenguaje oral, la cosa cambia un poco, presentando algunas complicaciones.

No es sencillo determinar en el discurso


oral los elementos fundamentales del cdigo; las palabras suenan diferentes segn por
quin las pronuncie y, de igual modo, pueden tener significados diversos. No es suficiente por
tanto clasificarlas en fonemas voclicos y consonnticos porque esto no nos permitira
entender cmo se organiza la informacin porque, por ejemplo, si se suprimen fonemas
voclicos, no es posible comprender el mensaje.
Segn un estudio realizado en la Universidad de Wisconsin-Madison una buena forma de aislar
y comprender el cdigo oral es a travs de la descomposicin espectral de las seales sonoras.
Gracias a esta tcnica se intenta comprender cmo la cclea filtra y analiza lo le llega.
La cclea es la parte de nuestros odos que tiene la funcin de transformar los
sonidos en seales elctricas y enviarlas directamente al cerebro.
Para llevar a cabo este experimento se utiliz una unidad de medida que se conoce como
entropa espectral en escala coclear (CSE), la misma permite establecer conexiones entre

una seal y la que la precede; decidiendo qu posibilidades hay de predecir una seal
partiendo de la anterior.
Los resultados devolvieron que cuanto ms parecidas son dos seales, ms fcil es
predecir la segunda; esto significa que la informacin que tomamos de la segunda es casi
nula. As mismo cuanto ms difieran entre s, mayor ser la informacin que aporte la segunda
seal, por lo que si es eliminada provocar consecuencias considerables en la comprensin del
discurso.

La termodinmica y el concepto de Entropa


Definicin de algunos conceptos
La termodinmica, por definirla de una manera muy simple, fija su atencin en el interior de los sistemas
fsicos, en los intercambios de energa en forma de calor que se llevan a cabo entre un sistema y otro. A las
magnitudes macroscpicas que se relacionan con el estado interno de un sistema se les llama coordenadas
termodinmicas; stas nos van a ayudar a determinar la energa interna del sistema. En resumen, el fin ltimo
de la termodinmica es encontrar entre las coordenadas termodinmicas relaciones generales coherentes con
los principios bsicos de la fsica (recurdese el principio de la conservacin de la energa que tratamos en el
nmero 3 de "Horizonte Social).
La termodinmica basa sus anlisis en algunas leyes: La Ley "cero", referente al concepto de temperatura, la
Primera Ley de la termodinmica, que nos habla de el principio de conservacin de la energa, la Segunda
Ley de la termodinmica, que nos define a la entropa. A continuacin vamos a hablar de cada una de estas
leyes, haciendo hincapi en la segunda ley y el concepto de entropa.
La Ley cero
La Ley cero de la termodinmica nos dice que si tenemos dos cuerpos llamados A y B, con diferente
temperatura uno de otro, y los ponemos en contacto, en un tiempo determinado t, estos alcanzarn la misma
temperatura, es decir, tendrn ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se
pone en contacto con A y B, tambin alcanzar la misma temperatura y, por lo tanto, A, B y C tendrn la
misma temperatura mientras estn en contacto.
De este principio podemos inducir el de temperatura, la cual es una condicin que cada cuerpo tiene y que el
hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termomtricas).
La Primera Ley
La Primera ley de la termodinmica se refiere al concepto de energa interna, trabajo y calor. Nos dice que si
sobre un sistema con una determinada energa interna, se realiza un trabajo mediante un proceso, la energa
interna del sistema variar. A la diferencia de la energa interna del sistema y a la cantidad de trabajo le
denominamos calor. El calor es la energa transferida al sistema por medios no mecnicos. Pensemos que
nuestro sistema es un recipiente metlico con agua; podemos elevar la temperatura del agua por friccin con
una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo
sobre el sistema y en el segundo le transmitimos calor.
Cabe aclarar que la energa interna de un sistema, el trabajo y el calor no son ms que diferentes
manifestaciones de energa. Es por eso que la energa no se crea ni se destruye, sino que, durante un
proceso solamente se transforma en sus diversas manifestaciones.
La Segunda Ley
Por ltimo, vamos a ver el contenido de la segunda ley de la termodinmica. En trminos ms o menos
sencillos dira lo siguiente: "No existe un proceso cuyo nico resultado sea la absorcin de calor de una
fuente y la conversin ntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) naci
del estudio del rendimiento de mquinas y mejoramiento tecnolgico de las mismas. Si este principio no fuera
cierto, se podra hacer funcionar
una central trmica tomando el calor del medio ambiente; aparentemente no habra ninguna contradiccin,
pues el medio ambiente contiene una cierta cantidad de energa interna, pero debemos sealar dos cosas:

primero, la segunda ley de la termodinmica no es una consecuencia de la primera, sino una ley
independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energa en
diferentesprocesos, en nuestro caso, en una central trmica. No existe una mquina que utilice energa
interna de una sola fuente de calor.
El concepto de entropa fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX.
Clausius, ingeniero francs, tambin formul un principio para la Segunda ley: "No es posible proceso
alguno cuyo nico resultado sea la transferencia de calor desde un cuerpo fro a otro ms
caliente". En base a este principio, Clausius introdujo el concepto de entropa, la cual es una medicin de la
cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina tambin
la direccin de dicho proceso. Vamos ahora a hablar de las tres acepciones ms importantes de la palabra
entropa.
La entropa, el desorden y el grado de organizacin.
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada divisin se
encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son
movibles as que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas.
Lo que estoy haciendo dentro del punto de vista de la entropa es quitar un grado o ndice de restriccin a mi
sistema; antes de que yo quitara la primera divisin, las canicas se encontraban separadas y ordenadas
en colores: en la primera divisin las azules, en la segunda las amarillas y en la tercera las rojas, estaban
restringidas a un cierto orden.
Al quitar la segunda divisin, estoy quitando tambin otro grado de restriccin. Las canicas se han mezclados
unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringan han
sido quitadas.
La entropa de este sistema ha aumentado al ir quitando las restricciones pues inicialmente haba un orden
establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden
alguno dentro de la caja.
La entropa es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de
restriccin; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna
restriccin, y volverla a medir al final del proceso que sufri el sistema.
Es importante sealar que la entropa no est definida como una cantidad absoluta S (smbolo de la entropa),
sino lo que se puede medir es la diferencia entre la entropa inicial de un sistema Si y la entropa final del
mismo Sf. No tiene sentido hablar de entropa sino en trminos de un cambio en las condiciones de un
sistema.
Entropia, procesos reversibles y procesos irreversibles.
Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos a explicar qu es un proceso
reversible y qu un proceso no reversible.
Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones
iniciales. Teniendo en cuenta
nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden.
Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendran que ordenarse
espontneamente en azules, amarillas y rojas, segn el orden de las divisiones. Esto no ocurrir.
El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez
terminado, el orden que haba en las condiciones iniciales del sistema ya nunca volver a establecerse. El
estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.
La entropa y la energa "gastada".
En el principio enunciado por Clausius que anteriormente citamos, podemos encontrar la relacin con la
entropa y la energa liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente de
energa para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema de
chispa del motor, proporciona la energa (qumica) de combustin, capaz de hacer que el auto se mueva.
qu tiene que ver la entropa aqu?
La energa que el coche "utiliz" para realizar trabajo y moverse, se "gast", es decir, es energa liberada
mediante un proceso qumico que ya no es utilizable para que un motor produzca trabajo.
Este es uno de los conceptos ms difciles de entender de la entropa, pues requiere un conocimiento un poco
menos trivial del funcionamiento de motores, frigorficos y el ciclo de Carnot. Pero para nuestros fines con esta
explicacin es suficiente.

Para qu sirve la entropa?


La entropa, como medida del grado de restriccin o como medida del desorden de un sistema, o bien
en ingeniera, como concepto auxiliar en los problemas del rendimiento energtico de las mquinas, es una de
las variables termodinmicas ms importantes. Su relacin con la teora del caos le abre un nuevo campo de
estudio e investigacin a este tan "manoseado" concepto.

Entropa
Una vez visto y entendido el significado de la primera ley nos damos cuenta que por si sola no
indica la posibilidad o imposibilidad de un proceso, es decir, el que se cumpla en condicin
necesaria mal no suficiente. Por tal razn surge la llamada segunda Ley de la termodinmica
ya que podemos encontrar muchsimos ejemplos de la vida diaria en los cuales cumple la
primera Ley pero son procesos imposibles porque no podemos eliminar irreversibilidades
como la friccin, las perdidas de calor al ambiente, el desgaste de los materiales , entre otros.
Las irreversibilidades en un proceso me generan entropa la cual se define como el grado de
desorden de las molculas, por lo que es mayor en los gases que en los lquidos mientras que
la entropa de los lquidos es mayor que la de los slidos. Esto tiene su significado fsico
porque si subimos la temperatura por ejemplo de un gas, aumentar la energa cintica de las
molculas, habr ms movimiento y aumenta las posibilidades de ocupar ms sitios de tal
manera que la entropa crece al igual que la energa interna y la entalpa, y estas tres
propiedades se pueden expresar en trminos de calor especifico debido a que este
permanece constante durante todos los procesos al cual pueda ser sometido un slido o un
liquido.
Entropa en sustancias puras
La entropa es una propiedad termodinmica fundamental aunque es medible como la presin,
temperatura o volumen, pueden calcularse a travs de una integral independiente de la
trayectoria usando un camino reversible. Es importante aclarar que solo estamos en la
capacidad de calcular cambios de entropa y no su valor absoluto por lo general se toma
arbitrariamente un estado de referencia de entropa igual a cero cuando la energa interna se
toma como cero.

ds = dQ/T
su unidad es energa entre masa en la tablas termodinmicas del vapor, refrigerante y
amoniaco es (Kj/Kg *K) estos valores se toman con un estado de referencia arbitrario ya que a
una temperatura muy cercana al cero se le asigna un valor a la entropa de cero en el caso del
vapor y en los refrigerantes a T = -40C la S = 0 y en saturacin por ser una propiedad
extensiva tal cual como el volumen, energa interna y entalpa tenemos que:
S = Sf + X(Sg -Sf)
Al igual que en las otras propiedades la entropa esta tabulada y puede utilizarse en grficos y
diagramas. Uno de los diagramas termodinmicos mas utilizados en la ingeniera es el
diagrama T - S, el cual es un diagrama lineal por lo que arroja informacin precisa.

De este diagrama podemos ver los procesos isotrmicos son lneas horizontales mientras que
las verticales son procesos adiabticos y adems isoentrpico ( Entropa Ctte) ya que dQ = 0
y por tanto d S = 0. por otra parte, el rea bajo la curva de dicho diagrama representa el calor
transferido. Si el ciclo se recorre en forma horaria, el calor ser positivo, de lo contrario el calor
saldr del sistema y tendr signo negativo. al analizar esto podemos concluir que para
procesos netamente reversible el calor transferido se determina mediante el rea bajo la curva
del proceso. Estos diagramas nos servirn como punto de referencia para comparar un
sistema ideal ( reversible) con uno real lo cual nos puede servir como base para definir la
eficiencia de una maquina trmica.
Otra de las cosas que se deben tomar en cuenta con respecto a los diagramas es que en un
sistema reversible los diagramas T-S el trabajo es igual a y el trabajo a pero en un sistema
irreversible ni el trabajo ni el calor se ven representados por el rea bajo la curva ya que en un
sistema con irreversibilidades no se puede determinar con exactitud en que estado se
encuentra esto por que en un ciclo irreversible los proceso nunca resultan iguales
El calcular la entropa nos sirve como una medida cuantitativa para determinar la posibilidad o
imposibilidad de realizar un trabajo, ya que para un sistema cerrado adiabtico ( Q = 0), el
cambio de entropa debe ser mayor o igual que cero, entonces la manera de calcularla ante
cualquier sistema cerrado es:
S= Q/T +
Donde D representa las irreversibilidades dentro del sistema como vemos esta ecuacin
difiere de la ecuacin 1.1 en el termino de irreversibilidad y este es as por que para procesos
reversibles su valor es cero y para procesos irreversibles su valor es mayor que cero.
Es importante aclarar que las irreversibilidades son difcil de contabilizar y la manera de
calcularlas es partiendo de la expresin anterior
Generacin de Entropa
Con respecto a los sistemas reversible la generacin de entropa es igual a 0 caso contrario
de los sistemas irreversibles que gracias a estas irreversibilidades hay una generacin de
entropa > 0 lo cual tambin se puede lograr mediante la transferencia de calor desde y hacia
el sistema lo que hara que aumente o disminuya segn sea el caso. la presencia de
irreversibilidades har que el trabajo sea menor que el trabajo reversible esto significa que al
momento de una expansin se producir menos trabajo y que al momento de una compresin
se introducir mas trabajo a la masa de control.
Principio del incremento de entropa
Este principio estudia el efecto de la transferencia de calor en el entorno en el cambio de
estado as como de la masa de control el mejor ejemplo que se puede tomar es cuando desde
el entorno que esta a una temperatura transfiere calor a la masa de control y esta a su vez
produce un trabajo si la temperatura del entorno es mayor que la de la masa de control la
transferencia ser positiva pero si al contrario la temperatura de la masa es mayor que la del
entorno la transferencia de calor ser negativa.
Este principio lo que presenta es los nicos procesos que se podran realizar son aquellos
donde hay un incremento de la entropa por el cambio neto positivo de la masa de control y el

entorno y determina que este proceso no podra llevarse a la inversa por que la entropa
siempre se mantendr en expansin.
Con respecto a la eficiencia en la segunda ley estaba determinada por la energa que se
busca entre la energa que cuesta o sea:
Trmica = W (Energa que se busca) = Qh - Ql = 1 - Ql
Qh (Energa que cuesta) Qh Qh
Para la entropa este termino se utiliza para el diseo de dispositivos como una turbina donde
se toma el comportamiento real de la turbina la cual no es adiabtica del todo ya que hay una
transferencia de calor hacia el entorno y de donde obtendremos un trabajo real (WR) y lo
dividimos entre el trabajo producido por una turbina ideal o sea adiabtica reversible (Wi ) as:
Turbina = WR
Wi
Conclusin
De todas las propiedades termodinmica la entropa es la mas importante ya que determina
uno de los procesos termodinmicos mas importantes, ya que es punto de partida para el
diseo de dispositivos que manejan procesos termodinmicos como las maquinas trmicas
partiendo de la eficiencia de una maquina ideal y acercando estos diseos al deber ser de un
equipo trmico. La entropa tiene una particularidad que es que se genera por las
irreversibilidades como la friccin y la expansin irrestricta como tambin la transferencia de
calor al entorno, pero digamos mas bien que la entropa es simplemente el aumento o
disminucin de energa en un proceso irreversible que son tan cotidianos en la vida diaria.
Introduccion
El termino entropa fue introducido por la segunda ley como un cambio de energa que a su
vez es el principio de la primera ley lo que no tomamos en cuenta es que la entropa es parte
de nuestra cotidianidad como el ambiente que enfra una taza de caf, pero aplicado a la
ingeniera los estudio se hacen por medio el aumento o disminucin de la entropa, como
sucede en un compresor donde se le aplica un trabajo a un liquido de trabajo y este aumenta
su entropa, como tambin se encuentra el caso de una turbina que es el ejemplo mas comn
cuando se quiere hablar de un proceso adiabtico reversible que es la base del estudio de
esta propiedad y sus caractersticas.
ENTROPIA

LA ENTROPA Y LA SEGUNDA LEY DE LA TERMODINMICA

En Termodinmica se reconoce a una 1 Ley de la Termodinmica, conocida


como "Ley de conservacin de la energa" y que establece que hay cierta
magnitud llamada "energa", la cual no vara con los mltiples cambios que
ocurren en la naturaleza. Y se reconoce adems a una 2 Ley de la
Termodinmica, la cual establece, por su parte, que existe otra magnitud llamada
"entropa", que permanece constante en algunas transformaciones y que aumenta
en otras, sin disminuir jams. Aquellas trasformaciones en las cuales la entropa
aumenta, se denominan "procesos irreversibles".
La 2 Ley de la Termodinmica se aplica solamente a sistemas aislados, es
decir, a sistemas en los cuales las transformaciones implicadas quedan todas
includas en ellos (como es el caso de la "dilucin homeoptica"). En sistemas
abiertos, en cambio, as como la energa puede pasar de un sistema a otro y
entonces mientras uno la pierde, el otro la gana, pero el balance total es igual a
cero-, lo mismo acontece con la entropa: si un sistema gana en entropa, su
alrededor (que es otro sistema) la pierde, pero el balance total es nulo. Vale decir,
al sistema ms su alrededor se le considera como un sistema aislado as se ha
considerado al universo-. ste es el caso, sin embargo, de los procesos
reversibles, los cuales son procesos ideales (ya que no existen en la naturaleza).
En los sistemas reales, y como tales escenarios de procesos irreversibles, el
balance final de entropa es siempre positivo. Adems, es muy importante sealar
que la entropa aumenta en un sistema aislado hasta alcanzar un mximo, que
es su estado de equilibrio (porque espontneamente permanece en l).
Desde fines del siglo XIX all por el ao de 1872-, se empieza a reconocer
con Ludwig Boltzmann que esta segunda Ley es una ley de naturaleza
probabilstica (o estadstica). Esto quiere decir que no es imposible que en un
sistema aislado pueda alguna vez disminuir su entropa, en lugar de aumentar.
Esta aparente contradiccin con lo estipulado por la segunda Ley, no es tal, pues
la prediccin de la ley est garantizada, en los hechos, por aquella otra ley que es
principio fundamental de toda estadstica: la llamada "ley de los grandes
nmeros". O sea, las excepciones se pierden en el conjunto inmensamente
superior -en extensin- de los resultados esperados. Sin embargo, es posible la
existencia de excepciones ; todava ms, podramos decir que la existencia de
excepciones es inevitable dada su naturaleza probabilstica.
Boltzmann uno de los creadores, junto con J.W. Gibbs, de la Mecnica
estadstica- utiliz la teora cintica de los gases, de acuerdo con la cual la
cantidad de calor de un gas depende del movimiento irregular de sus molculas,
para mostrar que las colisiones entre molculas conducen segn leyes

estadsticas- a una igualacin media de las diferencias de velocidad que ellas


presentan.
As, las molculas ms rpidas que el promedio, pierden velocidad con cada
choque; mientras las molculas ms lentas que el promedio, ganan velocidad al
chocar con las molculas ms rpidas. Es precisamente esta igualacin (o sea,
desaparicin de las diferencias) lo que constituye el estado de equilibrio
o estado de mxima entropa-.
En palabras de Prigogine: "Dicho de otro modo, las colisiones entre las
partculas aparecen como el mecanismo microscpico que conduce el sistema al
equilibrio".(Ilya Prigogine, 1996, p.27.)
Vale decir, el incremento de entropa durante los procesos fsicos implica que
los conjuntos bien ordenados de molculas se transforman en conjuntos mal
ordenados. El "orden" es aqu sinnimo de "diferencia" o de "heterogeneidad", lo
cual no coincide necesariamente con el concepto de sentido comn -o habitual de
nuestra vida diaria- de orden. Para dar un ejemplo: si todas las molculas rpidas
o sea, ms rpidas que el promedio- se concentraran en la mitad izquierda del
recipiente que las contiene, y las molculas lentas o sea, ms lentas que el
promedio- lo hicieran en su mitad derecha, tendramos el estado de mximo
orden (o el estado ms alejado del estado de equilibrio, que es el estado de
mximo desorden o entropa). Al sentido comn, tal vez, le parecera ms
ordenado un estado homogneo, es decir, un estado en que las molculas estn
distribudas en forma uniforme donde en cualquier subespacio del sistema
encontraramos molculas con una velocidad fluctuando muy poco alrededor del
promedio-. sta es, sin embargo, la descripcin del estado de equilibrio.
De acuerdo con Boltzmann, las colisiones al azar entre las molculas del gas
(el llamado "caos molecular", que no es lo mismo que "el caos dinmico", del
cual hablaremos despus) son las responsables de esta igualacin de las
diferentes velocidades individuales, hasta alcanzar el estado de equilibrio
termodinmico en el cual el espectro de velocidades de las molculas se
distribuyen en una curva normal alrededor de la velocidad promedio (distribucin
de Maxwell)-. Destaquemos que el estado de equilibrio termodinmico es
considerado por la Mecnica estadstica como el estado de mxima
probabilidad:
"Para un conjunto macroscpico aislado, el mismo estado neto de equilibrio
se predetermina mediante la Termodinmica como aquel en que la entropa llega
a un valormximo, y por medio de la Mecnica estadstica como aquel que

corresponde a una configuracin predominante asociada con el nmero


mximo de microestados". (L.K. Nash, 1974, p.53.)
Ahora, por qu se califica al estado de equilibrio como el equivalente al
estado de mxima probabilidad de la Mecnica estadstica? Porque las
distribuciones en el espacio de velocidades cercanas o levemente diferentes a la
velocidad promedio -vale decir, la configuracin predominante- estn en
un nmero inmensamente superior a aquellas velocidades alejadas del
promedio (aquellas molculas o demasiado rpidas o demasiado lentas).
La configuracin predominante, entonces, constituye el estado ms
probabledel sistema. Y el estado de mxima entropa corresponde as a
una homogeneidad estadstica. A pesar de sto, no es imposible que el choque de
las molculas pueda producir resultados que van en contra de esta igualacin, lo
cual no invalida sin embargo a esta ley probabilstica que es la 2 Ley de la
Termodinmica.
Nada prohbe que del choque de una molcula rpida con otra molcula lenta,
por ejemplo, la molcula rpida se haga ms rpida y la molcula lenta se haga
ms lenta. Este resultado va en contra de la tendencia igualitaria o sea, la
tendencia hacia el incremento de la entropa-, pero se puede producir
perfectamente ; slo que por ser su ocurrencia estadsticamente no significativa,
se pierde en el resultado de conjunto que siempre representa un incremento de
entropa (o desorden).
Por otra parte, se habla de "estado de equilibrio" porque una vez que la
distribucin ms probable ha sido alcanzada, permanece estacionaria. Pese a las
colisiones posteriores que pueden hacer variar las velocidades individuales de las
molculas, la distribucin de conjunto permanece invariable.
Antes de hablar de la neguentropa, debemos aclarar un poco ms los
concepto de orden y desorden. Digamos previamente que la entropa es
una funcin general que caracteriza el estado de un sistema -de un gas, por
ejemplo- como un todo.
Si distinguimos entre microestado y macroestado, el primero se refiere a las
ordenaciones moleculares (o configuraciones moleculares) y el segundo a la clase
de ordenaciones (o microestados) que son macroscpicamente
indistinguibles entre s. (Hans Reichenbach, 1959, pp.106-108.)
Y agreguemos que las ordenaciones macroscpicamente indistiguibles
poseen el mismo grado de orden. Por tanto, al macroestado correspondiente a un

cierto microestado (a una cierta ordenacin) se le puede denominar clase del


mismo orden.
De manera que el grado de desorden puede medirse por el nmero de
ordenaciones que componen una clase del mismo orden, es decir, por su
extensin, determinando as la configuracin predominante. Recprocamente, un
alto grado de orden estar constitudo por una clase del mismo orden que
sea pequea en extensin.
sta es la concepcin en la cual se basa la interpretacin de la entropa como
medida del desorden, o como medida inversa del orden, y por la cual la entropa
y con ella la probabilidad- aumenta en funcin del nmero de ordenaciones (o
microestados) pertenecientes a una clase del mismo orden. Ahora, si en lugar de
usar el concepto de entropa como medida inversa del orden de un sistema,
utilizamos el concepto de neguentropa, ser posible entonces hablar
directamente del grado de orden del sistema considerado.

SEGUNDO PRINCIPIO DE LA TERMODINAMICA


La segunda ley de la termodinmica da una definicin precisa de una propiedad llamada
entropa. La entropa puede considerarse como una medida de lo prximo o no que se halla un
sistema al equilibrio; tambin puede considerarse como una medida del desorden (espacial y
trmico) del sistema. La segunda ley afirma que la entropa, o sea, el desorden, de un sistema
aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuracin
de mxima entropa, ya no puede experimentar cambios: ha alcanzado el equilibrio. La
naturaleza parece pues "preferir" el desorden y el caos. Puede demostrarse que el segundo
principio implica que, si no se realiza trabajo, es imposible transferir calor desde una regin de
temperatura ms baja a una regin de temperatura ms alta.
Entropa: Es una funcin del estado del sistema, ya que tiene un valor nico para
cada estado,independiente de cmo el sistema llego a dicho estado.
S = Q/T

La entropa es una propiedad intrnseca del S T D relacionada fundamentalmente


con parmetros mensurables que la caracterizan.
dS = dQ/T
dS: entropa del S T D.
dQ: intercambio de energa trmica entre el medio y el S T D.
T: temperatura a la que se registra el intercambio de energa trmica entre el medio y el S T D.
La expresin permite el clculo de variaciones pero no el conocimiento de valores
absolutos.
La variacin entrpica en cualquier S T D y su ambiente considerado conjuntamente es
positiva, tendiendo a cero en los procesos reversibles.
S Total 0 (proceso irreversible)
S = 0 (proceso reversible)

Entropa como probabilidad:


Es menos probable que las 5 molculas se encuentren en el lugar de origen a que se encuentren
desparramadas luego de quitar el separador. La mayor cantidad del tiempo se hallarn
desparramadas, por lo cual el estado 2 ser de mayor entropa que el 1.

El estado de equilibrio de un sistema aislado, es el de mayor desorden ya que es el ms


probable.
El aumento de entropa corresponde a un incremento del desorden molecular.
El segundo principio impone una condicin adicional a los procesos termodinmicos. No basta
con que se conserve la energa y cumplan as el primer principio. Una mquina que realizara

trabajo violando el segundo principio se denomina "mvil perpetuo de segunda especie", ya que
podra obtener energa continuamente de un entorno fro para realizar trabajo en un entorno
caliente sin coste alguno.
1 ley: S T D y entorno E S T D + E Ambiente = 0
1 ley: S T D E S T D = 0
2 ley: S T D y entorno S S T D + S Ambiente 0
2 ley: S T D S S T D = 0
Cuando S S T D = 0, el sistema est en equilibrio y no hay transformaciones entre
los distintos tipos de energa.
Cuando S S T D> 0, es un proceso desequilibrado y tendiendo hacia el equilibrio,
siempre con
E S T D = 0.
http://www.fisicanet.com.ar
Autor: Anselmo Robles Bentham

Es una de las leyes ms importantes de la fsica; an pudindose formular de muchas maneras


todas llevan a la explicacin del concepto de irreversibilidad y al de entropa. Este ltimo
concepto, cuando es tratado por otras ramas de la fsica, sobre todo por la mecnica estadstica
y la teora de la informacin, queda ligado al grado de desorden de la materia y la energa de un
sistema. La termodinmica, por su parte, no ofrece una explicacin fsica de la entropa, que
queda asociada a la cantidad de energa no utilizable de un sistema. Sin embargo, esta
interpretacin meramente fenomenolgica de la entropa es totalmente consistente con sus
interpretaciones estadsticas. As, tendr ms entropa el agua en estado gaseoso con sus
moleculas dispersas y alejadas unas de las otras que la misma en estado lquido con sus
molculas ms juntas y ms ordenadas.
El segundo principio de la termodinmica dictamina que si bien la materia y la energa no se
pueden crear ni destruir, s que se transforman, y establece el sentido en el que se produce

dicha transformacin. Sin embargo, el punto capital del segundo principio es que, como ocurre
con toda la teora termodinmica, se refiere nica y exclusivamente a estados de equilibrio.
Toda definicin, corolario o concepto que de l se extraiga slo podr aplicarse a estados de
equilibrio, por lo que, formalmente, parmetros tales como la temperatura o la propia entropa
quedarn definidos nicamente para estados de equilibrio. As, segn el segundo principio,
cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de
entropa en el estado de equilibrio B ser la mxima posible, e inevitablemente mayor a la del
estado de equilibrio A. Evidentemente, el sistema slo har trabajo cuando est en el trnsito
del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo,
si el sistema era cerrado, su energa y cantidad de materia no han podido variar; si la entropa
debe de maximizarse en cada transicin de un estado de equilibrio a otro, y el desorden interno
del sistema debe aumentar, se ve claramente un lmite natural: cada vez costar ms extraer la
misma cantidad de trabajo, pues segn la mecnica estadstica el desorden equivalente debe
aumentar exponencialmente.
Aplicado este concepto a un fenmeno de la naturaleza como por ejemplo la vida de las
estrellas, las mismas, al convertir el hidrgeno, su combustible principal, en helio generan luz y
calor. Al fusionar los ncleos de hidrgeno en su interior la estrella libera la energa suficiente
para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los ncleos de Helio
no consigue liberar la misma cantidad de energa que obtena cuando fusionaba los ncleos de
hidrgeno. Cada vez que la estrella fusiona los ncleos de un elemento obtiene otro que le es
ms intil para obtener energa y por ende la estrella muere, y en ese orden de ideas la materia
que deja atrs ya no servir para generar otra estrella. Es as como el segundo principio de la
termodinmica se ha utilizado para explicar el fin del universo.
Definicin axiomtica
La definicin formal del segundo principio de la termodinmica establece que:
En un estado de equilibrio, los valores que toman los parmetros caractersticos de un sistema
termodinmico cerrado son tales que maximizan el valor de una cierta magnitud que est en
funcin de dichos parmetros, llamada entropa.
La entropa de un sistema es una magnitud fsica abstracta que la mecnica estadstica
identifica con el grado de desorden molecular interno de un sistema fsico. La termodinmica
clsica, en cambio, la define como la relacin entre el calor transmitido y la temperatura a la

que se transmite. La termodinmica axiomtica, en cambio, define a la entropa como una


cierta funcin a priori, de forma desconocida, que depende de los llamados "parmetros
caractersticos" del sistema, y que slo puede definirse para los estados de equilibrio del
sistema.
Dichos parmetros caractersticos se establecen a partir de un postulado derivado del primer
principio de la termodinmica, llamado a veces el principio de estado. Segn ste, el estado de
equilibrio de un sistema queda totalmente definido por medio de la energa interna del sistema,
su volumen y su composicin molar. Cualquier otro parmetro termodinmico, como podran
serlo la temperatura o la presin, se define como una funcin de dichos parmetros. As, la
entropa ser tambin una funcin de dichos parmetros.
El segundo principio de la termodinmica establece que dicha entropa slo puede definirse
para estados de equilibrio termodinmico, y que de entre todos los estados de equilibrio
posibles que vendrn definido por los parmetros caractersticos, slo se puede dar el que,
de entre todos ellos, maximiza la entropa.
Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al
equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con
los lmites o contornos del sistema. Entre ellos se encuentra, evidentemente, el estado de
equilibrio de partida. Si el sistema vara su estado de equilibrio desde el de partida a otro, ello
es debido a que la entropa del nuevo estado es mayor que la del estado inicial; si el sistema
cambia de estado de equilibrio, su entropa slo puede aumentar. Por tanto, la entropa de un
sistema aislado termodinmicamente slo puede incrementarse. Suponiendo que el universo
parti de un estado de equilibrio, que en todo instante de tiempo el universo no se aleja
demasiado del equilibrio termodinmico y que el universo es un sistema aislado, el segundo
principio de la termodinmica puede formularse de la siguiente manera;
La cantidad de entropa del universo tiende a incrementarse con el tiempo.
Sin embargo, la termodinmica axiomtica no reconoce al tiempo como una variable
termodinmica. Formalmente, la entropa slo puede definirse para estados en equilibrio. En el
proceso que va de un estado de equilibrio a otro no hay estados de equilibrio, por lo que la
entropa en dichos estados de no-equilibrio no puede definirse sin incurrir en inconsistencias
formales dentro de la propia termodinmica. As, la entropa no puede ser una funcin del
tiempo, por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto.

Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de equilibrio


a otro se ha pasado por infinitos estados intermedios de equilibrio, procedimiento que permite
introducir al tiempo como parmetro. En tanto en cuanto el estado de equilibrio final sea aqul
de mxima entropa posible, no se habr incurrido en una inconsistencia frontal por cuanto
dichos estados de equilibrio intermedios no han afectado al nico real (el final).
La formulacin clsica defiende que el cambio en la entropa S es siempre mayor o igual
exclusivo para procesos reversibles que la transferencia de calor Q producida dividido por la
temperatura de equilibrio T del sistema

Descripcin general

El enunciado axiomtico del segundo principio pone inmediatamente de manifiesto su


principal caracterstica: se trata de una de las pocas leyes ontolgicas de la Fsica, en tanto que
distingue, de manera general, aquellos procesos y estados fsicos que son posible de aquellos
que no lo son; esto es, el segundo principio permite determinar la posibilidad de un proceso o
estado. De hecho, en un sentido histrico el segundo principio surgi, en plena Revolucin
Industrial en el contexto de las mquinas trmicas como una explicacin emprica de por qu
stas se comportaban de una manera determinada y no de otra. En efecto, aunque parezca
trivial, siempre se observaba, por ejemplo, que para calentar una caldera era necesario emplear
combustible ardiendo a mayor temperatura que la de la caldera; sin embargo, jams se
observaba que la caldera se calentara tomando energa de su entorno, el cual a su vez se
enfriara. De hecho, podra razonarse que, en virtud del primer principio de la termodinmica,
nada impide que, espontneamente, sea posible extraer calor de un cuerpo fro, por ejemplo a
200K, para transmitrselo a otro caliente, por ejemplo a 1000K: basta con que se cumpla el
balance energtico correspondiente, a consecuencia del cual el cuerpo fro se enfriara an ms,
y el caliente se calentara ms an. Sin embargo, todo esto es contrario a toda experiencia; y
aunque parezca comn y hasta trivial, tena un extraordinario impacto en las mquinas
empleadas en la Revolucin Industrial: por ejemplo, de no haber sido as, las mquinas podran
funcionar sin necesitar combustible, pues la energa necesaria podra transferirse de manera
espontnea del resto del ambiente. Sin embargo, las mquinas trmicas parecan obedecer una

determinada ley, que se materializ en el segundo principio: para producir trabajo mecnico,
era necesario aportar energa adicional (el combustible), que a su vez era siempre mayor que la
cantidad de trabajo extrado. El concepto de mquina trmica aparece as ntimamente ligado
al enunciado inicial del segundo principio.
Una mquina trmica es aquella que provee de trabajo eficaz gracias a la diferencia de
temperaturas entre dos cuerpos. Dado que cualquier mquina termodinmica requiere una
diferencia de temperatura, se deriva pues que ningn trabajo til puede extraerse de un
sistema aislado en equilibrio trmico, esto es, se requerir de la alimentacin de energa del
exterior. Ese principio emprico, extrado de la observacin continua de cmo funciona el
universo, constituye uno de los primeros enunciados del Segundo Principio de la
Termodinmica: es imposible todo proceso cclico cuyo nico resultado sea la absorcin de
energa en forma de calor procedente de un foco trmico (o reservorio o depsito trmico), y la
conversin de toda sta energa en forma de calor en energa en forma de trabajo.
Enunciados clsicos
La segunda ley de la termodinmica ha sido expresada de muchas maneras diferentes.
Sucintamente, la termodinmica clsica la ha expresado as:
Es imposible un proceso cuyo nico resultado sea la transferencia de energa en forma de
calor de un cuerpo de menor temperatura a otro de mayor temperatura.
Enunciado de Clausius.
Es imposible todo proceso cclico cuyo nico resultado sea la absorcin de energa en forma
de calor procedente de un foco trmico (o reservorio o depsito trmico), y la conversin de
toda sta energa en forma de calor en energa en forma de trabajo.
Enunciado de Kelvin-Planck.
Para todo sistema potencialmente cclico es imposible una nica transferencia de calor tal que
dicho proceso sea recproco y eventualmente reversible..
Enunciado de John De Saint.
Algunos corolarios del principio, a veces empleados como enunciados alternativos, seran:

Ningn proceso cclico es tal que el sistema en el que ocurre y su entorno puedan volver a la
vez al mismo estado del que partieron.
En un sistema aislado, ningn proceso puede ocurrir si a l se asocia una disminucin de la
entropa total del sistema.
Corolario del principio, debido a Clausius.
Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco de
vapor. sta no podra producir trabajo si no fuese porque el vapor se encuentra a temperaturas
y presin elevadas comparados con el medio que la rodea.

Matemticamente, se expresa as:

donde S es la entropa y el smbolo de igualdad slo existe cuando la entropa se encuentra en


su valor mximo (en equilibrio).

Вам также может понравиться