Вы находитесь на странице: 1из 10

Entropa

Para otros usos de este trmino, vase Entropa (desambiguacin).

Escultura dedicada a la entropa en los jardines centrales de la Universidad de Monterrey, Mxico

En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que, mediante clculo,
permite determinar la parte de la energaque no puede utilizarse para producir trabajo. Es una funcin
de estado de carcter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso
que se d de forma natural. La entropa describe lo irreversible de los sistemas termodinmicos. La
palabra entropaprocede del griego () y significa evolucin o transformacin. Fue Rudolf
Clausius quien le dio nombre y la desarroll durante la dcada de 1850; 1 2 y Ludwig Boltzmann, quien
encontr la manera de expresar matemticamente este concepto, desde el punto de vista de la
probabilidad.3

ndice

[ocultar]
1 Evidencias

2 Ecuaciones

o 2.1 Significado

3 Cero absoluto

4 Entropa y reversibilidad

5 Historia de la entropa

6 Interpretacin estadstica de la entropa

o 6.1 Entropa y desorden

o 6.2 Entropa como creadora de orden

o 6.3 Relacin de la entropa con la teora de la informacin

o 6.4 La entropa como flecha del tiempo

7 Vase tambin

8 Referencias

9 Enlaces externos

Evidencias[editar editar cdigo]

Cuando se plantea la pregunta: Por qu ocurren los sucesos en la Naturaleza de una manera
determinada y no de otra manera?, se busca una respuesta que indique cul es el sentido de los
sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa
que finalmente el trozo caliente se enfriar, y el trozo fro se calentar, finalizando en equilibrio trmico.
El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo fro es muy improbable
que se presente, a pesar de conservar la energa. El universo tiende a distribuir la energa
uniformemente; es decir, a maximizar la entropa.

La funcin termodinmica entropa es central para la segunda Ley de la Termodinmica. La entropa


puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se dice que un sistema
altamente distribuido al azar tiene alta entropa. Un sistema en una condicin improbable tendr una
tendencia natural a reorganizarse a una condicin ms probable (similar a una distribucin al azar),
reorganizacin que dar como resultado un aumento de la entropa. La entropa alcanzar un mximo
cuando el sistema se acerque al equilibrio, y entonces se alcanzar la configuracin de mayor
probabilidad.

Una magnitud es una propiedad si, y slo si, su cambio de valor entre dos estados es independiente del
proceso. Esta proposicin puede ser fundamental a la hora de definir la variacin de entropa.

La variacin de entropa, nos muestra la variacin del orden molecular ocurrido en una reaccin
qumica. Si el incremento de entropa es positivo, los productos presentan un mayor desorden molecular
(mayor entropa) que los reactivos. En cambio, cuando el incremento es negativo, los productos son
ms ordenados. Hay una relacin entre la entropa y la espontaneidad de una reaccin qumica, que
viene dada por la energa de Gibbs.

Ecuaciones[editar editar cdigo]

Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada por Rudolf Clausius a

partir de un proceso cclico reversible. En todo proceso reversible la integral curvilnea de slo
depende de los estados inicial y final, con independencia del camino seguido (Q es la cantidad de calor
absorbida en el proceso en cuestin y T es la temperatura absoluta). Por tanto, ha de existir
una funcin del estado del sistema, S=f(P,V,T), denominada entropa, cuya variacin en un proceso
reversible entre los estados 1 y 2 es:

Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en lugar de dQ.

La entropa fsica, en su forma clsica, est definida por la ecuacin siguiente:

o, ms simplemente, cuando no se produce variacin de temperatura (proceso isotrmico):

donde S es la entropa, la cantidad de calor intercambiado entre el sistema y el


entorno y T la temperatura absoluta en kelvin.

Unidades: S=[cal/K]
Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema
termodinmico.

Significado[editar editar cdigo]


El significado de esta ecuacin es el siguiente:

Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico, del estado 1 al estado 2,
el cambio en su entropa es igual a la cantidad de calor intercambiado entre el sistema y el medio
dividido por su temperatura absoluta.

De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la


entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de calor que
entra produce un aumento de entropa menor. Y viceversa.

Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius), definido


como la variacin de entropa que experimenta un sistema cuando absorbe el calor de
1 Julio (unidad) a la temperatura de 1 Kelvin.

Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se convierte en


una inecuacin:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el
sistema y la temperatura de las fuentes. No obstante, sumando un trmino positivo al
segundo miembro, podemos transformar de nuevo la expresin en una ecuacin:

Al trmino , siempre positivo, se le denomina produccin de entropa, y es nulo


cuando el proceso es reversible salvo irreversibilidades fruto de transferencias de
calor con fuentes externas al sistema. En el caso de darse un proceso reversible
y adiabtico, segn la ecuacin, dS=0, es decir, el valor de la entropa es
constante y adems constituye un proceso isoentrpico.

Cero absoluto[editar editar cdigo]


Solo se pueden calcular variaciones de entropa. Para calcular la entropa de un
sistema, es necesario fijar la entropa del mismo en un estado determinado.
La tercera ley de la termodinmicafija un estado estndar: para sistemas
qumicamente puros, sin defectos estructurales en la red cristalina, de densidad
finita, la entropa es nula en el cero absoluto (0 K).

Esta magnitud permite definir la segunda ley de la termodinmica, de la cual se


deduce que un proceso tiende a darse de forma espontnea en un cierto sentido
solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a
congelarse por el otro de forma espontnea, an cuando siga cumplindose la
condicin de conservacin de la energa del sistema (laprimera ley de la
termodinmica).

Entropa y reversibilidad[editar editar cdigo]

La entropa global del sistema es la entropa del sistema considerado ms la


entropa de los alrededores. Tambin se puede decir que la variacin de entropa
del universo, para un proceso dado, es igual a su variacin en el sistema ms la
de los alrededores:

Si se trata de un proceso reversible, S (universo) es cero, pues el calor que


el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es
una situacin ideal, ya que para que esto ocurra los procesos han de ser
extraordinariamente lentos, y esta circunstancia no se da en la naturaleza.
Por ejemplo, en la expansin isotrmica (proceso isotrmico) de un gas,
considerando el proceso como reversible, todo el calor absorbido del medio
se transforma en trabajo y Q= -W. Pero en la prctica real el trabajo es
menor, ya que hay prdidas por rozamientos, por lo tanto, los procesos son
irreversibles.

Para llevar al sistema nuevamente a su estado original, hay que aplicarle un


trabajo mayor que el producido por el gas, lo que da como resultado una
transferencia de calor hacia el entorno, con un aumento de la entropa global.

Como los procesos reales son siempre irreversibles, siempre aumentar la


entropa. As como la energa no puede crearse ni destruirse, la entropa
puede crearse pero no destruirse. Es posible afirmar entonces que, como el
Universo es un sistema aislado, su entropa crece constantemente con el
tiempo. Esto marca un sentido a la evolucin del mundo fsico, que se
conoce comoprincipio de evolucin.
Cuando la entropa sea mxima en el Universo, esto es, cuando exista un
equilibrio entre todas las temperaturas y presiones, llegar la muerte trmica
del Universo (enunciada por Clausius).

En el caso de sistemas cuyas dimensiones sean comparables a las


dimensiones de las molculas, la diferencia entre calor y trabajo desaparece
y, por tanto, parmetros termodinmicos como la entropa, la temperatura y
otros no tienen significado. Esto conduce a la afirmacin de que el segundo
principio de la termodinmica no es aplicable a estos microsistemas, porque
realmente no son sistemas termodinmicos. Se cree que existe tambin un
lmite superior de aplicacin del segundo principio, de tal modo que no se
puede afirmar su cumplimiento en sistemas infinitoscomo el Universo, lo que
pone en controversia la afirmacin de Clausius sobre la muerte trmica del
Universo.

Historia de la entropa[editar editar cdigo]

El concepto de entropa desarrollado en respuesta a la observacin de que


una cierta cantidad de energa liberada de funcionales reacciones de
combustin siempre se pierde debido a la disipacin o la friccin y por lo
tanto no se transforma en trabajo til. Los primeros motores de calor
como Thomas Savery (1698), el Newcomen motor (1712) y el Cugnot de
vapor de tres ruedas (1769) eran ineficientes, la conversin de menos de dos
por ciento de la energa de entrada en produccin de trabajo til; una gran
cantidad de energa til se disipa o se pierde en lo que pareca un estado de
aleatoriedad inconmensurable. Durante los prximos dos siglos los fsicos
investigaron este enigma de la energa perdida, el resultado fue el concepto
de entropa.

En la dcada de 1850, Rudolf Clausius estableci el concepto de sistema


termodinmico y postula la tesis de que en cualquier proceso irreversible una
pequea cantidad de energa trmica Q se disipa gradualmente a travs de
la frontera del sistema. Clausius sigui desarrollando sus ideas de la energa
perdida, y acu el trmino "entropa". Durante el prximo medio siglo se
llev a cabo un mayor desarrollo, y ms recientemente el concepto de
entropa ha encontrado aplicacin en el campo anlogo de prdida de datos
en los sistemas de transmisin de informacin.
Interpretacin estadstica de la
entropa[editar editar cdigo]

En los aos 1890 - 1900 el fsico austraco Ludwig Boltzmann y otros


desarrollaron las ideas de lo que hoy se conoce como mecnica estadstica,
teora profundamente influenciada por el concepto de entropa. Una de las
teoras termodinmicas estadsticas (la teora de Maxwell-Boltzmann)
establece la siguiente relacin entre la entropa y la probabilidad
termodinmica:

donde S es la entropa, k la constante de Boltzmann y el nmero


de microestados posibles para el sistema (ln es la funcin logaritmo
neperiano). La ecuacin asume que todos los microestados tienen la
misma probabilidad de aparecer.

La ecuacin se encuentra grabada sobre la lpida de la tumba


de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central)
de Viena. Boltzmann se suicid en 1906, profundamente deprimido,
quiz por la poca aceptacin de sus teoras en el mundo acadmico de
la poca.4

El significado de la ecuacin es el siguiente:

La cantidad de entropa de un sistema es proporcional al logaritmo natural del nmero


de microestados posibles.

Uno de los aspectos ms importantes que describe esta ecuacin es la


posibilidad de dar una definicin absoluta al concepto de la entropa. En
la descripcin clsica de la termodinmica, carece de sentido hablar del
valor de la entropa de un sistema, pues slo los cambios en la misma
son relevantes. En cambio, la teora estadstica permite definir la
entropa absoluta de un sistema.

La entropa es una magnitud fsica bsica que dio lugar a diversas


interpretaciones, al parecer a veces en conflicto. Han sido,
sucesivamente, asimilados a diferentes conceptos, como el desorden y
la informacin. La entropa mide tanto la falta de informacin como la
informacin. Estas dos concepciones son complementarias. La entropa
tambin mide la libertad, y esto permite una interpretacin coherente de
las frmulas de entropa y de los hechos experimentales. No obstante,
asociar la entropa y el desorden implica definir el orden como la
ausencia de libertad.5 El desorden o la agitacin guardan relacin con
la temperatura.

Entropa y desorden[editar editar cdigo]


Cuando la energa es degradada, dijo Boltzmann, se debe a que

los tomos asumen un estado ms desordenado. Y la entropa

es un parmetro del desorden: sa es la concepcin profunda

que se desprende de la nueva interpretacin de Boltzmann. Por

extrao que parezca, se puede crear una medida para el

desorden; es la probabilidad de un estado particular, definido

aqu como el nmero de formas en que se puede armar a partir

de sus tomos

Jacob Bronowski. El ascenso del hombre (The Ascent of

Man). Bogot, Fondo Educativo Interamericano, 1979, p. 347,

captulo 10 "Un mundo dentro del mundo".

Coloquialmente, suele considerarse que la entropa es el desorden de


un sistema, es decir, su grado de homogeneidad. Un ejemplo domstico
sera el de lanzar un vaso de cristal al suelo: tender a romperse y a
esparcirse, mientras que jams ser posible que, lanzando trozos de
cristal, se construya un vaso por s solo. Otro ejemplo domstico:
imagnense dos envases de un litro de capacidad que contienen,
respectivamente, pintura blanca y pintura negra; con una cucharita, se
toma pintura blanca, se vierte en el recipiente de pintura negra y se
mezcla; luego se toma pintura negra con la misma cucharita, se vierte
en el recipiente de pintura blanca y se mezclan; el proceso se repita
hasta que se obtienen dos litros de pintura gris, que no podrn
reconvertirse en un litro de pintura blanca y otro de pintura negra; la
entropa del conjunto ha ido en aumento hasta llegar a un mximo
cuando los colores de ambos recipientes son sensiblemente iguales
(sistema homogneo).

No obstante, considerar que la entropa es el desorden de un sistema


sin tener en cuenta la naturaleza del mismo es una falacia. Y es que hay
sistemas en los que la entropa no es directamente proporcional al
desorden, sino al orden.

Entropa como creadora de orden[editar editar


cdigo]
A pesar de la identificacin entre la entropa y el desorden, hay muchas
transiciones de fase en la que emerge una fase ordenada y al mismo
tiempo, la entropa aumenta. En este artculo se muestra que esta
paradoja se resuelve haciendo una interpretacin literal de la famosa
ecuacin de Boltzmann S = k log W. Podemos verlo en la segregacin
de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden
a separarse. Tambin en la cristalizacin de esferas duras: cuando
agitamos naranjas en un cesto, stas se ordenan de forma espontnea.
De estos casos se deduce el concepto de fuerza entrpica o interaccin,
muy til en la ciencia de polmeros o ciencia coloidal.6

Relacin de la entropa con la teora de la


informacin[editar editar cdigo]
Vase tambin: Entropa (informacin)

Recientes estudios han podido establecer una relacin entre la entropa


fsica y la entropa de la teora de la informacin gracias a la revisin de
la fsica de los agujeros negros. Segn la nueva teora de Jacob D.
Bekenstein el bit de informacin sera equivalente a una superficie de
valor 1/4 del rea de Planck. De hecho, en presencia de agujeros negros
la segunda ley de la termodinmica slo puede cumplirse si se introduce
la entropa generalizada o suma de la entropa convencional (Sconv) ms
un factor dependiente del rea total (A) de agujeros negros existente en
el universo, del siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la


luz, G es la constante de la gravitacin y es la constante de
Planck racionalizada.

Los agujeros negros almacenaran la entropa de los objetos que


engulle en la superficie del horizonte de sucesos. Stephen
Hawking ha tenido que ceder ante las evidencias de la nueva teora
y ha propuesto un mecanismo nuevo para la conservacin de la
entropa en los agujeros negros.

Simplemente, al realizar un trabajo, se ocupa muy poca energa; la


entropa se encarga de medir la energa que no es usada y queda
reservada en un cuerpo.

Вам также может понравиться