Академический Документы
Профессиональный Документы
Культура Документы
EA/0 5 k l m n
1 a
G. NAVASCUS
23/10/2004
A B Lo que he hecho para 2 osciladores se puede repetir para 4, es decir buscar los posibles valores para la energa ET de los estados MACROSCOPICS y contar cuantos estados microscpicos le corresponden. ET es la suma de las energas de 4 osciladores: ET = (n1) + (n2) + (n3) + (n4) = (2+n1+n2+n3+n4)0 = (2+M)0 con M=n1+n2+n3+n4=0,1,2,3 ..., T(E,N=4) = .... = (M+3)!/M!3! = 1,2,3,4,... para M=0,1,2,3,...., etc. etc. El resultado se muestra en el diagrama siguiente
E/0
B ib' ic' -- --
ma' na' a' ---ed' ee' ef' fd' fe' ff' -- -- --- -- -an' a' bg' bh' bi' bj' -- --- -- -- --
gb' -cg' --
jb' jc' -- --
ga' -ag' --
ha' -ah' --
ia' -ai' --
ja' -aj' bd' be' bf' cd' ce' cf' db' dc' eb' ec' fb' fc' -- -- -- -- -- -- -- -- -- -- -- -- --
ad' ae' af' bb' bc' cb' cc' da' ea' fa' -- -- -- -- -- -- -- -- -- --
aa' --
que como se ve cada microestado es una combinacin de un microestado de cada subsistema. Supongamos que tenemos el sistema de 4 osciladores aislado y con una energa total ET=60. Sea la energa que sea de A y de B y sea el que sea el microestado en el que estn A y B se deba cumplir en todo momento que ET = 60 = EA + EB. El nmero de microestados con ET = 60 son 35 que se obtienen de hacer las combinaciones de estados de A con los de B: T(E,N=4)= 1 x 5 + 2 x 4 + 3 x 3 + 4 x 2 + 5 x 1 = 5 + 8 + 9 + 8 + 5 = 35 = A(EA ) B(EB) = A(EA ) B(ET-EA) EA EA
G. NAVASCUS
23/10/2004
60
ma' na' a' ---ed' ee' ef' fd' fe' ff' -- -- --- -- -an' a' bg' bh' bi' bj' -- --- -- -- --
gb' -cg' --
ib' ic' -- --
jb' jc' -- --
Ahora voy a clasificar los 35 microestados basndome en como se obtienen de la combinacin de los microestados de los subsistemas A y B:
PA(EA)
PB(EB)
pA(Ei=EA)
pB(Ei=EB)
EA 0 0
EB
G. NAVASCUS
23/10/2004
La probabilidad de que un sistema est en un preciso microestado de energa E es proporcional RU(ET E), donde ET es la energa total del universo, y RU el nmero de estados del resto del universo: p(E) RU(ET E)
y la ms til como veremos:
La probabilidad de que un sistema est en un macroestado de energa E (o lo que es lo mismo en cualquiera de los microestados de energa E) es proporcional al producto (E)RU(ET E), donde ET es la energa total del universo, y y RU son el nmero de estados del sistema y del resto del universo respectivamente: P(E) (E)RU(ET E)
Haciendo nmeros en el ejemplo de los 4 osciladores se tienen los resultados (ver recuadro adjunto) para las distintas probabilidades de los subsistemas A y B y el sistema total. Es un ejercicio elemental pero compruebe que lo entiende. Es fundamental entenderlo!
G. NAVASCUS
23/10/2004
Para que la energa total sea 6 (en unidades de =0) las posibles combinaciones energticas de los subsistemas, del ejemplo de los 4 osciladores, deben ser: EA EB=ET-EA EA+EB 1 5 6 2 4 6 3 3 6 4 2 6 5 1 6
Por lo que el nmero total de estados del sistema total (con ET=6) es T(ET=6) = A(EA)xB(EB)= = 1x5 + 2x4 + 3x3 + 4x2 +5x1 = 5 + 8 + 9 +8 +5 = 35 como debe ser. Los 35 estados son igualmente probables, todos tienen la misma energa total ET=60. La probabilidad de que el sistema est en cualquiera de esos 35 estados debe ser 1/35, o, en media, cada 35 unidades de tiempo el sistema cambiar de estado. Pero no todos los estados son iguales, en algunos la energa de A es pequea y la de B es grande y viceversa. Del sistema total ya est dicho todo en este ejemplo. La probabilidad pA(Ei = EA) de que el subsistema A est en UN preciso microestado de entre los que tienen energa EA, pudiendo ser EA=1,2,3,4 o 5. Naturalmente para que A est en ese estado y por tanto tenga esa energa, el subsistema B tiene que tener la energa complementaria EB=ET EA, es decir puede estar en CUALQUIERA de los microestados de energa de energa EB=ET EA. Est claro que, cuantos ms microestados tenga B con esa energa complementaria, ms posibilidades tendr A de estar en el microestado propuesto, es decir que como se ha dicho antes pA(Ei = EA) es proporcional a B(ET EA). Si se incluye una constante de normalizacin: pA(Ei =EA) =B(ET EA)/ T(ET). La constante de normalizacin ahora es 1/T(ET)=1/35. Por lo tanto: Estado i Energa Ei B(ETEi) pA(Ei) a 1 5 5/35 b 2 4 4/35 c 2 4 4/35 d 3 3 3/35 e 3 3 3/35 f 3 3 3/35 g 4 2 2/35 h 4 2 2/35 i 4 2 2/35 j 4 2 2/35 k 5 1 1/35 l 5 1 1/35 m n 5 5 1 1 1/35 1/35 5 1 1/35
De manera anloga se obtendran las probabilidades pB. Ahora podramos preguntarnos por la probabilidad PA(EA) de que el subsistema A est en CUALQUIER estado de energa EA, sin importar en que preciso microestado con tal que tenga la energa EA. Naturalmente para que A tenga esa energa el otro subsistema, otra vez, tiene que tener la energa complementaria EB=ET EA. E igual que antes, cuantos ms estados tenga B con la energa complementaria, ms posibilidades tendr A de tener la energa EA, es decir PA(EA) ~ B(ET EA). TAMBIN, esto es nuevo, cuantos ms estados tenga A con esa energa tambin aumentar la esta probabilidad, as que como tambin se ha dicho antes: PA(EA) ~ A(EA) B(ET EA). Si se normaliza esta probabilidad se llega a PA(EA)=A(EA) B(ET EA)/ T(ET) EA P(EA) 1 5x1/35=1/7 2 2x4/38=4/19 3 3x3/35=9/35 4 4x2/35=4/19 5 5x1/35=1/7
G. NAVASCUS
23/10/2004
4. EA
EB =ET-EA
9
9 8 7 6 5 4 5 3 4 2 3 1 2 2 3 4 5
8 7 6 5 4 3 2 1
EB
EA
ET=6
Nos fijamos ahora en esta probabilidad: la de encontrar un subsistema con una energa, sin importarnos en qu preciso microestado de esa energa est. Observamos que PA(E) es producto (salvo la constante de normalizacin) de dos funciones nmero de estado, A(E) y B(E), y por tanto, en el caso usual, crecientes con la energa. Sin embargo el argumento de una de ellas es la energa complementaria as que finalmente P es el producto de dos funciones una creciente A(E) y la otra decreciente. A(ET-E). En la figura se muestran estas dos funciones y se ve claramente como una crece y la otra decrece con la energa del subsistema elegido, el A (y viceversa si hubiramos elegido el subsistema B). Las lneas verticales rojas es el producto de ambas funciones en cada energa de A y por tanto es la funcin de probabilidad PA (salvo el factor trivial de normalizacin).
G. NAVASCUS
23/10/2004
B(EB=ETEi) ~ pA(Ei)
A(EA) ~ pB(Ei=ET-EA)
B EA EB=ET-EA
Con las ideas expuestas voy a definir el Peso Estadstico y ver que significa en el ejemplo de los 4 osciladores. Luego expondr cmo va perfilndose su significado conforme el sistema contiene ms y ms partculas. Finalmente para mayor claridad describir un sistema de 5000 osciladores que aun no siendo realmente macroscpico ilustra a la perfeccin el efecto de aumentar el nmero de partculas (osciladores en nuestro caso) del sistema. Por definicin:
G. NAVASCUS
23/10/2004
B(EB=ETEi) ~ pA(Ei)
A(EA) ~ pB(Ei=ET-EA)
G. NAVASCUS
23/10/2004
EA EB=ET-EA
Las energas de los estados del Peso Estadstico se restringen a un intervalo infinitesimal. Las energas correspondientes del sistema TOTAL tienen prcticamente la totalidad de los estados.
Si llamamos <EA> a la energa media de los estados del Peso Estadstico y EA al intervalo de la energa del Peso Estadstico, nos damos cuenta de que esta energa es el valor medio de la energa del sistema A y por tanto PESO ESTADSTICO DE A = A(<EA>)EA; en general se podr escribir: PESO ESTADSTICO = (<E>)E Lo que indica que el Peso Estadstico crece asombrosamente tambin con la energa.
G. NAVASCUS
23/10/2004
se escribe A=A(EA,N,V), se sobreentiende que se trata de la energa media. As que el Peso Estadstico en una funcin de E, N y V. Observe que existe cierta ambigedad en la determinacin del intervalo de energas ya que depende de un criterio aparentemente vago, el de que los estados sean visitados de manera significativa por el sistema A. Significativa? Sin embargo esto no ser ningn problema como veremos ms adelante. --------------------------------Simultneamente por simetra: PESO ESTADSTICO DE B = B(EB)EB= B(ET -EA)EB. Como EA = EB y que Peso Estadstico del sistema total debe obtenerse de la combinacin del nmero de estados con mayor peso probabilstico de los dos subsistemas, es decir del producto de los pesos estadsticos: PESO ESTADSTICO DEL SISTEMA TOTAL = = PESO ESTADSTICO DE A = x PESO ESTADSTICO DE B =
Observe que el Peso Estadstico del sistema total (que est aislado) es prcticamente el nmero total de de microestados accesibles, mientras que no es ni mucho menos lo que pasa con los subsistemas, es ms hay rangos de energa de los subsistemas ( correspondientes a mayores energa que la media) con muchos (muchsimos) ms microestados. Fjese que el Peso Estadstico del sistema total como producto de pesos estadsticos de los dos subsistemas no se cumple en el ejemplo de los 4 osciladores. Este producto slo tiene sentido en el caso de sistemas macroscpicos. En cualquier caso el Peso Estadstico del sistema total es prcticamente igual a su nmero de microestados como hemos visto antes y este nmero si que es el del caso de los 4 osciladores. Este ejemplo fue elegido para ilustrar las ideas pero no es posible hacerlo con todas ellas ya que son propias de sistemas macroscpicos. Para acabar la presente discusin note que se puede generalizar la expresin del Peso Estadstico (PE) como producto de pesos estadsticos si el sistema es dividido en dos o ms subsistemas. PE del sistema TOTAL = PE de A x PE de B x PE de C x PE de D x .... = = A(<EA>)EA x B(<EB>)EB x C(<EC>)EC x D(<ED>)ED x ....
G. NAVASCUS
23/10/2004
10
EB|(EB)
La mayora de los estados del sistema total estn en esta zona (Peso Estadstico del sistema total)
dET
EB|(EB)
Los estados del sistema A con probabilidad de estar ocupados (Peso Estadstico del sistema A) estn en esta zona de energas que debe corresponder a <EA>
G. NAVASCUS
23/10/2004
11
EB
Microestados de B en funcin de la energa 15000
!!!
10000 10
6000
105000
5000
104000 10
3000
107000
EA
15000
G. NAVASCUS
23/10/2004
12
S = k Ln (Peso Estadstico)
Donde k es la constante de Boltzmann e igual a 1.38x10-16 erg/K. De momento es una definicin pero veremos que coincide con la entropa termodinmica y por tanto esta expresin es de extraordinario inters ya que establece un vnculo entre el mundo macroscpico (la entropa termodinmica) y el microscpico (el Peso Estadstico). La entropa es, por definicin, una medida del nmero de estados que el sistema visita con probabilidad significativa. La constante k es simplemente un factor para que la Entropa aqu definida, coincida numricamente y con las unidades correspondientes con la entropa termodinmica. El logaritmo juega un papel importante en esta identificacin. De momento lo que hace es planchar literalmente el extraordinario crecimiento del Peso Estadstico con E. S como funcin de E puede dibujarse sin problemas. Pero an ms importante, la propiedad de factorizacin del Peso Estadstico se convierte en SUMA con el logaritmo: S(ET) = SA(<EA>)+ SB(<EB>)+SC(<EC>)+ SD(<ED>)+. Es decir la entropa es una magnitud EXTENSIVA; la entropa de un sistema es la suma de las entropas de sus partes, como lo son las variables macroscpicas V o N. Como el peso estadstico es una funcin de E y de posibles parmetros externos como N y V, la entropa tambin lo es S=S(E,N,V,...) A pesar de las diferencias (E) < 0(E) y (en los sistemas estadsticamente normales) (E)E < 0(E), la entropa, S=k Ln [(E)E], se puede evaluar tambin como S = k Ln[0(E)] o como S = k Ln[(E)]. Esto es debido a que las diferencias mencionadas acaban siendo totalmente despreciables al tomar el logaritmo. Veremos este comportamiento en distintos problemas con un nmero macroscpico de partculas. El mnimo valor posible del Peso Estadstico es 1, por tanto PE1, y como consecuencia S 0. La entropa no puede ser negativa La entropa es una funcin cncava con respecto a la energa (y con respecto a N y V). Para llegar a esta conclusin se puede utilizar el mismo argumento de equilibrio que en Termodinmica. (E), 0(E), (E) S=kLn((E)E =k Ln[0(E)]= k Ln[(E)]
G. NAVASCUS
23/10/2004
13
A(EA) ~ pB(Ei=ET-EA)
S=SA+SB=k LnT
SB = kLn[B(EB)] SA = kLn[A(EA)]
EB=ET-EA
( E A1) ( E A2) =< E A > ( E B1) ( E B2) =< E B >
EA
( E A1)
( E B1)
( E A2 ) =< E A >
G. NAVASCUS
23/10/2004
14
Todas estas consideraciones nos llevan establecer: LEY DE CRECIMIENTO DE LA ENTROPA: EN UN SISTEMA AISLADO QUE NO EST EN EQUILIBRIO LO MS PROBABLE ES QUE LA ENTROPA AUMENTE Lo que quiere decir que puede haber fluctuaciones que nos alejen temporalmente del equilibrio o de la evolucin hacia el equilibrio. S puede decrecer. En termodinmica no, es ms estricta en este respecto. Que S tenga una mayor probabilidad de crecer no quiere decir que la entropa crezca en todas las partes del sistema: lo usual es que crezca en unas partes y decrezca en otras, aunque crece ms en aquellas que decrece en estas. El proceso macroscpico que nos lleva al equilibrio (aunque no de forma inexorable), es decir el proceso ms probable es lo que lamamos proceso IRREVERSIBLE. Si la entropa se mantiene en su mximo el proceso es llamado REVERSIBLE. Ms consideraciones sobre la ENTROPA: En un sistema clsico podemos expresarla como S=k Ln[(E)/h2fN] As la defini Gibbs pensando determinar h (una constante que nada tena que ver con la de Planck por entonces) mediante medidas experimentales. Sin embargo las medidas experimentales siempre estn en relacin con cambios de entropa S= S2-S1 = k Ln[2(E)/h2fN] - k Ln[1(E)/h2fN] = k Ln[2(E)/ 1(E)] que ya no depende de h. La entropa puede definirse como k<Ln[p(E)]>. En efecto en un sistema aislado p(E)=1/(E) con lo que <Ln[p(E)]> = <Ln[1/(E)]> = 1/(E) Ln[1/(E)] = - Ln[1/]/ = -Ln[] 1/ = - Ln[] y por tanto -k <Ln[p(E)]> = k Ln[] c. q. d.
(Veremos que esta definicin de entropa puede aplicarse a sistemas no aislados, es decir a otro conjuntos estadsticos que no sean el microcannico) Si dividimos el sistema en partes macroscpicas con tiempos de relajacin de equilibrio, i, ms pequeos que el del sistema total, , cada subsistema puede llagar al equilibrio interno, antes que el sistema total, es decir antes que el equilibrio entre subsistemas. Cualquier medida que use un tiempo t tal que >t>i an podremos hablar de la entropa de cada subsistema. Si volvemos a dividir el sistema en un nmero mayor de subsistemas podremos seguir hablando de la entropa de los subsistemas si an se cumple que >t>i . Este proceso lo podemos seguir haciendo con cada vez con subsistemas ms pequeos correspondindoles tiempos de relajacin ms pequeos, pero no podemos llevar este proceso al lmite ya que dejaran de ser subsistemas macroscpicos. La entropa est ligada, por tanto, a un tiempo finito tal como ocurre con otras variables macroscpicas como la presin. Observe que la entropa aqu definida tiene todas las propiedades de la entropa termodinmica, salvo el carcter determinista. En el siguiente tema veremos que se relaciona con otras variables termodinmicas en la misma forma as que podemos no solo identificar ambas entropas sino que la Mecnica Estadstica justifica la Termodinmica y da explicacin al misterioso comportamiento de la entropa termodinmica.
G. NAVASCUS
23/10/2004
16