Вы находитесь на странице: 1из 1

Ensemble Canónico – Parte I (Entrega Viernes 10/10/08)

1. Sistema de dos estados (Schottky) Considere un sistema formado por N unidades independientes,
cada una de las cuales admite dos estados, de energı́as ±ǫ respectivamente.

a) calcule Z
b) calcule < E > (T ) y compare con los resultados obtenidos en el ensemble microcanónico.
c) calcule CV y haga un gráfico de CV vs T . La forma que se derivó para el calor especı́fico
aparece en muchos sistemas, y se denomina a veces “calor especı́fico de Schottky”. También
“anomalı́a de Schottky”. El pico caracterı́stico en CV a temperaturas intermedias es observado
con frecuencia pues muchos sistemas se comportan aproximadamente como un sistema de dos
estados, por lo menos a temperaturas bajas.
d) muestre que CV se comporta como
1) T −2 a temperaturas altas.
2) T −2 e−2ǫ/KT a temperaturas bajas.

2. Oscilador armónico: para N osciladores armónicos cuánticos (En = (n + 1/2)~ω):

a) calcule Z(T ), E(T ) y CV (T ).


b) Analize el comportamiento de CV cuanto KT << ~ω, y compare con un sistema de dos estados.
Explique a qué cree que se debe la similaridad.
c) Analize el comportamiento de CV cuando KT >> ~ω, y compare con un sistema de dos
estados. Explique el origen de la diferencia.

3. Entropı́a como medida de “ignorancia”

a) Considere un ensemble microcanónico


P de microestados discretos r, para el cual formalmente
podemos escribir Ω(E, V ) = r δ(E − Er ). Muestre que la entropı́a S se puede expresar, en
el ensemble microcanónico, como
X
S = −k < log(pr ) >E = −k pr log(pr ) (1)
r

donde <>E significa valor medio en el ensemble microcanónico, y pr es la probabilidad micro-


canónica de un microestado r.
P −βEr
b) Trabajando ahora en el ensemble canónico a temperatura T , en cuyo caso Z = re ,
muestre que la entropı́a se puede expresar también como
X
S = −k < log(pr ) >T = −k pr log(pr ) (2)
r

donde ahora <>T significa valor medio en el ensemble canónico, y pr es la probabilidad canóni-
P r.
ca de un microestado
El funcional − r pr log(pr ) se llama “Entropı́a de Shannon”, y constituye una medida del
“desconocimiento” con respecto al estado especı́fico en que se encuentra el sistema, en situa-
ciones en que sólo sabemos con qué probabilidad se puede hallar en cada uno de los estados
r.

Вам также может понравиться