DelRio Mec Est Cap 6

Texto completo

(1)

Cap´ıtulo 6

Distribuciones y ensambles

6.1.

Distribuci´

on microcan´

onica

El principio fundamental de Boltzmann-Gibbs es suficiente para deter-minar la densidad de probabilidad p( ), en el caso cl´asico, y la matriz de densidades {⇢nm}, en el cu´antico. El estado macrosc´opico del sistema, que

suponemos esencialmente aislado, est´a determinado por: el n´umero de e-lementos N (por lo com´un part´ıculas) que lo constituyen, el volumen V que ocupan -que suponemos finito- y su energ´ıa E, as´ı como por cualquier otra constricci´on termodin´amica, tal como un campo gravitacional o elec-tromagn´etico est´atico, que se imponga al sistema desde su exterior.1 A este macroestado lo denotamos por

Y =Y(E, N, V, . . .) (6.1)

y las distribuciones de probabilidad correspondientes, dadas por las Ecs (5.12) y (5.22), se conocen como distribuciones microcan´onicas o ENV.

A un macroestadoY le corresponden un conjuntoCA(Y) de microestados

accesibles. Cu´anticamente, para un sistema en V < 1, el conjunto CA(Y)

tiene un n´umero finito, aunque muy grande, de elementos. La normalizaci´on de {⇢nm} es: X

CA(Y)

⇢nn = 1,

con lo cual el principio de Boltzmann-Gibbs, Ecs (5.22), nos permite ex-traer de la suma los elementos constantes⇢nn que conforman la distribuci´on

1La indeterminaci´on en la energ´ıa, E, resultado del aislamiento imperfecto, no es una

variable termodin´amica y se toma como un par´ametro constante.

(2)

microcan´onica cu´antica

⇢nn=

1

P

CA nn

, (6.2)

para todo estadon 2CA(Y); en esta ecuaci´on se us´o la delta de Kronecker ij con ii = 1 y ij = 0 si i 6=j El denominador en esta ecuaci´on es muy

importante: es el n´umero de estados accesibles al sistema, es decir, el n´umero de elementos deCA(Y) y que escribimos

W(Y) =X

CA

nn. (6.3)

Esta definici´on permite enunciar con palabras el contenido de la distribu-ci´on microcan´onica: como para un sistema aislado y en equilibrio todos sus estados accesibles son igualmente probables, la probabilidad de encontrar al sistema en uno de ellos es igual al inverso deW(Y):

⇢nn =

1

W(Y). (6.4)

Si recordamos que el principio de Boltzmann-Gibbs dice que ⇢mn = 0 para

m6=n, la matriz de densidad microcan´onica puede as´ı escribirse como,

⇢nm= nm

W(Y). (6.5)

Veamos ahora el caso cl´asico, en el cual el sistema tiene un n´umero infinito de microestados accesibles: todas las fases 2 <A(Y). Debido a que

p( ) debe estar normalizada en<A(Y) se tiene que

Z

<A

d p( ) = 1,

y, por consiguiente, la constancia dep( ) sobre<A(Y) que exige el principio

de Bolztmann-Gibbs, Ec (5.12), lleva a que la distribuci´on microcan´onica sea ahora

p( ) = R 1 <Ad

. (6.6)

Es muy conveniente extender el concepto de n´umero de estados CA(Y) para el caso cl´asico. Para hacerlo, tomamos una peque˜na celda elemental

0 en el espacio ,

0=

l

Y

i=1

(3)

6.1. DISTRIBUCI ´ON MICROCAN ´ONICA 159

y hacemos una partici´on de <A(Y) en celdas elementales, todas del mismo tama˜no | 0|. Como | 0| es muy peque˜no, decimos que todas las fases dentro de una de las celdas corresponden al mismo microestado. (Como criterio pr´actico, bastar´ıa tomar a q0 y p0 menores que la incertidumbre experimental en las mediciones de las variables q y p.) Podemos as´ı definir el n´umero de estados accesibles en el caso cl´asico como el n´umero de celdas dentro de la regi´on <A(Y), es decir2

W(Y) = 1

| 0|

Z

<A

d . (6.8)

Como | 0| es peque˜na, W(Y) en (6.8) es un n´umero muy grande. Pero, a diferencia del tratamiento cu´antico en el cual W(Y) est´a inequ´ıvocamente determinada por la Ec (6.3), el n´umero de estados cl´asico en (6.8) es ar-bitrario en tanto el tama˜no | 0| de la celda elemental tambi´en lo es. Por supuesto, esta arbitrariedad en la definici´on cl´asica de W(Y) no debe tener consecuencias en la aplicaci´on de la mec´anica estad´ıstica cl´asica. Ahora bien, como el producto q0 p0 tiene dimensiones de acci´on, y la forma de la celda elemental es arbitraria, podemos tomar para todos los grados de libertad (i = 1, . . . , l) que | q0 p0| = h, un par´ametro con dimensiones de acci´on, con lo cual,

| 0|=| q0 p0|l=hl. (6.9) Al tomarse el l´ımite cl´asico del n´umero de estados cu´anticos en (6.3) y usar el principio de correspondencia, se prueba que el tama˜no de la celda elemental h debe ser igual a la constante de Planck3. Con esta medida de la celda elemental, la Ec (6.8) se reescribe como,

W(Y) = 1 hl

Z

<A

d , (6.10)

y la Ec (6.6) para la densidad microcan´onica cl´asica se convierte en,

p( ) = 1

hlW(Y), (6.11)

2En esta definici´on se nota una ventaja de tratar con sistemas esencialmente y no

per-fectamente -aislados, ya que si E = 0, la dimensionalidad de <A(Y) ser´ıa distinta de

la del espacio (ya que se tratar´ıa de una hipersuperficie). El tomar E 6= 0 tambi´en es ventaja en el caso cu´antico; ya que en caso contrarioW(Y), dada por (6.3), s´olo ser´ıa distinta de cero si E coincidiese con un eigenvalorEn. Sin embargo, para sistemas

ma-crosc´opicos esencialmente aislados, con E6= 0, dada la gran proximidad entre los niveles

En, la funci´onW(E) puede considerarse continua ante variaciones deE.

3La demostraci´on la puede ver el lector interesado en el libro de Huang, citado en la

(4)

que tiene forma similar a su equivalente cu´antico, Ec (6.4).

Conviene unificar en este punto la notaci´on para los casos cl´asico y cu´antico. Para ello aprovechamos que, por ser | 0| muy peque˜na, a to-das las fases dentro de cualquier celda elemental en <A(Y) le asociamos

un solo microestado cl´asico. Entonces denotamos por⌘a un microestado del sistema; ⌘ ser´a, bien un cierto estado cu´antico n o bien una fase dentro de una cierta celda elemental. De esta forma podemos hablar de la probabi-lidad P(⌘) de que el sistema est´e en el microestado⌘. Seg´un se trate de la descripci´on cu´antica o cl´asica, esta probabilidad ser´a,

P(⌘) =

⇢nn,

p( ) 0, (6.12)

para los casos cu´antico y cl´asico, respectivamente; de las Ecs (6.27), (6.32) y (6.33) encontramos que esta distribuci´on de probabilidad microcan´onica puede escribirse en todo caso simplemente como,

P(⌘) = 1

W(Y), (6.13)

conW(Y) dado por (6.3) o (6.10). Por ´ultimo, tambi´en conviene extender el significado de CA(Y) a la descripci´on cl´asica, de modo que CA(Y) sea

en cualquier caso igual al conjunto de microestados o celdas elementales ⌘

accesibles al sistema.

El ensamble microcan´onico

La distribuci´on microcan´onica est´a dada por (6.13) en t´erminos del n´umero de estados W(Y), y con ella se calculan los promedios de observables de sistemas aislados y en equilibrio.

Sin embargo, para poder avanzar es necesario introducir un concepto de gran importancia: el ensamble o conjunto estad´ıstico 4. En general un en-samble esun conjunto de sistemas hipot´eticos que representa las propiedades estad´ısticas de un sistema de inter´es S y est´a constituido por un conjunto deN >>1 sistemas con las siguientes caracter´ısticas:

1a) todos los sistemas del ensamble son id´enticos a S, esto es, tienen la misma hamitoniana H u operador hamiltoniano ˆH que S ;

4Otros t´erminos usados en espa˜nol para el ensamble son ´colectivo’, ´conjunto

(5)

6.1. DISTRIBUCI ´ON MICROCAN ´ONICA 161

2a) los sistemas son independientes unos de otros;

3a) todos ellos est´an en el mismo macroestadoY que el sistemaS y est´an sujetos a las mismas constricciones termodin´amicas, por tanto tienen los mismos microestados accesibles CA(Y), y

4a) est´an distribuidos de una manera especfica sobre sus microestados

CA(Y).

El ensamble correspondiente a un sistema aislado en el macroestado Y = (E, N, V) se conoce como ensamblemicrocan´onicoo ENV; sus sistemas est´an distribuidos uniformemente sobre CA(Y), es decir, de acuerdo con la

distribuci´on microcan´onica..

Ahora bien, siN(⌘) es el n´umero de sistemas del ensamble en el estado

⌘, la fracci´on ⌫(⌘) de sistemas en⌘ es

⌫(⌘) =N(⌘)/N

y comoN >>1, de acuerdo con la definici´on de probabilidad (2.63), tenemos que

⌫(⌘) =P(⌘). (6.14)

Es decir, si observamos el microestado de los sistemas del ensamble, la pro-babilidad de encontrarlos en⌘esP(⌘). Por la construcci´on del ensamble (4a caracter´ıstica), los microestados de sus miembros se realizan con la misma probabilidad que los del sistema de inter´es. M´as adelante veremos otros en-sambles que corresponden a sistemas que no est´an aislados; estos ensambles difieren del microcan´onico en la especificaci´on del macrostado Y y en la distribuci´on apropiada (4a caracter´ıstica).

Debido a que los sistemas del ensamble son id´enticos, al describir cl´ asica-mente su din´amica usamos el mismo espacio para representar las fases j

(j= 1, . . . ,N) de cada uno de ellos. Los microestados del ensamble quedan as´ı representados por N puntos en , cada uno de los cuales se mover´a de acuerdo con las ecuaciones de Hamilton. Por las Ecs (6.12) y (6.14), la pro-babilidad p( ) 0 es proporcional al n´umero de puntos N( ) en la celda elemental centrada en la fase . A´un m´as, como consecuencia del teorema de Liouville,N( ) permanece constante en cualquier celda 0 mientras los puntos j(t) evolucionan con su movimiento natural.

En la descripci´on cu´antica se obtiene la misma equivalencia con el en-samble: el microestado nj (j = 1, . . . ,N) de cada uno de sus miembros se

(6)

el conjunto deN funciones de onda que evolucionan, cada una, de acuerdo con la misma ecuaci´on de Schr¨odinger. Al representar estos microestados en t´erminos de la misma base de estados estacionarios { n} los elementos

diagonales de la matriz de densidades ⇢nn ser´an proporcionales al n´umero

N(n) de sistemas del ensamble que, al hacer una observaci´on de la energ´ıa, se encuentran con n´umeros cu´anticosn. Como cada miembro del ensamble sigue la misma din´amica, la versi´on cu´antica del teorema de Liouville lleva a que el n´umeroN(n) permanezca constante en el tiempo.

La introducci´on de los ensambles, debida al genio de JW Gibbs, introduce una visi´on est´atica, o mejor dicho, sincr´onica, de las propiedades estad´ısti-cas del sistema de inter´es. En esta visi´on ya no se maneja al tiempo como variable, ya que las distribuciones de probabilidad de sistemas en equilibrio son estacionarias. Gran parte de la discusi´on y de los resultados de las sec-ciones 4.4, 4.5, y 4.6 se pueden traducir al lenguaje de ensambles: la hip´otesis erg´odica, la ecuaci´on de Liouville y el mismo principio de Boltzmann-Gibbs. En esta descripci´on sincr´onica, que es la m´as usual en los textos de mec´ ani-ca estad´ıstiani-ca, observamos al ensamble en un instante cualquiera: el tiempo desaparece de la discusi´on. Ello contrasta con la visi´ondiacr´onicaque hemos usado al analizar la evoluci´on de un sistema con el tiempo. Aunque en la discusi´on, enunciado y aplicaci´on del principio fundamental de Boltzmann-Gibbs se puede usar el lenguaje sincr´onico de los ensambles, hay un punto esencial en donde la descripci´on diacr´onica es indispensable: al analizar la naturaleza de las mediciones macrosc´opicas. En efecto, los instrumentos con los que se miden las propiedades macrosc´opicas o termodin´amicas - incluso en el caso cu´antico - no efect´uan promedios sobre ensambles de sistemas, sino sobre estados de un solo sistema que evoluciona diacr´onicamente.

6.2.

Densidad de estados

El n´umero de estados accesibles W(Y) = W(E, N, V) de un sistema

S aislado y en equilibrio es una cantidad muy importante; en esta secci´on analizaremos algunas de sus propiedades. Para un sistema conN >>1, la funci´onW(E, N, V) puede tomarse como continua al variarN.5La variaci´on con V es en general continua, como tambi´en lo es respecto a variaciones de la energ´ıa E en la descripci´on cl´asica. En el caso cu´antico, un sistema macrosc´opico tiene niveles de energ´ıa muy pr´oximos unos de otros, como se discuti´o en la secci´on 4.9, y podemos tambi´en considerar a W(E, N, V)

5No obstante, es com´un manejar aN como variable discreta, porque facilita algunos

(7)

6.2. DENSIDAD DE ESTADOS 163

como una funci´on continua deE. Adem´as, como el valor de referencia para medir las energ´ıas es arbitrario, en adelante tomaremos a la energ´ıa m´ınima del sistema como E= 0 en ambos casos, cl´asico y cu´antico.

Definimos ahora una nueva cantidad para el sistema aislado: el n´umero total de estados, denotado por ⌦0(E), como el n´umero de estados accesibles a S con energ´ıas iguales o menores queE, es decir,

⌦0(E) = 1 hl

Z

H<E

d , (6.15a)

y

⌦0(E) = X

n2CA(<E)

nn, (6.15b)

en los casos cl´asico y cu´antico, respectivamente. A partir de⌦0(E) definimos la densidad de estados

⌦(E) =

@⌦0(E)

@E

N,Y

. (6.16)

En t´erminos de esta densidad, el n´umero total de estados queda como

⌦0(E) =

Z E

0

dE0⌦(E0), (6.17)

y el n´umero de estados accesibles con energ´ıa entre E yE+ E como

W(E, E) =

Z E+ E

E

dE0⌦(E0). (6.18)

En el l´ımite cuando E se anula, es decir, paraS estrictamente aislado, se encuentra as´ı que

⌦(E) = l´ım

E!0

W(E, E)

E .

o bien,

⌦(E) E=W(E, E), ( E << E). (6.19)

Sistemas termodin´amicos normales

(8)

que comparten la gran mayor´ıa de los sistemas termodin´amicos que obser-vamos en la naturaleza. En el resto de esta secci´on haremos expl´ıcitas estas propiedades.

Primero, para una funci´on y(x) de la variable x, decimos que “y es de ordenx”, y escribimosy(x) =O(x), siy(x) crece linealmente con x cuando x! 1, esto es:

y(x) =O(x) si 0< l´ım

x!1|y/x|<1. (6.20)

En la definici´on de los sistemas normales consideramos la energ´ıa interna por part´ıcula

✏=E/N. (6.21)

Las condiciones que se exigen a un sistema para que sea normal son cuatro:

Primera condici´on.Su energ´ıa interna es extensiva. Con la notaci´on (6.20), esto se escribe como

E =O(N), (6.22a)

o bien, por (6.21),

✏=O(1); (6.22b)

es decir,✏tiende a una constante cuando N ! 1.

Segunda condici´on.El n´umero total de estados crece exponencialmente con N; expl´ıcitamente:

⌦0(E, N)/exp(N⇠(✏)), (6.23a) con

⇠(✏) =O(✏)>0. (6.23b)

Tercera condici´on. La densidad de estados es positiva: es decir, ⌦0(E) au-menta cuando crece la energ´ıa. De las Ecs (6.16), (6.21) y (6.23a), esta condici´on se traduce en

⌦(E) = (@⌦0/@✏)N(@✏/@E)N

=⇠0(✏)⌦0(E)>0; (6.24) y como necesariamente⌦0(✏)>0, esta condici´on es equivalente a

(9)

6.2. DENSIDAD DE ESTADOS 165

Cuarta condici´on.Por ´ultimo, exigimos que

@2W(E)

@E2

N

<0. (6.26)

En vista de (6.16), (6.19) y (6.24) esta condici´on se traduce a

N

@2W(E)

@E2

N

=⇠00(✏) + ⇠000(✏) N⇠0()

⇠002() N⇠02() <0

por lo que, paraN >>1, la relaci´on (6.26) equivale a

⇠00(✏)<0. (6.27)

Veamos algunas consecuencias de estas condiciones. Como W(E, E) crece muy r´apidamente conE, una cantidad de particular inter´es es lnW(E, E). Para E << E y al usar (6.19) y (6.24) se obtiene que

lnW(E) = ln[⌦(E) E] = ln⌦0(E) + ln[⇠0(✏) E].

Por la Ec (6.23a), el primer t´ermino de la derecha es proporcional aN, mientras que el segundo permanece constante cuando N ! 1. Ello quiere decir que para un sistema macrosc´opico normal

⌦0(E)⇠W(E, E). (6.28) El n´umero de estados de un sistema normal crece tan r´apidamente con la energ´ıa que el n´umero de estados accesibles en el intervalo E es igual, en el l´ımite N ! 1, al n´umero de todos los estados accesibles con energ´ıa inferior a E. Este es un resultado de importancia pr´actica porque se en-cuentra que ⌦0(E) es una cantidad m´as f´acil de calcular que W(E, E) y porque, adem´as, confirma que las propiedades de los sistemas normales son independientes del valor de E. De este modo se llega a que

lnW(E) =N⇠(✏). [N >>1] (6.29)

Otra consecuencia de la normalidad de un sistema, que mostrar´a ser de importancia m´as que pr´actica, se deriva de las Ecs (6.25) y (6.29), de las que se encuentra que

@lnW(E)

@E N >0. (6.30)

(10)

6.3.

Densidad de estados del gas ideal cl´

asico

Un gas ideal monoat´omico est´a constituido por N mol´eculas id´enticas e independientes, cada una de las cuales tiene tres grados de libertad, conte-nidas en un volumenV. Las coordenadas y momentos en este caso son las posiciones cartesianasriy los ´ımpetuspi de las mol´eculasi= 1, . . . , N. Este

gas tienel= 3N grados de libertad y un elemento de volumen en ser´a

d =Yd3rid3pi,

donded3r

i =dxidyidzi yd3pi=dpixdpiydpiz. En ausencia de campos

exter-nos, la hamiltoniana se reduce a la energ´ıa cin´etica

H= 1 2m

N

X

i=1i

p2i, (6.31)

y la regi´on accesible<A(Y) del gas esencialmente aislado est´a determinada

por N, V y la condici´on E H E + E. Comenzamos calculando el n´umero total de estados, que por la Ec (6.15a) es

⌦0(E, N, V) = 1 hl

Z

HE N

Y

i=1

d3rid3pi,

y que, comoH s´olo depende de {pi}, se factoriza como

⌦0(E) = 1 hl

Z

V N

Y

i=1 d3ri

Z

HE N

Y

i=1

d3pi. (6.32)

La primera integral en (6.32), el volumen accesible en el espacio de confi-guraci´on, se factoriza a su vez enN integrales, y cada una de ellas es igual al volumenV. La segunda integral es igual al volumen accesible en el espacio de ´ımpetus definido por HE; por (6.31), este es el volumen V3N(R) de una

(hiper)esfera en 3N dimensiones y con radio R=p2mE. Por consiguiente, (6.32) se convierte en

⌦0(E) = VN h3NV3N(

p

2mE). (6.33)

El volumenV3N(R) est´a dado por6

V3N(R) =

(p⇡R)3N

(3N/2 + 1), (6.34)

6La demostraci´on se encuentra en varios textos de c´alculo; el lector puede consultar el

(11)

6.3. DENSIDAD DE ESTADOS DEL GAS IDEAL CL ´ASICO 167

donde (n) es la funci´on gamma. La densidad de estados del sistema se encuentra de (6.16) y (6.33) con la propiedad (n+ 1) =n (n) como

⌦(E, N, V) =p2⇡m(V /h3)NV3N 2( p

2mE). (6.35)

El n´umero de estados esW(E, E) =⌦(E) E y queda as´ı como

W(E, N, V) =p2⇡m(V /h3)NV3N 2( p

2mE) E. (6.36)

Veamos ahora el comportamiento de estas funciones cuando N >> 1. Entre otras cosas, encontraremos que el gas ideal es un sistema normal, en el sentido del apartado anterior. Para ello aprovechamos que, cuando n >>1, (n+ 1) =n! y usamos la aproximaci´on de Stirling ya introducida en el cap´ıtulo 3:

ln(n!) =nlnn n+1 2lnn+

1

2ln(2⇡) +O(1/n). (6.37)

En el caso de un sistema macrosc´opico N 1023 y lnN 53 por lo que basta conservar los dos primeros t´erminos de (6.37) como una magn´ıfica aproximaci´on. Al usar (6.37) en las Ecs (6.33) y (6.34) encontramos que

ln⌦0(E, N, V) =N

h

ln(V /h3) + ln(2✏/3)3/2+ ln(2⇡m)3/2+ 3/2)i (6.38)

De esta ecuaci´on vemos que el gas ideal cumple las tres ´ultimas condiciones para un sistema normal. En efecto, si definimos,

⇠(✏) = ln(2✏/3)3/2, (6.39)

&(V) = ln(V /h3) + ln(2⇡m)3/2+ 3/2),

con✏=E/N, podemos escribir de (6.38) que

⌦0(E, N, V) = exp{N[⇠(✏) +⇣(V)]};

por lo que se cumple con (6.23). Adem´as, de (6.39) se confirma que⇠(✏)>0 y que adem´as

⇠0(✏) = 3/2✏,

⇠00(✏) = 3/2✏2,

(12)

6.4.

Probabilidad de cambio espont´

aneo

Veamos una primera aplicaci´on del ensamble microcan´onico. Considere-mos un sistemaS, aislado y en equilibrio, que se encuentra en un macroes-tado inicial

Y0 = (E0, N0, V0),

en el cual tiene W0 = W(Y0) microestados accesibles que constituyen el conjuntoC0 =CA(Y0). Analicemos lo que ocurre cuando S sufre un cambio espont´aneo de macroestado (es decir, sin que se realice trabajo sobre ´el) y sin que cambie el n´umero de sus elementos. En otras palabras, durante este proceso,S permanece aislado y tanto E0 comoN0 se mantienen constantes. Para concretar, tomaremos dos ejemplos de este tipo de proceso en un gas: la expansi´on libre y la contracci´on espont´anea. En la expansi´on libre de un gas, se remueve, sin hacer trabajo, una constricci´on que mantiene originalmente al gas dentro del volumen V0 y se le permite expandirse en un volumen vac´ıo hasta que ocupa un nuevo volumenV1> V0 y alcanza de nuevo el equilibrio. Remover la constricci´on quiere decir, por ejemplo, abrir una v´alvula inicialmente cerrada. Denotemos porY1 = (E0, N0, V1) el nuevo macroestado de equilibrio, y por W1 = W(Y1) y C1 =CA(Y1) el n´umero y

el conjunto de sus microestados accesibles en el macroestado final. A este proceso lo simbolizamos porY0!Y1.

Es f´acil ver que, si S est´a inicialmente en un microestado cualquiera

⌘0 2 C0, al remover la constricci´on, ⌘0 no deja de ser accesible y por tanto necesariamente ⌘0 2C1. Es decir, en el macroestado final Y1 las mol´eculas del gas bien pueden estar todas en el subvolumen V0 de V1. Ello implica que todos los microestados inicialmente accesibles siguen si´endolo despu´es de remover la constricci´on. Sin embargo, el inverso no es necesariamente cierto: habr´a microestados ⌘1 2 C1 que no eran originalmente accesibles (todos aqu´ellos en los que una o m´as mol´eculas del gas est´an en el volumen originalmente inaccesible). Ello quiere decir que,

C0 ✓C1, Y0 !Y1, (6.40) la igualdad de los dos conjuntos vale para el caso trivial en el que el gas no gane volumen (V1 = V0). La relaci´on (6.40) implica que el n´umero de microestados accesibles aumenta al ocurrir la expansi´on (s´olo permanece igual cuando ella, de hecho, no es tal “expansi´on”), es decir,

W0 W1, Y0 !Y1. (6.41)

(13)

6.4. PROBABILIDAD DE CAMBIO ESPONT ´ANEO 169

constricci´on, la expansi´on siempre ocurrir´a; mientras que el proceso inverso Y1 ! Y0 nunca ocurre espont´aneamente, s´olo puede realizarse ejerciendo trabajo y removiendo calor de S. Sin embargo, desde el punto de vista mi-crosc´opico, la expansi´on no es ineluctable: de acuerdo con las leyes mec´anicas que rigen el movimiento de las mol´eculas del gas, bien puede ser que, des-pu´es de abrir la v´alvula, el gas mantenga el volumen inicialV0. El que el gas se expanda o no, depender´a de c´omo se muevan sus mol´eculas en cada caso particular que, en el fondo, depende de cu´ales hayan sido las condiciones iniciales para el movimiento de tales part´ıculas: para algunos microestados iniciales el gas seguir´a en V0, mientras que para otros se expandir´a a V1. Y lo mismo para la compresi´on espont´anea Y1 !Y0: las leyes de la mec´anica cl´asica permiten que, para ciertas condiciones iniciales, el gas ya expandido pueda comprimirse por s´ı solo para regresar al volumen V0.

Veremos ahora que el ensamble microcan´onico permite calcular las pro-babilidades de que ocurran la expansi´on espont´aneaY0 !Y1 y la compresi´on espont´aneaY1 !Y0.

Consideremos el ensamble que corresponde al macroestado final del sis-tema Y1: un gran n´umero N de r´eplicas del gas con la v´alvula abierta y el volumen V1 accesible. Estos sistemas est´an distribuidos en los distintos microestados ⌘ 2C1 con probabilidad uniforme e igual a

P(⌘) = 1 W1

. (6.42)

Ahora introducimos la probabilidadPM(Y1!Y0) de que el gas se contraiga espont´aneamente y pase del estado Y1 al estado Y0; esta probabilidad es igual a la probabilidad de que el gas no se expanda, es decir, que se quede en el estado Y0 cuando puede expandirse al Y1. ¿Qu´e tan probable es en-contrar un sistema del ensamble con volumen V0? Pues s´olo tenemos que contar el n´umero de sistemasN(V0) cuyos microestados son tales que todas sus mol´eculas est´an dentro de V0. Esta probabilidad, que no debe confun-dirse con la probabilidad de un microestado P(⌘), est´a entonces dada por la fracci´on

PM(Y1 !Y0) =N(V0)/N

Ahora aparece la utiidad del ensamble. Como los sistemas del ensamble est´an distribuidos uniformemente sobre losW1posibles microestados, la frac-ci´on N(V0)/N ser´a igual a la fracci´on W0/W1 de microestados que corres-ponden al volumen V0. Por consiguiente, la probabilidad buscada est´a dada por

(14)

Por su lado, la probabilidad de que el gas se expanda espont´aneamente es

PM(Y0 !Y1) = 1 PM(Y1 !Y0) = 1 W0/W1.

Debido a (6.41) y (6.43), PM(Y1 !Y0)1. Desde este punto de vista, en todo congruente con la din´amica de las mol´eculas del gas, la expansi´on libre es un proceso que no ocurre necesariamente, sino con una cierta proba-bilidad. La Ec (6.43) da la probabilidad de que la expansi´on libre no ocurra y queS permanezca con volumenV0.

Vemos tambi´en que la Ec (6.43) da la probabilidad de que el gas, en el estado de equilibrio Y1 se comprima libre y espont´aneamente –es decir, sin ninguna acci´on de los alrededores– para ocupar el volumenV0 < V1.

Hay as´ı una gran diferencia entre la visi´on macrosc´opica y la microsc´ opi-ca del proceso de expansi´on libre. Macrosc´opicamente tenemos plena certeza sobre lo que ocurre: el gassiempre se expande al abrir la v´alvula; el gas nun-ca se comprime espont´aneamente. Microsc´opicamente, los mismos procesos se ven ocurrir con cierta probabilidad: el gas podr´ıa no expandirse; el gas podr´ıa comprimirse espont´aneamente. Desde luego, ambas visiones deben ser compatibles: la probabilidadPM de que ocurra un proceso macrosc´ opi-co espont´aneo de un sistema con N >> 1, calculada con (6.43), debe ser compatible con la visi´on macrosc´opica determinista.

Los argumentos para obtener la probabilidad de un proceso macrosc´opico espont´aneo, como en la Ec (6.43), ilustrados con el ejemplo de la expansi´on espont´anea del gas, valen en el caso general de cualquier sistemaS en el que Y1 es un macroestado al que accede S desdeY0 al remover una constricci´on manteniendo el aislamiento deS, o cuando Y0 es un macroestado al queS puede acceder espont´aneamente a partir deY1.

Adem´as, podemos observar un paralelo entre las descripciones termodi-n´amica y estad´ıstica al notar que el procesoY0!Y1 es, en termodin´amica, un proceso irreversible, en el cual, por estar S aislado, su entrop´ıa siem-pre crece. En el nivel estad´ıstico esta irreversibilidad se manifiesta en la Ec (6.41), que dice que el n´umero de estados accesibles W tambi´en crece en dicho proceso. Ello apunta hacia una relaci´on entre la entrop´ıa de S y el n´umero de sus microestados accesibles: ambas cantidades crecen en pro-cesos irreversibles y permanecen constantes en los reversibles (cuando, por ejemplo,V0 =V1).

(15)

6.5. PARADOJA DE GIBBS 171

macroestadoY1 de volumenV1, es

PM(Y1 !Y0) = (V0/V1)N. (6.44)

Para una expansi´on libre del gas ideal, ´esta es la probabilidad de que el gas no se expanda, es decir, que se quede con el volumenV0 despu´es de abrir la v´alvula. Si, por ejemplo,V1 = 2V0, la Ec (6.44) da esta probabilidad como

PM(Y1 !Y0) = 2 N,

que es peque˜n´ısima cuando N >> 1; as´ı, para N =NA ⇡ 1023,PM(Y1 ! Y0)⇡10 3⇥10

22

; este n´umero es un 3 antecedido por un mol de ceros a la de-recha del punto!. Esto explica el determinismo macrosc´opico con el que ocu-rre la expansi´on. Como segundo ejemplo calculamos la probabilidadPM( V) de que el gas, inicialmente con volumen V, se comprima espont´aneamente hasta un volumen V0 =V V con V << V. De la Ec (6.44) encontramos que

lnPM( V) =Nln(1 V /V)' N V /V,

de modo que

PM( V) = exp( N V /V).

Para un gas macrosc´opicoPM( V) decrece muy r´apidamente con V /V. To-memos otra vezN =NA; si V es peque˜no pero macrosc´opico, digamos que

la fluctuaci´on es de un millon´esimo del volumen del gas, V /V 10 6, obte-nemosPM( V)⇡10 3⇥1017, que sigue siendo sumamente peque˜na. Para que

PM( V) sea apreciablemente mayor de cero, V tendr´ıa que ser de dimensio-nes microsc´opicas: por ejemplo, para tener una probabilidad de un millon´esi-mo,PM⇡10 6, el cambio en el volumen tendr´ıa que ser V /V ⇡2.3⇥10 23. As´ı encontramos que el gas sufre fluctuaciones espont´aneas en su volu-men; pero estas fluctuaciones ocurren con tanta menos frecuencia cuanto mayores sean en magnitud y s´olo las fluctuaciones microsc´opicas ocurren con probabilidad apreciable.

6.5.

Paradoja de Gibbs

(16)

W2 los n´umeros de estados accesibles aS1 yS2, respectivamente, dados por las Ecs (6.28) y (6.38). Como los sistemas son id´enticos,W1 =W2, y como adem´as son independientes, el n´umero de estadosW accesibles a S en esta situaci´on inicial es igual al producto W1W2,

W =W12(E, N, V). (6.45)

Esto es as´ı porque, al ser independientes los subsistemas, cuandoS1 est´a en uno cualquiera de susW1 microestados, digamos⌘1,S2 podr´a estar en cual-quiera de susW2microestados, digamos⌘2, y cada una de las combinaciones (⌘1,⌘2) es un microestado del sistema conjuntoS. Por las Ecs (6.28), (6.38) y (6.45), el n´umero inicial de estados deS est´a dado por

lnW = 2 lnW1 = 2N[ln(V /h3) + ln(2E/3N)3/2+ ln(2⇡m)3/2+ 3/2] (6.46)

Ahora bien, si a partir de esta condici´on inicial quitamos sin hacer trabajo la pared que separa a S1 de S2, las mol´eculas de ambos gases se mezclan y el macroestado finalY0 = (E0, N0, V0) deS estar´a caracterizado porV0 = 2V,N0 = 2N, y E0= 2E. Una vez que el gas alcanza de nuevo el equilibrio, el n´umero de sus estados accesibles W0 =W(Y0) se calcula de las mismas Ecs (6.28) y (6.38) con los nuevos valoresV0, N0 yE0. Se encuentra as´ı que

lnW0 =N0[ln(V0/h3) + ln(2E0/3N0)3/2+ ln(2⇡m)3/2+ 3/2]

= 2N[ln(2V /h30) + ln(2E/3N)3/2+ ln(2⇡m)3/2+ 3/2]. (6.47)

Veamos c´omo cambi´o el n´umero de estados accesibles a S por causa del mezclado. Al restar (6.46) de (6.47) se obtiene

ln(W0/W) = 2Nln 2,

o sea, que el n´umero de estados aumenta significativamente:

W0 = 22NW >> W. (6.48)

(17)

6.5. PARADOJA DE GIBBS 173

pared para separar a S en dos partes iguales, lo que implica que ¡el proceso es reversible! Esta es la llamadaparadoja de Gibbs. El mezclado de dos gases de part´ıculas id´enticas es reversible porque termodin´amicamente no distin-guimos entre ellas; en otras palabras, en termodin´amica no se distinguen los estados que s´olo difieren en la permutaci´on de part´ıculas id´enticas. Ello hace ver que la expresi´on cl´asica para el n´umero de estados [en las Ecs (6.10) o (6.15a) y las que de ellas se derivaron] es incorrecta: en ellas se distinguen estados que s´olo difieren en la permutaci´on de part´ıculas id´enticas y que son termodin´amicamente los mismos. Al tomar en cuenta la indistinguibilidad de part´ıculas id´enticas se disipa la paradoja.7Para ello, es necesario corregir la Ec (6.15a) para el n´umero de estados y dividir su miembro izquierdo por N!, que es el n´umero de permutaciones entre las N part´ıculas; es decir, el nmero de estados, ya corregido por indistinguiilidad, es

W(E, N, V) = 1 N!hl

Z

<A

d . (6.49)

Esta relaci´on es v´alida para cualquier sistema de N part´ıculas cl´asicas id´enticas, y no s´olo para el gas ideal (aunque usamos a ´este para hacer patente la paradoja). Como referencia, conviene escribir de nuevo, ya corre-gidas, las diversas cantidades que se derivaron de W(E, N, V) para el gas ideal. Ellas son:

El n´umero total de estados:

⌦0(E, N, V) = 1 N!hl

Z

HE

d , (6.50)

que para el gas ideal cl´asico queda como

⌦0(E, N, V) = 1 N!hl

Z

V N

Y

i=1 d3ri

Z

HE N

Y

i=1

d3pi, (6.51)

y expl´ıcitamente,

⌦0(E) = VN N!hlV3N(

p

2mE). (6.52)

La densidad de estados:

7En mec´anica cu´antica no se requiere correcci´on porque en ella las part´ıculas id´enticas

(18)

⌦(E, N, V) = 1 N!hl

Z

HE

d ; (6.53)

que para el gas ideal es

⌦(E, N, V) = p

2⇡m N!

V h3

◆N

V3N 2( p

2mE). (6.54)

El n´umero de estados del gas ideal es entonces

W(E, N, V) = p

2⇡m N!

V h3

◆N

V3N 2( p

2mE) E; (6.55)

y en el l´ımite termodin´amico se obtiene

lnW =N[ln(v/h3) + ln(2✏/3)3/2+ ln(2⇡m)3/2+ 5/2], (6.56)

donde hemos puesto el volumen por part´ıcula v = V /N. Los trminos den-tro de los corchetes en esta expresi´on s´olo dependen de v y ✏, por lo que lnW es estrictamente proporcional a N (si se cambianV y E en la misma proporci´on); esto es, lnW es una variable extensiva. Si se repite el c´alculo del comienzo de esta secci´on con la Ec (6.56), se encuentra que el n´umero de microestados no aumenta al permitir que se mezclen gases con mol´eculas de la misma especie. De esta misma ecuaci´on se puede encontrar que el gas ideal satisface la segunda condici´on de normalidad en (6.23b), pero ahora, en la ecuaci´on (6.39) debemos incluir los t´erminos de &(V) para obtener

⇠(✏) = lnh(v/h3)(4⇡✏/3m)3/2i.

6.6.

Equilibrio entre sistemas termodin´

amicos

Equilibrio y estado m´as probable

Analicemos ahora las condiciones que se guardan en el equilibrio entre dos sistemas macrosc´opicos, S1 y S2, constituidos por part´ıculas de la misma especie. S1 tiene N1 part´ıculas en un volumen V1 y con energ´ıa total E1;

(19)

6.6. EQUILIBRIO ENTRE SISTEMAS TERMODIN ´AMICOS 175

d´ebilmente, es decir, de modo que la energ´ıa de interacci´on Eint << E1 y E2. En este caso, los microestados accesibles a uno de los sistemas no son afectados por el microestado particular en que se encuentre el otro; es decir, los sistemas tienen microestados independientes. Ambos sistemas est´an en equilibrio consigo mismos y uno con el otro, yS est´a en el macroestadoY = (E, N, V). En tales condiciones, en cualquier instante,S1 yS2 estar´an en los microestados ⌘1 y⌘2 respectivamente compatibles con el macroestadoY1 = (E1, N1, V1) deS1 yY2 = (E2, N2, V2) deS2. Debido a que S est´a aislado, el macroestado de un sistema est´a determinado por el del otro: digamos que Y2 est´a determinado por Y1; es decir, Y2 depende de Y y de Y1:

E2 = E E1,

N2 = N N1,

V2 = V V1.

(6.57)

Por su cuenta, Y1 puede variar sujeto a 0  E1  E, 0  N1  N y 0 V1 V. Denotaremos por {Y1(i)} a estos posibles macroestados de S1; por sencillez, suponemos que el conjunto {Y1(i)} es discreto, de forma que esos macroestados se generan por pequen˜nas variaciones en las variables (E1, N1, V1).

Tomemos ahora un ensamble microcan´onico que represente el equilibrio deS. Los sistemas de este ensamble est´an distribuidos uniformemente en sus

C(Y) microestados. Por construcci´on del ensamble, todos y cada uno de sus miembros est´an en el macroestadoY; pero ´este es igual al total del conjunto de macroestados posibles {Y1(i)}del subsistema S1, de modo que

C(Y) =C(Y1(1))[C(Y1(2))[C(Y1(3)). . .[C(Y1(i)). . . ,

en donde C(Y1(i)) son los microestados accesibles a S cuando S1 est´a en el macroestadoY1(i) compatible conY. El n´umero de estados de S es entonces

W(Y) =X

i

W(Y1(i)),

dondeW(Y1(i)) es el n´umero de estados de S cuandoS1 est´a en el macroes-tado Y1(i).

(20)

correspondientesY2(i)). Calculemos ahora esta distribuci´on de probabilidad. Como en el ensamble microcan´onico los microestados son igualmente proba-bles, a los macroestadosY1(i)los observaremos con la probabilidadPM(Y1(i)) que se calcula de la misma manera que en la Ec (6.43):

PM(Y1(i)) =

W(Y1(i))

W(Y) . (6.58)

Sin embargo, de la termodin´amica sabemos que el equilibrio deS, y por tanto, el equilibrio entreS1 yS2, s´olo ocurre para un cierto macroestadoY1⇤ (y el correspondienteY2⇤) dentro de todos los posibles{Y1(i)}. Interpretamos este determinismo macrosc´opico al decir que el macroestado de equilibrio Y1⇤ debe ser much´ısimo m´as probable que los dem´as, tanto as´ı, que estos otros ocurren con frecuencia despreciable.

As´ı, podemos identificar a Y1⇤ con el macroestado Y1(i) m´as probable en el ensamble. Una alternativa ser´ıa identificar aY1⇤ con el ‘macroestado promedio’ definido simb´olicamente por

hY1i=X (i)

P(Y1(i))Y1(i).

que se entiende aplicable a cualquiera de los promedios hN1i, hV1i y hE1i. De aqu´ı se desprende que el macroestado promediohY1i y el m´as probable Y1⇤ deben coincidir si la probabilidad PM(Y1) es despreciable para toda Y1 excepto muy cerca de su m´aximo PM(Y1⇤). De hecho, hacer corresponder el macroestado promedio con el observable macrosc´opico es consistente con la forma en que se hacen las mediciones en el laboratorio.

Aqu´ı utilizaremos al macroestado m´as probableY1⇤como correspondien-te al equilibrio y despu´es comprobaremos que para siscorrespondien-temas correspondien-termodin´ ami-cos Y1⇤ ⇠= hY1i. Para ello debemos obtener el m´aximo de la probabilidad

PM(Y1(i)) de encontrar a un sistema del ensamble con el subsistemaS1en un macroestadoY1(i). Por (6.58) y comoW(Y) est´a fijo, el problema se reduce, simlificando la notaci´on, a encontrar el m´aximo de W(Y1) ante variaciones deY1.

Ahora bien, debido a que la interacci´on entreS1 yS2 es d´ebil, y que por ello los microestados de uno son independientes de los del otro, el queS1 se encuentre en uno de susW1(Y1) microestados compatibles conY1, no afecta la accesibilidad de losW2(Y2) microestados deS2. Por consiguiente, al igual que en la secci´on anterior,

(21)

6.6. EQUILIBRIO ENTRE SISTEMAS TERMODIN ´AMICOS 177

Determinaci´on del macroestado m´as probable

Para encontrar el macroestado m´as probable determinamos entonces el m´aximo de W(Y1) en (6.59) respecto a variaciones en E1, N1 y V1. Para ello es m´as conveniente localizar el m´aximo de lnW(Y1), que tiene m´aximos cuando W(Y1) los tiene y que denotamos como

⇣(E1, N1, V1) = lnW(E1, N1, V1). (6.60)

Las primeras condiciones necesarias para el m´aximo son,

(@⇣/@E1)⇤V1,N1 = 0, (@⇣/@V1)⇤E1,N1 = 0, (@⇣/@N1)⇤E1,V1 = 0.

(6.61)

en donde el asterisco significa que las expresiones se calculan en Y1⇤ = (E⇤

1, N1⇤, V1⇤). Las segundas condiciones del m´aximo, que contienen las se-gundas derivadas de ⇣(E1, N1, V1), se analizar´an en el apartado siguiente. Con similitud a la Ec (6.60) introducimos para cada subsistema

⇣1(E1, N1, V1) = lnW1(E1, N1, V1), (6.62a)

⇣2(E2, N2, V2) = lnW2(E2, N2, V2), (6.62b)

de forma que, por (6.59),

⇣ =⇣1(E1, N1, V1) +⇣2(E2, N2, V2). (6.63)

Al usar (6.57), (6.62) y (6.63), las condiciones (6.61) quedan as´ı como

(@⇣1/@E1)⇤V1,N1 = (@⇣2/@E2)

V2,N2, (6.64a)

(@⇣1/@V1)⇤E1,N1 = (@⇣2/@V2)

E2,N2, (6.64b) (@⇣1/@N1)⇤V1,E1 = (@⇣2/@N2)⇤V2,E2, (6.64c)

(22)

Si se toma una interacci´on conN1yV1constantes, es decir, entre sistemas cerrados y sin hacer trabajo sobre ellos, la interacci´on es puramente t´ermica y el intercambio de energ´ıa es mediante calor. Este caso, dado por la Ec (6.64a), corresponde en termodin´amica a la igualdad entre lastemperaturas de S1 y S2. Por tanto, la cantidad (@⇣/@E)V,N debe corresponder a una

temperatura.

La segunda condici´on, Ec (6.64b), corresponde al equilibrio bajo la reali-zaci´on de un trabajo entre los dos sistemas, es decir, al equilibrio mec´anico. Dada la identidad

✓ @⇣ @V

E,N

=

✓ @⇣ @E

N,V

✓ @E

@V

⇣,N

,

y suponiendo que las temperaturas son iguales, el equilibrio mec´anico se expresa entonces por

(@E1/@V1)⇤⇣1,N1 = (@E2/@V2)

⇤ ⇣2,N2

de donde se ve que la cantidad (@E/@V)⇣,N debe corresponder a (menos) la

presi´on del subsistema.

Por ´ultimo, de forma similar, la condici´on (6.64c) de equilibrio ante el intercambio de part´ıculas, es decir, al equilibrio qu´ımico o de materia, puede expresarse como

(@E1/@N1)⇤⇣1,V1 = (@E2/@N2)

⇤ ⇣2,V2

de la que se infiere que (@E/@N)⇣,V debe corresponder al potencial qu´ımico.

Entrop´ıa y n´umero de estados

Para adelantar en la identificaci´on de las variables estad´ısticas que corres-ponden a las termodin´amicas, debemos recordar que ya probamos que W crece en los procesos irreversibles y espont´aneos, como tambi´en lo hace la entrop´ıaS del sistema. Sin embargo,S es una funci´on extensiva (o aditiva), es decir, proporcional al ‘tama˜no’ del sistema, por lo que en este caso S = S1+S2, mientras que por la Ec 59 W no lo es. No obstante, de la misma Ec (6.59), lnW es aditiva y crece monot´onicamente conW; a´un m´as, para un sistema normalW crece exponencialmente conN, de modo que lnW es proporcional a N cuando la energ´ıa por part´ıcula ✏ = E/N y el volumen por part´ıculaV /N permanecen constantes

Ello lleva a proponer la identificaci´on de ⇣ = lnW como proporcional a la entrop´ıa termodin´amicaS:

(23)

6.6. EQUILIBRIO ENTRE SISTEMAS TERMODIN ´AMICOS 179

propuesta que se refuerza por la expresi´on (6.64a) del equilibrio t´ermico, ya que entonces (@⇣/@E)⇤V,N /(@S/@E)V,N ser´ıa el inverso de la temperatura

termodin´amica o absoluta. Falta considerar las unidades de esta temperatu-ra; para que ella se mida en kelvins (K), es necesario multiplicar lnW por la constante de Boltzmann k= 1.380610 23J/K.

Por consiguiente, la relaci´on fundamental que conecta las propiedades estad´ısticas de un sistema aislado (ensamble microcan´onico) y en equilibrio en el macroestado (E, N, V) con sus variables termodin´amicas es

S(E, N, V) =klnW(E, N, V). (6.65)

Esta important´ısima relaci´on entre la entrop´ıa y el n´umero de estados se debe a Boltzmann. Con esta asociaci´on, las variables termodin´amicas de n´umero de part´ıculas, volumen y energ´ıa interna deben corresponder a los valores m´as probables N⇤,VyE.

Con (6.65) y (6.64a), la temperatura de equilibrioT se obtiene de

1/T = (@S/@E)V,N, (6.66)

mientras que la presi´on P y el potencial qu´ımico µ quedan expresados res-pectivamente por

P = (@E/@V)S,N, (6.67)

y

µ= (@E/@N)V,S. (6.68)

Estas ´ultimas ecuaciones permiten escribir el cambiodE en la energ´ıa de un sistema como

dE=T dS P dV +µdN, (6.69)

de acuerdo con la primera ley de la termodin´amica y con la expresi´on de T dS como el calor transmitido. Ello completa identificar E⇤ con la energ´ıa interna, con lo que las expresiones (6.65) a (6.68) adquieren un significado termodin´amico totalmente coherente.

Estrictamente, los valores de las variables intensivas en equilibrio en las Ecs (6.66) a (6.69), obtenidos de encontrar el estado m´as probable Y1⇤ = (E1⇤, N1⇤, V1⇤), deber´ıan denotarse porT⇤,P⇤yµ⇤. Sin embargo, en la ´ultima secci´on de este cap´ıtulo demostraremos que, para sistemas termodin´amicos conN >>1, los valores m´as probables pr´acticamente id´enticos a los valores promedio; por ello, s´olo denotaremos con (⇤) a los valores m´as probables cuando sea indispensable para evitar confusiones.

(24)

la entrop´ıa definida en (6.65) sea extensiva. La extensividad de la energ´ıa interna se deriva entonces de la Ec (6.22), y de ambas se obtiene que la temperatura, Ec (6.66), es una variable intensiva. A´un m´as, la condici´on (6.24) hace queT sea positiva para un sistema normal.

6.7.

Entrop´ıa fuera de equilibrio

Haremos aqu´ı un par´entesis para obtener un resultado importante. Con-sideremos por el momento un sistema macrosc´opico bajo constricciones no especificadas; el sistema no est´a por necesidad en equilibrio. Denotemos sus posibles microestados por {⌘j} y por {Pj} la distribuci´on de probabilidad

de que el sistema se encuentre en el estado ⌘j. De acuerdo con lo tratado

en la secci´on 6.1, construyamos un ensamble formado porN >>1 sistemas id´enticos al de inter´es y sujetos a las mismas constricciones. Por construc-ci´on del ensamble, la fracci´on de sistemas en el estado ⌘j, dada por Nj/N

es igual a la probabilidadPj, esto implica que

Nj =PjN. (6.69b)

Ahora bien, como los sistemas de ensamble son id´enticos y la entrop´ıa es extensiva, podemos definir la entrop´ıa del ensamble completo SN como N

veces la entrop´ıaS de uno de los sistemas, o sea,

S= SN

N . (6.69c)

Por su parte, el peso estad´ıstico del ensamble est´a dado por el n´umero de maneras de seleccionarN1sistemas en el estado⌘1,N2 sistemas en el estado

⌘2 y as´ı consecutivamente; este n´umero es

W(N) = N!

N1!N2!...Nj!...

Por tanto la entrop´ıa del ensamble

S(N) =klnW

se encuentra como

S(N) =k

2

4lnN! X

j

lnNj!

(25)

6.8. ESTABILIDAD T ´ERMICA Y SEGUNDA LEY 181

y al utilizar la aproximaci´on de Stirling y (6.69b) se llega a

SN = NkX

j

PjlnPj.

Al sustituir de (6.69c) encontramos finalmente

S= kX

j

PjlnPj. (6.69d)

Un ejercicio sencillo permite comprobar que para un sistema aislado en equi-librio esta definici´on coincide con (6.65).

6.8.

Estabilidad t´

ermica y segunda ley

El macroestado m´as probable de los sistemas interactuantesS1 yS2 co-rresponde a la situaci´on de equilibrio entre ellos. La condici´on de equilibrio es entonces que el n´umero de estadosW(Y1) accesibles al sistema conjuntoS, como funci´on del macroestado Y1 de S1, dada por la Ec (6.59), sea m´axima en tal macroestado. El primer requisito para queW(Y1) o la entrop´ıaS(Y1) definida en (6.65), sean un m´aximo lleva a las Ecs (6.64), que coinciden con la ley cero termodin´amica. El segundo requisito impone que estas funciones tengan la curvatura correcta en el estado de equilibrio Y1⇤ = (E1⇤, N1⇤, V1⇤) respecto a cada una de estas variables.

Para analizar en qu´e situaciones S(Y1) es m´axima y sus consecuencias, tomemos primero una interacci´on t´ermica, conN1 yV1 constantes, y supon-gamos que S1 y S2 est´an inicialmente en los estadosY10 yY20 con energ´ıas E10 yE20, cercanos a los m´as probablesY1⇤ yY2⇤ pero distintos a ´estos. Ana-licemos el proceso que lleva del macroestado inicial al de equilibrio, es decir:

Y10 !Y1⇤,

y sea E1 = E1⇤ E10; la entrop´ıa S(Y1⇤) en el estado m´as probable puede entonces desarrollarse en una serie de Taylor alrededor del estado inicialY10 como

S(E1⇤) =S(E10+ E1) =S(E10) + (@S/@E1)0 E1+. . .

y entonces, al despreciar t´erminos de orden superior, el estado con energ´ıa E1⇤ ser´a en efecto el m´as probable si

(26)

Por la aditividad deS=S1+S2 y la Ec (6.57) el miembro derecho de esta ´

ultima relaci´on se puede escribir como

[(@S1/@E1)0 (@S2/@E2)0] E1>0,

que a su vez, por la Ec (6.66), puede reescribirse en t´erminos de las tempe-raturas inicialesT10 yT20 para obtener

(T10T20) 1(T20 T10) Q1 >0, (6.70)

en donde hemos identificado E1 = Q1 con el calor absorbido porS1 en el procesoY10 !Y1⇤.

Supongamos ahora queS1es el sistema m´as fr´ıo al principio, es decir, que T1 < T2. Entonces el signo de Q1, obligado por (6.70), est´a determinado por el del productoT10T20. Veremos los dos posibles casos:T10T20 >0 yT10T20 <0, por separado.

SiT0

1T20 >0, que implica que ambas temperaturas son positivas o ambas negativas, necesariamente Q1>0 y el sistema m´as fr´ıo absorbe calor, lo que est´a de acuerdo con la segunda ley termodin´amica. Pero m´as a´un, para que los sistemas lleguen al equilibrio a la temperatura finalT, conT0

1 < T < T20, se requiere que S1 aumente su temperatura al absorber calor y que S2 la reduzca al cederlo, es decir, para ambos sistemas se debe tener que

(@T /@E)N,V = ( T / Q)N,V >0. (6.71)

Esta condici´on quiere decir que la capacidad calor´ıficaCV = ( Q/ T)N,V

de ambos sistemas debe ser positiva y se puede transformar por medio de la Ec (6.66) en

(@2S/@E2)N,V <0.

Esta relaci´on, expresada en t´erminos del n´umero de estados por la relaci´on fundamental (6.65), equivale a la ´ultima condici´on de normalidad. La re-laci´on (6.71) es la condici´on de estabilidad t´ermica, ya que, en caso de no cumplirse para alguno de los sistemas que interact´uan t´ermicamente, la tem-peratura de ese sistema tender´ıa a alejarse de la temtem-peratura del otro, de modo que nunca llegar´ıan al equilibrio.

(27)

6.9. ENSAMBLE Y DISTRIBUCI ´ON CAN ´ONICOS 183

En resumen, para que dos sistemas macrosc´opicos lleguen al equilibrio t´ermico se tienen varias posibilidades. Si ambos son normales (T >0, CV >

0) se comportar´an de acuerdo con la experiencia sintetizada en la segunda ley: el m´as fr´ıo absorbe calor y aumenta su temperatura hasta llegar al equi-librio, mientras que el m´as caliente cede calor y se enfr´ıa. Esta tendencia la equilibrio tambi´en se dar´ıa si ambos sistemas fuesen anormales en el sentido de tener temperaturas negativas, pero siempre con CV >0. Sin embargo, el

equilibrio no es posible entre dos sistemas con distinto signo en la tempera-tura, a menos que ambos tuviesen CV <0, pero entonces estos sistemas no

podr´ıan llegar al equilibrio con ning´un tercero, ya que ´este ser´ıa inestable al interactuar con alguno de los dos primeros. Dado que en la naturaleza hay m´as de dos sistemas termodin´amicos, los ´unicos que pueden alcanzar el equilibrio, y por tanto ser observados por tiempos largos, son los sistemas ‘normales’.

6.9.

Ensamble y distribuci´

on can´

onicos

El ensamble microcan´onico es de gran importancia por estar directamen-te asentado en el principio fundamental de Boltzmann-Gibbs. Sin embargo, dicho ensamble s´olo representa sistemas que est´an aislados, lo que consti-tuye una seria limitaci´on. En esta secci´on y en la siguiente obtendremos, a partir del ensamble microcan´onico, otros ensambles que son representativos de sistemas que no est´an aislados.

Analizaremos el equilibrio t´ermico entre dos sistemas, denotados por

S1 y SB que interact´uan d´ebilmente. El sistema compuesto S = S1 [SB est´a aislado de sus alrededores de forma que EB =E E1, NB =N N1 y VB = V V1. Supongamos adem´as que SB es un “ba˜no”, esto es, un sistema mucho m´as grande que el de inter´es S1, de modo que EB >> E1, NB >> N1 yVB>> V1. Debido a que la interacci´on deS1 ySB es t´ermica, N1 yV1 permanecen constantes, pero no as´ıE1. Pregunt´emonos ahora cu´al es la probabilidad P(⌘1;E1) de encontrar a S1 en uno de sus microestados,

⌘1, con energ´ıaE1=E1(⌘1), cuando este sistema est´a en equilibrio conSB. Al considerar un ensamble microcan´onico paraS, encontramos queP(⌘1;E1) es proporcional al n´umero de estados accesibles aS en los cualesS1 est´a pre-cisamente en el microestado ⌘1. Dado que S1 y SB interact´uan d´ebilmente, ese n´umero de estados es igual al producto de los n´umeros de estados acce-sibles a ambos, es decir,

(28)

pero como S1 est´a precisamente en un solo microestado, W1(⌘1) = 1, y obtenemos

P(⌘1;E1)/WB(EB, NB, VB). (6.72)

Para calcular WB consideramos la entrop´ıa SB = klnWB y usamos el he-cho de queSB es mucho m´as grande que S1. Podemos entonces desarrollar SB(EB) alrededor deEB=E E1 conN1 yV1 constantes, para obtener

SB(EB) =SB(E) E1(@SB/@EB)N,V +. . . (6.73)

Observamos ahora que el primer t´ermino de la derecha es constante, inde-pendiente deE1, y que por (6.66) el coeficiente deE1 en el segundo t´ermino es igual a 1/T donde T es la temperatura de equilibrio de ambos sistemas. Por tanto de (6.72) y (6.73) obtenemos

P(⌘1;E1)/exp( E1/kT);

esto es, la probabilidad de encontrar aS1 en el microestado⌘1 s´olo depende de su energ´ıa E1 = E1(⌘1) y decae exponencialmente con ella. Podemos omitir aqu´ı referirnos aSB, que simplemente establece la temperatura T, y

simplificar la notaci´on para escribir la probabilidad deseada como

P(⌘;E) = 1

Z exp [ E(⌘)], (6.74)

en donde = 1/kT y 1/Z es la constante de proporcionalidad que se deter-mina de la normalizaci´on PP(⌘) = 1; esto es,

Z(N, T, V) =X

e E(⌘). (6.75)

A Z(N, T, V) se le conoce como funci´on de partici´on can´onica. En el caso cu´antico, donde ⌘ se describe mediante los n´umeros cu´anticos n = {n}, la funci´on de partici´on can´onica (6.74) es, expl´ıcitamente,

P(n;En) =

1

Z exp ( En), (6.76)

donde En es el valor de expectaci´on de la energ´ıa; la funci´on de partici´on

can´onica queda as´ı como

Z(N, T, V) =X

n

(29)

6.9. ENSAMBLE Y DISTRIBUCI ´ON CAN ´ONICOS 185

M´as formalmente, la distribuci´on can´onica cu´antica (6.76) conforma el ope-rador can´onico de densidades

ˆ

⇢= 1 Ze

ˆ

H. (6.78)

En la descripci´on cl´asica, un microestado ⌘ corresponde a una celda elemental 0 en el espacio f´asico y la Ec (6.74) se reescribe en t´erminos de la densidad de probabilidad p( )

P(⌘;E) =P( , 0) =p( ) 0.

Como 0 =hl yE(⌘) =H( ), p( ) est´a dada por

p( ) = 1

N!hlZ(N, T, V)e H

( ), (6.79)

donde se introdujo el factor 1/N! para tomar en cuenta la indistinguibili-dad de part´ıculas id´enticas. La funci´on de partici´on can´onica cl´asica queda as´ı como

Z(N, T, V) = 1 N!hl

Z

d e H( ). (6.80)

Las Ecs (6.74), (6.76) y (6.79) definen ladistribuci´on can´onica o NTV. Un ensamble de sistemas distribuidos en sus microestados de acuerdo con la distribuci´on can´onica se llamaensamble can´onico o NTV y representa las propiedades estad´ısticas de un sistema en equilibrio t´ermico a la temperatura T, con volumenV y n´umero de part´ıculasN fijos. A diferencia del ensamble microcan´onico, en el cual los microestados son equiprobables, en el can´onico las probabilidades dependen de la energ´ıa del estado.8 Cabe se˜nalar que, si bien en la deducci´on de la Ec (6.74) se supuso que E(⌘) << Eba˜no, y dado queP(⌘) decrece exponencialmente conE(⌘), en la pr´actica se pueden usar las ecuaciones (6.75), (6.77) y (6.80) sin ning´un l´ımite superior en las energ´ıas; adem´as, se conserva la convenci´on de tomar al estado de m´ınima energ´ıa en E= 0.

Distribuci´on de energ´ıas y densidad de estados

Es importante se˜nalar que, en la descripci´on cu´antica, la suma en la Ec (6.77) se realiza sobre los microestados descritos por los n´umeros cu´anticosn={n}

y no sobre los niveles{En}; ambas sumas, sobren y sobre {En}, s´olo ser´an

iguales cuando a cada nivel le corresponda un solo estado, es decir cuando

8De hecho, no hay contradicci´on entre los dos ensambles, ya que todos los sistemas de

(30)

los niveles no est´en degenerados y se tenga que la degeneraci´ongn= 1 para

todan. M´as en general, como los gn estados de energ´ıaEn tienen la misma

probabilidad (6.76), la probabilidad can´onica de que el sistema se observe con energ´ıaEn se puede escribir tambi´en como

P(En) =

gne E(⌘)

Z(N, T, V), (6.81)

por lo que la funci´on de partici´on puede tambi´en escribirse como la siguiente suma sobre energ´ıas:

Z(N, T, V,) =X

En

gne En. (6.82)

En sistemas macrosc´opicos, con N >> 1, los niveles de energ´ıa est´an muy cercanos unos de otros y se puede usar una descripci´on continua de los niveles{En}; en tal caso, de (6.76), se encuentra que la probabilidad de

observar al sistema con energ´ıa entreE yE+ E est´a dada por

P(E, E) = W(E, E) Z(N, T, V)e

E;

dondeW(E, E) es el n´umero de estados en el intervalo de inter´es; de este modo, cuando E << E, escribimos P(E, E) = p(E) E y la densidad de probabilidad can´onica para la energ´ıa, p(E), se encuentra de dividir la ´

ultima ecuaci´on entre E. El resultado expresa en t´erminos de la densidad de estados⌦(E) =W(E, E)/ E, v´ease (6.19), como

p(E) = ⌦(E) Z(N, T, V)e

E. (6.83)

De manera similar, la funci´on de partici´on can´onica se puede escribir como

Z(N, T, V) =

Z 1

0

dE ⌦(E)e E. (6.84)

Esto es, la funci´on de partici´on can´onicaZ( ) es la transformada de Laplace de la densidad de estados microcan´onica ⌦(E).

(31)

6.9. ENSAMBLE Y DISTRIBUCI ´ON CAN ´ONICOS 187

Promedios can´onicos de observables

Los valores promedios de observables din´amicos, correspondientes a variables termodin´amicas de un sistema en equilibrio a la temperaturaT, se obtienen de la distribuci´on can´onica adecuada al caso. Cu´anticamente, interesa el promedio can´onico del valor de expectaci´on Xn de un observable ˆX dado

por

hXˆi=X

n

XnP(n;En)

que al usar (6.76) para P(n) queda como

hXˆi= 1 Z

X

n

Xne En, (6.85)

En el caso cl´asico, el promedio de un observable din´amico X( ) es

hXi=

Z

d X( )p( ),

que debido a (6.79) se convierte en

hXi= 1 N!hlZ

Z

d X( )e H( ). (6.86)

Por ejemplo, en la descripci´on cu´antica, la energ´ıa promedio es, de (6.85),

hEi= 1 Z

X

n

Ene En. (6.86b)

Pero esta misma expresi´on parahEise puede encontrar deZ(N, T, V), dada por la Ec (6.77), por medio de

hEi=

✓ @lnZ

@ ◆

N,V

. (6.87)

De hecho, esta ´ultima ecuaci´on parahEies tambi´en v´alida en el caso cl´asico, en el cual por (6.86) se tiene que

hEi= 1 N!hlZ

Z

d H( )e H( ).

Por su parte, la presi´on de un sistema cu´antico en el microestado n es Pn= (@En/@V), ya que los eigenvaloresEndependen deV. As´ı la presi´on

media est´a dada por

hPi= 1 Z

X

n

✓ @En

@V

(32)

Ahora bien, cl´asicamente

hPi= 1 N!hlZ

@ @V

Z

d e H( ).

En esta ecuaci´on, la dependencia enV de la integral ocurre en las condicio-nes a la frontera (que involucran aV en el espacio de configuraci´on). Esta dependencia se puede incorporar a las coordenadas mediante la transforma-ci´on

r !r0 =rV 1/3,

con lo cual el volumenV0 = 1 = constante,9 y as´ı encontrar que

hPi= 1 N!hlZ

Z

d 0

✓ @H0

@V

e H0( ).

Al examinar esta ecuaci´on y (6.88) se advierte que puede escribirse, en ambos casos cl´asico y cu´antico, que

hPi=

✓ @lnZ

@V

N,T

. (6.89)

Veamos, por ´ultimo, el potencial qu´ımico promedio hµi que en la des-cripci´on cu´antica es

i= 1 Z

X

n

✓ @En

@N

e En.

Mientras que, cl´asicamente, debemos tomar en cuenta que la dependencia en N de Z en (6.80) es a trav´es de los factores N, hl y d adem´as de la dependencia impl´ıcita en las condiciones a la frontera de la integral. La justificaci´on real de esto es que, como veremos a continuaci´on, la cantidad termodin´amicamente significante es lnZ. Por ello escribimos

i= 1 Z

@ @N

1 N!hl

Z

d e H( ) .

Esto implica, como consecuencia pr´actica, que primero debe calcularse la funci´on de partici´on con todos sus factores extra, y despu´es efectuarse la derivada respecto aN. Estas dos ´ultimas ecuaciones pueden escribirse como

i=

✓ @lnZ

@N

T,V

. (6.90)

9Por supuesto, en el caso general, esta transformaci´on debe trasladarse a las

(33)

6.9. ENSAMBLE Y DISTRIBUCI ´ON CAN ´ONICOS 189

Conexi´on can´onica con la termodin´amica

Hemos visto como de la funci´on Z se pueden obtener varios promedios im-portantes. Demostraremos ahora una importante conexi´on directa entre el ensamble can´onico y la termodin´amica, que viene a ser una s´ıntesis de los resultados obtenidos para dichos promedios. Para comenzar proponemos:

Z(T, N, V) = e A(T,N,V),

dondeA(T, N, V) es una funci´on termodin´amica por identificar, y utilizamos la expresi´on (6.77) para la funci´on de partici´on can´onica para obtener la

identidad X

n

e (A En)= 1;

en seguida derivamos respecto a para encontrar

X

n

A En+

@A

@ ◆

e (A En) = 0,

que se transforma en

A+ @A

@

◆ X

n

e (A En) 1 Z

X

n

Ene En = 0,

y que al usar (6.86b) y d / = dT /T se convierte finalmente en

A=hEi+T

✓ @A

@T

V,N

.

Si identificamos A con la energ´ıa libre de Helmholtz, la entrop´ıa es, por (1.6),S= (@A/@T)V,N y la ecuaci´on anterior es consistente con la relaci´on

termodin´amica en (1.4): A=hEi T S. Desde luego, la anterior deducci´on se puede trasladar al caso cl´asico dondeZest´a dada por (6.80). Cabe se˜nalar que se acostumbra utilizar el inverso de la ecuaci´on (6.91), es decir

A(N, T, V) = kTlnZ(N, T, V), (6.92)

(34)

6.10.

Ensamble gran can´

onico

Para representar el equilibrio de un sistema S1 con un ba˜no SB con el que adem´as de intercambiar calor tambi´en intercambia part´ıculas se construye el ensamble llamadogran can´onico. La probabilidad P(⌘1;E1, N1) de que el sistema de inter´es se encuentre en el microestado⌘1, en el cual tiene energ´ıa E1=E(⌘1) yN1 =N(⌘1) part´ıculas se encuentra de la Ec (6.72) de forma similar a la distribuci´on can´onica, por medio de un ensamble microcan´onico para el sistema compuestoS=S1[SB, pero ahora tambi´enN1es variable. El mismo argumento que llev´o a la Ec (6.73) permite encontrar que la entrop´ıa del ba˜no es

SB(EB, NB) =SB(E, N) E1

✓ @SB

@EB

N,V

N1

✓ @SB

@NB

E,V

+· · ·

Por consiguiente, al usar las Ecs (6.66) y (6.68) para introducir la tempe-raturaT⇤y el potencial qu´ımicoµ⇤, que tienen el mismo valor en el ba˜no que en el sistema de inter´es, la probabilidad buscada (v´ease la Ec 6.72) queda como

P(⌘1;E1, N1)/exp( E1+ µN1).

Al normalizar esta probabilidad, y obviar el sub´ındice que distingue al sis-tema de inter´es del ba˜no, ladistribuci´on gran can´onica o TVµse escribe en el lenguaje cu´antico como

P(n;En, N) = 1

⌅(T, V, µ)e

µN En; (6.93)

con la llamadagran funci´on de partici´on ⌅(T, V, µ) definida por

⌅(T, V, µ) =

1 X

N=1

X

n

e µN En. (6.94)

En la descripci´on cl´asica, la distribuci´on gran can´onica es

p( ;N) = 1

⌅(T, V, µ) 1 N!hle

µN H( ), (6.95)

donde la gran funci´on de partici´on es ahora

⌅(T, V, µ) =

1 X

N=1 e µN N!hl

Z

(35)

6.10. ENSAMBLE GRAN CAN ´ONICO 191

La funci´on ⌅(T, V, µ) en (6.94) y (6.96) puede escribirse en t´erminos de la correspondiente funci´on de partici´on can´onica Z en (6.77) o (6.80) como

⌅(T, V, µ) =

1 X

N=1

e µNZ(N, T, V). (6.97)

Las propiedades estad´ısticas de un sistema en equilibrio a una T y una µ dadas (esto es, con E yN variables), y conV constante, est´a representado por un ensamble de sistemas distribuidos en los posibles microestados seg´un la probabilidad (6.93) o (6.95). ´Este es elensamble gran can´onico oµTV.

Promedios en el gran can´onico

El promedio en equilibrio del valor de expectaci´on de un observable Xn(N)

que depende del estado cu´anticon y del n´umero de part´ıculasN es

hXˆi=

1 X

N=1

X

n

Xn(N)P(n;En, N)

y por (6.93)

hXˆi= 1

1 X

N=1

X

n

Xn(N)e µN En. (6.98)

En el caso cl´asico, el promedio del observable din´amicoX( , N) es

hXi=

1 X

N=1

Z

d X( , N)p( ;N)

y de (6.95) se encuentra que

hXi= 1

1 X

N=1 e µN N!hl

Z

d X( , N)e H( ). (6.99)

Los promedios gran can´onicos en (6.98) y (6.99) pueden escribirse en t´erminos de los promedios can´onicos, (6.85) y (6.86), que denotamos aqu´ı por hXiN:

hXi= 1

X

n

e µNhXiN (6.100)

En el ensamble gran can´onico, el n´umeroN de part´ıculas es un observable que no est´a fijo, pero se puede obtener su valor medio, a partir de (6.100),

hNi= 1

X

N

(36)

que por la Ec (6.97) puede escribirse como

hNi=

✓ @ln⌅

T,V

; (6.101)

similarmente, de (6.89) y (6.100) se encuentra que la presi´on media hPi est´a dada por

hPi=

✓ @ln⌅

@V

T,µ

. (6.102)

y por ´ultimo, la energ´ıa mediahEi se obtiene con ayuda de (6.87) como

hEi=

✓ @ln⌅

@ ◆

N,V

+µhNi. (6.103)

Conexi´on gran can´onica con la termodin´amica

En las Ecs (6.101) a (6.103) tenemos informaci´on suficiente para establecer la conexi´on de la funci´on de partici´on gran can´onica con la termodin´amica. Para ello proponemos el potencial

⇧(T, µ, V) =kTln⌅(µ, T, V), cuyo cambio diferencial est´a dado por

d⇧=

✓ @⇧ @T ◆ µ,V dT + ✓ @⇧ @V ◆ µ,T dV + ✓ @⇧ @µ ◆ T,V dµ. (6.103b)

Calculamos ahora, a partir de (6.101), (6.102) y (6.103) los coeficientes di-ferenciales

@⇧

@T

µ,V

= (⇧ µhNi+hEi)/T, (6.103c)

✓ @⇧

@V

µ,T

=hPi, (6.103d)

y

@⇧

T,V

=hNi. (6.103e)

Vamos ahora a demostrar que el potencial ⇧(T, µ, V) = hPiV. Suponemos esta igualdad como hip´otesis y tomamos la ecuaci´on de Gibbs-Duhem (1.6), que dice, en nuestra notaci´on,

(37)

6.11. FLUCTUACIONES 193

al considerar adem´as la identidad d(hPiV) =hPidV +V dhPi encontramos que

d(hPiV) =hSidT +V dhPi+hNidµ, (6.104b)

la cual, al compararla con (6.103c), permite identificar los coeficientes de esta ´

ultima. Dos de estos coeficientes est´an dados por (6.103d) y (6.103e); para obtener el restante partimos de la expresi´on para la energ´ıa libre de Gibbs G =hEi ThSi+hPiV. Si adem´as recordamos que para un sistema puro G=µhNi, podemos reescribir el lado derecho en la Ec (6.103c) sencillamente como

(hPiV µhNi+hEi)/T =hSi, (6.104c)

de modo que

@⇧

@T

µ,V

=hSi) (6.104d)

con lo que se completa la demostraci´on de los tres coeficientes de (6.103c) y, por tanto, de la hip´otesis. Podemos entonces establecer que

⇧(T, µ, V) =hPiV, (6.105)

que es la relaci´on termodin´amica fundamental para el ensamble gran can´ oni-co. A ⇧=hPiV se le conoce tambi´en como potencial de Landau.

6.11.

Fluctuaciones

Dispersi´on en la energ´ıa

Analizaremos aqu´ı un par de propiedades generales de las distribuciones can´onica y gran can´onica. Primero calcularemos el ancho de la distribuci´on can´onica de energ´ıas p(E), dada por (6.83), alrededor de su promediohEi; este ancho mide la dispersi´on en los valores de E. Este c´alculo nos permi-tir´a juzgar que tan pr´oximo est´ahEidel valor m´as probableE⇤.

Para determinar el ancho de la distribuci´on p(E) tomamos la desvia-ci´on est´andar de la energ´ıa, E, que se obtiene de la varianza o desviaci´on

cuadr´atica media, 2

E, definidas ambas en el cap´ıtulo 2; la varianza es

2

E =h(E hEi)2i=hE2i hEi2. (6.106)

Figure

Actualización...

Referencias

Actualización...