• No se han encontrado resultados

Evaluación de la entropía de la distribución de energía en una simulación de un gas

N/A
N/A
Protected

Academic year: 2020

Share "Evaluación de la entropía de la distribución de energía en una simulación de un gas"

Copied!
46
0
0

Texto completo

(1)

Facultad de Ciencias

Trabajo Fin de Grado

Grado en Física

EVALUACIÓN DE LA ENTROPÍA DE LA DISTRIBUCIÓN DE ENERGÍA

EN UNA SIMULACIÓN DE UN GAS

Autor: David González Vegas

(2)
(3)

A mí familia y a mis amigos A ti, que tanto me has apoyado

Al igual que el constante aumento de la entropía es la ley fundamental del universo,

igualmente la ley fundamental de la vida es ser cada vez más estructurada y luchar

contra la entropía

(4)
(5)

Índice General

1.

Introducción

2.

Contexto Histórico

3.

Entropía y Segunda Ley

3.1. Entropía de Shannon

4.

Simulación y Resultados

4.1. Evolución del sistema 4.2. Reversibilidad temporal

4.3. Segundo Principio como proceso emergente

5.

Otras simulaciones

5.1. Caja con el techo deslizante con velocidad constante 5.2. Caja con el techo deslizante con saltos discretos 5.3. Resultados

6.

Conclusiones

A.

Cambios en el programa principal

(6)

A.5. Representación de la distribución de energía y de la entropía

(7)

1. Introducción

El objetivo del presente Trabajo de Fin de Grado es realizar un estudio de la entropía de la distribución de energía de un gas a través de una simulación de partículas por ordenador. La simulación de partículas permite evaluar cualquier sistema que estudiemos con un detalle y conocimiento de todas las variables del problema que en un experimento físico real es casi impensable, puesto que podemos analizar el movimiento y estado de cada partícula en cada momento al instante. Mediante dicha simulación trataremos de obtener y entender la entropía de nuestro sistema gaseoso, así como la Segunda Ley de la Termodinámica. Se trata de analizar este sistema para ver cómo, aunque contemos con toda la información de cada partícula que compone nuestro sistema, el determinar la entropía no es sencillo. Una vez obtenida la entropía también analizaremos el contenido de la Segundo Ley.

El análisis de la entropía y la Segunda Ley lo haremos apoyándonos en la historia. A lo largo de la historia ha habido diferentes objeciones a esta ley. Expondremos estas objeciones y para evaluar su contenido y validez utilizaremos nuestra simulación. Es decir, realizaremos un análisis a problemas históricos a través de medios con los que nosotros contamos pero que en su momento eran impensables.

(8)

2. Contexto histórico

Hay una gran cantidad de procesos que se producen en un sentido, pero no en el sentido contrario. Por ejemplo, si tenemos un plato de sopa caliente en nuestra mesa, ésta con el tiempo se enfriará. Sin embargo, si dejásemos un plato de sopa en el mismo lugar y en las mismas condiciones, nadie esperará que el plato de sopa espontáneamente se caliente. Vemos que este proceso solo se produce en una dirección. Igual que éste, hay muchos más ejemplos de la direccionalidad de los procesos: el aire tiende a acumularse homogéneamente en una habitación y no tiende a acumularse todo en un rincón, un cuerpo en movimiento tiende a calentarse debido al rozamiento, pero un cuerpo en reposo no tiende a enfriarse y emplear ese calor en empezar a moverse, etc.

Existen una gran variedad de situaciones en las que vemos que no existe simetría. Pero en ninguna de estas situaciones (ni en las situaciones que consideramos que no van a suceder) se produce una violación del Primer Principio de la termodinámica. No habiendo ninguna contradicción con este, y dado que este Primer Principio es incapaz de explicar el por qué unos procesos se producen espontáneamente en la naturaleza y otros no, está claro que es necesario algo más. Ese algo más es el Segundo Principio.

Históricamente, el Segundo Principio apareció en el marco de la Revolución Industrial y las máquinas térmicas. Con el desarrollo de la máquina de vapor y demás máquinas térmicas, los científicos se dieron cuenta de un hecho: mientras que todo el trabajo realizado es posible convertirlo en calor, no es posible hacer una conversión total de calor en trabajo, es decir, el rendimiento del proceso en un sentido es posible que sea del cien por cien, pero en el otro sentido no es posible que sea, como en el otro sentido, del cien por ciento.

En este contexto, no es de extrañar que los enunciados históricos de la Segunda Ley estén referidos a máquinas térmicas. El objetivo era comprender por qué se daba este fenómeno para poder mejorar estas máquinas. Sin embargo, este empeño acabó conduciendo a un desarrollo de la propia Termodinámica en general, no solo de las máquinas y motores.

La Segunda Ley de la Termodinámica tiene varios enunciados diferentes, pero es posible demostrar que todos estos enunciados son equivalentes. Los enunciados históricos de la Segunda Ley son:

Enunciado de Carnot: ”Para que una máquina cíclica produzca trabajo a

(9)

Enunciado de Kelvin-Planck:”Es imposible construir una máquina térmica que

funcionando cíclicamente convierta en trabajo toda la energía que recibe en

forma de calor de una fuente térmica”.

Enunciado de Clausius:”Es imposible construir una máquina cíclica cuyo único resultado sea pasar energía en forma de calor de una fuente fría a otra caliente”.

La Segunda Ley, de forma general, viene a decir algo así como que, si juntásemos dos cuerpos que se encuentran a diferentes temperaturas, el calor fluirá del cuerpo de mayor temperatura al cuerpo de menor temperatura. De ese modo, el equilibrio estará en el punto en el que ambos cuerpos tengan la misma temperatura. De forma negativa, podemos decir que el Segundo Principio nos dice que en el proceso anterior nunca va a aumentar aún más la temperatura del cuerpo que tiene la temperatura mayor al principio, ni disminuir todavía más la temperatura del cuerpo que tenía la menor temperatura en la configuración inicial.

El Segundo Principio nos introduce una restricción en los procesos, diciéndonos cuales sucederán y cuáles no. Aunque hayamos definido el Segundo Principio para el caso de procesos térmicos, a raíz de los enunciados referidos a máquinas térmicas, éste es extensible a procesos de todo tipo: térmicos, mecánicos, eléctricos...

Y relacionado con este nuevo principio, está la entropía. La entropía viene a ser una magnitud macroscópica del sistema cuya variación a lo largo de un proceso marca si este proceso entra dentro de los que puede ocurrir de manera espontánea o si entra dentro de los que no pueden ocurrir de manera espontánea. Esto es, el Segundo Principio nos marca la direccionalidad de los procesos a través de esta nueva magnitud que es la entropía. Más adelante definiremos la entropía con más detalle, de momento nos quedaremos con esta pequeña pincelada.

Fue Rudolf J. E. Clausius (1822 1888) quien introdujo por primera vez el concepto de entropía -básicamente viene a ser lo visto en el párrafo precedente- pero no fue hasta 1872 cuando el genio Ludwig E. Boltzmann (1844 -1906) definió la entropía desde el punto de vista microscópico, es decir, demostró que el significado de la Segunda Ley estaba en la teoría atómica. Esto quiere decir que relacionó una magnitud macroscópica como es la entropía con magnitudes microscópicas, como son los diferentes microestados del sistema. Es una relación análoga a la que existe entre temperatura de un gas y velocidad de sus partículas, según la Teoría Cinética de los Gases.

(10)

estarían ya bastante claros y aceptados por la comunidad. Sin embargo, esto no fue así para nada. De hecho, todo lo contrario. Las ideas de Boltzmann no fueron aceptadas por gran parte de la comunidad científica, y surgieron varias objeciones a su trabajo. A continuación, dos de las principales objeciones históricas a las ideas de Boltzmann:

Johann Joseph Loschmidt (15 de marzo de 1821 - 8 de julio de 1895) fue un eminente químico y físico, amigo personal de Boltzmann. Trabajó principal sobre la teoría de valencia molecular y el tamaño de las propias moléculas. El número de Avogadro, se conoce también como número Loschmidt, debido a que éste realizo el primer intento por medirlo.

En un artículo de 1876 sobre el equilibrio térmico de cuerpos sujetos a la fuerza gravitatoria, Loschmidt hizo una primera objeción a Boltzmann y a la Segunda Ley en concreto. Básicamente, lo que propone Loschmidt es que es imposible obtener consecuencias irreversibles -el Segundo Principio lo es- a partir de unas leyes reversibles, como lo son las leyes de Newton. Esta objeción

se conoce también como “paradoja de la reversibilidad”,

Esta objeción está relacionada con la inversión temporal. La idea de lo que decía Loschmidt es lo siguiente: si tenemos un cierto gas y lo dejamos evolucionar, las partículas de este se moverán,

chocarán… y la entropía del gas crecerá. Hasta ahí todo correcto. Pero en el caso de que cogiésemos las partículas del gas, una a una, y cambiásemos el signo de sus velocidades, estas seguirían el mismo camino que si estuviésemos avanzando hacia atrás en el tiempo, según las leyes de Newton. Pero el problema está en que la entropía estaría bajando. Si cuando avanzábamos en un sentido la entropía aumentaba, si avanzamos en el sentido contrario disminuirá, contradiciendo el Segundo Principio. Por lo tanto, Loschmidt concluía que únicamente con las leyes de Newton no bastaba, sino que debía de haber algo más.

Ernst Friedrich Ferdinand Zermelo (Berlín, 27 de julio de 1871 – 21 de mayo de 1953) fue un lógico y matemático alemán. Se le conoce principalmente por sus trabajos en Teoría de Conjuntos.

(11)

demostrar la Segunda Ley, es decir, no podía demostrar que la entropía fuese una cantidad que siempre se incrementase con el tiempo.

En un ejemplo cotidiano, esto se traduciría en que un buen día dejemos un huevo en el borde de la mesa, con tan mala suerte que al dejarlo rueda y se precipita sobre la alfombra. Según Zermelo, si esperásemos un tiempo suficiente (que podrían ser decenas de miles de millones de años), las partículas y moléculas que componen nuestro huevo, en sus movimientos aleatorios constantes, volverían a, milagrosamente, recomponer el huevo y que este subiese hasta la mesa, justo allí donde nosotros lo dejamos.

Vistas estas dos objeciones, podríamos pensar que estas ideas son algo del pasado, de científicos del siglo XIX que quizá no entendieron los conceptos que Boltzmann introdujo. La crítica de Zermelo podríamos considerar superada, puesto que ahora la teoría de la Probabilidad es algo habitual (la Mecánica Cuántica se basa en ella, por ejemplo), pero en el siglo XIX esto no era así. La mayoría de científicos se oponían a estas ideas probabilísticas debido a que consideraban que de esta manera renunciaban a poder resolver los problemas de forma exacta. Sin embargo, la discusión sobre la reversibilidad no está tan clara. Del mismo modo que Loschmidt la formuló antaño, científicos de hoy en día piensan igual que él. Sin irnos más lejos, el eminente Roger Penrose

(1931-Actualidad) utiliza el mismo argumento que Loschmidt en su libro “Ciclos del Tiempo”. Es más,

(12)

3. Entropía y Segunda Ley

En el capítulo anterior hemos hecho un repaso histórico al desarrollo del Segundo Principio y el concepto de entropía, pero en ningún momento hemos explicado esos conceptos formalmente. En este capítulo lo que haremos será tratar de explicar qué dice la Segunda Ley y qué significa el concepto de entropía de un modo más detallado que antes y usando un formalismo matemático del que antes hemos prescindido.

La formulación matemática termodinámica clásica del Segundo Principio, es la siguiente, la llamada desigualdad de Clausius:

𝑑𝑆 ≥𝑑

𝑄

𝑇 (3.1)

En esta expresión, en el término de la derecha nos aparece 𝑄, el calor transferido en el proceso;

también aparece 𝑇, que es la temperatura de equilibrio del sistema. En el término de la izquierda de

la ecuación nos aparece 𝑆, que es la entropía del proceso.

Vemos que a diferencia de, por ejemplo, el Primer Principio, lo que tenemos es una desigualdad y no una igualdad. Esto se traduce en que, en los procesos reales, irreversibles, la entropía de nuestro sistema aumenta, es mayor al final del proceso que cuando este comenzó. La igualdad solo se cumple para el caso de procesos reversibles (los cuales no son reales). Por lo tanto, en cualquier proceso, la entropía debería aumentar o, como mínimo, mantenerse constante para que la Segunda Ley se cumpla.

En la expresión de arriba, que se encuentra en forma diferencial, en caso de integrarla lo que obtendríamos es:

∆𝑆 ≥ ∮𝑑′𝑄

𝑇 (3.2)

(13)

momento. Es más, con lo visto hasta ahora, no tenemos un sentido físico claro para esta magnitud, la entropía. La entropía sería la culpable de que no todo el calor sea posible transformarlo en trabajo útil, pero su sentido no está del todo claro.

Si queremos entender el concepto físico de lo que es la entropía, debemos utilizar la teoría de Boltzmann. Lo que hizo Boltzmann fue definir la entropía desde un punto de vista microscópico. Así, se relacionaba una magnitud macroscópica con el mundo microscópico. Para entender las ideas de Boltzmann, primero tenemos que definir unos pocos conceptos, como son microestado y macroestado.

Macroestado es aquella configuración macroscópica definida por los parámetros N, V, E (número de partículas, volumen y energía del sistema respectivamente). A nivel microscópico habrá distintas posibilidades en que la energía E se distribuya entre la N partículas que conforman el sistema. Cada una de esas distintas posibilidades es lo que se denominada como microestado. Esto es, si tenemos dos sistemas diferentes, pero que tienen las magnitudes macroscópicas idénticas -ambos sistemas tienen la misma energía, número de partículas y ocupan el mismo volumen-, podríamos sacar una

“foto” de cada sistema. Cada sistema tendría una configuración microscópica diferente -las partículas tendrán posiciones diferentes, velocidades diferentes…-, es decir, tendrán un microestado determinado. Sin embargo, el macroestado del sistema es el mismo, puesto que ambos sistemas tienen los mismos valores para las magnitudes macroscópicas.

Por ejemplo, en un sistema de dos partículas, para obtener un macroestado con una energía de 2 unidades de energía, habría tres posibilidades. Que una partícula tenga energía 2 y la otra tenga energía 0; el mismo caso, pero al revés, es decir, que la una tenga energía 0 y la otra tenga energía 2; o que ambas tengan energía 1. Las tres posibilidades (microestados) tienen al final un mismo resultado (macroestado).

¿Y cuántos posibles microestados tiene cada macroestado en un caso general? Denominaremos Ω

(N, V, E) al número de microestados accesibles por el sistema que pueden dar un determinado macroestado N, V, E, esto es, el número total de microestados diferentes que llevan a un mismo macroestado.

Boltzmann, lo que hizo fue relacionar todas estas magnitudes con la entropía, plasmándolo en la famosa expresión:

(14)

Donde 𝑆, es, como ya hemos visto, la entropía del sistema, Ω es el número de microestados

accesibles del sistema y 𝑘, es la conocida como constante de Boltzmann. Esta constante tiene un

valor de 𝑘=1,3806488(13)×10−23 JK-1. Curiosamente, a pesar de conocerse como constante de

Boltzmann no fue utilizada por primera vez por éste, sino por Max Planck.

Entonces, vemos que la entropía está relacionada con el número de microestados accesibles del sistema. Los microestados del sistema están relacionados con el desorden y la información -o desinformación- que tenemos de nuestro sistema. Así, un macroestado que solo tuviese un microestado posible, tendría entropía mínima, 0. En este caso podríamos hablar de un “orden máximo” o una “información máxima” del sistema, puesto que, al tener un único microestado posible, la probabilidad de que el sistema se encuentra en dicho microestado es máxima, de ahí que hablemos de información sobre el sistema.

A medida que las moléculas se mueven, chocan, intercambian energía… el sistema lo que hace es evolucionar hacia una configuración cuyo número de microestados accesibles sea mayor, es decir el sistema evoluciona hacia un macroestado más probable. En este caso se podría decir que el

“desorden” ha aumentado, así como la “desinformación” del sistema. Por lo tanto, cuando estamos en el desequilibrio, lo que ocurre es que el sistema evoluciona buscando aquellas configuraciones cuyo número de microestados accesibles aumenta, lo que implica que la entropía va aumentando también.

Esta definición dada por Boltzmann, nos da un valor absoluto para la entropía, no nos da variaciones como vimos en la expresión matemática del Segundo Principio. ¿Quiere decir esto que por fin hemos encontrado una expresión de la entropía a partir de la cual construir nuestro entropímetro? Otra vez, la respuesta nos da muestra de lo complicado que es el concepto con el que estamos tratando.

En cada momento, es decir, si en un cierto instante sacásemos una foto de nuestro sistema, veríamos que se encuentra en un cierto macroestado, cuya probabilidad vendrá dada por el número de microestados accesible para dicho macroestado. El problema está en que, en cada momento,

solo tenemos un único microestado, determinado por la velocidad, posición… de cada partícula del

(15)

Ni con esta definición de Bolztmann hemos logrado definir la entropía de un modo tal que sea posible determinarla en nuestro sistema. Vemos que el tratar de definir la entropía no es un tema trivial. Este es el objetivo de este Trabajo. Vamos a tratar de demostrar que, efectivamente, la entropía y la Segunda Ley son conceptos sutiles y no tan claros como pueda parecer.

Antes hemos visto que Boltzmann dio un sentido probabilístico tanto a la entropía como a la Segunda Ley. El fondo de este sentido probabilístico está en la incapacidad que tenemos para poder tener todos los datos de un determinado sistema. En un gas, es imposible conocer velocidades,

posiciones… de todas las partículas que conforman el gas en cada momento, debido al inmenso

número de partículas que conforman el gas. ¿Pero qué ocurriría si pudiésemos superar esta limitación?

Lo que haremos en este Trabajo de Fin de Grado es eso, superar esta limitación. A través de una simulación por ordenador, tendremos en cada instante, todos los datos del gas y de cada una de las partículas que lo conforman. Obviamente no vamos a simular un gas real, que puede tener del orden de 1023 partículas. Sin embargo, con 100 partículas, que será el número de partículas que

utilizaremos a lo largo de las distintas simulaciones, ya tenemos una buena muestra estadística para el comportamiento de un gas. En estas condiciones, ¿será posible definir la entropía y comprender la Segunda Ley?

3.1 Entropía de Shannon

Antes de empezar con las simulaciones, debemos explicar cómo vamos a calcular la entropía en nuestro programa. Hemos visto que calcular la entropía no es nada sencillo. Nosotros lo que haremos es utilizar la entropía de Shannon.

La entropía de Shannon, nombre tomado de Claude E. Shannon (abril 30, 1916 – febrero 24, 2001), o entropía de la información, mide la información que tenemos de una fuente de información, esto es, mide la incertidumbre de dicha fuente. La entropía de Shannon se utiliza principalmente en teoría de la información, pero como veremos a continuación, su concepto lo podremos extender también al campo de la física estadística, puesto que, al fin y al cabo, ambos conceptos de entropía se refieren a lo mismo.

(16)

sistema se encuentre en un determinado macroestado, más información diremos que tenemos del sistema. Por lo tanto, ambos conceptos están relacionados.

La expresión matemática de la entropía de Shannon es:

𝑆 = −〈ln 𝑃𝑟〉 (3.4)

Aquí tenemos el valor medio del logaritmo de una cierta magnitud P, que denominaremos como probabilidad de que la partícula se encuentre en un estado de energía E. En nuestro caso esta energía será únicamente cinética, puesto que no consideramos gravedad ni interacción entre las partículas del gas más allá de los choques entre las mismas.

Demostremos que la expresión que hemos puesto de la entropía de Shannon es realmente así y que es válida para nuestro sistema gaseoso.

La probabilidad de que una partícula 𝑟 dentro del gas se encuentre en un cierto estado con energía

E viene dada por:

𝑃𝑟 = 𝑒

−𝛽𝐸𝑟

∑ 𝑒𝑟 −𝛽𝐸𝑟 (3.5)

Donde β es simplemente una agrupación de constantes,

𝛽 = (𝑘𝑇)−1 (3.6)

Y donde Er es la energía de un cierto estado.

Podemos agrupar el dividendo a través de la función de partición. La función de partición, Z, de un sistema representa todo el volumen fásico (suma de todos los estados) accesible por el sistema ponderado según la distribución de Boltzmann. Esto se traduce en que la probabilidad de que una partícula se encuentre en un cierto estado con energía E resulta:

𝑃𝑟 = 𝑒

−𝛽𝐸𝑟

∑ 𝑒−𝛽𝐸𝑟 𝑟

= 𝑍−1𝑒−𝛽𝐸𝑟 (3.7)

Llevando esta expresión al logaritmo que aparece en 3.4 nos queda:

〈ln 𝑃𝑟〉 = 〈− ln 𝑍 − ln 𝛽𝐸𝑟〉 (3.8)

(17)

〈− ln 𝑍 − ln 𝛽𝐸𝑟〉 = − ln 𝑍 − ln 𝛽〈𝐸𝑟〉 (3.9)

Para el siguiente paso tenemos que introducir el concepto de energía libre de Helmholtz. El significado de esta magnitud viene a ser la energía que puede realizar un sistema. La expresión matemática de la energía de Helmholtz, en el contexto de la física estadística y utilizando la función de partición es:

𝐹 = −𝑘𝑇 ln 𝑍 = −𝛽−1ln 𝑍 → ln 𝑍 = − 𝛽𝐹 (3.10)

Entonces, introduciendo la energía libre de Helmholtz en 3.9 obtenemos:

〈ln 𝑃𝑟〉 = 𝛽𝐹 − 𝛽〈𝐸𝑟〉 (3.11)

Donde 〈𝐸𝑟〉 es realmente la energía interna de nuestro sistema, U.

Llegados a este punto, utilizaremos la definición termodinámica de la energía libre de Helmholtz, que es:

𝐹 = 𝑈 − 𝑇𝑆 (3.12)

Utilizando esta expresión 3.12, llegamos al último paso de esta demostración:

〈ln 𝑃𝑟〉 = −𝛽(𝐹 − 𝑈) = −𝛽(−𝑇) (3.13)

Por lo tanto, obtenemos finalmente:

〈ln 𝑃𝑟〉 = −

𝑆

𝑘 → 𝑆 = −𝑘〈ln 𝑃𝑟〉 (3.14)

Que es precisamente la ecuación que habíamos puesto arriba de la entropía de Shannon. Vemos que la fórmula de la entropía de la información de Shannon es también válida para nuestro sistema de un gas. Simplemente, notar que, para el caso de la entropía de nuestro sistema gaseoso, aparece un factor adicional que es la constante de Boltzmann. Solo es un factor multiplicativo, que no cambia en nada la forma de la entropía

(18)

Entonces, lo que haremos es utilizar la distribución de energía del gas. De este modo, lo que tenemos como probabilidad es algo así:

𝑃𝑟𝑜𝑏(𝐸) 𝛼 𝑒−𝐸/𝑘𝑇 (3.15)

De este modo, cuando pasamos al logaritmo, tenemos algo que será:

𝑆 = −𝑘〈ln 𝑃〉 ~ − 𝑘 〈ln 𝑒−

𝐸

𝑘𝐵𝑇〉 = −𝑘 〈− 𝐸

𝑘𝑇〉 (3.16)

Es decir, recuperamos algo que tiene la misma forma que el Segundo Principio, es decir, una energía dividido entre la temperatura de equilibrio del sistema que recordemos era:

𝑑𝑆 ≥𝑑

𝑄

𝑇 (3.17)

Por lo tanto, podemos decir que la expresión de la entropía que vamos a utilizar y la expresión del Segundo Principio son equivalentes.

Para acabar, demos un paso más en esta expresión de la entropía, obteniendo la expresión que finalmente utilizaremos en nuestro programa. Para ello, utilizaremos el Primer Postulado de la Mecánica Estadística:

Primer Postulado: Los valores de los parámetros macroscópicos que definen el estado de un sistema son iguales a los valores medios, sobre el conjunto de microestados asociados, de la correspondiente magnitud microscópica.

Este postulado, básicamente lo que nos dice, para nuestro caso en concreto, es que el valor medio del logaritmo de algo queda como la suma ponderada de los distintos logaritmos. Esto es:

〈ln 𝑃𝑟〉 = ∑ 𝑃𝑟ln 𝑃𝑟 (3.18) 𝑟

Entonces, finalmente hemos llegado a la expresión que utilizaremos para el cálculo de la entropía de nuestro sistema a través del programa:

𝑆 = −𝑘 ∑ 𝑃𝑟ln 𝑃𝑟 (3.19)

𝑟

(19)

Por tanto, ya tenemos nuestra hoja de ruta hecha. En nuestra simulación, calcularemos nuestra entropía mediante la expresión para la entropía que tenemos justo arriba. En estos primeros apartados hemos la entropía y el Segundo Principio, así como las dificultades asociadas a estos conceptos. ¿Lograremos superar estas dificultades a través de la simulación de partículas?

Veremos…

Remarca: ¿Está bien calculada la entropía de nuestra caja? No del todo. Hemos calculado la entropía a través de la distribución de energía, o lo que es lo mismo, hemos obtenido la entropía a través del espacio de momentos. Sin embargo, para definir perfectamente la entropía de nuestra caja, deberíamos haber tenido en cuenta también el espacio de posiciones.

El espacio en el que estamos trabajando se divide en dos: posición y momento. Uno corresponde al momento que posee la partícula, esto es, la velocidad -y en último grado la energía cinética- y el otro corresponde al lugar que ocupa la partícula dentro de la caja. Tanto uno como otro contribuyen a la entropía, uno según la distribución de las velocidades de las partículas y el otro según la distribución espacial de las partículas -si todas las partículas están juntas en un rincón, habrá más entropía que si se distribuyen uniformemente por la caja-.

¿Entonces estamos haciendo trampa y tenemos una entropía mal calculada? Para lo que nosotros buscamos, esto no va a ser relevante en los resultados. Todas las posiciones son igualmente probables –no como en el espacio de momentos, que toma la forma de una distribución de Maxwell-Boltzmann-. Por lo tanto, para nuestro caso, que tenemos todas las partículas acumuladas en la parte inferior de la caja para posteriormente distribuirse por toda la caja, obviamente, la parte espacial nos daría una entropía baja al comienzo y que crece cuando se distribuyen las bolas por toda la caja. Sin embargo, esto no nos aporta mucho, más allá de la satisfacción de tener todos los cálculos bien hechos, de cara a los resultados.

(20)
(21)

4. Simulación y resultados

El programa utilizado en este Trabajo de Fin de Grado se basa en el programa Arquímedes_2d, programa creado por Luis Enrique Coronas para su Trabajo de Fin de Grado, “El Principio de Arquímedes a través de una simulación de partículas”, presentado en el 2015. El objetivo de dicho TFG era mostrar de qué manera los procesos emergentes pueden ser estudiados utilizando simulaciones por ordenador, aplicándolo principalmente al Principio de Arquímedes. Entonces, para estudiar el Principio de Arquímedes, Luis Enrique Coronas creó un programa en el que simulaba unos fluidos dentro de una caja. Como el objeto de nuestro trabajo es estudiar el comportamiento de un gas dentro de una caja, el contar con la base creada por Luis Enrique es de gran utilidad, aunque en ningún caso queremos reproducir dicho trabajo, únicamente aprovecharemos el programa como base para estudiar lo que a nosotros nos interesa -la entropía y la Segunda Ley- y no gastar tiempo en crear de cero un programa que ya existe. Por tanto, para los detalles del funcionamiento del programa, consultar dicho Trabajo de Fin de Grado, donde se explica todo de forma clara y concisa.

Todos los cambios que hemos hecho nosotros adicionalmente, para adaptar el programa de nuestro compañero a que se ajuste a lo que nosotros buscamos se encuentra en el apéndice A.

Así, lo que tenemos en la simulación es una caja de paredes rígidas. En el interior de dicha caja, colocamos una cierta cantidad de bolas, también rígidas, las cuales no tienen ninguna interacción entre sí. La única interacción que se da en el interior de nuestra caja son los choques de las bolas entre sí y los choques de las bolas contra las paredes. Dichos choques son siempre elásticos, por lo que la energía en todos los choques se va a conservar. Podemos verlo como que tenemos una mesa de billar cuadrada y las bolas de billar -las partículas que conforman el gas- van chocando entre ellas, así como contra las paredes de la mesa. Todos los choques se resuelven según las leyes de Newton, que es lo que nosotros introducimos en la simulación. La Segunda Ley no está introducida de ningún modo en el programa.

Los choques entre las bolas con las paredes se resuelven de una manera muy sencilla, puesto que las paredes lo único que hacen es cambiar la componente de la velocidad perpendicular a la pared. Esto es, para un choque contra las paredes verticales:

𝑣𝑑𝑒𝑠𝑝𝑢é𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑦 = −𝑣𝑎𝑛𝑡𝑒𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑦 (4.1)

(22)

Del mismo modo, para las paredes horizontales:

𝑣𝑑𝑒𝑠𝑝𝑢é𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑥 = −𝑣𝑎𝑛𝑡𝑒𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑥 (4.3)

𝑣𝑑𝑒𝑠𝑝𝑢é𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑦 = 𝑣𝑎𝑛𝑡𝑒𝑠 𝑐ℎ𝑜𝑞𝑢𝑒𝑦 (4.4)

Por otro lado, están los choques de las bolas entre sí. Se trata de choques elásticos de bolas rígidas no puntuales. Para resolver esta colisión, se utilizan los principios tanto de conservación de momento como de conservación de la energía en el choque. Además, consideramos que el intercambio de momento entre las bolas se produce en la dirección que une los centros de masas de las bolas (conservación del plano de colisión). Así, si llamamos 𝑝⃗ a los momentos antes del choque y 𝑃⃗⃗ a los

momentos después del mismo, y diferenciamos las dos bolas mediante los subíndices uno y dos, la conservación del momento resulta:

𝑝⃗1+ 𝑝⃗2 = 𝑃⃗⃗1+ 𝑃⃗⃗2 (4.5)

La conservación de la energía se traduce en:

𝑝⃗1

2𝑚1

+ 𝑝⃗2 2𝑚2

= 𝑃⃗⃗1 2𝑚1

+ 𝑃⃗⃗2 2𝑚2

(4.6)

El vector unitario en la dirección que uno los centros de masas de las bolas, que es la dirección que nos interesa en el choque será:

𝑢⃗⃗ = 𝑟⃗21 |𝑟⃗21|

(4.7)

Así, como la variación de momento se produce en esta dirección, el momento final será:

𝑃⃗⃗1 = 𝑝⃗1+ 𝐹𝑢⃗⃗ (4.8)

𝑃⃗⃗2 = 𝑝⃗2− 𝐹𝑢⃗⃗ (4.9)

Donde F es el factor de intercambio de momento, es decir, el factor que nos indica cuánto momento se intercambian las bolas en el choque. Este factor es lo que nos falta por conocer. Elevemos al cuadrado estas expresiones:

𝑃12 = 𝑝

(23)

𝑃22 = 𝑝

22+ 𝐹2− 2𝐹𝑝⃗2𝑢⃗⃗ (4.11)

Llevándolas a la expresión de la conservación de la energía:

𝑝12 𝑚1+

𝑝22

𝑚2 =

𝑝12+ 𝐹2+ 2𝐹𝑝⃗1𝑢⃗⃗

𝑚1 +

𝑝22+ 𝐹2− 2𝐹𝑝⃗2𝑢⃗⃗

𝑚2 (4.12)

−𝐹

2+ 2𝐹𝑝⃗ 1𝑢⃗⃗

𝑚1 =

𝐹2 − 2𝐹𝑝⃗2𝑢⃗⃗

𝑚2 (4.13)

Obviando la solución que conduce a F=0:

−𝐹 + 2𝑝⃗1𝑢⃗⃗

𝑚1 =

𝐹 − 2𝑝⃗2𝑢⃗⃗

𝑚2 (4.14)

−𝐹 ( 1

𝑚1+

1 𝑚2) =

−2𝑝⃗2𝑢⃗⃗

𝑚2 +

2𝑝⃗1𝑢⃗⃗

𝑚1 (4.15)

−𝐹1

µ= −2𝑣⃗2𝑢⃗⃗ + 2𝑣⃗1𝑢⃗⃗ (4.1)

Donde µ es la masa reducida de las dos bolas.

Por tanto,

𝐹 = 2µ(𝑣⃗2− 𝑣⃗1)𝑢⃗⃗ (4.16)

Por lo que finalmente obtenemos que las velocidades después de la colisión son:

𝑣⃗1′ = 𝑃⃗⃗1

𝑚1 = 𝑣⃗1+ 𝐹

𝑚1𝑢⃗⃗ (4.17)

𝑣⃗2′ = 𝑃⃗⃗2

𝑚2 = 𝑣⃗2− 𝐹

𝑚2𝑢⃗⃗ (4.18)

Como las masas de ambas bolas son iguales, la masa reducida es:

µ = 2

𝑚 (4.19)

Por lo que el resultado final es algo más sencillo.

(24)

esta simplicidad tenemos una representación bastante buena del comportamiento de un gas ideal en una caja.

Este programa ha sido hecho con un fin muy concreto: estudiar la entropía de distribución de energía. Precisamente para ello hemos diseñado el programa para que las bolas estén situadas al inicio formando un cuadrado y todas con la misma energía inicial. Analizando los casos límites podremos estudiar las situaciones más controvertidas.

A partir de ahí, usando también la reversibilidad temporal que hemos agregado al programa, podremos hacer que todas las bolas retrocedan en el tiempo a partir de un cierto momento que nosotros determinamos.

Cada vez que ejecutemos el programa, en pantalla nos aparece una representación visual de la caja con las bolas dentro, la distribución de energía en cada instante de tiempo y, al acabar toda la simulación, aparecerá una gráfica de la entropía a lo largo del tiempo.

Con todas las funciones de nuestro programa, podremos estudiar la entropía y analizar las discusiones que han surgido históricamente en torno a su concepto, así como a la Segunda Ley.

Remarca: Cabe decir que asociado al programa existe un error de cálculo inherente al mismo. Debido a la naturaleza misma de la simulación informática, los cálculos que se realizan en ella, son de una gran precisión, pero no de una precisión infinita. Esto se traduce en que en la simulación siempre vamos a ir arrastrando un cierto error con nosotros.

Esto quiere decir que cuando el programa avanza hacia adelante, llevamos acumulando ciertos errores en los cálculos, aunque en este caso son imperceptibles. El problema viene cuando ponemos el programa hacia atrás. En esta situación, para que todo saliese perfecto, y cada bola recorriese el camino inverso exactamente igual que el que hizo en la ida, necesitaríamos una precisión máxima, que, como hemos visto, no es posible.

(25)

la simulación, pero eso no afecta a los resultados físicos que queremos poner de manifiesto.

4.1 Evolución del sistema

Usemos entonces el programa para analizar la entropía de nuestro sistema. De forma general y si no se indica otra cosa, siempre utilizaremos como parámetros del programa fijo el número de bolas que meteremos dentro de la caja (100), el factor de ocupación -relación entre el tamaño de las bolas y el tamaño de la caja- (0.1), el tiempo de dibujo -espaciado temporal entre cada imagen que saquemos- (1) y la velocidad máxima -velocidad máxima considerada al calcular la distribución de energía- (3). Lo que variaremos en las distintas simulaciones será, sobre todo, el tiempo total de simulación y el tiempo desde el cuándo la simulación comienza a ir hacia atrás en el tiempo. La primera simulación que haremos es también la más obvia. Partiendo de la situación desde la que comienza el programa, dejemos el sistema avanzar en el tiempo, solo hacia adelante, esto es, todavía no usaremos la funcionalidad de ir hacia atrás en el tiempo que posee nuestro programa. La configuración inicial es una configuración donde la entropía es la mínima posible, puesto que tenemos todas las bolas colocadas en una esquina de la caja y, además, partimos de una situación donde la velocidad (y, por tanto, la energía) de todas las partículas es la misma. En esta situación, la distribución de energía es una delta de Dirac, que al calcular la entropía se traduce en una entropía nula. Usemos como t_sim = 1000 y t_back = 0.

Lo que ocurre es que las bolas, partiendo de la esquina inferior izquierda, todas con la misma velocidad, se irán distribuyendo a lo largo y ancho de nuestra caja. Además, al ir chocando entre ellas la energía se irá traspasando de una a otra, abandonando la situación inicial cuando todas las bolas tenían la misma energía. Esto significa, que la distribución de energía varía desde una delta de Dirac en la situación inicial hasta lo que sería la distribución de máxima entropía: la distribución de Maxwell-Boltzmann.

(26)

Figura 4.1: Programa Entropia. Parámetros: bolas 100; factor de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000; tiempo a partir del cual el programa va hacia atrás 0.

Vemos que sí, efectivamente al principio de la simulación la entropía, partiendo de cero, aumenta, tal como establece el Segundo Principio. Sin embargo, vemos que, una vez se ha alcanzado el equilibrio, la entropía no permanece constante, sino que a veces aumenta, otras disminuye (obviamente cuando aumenta nunca puede subir por encima del valor máximo, el que correspondería a la distribución de Maxwell-Boltzmann). Y, además, aumenta tantas veces como disminuye, es decir, aumenta con la misma probabilidad con la que podría haber disminuido. Vemos que, una vez alcanzado el equilibrio, la entropía no se mantiene constante en el valor máximo, sino que oscila en torno a un cierto valor, menor que el máximo. ¿Qué significa esto? ¿Acaso es que la Segunda Ley no es válida?

La Segunda Ley establece que la entropía en todo proceso debe aumentar o, como poco, mantenerse constate. Por lo tanto, vemos que efectivamente, la Segunda Ley deja de ser válida. Ya Boltzmann en su día dijo que había ciertas situaciones en las cuales la Segunda Ley no se cumplía. Esto casa con lo que Zermelo objetó a Boltzmann en la última década del siglo XIX. Como hemos visto en la introducción histórica, la crítica de Zermelo estaba basada en el teorema de Poincaré. Decía que todo sistema con una cierta configuración inicial, en caso de dejarlo evolucionar en el tiempo, en algún momento -por muy grande que este tiempo sea- el sistema volverá a pasar por su configuración inicial.

(27)

en el tiempo, puesto que, para volver a la configuración inicial, la entropía en algún momento debería haber disminuido.

Tanto las fluctuaciones que hemos observado en la simulación como las críticas de Zermelo tienen algo en común -y prácticamente son la misma cosa, puesto que la vuelta al estado inicial no sería más que una fluctuación-. Nos dan cuenta de que la entropía no siempre aumenta (ni se mantiene constante, en el peor de los casos), sino que puede bajar y, de hecho, en el equilibrio hemos visto que bajaba tantas veces como subía -fluctuaciones-. Por lo tanto, hemos visto situaciones donde el Segundo Principio no se cumplía.

El origen de este incumplimiento se encuentra en la naturaleza aleatoria de nuestro sistema (y de todos los sistemas de este tipo en general). Debido a la aleatoriedad en los movimientos de las partículas de nuestro sistema, la entropía unas veces baja, otras sube, otras podría bajar hasta una

situación de entropía mínima (nuestra configuración inicial) … ¿Resta esto validez a la Segunda

Ley? No. Para sistemas reales, con un gran número de partículas, las fluctuaciones serán mucho menores y el que podamos regresar a nuestra configuración inicial tan improbable requeriría de un tiempo inmenso. Esto es, nadie se imagina que el huevo en el suelo se recomponga y salte a la mesa.

La Segunda Ley nos dice que la entropía aumenta en los procesos reales. No obstante, hemos visto que se puede incumplir. Esto significa que la Segunda Ley nos dice cuál es el modo más probable en que evolucionen los sistemas, pero podría no ser así en algún momento. Pero el sentido que marca la Segunda Ley es el más probable y esta probabilidad es muy alta. De hecho, la contestación de Boltzmann a Zermelo fue algo en esta línea. Su respuesta fue que su razonamiento era correcto, pero su aplicación al mundo real no, puesto que los tiempos necesarios para volver a esa configuración inicial serían tan inmensamente grandes que no tenía sentido considerarlos.

Vemos que tanto la entropía como la Segunda Ley son sutiles, no son fáciles de comprender y llevan trayendo complicaciones de cabeza a los físicos desde hace siglos.

4.2 Reversibilidad temporal

Ahora usaremos la función de reversibilidad temporal del programa para analizar la objeción de Loschmidt y el asunto de la reversibilidad o no del Segundo Principio.

(28)

posible obtener una consecuencia, como lo es el Segundo Principio, irreversible. Se trataba de que en una dirección temporal -la nuestra-, la entropía, según lo que dice el Segundo Principio tiende a aumentar. Sin embargo, si hiciésemos que el tiempo fuese hacia atrás en vez de hacia delante, siguiendo las leyes de Newton la entropía disminuirá, contradiciendo así el Segundo Principio. Por lo tanto, Loschmidt concluía que con las leyes de Newton, únicamente, no bastaba, sino que debía de haber algo más.

Usaremos nuestro programa para analizar si lo que acabamos de ver es cierto o no. La primera simulación que haremos será hacer evolucionar nuestro sistema y, llegados un punto, retroceder en el tiempo hasta el instante inicial. Los parámetros para esta simulación son: t_sim=200, t_back=100

Figura 4.2: Programa Entropia. Parámetros: bolas 100; factor de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 200; tiempo a partir del cual el programa va hacia atrás 100.

Lo que obtenemos es tal y como hemos expuesto antes. Cuando el tiempo avanza “hacia delante”

la entropía tiene una tendencia a crecer. Por el otro lado, cuando ponemos el tiempo “hacia atrás”,

la entropía tiende a decrecer, contradiciendo totalmente al Segundo Principio. A priori parece que estos científicos tenían razón, la Segunda Ley no es reversible en el tiempo y, consecuentemente, no podemos derivarla simplemente de las leyes de Newton, que sí que son reversibles temporalmente.

(29)

realizaremos ahora la simulación con los parámetros: t_sim = 1000; t_back = 100. Es decir, mantenemos el mismo tiempo a partir del cual las bolas invertirán su velocidad. Pero ahora dejaremos que la simulación continúe más allá del momento inicial, retrocediendo más en el tiempo. ¿Qué ocurrirá ahora?

Figura 4.3: Programa Entropia. Parámetros: bolas 100; factor de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000; tiempo a partir del cual el programa va hacia atrás 100.

¿Qué hemos obtenido? Hasta T=200, la simulación es idéntica a la anterior figura, esto es, la entropía aumenta y, cuando damos la vuelta a las velocidades, la entropía recorre el camino inverso, disminuyendo y contradiciendo al Segundo Principio.

Pero, ¿qué ocurre una vez hemos superado el tiempo cuándo el sistema ha vuelto a su configuración inicial de entropía mínima? El sistema, lo que hace es seguir evolucionando. Y esta evolución lleva asociada un aumento de entropía.

(30)

4.3 Segundo Principio como proceso emergente

Un proceso emergente es aquel en el que el comportamiento del sistema no es posible deducirlo a partir del comportamiento de las partes que le componen individualmente. Esto es, hablando

coloquialmente, “el todo es más que la suma de las partes”. Estos procesos tienen su origen en las

leyes estadísticas que rigen sistemas complejos. Aunque cada una de las partes que conforma el sistema tenga unas leyes relativamente sencillas, el sistema en su conjunto puede tener un comportamiento totalmente diferente y que nada tiene que ver con el comportamiento de cada una de las partes.

En el tema que nos ocupa, ¿cuál es la solución al problema? ¿Es posible derivar el Segundo Principio a partir de las leyes de Newton o por el contrario debemos añadirlos a las leyes de Newton para poder tener un conjunto de leyes que nos expliquen la naturaleza? Ni una cosa ni la otra.

Por un lado, el Segundo Principio no es posible derivarlo a partir de las leyes de Newton. Lo que dijo en su día Loschmidt sobre que la Segunda Ley no podía ser derivada a partir de las leyes de Newton es verdad, no es posible.

Pero por el otro lado, tampoco es necesaria añadir la Segunda Ley al conjunto de las Leyes de Newton, tal y como dice Penrose. Es más, cuando juntamos las leyes de Newton con una Segunda Lay añadida después es cuando las cosas fallan, puesto que, como hemos visto antes, hay numerosos casos en los cuales la Segunda Ley no se cumple.

¿Entonces qué? En nuestra simulación únicamente hemos introducido las leyes de Newton para determinar el comportamiento de cada una de las partículas que componían nuestro gas, no hemos metido nada del Segundo Principio. Y, sin embargo, en nuestro sistema la entropía siempre acaba aumentando en el desequilibrio. Tanto en una dirección temporal como en la otra. En otras palabras, metiendo únicamente las leyes de Newton en nuestra simulación, el Segundo Principio ha surgido espontáneamente. Por tanto, el Segundo Principio se nos ha aparecido como un proceso emergente, esto es, surge a partir de las leyes de Newton, pero no es posible derivar el Segundo Principio a partir de éstas.

(31)
(32)

5. Otras simulaciones

Como ya dijimos en la introducción a partir del programa que ya tenemos hecho, es sencillo hacerle unas pequeñas modificaciones y poder así estudiar otros procesos y situaciones similares.

Ahora estudiaremos una compresión adiabática desde dos situaciones diferentes: moviendo la pared móvil de manera constante o moviéndola únicamente en unos instantes de tiempo a nuestra conveniencia. ¿Qué ocurrirá en cada caso? El objetivo es tratar de comprender el motivo por el cual el gas varía de temperatura cuando una de las paredes de nuestra caja se mueve.

Como en el caso de la entropía y la Segunda Ley, son procesos los cuales estudiarlos en el mundo

físico “real” puede ser muy complicado, pero que a través de una simple simulación de partículas se

pueden estudiar de una forma mucho más sencilla y precisa.

Para las dos simulaciones hechas a continuación, usaremos el programa obviando el que el programa pueda ir hacia atrás en el tiempo. Además, suprimiremos las representaciones de la distribución de energía en cada momento y la entropía para, en su lugar, representar únicamente la energía total del gas, que en nuestro caso es la suma de las energías cinéticas de cada partícula. Tampoco colocaremos las bolas en una esquina de la caja, sino que volveremos a realizar un sorteo aleatorio de las posiciones de las bolas.

5.1 Caja con el techo deslizante con velocidad constante

En este caso, la pared se mueve con un movimiento rectilíneo uniforme. Así, en cada momento, la pared móvil se encontrará en una determinada posición, que deberemos tomar en cuenta para hacer los cálculos de los choques.

Para calcular la velocidad con la que salen las bolas después de un choque contra la pared móvil, se trata de resolver un problema de composición de velocidades. En el sistema de referencia de la pared, la bola se acerca con una velocidad (en el eje z):

𝑉 = 𝑣𝑏𝑜𝑙𝑎− 𝑣𝑝𝑎𝑟𝑒𝑑 (5.1)

Siendo 𝑣𝑏𝑜𝑙𝑎, 𝑣𝑝𝑎𝑟𝑒𝑑 las velocidades de la bola y la pared en el sistema de referencia de la caja.

Por lo tanto, después del choque, la velocidad de la bola en el eje z será:

(33)

Dependiendo de si la pared se acerca o se aleja, la velocidad de salida de la bola será mayor o menor, respectivamente. Esto es, después del choque contra la pared móvil, la bola habrá ganado o perdido energía, lo que se traduce en que el gas, en definitiva, se habrá calentado o enfriado.

Nosotros, en concreto, hemos puesto que la velocidad del pistón sea de -0.01 (el signo menos quiere decir que la pared baja) en las unidades del programa. Hemos puesto esta velocidad y no permitimos que el usuario pueda poner la velocidad que desee por seguridad; si se utilizase una velocidad muy alta, al principio del programa, podría suceder que alguna bola se saltase la pared y saliese de la caja. Con esta velocidad de 0.01, se ve bien como la caja baja y nos evitamos este tipo de problema. Además, el pistón baja. En conclusión, en esta simulación, la energía total de nuestro sistema va a ir aumentando según vayan chocando las bolas contra la pared móvil y, en definitiva, se va a ir calentando.

5.2 Caja con el techo deslizante con saltos discretos

Para esta simulación, el desarrollo del programa es idéntico a cuando la pared estaba fija. Se

calculan los choques, se resuelven… La diferencia está en que, en este caso, “tenemos un diablillo

de Maxwell”.

Cada vez que sacamos una imagen de la caja, lo que hacemos es ver que no tengamos ninguna bola en un cierto espacio cerca de la pared móvil. Si tuviésemos alguna, bola, nuestro diablillo mantendría la pared en su sitio, quieta. En el caso contrario, si no hubiese ninguna bola dentro de un cierto espacio cerca de la pared, el diablillo bajaría la pared un poquito de manera muy rápida, de modo que cuando la pared baja, no se produce ningún choque contra nuestra pared móvil.

¿Qué sucede en este caso? Antes, nuestro gas se calentaba, debido a los choques de las bolas contra la pared móvil. Ahora, cuando las bolas chocan contra la pared, en realidad están chocando contra una pared fija. Por lo tanto, el resultado es que la energía total del gas se mantiene constante: el gas no se calienta.

5.3 Resultados

Los dos programas vistos arriba funcionan de una manera muy similar. En ambos, lo que hacemos es desplazar la pared superior (móvil) hacia abajo.

(34)

la pared, están chocando contra una pared en movimiento. Así, como hemos visto arriba, la velocidad de salida es la suma de las velocidades de la pared y la bola, cambiadas de signo por el choque (obviamente solo nos referimos a las velocidades en el eje z, las velocidades en x no varían). Esto significa que las bolas, al chocar contra esta pared móvil adquieren energía cinética, por lo tanto, el total de energía de nuestro sistema caja aumenta, como podemos ver en el siguiente gráfico, el cual representa el total de energía dentro de la caja con respecto al tiempo:

Figura 5.1: Programa ParedDeslizante_cte. Parámetros: bolas 100; factor de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000.

En la figura se puede apreciar que la energía va aumentando de forma escalonada y que tenemos algunas zonas llanas. Esto se explica en que la energía solo varía en el caso de que se produzca un choque de las bolas contra la pared móvil. Todo el tiempo que la pared móvil este sin recibir ningún choque, la energía permanecerá constante.

Este resultado es, claramente, extensible al caso en que nuestro pistón se moviese hacia arriba (nuestro gas se expandiese). En este caso, la diferencia estaría en que la velocidad relativa sería la diferencia entre las velocidades de ambas (en valor absoluto). Por lo tanto, la velocidad de las bolas después del choque será menor que la que tenían antes del mismo. Esto se traduce en que las bolas van perdiendo energía con cada choque contra el pistón. Por lo tanto, nuestro sistema se va enfriando.

(35)

se explica de una forma muy simple a través de la simulación. Simplemente se trata de un problema en que dos cuerpos, la pared y la bola, chocan, cada uno con una velocidad. Entonces, después del choque, la bola, debido al choque, gana una cierta energía (o la pierde).

En el otro programa, hacemos que la pared de arriba vaya bajando también, pero en este caso de

otra manera. Ahora, tenemos un “diablillo” que está atento a que no haya ninguna bola con la que chocar. En ese caso, el “diablillo” mueve la pared una cierta cantidad. Si por el contrario el “diablillo”

ve que, al bajar la pared, ésta chocaría con alguna bola, dejaría la pared en el mismo sitio. Por lo tanto, todos los choques entre las bolas y la pared se realizan con la pared en reposo.

Ahora la representación de la energía con respecto al tiempo resulta:

Figura 5.2: Programa ParedDeslizante_nocte. Parámetros: bolas 100; factor de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000.

Vemos que lo que ocurre en este caso es que nuestro “diablillo” hace que los choques contra la

pared sean todos con la pared en reposo. De este modo, el hecho que ocasionaba que nuestro sistema se calentase lo evitamos. Y como todos los choques contra nuestro pistón son en reposo, la velocidad de las bolas antes y después del choque es la misma, por lo que la energía de nuestro sistema permanece constante.

(36)

de aprovechar los instantes cuando ninguna bola va a chocar contra la pared para bajarla, entonces nuestro gas va a estar comprimido (el volumen que ocupa va a ser menor), pero la temperatura del sistema permanecerá constante, no produciéndose un aumento de la misma como en el caso anterior.

Podemos concluir entonces que este tipo de procesos tienen un cierto componente probabilístico. Que el sistema aumente o no su temperatura depende de si hacemos que las bolas choquen con la pared en movimiento o logramos conseguir que la pared esté quieta cuando una colisión se vaya a producir. Lo que provoca el calentamiento es la energía cinética que adquieren las bolas al chocar contra la pared en movimiento. Si la pared no se mueve en la colisión, las bolas no ganan energía cinética y el gas no aumenta de temperatura.

(37)

6. Conclusiones

A través de estas pequeñas simulaciones, bastante sencillas, de bolas chocando entre sí simulando un gas, hemos podido estudiar la entropía del gas, y ver que las cosas no son tan sencillas como se puede pensar, hablando de los conceptos de entropía y Segunda Ley.

Para empezar, la gran arma de la simulación es la cantidad de información que nos ofrece. Hemos ido más allá de la probabilidad gracias a la capacidad de cálculo de los ordenadores. En cada instante conocemos todos los datos que queramos del gas: la posición, la velocidad, la energía de

cada bola… ¿Con ello hemos podido determinar la entropía del gas en cada instante de la simulación? No nos has sido posible determinar un modo práctico de medir la entropía. Ni la expresión del Segundo Principio ni la fórmula de Boltzmann nos han permitido calcular la entropía de forma absoluta. Nosotros hemos podido calcularla a través de la distribución de la energía, método que en un caso real no es posible hacer, puesto que en un caso real no contamos con toda la información sobre el sistema como sí tenemos en nuestra simulación.

Vemos pues, que determinar la entropía no es algo trivial, sino muy complejo, y en su complejidad está el no poder medir la entropía de un sistema, siendo ésta una magnitud física del mismo.

Mediante las simulaciones que hemos realizado hemos analizado diferentes cuestiones que han traído (y algunas siguen trayendo) de cabeza a científicos a lo largo de la historia. Hemos podido ver estos problemas desde un punto de vista que antes no era posible: las simulaciones.

Hemos visto que, efectivamente, la entropía no siempre aumenta, lo que lleva asociado un incumplimiento del Segundo Principio en multitud de ocasiones. Es más, cuando la simulación alcanza el equilibrio, la cantidad de veces que sube la entropía es igual a la cantidad de veces que baja. Esto se debe al carácter probabilístico del asunto que estamos tratando. Tanto el movimiento de las partículas, como los choques entre ellas… todo tiene un punto aleatorio que es quien genera

estas fluctuaciones. Fluctuaciones que, como hemos visto, podrían llevarnos hasta al estado más improbable de todos, si esperamos el tiempo suficiente.

Este punto hoy parece bien asumido. Quizá a finales del siglo XIX resultase mucho más chocante que una teoría física pusiese estar basada en la probabilidad que en el presente. Sin embargo, el otro tema de discusión, el de la reversibilidad del Segundo Principio, es mucho más peliagudo.

(38)

tiempo. Sin embargo, nosotros hemos visto a través de la simulación que, al ir hacia atrás en el tiempo se seguía cumpliendo la Segunda Ley finalmente.

Esto contradice el pensamiento de grandes científicos actuales como Roger Penrose, quien afirmaba que el Segundo Principio era una ley que era necesario añadir a las leyes de Newton. Sin embargo, nosotros en nuestra simulación hemos observado como el Segundo Principio salía espontáneamente, sin que nosotros lo introdujésemos. De hecho, los problemas venían si lo introducíamos nosotros, puesto que el Segundo Principio contradecía en muchas ocasiones a las leyes de Newton. De haber metido la Segunda Ley como algo de obligatorio cumplimiento en el programa, la simulación hubiera fallado.

(39)

Apéndice A

Cambios en el programa principal

A continuación, se muestran los cambios realizados sobre el programa base Arquimedes_2d, del Trabajo de Fin de Grado de Luis Enrique Coronas. Además, se explica brevemente cómo se han llevado a cabo dichos cambios.

A.1 Cambios debido al sistema operativo

No se ha trabajado de forma nativa en Linux, sino que hemos trabajado desde Windows a través de MinGW. Esto ha significado que algunas funciones no funcionasen y hayamos tenido que adaptarlas a Windows. Estas funciones son:

• srand48() → srand()

• drand48() → rand()/((double)RAND_MAX + 1)

El funcionamiento de todas estas funciones es idéntico en ambos sistemas operativos, lo único que cambia es la forma de las funciones.

A.2 Modificación de parámetros del programa

El programa original Arquímedes_2d, como su nombre indica, trataba sobre el principio de Arquímedes. Así, el programa tenía ciertos parámetros que a nosotros no nos aportan nada. Estos son, por ejemplo, todo lo que tiene que ver con la gravedad o el que en la caja haya una bola de un tamaño mayor y más pesada que las demás.

Otro factor que hemos cambiado es la forma de la caja. En el programa original la caja era rectangular, más alta que ancha. Esto a nosotros no nos aporta nada, por ello, hemos hecho que la caja sea cuadrada en vez de rectangular.

(40)

A.3 Cambio en la posición inicial de las bolas

Con el fin de tener una situación de entropía mínima, haremos que la posición inicial de las bolas no sea arbitraria, sino que las colocaremos nosotros. Su posición se hará de tal forma que formen un cuadrado en una de las esquinas de la caja, la inferior izquierda.

Para constituir dicho cuadrado, lo que hacemos es utilizar dos variables auxiliares, las variables fila y columna, junto a la función sitio.

La función sitio simplemente nos coloca las bolas en una determinada posición, una vez le hemos dado nosotros la fila y la columna donde colocarse.

Función Sitio:

vector sitio(double fila, double columna, double d) //Vector para colocar nosotros las bolas a nuestra conveniencia

{

vector ret;

ret.x = 2*d + 4*fila*d; ret.z = 2*d + 4*columna*d ; return ret;

}

Colocación de las bolas al comienzo de la simulación: for (int i=0; i<=nb; i++) {

//Iniciamos todas las variables de las bolas: masa, posicion, velocidad…

bool ss = false; B[i].m = 1; B[i].a = 1; B[i].t_0 = 0;

B[i].v_0 = vectorAleatorio(v_ini);

B[i].r_0 = sitio(fila,columna,B[i].a); fila++;

(41)

} }

Fila y columna funcionan de la siguiente forma. Ambas empezarían en 1. Por lo tanto, la primera bola se colocaría en la que sería la posición (1,1) del cuadrado –suponiendo el cuadrado como una malla-. Al poner una bola, la variable fila aumenta en uno. Por lo tanto, la siguiente bola se colocaría en la que sería la posición dos. Esto seguiría así hasta que la variable fila superase la raíz cuadrada del número total de bolas, momento en el que aumentaríamos en uno la variable columna y reiniciaríamos la variable fila. Si tuviésemos 100 bolas, al llegar a fila=11, columna pasaría a valer dos y fila pasaría a valer uno otra vez.

Por lo tanto, el ordenamiento inicial de las bolas se realiza completando un cuadrado en la parte inferior izquierda de la caja, rellenando las filas de abajo hacia arriba, de izquierda a derecha.

Figura A.1 : Posición inicial para 100 bolas

(42)

A.4 Tiempo hacia atrás

En la parte de introducción de parámetros del programa, añadimos un tiempo, t_back. Este tiempo es el tiempo a partir del cual queremos que el programa vaya hacia atrás. Es decir, si ponemos un t_sim = 1000 y t_back = 500, al final de la simulación, las bolas estarán de nuevo en la posición de partida, colocadas en forma de cuadrado en la esquina inferior izquierda.

Para hacer que el programa vaya hacia atrás simplemente invertimos la velocidad de cada una de las partículas que tenemos en el gas, llegados a T=T_back. Además, reiniciamos la lista de colisiones y recalculamos todos los choques. Es decir, lo que hacemos es invertir las velocidades de las partículas y reiniciar todos los parámetros, de modo que es como si el programa simplemente volviese a empezar de nuevo.

Función que invierte las velocidades y reinicia los parámetros de colisiones del programa: if (T==t_back) {

//Lista de colisiones. Marcamos todas como false for(int i=0; i<total_col; i++) lista_colisiones[i].util = false;

//Bolas pequeñas for (int i=0; i<nb; i++) {

//bool ss = false; B[i].m = 1;

B[i].v_0= -B[i].v_0; B[i].a = 1;

B[i].t_p=0; B[i].t_0=0; B[i].r_0=r[i]; }

T=0;

//Tiempos de colision de todas las bolas

for(int i=0; i<nb; i++) Calcula_Contra_Pared(&B[i],L,T);

(43)

for (int i=0; i<nb; i++){ for (int j=0; j<i; j++){

double t_control = Tiempo_Chocan_Bolas(&B[i],&B[j],T); if((t_control > T) &&

(t_control < B[i].t_p) && (t_control < B[j].t_p)){

if(num_col == total_col) Amplia_Memoria(lista_colisiones,total_col,nb,num_col);

lista_colisiones[num_col] = Nueva_Colision(&B[i], &B[j], t_control);

num_col++; //Guardar la colision y anotar el numero de colisiones guardadas }

} }

t_dib = 0;

t_aux=t_back;

t_sim=t_sim-t_back;

}

A.5 Representación de la distribución energía y de la entropía

El objetivo de este trabajo es analizar la entropía de este gas, para así poder hacernos una idea de lo que es la entropía en general, o, al menos, ver que la entropía es un concepto bastante más escurridizo de lo que inicialmente parece.

Por ello, es necesario representar la entropía. Entonces, primero lo que tenemos que obtener es la distribución de energía en cada momento.

Como no es posible tener un espectro continuo de energías, lo que haremos será dividir el espectro de energías en diferentes intervalos del mismo tamaño. Para nuestro caso lo dividiremos en 50 divisiones entre energía igual a cero y energía igual a una cierta energía máxima que introducimos nosotros al comienzo del programa.

(44)

Finalmente, representamos los resultados mediante un gráfico de barras, obteniendo la distribución de energías. Obviamente, dado que empezamos con todas las partículas con la misma energía, al inicio la distribución de energías es siempre una delta de Dirac.

Una vez obtenida la distribución de energías, podemos calcular la entropía. Calcularemos la entropía con la expresión de la entropía de Shannon:

𝑆 = ∑ 𝑃𝑘ln 𝑃𝑘

𝑛º 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜𝑠

𝑘=1

Siendo Pk la probabilidad de una partícula de tener una cierta energía.

¿Cómo hallamos las probabilidades en nuestro programa? La probabilidad para cada intervalo de energía será el número de partículas que tienen su energía dentro de dicho intervalo con respecto al número de partículas total que hay dentro de la caja. De este modo, conoceremos todas las probabilidades Pk, con lo cual ya tenemos la entropía.

Cabe decir que, en el instante inicial, cuando todas las partículas poseen la misma energía y tenemos una delta de Dirac como distribución de energía, la probabilidad es 1. Entonces la entropía es la mínima y es cero.

A.6 Aumento de la precisión del programa

Como ya hemos comentado antes en este trabajo, existe un problema informático con la precisión de los cálculos. La precisión de estos no es infinita y debido a ello, cuando ponemos el tiempo hacia a atrás, si hemos dejado al programa avanzar demasiado hacia adelante, las bolas se desvían de la trayectoria que deberían seguir.

(45)
(46)

Apéndice B

Bibliografía

Pathria, R.K. and Beale, Paul D. “Statistical Mechanics”, 3rd edition. Elsevier Ltd. Roger Penrose, “Ciclos del Tiempo: Una Extraordinaria Visión del Universo”, DEBATE

Eduardo Arroyo Pérez, “Boltzmann, la termodinámica y la entropía: el universo morirá de frío”, RBA 2013

F. Tejerina, “Termodinámica” (Vol 1.), Paraninfo

Figure

Figura  4.1:    Programa  Entropia.  Parámetros:  bolas  100;  factor  de  ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000; tiempo a  partir del cual el programa va hacia atrás 0
Figura  4.2:    Programa  Entropia.  Parámetros:  bolas  100;  factor  de  ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 200; tiempo a  partir del cual el programa va hacia atrás 100
Figura  4.3:    Programa  Entropia.  Parámetros:  bolas  100;  factor  de  ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000; tiempo a  partir del cual el programa va hacia atrás 100
Figura 5.1: Programa ParedDeslizante_cte. Parámetros: bolas 100; factor  de ocupación 0.1; tiempo de dibujo 1; tiempo de simulación 1000
+3

Referencias

Documento similar

 Para recibir todos los números de referencia en un solo correo electrónico, es necesario que las solicitudes estén cumplimentadas y sean todos los datos válidos, incluido el

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

Abstract: This paper reviews the dialogue and controversies between the paratexts of a corpus of collections of short novels –and romances– publi- shed from 1624 to 1637:

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,

d) que haya «identidad de órgano» (con identidad de Sala y Sección); e) que haya alteridad, es decir, que las sentencias aportadas sean de persona distinta a la recurrente, e) que

Ciaurriz quien, durante su primer arlo de estancia en Loyola 40 , catalogó sus fondos siguiendo la división previa a la que nos hemos referido; y si esta labor fue de

Las manifestaciones musicales y su organización institucional a lo largo de los siglos XVI al XVIII son aspectos poco conocidos de la cultura alicantina. Analizar el alcance y