Marchas aleatorias viciosas y su relación con las matrices aleatorias

113  Descargar (0)

Texto completo

(1)Marchas Aleatorias Viciosas y su Relación con las Matrices Aleatorias. Proyecto de grado de Fı́sica. Sergio Andraus 200012455. Gabriel Téllez Acosta Asesor. Universidad de Los Andes. Bogotá, D.C. 31 de enero de 2006.

(2) 2.

(3) Introducción Las matrices aleatorias son una herramienta de gran poder dentro de la Fı́sica teórica, y tienen diversas aplicaciones. Aunque inicialmente fueron utilizadas para hallar los espaciamientos de los niveles de energı́a de núcleos atómicos pesados (gracias al trabajo de E. P. Wigner) y, en un campo que yace más bien en las matemáticas, para estudiar la distribución de los ceros de la función zeta de Riemann, hoy en dı́a son usadas para estudiar muchı́simos otros fenómenos, desde caos cuántico hasta QCD[3]. Las marchas aleatorias son un área de la mecánica estadı́stica que recientemente ha recibido una considerable atención de parte de quienes se han interesado en las matrices aleatorias, en particular en los trabajos [3] de T. Nagao[10], N. O’Connell, K. Hikami y M. Katori. Ellos han estudiado y han encontrado relaciones entre éstas y el conjunto gaussiano ortogonal y el conjunto gaussiano unitario, trabajando con el modelo de marchas aleatorias viciosas propuesto por M. E. Fisher en 1984[2]. Se trata, en esencia, de considerar una marcha aleatoria en la cual interviene un cierto número de caminantes que son casi libres, pues pueden moverse en cualquier dirección al azar con ciertas probabidades de la misma manera que en una marcha libre, pero se prohibe que dos caminantes se encuentren en el mismo lugar. El nombre de “viciosas” tiene que ver con la analogı́a que plantea Fisher en [2]: un caminante aleatorio podrı́a entenderse como una persona tan ebria que se mueve al azar a un lado o al otro de la acera, y si esta persona es una persona iracunda y armada, pero a la vez miope, aniquilará a cualquier otro caminante que se encuentre con él en cualquier sitio. Si todos los caminantes son iracundos, miopes y están armados, es decir, si son viciosos, al encontrarse dos de ellos se aniquilarán entre sı́. Usando este ejemplo, Fisher plantea el problema de N caminantes aleatorios en el cual a aquellas marchas en las que algún par de caminantes se encuentra se le asigna un peso estadı́stico nulo..

(4) 4 El objeto de este proyecto de grado es el de mostrar la relación entre las marchas aleatorias viciosas y el conocimiento que se tiene actualmente sobre las matrices aleatorias. Para hacer esto, se ha organizado el texto de la manera siguiente. Capı́tulo 1: como primera parte de este trabajo, se hace un breve resumen de los conceptos esenciales de las matrices aleatorias que serán usados en el resto del texto, con base en [8]. Capı́tulo 2: en este segundo capı́tulo se estudian las marchas aleatorias libres y viciosas, y la probabilidad de reencuentro de un grupo de caminantes, como ha sido planteado en [2]. Capı́tulo 3: aquı́ se estudian las marchas viciosas sin usar variables continuas como en el capı́tulo anterior y se definen las funciones de peso estadı́stico y de correlación. Aquı́ se pone en evidencia la similaridad matemática entre las marchas viciosas y las matrices aleatorias, y usando técnicas encontradas en la teorı́a de estas últimas se halla una expresión compacta para dichas funciones cuando se consideran marchas viciosas en las que los caminantes inician igualmente espaciados, en la mitad de su trayecto pasan por una serie de posiciones dadas y por último regresan a su punto de partida. De aquı́ en adelante, el trabajo se basa en [10], complementado con otros textos. Capı́tulo 4: se continua en este capı́tulo con el trabajo del anterior, calculando las funciones de peso estadı́stico y de correlación de aquellas marchas viciosas que inician equiespaciadas y llegan a una serie de posiciones arbitrarias, sin devolverse. Se continua haciendo uso de las herramientas matemáticas de las matrices aleatorias para llevar a cabo estos cálculos. Capı́tulo 5: en este capı́tulo se muestra cómo al tomar el lı́mite a tiempo continuo de las marchas viciosas se llega a encontrar una relación directa con los conjuntos de matrices gaussiano ortogonal y unitario. Capı́tulo 6: se concluye sobre el trabajo realizado y se comenta sobre sus consecuencias. En resumen, los dos primeros capı́tulos tienen como función el introducir los conceptos básicos de las matrices aleatorias y las marchas viciosas, parte.

(5) 5 del segundo y los dos siguientes capı́tulos muestran cómo se puede usar el conocimiento de las primeras en las segundas y el último muestra la relación más contundente e importante entre ellas. Posteriormente se concluye el trabajo enunciando las consecuencias de lo que se ha encontrado. Agradecimientos El autor de este trabajo desea agradecer a los profesores Gabriel Téllez Acosta y Peter J. Forrester, quienes con su gran ayuda hicieron posible su realización, ası́ como a los profesores Luis Quiroga y Alonso Botero por su ayuda en la corrección del mismo y finalmente al Departamento de Fı́sica de la Universidad de Los Andes por permitir el uso de los recursos necesarios para llevar este proyecto de grado a su culminación..

(6) Índice general 1. Un 1.1. 1.2. 1.3.. Vistazo a las Matrices Aleatorias 8 Un Hamiltoniano para Diagonalizar . . . . . . . . . . . . . . . 8 Tres Conjuntos de Matrices . . . . . . . . . . . . . . . . . . . 9 Los Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . 10. 2. Introducción a las Marchas Viciosas 2.1. Las Marchas Libres . . . . . . . . . . . . . . . . . . . . . . . 2.1.1. Un Sólo Caminante . . . . . . . . . . . . . . . . . . . 2.1.2. Un Teorema Sobre los Retornos . . . . . . . . . . . . 2.1.3. Varios Caminantes Libres . . . . . . . . . . . . . . . 2.2. Caminantes Que No Se Cruzan . . . . . . . . . . . . . . . . 2.2.1. La Marcha de un Caminante y una Pared . . . . . . 2.2.2. Dos Caminantes Viciosos . . . . . . . . . . . . . . . . 2.2.3. N Caminantes Viciosos . . . . . . . . . . . . . . . . . 2.2.4. Posiciones Iniciales Igualmente Espaciadas . . . . . . 2.2.5. Supervivencia . . . . . . . . . . . . . . . . . . . . . . 2.2.6. Reunión en Posiciones Finales Igualmente Espaciadas 2.2.7. Reunión dado que los Caminantes Sobreviven . . . . 2.3. Comentarios . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. La Función de Peso Estadı́stico y las ción 3.1. La Función de Peso Estadı́stico . . . 3.2. Las Funciones de Correlación, Caso β 3.3. Comentarios . . . . . . . . . . . . . .. . . . . . . . . . . . . .. 13 13 14 17 19 20 20 22 23 24 26 27 31 31. Funciones de Correla33 . . . . . . . . . . . . . . 33 = 2 . . . . . . . . . . . 41 . . . . . . . . . . . . . . 46. 4. El caso β = 1 47 4.1. Los Polinomios Simétricos de Hahn . . . . . . . . . . . . . . . 47.

(7) ÍNDICE GENERAL. 7. 4.1.1. Relaciones Básicas . . . . . . . . . . . . . 4.1.2. Relaciones Útiles . . . . . . . . . . . . . . 4.2. El caso N par . . . . . . . . . . . . . . . . . . . . 4.2.1. Búsqueda del Kernel K1 . . . . . . . . . . 4.2.2. Cálculo de los Polinomios Ri . . . . . . . . 4.2.3. Cálculo del Determinante de Vandermonde 4.2.4. La Función de Partición . . . . . . . . . . 4.3. El caso N Impar . . . . . . . . . . . . . . . . . . 4.3.1. Búsqueda de un Nuevo Kernel . . . . . . . 4.3.2. El Determinante de Ψ . . . . . . . . . . . 4.3.3. La Función de Partición . . . . . . . . . . 4.4. Comentarios . . . . . . . . . . . . . . . . . . . . . 5. El Lı́mite Continuo 5.1. La Medida w(x) . . . . . . 5.2. El Producto Escalar . . . 5.3. El Producto Antisimétrico 5.4. Comentarios . . . . . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. 6. Conclusiones y Comentarios Finales. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . .. . . . . . . . . . . . .. 47 53 56 56 62 70 82 83 84 89 96 96. . . . .. 98 98 101 104 106 107.

(8) Capı́tulo 1 Un Vistazo a las Matrices Aleatorias En este capı́tulo, se da un breve vistazo a las matrices aleatorias con base en [8]. Para empezar, las matrices aleatorias fueron consideradas inicialmente dentro de la estadı́stica matemática en la decada de 1930. Su propósito principal era el de estudiar matrices con elementos que obedecen a alguna ley de probabilidad, y en particular estudiar el comportamiento de sus valores y vectores propios. Dentro de sus aplicaciones en matemáticas se encuentra la distribución estadı́stica de los ceros de la función zeta de Riemann y algunos problemas de conteo, entre otros. En fı́sica, sin embargo, las matrices aleatorias no tuvieron mayor popularidad sino hasta la década de 1950, durante la cual Wigner propuso su uso en fı́sica nuclear, más especı́ficamente en la búsqueda de los niveles de energı́a de un núcleo pesado. Posteriormente se ha considerado su uso en otras ramas de la fı́sica, como por ejemplo el estudio de sistemas caóticos, gravedad cuántica, teorı́a de cuerdas, QCD y muchos otros.. 1.1.. Un Hamiltoniano para Diagonalizar. Al considerar sistemas cuánticos complejos, como los núcleos atómicos pesados que consideró Wigner, se encuentra que es bastante difı́cil hallar un hamiltoniano que los describa, y es aún más difı́cil diagonalizarlo. Con este hecho en mente, se plantea una serie de hipótesis que permitan simplificar de alguna manera este problema..

(9) 1.2 Tres Conjuntos de Matrices. 9. En primer lugar, un hamiltoniano de gran complejidad se podrı́a simplificar escribiéndolo como la suma directa de pequeños hamiltonianos en los que existan ciertas simetrı́as. En particular, cada uno de los bloques podrı́a tener cierta paridad y algún momentum angular dado, o bien podrı́a no contar con este tipo de simetrı́as. A pesar de esto, cada uno de los bloques tendrı́a una dimensión dada, finita, y por lo tanto se obtendrı́a a partir del hamiltoniano inicial un hamiltoniano compuesto por infinitos bloques en la diagonal, cada uno con alguna simetrı́a con la cual trabajar. Lo segundo es hacer una hipótesis estadı́stica: si el sistema es lo suficientemente complejo, se puede proponer una matriz aleatoria que represente a cada uno de estos “pequeños” hamiltonianos1 , con hipótesis que sean consistentes con las simetrı́as que debe tener. La más clara de estas es que un hamiltoniano siempre es hermitiano, y por ende sus bloques lo son también. Si el bloque en cuestión cumple con alguna otra serie de simetrı́as, el conjunto de matrices aleatorias que lo represente debe tener esas mismas simetrı́as. Al representar el hamiltoniano con un conjunto de matrices aleatorias se llega a una pregunta crucial: ¿cuál debe ser la ley de probabilidad de los elementos matriciales para obtener resultados que se ajusten a observaciones experimentales? Existen hechos que apuntan hacia la existencia de una “ley de los grandes números”, muy parecida al teorema del lı́mite central en la teorı́a de probabilidades, pues al parecer, los valores propios de las matrices aleatorias tienden a comportarse de la misma manera sin importar el tipo de ley de probabilidad que gobierne a los elementos. Otro hecho impresionante es que el comportamiento de los valores propios depende más del tipo de simetrı́a que tenga el conjunto de matrices aleatorias considerado que de la ley de probabilidades de los elementos. Es por esta razón que se define una serie de conjuntos de matrices aleatorias según sus simetrı́as y según la ley de probabilidad de sus elementos.. 1.2.. Tres Conjuntos de Matrices. En vista de lo anterior, se considerarán los conjuntos de matrices aleatorias a los que se hará referencia en el capı́tulo 5: los tres conjuntos gaussianos. A continuación se consideran los tipos de sistema según sus simetrı́as. 1. Aunque se exprese el hamiltoniano de esta manera, los bloques resultantes en la diagonal muy probablemente resultarán siendo bastante grandes dada la complejidad del sistema..

(10) 10. Un Vistazo a las Matrices Aleatorias Invarianza ante inversión temporal (paridad): en este caso, se examina el tipo de spin del sistema. • Sistema de spin entero: un sistema de este tipo es representado por el conjunto gaussiano ortogonal. • Sistema de spin semientero: este tipo de sistemas se representa con el conjunto gaussiano simpléctico. Sin invarianza ante inversión temporal: sistemas sin invarianza al invertir el tiempo son representados por el conjunto gaussiano unitario.. Los nombres de los conjuntos indican la ley de probabilidad de sus elementos y las transformaciones ante las cuales deben ser invariantes. Por ejemplo, el conjunto gaussiano ortogonal es aquél conjunto de matrices cuyos elementos obedecen a una función de densidad de probabilidad gaussiana y que son invariantes ante transformaciones representadas por matrices ortogonales. Esto, de hecho, significa que las matrices que pertenecen a este conjunto son reales y simétricas. Algo análogo se puede decir de los otros dos conjuntos de matrices gaussianas.. 1.3.. Los Valores Propios. En el capı́tulo 3 de [8] se muestra cómo obtener las funciones de densidad de probabilidad y las funciones de correlación que gobiernan los valores propios de los tres conjuntos de matrices gaussianas. El resultado es que las densidades de probabilidad y las funciones de correlación son las siguientes: PN β (~x) = CN β. N µ Y. −. e. βx2 i 2. i=1. CN β IN β (x1 . . . xk ) = (N − k)!. ¶ Y. |xk − xj |β. 1≤j<k≤N. Z. Z ... xk+1. N µ Y. xN i=1. −. e. βx2 i 2. ¶ Y. |xk − xj |β dxk+1 . . . dxN .. 1≤j<k≤N. (1.1) Aquı́, β es un parámetro que indica el conjunto en cuestión. Los valores β = 1, 2 y 4 corresponden a los conjuntos gaussianos ortogonal, unitario y simpléctico respectivamente..

(11) 1.3 Los Valores Propios. 11. El problema principal es, entonces, calcular las integrales que aparecen en la expresión de las funciones de correlación (segundo renglón de 1.1). Este problema ya ha sido resuelto, y una parte fundamental de la solución es el siguiente teorema, cuya versión discreta es el teorema 2 que se discutirá en el capı́tulo 3. Si se tiene una función K(x, y) tal que Z K(x, y) = K(y, x), K(x, x)dx = c x Z y K(x, y)K(y, z)dy = K(x, z) + λK(x, z) − K(x, z)λ, y. (aquı́, K es igual a K si es real, es su conjugado complejo si es una función compleja o es su dual si se trata de una función cuaterniónica) se puede calcular la integral del determinante de la matriz cuyo elemento (i, j) es K(xi , xj ) de la siguiente manera: Z det[K(xi , xj )]N dxN = (c − N + 1) det[K(xi , xj )]N −1 . (1.2) xN. Esto significa que para calcular la función de correlación de los valores propios de alguno de los conjuntos de matrices aleatorias hace falta expresar una función de la forma N Y Y |xk − xj |β , (1.3) µβ/2 (xi ) i=1. 1≤j<k≤N. donde µ es una medida arbitraria cuyos momentos son finitos, como el determinante de una matriz cuyas entradas tengan las propiedades de la función K del teorema anteriormente mencionado. En el caso del conjunto unitario (β = 2) esto no es difı́cil de conseguir, como se muestra en el capı́tulo 3; es más, es el único caso en el cual se puede encontrar una función K que tome valores en los reales que cumpla con lo requerido. Sin embargo, si se trata del conjunto ortogonal (caso β = 1) la dificultad de este problema aumenta notablemente, pues no sólo se requiere del uso de cuaterniones sino que también se hace necesario conocer el pfaffiano de una matriz antisimétrica de dimensiones pares. Son precı́samente estos dos casos los que se contemplarán en este trabajo, en los capı́tulos 3 y 4, con variables discretas y con una medida diferente de la gaussiana. Los conjuntos gaussianos han sido estudiados durante un largo tiempo, y se han encontrado muchos resultados útiles, entre otros, el comportamiento.

(12) 12. Un Vistazo a las Matrices Aleatorias. asintótico de la distribución de los valores propios de estas matrices cuando el número de variables tiende al infinito. Posteriormente se mostrará que se puede entender el problema de las marchas aleatorias viciosas como una versión discreta de los conjuntos gaussianos ortogonal y unitario, más especı́ficamente, en el capı́tulo 5. Con esto se concluye este pequeño resumen sobre matrices aleatorias. En los capı́tulos 3 y 4 se verá cómo lo que se ha resumido en esta sección se puede aplicar a las marchas viciosas que se introducirán en el capı́tulo siguiente..

(13) Capı́tulo 2 Introducción a las Marchas Viciosas En este capı́tulo se dará una introducción a las marchas viciosas planteadas por M. E. Fisher [2]. Inicialmente se dará un vistazo rápido a las marchas libres para luego estudiar el caso vicioso en tiempo y espacio continuos. Michael Fisher ganó la medalla Boltzmann por [2] y en él no sólo planteó el modelo como tal sino que ofreció una amplia gama de aplicaciones, como cambios de fase en sistemas cuasi-unidimensionales, derretimientos y superficies mojadas entre otros. El propósito, entonces, es el de reproducir los cálculos esenciales presentados en [2] para luego pasar al trabajo de Nagao y de Forrester [10], pero el lector interesado en consultar estas aplicaciones puede leer este capı́tulo y luego pasar al texto original de Fisher para estudiarlas.. 2.1.. Las Marchas Libres. Una marcha libre es aquella en la que uno o más caminantes se mueven con cierta probabilidad a cada sitio de la red y cada paso es independiente de los demás. Cuando hay más de un caminante, los caminantes no interactuan entre sı́ y por lo tanto son independientes. Primero se estudiará el caso de un sólo caminante y luego el de varios junto con un par de cantidades que pueden ser de interés y ası́ tener la base para los cálculos que siguen..

(14) 14. 2.1.1.. Introducción a las Marchas Viciosas. Un Sólo Caminante. Por el momento se considerará una red de una dimensión (espacio unidimensional discreto) en la cual cada vez que pase un tiempo dado el caminante da un paso. Matemáticamente hablando se puede expresar lo anterior como sigue: el espacio se mide en unidades del paso de red, por ejemplo, X̃ = ãX donde X es un entero y ã es el paso de la red; el tiempo se mide en unidades de cada movimiento de las manecillas de un “reloj” arbitrario, es decir, en unidades de una constante de tiempo, t̃ = c̃M , donde c̃ es la constante y M es un entero positivo. Por otro lado, está la función de probabilidad de cada paso. Lo más usual es que se tomen las probabilidades con respecto al sitio en el que actualmente se encuentra el caminante y que la probabilidad de que salte a una distancia de dos pasos de red o más sea nula. Los pesos no nulos de esta variable aleatoria se podrı́an escribir de la siguiente manera: w̃1 , w̃0 , w̃−1 . Éstos indican el peso del evento en el cual el caminante va al sitio de la derecha, se queda quieto en este instante o se mueve a la izquierda, respectivamente. Para hallar una probabilidad propiamente dicha, hace falta saber la suma de todos estos pesos para definir una “función de partición” y dividir cada uno de los pesos entre la misma. Dicho de otra manera, si la “función de partición” es e−σ̃ = w̃1 + w̃0 + w̃−1 , entonces la probabilidad de que vaya al sitio de la izquierda es w̃−1 e−σ̃ y lo análogo para los otros casos. Con estas definiciones se puede hallar entonces el paso medio y el paso medio cuadrático, lo cual es útil para hallar la función de densidad de probabilidades al tomar una cantidad de pasos grande. Considerando el caso más común en el cual la función discreta w̃X toma valores nulos si |X| > 1 y w̃−1 = w̃1 , el paso medio es ∞ X. 1 e−σ̃. X w̃X =. X=−∞. 1 e−σ̃. (−w̃−1 + w̃1 ) = 0,. mientras que el paso medio cuadrático es 1 e−σ̃. ∞ X X=−∞. X 2 w̃X =. 1 e−σ̃. (w̃−1 + w̃1 ) =. 2w̃1 . e−σ̃. (2.1).

(15) 2.1 Las Marchas Libres. 15. Para simplificar aún más las cosas, se podrı́a considerar el caso en el cual el caminante no se queda quieto en ningún instante (w̃0 = 0); ası́, el paso medio cuadrático es 1 e−σ̃. ∞ X. X 2 w̃X =. X=−∞. 1 e−σ̃. (w̃−1 + w̃1 ) =. 2w̃1 = 1. w̃1 + w̃−1. (2.2). El siguiente paso es el de extender lo que hemos hecho para un caminante que realiza M pasos. Al suponer que la constante de tiempo c̃ tiende a cero, se puede argumentar que, sin importar cuán corto sea el tiempo durante el cual el caminante está marchando, el número de pasos M es grande, por lo cual se puede utilizar el muy conocido teorema del lı́mite central, de la teorı́a de probabilidades; al usar el teorema ya mencionado, X deja de ser una variable discreta para volverse continua, puesto que se cambia una función de probabilidad por una densidad de probabilidad. Suponiendo adicionalmente que el caminante parte del origen de la red unidimensional (X = 0), al realizar M pasos el sitio de red en el que culminará la marcha es la suma de los M pasos; si parte desde otro sitio, digamos X0 , la marcha termina en la suma de los M pasos más la posición inicial, ası́ que para este caso sólo hace falta hacer un reemplazo sencillo (X → X − X0 ). El peso de las marchas en las que un caminante que parta desde el origen y termine la marcha en X es, por una parte, M X Y ¡ ¢ w̃ij Todos los conjuntos j=1 de M pasos que dejen al caminante en X, sobre el ı́ndice i. (donde ij es el j-ésimo paso del conjunto i), pero al ver que el peso de todas las marchas posibles desde el origen con M pasos es M X. X. M Y ¡. ¢ w̃ij = (w̃−1 + w̃1 )M = e−M σ̃ , (2.3). X=−M Todos los conjuntos j=1 X par si M es par de M pasos que dejen X impar si M es impar al caminante en X, sobre el ı́ndice i. queda claro que la función de partición total (es decir, de la marcha completa) es e−M σ̃ . La fórmula anterior sale del hecho de que cada marcha de M pasos tiene exactamente M factores w̃ij , donde cada ij indica hacia dónde.

(16) 16. Introducción a las Marchas Viciosas. va el j-ésimo paso, y por ende se desea sumar todas las combinaciones posibles, pero todas ellas aparecen al expandir (w̃−1 + w̃1 )M , lo cual justifica la anterior ecuación. Ésta tiene la apariencia de una expansión binomial, y es precı́samente ese hecho el que se usará en el capı́tulo 2 para deducir la función de pesos en el caso discreto. Por otra parte, el teorema del lı́mite central indica que el peso de las mismas marchas deberı́a ser proporcional a una distribución Gaussiana con media igual a cero y varianza igual a M × 1 (paso medio y medio cuadrático multiplicados por M ), ası́ que dicho peso es igual a X2. Ãe− 2M . Lo único que resta es hallar la constante de proporcionalidad y dividir el peso entre la función de partición para hallar la probabilidad. Considerando que Z ∞ √ X2 −M σ̃ e = Ãe− 2M dX = à 2πM −∞. √ y que por lo tanto à = e−M σ̃ / 2πM , se deduce que la probabilidad de que la marcha termine en X después de haber iniciado en X0 es (X−X0 )2 2M. e− P (X, X0 ) = √. 2πM. .. (2.4). De esta fórmula se puede sacar algo de información. Por ejemplo, se puede ver cómo decae con el tiempo la probabilidad de que el caminante regrese al origen: 1 P (X0 , X0 ) = √ . (2.5) 2πM Otro dato interesante es la distancia media cuadrática de la distribución, Z. 2. hX iM. Z. X2. 2M e− 2M = X P (X)dX = X √ dX = √ π 2πM R R 2. Z. ∞. 2. √. ue−u du = M. 0. (se usó la sustitución X 2 /(2M ) = u y se inició la marcha en 0) cuya raı́z cuadrada nos da la distancia rms después de M pasos: p √ hX 2 iM = M . (2.6).

(17) 2.1 Las Marchas Libres. 2.1.2.. 17. Un Teorema Sobre los Retornos. Algo particularmente interesante de las marchas aleatorias es el estudiar si el caminante regresará al sitio de donde vino o no. Sabemos que la probabilidad de ocurrencia de este evento disminuye con la raı́z cuadrada del tiempo, pero no sabemos con certeza alguna si el caminante regresará o no. A pesar de tratarse de un fenómeno estocástico, es posible saber si el caminante regresará con la ayuda del siguiente teorema enunciado por Fisher[2]: Teorema 1 Sea pn la probabilidad de que un evento E ocurra en el n-ésimo P∞ n instante, y sea G(z) = n=1 pn z su función generatriz. Entonces, la probabilidad de que E ocurra por primera vez en el n-ésimo instante (fn ) tiene la siguiente función generatriz: F (z) =. G(z) 1 + G(z). Las funciones generatrices mencionadas en el teorema tienen una gran similitud con la transformada Z de una función discreta, y usando las propiedades de la misma se puede construir la demostración. Para empezar, hay dos casos que contemplar: 1- el evento E ocurre en el n-ésimo instante, o 2E ocurre en un instante anterior. Recordando que la probabilidad de que E ocurra en n es pn se puede escribir que pn = fn + fn−1 p1 + fn−2 p2 + . . . + f1 pn−1 puesto que el primer caso está contemplado en el primer término y el segundo en el resto de ellos. Más especı́ficamente, si el evento no ocurre en el nésimo instante por primera vez, hay que considerar la probabilidad de que el evento haya ocurrido por primera vez en un instante anterior y que en el n-ésimo instante ocurra otra vez, cosa que se ha considerado en la suma de los términos que tienen la forma fn−k pk . Aplicando una suma sobre n multiplicando antes por z n se obtiene que ∞ X n=1. pn z n =. ∞ X. fn z n +. n=1. G(z) = F (z) +. ∞ X n=1. ∞ X n=1. zn. n−1 X k=1. fn−1 p1 z n +. ∞ X n=1. fn−2 p2 z n + . . . +. ∞ X. f1 pn−1 z n. n=1. pk fn−k (por definición de funciones generatrices).

(18) 18. Introducción a las Marchas Viciosas ∞ X. G(z) = F (z) +. z n pk fn−k (porque fn = 0 para n ≤ 0). n,k=1. G(z) = F (z) +. ∞ X. k. z pk z. n−k. fn−k = F (z) +. n,k=1. ∞ X k=1. pk z. k. ∞ X. fn−k z n−k ;. n=1. por último se usa de nuevo que fn = 0, n ≤ 0: G(z) = F (z) +. ∞ X k=1. pk z. k. ∞ X. fn−k z n−k = F (z) + G(z)F (z).. ¤. (2.7). n−k=1. Es de notar que el caso 2 contemplado en la demostración era una suma de convolución, y al “aplicar” la transformada Z se llegó a que esa convolución en n era un producto de funciones en el espacio de z, que es lo que se podrı́a esperar de una transformada de este tipo. Es por esto que la demostración es relativamente directa, pues no se requiere nada más que ese hecho. Por supuesto, las sumas fueron definidas para n > 0 porque el evento E no puede suceder en tiempos negativos ni inmediatamente, pero el teorema también es válido con funciones discretas que tengan valores en todos los enteros y con la transformada Z definida de la manera correspondiente. Otro asunto relacionado con la transformada Z es la región de convergencia. Se puede demostrar que la región de convergencia de una función discreta que tome valores en los enteros positivos es un cı́rculo centrado en el origen del plano complejo cuyo radio está dado por el polo más cercano al origen que aparezca en la expresión de la transformada.1 Por esta razón, y recordando que las funciones consideradas aquı́ son probabilidades y por lo tanto deberı́an ser sumables si |z| < 1, en el peor de los casos la transformada Z de las mismas podrı́a tener un polo en |z| = 1. La aplicación de este teorema para nuestro contexto consiste en pensar en el evento E como el momento en el cual el caminante regresa al sitio de donde partió. Si el caminante eventualmente regresa, la suma de las probabilidades fn deberı́a ser igual a uno. Para calcular esta suma, se puede usar la función generatriz ası́: ∞ X G(z) fn = lı́m− F (z) = lı́m− z→1 z→1 1 + G(z) n=1 1. Ver, por ejemplo, el capı́tulo 10 de [11]..

(19) 2.1 Las Marchas Libres. 19. Como se puede apreciar, la única manera de lograr que la suma tienda a 1 es que G(z) tenga un polo en z = 1. Esto quiere decir que se debe cumplir que ∞ X. pn → ∞. n=1. para tener la certeza de que el evento ocurrirá, o en nuestro caso, la suma sobre la variable temporal, M , de la probabilidad de que el caminante regrese no debe converger para saber que él en efecto regresará. Se hará la suposición de que la sucesión pn se comporta asintóticamente ası́: pn ' p0 /nγ . Al realizar la suma, ésta no converge si γ ≤ 1 y converge de lo contrario, ası́ que como γ = 1/2 en nuestra probabilidad de que el caminante regrese a su punto inicial, sabemos que con certeza regresará. Un análisis similar se puede hacer en el caso de varios caminantes, como se hará en la siguiente sección.. 2.1.3.. Varios Caminantes Libres. Ahora se considerarán N caminantes libres y se calculará la función de densidad de probabilidad. Sin embargo, no es realmente necesario calcularla sino simplemente deducirla, puesto que se puede usar el hecho de que cada caminante es independiente, ası́ que la función de densidad de probabilidad de todos los caminantes es el producto de las densidades de probabilidad individuales. (X −X. N − j 2M0j Y e ~ X ~ 0) = √ P (X, 2πM j=1. )2. ~ X ~ |2 |X− 0. e− 2M = (2πM )N/2. (2.8). En esta ecuación se sobreentiende que ambos vectores son de N dimensiones. Ya que está lista la distribución básica se puede calcular la probabilidad de reencuentro de los N caminantes. Se tomará el caso en el que todos los caminantes inician en un mismo sitio, X0 y llegan a algún otro sitio determinado, X. La probabilidad de reencuentro es, entonces, ~ X ~ |2 |X− 0. N (X−X0 )2. − e− 2M ~ ) = e 2M ~ X = , P (X, 0 (2πM )N/2 (2πM )N/2. (2.9).

(20) 20. Introducción a las Marchas Viciosas. lo cual indica que si hay 2 caminantes, éstos se reunirán eventualmente en el punto X, pero si hay más de 2 de ellos, no se sabe si se reunirán o no, usando el teorema de la sección 2.1.2. También se ve del factor Gaussiano que se reunirán preferentemente en X0 . ¿Qué resulta de calcular la reunión en cualquier lugar? En primer lugar, hace falta integrar sobre todos los lugares posibles de llegada, es decir, en X ∈ R. r N (X−X0 )2 Z 2 2M e− 2M e−u dX = du N/2 N/2 N R R (2πM ) R (2πM ) r r Z 1 2πM 1 1 ~ ~ P (X, X0 )dX = = (2.10) (2πM )N/2 N N (2πM )(N −1)/2 R Z. ~ )dX = ~ X P (X, 0. Z. El resultado es, entonces, que los N caminantes se reunen con seguridad siempre y cuando N ≤ 3. Como se ha visto, no es demasiado complicado hacer cálculos con caminantes libres que no interactúan, pues es un problema análogo en complejidad al del gas ideal.. 2.2.. Caminantes Que No Se Cruzan. En esta sección se considera la marcha de N caminantes que no se pueden encontrar, pues al hacerlo se “aniquilan”. Esta es la definición de una marcha viciosa, recordando el comentario hecho en la introducción de este texto. Para iniciar, y para comprender la manera de hallar la función de densidad de probabilidad de una marcha viciosa, se considerará la marcha libre de un caminante con una pared absorbente en X = 0.. 2.2.1.. La Marcha de un Caminante y una Pared. En la figura 2.1, se muestra una serie de posibles marchas en la situación de una pared absorbente. Una de esas marchas no toca la pared, ası́ que ella no absorbe al caminante y dicha marcha tiene un peso no nulo. La segunda de las marchas sı́ toca la pared, y por lo tanto deberı́a tener peso nulo. Para lograr esto, Fisher [2] propone un “método de imágenes”: si una marcha que va de X0 > 0 a X > 0 se topa con la pared, existe otra marcha que va de −X0 a X, de tal manera que antes de que la marcha original llegue a la pared, la segunda es la “imagen en el espejo” de ésta, y al tocar la pared la segunda se convierte en una sola con la original. Como la segunda marcha.

(21) 2.2 Caminantes Que No Se Cruzan. 21. es una reflexión parcial de la primera, la probabilidad de ocurrencia de la segunda es igual a la de la primera, y como no se consideran marchas de peso negativo que vayan de −X0 a −X, sólo se eliminan, efectivamente, las que tocan la pared. Por lo tanto, la probabilidad de que un caminante llegue a X después de haber partido de X0 es Ppared (X, X0 ) = P (X, X0 ) − P (X, −X0 ) (X−X0 )2 2M. e− = √. (X+X0 )2 2M. e− − √. 2πMµ 2πM ¶ (X−X0 )2 (X+X )2 1 − 2M − 2M0 = √ e −e . 2πM. Figura 2.1: Dos marchas libres con una pared absorbente. La marcha 1 es una marcha común, pues no se choca con la pared. La marcha 2 toca la pared absorbente, y por lo tanto deberı́a tener un peso estadı́stico igual a cero. Por esta razón se suma la marcha 3, cuya probabilidad es igual a la de la marcha 2, con un peso negativo. El resultado de esta operación es que se elimina el peso de la marcha 2..

(22) 22. Introducción a las Marchas Viciosas 2) (X 2 +X0 2M. e− Ppared (X, X0 ) = √. ³ e. 2πM. XX0 M. − e−. XX0 M. ´ (2.11). El factor de la derecha en la ecuación 2.11 es llamado “factor de muerte”; en él se nota que toda marcha que llegue a X = X0 tiene peso nulo. Si se toma el lı́mite cuando M tiende al infinito, el factor de muerte se puede expandir usando una aproximación de primer órden: e. XX0 M. − e−. XX0 M. '1+. XX0 XX0 2XX0 −1+ = M M M 2) (X 2 +X0. XX0 e− 2M p Ppared (X, X0 ) ' π/2. 2.2.2.. 1 . M 3/2. (2.12). Dos Caminantes Viciosos. Con esto, ya es posible pensar en una solución para un problema de dos caminantes viciosos; si se piensa en el par de caminantes como un sólo caminante en dos dimensiones, y considerando que se debe cumplir la restricción X1 < X2 en todo momento, se puede usar una pared absorbente en X1 = X2 para el caminante compuesto. Usando lo anterior y el método de imágenes ya estarı́a resuelto el problema de dos caminantes viciosos.. ~ X ~ 0) = P2vic (X,. · µ ¶ (X1 − X(0)1 )2 + (X2 − X(0)2 )2 1 exp − 2πM 2M µ ¶¸ 2 (X1 − X(0)2 ) + (X2 − X(0)1 )2 (2.13) − exp − 2M. Como se puede observar en la figura 2.2, para generar la imagen del punto de partida del caminante compuesto con respecto a la pared absorbente, basta con permutar las coordenadas del mismo. Este hecho se puede observar en la ecuación 2.13, en la cual se nota que el segundo término del lado derecho es idéntico al primero, a excepción de la permutación de las coordenadas iniciales. En la misma ecuación se observa que el factor de muerte aún está presente, y sigue siendo el factor que determina la nulidad de la distribución cuando dos caminantes se encuentran..

(23) 2.2 Caminantes Que No Se Cruzan. 23. Figura 2.2: Marcha de dos caminantes viciosos. El punto 1 representa el punto inicial del caminante compuesto, (X(0)1 , X(0)2 ), mientras que el punto 2 representa el punto inicial de su imagen, el punto (X(0)2 , X(0)1 ). Se puede observar también la pared absorbente en X1 = X2 .. 2.2.3.. N Caminantes Viciosos. Ahora, si se desea extender el razonamiento anterior al problema de N caminantes, hace falta poner una pared absorbente para Xi = Xj siempre que i < j para mantener la condición X1 < X2 < . . . < XN ,. (2.14). lo cual indica que el i-ésimo caminante tiene a su alrededor N − i paredes, y al sumar sobre los N caminantes, se obtiene un total de N (N − 1)/2 paredes. Lo siguiente consiste en tratar a cada pared como se debe, es decir, hay que hacer lo mismo que en el caso de dos caminantes viciosos: permutar las coordenadas de inicio y restar. Sin embargo, el asunto no termina allı́, pues una imagen puede ser positiva si hay dos reflexiones, lo cual hace suponer que hace falta sumar o restar dependiendo del signo de la permutación. En otras palabras, cada una de las posibles permutaciones de las coordenadas de partida corresponde a una imagen, y la imagen puede tener peso positivo o negativo según el signo de la permutación, pues es necesario eliminar todas.

(24) 24. Introducción a las Marchas Viciosas. las imágenes más el caminante compuesto si éste toca alguna pared. Por ejemplo, si hay tres caminantes viciosos, el caminante compuesto se mueve en tres dimensiones y hay 3! = 6 caminantes en total, es decir, el caminante compuesto más 5 imágenes con 3 paredes. Si éste último toca alguna de las paredes, una de la imágenes negativas cancela su peso y las dos imágenes negativas y las dos positivas restantes se cancelan entre sı́. De todo lo anterior, se puede escribir la fórmula que se ha buscado desde un principio, la probabilidad de llegada a cierta posición en el espacio de N dimensiones del caminante compuesto por N caminantes viciosos: ~ X ~ 0) = PN vic (X,. X. sgn(σ). σ∈SN. N Y £. ¤ P (Xj , X(0)σ(j) ) .. (2.15). j=1. Aquı́, σ es una de las N ! permutaciones de N elementos, P es la probabilidad de una marcha libre y sgn(x) es la función signo de su argumento. La forma de esta función es idéntica a la de un determinante, lo cual nos permite dar un paso más. La definición del determinante de una matriz es det(A) =. X σ∈SN. sgn(σ). N Y. aj,σ(j) ,. j=1. ası́ que se puede escribir la anterior expresión de la siguiente manera:  (X −X )2  i (0)j − 2M e ~ X ~ 0 ) = det(P (Xi , X(0)j ))N ×N = det  √  . PN vic (X, 2πM N ×N. Ahora, al sacar del determinante los factores comunes en cada fila y en cada columna se obtiene que ~ 2 +|X ~ |2 µ XX ¶ |X| 0 − i (0)j 2M e ~ X ~ 0) = M PN vic (X, det e , (2.16) (2πM )N/2 N ×N y es de esta expresión de donde se calcula la mayorı́a de los resultados más interesantes.. 2.2.4.. Posiciones Iniciales Igualmente Espaciadas. Para simplificar un poco la situación, se supondrá que las posiciones de partida de cada caminante están igualmente espaciadas entre sı́: X(0)j = j − 1,. con 0 < j ≤ N.. (2.17).

(25) 2.2 Caminantes Que No Se Cruzan. 25. Al cumplir lo anterior, el determinante de la ecuación 2.16 se puede escribir ası́: µ XX ¶ ³ (j−1)Xi ´ i (0)j M det e = det e M N ×N. . N ×N. X1 M. 2X1. (N −1)X1. 1 e e M ... e M X2 2X2 (N −1)X2   1 eM e M ... e M  2X3 (N −1)X3 X3 = det   1 eM e M ... e M  .. .. .. .. .. .  . . . . 2XN (N −1)XN XN 1 e M e M ... e M µ ¶ µ ¶¶ Y µ Xi Xj = exp − exp M M 1≤j<i≤N.        . (la última expresión resulta del hecho de que la matriz del segundo renglón es una matriz de Vandermonde cuyas variables son las eXi /M ). Por lo tanto, se obtiene el siguiente resultado, ~ 2 +|X ~ |2 µ ¶ µ ¶¶ |X| 0 − Y µ 2M X Xj e i ~ = PN vic (X) exp − exp , (2πM )N/2 1≤j<i≤N M M en donde se ha sobreentendido la condición inicial 2.17. Una simplificación más se puede hacer en vista de ella2 , ~ 0 |2 = |X. N −1 X. j2 =. j=0. (N − 1)N (2N − 2 + 1) N (N − 1)(2N − 1) = , 6 6. por lo cual el resultado final es ~ 2 |X|. − 2M N (N −1)(2N −1) ~ = e 12M PN vic (X) e− N/2 (2πM ). Y 1≤j<i≤N. µ. µ exp. Xi M. ¶. µ − exp. Xj M. ¶¶ .. (2.18) El rasgo caracterı́stico de las marchas viciosas, el factor de muerte, sigue estando allı́, esta vez de manera aún más explı́cita, pues el determinante de Vandermonde se cancela cuando dos de sus variables toman el mismo valor, y es esto lo que las define. PN 2 La fórmula de la suma de los N primeros cuadrados, j=1 j = N (N + 1)(2N + 1)/6, puede encontrarse en, por ejemplo, la sección 5.1 de [12], o se puede demostrar por inducción matemática. 2.

(26) 26. Introducción a las Marchas Viciosas. 2.2.5.. Supervivencia. Una cantidad interesante puede ser la probabilidad de supervivencia después de M pasos. Para hallarla, se integra sobre todas las posiciones finales posibles que no rompan la condición 2.14. Z ~ dNX Psup = PN vic (X) Xj <Xi j<i. Z. ~ 2 |X| ³ Xi Xj ´ N (N −1)(2N −1) Y e− 2M − 12M M − eM = e e dNX Xj <Xi (2πM )N/2 1≤j<i≤N j<i N (N −1)(2N −1) Z Y ³ Xi Xj ´ ~ 2 12M |X| e− − 2M M = e e − e M dNX N/2 X <X j i (2πM ) 1≤j<i≤N. j<i. √ √ Haciendo la sustitución uk = Xk / M , duk = dXk / M se puede sacar parte de la dependencia en M de la integral. Z. N (N −1)(2N −1). Psup. 12M e− = (2πM )N/2. uj <ui j<i. e−. |~ u|2 2. u ´ Y ³ √ui √j e M − e M M N/2 dNu. 1≤j<i≤N. Los factores M N/2 se cancelan, y resulta necesario aproximar las exponenciales del factor de muerte a primer orden, usando el hecho de que esta fórmula es válida sólo para M → ∞. Psup =. e−. Z. N (N −1)(2N −1) 12M. (2π)N/2 µ µ × 1+O −. N (N −1) 4. M = (2π)N/2. Z. e. −. uj <ui j<i. Y µ ui 1. 1≤j<i≤N. ¶¶. 1 M. |~ u|2 2. M2. −. uj. e. uj <ui j<i. |~ u|2 2. Y. dNu. 1. M2. N (N −1) 2. −. ¶. µ (ui − uj ) d u 1 + O. 1≤j<i≤N. µ. ¶¶. 1. N. M. N (N −1) 2. (2.19) La potencia de M del último renglón aparece porque hay N (N − 1)/2 factores en la productoria, y como la potencia que tiene antes de salir es N (N −1) −1/2, la potencia resultante es M − 4 . Por otro lado, la exponencial que está por fuera de la integral en el primer renglón de la ecuación anterior.

(27) 2.2 Caminantes Que No Se Cruzan. 27. desaparece porque al hacer su expansión a primer orden contribuye más el −1) término constante que el lineal (que es igual a N (N −1)(2N ), además el único 12M parámetro que en ella interviene aparte de M es el número de caminantes, que se mantiene constante. Por estas razones se puede despreciar con impunidad para llegar al último de los resultados. Como lo que queda dentro de la integral es independiente de M , se ha terminado el cálculo, en principio, pero aún se puede hacer una serie de simplificaciones. Por una parte, si se considera la suma de todas las integrales con permutación de variables, se obtiene N ! veces la misma integral, XZ σ∈SN. −. e. uσ(j) <uσ(i) j<i. |~ u|2 2. Y¡. ¢. Z N. uσ(i) − uσ(j) d u = N !. 1≤j<i≤N. uj <ui j<i. e−. |~ u|2 2. Y. (ui − uj ) dNu,. 1≤j<i≤N. pero en el lado izquierdo se puede completar el conjunto de integración a R si se elimina la suma sobre las permutaciones y se pone un signo de valor absoluto en la productoria, pues precisamente la suma sobre las permutaciones completa las integrales en cada variable, ası́ que la integral simplificada es Z Z |~ u|2 Y |~ u|2 Y 1 N − 2 |ui − uj | d u = u <u e− 2 (ui − uj ) dNu. (2.20) e j i N ! ~u∈RN 1≤j<i≤N 1≤j<i≤N j<i. Usando esto último en los cálculos realizados hasta ahora, se puede escribir Psup =. 1 (2π)N/2 M. = AN M. N (N −1) 4. N (N −1) − 4. ,. 1 N!. Z e− ~ u∈RN. |~ u|2 2. Y. |ui − uj | dNu. 1≤j<i≤N. (2.21). obviando los órdenes no dominantes y definiendo AN como la parte de la ecuación que no depende de M .. 2.2.6.. Reunión en Posiciones Finales Igualmente Espaciadas. Otro cálculo interesante es la probabilidad de reunión en una posición final promedio, con las posiciones de los caminantes igualmente espaciadas..

(28) 28. Introducción a las Marchas Viciosas. Las posiciones finales están dadas por Xi − Xj = i − j. y. X=. N X Xj. N. j=1. ,. (2.22). pero otra manera de escribir las posiciones finales es Xj = X − N 2−1 + j − 1, dado que esta expresión cumple con las dos condiciones anteriormente expuestas. Se partirá de 2.18 para luego incluir las posiciones finales. ~ 2 |X|. N (N −1)(2N −1) e− 2M − ~ 12M PN vic (X) = e (2πM )N/2 ~ 2 +|X ~ |2 |X| 0. e− 2M = (2πM )N/2 −. ~ 2 +|X ~ |2 |X| 0 2M. Y. e. e = exp (2πM )N/2. à N X Xi i=2. M. µ exp. 1≤j<i≤N. Xi /M. 1≤j<i≤N. µ. Y ³. −. 1−e. Xi −Xj M. Xi M. ¶. µ − exp. Xj M. ¶¶. ´. !. N Y i−1 ³ ´ Y − i−j M 1−e (i − 1) i=2 j=1. En el último renglón, al sacar la exponencial de la sumatoria, el factor (i − 1) sale de hacer el producto sobre j, y la sumatoria sale de hacer el producto sobre i. Además se hizo uso de 2.22 para escribir la potencia de la última exponencial que queda en la productoria principal. à N ! N i−j=1 ~ 2 +|X ~ |2 |X| 0 ´ − X Xi Y Y ³ 2M e − i−j ~ M 1−e PN vic (X) = exp (i − 1) (2πM )N/2 M i=2 i=2 i−j=i−1 à N ! N i−j=i−1 ~ 2 +|X ~ |2 |X| 0 ´ − X Y Y ³ 2M Xi e − i−j M = exp (i − 1) 1−e (2πM )N/2 M i=2 i=2 i−j=1 à N ! N −1 N ~ 2 +|X ~ |2 |X| 0 ´ X Xi Y Y ³ k e− 2M −M exp 1−e (i − 1) = (2πM )N/2 M i=2 k=1 i=k+1 à N ! N ~ 2 +|X ~ |2 |X| 0 ´N −k X Xi Y³ k e− 2M −M = exp (i − 1) (2.23) 1 − e (2πM )N/2 M i=2 k=1 En la última ecuación se incluyeron los puntos de llegada y se usaron un par de trucos para cambiar el orden de los productos, y en particular se.

(29) 2.2 Caminantes Que No Se Cruzan. 29. decidió definir k = i − j para dar el paso final. Ahora sólo queda desarrollar los argumentos de las exponenciales y tratar de simplificarlos. La expresión completa a simplificar es la siguiente: N ~ 2 + |X ~ 0 |2 X |X| S=− + Xi (i − 1). 2 i=2. El segundo término de la derecha se desarrolla a continuación. N X i=2. N X. N −1 + i − 1)(i − 1) 2 i=2 ¶ N µ N X N −1 X = X− (i − 1) + (i − 1)2 2 i=2 i=2 µ ¶N −1 N −1 X N −1 X = X− i+ i2 2 i=1 µ ¶ i=1 N − 1 N (N − 1) = X− 2 2 N (N − 1)(2N − 1) + 6. Xi (i − 1) =. (X −. Ahora se presenta el primero. N ~ 2 + |X ~ 0 |2 |X| 1X 2 2 − = − (X + X(0)i ) 2 2 i=1 i õ ! ¶2 N 1X N −1 = − X− + i − 1 + (i − 1)2 2 i=1 2 "µ ¶2 N 1X N −1 = − X− 2 i=1 2 ¸ ¶ µ N −1 2 (i − 1) + 2(i − 1) +2 X − 2 " µ ¶2 1 N −1 = − N X− 2 2 µ ¶ ¸ N −1 N (N − 1)(2N − 1) + X− N (N − 1) + 2 3.

(30) 30. Introducción a las Marchas Viciosas. Poniendo ambos desarrollos juntos, se llega a lo siguiente. " µ ¶2 µ ¶ 1 N −1 N −1 S = − N X− + X− N (N − 1) 2 2 2 ¸ µ ¶ N (N − 1)(2N − 1) N − 1 N (N − 1) + X− + 3 2 2 N (N − 1)(2N − 1) + 6 µ ¶2 N N −1 = − X− 2 2 Notando que X 0 = N −1 puede decir que. PN. i=1 (i. − 1) = N −1 N (N − 1)/2 = (N − 1)/2, se. S=−. N (X − X 0 )2 2. y por último, N 2 N ´N −k k e− 2M (X−X 0 ) Y ³ −M 1−e . PN reu (X) = (2πM )N/2 k=1. (2.24). Una vez más, se desea hacer una aproximación al comportamiento de esta cantidad al hacer M → ∞. Para ello, se expanden las exponenciales dentro del factor de muerte hasta el orden lineal para obtener ¶N −k N 2 N µ e− 2M (X−X 0 ) Y k PN reu (X) ' (2πM )N/2 k=1 M N. = =. N Y. 2. e− 2M (X−X 0 ) (2π)N/2 M. N 2. +. N − 2M (X−X 0 )2. N (N −1) 2. e (2π)N/2 M N 2 /2. N −1 Y. (k)N −k. k=1. (k!) .. (2.25). k=1. Hay que aclarar que, al incluir las posiciones finales, la única variable que queda libre es X, que es lo esperado. La probabilidad de reunión en cualquier.

(31) 2.3 Comentarios. 31. sitio de la red es la integral de la probabilidad que se encontró arriba: Z Z N 2 N −1 e− 2M (X−X 0 ) Y PN reu (X)dX ' (k!) dX N/2 M N 2 /2 R R (2π) k=1 √ N −1 Y 2πM √ = (k!) N (2π)N/2 M N 2 /2 k=1 = √. N (2π)(N −1)/2 M. ∼ M −(N. 2.2.7.. N −1 Y. 1 N 2 −1 2. (k!). k=1. 2 −1)/2. (2.26). Reunión dado que los Caminantes Sobreviven. Con estos dos últimos resultados se puede calcular la probabilidad de que, dado que los caminantes sobrevivan, se reúnan eventualmente. Dicha probabilidad es Preu|sup ∼. M−. N 2 −1 2. 2.3.. =. 1. N (N −1) N 2 −1 − 2 4. =. 1. . M M De esto se deduce que, suponiendo que los caminantes sobrevivan, se reunirán con certeza si hay, a lo sumo, dos caminantes (esto se deriva, una vez más, del teorema 1), y si hay tres o más no existe certeza alguna sobre su reunión. M. N (N −1) − 4. (N +2)(N −1) 4. Comentarios. Lo primero que se puede notar de los cálculos y aproximaciones anteriores es que de una manera no muy rigurosa se pasó de un problema de carácter discreto a uno de carácter continuo. Esto se hizo a través del teorema del lı́mite central, el cual asigna una función de densidad de probabilidad gaussiana (o normal) a la variable aleatoria que resulta de sumar una serie de variables aleatorias idénticamente distribuidas, ası́ ésta última sea discreta; esto es lo único que justifica usar integrales en lugar de sumatorias. En particular, como las variables aquı́ consideradas son continuas, no hace falta pensar en el problema de que un caminante compuesto “salte” alguna de las paredes sin tocarla, cosa que en el caso discreto exige que las condiciones iniciales se escojan apropiadamente..

(32) 32. Introducción a las Marchas Viciosas. Por otra parte, el lector más riguroso encontrará que la mayorı́a de los cálculos se hicieron con variables adimensionales; los mismos cálculos se pueden hacer usando ãX y c̃M en lugar de M y X para conservar la dimensionalidad de las fórmulas. Todas ellas resultan con la dimensionalidad apropiada, y lo único que se hace aparente del análisis dimensional es que al calcular la probabilidad de llegada a cierto conjunto de posiciones finales partiendo de alguna configuración inicial, lo que resulta es una función de densidad de probabilidad, que es precı́samente lo que se comentaba arriba, y no una función de probabilidad, que serı́a lo más apropiado para un problema de naturaleza discreta, como es el que aquı́ se presentó. Teniendo en cuenta todo lo anterior, serı́a deseable lograr resultados exactos sin hacer el lı́mite continuo sino hasta el final; es por esto que se regresará a este problema en el capı́tulo 3. Como comentario adicional, cabe anotar que el método de las imágenes que se uso en este capı́tulo tiene como base el hecho de que w̃−1 = w̃1 , el cual significa que una marcha que sea el reflejo de otra con respecto a alguna posición tiene un peso estadı́stico igual a la marcha original. De esta manera, es poco probable que lo anteriormente calculado funcione en un caso diferente, es decir, en el caso en el cual w̃−1 6= w̃1 ..

(33) Capı́tulo 3 La Función de Peso Estadı́stico y las Funciones de Correlación Tomando una marcha viciosa aún en tiempo y espacio discretos, se obtendrán las funciones de peso y de correlación, y se mostrará que tienen la forma de la ecuación 1.3. Con base en esto, se verá que los dos tipos de marchas viciosas consideradas en este capı́tulo son casos particulares de la ecuación 1.3 con el parámetro β = 2 y β = 1. Posteriormente se dará una expresión explı́cita para el primero de estos dos casos y se obtendrán algunos resultados útiles para el segundo. El trabajo aquı́ realizado está basado en [10] en su totalidad.. 3.1.. La Función de Peso Estadı́stico. A diferencia del capı́tulo 2, aquı́ se calculará el número de marchas que van de un punto inicial a uno final en el espacio de ZN . Podemos empezar de la relación 2.3, en la cual se halla la función de partición de una marcha libre de un solo caminante y notar lo siguiente: ¶ M µ X M k M . (w̃−1 + w̃1 ) = w̃1M −k w̃−1 k k=0 Del lado derecho aparece la suma de todas las marchas posibles; cada una de estas marchas consiste de M −k pasos a la derecha y de k pasos a la izquierda, ası́ que se puede decir que en cada una de esas marchas el caminante se ha desplazado X − X0 = M − k − k = M − 2k pasos a la derecha. Con esto, se.

(34) 34 La Función de Peso Estadı́stico y las Funciones de Correlación deduce que k = (M − (X − X0 ))/2 y que el número de marchas que inician en X0 y terminan en X es µ ¶ M P (X, X0 ) = M −(X−X0 ) . 2. Con esto tenemos un resultado similar al del capı́tulo 2, sin usar el teorema del lı́mite central. Siguiendo el mismo orden de ideas de ese capı́tulo, se puede hallar el número de marchas viciosas de N caminantes usando el método de las imágenes; primero se usa el número de marchas de N caminantes libres con M pasos, ¶ N µ Y M ~ ~ P (X, X0 ) = M −(Xk −X(0)k ) , 2. k=1. para luego usar el método de las imágenes y llegar a ¶ N µ Y X M ~ ~ sgn(σ) P1 (X, X0 ) = M −(Xk −X(0)σ(k) ) , σ∈SN. 2. k=1. ~0 y definiendo a P1 como el número de marchas viciosas que parten de X ~ Se puede usar la definición del determinante de una matriz de llegan a X. nuevo para obtener la siguiente expresión: ·µ ¶¸ M ~ X ~ 0 ) = det P1 (X, . (3.1) M −(Xi −X(0)j ) 2. N ×N. Tal y como en el caso del capı́tulo 1, es de la expresión 3.1 de donde salen los resultados interesantes. Sin embargo, es probable que el caminante compuesto por los N caminantes viciosos cruce las paredes absorbentes sin tocarlas si no se tiene cuidado con las condiciones iniciales, pues aquı́ se considera el modelo en el cual para cada valor de la variable temporal todos los caminantes dan un paso;1 se usará un ejemplo con dos caminantes para 1. En [2] se consideran tres modelos: el primero es el aquı́ considerado, llamado “lock step”, el segundo, de turno aleatorio, consiste en que para cada valor de M un sólo caminante da un paso y el resto se quedan en su lugar, y el tercero es el caso de variable continua, en el que la condición inicial no tiene importancia. El segundo de ellos contiene inherentemente un problema de independencia entre caminantes, pues las acciones de uno de ellos dependen de las acciones de los demás, aunque deberı́a ser posible demostrar que tanto el primer modelo como el segundo tienden al tercero aplicando el lı́mite cuando M → ∞. El estudio del modelo de turno aleatorio no se considerará aquı́, pero serı́a un tema interesante para futuros estudios..

(35) 3.1 La Función de Peso Estadı́stico. 35. mostrar una condición inicial que no permite que el caminante salte “por encima” de la pared. Como ya se sabe, se debe cumplir que X1 sea menor que X2 para que los caminantes no se aniquilen.. Figura 3.1: Marcha de dos caminantes viciosos, en tiempo discreto. En a), se pueden observar las direcciones que puede tomar un caminante en el modelo de “lock step” (parte inferior derecha) y cómo al escoger la posición ~ 0 = (0, 1), que por cierto cumple con la condición X1 < X2 , el inicial X caminante compuesto puede saltar por encima de la pared. En b) no aparece ~ 0 = (0, 2). este problema, puesto que se ha escogido la posición inicial X De la figura 3.1 se puede ver cómo en un caso el caminante compuesto salta la pared y en el otro no lo hace. En el segundo caso, en el cual no puede saltar la pared, lo más particular es que inicialmente entre los dos caminantes hay una distancia de dos veces la constante de red. En general, se puede ver que al escoger las posiciones con un número par de sitios de red de distancia los caminantes o bien no se encuentran o bien se encuentran en un mismo sitio, pero no intercambian sus lugares, que es lo equivalente a saltar la pared. La distancia entre dos caminantes puede variar entre dos instantes según los siguientes casos: Ambos caminantes se mueven en la misma dirección. En ese caso, la distancia entre ellos es la misma al instante siguiente..

(36) 36 La Función de Peso Estadı́stico y las Funciones de Correlación Los caminantes se mueven en direcciones opuestas. Aquı́ se presentan dos casos más. • Los caminantes se acercan. La distancia entre ellos se reduce en dos veces la constante de red. • Los caminantes se alejan. La distancia aumenta en dos veces la constante de red. Considerando los casos que se pueden presentar, en todo momento dado la distancia entre dos caminantes arbitrarios aumenta en dos sitios, disminuye en dos sitios o no cambia, lo cual indica que es deseable que los caminantes inicien en posiciones tales que entre cualquier par de caminantes haya un número par de sitios de distancia para garantizar que el caminante compuesto no salte las paredes. Por esta razón, en lugar de definir las condiciones iniciales como en el primer capı́tulo,2 se definirán asi: X(0)i = 2(i − 1).. (3.2). Sobreentendiendo el vector de partida, el número de marchas viciosas que ~ es llegan a X ·µ ¶¸ ·µ ¶¸ M M ~ = det P1 (X) = det M −(Xi −X(0)j ) M −(Xi −2(j−1)) 2. ·µ = det ". M M −(2j−2−Xi ) 2. = det ¡ M +Xi 2. ¶¸ N ×N = det N ×N. 2. ·µ M +Xi 2. N ×N ¶¸ M − (j − 1) N ×N #. M! ¢ ¡ M −Xi ¢ − (j − 1) ! + (j − 1) ! 2. .. (3.3). N ×N. En el segundo renglón se usó la simetrı́a que tiene el coeficiente binomial alrededor de M/2, y en el tercero se usó la fórmula del coeficiente binomial en 2. Es cierto que las condiciones iniciales consideradas en ese momento no tienen mucho sentido por la distancia inicial entre dos caminantes vecinos. Sin embargo, era posible salir impune con ellas debido al cambio de una variable discreta a una continua, lo cual acababa con la posibilidad de los saltos. Si aún con este argumento el lector no se siente convencido de la veracidad de los cálculos allı́ realizados, sólo hace falta cambiar las posiciones de partida allı́ consideradas por las que aquı́ se usarán y repetir los cálculos. Los resultados son los mismos, a excepción de un factor de dos en algunas partes de las expresiones, como por ejemplo los argumentos de las exponenciales del factor de muerte..

(37) 3.1 La Función de Peso Estadı́stico. 37. términos de factoriales. Hay que notar que los Xi deben ser pares o impares según si M es par o impar. En otras palabras, cuando M = 0, todas las posiciones son pares, al instante siguiente todas deben ser impares, luego pares y ası́ sucesivamente, ası́ que si M es par, todas las posiciones deben ser pares para que la expresión 3.3 tenga sentido, y lo mismo con M impar; por eso la división dentro de la binomial no es problema alguno siempre y cuando se exija un punto de llegada adecuado.3 El trabajo que se debe hacer ahora es el de tratar de simplificar el determinante, siguiendo lo propuesto por [1]. Lo primero es usar un pequeño truco sumando dos filas entre sı́. Sea M + (Xj − X(0)j ) M + (Xi − X(0)j ) ; por lo tanto, = qi + (i − j). 2 2 ¡ M ¢ Cada uno de los elementos de la matriz tiene la forma qi +i−j , y si dos términos de filas contiguas (se ha escogido j para las filas e i para las columnas) se suman, se obtiene que ¶ ¶ µ µ M M! M = + qi + i − j qi + i − j + 1 (qi + i − j − 1)!(M − qi − i + j + 1)! M! + (qi + i − j)!(M − qi − i + j)! M! = (q + i − j)!(M − qi − i + j)! µi ¶ qi + i − j × 1+ M − qi − i + j + 1 M! = (q + i − j)!(M − qi − i + j)! µi ¶ M +1 × M + 1 − qi − i + j (M + 1)! = (q + i − j)!(M + 1 − qi − i + j)! µi ¶ M +1 = . (3.4) qi + i − j qj =. 3. Sin embargo, una generalización usando la función gamma serı́a directa y pertinente, aunque no se considere aquı́..

(38) 38 La Función de Peso Estadı́stico y las Funciones de Correlación El determinante que se desea simplificar resulta como sigue al sumar filas de abajo hacia arriba.  ¡M ¢ ¡ M ¢ ¡ M ¢ ¡ M ¢  . . . q1 ¢ q2 +1 ¢ q3 +2 ¢ −1)¢ ¡qN +(N ¡M ¡M   ¡M +1 M +1 +1 +1 . . .  ¡ q1 ¢ q2 +1 ¢ q3 +2 ¢ qN +(N −1)¢  ¡ ¡ ¡   M +1 M +1 M +1 M +1 ~ = det   . . . P1 (X) q +(N −2) q q +1 q −1 2 3 1 N   .. .. .. ..   ...  ¡ . . . . ¢  ¢ ¡ ¢ ¡ ¢ ¡ M +1 M +1 M +1 M +1 ... qN +1 q3 −(N −4) q2 −(N −3) q1 −(N −2)  ¡M ¢ ¡ M ¢ ¡ M ¢ ¡ M ¢  . . . q1 ¢ q2 +1 ¢ q3 +2 ¢ −1)¢ ¡M ¡M ¡qN +(N   ¡M +1 +1 +1 M +1 . . .  ¡ q1 ¢ q +1 q +2 q +(N −1) 2 3 N ¡M +2¢ ¡M +2¢ ¡ M +2 ¢   M +2  . . . qN +(N −1)  = det  q q +1 q +2 1 2 3   . . . ..   .  ¡ .. ¢ ¡ .. ¢ ¡ .. ¢ . . ¡ . ¢  M +N −1 M +N −1 M +N −1 M +N −1 . . . qN +(N −1) q1 q2 +1 q3 +2 · ¸ N Y (M + k − 1)! 1 = det (3.5) (q (M + i − q k + k − 1)! j − j)! N ×N k=1 En el segundo renglón se repitió el proceso N − 1 veces de abajo hacia arriba y por último se sacaron del determinante los factores comunes tanto en las columnas como en las filas. Si se completan las factoriales hasta (M + N − qj − j)!, se obtiene lo siguiente. ~ = P1 (X). N Y. (M + k − 1)! det [(M − qi −i +j +1)N −j ]N ×N (q k + k− 1)!(M +N − qk − k)! k=1. En esta última relación se usó el sı́mbolo de Pochhammer, definido por (a)n = Γ(a + n)/Γ(a) = (a + n − 1)(a + n − 2) . . . (a). Sea ri = qi + i − 1. Entonces, ~ = P1 (X) = =. N Y. (M + k − 1)! det [(M − ri + j)N −j ]N ×N (qk + k− 1)!(M +N − qk − k)! k=1 N Y. £ ¤ (M + k − 1)! det (−ri )N −j + . . . N ×N (qk + k− 1)!(M +N − qk − k)! k=1 N Y. ¤ £ (M + k − 1)! det (−ri )N −j N ×N . (qk + k− 1)!(M +N − qk − k)! k=1.

(39) 3.1 La Función de Peso Estadı́stico. 39. Lo que queda dentro de cada entrada del determinante en el segundo renglón es un polinomio de orden N − j en ri , cuyos términos de órdenes menores se pueden eliminar haciendo operaciones entre filas. Lo que queda es bastante parecido a un determinante de Vandermonde, tan sólo hace falta permutar las filas de tal manera que el exponente N − j quede como j y deshacerse del signo negativo en las entradas de potencia impar. Como hay potencias de 0 a N −1, hay [[N/2]] potencias impares y por lo tanto, al sacar los −1 de cada fila, aparece un factor de (−1)[[N/2]] antes del determinante (aquı́, [[x]] es la función parte entera de x). Por otra parte, al hacer las permutaciones, lo que se desea hacer es poner las filas al revés, es decir, intercambiar las filas N y 1, N − 1 y 2 y ası́ sucesivamente, por lo tanto hay que hacer [[N/2]] permutaciones, lo cual saca otro factor de (−1)[[N/2]] . Por ende se puede escribir ~ = P1 (X) = = = = × = =. N Y. £ ¤ (M + k − 1)! det rij−1 N ×N (qk + k− 1)!(M +N − qk − k)! k=1 ¸Y N · Y (M + k − 1)! [rj − ri ] (q k + k− 1)!(M +N − qk − k)! i<j k=1 ¸Y N · Y (M + k − 1)! [qj + j − 1 − qi − i + 1] (qk + k− 1)!(M +N − qk − k)! i<j k=1 ¸Y N · Y (M + k − 1)! [qj + j − qi − i] (q k + k− 1)!(M +N − qk − k)! i<j k=1 " # N Y (M + k − 1)! M +Xk k ( 2 )!( M −X + N − 1)! 2 k=1 · ¸ Y M + (Xj − 2(j − 1)) M + (Xi − 2(i − 1)) +j− −i 2 2 i<j " # N Y Y · Xj − Xi ¸ (M + k − 1)! k k 2 ( M +X )!( M −X + N − 1)! i<j 2 2 k=1 # " N Y N (N −1) Y (M + k − 1)! 2− 2 [Xj − Xi ] . k k )!( M −X + N − 1)! i<j ( M +X 2 2 k=1. Estos últimos pasos son relativamente directos, sólo hizo falta usar las propiedades del determinante de Vandermonde y reemplazar las definiciones de.

(40) 40 La Función de Peso Estadı́stico y las Funciones de Correlación las ri y de las qi . El factor de dos sale de la productoria de la derecha, pues X −N +1 hay N (N − 1)/2 productos en ella. Sea xj = j 2 y L = M + N − 1. A continuación se reemplaza la primera de estas dos definiciones. " # N N (N −1) Y (M + k − 1)! − 2 P1 (~x) = 2 M +2xk +N −1 )!( M −(2xk2+N −1) + N − 1)! k=1 ( 2 Y × [2xj + N − 1 − (2xi + N − 1)] i<j. = 2. N (N −1) − 2. N Y k=1. × 2. N (N −1) 2. Y. ". (M + k − 1)! M +N −1 −1 ( 2 + xk )!( M +N − xk )! 2. #. [xj − xi ] .. i<j. La división entre dos que aparece en las factoriales del denominador en el último paso no presenta problemas, puesto que la definición de xi y de L hace que se cancele N o que aparezca con un coeficiente igual a 2; además, de lo anteriormente discutido sobre la paridad de M y de Xi se puede deducir que la suma y la resta de estas dos cantidades da como resultado una cantidad par. Es más, de estos hechos, se deduce que cuando L/2 es semientero, xi también lo es, y lo análogo cuando L/2 es entero, ası́ que los argumentos de ambas factoriales están bien definidos como enteros no negativos. Para concluir este cálculo, se reemplaza la segunda definición y se usan las siguientes: sea CM N =. N Y. (M +k −1)! =. k=1. N Y. (M +N −k)! y. p. w(x) =. k=1. 1 . (L/2 + x)!(L/2 − x)!. El resultado final es: P1 (~x) = CM N. N Y p k=1. w(xk ). Y. |xj − xi |.. (3.6). i<j. El subı́ndice de P que aquı́ aparece no es arbitrario; indica uno de los casos posibles de funciones de peso de marchas viciosas. Un segundo caso es aquél en el cual los N caminantes llegan al punto de partida en 2M pasos ~ en el M -ésimo paso; éste se denota P2 (~x) y después de haber pasado por X es igual al cuadrado de P1 :.

(41) 3.2 Las Funciones de Correlación, Caso β = 2. P2 (~x) =. 2 CM N. N Y k=1. w(xk ). Y. |xj − xi |2 .. 41. (3.7). i<j. En general, las funciones de peso estadı́stico se pueden escrbir de la siguiente manera, Pβ (~x) =. β CM N. N Y k=1. wβ/2 (xk ). Y. |xj − xi |β ,. i<j. donde β es un parámetro similar al introducido en el capı́tulo 1 y que indica qué tipo de marcha se está considerando. Al igual que en el capı́tulo 2, en estas funciones de pesos, para los casos β = 1 y 2, se puede ver el factor de muerte del lado derecho de las ecuaciones 3.6 y 3.7. La caracterı́stica definitoria de las marchas viciosas aún está presente, mostrando cómo al hacer xi = xj , con i 6= j, la función se cancela. Por otra parte, hace falta comentar sobre el signo de valor absoluto que aparece en estas dos últimas expresiones. En principio, y para que tengan sentido las fórmulas que han sido calculadas, se requiere que xj > xi siempre que j > i, ası́ que ninguno de los términos de producto en el factor de muerte es negativo, y se puede usar el sı́mbolo de valor absoluto sin problema alguno. La razón para ponerlo ahı́ es que al momento de calcular las funciones de correlación puede que las condiciones anteriores no se cumplan; por ende es necesario usar el sı́mbolo de valor absoluto, como se hizo anteriormente en la ecuación 2.20.. 3.2.. Las Funciones de Correlación, Caso β = 2. Como en muchos casos en mecánica estadı́stica, es de interés saber cuál es la probabilidad de que k caminantes (k < N ) estén en ciertas posiciones despúes de M pasos. Esta probabilidad es proporcional a las funciones de correlación, que aquı́ se definen como el número de marchas que cumplen las anteriores condiciones y que se escriben de la manera usual, sumando sobre todos los valores posibles de las posiciones de los N − k caminantes restantes. Ã !β N Y X Y p 1 CM N Iβ (x1 , x2 , . . . , xk ) = w(xk ) |xj − xi | (3.8) (N − k)! xk+1 , i<j k=1 xk+2 , ... xN.

(42) 42 La Función de Peso Estadı́stico y las Funciones de Correlación Es en esta expresión en la que se nota la razón por la cual fue necesario incluir el sı́mbolo de valor absoluto, pues las sumas van sobre todos los valores de cada xi . La medida discreta en estas sumas es, como ya se ha visto, w(x) =. 1 . [(L/2 + x)!(L/2 − x)!]2. Esta función es un caso especial de la medida con respecto a la cual los polinomios de Hahn son ortogonales. A partir de dichos polinomios se pueden definir polinomios mónicos (aquellos cuyo coeficiente en el orden superior es igual a uno) que en [10] se definen como polinomios simétricos de Hahn, y que se denotan por Cj (x).4 Por el momento sólo se usará el hecho de que los Cj (x) son mónicos y ortogonales con respecto a w(x) para calcular la función de correlación cuando β = 2, que es el caso más sencillo de resolver. Para empezar, y siguiendo a M. L. Mehta [8], se enunciará la versión discreta de un teorema enunciado por F. J. Dyson que es muy utilizado en la teorı́a de matrices aleatorias y que será útil en el siguiente capı́tulo también. Teorema 2 Sea K(x, y) una función que recibe dos valores enteros y que toma valores en los reales, los complejos o los cuaterniones, tal que K(x, y) = K(y, x), donde K = K si K es real, es el conjugado de K si es compleja o es su dual si es un cuaternión. Suponga que X K(x, y)K(y, z) = K(x, z) + λK(x, z) − K(x, z)λ, y∈Z. donde λ es un cuaternión constante. Sea [K(xi , xj )]N la matriz de N × N dimensiones cuyo elemento en (i, j) es K(xi , xj ). Entonces, X. det[K(xi , xj )]N = (c − N + 1) det[K(xi , xj )]N −1 ,. xN ∈Z. donde c = 4. P x∈Z. K(x, x).. Debido a esto, se llama a los conjuntos de matrices aleatorias cuyas funciones de correlación están dadas por la ecuación 3.8 “conjuntos de Hahn,” de una manera similar a los conjuntos gaussianos o circulares que se estudian en [8]..

(43) 3.2 Las Funciones de Correlación, Caso β = 2. 43. Por la definición del determinante, X. det[K(xi , xj )]N =. X X. sgn(σ). xN ∈Z σ∈SN. xN ∈Z. =. X. K(xk , xσ(k) ). k=1. sgn(σ). σ∈SN. N Y. N XY. K(xk , xσ(k) ).. xN ∈Z k=1. Ahora se presentan dos casos: en uno de ellos, σ(N ) = N . Si ası́ es el asunto, se han tenido en cuenta (N − 1)! permutaciones, y lo que queda del resto de la suma es exactamente el determinante de la misma matriz pero con P (N − 1) × (N − 1) multiplicado por el resultado de xN ∈Z K(xN , xN ) = c. Visto de otra manera,5 X. sgn(σ). σ∈SN σ t.q. σ(N )=N. N −1 Y. X. K(xk , xσ(k) ). k=1. K(xN , xN ) = c det[K(xi , xj )]N −1 .. xN ∈Z. El segundo de los casos es aquél en el que σ(N ) 6= N , y es el que contiene las otras (N − 1)(N − 1)! permutaciones. En ese caso, se puede suponer que σ(N ) = l 6= N y que σ(m 6= N ) = N ; uno de los términos del producto es K(xN , xl ) y otro de ellos es K(xm , xN ). Asi, X. sgn(σ). σ∈SN σ t.q. σ(N )6=N. ×. X xN ∈Z. N −1 Y. K(xk , xσ(k) ). k=1 k6=l. K(xl , xN )K(xN , xm ) =. X. sgn(σ). σ∈SN σ t.q. σ(N )6=N. N −1 Y. K(xk , xσ(k) ) ×. k=1 k6=l. (K(xl , xm ) + λK(xl , xm ) − K(xl , xm )λ). 5. Si se es cuidadoso, el paso en el cual se lleva aparte a K(xN , xN ) puede parecer riesgoso en el caso de los cuaterniones, pues éstos no conmutan. Sin embargo, este hecho no presenta problema alguno dado que la definición más común del determinante de una matriz de cuaterniones toma las permutaciones dentro del producto de tal manera que los subı́ndices hagan ciclos. Ası́, se puede hacer la suma que aquı́ se consideró sin problemas. Esto mismo puede argumentarse en el caso en el que no aparece K(xN , xN ) en el producto..

(44) 44 La Función de Peso Estadı́stico y las Funciones de Correlación Se puede demostrar (apéndice A.12 de [9]) que los términos que contienen a λ se cancelan, ası́ que sólo hay que ocuparse de los demás. X. sgn(σ). σ∈SN σ t.q. σ(N )6=N. ×. X xN ∈Z. N −1 Y. K(xk , xσ(k) ). k=1 k6=l. K(xl , xN )K(xN , xm ) =. X. sgn(σ). σ∈SN σ t.q. σ(N )6=N. N −1 Y. K(xk , xσ(k) ) ×. k=1 k6=l. K(xl , xm ). En esta última expresión se puede ver que lo que queda es el determinante de una matriz de (N −1)×(N −1) dimensiones, pero hay dos detalles a tener en cuenta. El primero es que al eliminar xN se pierde una de las permutaciones, haciendo que la nueva permutación de N − 1 elementos tenga signo opuesto a la permutación de N elementos, ası́ que este término hay que restarlo. Por otra parte, la permutación σ(N ) puede tomar N − 1 valores distintos, ası́ que hay N −1 términos del segundo caso. Sumando ambas contribuciones se llega al resultado deseado: X det[K(xi , xj )]N = (c − (N − 1)) det[K(xi , xj )]N −1 . ¤ xN ∈Z. Usando el resultado del teorema 2 se puede dar inicio al cálculo de la función de correlación para β = 2. La moraleja del teorema es que lo único que hace falta hacer es expresar el determinante de Vandermonde en 3.7 (o en 3.6 en el caso β = 1) en términos de una matriz cuyos elementos sean iguales a un núcleo (o kernel) que cumpla con las condiciones del teorema, y el problema de sumar cualquier variable sobre todos sus valores posibles estará resuelto. Se empezará, entonces, por expresar el determinante como se ha propuesto. Haciendo operaciones entre columnas se puede encontrar lo siguiente: ¯  ¯ ¯ ¯ C (x ) C (x ) . . . C (x ) 0 1 1 1 N −1 1 ¯ ¯ ¯   ¯ Y  C0 (x2 ) C1 (x2 ) . . . CN −1 (x2 ) ¯ ¯ |xj − xi | = ¯det  ¯ .. .. .. ... ¯  ¯ . . . i<j ¯ ¯ ¯ C0 (xN ) C1 (xN ) . . . CN −1 (xN ) ¯.

Figure

Actualización...

Referencias

Actualización...