• No se han encontrado resultados

DFA de las caminatas aleatorias generadas mediante el autómata celular 'El juego de la vida'

N/A
N/A
Protected

Academic year: 2020

Share "DFA de las caminatas aleatorias generadas mediante el autómata celular 'El juego de la vida'"

Copied!
75
0
0

Texto completo

(1)UNIVERSIDAD VERACRUZANA FACULTAD DE FÍSICA E INTELIGENCIA ARTIFICIAL MAESTRÍA EN INTELIGENCIA ARTIFICIAL. “DFA DE LAS CAMINATAS ALEATORIAS GENERADAS MEDIANTE EL AUTÓMATA CELULAR -EL JUEGO DE LA VIDA-”. TESIS QUE PARA OBTENER EL TÍTULO DE:. MAESTRO EN INTELIGENCIA ARTIFICIAL Presenta: GUILLERMO ALEJANDRO STEVENS RAMÍREZ. ASESOR: DR. ALEJANDRO RAÚL HERNÁNDEZ MONTOYA. SINODALES: CARLOS RUBÉN DE LA MORA BASÁÑEZ DR. ALEJANDRO GUERRA HERNÁNDEZ DR. ALEJANDRO RAÚL HERNÁNDEZ MONTOYA. Xalapa, Ver. México. Marzo de 2006..

(2) Dedico este trabajo a la memoria de mi padre, Federico Guillermo Stevens y Flores..

(3) Agradecimientos personales: Quiero agradecer a toda mi familia, muy especialmente a mi mamá Guillermina y a mis hermanos Roxana y Xavier. Agradezco mucho a mi asesor, Dr. Alejandro R. Hernández M. por toda su ayuda, pacienca y enseñanzas. Por último, pero no menos importante, agradezco a todos mis amigos y profesores, que me han apoyado en todo momento..

(4) Agradecimiento: Esta tesis fue financiada por el Consejo Nacional de Ciencia y Tecnologı́a, bajo el proyecto de investigación No. 44598F. México. 2004..

(5) Índice general 1. Introducción 1.1. Motivación para estudiar a los AC . . . . . . . . . . . . . . . . . . 1.2. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . .. 2 3 5. 2. Autómatas celulares 2.1. ¿Qué es un Autómata Celular? . . . . . . . . . . . . . . . . . . . 2.1.1. Definición formal de un AC . . . . . . . . . . . . . . . . . 2.1.2. Ejemplo de un AC . . . . . . . . . . . . . . . . . . . . . .. 6 6 8 9. 2.2. Clasificación de los AC . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Aplicaciones de los AC . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Antecedentes históricos . . . . . . . . . . . . . . . . . . . . . . . .. 10 12 13. 3. Game of Life 16 3.1. Definición formal de Game of Life . . . . . . . . . . . . . . . . . . 18 3.2. Parámetro de Langton . . . . . . . . . . . . . . . . . . . . . . . . 19 3.2.1. Parámetro de Langton para Game of Life . . . . . . . . . . 20 3.3. Importancia de Game of Life . . . . . . . . . . . 3.3.1. Ingredientes para la universalidad . . . . 3.4. Demostración de que Game of Life es universal . 3.4.1. Bits ⇐⇒ Gliders . . . . . . . . . . . . . 3.4.2. Thin glider gun . . . . . . . . . . . . . . 3.4.3. 3.4.4. 3.4.5. 3.4.6.. Compuertas lógicas . . . . . . . . Atrasos de tiempo . . . . . . . . Copiador de corrientes de gliders Almacenamiento de memoria . . ii. . . . .. . . . .. . . . .. . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. 21 22 22 23 24. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. 26 26 28 30.

(6) ÍNDICE GENERAL. 1. 3.5. Una máquina de Turing en Game of Life . . . . . . . . . . . . . .. 32. 4. Algoritmos y técnicas de análisis 34 4.1. Fractales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 4.1.1. Notas sobre fractales . . . . . . . . . . . . . . . . . . . . . 35 4.1.2. Dimensión fractal . . . . . 4.1.3. Categorı́as de fractales . . 4.2. Series de tiempo . . . . . . . . . . 4.2.1. Mapeo de series de tiempo 4.3. Detrended Fluctuation Analysis .. . . . a .. . . . . . . . . . . . . . . . procesos . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . auto-similares . . . . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. 36 38 39 40 42. 4.3.1. Algoritmo DFA . . . . . . . . . . . . . . . . . . . . . . . . 43 4.3.2. Relación entre auto-similitud y funciones de auto-correlación 44 4.4. Exponente de Hurst . . . . . . . . . . . . . . . . . . . . . . . . . . 45 5. Análisis de Game of Life 49 5.1. Pasos para el análisis . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.2. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Conclusiones. 54. A. Box Counting Dimension.. 56. B. Zoologı́a de Game of Life. B.1. Patrones simples y estables . B.2. Gliders . . . . . . . . . . . . B.3. Spaceships . . . . . . . . . . B.4. Flotillas . . . . . . . . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. 58 58 61 61 61. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. . . . .. 62 62 64 64. B.9. Puffer trains, Guns y Breeders. . . . . . . . . . . . . . . . . . . .. 64. B.5. B.6. B.7. B.8.. Glider Shuttle . . . . . Garden-of-Eden . . . . Eaters . . . . . . . . . Colisiones glider-glider. Bibliografı́a. . . . .. . . . .. . . . .. 68.

(7) Capı́tulo 1 Introducción En este trabajo se analizó uno de los autómatas celulares más conocidos, llamado Game of Life, y se mapeó cada estado de su evolución a un vector en dos dimensiones, obteniéndose una caminata aleatoria, la cual fue estudiada usando un algoritmo que permitió establecer algunas de sus propiedades estadı́sticas más interesantes. El estudio de la vida artificial se enfoca en la naturaleza progresiva de los comportamientos emergentes, y además está relacionado con el estudio de la inteligencia artificial. La vida artificial se caracteriza por un extenso uso de programas y simulaciones por computadora que incluyen algoritmos evolutivos, algoritmos genéticos, programación genética, quı́mica artificial, modelos basados en agentes, y autómatas celulares (AC). El campo de la vida artificial es un punto de reunión para gente de muchos otros campos más tradicionales, como lingüı́stica, filosofı́a, antropologı́a, biologı́a, sociologı́a, ciencia computacional, matemáticas y fı́sica; en el cual los enfoques teóricos y computacionales que serı́an controversiales dentro de su disciplina de origen pueden ser discutidos. Usar aplicaciones de inteligencia artificial para crear modelos de experimentos fı́sicos con un alto grado de exactitud permite simular la inteligencia humana para descubrir la dinámica subyacente a muchas preguntas, y contribuye bastante al uso de tecnologı́a como parte del descubrimiento de sus soluciones.. 2.

(8) Motivación para estudiar a los AC. 3. Problema Mediante los métodos propuestos en este trabajo se mapea la sucesión de estados de un AC a una serie numérica de tiempo, la cual es más fácil de estudiar que el autómata en sı́, esperando que las serie mantenga las propiedades de complejidad del AC original. En particular, Game of Life es un AC que tiene propiedades muy importantes, tales como la emergencia de estructuras complejas auto-reproducibles, además de la propiedad de Computabilidad Universal.. Justificación Los métodos propuestos en esta tesis son lo suficientemente generales y se pueden aplicar a cualquier AC. Además, estos métodos permiten usar y conectar los métodos fractales y las teorı́as de difusión, tanto anómala como normal, con la teorı́a de AC. Entender la complejidad de un AC es un objetivo, en particular, de la Vida Artificial y, en general, de la Inteligencia Artificial.. Preguntas relevantes En este trabajo se intentará responder a las siguientes preguntas: ¿Cuál es la dimensión fractal de las caminatas aleatorias, o qué tan complejas son, generadas por Game of Life? ¿Qué tipo de caminata aleatoria puede ser generada mediante Game of Life? ¿Las estructuras generadas mediante esta caminata son de naturaleza fractal o aleatoria?. 1.1.. Motivación para estudiar a los AC. Existen por lo menos cuatro motivos para hacer estudios sobre los AC. A continuación se describen en orden de importancia teórica:.

(9) Motivación para estudiar a los AC. 4. AC como potentes máquinas de cálculo Con la ayuda de hardware basado en AC, muchos problemas importantes pero actualmente intratables, por primera vez pueden empezar a ser resueltos. Weisbuch ha propuesto que los procesadores basados en AC (los cuales son muy eficientes en implementaciones paralelas) son los equivalentes numéricos a los túneles de viento. Por su parte, Toffoli y Margolus prevén que el hardware basado en AC abarcarı́a el concepto de materia programable, es decir, un dispositivo computacionalmente amorfo que pueda ser programado, por ejemplo, para que en un momento actúe como un túnel de viento numérico, y después como una corriente de fermiones (ver [Wei91]).. AC como simuladores de sistemas dinámicos discretos Los AC permiten investigar fenómenos complejos al considerar cualquier cantidad de propiedades fı́sicas. En la actualidad, se han creado modelos discretos generalizados para estudiar, por ejemplo, la auto-organización en redes neuronales y la turbulencia en sistemas hidrodinámicos (ver [KL70]).. AC para explorar la formación de patrones Los AC se pueden tratar como sistemas dinámicos discretos y abstractos, que incluyan caracterı́sticas de comportamiento. El objetivo principal es abstraer los principios generales que gobiernen la formación de estructuras que se autoorganizen. Debido a su simplicidad, los AC ofrecen una poderosa herramienta, tanto teórica como prática, para investigar estas estructuras (ver [Hak83]).. AC como modelos para fı́sica fundamental A través de los AC, es posible estudiar nuevos enfoques dinámicos a la fı́sica microscópica, explorando la posibilidad de que la naturaleza procesa, de manera local y digital, sus propios estados futuros. La idea es, dado que los sistemas universales (computacionalmente) son capaces de presentar un comportamiento arbitrariamente complejo, hacer teorı́as discretas que compitan con los modelos.

(10) Organización de la tesis. 5. continuos existentes (ver [Fre93]).. 1.2.. Organización de la tesis. En el siguiente capı́tulo se presentarán los conceptos básicos que surgen en la teorı́a de los AC, dando definiciones, ejemplos, aplicaciones y un resumen de su historia. En el capı́tulo 3 se presentará Game of Life, dando su definición formal y una demostración de su universalidad computacional (ver también el Apéndice B), entre otros detalles. En el capı́tulo 4 se describirán los algoritmos usados para calcular la dimensión fractal de un conjunto arbitrario, y en particular de una caminata aleatoria. En el capı́tulo 5 se describirán los análisis realizados a Game of Life, junto con los resultados obtenidos, y después se darán las conclusiones a las que se han llegado. En el Apéndice A se describe un algoritmo alternativo usado para comprobar los resultados obtenidos..

(11) Capı́tulo 2 Autómatas celulares Los AC son una clase de sistemas matemáticos deterministas y discretos espacial y temporalmente, están caracterizados por interacciones locales y una forma de evolución intrı́nsicamente paralela. El estudio de los AC ha generado un gran interés, debido a su capacidad para crear una gran variedad de patrones con comportamiento muy complejo, a partir de conjuntos de reglas relativamente simples. Además, parecen capturar muchas caracterı́sticas esenciales del comportamiento auto-organizado observadas en muchos sistemas fı́sicos reales (ver [Ila02]).. 2.1.. ¿Qué es un Autómata Celular?. Aunque existe una enorme variedad de modelos de AC, cada uno cuidadosamente adaptado para ajustarse a las necesidades de un sistema especı́fico, la mayorı́a de estos usualmente poseen las siguientes cinco caracterı́sticas (ver [Ila02]): Malla discreta de celdas: el substrato del sistema consiste de una malla ndimensional de celdas. Homogeneidad: todas las celdas son equivalentes. Estados discretos: cada celda toma uno de los estados finitos y discretos posibles. Interacciones locales: cada celda interactúa sólo con las celdas que están en su vecindario local. 6.

(12) ¿Qué es un Autómata Celular?. 7. Dinámica discreta: en cada unidad de tiempo discreto, cada celda actualiza su estado actual de acuerdo a una regla de transición que toma en cuenta los estados de las celdas en su vecindario. Existe una simplicidad engañosa en estas caracterı́sticas, ya que existen AC que muestran un comportamiento extremadamente complicado. Los AC ofrecen una dinámica lo suficientemente rica, y pueden ser considerados como serios modelos matemáticos alternativos para una gran variedad de sistemas fı́sicos. Aunque es válido pensar que los AC no son más que idealizaciones formales de las ecuaciones diferenciales parciales (ver [Wol84]), su verdadero poder se halla en el hecho de que representan una gran clase de modelos exactamente computables: ya que, fundamentalmente, todo es discreto, no hay necesidad de preocuparse por truncaciones o la lenta acumulación de errores de redondeo. Cualquier propiedad dinámica comprobada para estos modelos tomará toda la fuerza de un teorema. Una de las propiedades más fundamentales de un AC es el tipo de malla sobre la cual se encuentra. La malla más simple es una lı́nea recta unidimensional. En dos dimensiones se pueden considerar mallas cuadradas, triangulares y hexagonales. Los AC también pueden colocarse en mallas cartesianas en un número arbitrario de dimensiones (ver [Wol84]).. Figura 2.1: Algunos tipos de mallas (para AC en dos dimensiones). También se debe especificar el vecindario sobre el cual las celdas se afectan entre sı́. La elección no trivial más simple es la de los vecinos más cercanos, en la cual sólo las celdas directamente adyacentes a una celda dada pueden ser afectadas en cada paso de la evolución. Dos vecindarios comunes son el vecindario de Moore y el vecindario de von Neumann (ver [Wol84]). Otro aspecto que hay que tener en cuenta es el tipo de lı́mite para la malla. Para.

(13) ¿Qué es un Autómata Celular?. 8. r = 0. r = 1. r = 0. r = 1. r = 2. r = 3. r = 2. r = 3. Figura 2.2: Izquierda: vecindario de Moore - Derecha: vecindario de von Neumann (r = radio de vecindad). esto existen dos condiciones: periódico (o toroidal) y flujo cero (o reflejante). En condiciones periódicas, los lados opuestos de la malla se fusionan. Ası́, para el caso unidimensional las filas de celdas se convertirán en un anillo, y en el caso bidimensional la malla se convertirá en un toroide (ver la Figura 2.3). El tipo de lı́mite que se considere afectará mucho la evolución de los estados de un AC.. Figura 2.3: Malla toroidal.. 2.1.1.. Definición formal de un AC. Para una malla bidimensional, un AC se puede definir como: L = {(i, j)|i, j ∈ N, 0 ≤ i ≤ n, 0 ≤ j ≤ m}. (2.1).

(14) ¿Qué es un Autómata Celular?. 9. donde i, j son los ı́ndices para las columnas y filas de la malla, respectivamente; con n columnas y m filas. La vecindad N está dada por: Ni,j = {(k, l) ∈ L||k − i| ≤ 1, |l − j| ≤ 1}. (2.2). Es posible definir más vecindarios cambiando las extensiones de k y l (ver [Roj04]).. 2.1.2.. Ejemplo de un AC. Para ejemplificar se describirá un AC elemental. Un AC elemental es aquel que se desarrolla en una dimensión, y cada una de las celdas pueden tener sólo dos estados. Para su evolución se tiene una regla que determina el valor de una celda dada a partir del valor de esa celda y el valor de las celdas más cercanas, a su izquierda y derecha (vecinos más cercanos, denotado por r = 1). En la Figura 2.4 muestra la representación de la regla para el AC. Los cuadrados negros representan las celdas de valor 1, y los cuadrados blancos las celdas de valor cero. La fila superior en cada caja indica una de las combinaciones posibles de colores para una celda, y sus vecinos inmediatos (ya que los cuadrados blancos representan 0 y los negros 1, la fila superior indica los números decimales 7, 6, 5, 4, 3, 2, 1 y 0). La fila inferior en cada caja especifica cuál color debe adquirir la celda del centro al siguiente paso (aquı́ se tendrá el número binario 11111110, cuyo equivalente decimal es 254, y este número es el código para referirse a esta regla, ver [Wol84]). 7. 6. 5. 4. 3. 2. 1. 0. 1. 1. 1. 1. 1. 1. 1. 0. = 254. Figura 2.4: Ejemplo de representación de la regla 254. La Figura 2.5 muestra la aplicación de la regla 254 en una configuración inicial que contiene una sola celda negra (paso 1). La fila del paso 1 comienza con tres cuadrado blancos, aquı́ se aplica la caja 0 de la regla de la Figura 2.4, es decir, el cuadrado del centro seguirá siendo de color blanco en el paso 2. A continuación se avanza un cuadrado a la derecha, se vuelven a tener tres cuadrados blancos y.

(15) Clasificación de los AC. 10. nuevamente se aplica la caja 0 de la regla. Al seguir avanzando, se llegará al caso de la caja 1 de la regla (dos cuadrados blancos, a la izquierda y al centro; y un cuadrado negro, a la derecha), ası́ el cuadrado central, blanco, se hará negro en el paso 2. Avanzando un cuadrado más a la derecha, se tendrá la combinación que corresponde a la caja 2 de la regla (blanco-negro-blanco), ası́ el cuadrado negro del centro consevará su color al siguiente paso. Se continúa recorriendo un cuadrado a la derecha y aplicando la regla, hasta abarcar todos los cuadrados del paso 1. Se repite este procedimiento iterativamente, tomando como entrada los cuadrado del paso 2 para obtener el paso 3, y ası́ sucesivamente. Idealmente, la regla para un AC se aplica a todas las celdas al mismo tiempo (es decir, la regla se deberı́a aplicar en paralelo, ver [Ila02]). Paso Paso Paso Paso Paso Paso. 1 2 3 4 5 6. Figura 2.5: Seis pasos de la aplicación de la regla 254. La regla 254 muestra un comportamiento muy simple (al menos para la configuración inicial usada). Existen reglas que tienen un comportamiento mucho más complejo (bajo las mismas configuraciones iniciales), como la regla 30, que se muestra en la Figura 2.6.. 2.2.. Clasificación de los AC. Stephen Wolfram propuso un esquema de clasificación para dividir las reglas de AC (en particular los unidimensionales) en cuatro categorı́as, de acuerdo a los resultados de evolucionar el sistema a partir de un estado inicial desordenado (pseudo-aleatorio, ver [Wol84]). La categorı́as son las siguientes: CLASE I (homogeneidad). Los AC evolucionan, después de un número finito de pasos a partir de la mayorı́a de las condiciones iniciales, a un único estado homogéneo, en el cual todas las celdas tienen el mismo valor. Ejemplos: reglas 0, 4, 16, 32, 36, 48, 54, 60 y 62..

(16) Clasificación de los AC. 0. 0. 11. 0. 1. 1. 1. 1. 0. = 30. Tiempo. Figura 2.6: 16 pasos de la evolución de la regla 30. CLASE II (periodicidad). Los AC evolucionan, después de un número finito de pasos a partir de la mayorı́a de las condiciones iniciales, a una serie de configuraciones fijas u oscilantes. Ejemplos: reglas 8, 24, 40, 56 y 58. CLASE III (caos). La mayoria de las condiciones iniciales conducen a patrones no periódicos (caóticos). Después de cierta cantidad de pasos, las propiedades estadı́sticas de estos patrones son comúnmente las mismas para la mayorı́a de los estados iniciales. Ejemplos: reglas 2, 6, 10, 12, 14, 18, 22, 26, 28, 30, 34, 38, 42, 44, 46 y 50. CLASE IV (complejidad). La evolución conduce a complejas estructuras localizadas, en ocasiones de larga duración. Surgen configuraciones que se propagan y estructuras estables o periódicas con comportamiento complejo, que persisten por un tiempo infinito. Ejemplos: reglas 20, 52 y 110. El esquema de clasificación de Wolfram falla al capturar la idea de Computación Universal. Esta falla se debe a que la clasificación se basa en la evolución de un estado inicial desordenado (ver [Epp00]). Sin embargo, este esquema de clasificación es muy aceptado actualmente. La Figura 2.7 muestra ejemplos de las clases de Wolfram..

(17) Aplicaciones de los AC. 12. Clase I Clase II. Clase IV Clase III. Figura 2.7: Ejemplos de las clases de Wolfram.. 2.3.. Aplicaciones de los AC. Las aplicaciones de los AC son diversas y numerosas (ver [Ila02]). Fundamentalmente, los AC constituyen universos totalmente conocidos. Nuestro universo está sometido a las leyes de la fı́sica. Estas leyes sólo se conocen parcialmente y parecen ser altamente complejas. En un AC las leyes son muy simples y completamente determinadas. Es posible probar y analizar el comportamiento global de un universo simplificado, por ejemplo: Simulación del comportamiento de un gas. Un gas está compuesto de un conjunto de moléculas cuyo comportamiento depende de el de las moléculas vecinas. Estudio del electromagnetismo de acuerdo al modelo de Ising. Este modelo representa el material como una red en la cual cada uno de los nodos está en un estado magnético dado. Este estado – en este caso el de las dos orientaciones de los spins de ciertos electrones – depende del estado de los nodos vecinos. Simulación de procesos de filtración. Simulación de la propagación de los incendios forestales. Se pueden usar como una alternativa a las ecuaciones diferenciales..

(18) Antecedentes históricos. 13. Concepción de computadoras masivamente en paralelo. Simulación y estudio del desarrollo urbano. Simulación de procesos de cristalización. Procesamiento de imágenes (ver [Ros05]). Sin duda es en el campo de la vida artificial donde los AC son más conocidos. Los patrones de ciertas conchas de mar corresponden a un AC natural. Las celulas de pigmento se encuentran en una estrecha banda a lo largo del labio de la concha. Cada celda secreta pigmentos de acuerdo a la actividad secretante e inhibidora de sus vecinos, obedeciendo a una versión natural de una regla matématica. La banda de celdas deja el patrón de colores sobre la concha conforme esta crece lentamente. Por ejemplo, la especie Conux textile lleva consigo la regla 30 mostrada anteriormente (ver [Wol02]).. Figura 2.8: Conux textile.. 2.4.. Antecedentes históricos. Los AC fueron presentados por von Neumann y Stanislaw Ulam (con el nombre de espacios celulares), como una idealización de sistemas biológicos, en particular para modelar la auto-reproducción. Se han modelado muchos sistemas biológicos por medio de AC, un ejemplo es el desarrollo de estructutras y patrones en el crecimiento de organismos, el cual parece estar gobernado por reglas locales simples (ver [Bae74, Her69, Kit74, Lin68, Ros81, Ula72]). Mientras se.

(19) Antecedentes históricos. 14. encontraba trabajando en el laboratorio Los Alamos, Stanislaw Ulam estudiaba el crecimiento de cristales, usando un modelo de mallas. Al mismo tiempo (en la década de 1940) John von Neumann, colega de Ulam en Los Alamos, trabajaba en el problema de sistemas auto-replicantes. El diseño inicial de von Neumann se basaba en la noción de un robot que construye a otro robot. Mientras desarrollaba su diseño, von Neumann se percató de la gran dificultad para construir un robot auto-replicante, y del gran costo que era proporcionar al robot de una gran cantidad de partes para construir a su réplica. Ulam sugirió a von Neumann que desarrollara su diseño como una abstracción matemática, como la que Ulam usó para estudiar el crecimiento de cristales. Ası́ fue como surgió el primer sistema de AC (ver [Wol02]). En la década de 1970, Game of Life, un AC bidimensional con dos estados para cada celda, se volvió ampliamente conocido, en especial entre los primeros grupos informáticos. Fue inventado por John Conway, y fue popularizado en un artı́culo de la revista Scientific American (ver más detalles en el Capı́tulo 3). En 1983 Stephen Wolfram publicó el primero de una serie de artı́culos que investigaban los AC elementales (ver la página 9). La complejidad inesperada del comportamiento de esas reglas simples llevó a Wolfram a sospechar que la complejidad en la naturaleza podrı́a deberse a mecanismos similares a los AC. El siguiente cuadro menciona algunos logros históricos en el estudio de los AC y los sistemas complejos (ver [Ila02])..

(20) Antecedentes históricos. Año 1936. Investigador Alan Turing. 1948. von Neumann. 1950. Ulam. 1966 1967 1969. Burks von Bertalanffy, et al Zuse. 1970. Conway. 1977. Toffoli. 1983. Wolfram. 1984. Cowan, et al. 1984 1987. Toffoli, Wolfram Langton. 1992. Varela, et al. 15. Logro Formalizó el concepto de computabilidad; Máquina Universal de Turing. Abstrajo la estructura lógica de la vida; introdujo los autómatas auto-reproductivos como un medio para desarrollar una biologı́a reduccionista. Propuso la necesidad de tener modelos más realistas del comportamiento de sistemas complejos extendidos. Terminó y describió el trabajo de von Neumann. Teorı́a de sistemas aplicada a sistemas humanos. Introdujo el concepto de “Espacios computacionales”, o modelos digitales de mecanismos. Presentó la regla para AC bidimensionales Game of Life. Aplicó directamente los AC para modelar leyes fı́sicas. Escribió un importante artı́culo en donde analizó las propiedades de los AC, este artı́culo estableció el campo de los AC como un propósito de investigación para los fı́sicos. Fundaron el Instituto Santa Fe, que sirvió como un distinguido centro para el estudio interdisciplinario de los sistemas complejos. Primera conferencia sobre AC en el MIT, Boston. Primera conferencia sobre Vida Artificial, en el Instituto Santa Fe. Primera conferencia Europea sobre Vida Artificial.. Cuadro 2.1: Logros importantes en el estudio de los AC y los sistemas complejos..

(21) Capı́tulo 3 Game of Life Tal vez el AC más ampliamente conocido sea Game of Life, inventado por John H. Conway. Game of Life se juega en un vecindario de Moore con 9 vecinos, y consiste en (1) alimentar una malla con algún patrón de celdas activas e inactivas (celdas con valores 1 y 0, respectivamente), y (2) aplicar simultánea y repetidamente las siguientes tres reglas en todas las celdas de la malla en pasos de tiempo discretos:. Nacimiento: reemplazar una celda previamente muerta con una activa si exactamente tres de sus vecinos están activos. Muerte: reemplazar una celda previamente activa con una inactiva si (1) la celda activa no tiene más de un vecino activo, o (2) la celda activa tiene más de tres vecinos activos. Sobrevivencia: Mantener activas las celdas que tengan dos o tres vecinos activos. (En la Figura 3.1 se muestra un ejemplo de la aplicación de éstas reglas.) En este trabajo los lı́mites de la malla para Game of Life serán de flujo cero (ver el Capı́tulo 2, página 8). Este es un aspecto muy importante a considerar, ya que una misma configuración inicial de Game of Life puede mostrar resultados totalmente diferentes dependiendo de los lı́mites de la malla donde se encuentra, 16.

(22) 17. 0. 1. 1. 1. 0. 0. 2. 1. 2. 0. 0. 3. 2. 3. 0. 0. 2. 1. 2. 0. 0. 1. 1. 1. 0. Figura 3.1: Aplicación de las reglas de Game of Life (los números indican la cantidad de vecinos activos en cada celda). debido a que sus reglas muestran un comportamiento complejo y caótico (además de ser muy sensible a las condiciones iniciales, ver la Figura 3.2).. (a). 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 0. 0. 1. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 0. 0. 1. 1. 0. 0. 1. 1. 0. 1. 0. 1. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 3. 1. 0. 2. 2. 2. 1. 0. 2. 2. 1. 1. 0. 1. 1. (b). Figura 3.2: Evolución de una configuración simple bajo los dos tipos de lı́mites para las mallas: flujo cero (a) y toroidal (b)..

(23) Definición formal de Game of Life. 3.1.. 18. Definición formal de Game of Life. Formalmente, Game of Life es un AC con k = 2 estados sobre una malla bidimensional con vecindario de Moore, de radio r = 1. Las reglas de Game of Life pueden identificarse con un código (ver el capı́tulo 2, página 9). Éste código se obtiene de la última columna del cuadro siguiente, el cual indica el valor que adquirirá una celda dependiendo del valor de sus vecinos: Valor de la celda 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1. Vecinos Vecinos activos inactivos 0 8 0 8 1 7 1 7 2 6 2 6 3 5 3 5 4 4 4 4 5 3 5 3 6 2 6 2 7 1 7 1 8 0 8 0. Nuevo Valor 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 0 0. Cuadro 3.1: Valores para las celdas, de a cuerdo a las reglas de Game of Life.. La última columna muestra el número binario 000000000011100000 = 11100000, 224 en decimal, el cual es el código para Game of Life. Resumiendo:.

(24) Parámetro de Langton. 19. σi,j (t + 1) = φLIF E [σ(t) ∈ NM OORE ] =. (3.1).    σi,j (t), si Σσ∈NM OORE σ(t) = 2, = 1, si Σσ∈NM OORE σ(t) = 3,   0, en otro caso donde Σσ∈NM OORE σ es una suma sobre todos los valores en el vecindario de Moore de un sitio central dado, σi,j , al tiempo t.. 3.2.. Parámetro de Langton. Langton, enterado de la clasificación de Wolfram descrita en el capı́tulo anterior, se propuso investigar tablas de reglas que se obtuvieron aleatoriamente (ver [Ada98]). Especı́ficamente, esto fue realizado para autómatas celulares sobre una malla regular bidimensional, con k = 8 estados y vecindario de von Neumann. En lugar de probar todas las 832768 reglas posibles, éstas fueron muestreadas aleatoriamente, pero siguiendo el rastro de cuántos vecindarios (de los 85 posibles) eran mapeados al estado inactivo. Para esto, Langton definió el parámetro λ, el cual representa la probabilidad de que un vecindario en una regla particular se mapee a un estado activo. Las tablas de reglas con λ = 0 son aburridas: nada puede suceder. Si λ aumenta ligeramente, algunas regiones en el arreglo pueden mantener cierta actividad durante un tiempo, la cual, sin embargo, morirá eventualmente. Este comportamiento muy semejante al de las reglas de Clase I. Cuando λ es aproximadamente 0,2 (20 % de los vecindarios se mapean a cualquiera de los siete estados activos), el comportamiento cambia a un nuevo patrón. Los estados activos son persistentes, o hay propagación constantemente en una dirección fija. Aquı́ se reconoce el comportamiento de reglas de Clase II en el esquema de Wolfram. Si λ crece a cerca de 0,3, la actividad en el arreglo nuevamente cambia bastante, apareciendo complejas e impredecibles.

(25) Parámetro de Langton. 20. interacciones de estructuras. Es en esta región donde surge el comportamiento más interesante. Para valores de λ del orden de 0,5 o más, los centros de actividad están tan cerca de otros que el caos reina y las estructuras complejas no pueden sobrevivir, como se describe por la clase III de Wolfram. Conforme λ se aproxima a 1, la dinámica vuelve a ser menos interesante, y la mayorı́a de las reglas resultan en sitios activos y el arreglo no muestra estructuras ni interacciones localizadas, lo que corresponde nuevamente a reglas de la Clase I. Hasta cierto punto, el parámetro λ parece establecer la temperatura del mundo computacional. Se hará un enfoque en la región 0,2 ≤ λ ≤ 0,4, donde toma lugar la dinámica más interesante, cuyas reglas pertenecen a la Clase IV, y son las más prometedoras respecto a la computación universal.. 3.2.1.. Parámetro de Langton para Game of Life. En este trabajo se calculó el parámetro de Langton para las reglas de Game of Life. Para ésto, hay que encontrar el número posible de configuraciones para los vecindarios, es decir, de cuántas maneras puede haber un vecino activo, dos activos, etc. Vecinos Combinaciones Resultado activos 0 1 0 1 8 0 2 28 1 3 56 1 4 70 0 5 56 0 6 28 0 7 8 0 8 1 0 Cuadro 3.2: Distribución de las configuraciones que dan resultado activo por número de vecinos..

(26) Importancia de Game of Life. 21. De los 256 vecindarios posibles, 84 dan como resultado activo, ası́ que λ = 84/256 ≈ 0.328, lo cual indica que las reglas de Game of Life corresponden a la clase IV de Wolfram (complejidad).. 3.3.. Importancia de Game of Life. Una caracterı́stica notable de Game of Life es (aunque a primera vista no se observe), siendo de clase IV, su habilidad de dar lugar a complejos patrones ordenados a partir de un estado inicial desordenado, o sopa primordial (ver [Ila02]). Lo que distingue a este sistema de otros que puedan ser estudiados, y que realmente hace notable a Game of Life, es que se ha demostrado que es capaz de computación universal. Aunque el significado formal de esta declaración se discutirá con mayor detalle más adelante en este capı́tulo, puede apreciarse su profunda implicación informalmente. Por la virtud de ser una computadora universal, una elección adecuada de las condiciones iniciales puede asegurar que Game of Life lograrı́a realizar procedimientos algorı́tmicos arbitrarios, es decir, Game of Life puede servir como una computadora de uso general. Dada cualquier conjetura matemática computable, C por ejemplo; es posible encontrar un patrón inicial finito para Game of Life, Σ0 , de forma que ΦN LIF E [Σ0 ] = ~0, para un paso finito N , si y sólo si la conjetura C es verdadera. Obsérvese que lo que es realmente interesante no es que Game of Life por sı́ mis√ mo pueda ser usado como una computadora digital común para calcular 2 o una Transformada Rápida de Fourier, sino el hecho de que en principio pueda hacerlo implica su complejidad dinámica latente. Ya que existen lı́mites fundamentales sobre la previsibilidad de las computadoras universales1 , los mismos lı́mites deben aplicarse a la evolución general de Game of Life. En términos de Game of Life, esto significa que, en general, no es posible decir si una configuración inicial en particular desaparecerá. Ya que Game of Life es capaz de todos y cada uno de los cálculos que realiza una computadora conven1. Por ejemplo, el Halting Problem asegura que no puede existir un algoritmo general para predecir cuándo una computadora detendrá la ejecución de un programa dado..

(27) Demostración de que Game of Life es universal. 22. cional, se puede decir que, en este sentido, ésta regla aparentemente irrelevante es realmente capaz de presentar un comportamiento arbitrariamente complicado.. 3.3.1.. Ingredientes para la universalidad. Como se verá más adelante, la prueba de universalidad consiste esencialmente en mostrar que todos los bloques necesarios de una computadora convencional pueden ser construidos con patrones de Game of Life (ver el Apéndice B). De esta forma, dado un patrón que represente un programa arbitrario, un patrón que represente una computadora realizará las instrucciones del programa y producirá el resultado deseado, expresado en términos de un patrón de Game of Life. Por ejemplo, los cálculos numéricos podrı́an involucrar patrones finales que consistan de un cierto número de gliders en un área particular de la malla. La prueba procede de la observación de cada uno de los cuatro elementos primitivos esenciales para un cálculo: el almacenamiento (el cual necesita una memoria interna), transmisión (que requiere un reloj interno y cables) y el procesamiento de información (con compuertas AND, OR y NOT). Cada uno de estos elementos debe implementarse por la evolución de patrones adecuados de Game of Life.. 3.4.. Demostración de que Game of Life es universal. Tal vez la forma mas sencilla de demostrar que un sistema es capaz de computación universal (y de hecho la forma más directa), sea demostrar que el sistema en cuestión es formalmente equivalente a otro sistema que ya ha sido demostrado ser una computadora universal. En esta sección se hará un bosquejo de una prueba de la universalidad computacional de Game of Life al construir explı́citamente los equivalentes dinámicos de todos los ingredientes computacionales requeridos por una computadora digital convencional (ver [Ila02])..

(28) Demostración de que Game of Life es universal. 23. Aunque el diseño preciso de una computadora pueda ser complejo, sus ingredientes básicos, o conjunto de elementos primitivos computacionales, son pocos y relativamente simples. Además de tener alguna forma de señales de corrientes de bits, se necesitan conductos o cables para esas señales. Es necesario enrutar de alguna manera a las señales, ya sea por redirección (por ejemplo, desviando una señal 90o ) o enviando múltiples copias de una corriente de bits dada en diferentes direcciones. Se necesita un reloj interno, o contador, para introducir cualquier retraso necesario al construir circuitos. También se necesita una memoria (potencialmente infinita), un requisito que también se puede cumplir con una memoria de tamaño finito pero que pueda almacenar números arbitrariamente grandes (ver [Min67]); y se necesita un conjunto de compuertas lógicas universales, como AND, OR y NOT, a partir de las cuales se pueden obtener otras funciones y operaciones lógicas. Una vez que se pueda demostrar que un sistema dado soporta éstas primitivas computacionales, la construcción de circuitos realmente funcionales de una computadora convencional se convierte en poco más que un ejercicio formal de creación de sı́mbolos/bloques. La prueba original aparece en el trabajo de Berkelamp, Conway y Guy (ver [BCG82]). Otras discuciones se encuentran en el trabajo de Langton (ver [Lan90]) y el libro de Poundstone (ver [Pou84]). Antes de seguir con esta sección, el lector podrı́a querer familiarizarse con la zoologı́a de los patrones de Game of Life, incluyendo los patrones glider y glider-gun (ver el Apéndice B).. 3.4.1.. Bits ⇐⇒ Gliders. Se comienza por postular la equivalencia entre, por un lado, los pulsos eléctricos y bits en una señal de corriente de pulsos en las computadoras fı́sicas y, por el otro lado, los gliders y corrientes de gliders en Game of Life. La presencia de un glider denotará el hecho de que el bin correspondiente en la corriente fı́sica de pulso tiene un valor de bit 1, y la auscencia de un glider denotará el valor de bit 0. Se sabe que los glider-guns pueden crear una corriente constante de gliders (se produce un glider una vez cada 30 pasos de tiempo). Sin embargo, dos o más corrientes de gliders moviéndose en cursos intersectados no pueden cruzar.

(29) Demostración de que Game of Life es universal. 24. sin interferir entre sı́. Para construir circuitos es deseable contar con corrientes de gliders que no se interfieran. El siguiente paso es producir un thin-glider-gun para crear corrientes de gliders de periodos arbitrariamente largos.. 3.4.2.. Thin glider gun. Thin glider gun es relativamente fácil de construir y depende sólo de cuatro bloques básicos: (1) un glider-gun de periodo 30, (2) un eater, (3) una reacción de aniquilación glider-glider, y (4) una reacción kickback. Los primeros dos bloques se describen en el Apéndice B, junto con un ejemplo de colisiones glider-glider (aniquilacion). El último bloque es nuevo y consiste de dos gliders colocados en un curso de intersección de 90o (ver la Figura 3.3). En esta reacción kickback, los dos gliders pasan por un proceso en donde, al tiempo t = 6, uno de los gliders originales desaparece y el otro emerge de la zona de reacción cambiado en espacio por media celda diagonal y moviéndose en dirección contraria.. t = 0. t = 1. t = 4. t = 2. t = 5. t = 3. t = 6. Figura 3.3: Reacción kickback en Game of Life..

(30) Demostración de que Game of Life es universal. E. 25. G. K. K. Corriente adelgazada de gliders. G G. Figura 3.4: Esquema para un Thin Glider Gun, E = eater, G = glider-gun y K = reacción kickback. La Figura 3.4 muestra cómo estos cuatro bloques básicos se pueden usar para crear un nuevo thin-glider-gun que produzca una corriente de gliders con una espacio arbitrariamente grande entre ellos. El thin-glider-gun usa dos corrientes de gliders paralelas pero en direcciones opuestas, que son el resultado de dos glider-guns convencionales. Un sólo glider también es lanzado entre las dos corrientes. La sincronización es tal que si el glider shuttle colisiona con una corriente de gliders, pasará por una reacción kickback. Una reacción kickback con la corriente de gliders de la derecha cambia el glider lanzado hacia abajo, cerrando el ciclo. Aunque la corriente de gliders que va hacia arriba, en el lado izquierdo, no es necesaria y es aniquilada por un eater, la corriente que desciende por el lado derecho se alimenta en una reacción aniquiladora mutua con una tercera corriente de gliders en la parte inferior de la Figura 3.4. Ya que el n-ésimo glider en la corriente que desciende es aniquilado por el glider lanzado por las reacciones kickback de la izquierda y la derecha, el glider resultante que surge finalmente del thin-glider-gun consiste de un conjunto adelgazado de gliders espaciados por 30n pasos. Para obtener la sincronización adecuada, n debe ser divisible por cuatro, pero puede ser arbitrariamente grande..

(31) Demostración de que Game of Life es universal. 3.4.3.. 26. Compuertas lógicas. Se usarán las construcciones anteriores para crear un conjunto universal de compuertas lógicas: AND, OR y NOT (ver la Figura 3.5). La compuerta OR es la más fácil de construir; de hecho, ya ha sido construida como un elemento del circuito thin-glider-gun. De la Figura 3.5-a, supóngase que la entrada A es alguna corriente de gliders codificada. Una vez en la compuerta, todos los gliders en esta corriente de entrada se aniquilan cuando colisionan con gliders en una corriente de gliders no-codificada, producida por un thin-glider-gun. Los únicos gliders que surgen de la compuerta NOT son aquellos que estaban en la corriente original del thin-glider-gun y que no fueron aniquilados por los gliders de A. En la compuerta AND (Figura 3.5-b), dos corrientes de entrada, A y B, entran a la compuerta en paralelo. Los gliders de un glider-gun se mueven en un curso perpendicular y hacia un eater, con una sincronización tal que las colisiones entre los gliders en esta corriente y aquellos de las dos entradas se aniquilan mutuamente. Dado que los gliders de A están atrasados en tiempo por una cantidad igual a la distancia entre las dos reacciones de aniquilación (ver abajo), deberı́a ser evidente que un glider logra llegar a la corriente de salida si y sólo si las dos ranuras correspondientes en A y B contienen gliders. La operación de la compuerta OR, esquematizada en la Figura 3.5-c, procede de forma similar.. 3.4.4.. Atrasos de tiempo. Anteriormente se mencionó que para que la compuerta AND opere adecuadamente, los gliders de la entrada A deben estar atrasados por un tiempo igual a la distancia entre las dos reacciones de aniquilación. Los mismo es cierto para la operación de la compuerta OR. El retraso temporal de señales se construye a partir de compuertas NOT. La idea es simplemente construir una desviación, que consiste de tantos pasos como sea necesario para el atraso, y después dirigir la corriente de señales de regreso a su curso original. La Figura 3.6 muestra el esquema para este retraso usando cuatro compuertas NOT. El primer NOT niega la corriente de entrada y la desvı́a 90o . La segunda compuerta restaura el contenido de la señal original y la desvı́a otros.

(32) Demostración de que Game of Life es universal. 27. G. G A. A. Desaparece T. NOT A B. E. A AND B. B A. A OR B T. E. (a). (b). (c). E. Figura 3.5: Esquemas de las compuertas NOT (a), AND (b) y OR (c). 90o . Las compuertas tercera y cuarta repiten el proceso, de forma que el resultado sea la señal original que emerge del circuito con la misma dirección que tenı́a pero atrasado en tiempo por el tiempo que halla tomado la desviación. Otras configuraciones de compuertas NOT pueden atrasar y redirigir señales por 180o y/o cambiarlas hacia corrientes laterales (es decir, rotarlas 90o ). Esta capacidad se encuentra en el circuito de copiado de corrientes de gliders.. NOT. NOT. NOT. NOT. Figura 3.6: Esquema de un circuito de atraso de tiempo usando cuatro compuertas NOT..

(33) Demostración de que Game of Life es universal. 3.4.5.. 28. Copiador de corrientes de gliders. Esencialmente, serı́a una tarea imposible construir cualquier circuito computacional útil sin ser capaz de dirigir múltiples copias de corrientes de señales. El conjunto de herramientas que se ha definido hasta ahora permiten redirigir corrientes de gliders a direcciones paralelas de movimiento; sin embargo hasta ahora no existe una disposición para compensar la dirección de una señal dada por 90o , o para hacer copias de una señal. Uno de los circuitos más simples que resuelven estos dos problemas fue creado por Conway y se muestra en la Figura 3.7.. T 1 1 1 1 1 1 1 1 1 1. 000000000?. 00000000?0. OR. T. Copia original 1 1 1 1 1 1 ? 0 0 ? 000000000?. 0000000001. Copia 1 1 1 1 1 1 ? 0 0 0. T. 0000001000. _ 000000?000. Copia negada. E. Figura 3.7: Representación de un copiador de corrientes de gliders. E = eater, T = thin-glider-gun y K = reacción kickback..

(34) Demostración de que Game of Life es universal. 29. El circuito de Conway usa la reacción kickback para enviar gliders de regreso a su propia corriente de señal. Supóngase que se tiene un thin-glider-gun de factor 4 (es decir, que una corriente de datos no codificada consiste de la secuencia ‘111111 . . .’), y que un glider pasa por un punto dado a lo largo de la dirección de su movimiento cada 4 × 30 = 120 pasos de tiempo. También supóngase que la corriente de señal codificada ha sido adelgazada por otro factor de 10. Dicho esto, supóngase que las nueve posiciones glider-bit de periodo 120 siempre están vacı́as (= 0), y que es sólo la décima posición glider-bit la que puede o no contener un glider-bit codificado. Por ejemplo, la señal codificada ‘011’ se adelgazarı́a a una representación de corriente de gliders dada por ‘000000000000000000010000000001’. En la Figura 3.7, se ha indicado el valor de ésta décima posición de glider-bit con un signo de interrogación. El circuito de Conway funciona como sigue. La corriente de datos de entrada, que se va a copiar, entra en una compuerta OR localizada arriba a la izquierda. La otra entrada a la compuerta OR es la salida de un thin-glider-gun (de factor 40) cuya corriente de gliders es tal que la novena posición glider-bit siempre contiene un glider. La compuerta OR combinará éstas dos señales para producir un resultado que consista de una corriente de gliders que siempre tiene el mismo conjunto glider-bit como la señal original codificada, y siempre contiene un glider en la novena posición; se representa con la secuencia ‘000000001?’. Ahora considérese lo que ocurre cuando esta secuencia encuentra una reacción kickback. Si ? = 1, hará kickback en el primer glider en la corriente ‘111 . . . que desciende, creando una colisión con amontonamiento. Sin embargo, cuando el glider codificado se aniquila, el glider tras él en la novena posición pasará por la región de reacción kickback sin afectarse. La salida es la secuencia ‘0000000010’. Si ‘? = 0’, el primer glider en la secuencia ‘111 . . .’ pasará sin afectarse, pero el noveno glider tras la posición codificada glider-bit hará kickback en el siguiente glider en la corriente ‘111 . . .’. Por lo tanto, la corriente de salida no contendrá gliders, y estará dada por ‘0000000000’. En resumen, si la posición codificada glider-bit contiene un glider bit ‘?’, la salida de la reacción kickback estará dada por ‘00000000?0’; es decir, contendrá la misma información que la señal original pero el glider bit estará atrasado por una posición. Considérese lo que pasa con la corriente de gliders que desciende ‘111 . . .’ des-.

(35) Demostración de que Game of Life es universal. 30. pués de que entra a la región de la reacción kickback. Es fácil ver que la reacción kickback siempre elimina exactamente tres gliders. Si la secuencia codificada que entra en la región kickback contiene un glider en la décima posición (? = 1), entonces la reacción kickback elimina los primeros tres gliders en la corriente que desciende; si la secuencia codificada que entra en la región kickback no contiene un glider en la décima posición (? = 0), entonces el glider delantero en la corriente descendiente queda solo, pero los siguientes tres gliders se eliminan en la reacción kickback. Esquemáticamente, la salida está dada por ‘111111¯?00¯?’, donde ¯? ≡ NOT(?). A continuación, esta corriente descendiente colisiona con una corriente adelgazade de gliders transversal, que consiste únicamente de posiciones glider-bit vacı́as excepto por la décima, la cual siempre contiene un glider. Por lo tanto, la corriente de salida en la derecha puede tener un glider sólo en esta última posición, y sólo cuando el ? en la corriente descendiente está vacı́o. En otras palabras, la posición delantera en la salida de la derecha es NOT [NOT(?)] =?, ası́ que la salida es una réplica perfecta de la corriente original de gliders codificados: ‘000000000?’. Por lo tanto el circuito de Conway tiene un total de tres salidas: una es una réplica exacta, otra es una copia fiel pero con los glider-bits de información cambiados en una posición, y la tercera es una copia negada de la señal original y con las salidas paralelas a la dirección del movimiento de la señal original.. 3.4.6.. Almacenamiento de memoria. Mientras que una memoria finita se puede implementar fácilmente con cables y compuertas lógicas, la construcción de una memoria arbitrariamente grande necesita un poco más de trabajo. Una máquina universal de Turing usa una cinta arbitrariamente larga como un dispositivo de almacenamiento de memoria potencialmente infinito. Para esta demostración, Conway usó la idea de Minsky de que una memoria potencialmente infinita puede ser obtenida almacenando números arbitrariamente grandes en registradores de memoria. La idea se esquematiza en la Figura 3.8..

(36) Demostración de que Game of Life es universal. 31. Registradores A. B. C. D Block de registro. 5 4 3. Flotilla de gliders para mover un block. 2 Glider prueba cero. 1. Computadora Life. Figura 3.8: Representación de un circuito de almacenamiento auxiliar de memoria. Usando el ejemplo del teorema de Fermat (ver [BCG82]), supóngase que a una computadora Game of Life se le pide calcular las cantidades xn + y n y z n para todas las cuádruplas (x, y, z, n) y que se detenga cuando halla encontrado una cuádrupla que satisfaga xn +y n = z n . Una forma sencilla de seguir el rastro de los números inevitablemente grandes que forzosamente tendrá que probar la computadora, es usar bloques estables como marcadores de valor en un registrador de almacenamiento auxiliar de memoria. La distancia del bloque en un registrador dado, con respecto a un nivel 0 arbitrariamente señalado, define la cantidad almacenada en el registrador. Por ejemplo, en la Figura 3.8, los registradores A, B, C y D contienen los números 2, 5, 0 y 4, respectivamente. Los registradores de memoria funcionan de la siguiente forma. Supóngase que el registrador x contiene un bloque en el “lugar” N . Para que la computadora “lea” este valor, debe realizar el ciclo: (. disminuir el contenido del registrador x en 1 probar para ver si el contenido del registrador x = 0. (3.2).

(37) Una máquina de Turing en Game of Life. 32. hasta que el contenido del registrador x sea igual a cero. El número de intervalos del reloj interno necesario para disminuir la distancia del bloque dado desde el nivel cero, da como resultado el “valor” deseado del registrador de memoria. Habiendo demostrado, por construcción, que cada uno de los elementos computacionales requeridos por una computadora digital convencional para su propia computación – (1) señales digitales de corrientes de bits, (2) cables, (3) circuitos de redirección, (4) un sistema de reloj interno, (5) una memoria (potencialmente infinita), y (6) un conjunto universal de compuertas lógicas (AND, OR y NOT) – está soportado por la dinámica de Game of Life, se ha demostrado que Game of Life es universal. De hecho, de la discusión anterior, se puede decir que cualquier circuito de computadora basado en Game of Life puede ser construido completamente con gliders, glider-guns, eaters y bloques. ¥. 3.5.. Una máquina de Turing en Game of Life. La Figura 3.9 muestra una máquina de Turing muy simple, implementada en Game of Life (ver [Ren01]). Está limitada a tres estados y tres sı́mbolos. Comienza con dos 1’s en la cinta de la derecha. Se detendrá con dos veces este número en la derecha. La cinta está implementada con dos pilas y a la máquina se le han proporcionado seis pilas de celdas. Esto se puede expandir como lo requiera el cómputo. La parte de máquina de estados finitos es una arreglo de celdas de memoria dirigidas por Estado (fila) y Sı́mbolo (columna). Cada celda de memoria cicla alrededor en 240 generaciones con espacio para un glider cada 30 generaciones. Éstas ocho posiciones están codificadas como DV V V SSSS con la D para la dirección (1 =derecha) primero, V V V es el sı́mbolo en la cinta y SSSS es el siguiente estado..

(38) Una máquina de Turing en Game of Life. 33. Figura 3.9: Fragmento de una máquina de Turing implementada en Game of Life. La máquina completa ocupa un área de 1,716 × 1,649 celdas, con 36,549 celdas activas..

(39) Capı́tulo 4 Algoritmos y técnicas de análisis En este capı́tulo se introducen los conceptos de fractal y dimensión fractal, incluyendo dos técnicas para calcularla: el algoritmo DFA y el exponente de Hurst. El cálculo de la dimensión fractal es uno de los objetivos de este trabajo.. 4.1.. Fractales. Un fractal es un objeto o cantidad, determinante y aleatorio, que presenta auto-similitud, en un sentido un poco técnico e incluso en el sentido estadı́stico, a todas las escalas. No es necesario que el objeto exhiba exactamente la misma estructura en todas las escalas, pero sı́ debe presentar el mismo tipo de estructuras. Se sabe que los fractales poseen infinitos detalles, y es posible que realmente tengan una estructura auto-similar que ocurra a diferentes niveles de ampliación. En muchos casos, un fractal puede ser generado al repetir un patrón usando procesos iterativos o recursivos. El término fractal fue introducido en 1975 por Benoit Mandelbrot, a partir de la palabra fractus en Latı́n, y no de la palabra fraccional, como se cree comúnmente (ver [Man82]). Muchos tipos de fractales fueron originalmente estudiados como objetos matemáticos. La geometrı́a fractal es la rama de las matemáticas que estudia las propiedades y comportamientos de los fractales. Describe muchas situaciones que pueden ser difı́ciles de explicar con geometrı́a clásica (ver [PJS92]). 34.

(40) Fractales. 4.1.1.. 35. Notas sobre fractales. Fueron descubiertos y estudiados mucho antes de recibir su nombre. En 1872 Karl Weiertrass, apoyándose en el análisis económico, inventó una función con la propiedad de ser contı́nua pero no diferenciable, la gráfica de esta función fue llamada fractal. En 1904, Helge von Koch, insatisfecho con la definición tan abstracta y analı́tica de Weiertrass, dio una definición más geométrica de una función similar, que ahora se conoce como el copo de nieve de Koch. Más adelante, la idea de curvas auto-similares fue tomada por Paul Pierre Lévy, quien en 1938 con su artı́culo Plane or Space Curves and Surfaces Consisting of Parts Similar to the Whole, describió una nueva curva fractal, la Curva C de Lévy (ver [PJS92]). Las funciones iteradas en el plano complejo fueron estudiadas en los siglos XIX y XX por Henri Poincaré, Felix Klein, Pierre Fatou y Gaston Julia, pero sin el auxilio de gráficas por computadora, carecieron de los medios para visualizar los objetos que habı́an descubierto. Con el fin de entender objetos como los conjuntos de Cantor, algunos matemáticos como Constantin Carathéodory y Felix Hausdorff generalizaron el concepto de dimensión para incluir valores no-enteros. Esto fue parte del movimiento general, en la primera parte del siglo XX, para crear la teorı́a descriptiva de conjuntos. En la década de 1960, Mandelbrot comenzó a inverstigar la auto-similitud en artı́culos como How Long is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension (ver [PJS92]). Una vez que se aplicaron técnicas de visualización por computadora, se presentó un poderoso argumento para que la geometrı́a fractal enlazara dominios mucho mayores de las matemáticas y la ciencia, particularmente en dinámica no-lineal, teorı́a del caos, y complejidad. Un ejemplo es graficar el método de Newton como un fractal, mostrando cómo los lı́mites entre diferentes soluciones son fractales. También se ha usado la geometrı́a fractal para compresión de datos y modelado de sistemas orgánicos complejos y sistemas geológicos (ver [PJS92])..

(41) Fractales. 36. Figura 4.1: Ejemplos de fractales. (Segunda fila: Fractal de Koch.). 4.1.2.. Dimensión fractal. La dimensión fractal proporciona una forma de medir la rugosidad de una curva. Normalmente, un punto tiene dimensión 0, una lı́nea dimensión 1, las superficies dimensión 2, y los volúmenes dimensión 3. Las anteriores son dimensiones topológicas. Sin embargo, una curva rugosa que recorre una superficie, puede ser tan rugosa que la llene casi por completo. Se puede pensar que la rugosidad es un incremento en la dimensión: una curva rugosa tiene una dimensión entre 1 y 2, y una superficie rugosa tiene una dimensión entre 2 y 3. Para calcular la dimensión fractal se usan los conceptos de lı́mite, logaritmo, escalas y medidas. En el cálculo de la dimensión de fractales muy complejos como el conjunto de Mandelbrot se usan computadoras, pero para fractales más simples se usan fórmulas matemáticas (ver [PJS92]). Como ejemplo se hará el cálculo de la dimensión fractal para el triángulo de Sierpinski, usando el método llamado similitud por duplicación (ver [Man82]). Al tomar un segmento de recta de longitud 1 y duplicarlo, se tendrán dos segmentos iguales al original:.

(42) Fractales. 37. Si se duplican los lados de un cuadrado de lado 1, se tendrán cuatro cuadrados iguales al original:. De manera semejante, para un cubo de largo, alto y ancho 1, y duplicando sus medidas, se obtendrán 8 cubos iguales al original:. La siguiente tabla muestra estos datos: Figura. Dimensión # de copias. Lı́nea. 1. 2 = 21. Cuadrado. 2. 4 = 22. Cubo. 3. 8 = 23. Similitud al duplicar. d. n = 2d.

(43) Fractales. 38. Si F es el número de copias, y D la dimensión de la figura, F = 2D . Despejando D: D=. log F log 2. (4.1). Esta fórmula se puede usar para calcular la dimensión fractal del triángulo de Sierpinski, ya que al duplicar la longitud de los lados, se obtiene otro triángulo de Sierpinski semejante al primero, que contiene a su vez tres triángulos de la misma escala que el primero; por lo tanto F = 3:. Usando la fórmula 4.1: D=. 4.1.3.. log 3 ≈ 1,59496 . . . log 2. (4.2). Categorı́as de fractales. Los fractales se pueden agrupar en tres amplias catagorı́as. Estas se determinan de acuerdo a la forma en que un fractal se define o genera: Sistemas de funciones iteradas. Tienen una regla fija de reemplazamiento geométrico. Ejemplos: tapete de Sierpinski, curva de Peano y esponja de Menger. Tiempo-escape. Se definen por una relación de recurrencia en cada punto del espacio. Ejemplos: conjunto de Mandelbrot y fractal de Lyapunov. Fractales aleatorios. Generados por procesos estocásticos en lugar de deterministas. Ejemplos: vuelos de Lévy..

(44) Series de tiempo. 39. Hay que resaltar que no todos los objetos auto-similares son fractales, por ejemplo, una lı́nea real (una lı́nea recta Euclı́dea) es exactamente auto-similar, pero el argumento de que los objetos Euclı́deos son fractales es una posición minoritaria. Mandelbrot discutió que la definición de fractal deberı́a incluir no sólo fractales verdaderos, sino también objetos Euclı́deos tradicionales, debido a que los números irracionales sobre la recta numérica representan propiedades complejas no repetitivas (ver [PJS92]).. Figura 4.2: Conjunto de Mandelbrot.. 4.2.. Series de tiempo. En estadı́stica y, aunque no siempre, en procesamiento de señales, una serie de tiempo es una secuencia de datos, comúnmente medidos en tiempos sucesivos, espaciados en intervalos de tiempo uniformes. El análisis de series de tiempo abarca métodos que intentan comprender estas series, ya sea para entender la teorı́a subyacente a los datos (¿de dónde vienen?, ¿cómo se generaron?), o para hacer predicciones. Predicción de series de tiempo es el uso de un modelo para predecir eventos futuros basándose en eventos pasados conocidos: predecir datos futuros antes de que sean medidos. Los modelos para las series de tiempo pueden tener muchas formas. Dos amplias.

(45) Series de tiempo. 40. clases de importancia práctica son los modelos movimiento promedio, y los modelos auto-agresivos (ver [KML99]). Existen varias notaciones diferentes para usar en análisis de series de tiempo: X = {X1 , X2 , X3 , . . .}. (4.3). es una notación común que especifica una serie de tiempo indexada por los números naturales. Algunas herramientas para investigar series de tiempo son:. Considerar la función de autocorrelación. Realizar una transformada de Fourier para investigar las series en el dominio de frecuencias. Usar un filtro para retirar ruido indeseado. Redes neuronales artificiales.. 4.2.1.. Mapeo de series de tiempo a procesos auto-similares. Un proceso dependiente del tiempo (o serie de tiempo) es auto-similar si: µ ¶ t y(t) ≡ a y a d. α. (4.4). donde ≡d significa que las propiedades estadı́sticas de ambos lados de la ecuación son idénticas (ver [KML99]). En otras palabras, un proceso auto-similar y(t), con un parámetro α tiene la distribución de probabilidad idéntica como un proceso correctamente reescalado, aα y(t/a), es decir, una serie de tiempo que ha sido reescalada en el eje x por un factor a(t → t/a) y en el eje y por un factor aα (y → aα y). El exponente α se llama parámetro de auto-similitud. La Figura 4.3 muestra una serie de tiempo auto-similar. Se observa que con la elección adecuada de factores de escala para los ejes x e y, la serie de tiempo reescalada se asemeja a la serie original. El parámetro de auto-similitud de la ecuación 4.4 se puede calcular con la relación:.

(46) Series de tiempo. 41 n2. (b). n1. y. Myy. (a). t. n1 n2. Mxt (d). Pendiente = α. log s. P(y). (c). y. log n. Figura 4.3: Concepto de auto-similitud en series de tiempo. En (a) se muestra una serie de tiempo con ventana n2 ; (b) es una ampliación a la serie, con una ventana n1 . (c) Función de densidad de probabilidad, P (y), de la variable y para las dos ventanas, con desviaciones estándar s1 y s2 . En (d) se grafica (en log-log) la escala de la fluctuación, s, contra el tamaño de la ventana, n.. α=. log My log Mx. (4.5). donde Mx y My son los factores de ampliación adecuados para los ejes x y y, respectivamente. Para un proceso auto-similar con α > 0, la fluctuaciones crecen con el tamaño de la ventana en forma de una power-law. Por lo tanto, las fluctuaciones en grandes ventanas de observación son exponencialmente más grandes que las de ventanas más pequeñas. Como resultado, la serie de tiempo es ilimitada. Sin embargo, la mayorı́a de las series de interés son limitadas (no pueden tener amplitudes arbitrariamente grandes, sin importar la longitud de la serie). Esta restricción práctica complica los análisis. Considere el caso de una serie de tiempo para el ritmo cardiaco mostrado en la Figura 4.4. Si se hace un acercamiento sobre un subconjuto de la serie, se observa un patrón aparentemente auto-similar. Para ver esta auto-similitud no hace falta reescalar el eje y (My = 0). Por la ecuación 4.5, α = 0, lo cual no aporta información. Los fı́sicos y matemáticos han desarrollado una solución innovadora para este problema. Se trata de estudiar las propiedades.

(47) Detrended Fluctuation Analysis. 42. fractales para una serie de tiempo acumulada, en lugar de las señales originales. Un ejemplo es la dinámica del movimiento Browniano. En este caso, la fuerza aleatoria (ruido) que actúa sobre las partı́culas es limitado (similar a las series de tiempo fisiológicas). Sin embargo, la trayectoria de una partı́cula Browniana no está limitada y exhibe propiedades fractales que se pueden cuantificar por un parámetro de auto-similitud.. Tiempo. Latidos 1.0 0.8 0.6 0.2 0. 10000. 20000. 30000. 40000. 50000. 60000. 27000. 30000. 33000. 36000. 39000. 42000. 30000. 31000. 32000. 33000. 34000. 35000. 1.0 0.8 0.6 0.2 24000. 1.0 0.8 0.6 0.2 29000. Figura 4.4: Ejemplo de una serie de tiempo para ritmo cardiaco. En resumen, mapear una serie de tiempo limitada en una señal acumulada es un paso importante en el análisis fractal de series de tiempo.. 4.3.. Detrended Fluctuation Analysis. Una definición simplificada y general caracteriza una serie de tiempo como estacionaria si su media, desviación estándar y momentos superiores, ası́ como las funciones de autocorrelación, son invariantes ante traslaciones temporales. Las señales que no obedezcan a estas condiciones son no-estacionarias. Como se mencionó anteriormente, una serie de tiempo limitada puede ser mapeada a.

(48) Detrended Fluctuation Analysis. 43. un proceso auto-similar por acumulación; por ejemplo, una secuencia de volados puede mapearse a una caminata aleatoria unidimensional (una serie de tiempo acumulada estacionaria). Un posible problema al aplicar este tipo de análisis fractal a series de tiempo, es que con frecuencia son altamente no-estacionarios. El proceso de acumulación harı́a que los datos originales no-estacionarios sean aún más aparentes. Para resolver este problema, se ha presentado un análisis modificado rms 1 de una caminata aleatoria, llamado Detrended2 Fluctuation Analysis (DFA), que también puede ser aplicado al análisis de datos biológicos. Entre las ventajas de DFA sobre métodos convencionales (análisis espectral y análisis de Hurst), está que permite la detección de auto-similitud intrı́nseca en series de tiempo aparentemente no-estacionarias, también evita la falsa detección de auto-similitud aparente, la cual puede ser un artefacto de tendencias extrı́nsecas. Este método ha sido aplicado con éxito en un amplio rango de series de tiempo, tanto simuladas como fisiológicas, en años recientes (ver [KML99]).. 4.3.1.. Algoritmo DFA. Primero se acumula la serie de tiempo (de longitud N ), usando: y(k) =. k X £. Bi − B̄. ¤. (4.6). i=1. donde Bi es el i-ésimo intervalo, y B̄ es el intervalo promedio. La acumulación mapea la serie de tiempo original a un proceso auto-similar. A continuación se mide la escala vertical caracterı́stica de la serie de tiempo acumulada. Para esto, la serie de tiempo acumulada se divide en segmentos de longitud igual, n. En cada segmento, se realiza un ajuste lineal de mı́nimos cuadrados a los datos (esto representa la tendencia del segmento). La ordenada de los segmentos de lı́nea recta se denota por yn (k). Después se hace detrend en la serie de tiempo acumulada, y(k), restando la tendencia local, yn (k), en cada segmento. Para un 1 2. Root mean square. Detrend: Eliminar cualquier variación lineal de fondo en datos de una serie de tiempo..

(49) Detrended Fluctuation Analysis. 44. segmento de tamaño n, el tamaño caracterı́stico de fluctuación para esta serie de tiempo acumulada y con detrend se calcula con: v u N u1 X t F (n) = [y(k) − yn (k)]2 N k=1. (4.7). Este procedimiento se repite para todas las escalas de tiempo (segmentos) para obtener una relación entre F (n) y el tamaño del segmento n. Comúnmente, F (n) se incrementará con n. Una relación lineal en una gráfica log-log indicará la presencia de auto-similitud, o escalamiento. (Las fluctuaciones en segmentos pequeños están relacionadas con las fluctuaciones en segmentos más grandes de acuerdo a una power-law). La pendiente de la recta que relaciona a log F (n) con log n determina el exponente de escalamiento α.. 500 400 300 yHkL yn HkL. 200 100 0 -100 0. 200. 400. 600. 800. 1000. k. Figura 4.5: Detrending local en el algoritmo DFA.. 4.3.2.. Relación entre auto-similitud y funciones de autocorrelación. El parámetro de auto-similitud de una serie de tiempo acumulada está relacionado con la función de autocorrelación, C(τ ) de la serie sin acumular. Breve-.

(50) Exponente de Hurst. 45. mente:. Para ruido blanco donde el valor en un instante dado está completamente no-correlacionado con cualesquiera valores previos, el valor acumulado, y(k), corresponde a una caminata aleatoria y por lo tanto α = 0,5. La función de autocorrelación, C(τ ), es 0 para cualquier τ 6= 0. Muchos fenómenos naturales están caracterizados por correlaciones a corto plazo, con una escala de tiempo caracterı́stica, τ0 , y una función de autocorrelación, C(τ ), que decae exponencialmente (C(τ ) ∼ exp(−τ /τ0 )). La pendiente inicial de log F (n) vs log n puede ser diferente de 0.5, pero α llegará a 0.5 para ventanas más grandes. Si 0.5 < α ≤ 1.0, indica correlaciones power-law persistentes de amplio rango (C(τ ) ∼ τ −γ ). La relación entre α y γ es γ = 2 − 2α. En el espectro de potencia, S(f ), de la señal no acumulada es también en forma de powerlaw (S(f ) ∼ 1/f β ). Ya que el espectro de potencia es la transformada de Fourier de la función de autocorrelación, se tiene β = 1 − γ = 2α − 1. El caso α = 1 es de interés en fı́sica y biologı́a (corresponde a ruido 1/f , con β = 1). Cuando 0 < α < 0.5, se presentan anti-correlaciones power-law, de manera que es más probable que valores grandes sean seguidos por valores pequeños y viceversa. Cuando α > 1, existen correlaciones pero dejan de ser en forma de powerlaw. α = 1.5 indica ruido Browniano, la integración del ruido blanco.. 4.4.. Exponente de Hurst. El exponente de Hurst se presenta en varias áreas de matemáticas aplicadas, incluyendo fractales y teorı́a del caos, procesos largos de memoria (long memory).

(51) Exponente de Hurst. 46. y análisis espectral (ver [PJS92]). La estimación del exponente de Hurst ha sido aplicada en áreas que van desde biofı́sica hasta redes de computadoras, siendo inicialmente desarrollada en hidrologı́a. Sin embargo, las técnicas más modernas para estimar el coeficiente de Hurst vienen de matemáticas de fractales. El exponente de Hurst está directamente relacionado con la dimensión fractal. Si H es el exponente de Hurst, y D es la dimensón fractal: D =2−H. (4.8). La estimación del exponente de Hurst para una serie de datos proporciona una medida de si los datos representan una caminata aleatoria pura o si tiene tendencias subyacentes. En otras palabras, un proceso aleatorio con una tendencia subyacente tiene cierto grado de correlación. Cuando la correlación tiene un decaimiento muy largo (o matemáticamente infinito), este tipo de proceso Gaussiano es en ocasiones llamado proceso de memoria larga. Los procesos que aparentemente son puramente aleatorios resultan mostrar estadı́stica de exponente de Hurst para procesos largos de memoria. Por ejemplo, en tráfico de redes computacionales. Se podrı́a esperar que el tráfico de una red se simule mejor teniendo cierto número de fuentes aleatorias, las cuales envı́en paquetes de tamaño aleatorio por la red. Se llegarı́a a una distribución de Poisson3 . Como resultado, este modelo está equivocado. El tráfico en una red se puede modelar mejor con un proceso que presente un exponente de Hurst no-aleatorio.. Estimación del exponente de Hurst Teniendo una serie de datos, la estimación del exponente de Hurst se realiza calculando el rango promedio rescalado sobre múltiples regiones de los datos. En estadı́stica, el promedio (media) de una serie de datos X se conoce en ocasiones como el valor esperado, E[X]. Usando esta notación, el valor esperado de R/S, calculado sobre un conjunto de regiones converge en la función potencia del exponente de Hurst: 3. Un ejemplo de una distribución de Poisson es la cantidad de personas que llega aleatoriamente a un restaurant en un periodo de tiempo dado..

(52) Exponente de Hurst. 47. ¸ R(n) E = CnH cuando n → ∞ S(n) ·. (4.9). Si la serie de datos es una caminata aleatoria, el valor esperado será descrito con un exponente de 0.5: ·. ¸ R(n) E = Cn0,5 cuando n → ∞ S(n). (4.10). En ocasiones, la ecuación 4.10 es llamada dependencia de rango corto. Esto parece razonable. Una dependencia de rango corto deberı́a tener alguna correlación, si el exponente de Hurst es 0.5, se tratarı́a de una caminata aleatoria y no existirı́a autocorrelación ni dependencia entre valores secuenciales. Se realiza una regresión lineal sobre una serie de puntos, compuesta de log n (el tamaño de las áreas en las cuales el rango promedio rescalado se calcula), y del logaritmo del rango promedio rescalado sobre un conjunto de segmentos de tamaño n. La pendiente de la recta de regresión es la estimación del exponente de Hurst. Este método fue desarrollado y analizado por Mandelbrot et al en artı́culos publicados entre 1968 y 1979 (ver [Kap03]). El exponente de Hurst se aplica a series de datos que son estadı́sticamente auto-similares.. Análisis de rango rescalado Es un método estadı́stico que sigue muchos tipos de fenómenos naturales. Existen dos factores que se usan en este análisis:. El rango R, el cual es la diferencia entre los valores máximo y mı́nimo acumulados o la suma acumulada de X(t, τ ) del fenómeno natural, con tiempo discretizado t de duración τ . La desviación estándar S, calculada a partir de los valores Xi (t) Hurst encontró que la proporción R/S queda bien descrita para un gran número de fenómenos naturales, siguiendo la relación empı́rica:.

(53) Exponente de Hurst. 48. R = (c · τ )H S Hurst estableció el coeficiente c = 0.5. R y S se definen como:. R(τ ) = maxX(t, τ ) − minX(t, τ ), 1 ≤ t ≤ τ ! 21 Ã τ 1X 2 [ξ(t) − hξiτ ] S= τ t=1. (4.11). (4.12) (4.13). donde: τ. 1X hξi = ξ(t) n t=1 X(t, τ ) =. t X. [ξ(u) − hξiτ ]. (4.14) (4.15). u=1. Finalmente, el exponente de Hurst es equivalente al parámetro α (ver [VAB97])..

(54) Capı́tulo 5 Análisis de Game of Life En este trabajo se mapeó cada uno de los estados de la evolución de las reglas de Game of Life a un vector en dos dimensiones, obteniéndose una caminata aleatoria, concepto que se describe brevemente a continuación.. Caminatas aleatorias En matemáticas y en fı́sica, una caminata aleatoria es la formalización de la idea de dar pasos sucesivos, cada uno con dirección aleatoria. Las caminatas aleatorias son procesos estocásticos. Una caminata aleatoria es aquella que sigue las siguientes reglas: La caminata se realiza en dos dimensiones. Existe un punto inicial. La distancia entre dos puntos de la caminata es constante. La dirección entre un punto y otro de la caminata se elige aleatoriamente, y ninguna dirección es más probable que otra. Estas se reglas pueden generalizarse para caminatas en más de una dimensión, y para el caso de pasos de longitud variable, de manera directa.. 49.

Referencias

Documento similar

Cedulario se inicia a mediados del siglo XVIL, por sus propias cédulas puede advertirse que no estaba totalmente conquistada la Nueva Gali- cia, ya que a fines del siglo xvn y en

No había pasado un día desde mi solemne entrada cuando, para que el recuerdo me sirviera de advertencia, alguien se encargó de decirme que sobre aquellas losas habían rodado

De acuerdo con Harold Bloom en The Anxiety of Influence (1973), el Libro de buen amor reescribe (y modifica) el Pamphihis, pero el Pamphilus era también una reescritura y

Por lo tanto, en base a su perfil de eficacia y seguridad, ofatumumab debe considerarse una alternativa de tratamiento para pacientes con EMRR o EMSP con enfermedad activa

Tras establecer un programa de trabajo (en el que se fijaban pre- visiones para las reuniones que se pretendían celebrar los posteriores 10 de julio —actual papel de los

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

b) El Tribunal Constitucional se encuadra dentro de una organiza- ción jurídico constitucional que asume la supremacía de los dere- chos fundamentales y que reconoce la separación