• No se han encontrado resultados

TEMA 3 Simulacion

N/A
N/A
Protected

Academic year: 2021

Share "TEMA 3 Simulacion"

Copied!
60
0
0

Texto completo

(1)

2-6-2017

TEMA

3

C

ONSTRUCCIÓN DE

M

ODELOS DE

S

IMULACIÓN

ALUMNA: GARDUÑO CHAVEZ KARINA MONSERRAT ASIGNATURA: SIMULACIÓN

(2)

1

Índice

INTRODUCCION ... 3

3.1 METODOLOGIA GENERAL DE LA SIMULACION ... 4

Definición del sistema ... 4

Formulación del modelo ... 4

Colección de datos ... 4

Implementación del modelo con la computadora ... 4

Validación ... 4

Experimentación ... 5

Interpretación ... 5

Documentación ... 5

Formulación del problema ... 5

Identificación del Problema ... 5

Reconocer las variables del sistema ... 6

Especificación de las restricciones de las variables de decisión ... 6

Desarrollar una estructura preliminar del modelo que interrelacione las variables del sistema y las medidas de ejecución . ... 7

Desarrollo de un modelo apropiado ... 8

Colección de datos y Análisis ... 8

Desarrollo del modelo ... 9

Comprensión del sistema ...10

Construcción del Modelo ...10

Verificación y Validación del modelo ...13

Experimentación y Análisis de las salidas ...13

Experimentación con el modelo ...13

Análisis de las salidas ...15

Implantación de los resultados de la Simulación ...16

3.2 Ejemplo de una simulación tipo Montecarlo en hoja de cálculo ...17

Conceptos fundamentales ...18

3.2.1 Descripción y conceptualización de simulación, establecer el problema, especificación del objetivo (s), definición de indicadores, simulación y determinación de la muestra. ...24

Elaboración de un modelo de simulación ...25

(3)

2

Evaluación de resultados ...28

Determinación de la muestra ...29

3.2.2 Caracterización de cada indicador, agrupamiento de datos, gráficas y estimación de parámetros. ...29

Caracterización de cada indicador ...29

Agrupamiento de datos ...37

Gráficas y estimación de parámetros en simulación ...38

Estimación de los parámetros ...40

3.2.4 Establecer el efecto que sobre la variabilidad de un estimador tiene el tamaño de la simulación ...49

3.3 Definiciones: replica, corrida, estado transitorio, estado estable, condiciones iniciales, reloj de la simulación. ...52 Corrida ...54 Estado transitorio ...56 Estado estable ...56 Condiciones iniciales ...57 Reloj de simulación ...57 CONCLUSIONES ...58 Bibliografía ...58

(4)

3 INTRODUCCION

Con el descubrimiento de la computadora digital, la simulación se ha convertido en la herramienta de análisis más poderosa para el diseño y la operación de procesos o sistemas complejos.

La simulación le permite al usuario experimentar con sistemas reales o propuestos en casos en los que de otra manera esto sería imposible o impráctico. La simulación implica la deducción de un modelo representativo del sistema a simular.

La simulación consiste básicamente en construir modelos informáticos que describen la parte esencial del comportamiento de un sistema de interés, así como en diseñar y realizar experimentos con el modelo y extraer conclusiones de sus resultados para apoyar la toma de decisiones.

Típicamente, se utiliza en el análisis de sistemas tan complejos que no es posible su tratamiento analítico o mediante métodos de análisis numéricos. Sus orígenes están en los trabajos de Student para aproximar la distribución que lleva su nombre, y los métodos que Von Neumann y Ulam introdujeron para resolver ecuaciones integrales.

La Simulación ha crecido como una metodología de experimentación fundamental en campos tan diversos como las aplicaciones industriales y comerciales, como los simuladores de vuelo, los juegos de simulación.

(5)

4 3.1 METODOLOGIA GENERAL DE LA SIMULACION

Definición del sistema

Para tener una definición exacta del sistema que se desea simular, es necesario hacer primeramente un análisis preliminar de este, con el fin de determinar la interacción con otros sistemas, las restricciones del sistema, las variables que interactúan dentro del sistema y sus interrelaciones, las medidas de efectividad que se van a utilizar para definir y estudiar el sistema y los resultados que se esperan obtener del estudio.

Formulación del modelo

Una vez definidos con exactitud los resultados que se esperan obtener del estudio, se define y construye el modelo con el cual se obtendrán los resultados deseados. En la formulación del modelo es necesario definir todas las variables que forman parte de el, sus relaciones lógicas y los diagramas de flujo que describan en forma completa el modelo.

Colección de datos

Es importante que se definan con claridad y exactitud los datos que el modelo va a requerir para producir los resultados deseados.

Implementación del modelo con la computadora

Con el modelo definido, el siguiente paso es decidir si se utiliza algún lenguaje como el fortran,lisp,etc..., o se utiliza algún paquete como Vensim,Stella e iThink, GPSS,Simula,Simscript,Rockwell Arena, etc..., para procesarlo en la computadora y obtener los resultados deseados.

Validación

A través de esta etapa es posible detallar deficiencias en la formulación del modelo o en los datos alimentados al modelo. Las formas más comunes de validar un modelo son:

(6)

5 La exactitud con que se predicen datos históricos.

La exactitud en la predicción del futuro.

La comprobación de falla del modelo de simulación al utilizar datos que hacen fallar al sistema real.

La aceptación y confianza en el modelo de la persona que hará uso de los resultados que arroje el experimento de simulación.

Experimentación

Se realiza después de que el modelo haya sido validado, consiste en generar los datos deseados y en realizar un análisis de sensibilidad de los índices requeridos.

Interpretación

Se interpretan los resultados que arroja la simulación y con base a esto se toma una decisión. Es obvio que los resultados que se obtienen de un estudio de simulación ayuda a soportar decisiones del tipo semi-estructurado.

Documentación

Dos tipos de documentación son requeridos para hacer un mejor uso del modelo de simulación. La primera se refiere a la documentación del tipo técnico y la segunda se refiere al manual del usuario, con el cual se facilita la interacción y el uso del modelo desarrollado.

Formulación del problema

Se definen las cuestiones para las que se buscan las respuestas, las variables implicadas y las medidas de ejecución que se van a usar.

Esta fase es muy importante para poder alcanzar un modelo válido, se puede dividir a su vez en 5 fases

Identificación del Problema

Se hace una abstracción del tipo de problema que se va a tratar. Se identifican los recursos a utilizar, los requisitos que se van a exigir (relaciones a establecer).

(7)

6

Reconocer las variables del sistema

Se han de identificar las variables que interviene en el sistema y que son de interés para nuestro modelo, éstas se pueden clasificar en:

Variables exógenas: son variables externas al modelo y existen con independencia de él.

Se consideran variables de entrada. Éstas a su vez se pueden dividir en dos grupos:

· Variables controlables o de decisión (factores): son aquellas sobre las que el analista puede decidir su valor dentro de ciertos límites.

· Variables incontrolables o parámetros: sus valores no se pueden decidir sino que vienen fijados. Las variables serán controlables o incontrolables dependiendo de quién las defina.

· Variables endógenas: son variables internas y las variables de salida del modelo. Son función de las variables exógenas y de la estructura del modelo.

Especificación de las restricciones de las variables de decisión

Incluso en el caso de que las variables sean controlables, están limitadas o restringidas a ciertos límites dentro de los cuales se pueden modificar.

Es importante considerar cuidadosamente las restricciones sobre las variables de decisión, ya que definen el posible espacio de soluciones dentro del cual se buscará una buena solución o la óptima usando el modelo de simulación.

(8)

7

Desarrollar una estructura preliminar del modelo que interrelacione las variables del sistema y las medidas de ejecución.

Para evaluar la efectividad de un sistema, se debe identificar una medida o medidas de comportamiento (o ejecución) para juzgarlo. Estas medidas se seleccionan del conjunto de variables endógenas. La medida o medidas que se pretenden optimizar se conocen como función objetivo.

Hay veces en las que existe una única función objetivo dominante y entonces se intenta optimizar ésta sin tener en cuenta las otras variables, aunque siempre considerando las restricciones. En otras ocasiones existe más de una función dominante, en este caso, hay que estudiar las distintas funciones objetivo e intentar encontrar valores para los cuales las funciones son óptimas.

Cuando se quiere tener en cuenta varias medidas de comportamiento, a menudo no se podrán optimizar simultáneamente. Lo ideal sería hacer mínimas ambas medidas, el tiempo de espera y el costo de tener los empleados, pero si se minimiza una de ellas la otra aumenta. Se tienen tres formas de abordar este problema:

· Establecer compromisos implícitos entre las medidas. Esta aproximación es muy subjetiva y no se va a considerar. Se dan los resultados a quién tenga que tomar la decisión y él será quien establezca la relación entre las variables conflictivas.

· Establecer compromisos explícitos, realizando una combinación de todas las medidas usando una dimensión común tal como el costo. A estas técnicas se les suele conocer como análisis de toma de decisiones multiatributo o multiobjetivo. Para realizar esta técnica se tiene que decidir una dimensión común para todas las medidas, factores pesos, y formar una función que las combine.

· Restricción y corte: seleccionar una medida como la que más interesa optimizar y hacer que las otras estén dentro de un rango de valores aceptable. Esto reduce la posibilidad de encontrar un óptimo, o al menos las mejores soluciones.

(9)

8

Desarrollo de un modelo apropiado

Los modelos son abstracciones de las partes esenciales del sistema. Se ha de intentar ver si con las variables que se han especificado se tiene suficiente para describir estos aspectos importantes del sistema (si no se tienen suficientes entonces el modelo no será una buena representación del sistema), o por el contrario se han definido más de las necesarias (esto puede oscurecer las relaciones entre las variables realmente importantes). En resumen, lo que se tiene que fijar en este paso es el nivel de detalle al que se debe llegar en el modelo. El nivel de detalle depende de:

· Propósito del modelo.

· Contribución de las variables al modelo.

No es igual si lo que se desea hacer es un modelo para una previsión a largo plazo, en cuyo caso la precisión puede ser menor, debido a que al transcurrir el tiempo las variables van a cambiar e incluso podrán aparecer otras nuevas, que si se desea una previsión a corto plazo, entonces se deberá profundizar más en el nivel de detalle.

Colección de datos y Análisis

Aunque la recogida de datos se va a ver como el segundo paso, es bastante posible que se hayan tenido que recoger datos para la formulación del problema. Sin embargo, durante este paso se recoge el mayor volumen de datos, se reduce y se analiza.

Los métodos de recogida de datos son tan variados como los problemas a los que éstos se pueden aplicar. Si se clasifican por su sencillez, se puede ir desde las aproximaciones manuales hasta las técnicas más sofisticadas de alta tecnología. En la selección de un método se pueden tener en cuenta los siguientes factores:

· Capacidad de quien recoja los datos.

· El impacto que pueda producir el proceso de recolección sobre el comportamiento del sistema real. Puede producir perturbaciones reales o físicas en el sistema o psicológicas.

(10)

9 · La facilidad de conversión de los datos a una representación procesable por el ordenador.

· El coste del método.

En muchas situaciones es suficiente con la observación directa y la recogida manual de los atributos de interés. Pero si la medida que se quiere observar depende de una persona, su comportamiento se puede ver afectado por estar siendo observada. Otras veces puede ocurrir que la acción que se quiere observar sea muy rápida y que no sea posible realizar una observación humana.

Para decidir el número de muestras necesarias, se ha de establecer una relación costo-exactitud y hacer una optimización de dicha relación.

Una vez realizado el muestreo, los datos se han de analizar e introducir en el modelo. Los datos usados para definir el modelo pueden ser de dos tipos:

· Determinísticos: son datos conocidos con certeza. Éstos se pueden introducir fácilmente en el modelo.

· Probabilísticos: hay dos formas de incluirlos en el modelo:

· Usar la muestra de datos recogida para representar la distribución de probabilidades. · Determinar una distribución probabilística teórica que se comporte como la

Muestra y usar ésta en el modelo. Esto permite tener una mejor comprensión (generalización) del modelo.

Desarrollo del modelo

Incluye la construcción y depuración del modelo del sistema real, incluyendo la selección de un lenguaje de programación, codificación del modelo. Esta etapa se va a dividir en dos partes:

(11)

10

Comprensión del sistema

Una de las tareas más difíciles en el análisis de simulación es adquirir el suficiente conocimiento del sistema para poder desarrollar un modelo apropiado, es decir, conocer el comportamiento del sistema. Dos técnicas comúnmente usadas son la aproximación de flujo físico y la aproximación de cambio de estado.

· Aproximación de Flujo Físico. Se ha de identificar las entidades cuyo procesamiento o transformación constituye el propósito principal del sistema. Estas entidades pueden tomar diferentes caminos en el sistema, las rutas que siguen se determinan mediante reglas de decisión. La representación del sistema vendrá dada mediante un diagrama de flujo de entidad y los elementos de procesamiento del sistema.

· Aproximación de Cambio de Estado. Para describir esta aproximación, se debe definir unas variables endógenas adicionales que son las variables de estado e introducir un nuevo concepto, el de suceso o evento. Las variables de estado describen el estado del sistema en cada momento. Dados los valores actuales de las variables de estado, las variables exógenas y la estructura del modelo, se puede determinar el estado futuro del sistema. Un evento es un instante particular en el tiempo en el que el sistema cambia de estado. La evolución del sistema se puede representar mediante un grafo de sucesos.

Construcción del Modelo

Las tareas principales en la construcción de un modelo son:

Elección Mecanismo de avance del tiempo. Este dependerá de la aproximación elegida para describir el comportamiento del sistema. Si se eligió la aproximación de flujo físico, este diagrama de flujo podría refinarse para convertirse en el diagrama de flujo del programa. Si se siguió la aproximación de cambio de estado, el diagrama de flujo desarrollado debería describir el procedimiento que efectúa los cambios de estado en el tiempo. Otros dos factores inciden en la construcción del diagrama de flujo del programa: elegir un mecanismo de avance del tiempo y el lenguaje de programación

(12)

11 que se seleccione. Hay fundamentalmente dos formas de considerar el avance del tiempo en un modelo de simulación:

· Incrementos fijos de tiempo: se considera un intervalo fijo de tiempo y el estado del modelo se comprueba después de transcurrido cada uno de estos incrementos constantes.

· Incrementos por los eventos (N.E.T.A., Next Event Time Advance): las comprobaciones y modificaciones de las variables afectadas se realizan sólo después de la ocurrencia de un evento. Aquí el incremento de tiempo es variable, va desde la ocurrencia de un evento a otro.

El avance del tiempo de simulación depende de cuál de las aproximaciones se elija. Si se elige el incremento por eventos, el reloj se inicializa a 0, y se incrementa al siguiente tiempo en que vaya a ocurrir un suceso, en ese momento, en este momento de actualización del reloj se modifican las variables que se vean afectadas por la ocurrencia del suceso. Si por el contrario se elige un incremento de tiempo fijo, el reloj se inicia a 0 y se va actualizando cada vez que pase el incremento de tiempo fijado. En esos instantes se observará el sistema para realizar los cambios. En ese momento puede ocurrir que no haya sucedido ningún cambio o que por el contrario que hayan ocurrido más de un suceso con lo cual se tendrá que decidir cuál atender antes (por ejemplo dando prioridad a los sucesos). En esta aproximación pueden ocurrir “errores de redondeo”, que hacen referencia a la diferencia de tiempo que pasa desde que sucede un suceso hasta que éste se computa (cuando el reloj se incrementa).

Hay que tener cuidado en la elección del incremento de tiempo. Si éste es demasiado pequeño se realizará trabajo inútil, ya que se comprobarán cambios cuando en realidad no ha ocurrido ningún suceso. Por el contrario si es demasiado grande se producirán muchos errores de redondeo y la dinámica del modelo será ineficiente.

Elección de un Lenguaje de programación. Hay un creciente número de lenguajes de programación disponibles para la implementación de modelos de simulación.

(13)

12 Entre los lenguajes de simulación destacan: GPSS (General Purpose Simulation System), SLAM (Simulation Language for Alternative Modeling), SIMAN (Simulation Analysis), y SIMSCRIPT. Muchos lenguajes de propósito general son completamente adecuados para la simulación, por ejemplo, FORTRAM, PASCAL,…, pero los lenguajes de simulación proporcionan una serie de características que hacen la programación, depuración y experimentación más eficientes en tiempo y esfuerzo, aunque consuman más tiempo en la ejecución. Quizás la más importante ventaja de los lenguajes de simulación es la correspondencia entre los elementos del sistema y los elementos del lenguaje. Por ejemplo, en GPSS hay bloques de diagramas de flujo y conjuntos de sentencias de programa llamados QUEUE que procesan entidades a través de una cola de espera y acumulan datos de variables de salida tales como tiempo de espera en la cola.

El lenguaje seleccionado puede influir en la forma exacta del diagrama de flujo del programa de computador.

Generación de números y variables aleatorias. Se van a necesitar muestras aleatorias para representar valores de variables de entrada probabilísticas. Utilizando estos números aleatorios podemos obtener valores de variables aleatorias que sigan ciertas distribuciones de probabilidad.

Aunque se ha hecho referencia a que los números usados en simulación son aleatorios, no lo son totalmente, ya que se producen a partir de algoritmos determinísticos. Sin embargo las propiedades de los números producidos se pueden hacer lo suficientemente cerradas de forma que éstos sean completamente utilizables para la simulación. Si el modelo se implementa con un lenguaje de propósito general, se puede seleccionar e incluir algoritmos necesarios para generar las variables aleatorias requeridas. Pero si se utiliza un lenguaje de simulación estos algoritmos están incluidos y pueden ser fácilmente accesibles por el usuario.

Implementación y depuración del modelo. La facilidad o dificultad en esta etapa dependen en gran medida del lenguaje de programación que se haya elegido.

(14)

13

Verificación y Validación del modelo

La Verificación del modelo consiste en ver cuál es la consistencia interna del modelo. La Validación consiste en asegurar que existe la una correspondencia entre el sistema real y el modelo. Un buen método para la validación es hacer un test para ver cómo el modelo predice el comportamiento del sistema ante determinadas entradas.

La verificación y validación del modelo se realiza en todas los niveles de modelización: modelo conceptual, modelo lógico y un modelo de ordenador. La verificación se centra en la consistencia interna del modelo, mientras que la validación se interesa por la correspondencia entre el modelo y la realidad.

Se dice que un modelo es válido si sus medidas de salida tienen una correspondencia apropiada con las mismas medidas en el sistema real. La comprobación última para la validez de un modelo es ver cómo el modelo puede predecir un comportamiento futuro del sistema ante unas determinadas entradas.

Experimentación y Análisis de las salidas

Se han de diseñar los experimentos que se van a llevar a cabo sobre el modelo y luego analizar las salidas obtenidas, de forma que podamos responder a las cuestiones que se plantearon.

Experimentación con el modelo

El propósito último de la experimentación con el modelo es obtener información acerca del comportamiento del sistema para que esto nos ayude en la toma de decisiones. Cuando consideramos la ejecución de un sistema se puede desear conocer cómo se comporta dicho sistema en sentido absoluto, o comparativamente, para poder contrastar varias configuraciones alternativas del sistema. O se podrían considerar dos medidas simultáneamente.

(15)

14 Es evidente que el número de exploraciones que se tendrían que realizar es extremadamente largo. Hasta para los diseños de experimentos más modestos, la exploración de todas las posibles soluciones en la búsqueda de la mejor solución, no es algo factible. Se necesita una aproximación estructurada más directa para encontrar una solución que merezca la pena. Podemos considerar dos aproximaciones diferentes para abordar este problema: conjunto predeterminado de experimentos y técnicas de búsqueda de óptimos.

Conjunto de experimentos predeterminado: esta aproximación impone identificar factores que podrían afectar a la medida de salida y ejecutar los experimentos con los factores puestos a determinados valores. Una vez realizados los experimentos se aplicarían unas técnicas estadísticas denominadas análisis de la varianza (ANOVA), para decidir cuál o cuáles de los factores seleccionados tiene realmente algún impacto en la medida de salida. Las medidas de salida se pueden adaptar de forma que las suposiciones estadísticas de esta técnica se satisfagan de forma razonable y puedan ser aplicadas en la experimentación del modelo.

Un diseño experimental particularmente general es el diseño factorial. Se consideran dos o más factores pudiendo estar cada uno a dos o más niveles.

El uso de un conjunto predeterminado de experimentos es efectivo para encontrar buenas soluciones si se puede aproximar una región de optimalidad con experimentos previos o con la experiencia que se tenga sobre el problema. Sin embargo esta técnica no puede conducir a la mejor solución global, ni siquiera puede garantizar un óptimo local.

Técnicas de búsqueda de óptimos: un conjunto de estas técnicas se conoce como Metodología de Superficie de Respuesta (RSM). La superficie de respuesta es la función que describe las relaciones de las medidas de ejecución con los factores o variables de decisión. Dos factores definen una superficie de 3 dimensiones, la cual puede ser vista como un terreno en donde se puede escalar. De hecho, la representación en 2 dimensiones de la respuesta de superficie es como las líneas de contorno de un mapa topográfico. Usando varias estrategias se pueden alcanzar puntos altos en el terreno, y quizás llegar a la cumbre. Una estrategia es el método de

(16)

15 escalado ascendente. Esta requiere que el modelo se ejecute suficientemente para hacer que se pueda determinar qué dirección (qué cambios en los valores de los factores) parece conducir a un incremento en la altitud (incremento en la medida de salida). Las variables de decisión se van cambiando de esta forma y el proceso continúa hasta que ya no se puede llegar más alto, en ese momento se ha alcanzado un óptimo local o global.

Análisis de las salidas

En la interpretación de las salidas del modelo, hay algunos aspectos que son únicos de la simulación. Mientras que los modelos analíticos proporcionan soluciones con medidas de ejecución completamente definidas, los modelos de simulación producen estimaciones de las medidas que están sujetas a error.

Las salidas del modelo de simulación se consideran muestras. Las principales cuestiones en la obtención de estimaciones útiles a partir de muestras son: que la muestra sea representativa del comportamiento del sistema, y que el tamaño de la muestra sea lo suficientemente grande para que las estimaciones de las medidas de ejecución alcancen un buen nivel de precisión. El tamaño de la muestra es algo que está bien definido, pero la representatividad del comportamiento del sistema depende de la naturaleza de las cuestiones que tienen que ser contestadas por el modelo.

Se pueden realizar dos tipos de análisis con un modelo de simulación:

Análisis para sistemas con final definido: la ejecución del modelo finaliza cuando ocurre un evento específico. Se tomaría una muestra por ejecución.

Análisis para sistemas con final no definido (sistemas en estado de equilibrio o estacionario): el interés está en medias de las medidas de comportamiento de ejecuciones largas, después de que el sistema ha pasado por algún periodo de comportamiento transitorio. Las medidas en estado estacionario se pueden definir como el valor de las medidas en el límite, cuando la longitud de la ejecución tiende a infinito.

(17)

16 En ambos casos, las condiciones inicia les (estado del sistema el empezar la ejecución) pueden influir en la estimación de las medidas de comportamiento.

El tamaño de la muestra es importante ya que la precisión de las estimaciones depende de la varianza de la media de la muestra, y la varianza cambia de forma inversamente proporcional al tamaño de la muestra (si se cuadriplica el tamaño de la muestra la desviación estándar se reduce a la mitad). La definición de tamaño de muestra para simulación depende del tipo de análisis que se haya hecho. Para el análisis de un sistema con final definido se podría reproducir el periodo de interés, con las condiciones iniciales apropiadas, un determinado número de veces hasta conseguir la precisión deseada de la estimación. En cada ejecución de obtendrá un elemento de la muestra. Con un análisis en estado estacionario el tamaño de la muestra está estrechamente enlazado con el tamaño de la ejecución del modelo o cantidad de tiempo de simulación.

Implantación de los resultados de la Simulación

Se ha de asegurar que los resultados son aceptados por el usuario.

Este paso final es uno de los más importantes y el que más se descuida de todo el proceso. Parece obvio que los beneficios de un largo y costoso análisis no se realizarán sin una implementación apropiada y una aceptación por parte de los usuarios.

Entre las razones por las que los esfuerzos de implantación son a menudo inútiles, se incluyen las siguientes:

· Existe un vacío de comunicación entre el analista de la simulación y los encargados y usuarios del sistema.

· Falta de entendimientos por parte de los encargados del sistema debido a los tecnicismos utilizados.

· El compromiso de implementación es tardío. · Resistencia al cambio.

(18)

17 · Falta de coincidencia entre el personal disponible y los objetivos marcados por el modelo.

Hay aproximaciones que tratan estos obstáculos potenciales. Estas aproximaciones requieren que los usuarios y los analistas estén implicados desde el comienzo en el proyecto simulación.

3.2 Ejemplo de una simulación tipo Montecarlo en hoja de cálculo

El trabajo presenta a la simulación de Monte Carlo como técnica cuantitativa que hace uso de la estadística y cuáles son los procesos en los ordenadores para imitar, mediante modelos matemáticos, el comportamiento aleatorio de sistemas reales no dinámicos. Concretamente haciendo uso de la planilla de cálculo de Microsoft Excel, se describe cómo es posible obtener un número pseudo-aleatorio -proveniente de una distribución uniforme entre el 0 y el 1- usando la función ALEATORIO. Avanzando en ejemplos mas complejos se construyen modelos de simulación Monte Carlo cuando las variables aleatorias son discretas o continuas.

La simulación de Monte Carlo es una técnica que combina conceptos estadísticos (muestreo aleatorio) con la capacidad que tienen los ordenadores para generar números pseudo-aleatorios y automatizar cálculos.

Los orígenes de esta técnica están ligados al trabajo desarrollado por Stan Ulam y John Von Neumann a finales de los 40 en el laboratorio de Los Alamos, cuando investigaban el movimiento aleatorio de los neutrones [W1]. En años posteriores, la simulación de Monte Carlo se ha venido aplicando a una infinidad de ámbitos como alternativa a los modelos matemáticos exactos o incluso como único medio de estimar soluciones para problemas complejos. Así, en la actualidad es posible encontrar modelos que hacen uso de simulación Monte Carlo en las áreas informática, empresarial, económica, industrial e incluso social [5, 8]. En otras palabras, la simulación de Monte Carlo está presente en todos aquellos ámbitos en los que el comportamiento aleatorio o probabilístico desempeña un papel fundamental

(19)

-18 precisamente, el nombre de Monte Carlo proviene de la famosa ciudad de Mónaco, donde abundan los casinos de juego y donde el azar, la probabilidad y el comportamiento aleatorio conforman todo un estilo de vida.

Son muchos los autores que han apostado por utilizar hojas de cálculo para realizar simulación Monte Carlo [1, 6, 7]. La potencia de las hojas de cálculo reside en su universalidad, en su facilidad de uso, en su capacidad para recalcular valores y, sobre todo, en las posibilidades que ofrece con respecto al análisis de escenarios (“what-if anaylisis”). Las últimas versiones de Excel incorporan, además, un lenguaje de programación propio, el Visual Basic for Applications, con el cual es posible crear auténticas aplicaciones de simulación destinadas al usuario final. En el mercado existen de hecho varios complementos de Excel (Add-Ins) específicamente diseñados para realizar simulación Monte Carlo, siendo los más conocidos: @Risk, Crystall Ball, Insight.xla, SimTools.xla, etc. [W2 – W5].

Conceptos fundamentales

La función ALEATORIO() de Excel

Las hojas de cálculo como Excel (y cualquier lenguaje de programación estándar) son capaces de generar números pseudo-aleatorios provenientes de una distribución uniforme entre el 0 y el 1. Este tipo de números pseudo-aleatorios son los elementos básicos a partir de los cuales se desarrolla cualquier simulación por ordenador. En Excel, es posible obtener un número pseudo-aleatorio -proveniente de una distribución uniforme entre el 0 y el 1- usando la función ALEATORIO:

(20)

19 Los números generados mediante la función ALEATORIO tienen dos propiedades que los hacen equiparables a números completamente aleatorios:

1.Cada vez que se usa la función ALEATORIO, cualquier número real entre 0 y 1 tiene la misma probabilidad de ser generado (de ahí el nombre de distribución uniforme). 2. Los diferentes números generados son estadísticamente independientes unos de otros (es decir, el valor del número generado en un momento dado no depende de los generados con anterioridad).

La función ALEATORIO es una función volátil de Excel. Esto significa que cada vez que pulsamos la tecla F9 o cambiemos alguno de los inputs del modelo, todas las celdas donde aparezca la función ALEATORIO serán recalculadas de forma automática.

Se pueden encontrar ejemplos del uso de ALEATORIO en el propio menú de ayuda de Excel.

¿Qué es la simulación de Monte Carlo?

La simulación de Monte Carlo es una técnica cuantitativa que hace uso de la estadística y los ordenadores para imitar, mediante modelos matemáticos, el comportamiento aleatorio de sistemas reales no dinámicos (por lo general, cuando se trata de sistemas cuyo estado va cambiando con el paso del tiempo, se recurre bien a la simulación de eventos discretos o bien a la simulación de sistemas continuos).

La clave de la simulación Monte Carlo consiste en crear un modelo matemático del sistema, proceso o actividad que se quiere analizar, identificando aquellas variables (inputs del modelo) cuyo comportamiento aleatorio determina el comportamiento global del sistema. Una vez identificados dichos inputs o variables aleatorias, se lleva a cabo un experimento consistente en (1) generar – con ayuda del ordenador-muestras aleatorias (valores concretos) para dichos inputs, y (2) analizar el comportamiento del sistema ante los valores generados. Tras repetir n veces este experimento, dispondremos de n observaciones sobre el comportamiento del sistema, lo cual nos será de utilidad para entender el funcionamiento del mismo –obviamente, nuestro

(21)

20 análisis será tanto más preciso cuanto mayor sea el número n de experimentos que llevemos a cabo.

Veamos un ejemplo sencillo:

En la imagen inferior se muestra un análisis histórico de 200 días sobre el número de consultas diarias realizadas a un sistema de información empresarial (EIS) residente en un servidor central. La tabla incluye el número de consultas diarias (0 a 5) junto con las frecuencias absolutas (número de días que se producen 0, 1, ..., 5 consultas), las frecuencias relativas (10/200 = 0,05, ...), y las frecuencias relativas acumuladas.

Podemos interpretar la frecuencia relativa como la probabilidad de que ocurra el suceso asociado, en este caso, la probabilidad de un determinado número de consultas (así, p.e., la probabilidad de que se den 3 consultas en un día sería de 0,30), por lo que la tabla anterior nos proporciona la distribución de probabilidad asociada a una variable aleatoria discreta (la variable aleatoria es el número de consultas al EIS, que sólo puede tomar valores enteros entre 0 y 5).

Supongamos que queremos conocer el número esperado (o medio) de consultas por día. La respuesta a esta pregunta es fácil si recurrimos a la teoría de la probabilidad: Denotando por X a la variable aleatoria que representa el número diario de consultas al EIS, sabemos que:

(22)

21 Por otra parte, también podemos usar simulación de Monte Carlo para estimar el número esperado de consultas diarias (en este caso se ha podido obtener el valor exacto usando teoría de probabilidad, pero ello no siempre será factible). Veamos cómo:

Cuando se conozca la distribución de probabilidad asociada a una variable aleatoria discreta, será posible usar la columna de frecuencias relativas acumuladas para obtener los llamados intervalos de números aleatorios asociados a cada suceso.

En este caso, los intervalos obtenidos son: • [0,00 , 0,05) para el suceso 0 • [0,05 , 0,15) para el suceso 1 • [0,15 , 0,35) para el suceso 2 • [0,35 , 0,65) para el suceso 3 • [0,65 , 0,85) para el suceso 4 • [0,85 , 1,00) para el suceso 5

El gráfico siguiente nos muestra cada una de las probabilidades sobre el número de consultas. En él, se aprecia claramente la relación existente entre probabilidad de cada suceso y el área que éste ocupa.

Esto significa que, al generar un número pseudo-aleatorio con el ordenador (proveniente de una distribución uniforme entre 0 y 1), estaremos llevando a cabo un experimento cuyo resultado, obtenido de forma aleatoria y según la distribución de

(23)

22 probabilidad anterior, estará asociado a un suceso. Así por ejemplo, si el ordenador nos proporciona el número pseudo-aleatorio 0,2567, podremos suponer que ese día se han producido 2 consultas al EIS.

Asignamos pues la función ALEATORIO a una casilla (la G1 en el caso de la imagen):

Seleccionando la celda y “arrastrando” con el ratón desde el borde inferior derecho de la misma podemos obtener un listado completo de números pseudo-aleatorios:

A continuación, podemos usar la función SI de Excel para asignar un suceso a cada uno de los números pseudo-aleatorios generados (como veremos, otra forma de hacer esta asignación será usando la función BUSCARV):

(24)

23 Finalmente, usando la función PROMEDIO será posible calcular la media de los valores de la columna H:

En este caso, hemos obtenido un valor estimado que corresponde exactamente con el valor real anteriormente calculado vía la definición teórica de la media. Sin embargo, debido a la componente aleatoria intrínseca al modelo, normalmente obtendremos valores “cercanos” al valor real, siendo dichos valores diferentes unos de otros (cada simulación proporcionará sus propios resultados). Se puede comprobar este hecho pulsando repetidamente sobre la función F9 (cada vez que se pulsa dicha tecla, Excel genera nuevos valores aleatorios y, por tanto, nuevos valores para la columna H y la casilla I1). Si en lugar de usar una muestra aleatoria formada por 100 observaciones hubiésemos usado una formada por 10, los valores que obtendríamos al pulsar repetidamente F9 no serían estimaciones tan buenas al valor real. Por el contrario, es de esperar que si hubiésemos usado 1.000 (o mejor aún 10.000) observaciones, los valores que obtendríamos en la casilla I1 estarían todos muy cercanos al valor real.

(25)

24 3.2.1 Descripción y conceptualización de simulación, establecer el problema,

especificación del objetivo (s), definición de indicadores, simulación y determinación de la muestra.

Engloba soluciones para diversas situaciones. Se puede definir como una experimentación con modelos que imitan aspectos que ya ocurrieron para así poder trabajar en condiciones parecidas a las reales, tomando un entorno parecido al real pero acondicionado artificialmente, controlando las variables.

Según Thomas H. Naylor define: Simulación es una técnica numérica, para conducir experimentos en un computador. Estos experimentos comprenden ciertos tipos de relaciones matemáticas y lógicas, los cuales son necesarios para describir el comportamiento y la estructura de sistemas complejos del mundo real a través de largos periodos de tiempos.

Robert E. Shannon dice que la simulación es el proceso de diseñar y desarrollar un modelo computarizado de un sistema o proceso, y conducir experimentos con este modelo, con el propósito de entender el comportamiento del sistema o evaluar varias estrategias con las cuales se puede operar el sistema.

(26)

25 Gordon dice que la simulación de sistemas, como una técnica para resolver problemas a base de seguir cambios a través del tiempo de un modelo dinámico de un sistema. "Simulación es la investigación de una hipótesis o un conjunto de hipótesis de trabajo utilizando modelos" (Betancourt, 2013).

La definición del problema para efectos de simulación difiere un poco de la definición del problema para cualquier otra herramienta de análisis. Básicamente, implica la especificación de objetivos e identificación de las variables relevantes controlables e incontrolables del sistema que se va a estudiar. Un ejemplo es el mercado del pescado. El objetivo del propietario de la pescadería es maximizar la ganancia sobre la venta del pescado. La variable relevante controlable (es decir, bajo el control de quien toma las decisiones) es la regla que rige el pedido, mientras las variables relevantes incontrolables son los niveles de demanda diarios de pescado y la cantidad vendida del mismo. También se podría especificar otro objetivo posible, como maximizar las ganancias por la venta de langosta o maximizar el ingreso de las ventas.

Elaboración de un modelo de simulación

Una característica que distingue a la simulación de las técnicas como la programación lineal o la teoría de colas es el que un modelo de simulación debe elaborarse conforme a las necesidades de cada situación de problema (contrariamente, un modelo de programación lineal se usa en varias situaciones con sólo restablecer los valores de la función objetivo y las restricciones). Sin embargo, existen lenguajes de simulación que facilitan la elaboración del modelo, los cuales se comentarán posteriormente en el capítulo. La naturaleza única de cada modelo de simulación significa que los procedimientos analizados en adelante para la elaboración y ejecución de un modelo representan una síntesis de varios enfoques para la simulación y que son lineamientos en vez de las reglas rígidas.

Especificación de las variables y parámetros El primer paso en la elaboración de un modelo de simulación es determinar las propiedades del sistema real que deben ser

(27)

26 fijas (denominadas parámetros) y a cuáles se les debe permitir que varíen durante la ejecución de la simulación (llamadas variables). En la pescadería, las variables son la cantidad de pescado pedido, la demandada y el volumen de ventas; los parámetros son el costo y el precio de venta del pescado. En la mayoría de las simulaciones, el enfoque está en la condición de las variables en diferentes puntos de tiempo, como los kilos de pescado demandado y vendidos al día.

Especificación de las reglas de decisión Las reglas de decisión (o reglas operativas) son conjuntos de condiciones bajo los que se observa el comportamiento del modelo de simulación. Estas reglas son el enfoque directo o indirecto de casi todos los estudios de simulación. En muchas simulaciones, las reglas de decisión son prioritarias (por ejemplo, a qué cliente atender primero, qué trabajo procesar primero). En ciertas situaciones pueden estar involucradas si se toma en cuenta la cantidad grande de variables en el sistema. Por ejemplo, se podría establecer una regla de pedidos de inventario de tal modo que la cantidad a pedir dependiera de la cantidad en inventario, la cantidad anteriormente pedida mas no recibida, la cantidad de pedidos acumulados atrasados y las existencias de seguridad deseadas.

Especificación de las distribuciones de probabilidad Se pueden usar dos categorías de distribución para la simulación: las distribuciones empíricas de frecuencia y las distribuciones estándar matemáticas. Una distribución empírica se deriva de observar las frecuencias relativas de cierto evento, como la llegada en una línea o la demanda de un producto. Es decir que se trata de una distribución de demanda elaborada según las necesidades que sólo es relevante para una situación en particular. Podría verse como la presentada a la izquierda en la ilustración 19A.2. Dichas distribuciones se determinan por observación directa o análisis detallado de registros (su uso se mostrará en el ejemplo de simulación de líneas de espera). Pero, por ejemplo, muchas veces se puede suponer de manera razonable que la demanda está muy vinculada con una distribución estándar matemática, como la normal o Poisson. Lo anterior simplifica en gran medida la recopilación y captura de datos.

Especificación del procedimiento para incrementar el tiempo En un modelo de simulación, el tiempo se puede avanzar con uno de dos métodos: 1) incrementos fijos o

(28)

27 2) incrementos variables. En ambos métodos de incrementos de tiempo es importante el concepto de un reloj simulado. En el método de incremento de tiempo fijo, se especifican los incrementos uniformes de tiempo del reloj (como minutos, horas o días) y la simulación continúa por intervalos fijos de un periodo al siguiente. En cada punto de tiempo de reloj, se rastrea el sistema para determinar si ocurría algún evento. De ser así, se simulan los eventos y avanza el tiempo; de lo contrario, el tiempo de todas maneras avanza una unidad. En el método de incremento de tiempo variable, el tiempo del reloj avanza por la cantidad requerida para iniciar el siguiente evento. ¿Cuál es el método más conveniente? La experiencia indica que es más recomendable el incremento de tiempo fijo cuando los eventos de interés ocurren con regularidad o la cantidad de eventos es grande y normalmente ocurren varios en el mismo periodo. Por lo general se prefiere el método de incremento de tiempo variable, que requiere menos tiempo de ejecución de cómputo, cuando se presentan relativamente pocos eventos en una cantidad considerable de tiempo. Ignora los intervalos de tiempo cuando no sucede nada y avanza de inmediato al siguiente punto cuando se presenta algún evento.

Como especificar valores de variables y parámetros

Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones.

Determinación de condiciones iniciales La determinación de condiciones iniciales para las variables es una decisión táctica importante en la simulación. Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el modelo llega a un estado estable. Para manejar este problema, los analistas han seguido varios planteamientos como 1) descartar los datos generados durante las primeras partes de la ejecución, 2) seleccionar las condiciones iniciales que reducen la duración del periodo de calentamiento o 3) seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de salida esperado. Por lo tanto, en cierto sentido,

(29)

28 el analista sesga los resultados. Por otro lado, una de las únicas características de la simulación es que permite la crítica en el diseño y análisis de la simulación; por lo que si el analista tiene cierta información que alberga un problema, se debe incluir.

Determinación de duración de la ejecución La duración de la ejecución de simulación (duración de la ejecución o tiempo de ejecución) depende del propósito de la simulación. Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes, 1 año o una década y ver si las condiciones al final del periodo son razonables. Un tercer planteamiento es establecer la duración de la ejecución de modo que se obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente sección.

Evaluación de resultados

Desde luego que las conclusiones que se pueden obtener de una simulación dependen del grado en que el modelo refleja el sistema real, aunque también depende del diseño de la simulación en un sentido estadístico. De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles al análisis formal a través de los métodos estadísticos inferenciales. Los procedimientos estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el análisis de varianza, análisis de regresión y pruebas t. En la mayoría de las situaciones, el análisis tiene más información disponible con la cual comparar los resultados de simulación: datos operativos antiguos del sistema real, datos operativos del desempeño de sistemas semejantes y la percepción del analista de la operación del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por lo tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real después de haber implantado los resultados del estudio.

(30)

29

Determinación de la muestra

La determinación del tamaño muestral en una investigación es de vital importancia, tanto para caracterizar la distribución de la variable, como para fijar el grado de precisión del cuando se efectúa un estudio de carácter cuantitativo (limitado al uso de un muestreo aleatorio simple, unietápico y fijo), en el cual se utilizan métodos estadísticos inferenciales como medios para el análisis, como ser la estimación estadística, las pruebas de hipótesis y el análisis de experimentos, que requieren de información precisa sobre las variables consideradas, y que es obtenida a partir de la muestra representativa de la respectiva población.

El artículo presenta varias ecuaciones para la determinación del tamaño muestral, agrupadas en 6 figuras, usando la ayuda didáctica de los árboles de decisión, que facilitan su elección. Con el fin de ejemplificar la manera de utilizar los árboles de decisión para la elección de la ecuación adecuada en el cálculo del tamaño muestral, se muestra un ejemplo de investigación, que es desarrollado completamente, desde la concepción del problema hasta las conclusiones finales. Por otro lado, se exponen algunas bases teóricas y empíricas que ayuden a utilizar de la mejor manera posible las distintas ecuaciones que permiten el cálculo del tamaño muestral.

3.2.2 Caracterización de cada indicador, agrupamiento de datos, gráficas y estimación de parámetros.

Caracterización de cada indicador

Los modelos de simulación constituyen una herramienta fundamental para entender la complejidad que caracteriza los sistemas ecológicos y ambientales. Esto se debe a que son la única herramienta disponible para traducir una colección de hipótesis acerca de procesos ecológicos en una representación de cómo el ecosistema funciona en su totalidad. Estos permiten realizar análisis de impactos tecnológicos, económicos y

(31)

30 ambientales, la evaluación de estrategias productivas y los pronósticos del rendimiento de los cultivos. Su empleo se enfoca generalmente a comprender mejor los problemas y anticipar la realidad que se investiga. Un buen modelo es capaz de revelar interacciones entre los diferentes componentes que no eran evidentes al estudiar cada uno de los procesos separadamente y permitirá ensayar experimentos que no se podrían realizar en el sistema real. En este trabajo se abordan las características y utilización de los modelos de simulación, algunas de las principales clasificaciones y ejemplos de trabajos realizados en Cuba con estos modelos, así como las peculiaridades del modelo DSSAT (sistema de apoyo para las decisiones de transferencia agrotecnológica). Por tanto, esta revisión pretende dar a conocer las características e importancia de los modelos de simulación de cultivos, como herramienta principal en los procesos de toma de decisiones, para poder lograr posteriores aplicaciones como primera aproximación de la capacidad productiva en distintas condiciones edafoclimáticas de Cuba, así como también lograr la investigación de ciertos procesos en plantas, que necesitarán una mejor interpretación en su interacción frente a otros factores productivos, de insumos y ambientales.

De acuerdo con la cantidad de datos y el conocimiento que está disponible dentro de un campo particular, se desarrollan modelos con diferentes niveles de complejidad. La clasificación de los modelos ha sido intentada anteriormente, pero no se pueden hacer delimitaciones definidas, ya que los modelos generalmente poseen características de más de un grupo .

Los modelos de simulación se clasifican en dos grandes grupos: empíricos y mecanicistas. Los primeros son descriptivos, se derivan de datos observados sin involucrar procesos fisiológicos y tienen escasa capacidad explicativa. Por el contrario, los modelos mecanicistas poseen capacidad explicativa de la fisiología del cultivo, porque consideran aspectos como la temperatura, la radiación fotosínteticamente activa, el índice de área foliar, la fotosíntesis, la respiración y la eficiencia en el uso de la radiación . No obstante, dentro de estas clasificaciones existen otras categorías, que de acuerdo a sus características han sido nombradas de diferente forma.

(32)

31 Los modelos que estudian las relaciones biológicas para describir el comportamiento de un sistema se les denominan modelos mecanísticos, a diferencia de los modelos empíricos que describen las relaciones matemáticas entre los datos .

Modelos empíricos o descriptivos: Estos modelos describen, de un modo simplificado, el comportamiento de un cultivo.

El desarrollo de un modelo empírico se basa en la individualización, a partir de datos experimentales, de una o más ecuaciones matemáticas, para la representación del proceso examinado.

Las principales carencias de este tipo de aproximación son las de investigar: en la limitada validez en ambientes diversos a los originales

en el empleo de las ecuaciones que a menudo no tienen un significado biológico.

Los modelos empíricos son descripciones directas de los datos observados y se expresan generalmente como ecuaciones de regresión (con uno o varios factores) y se utilizan para estimar la producción final. Ejemplos de tales modelos incluyen la respuesta de la producción a la aplicación de fertilizantes, la relación entre el área de la hoja y la cantidad de hojas de una planta dada, la relación entre la altura del tallo y el número de tallos, su diámetro y la producción final de caña de azúcar.

Modelos mecanísticos. Estos modelos son aquellos que describen el comportamiento del sistema en términos de propiedades de bajo nivel. Por tanto, existe comprensión o explicación en los niveles inferiores. Estos modelos tienen la habilidad de imitar importantes procesos físicos, químicos o biológicos, y describir cómo y porqué resulta una respuesta particular. El analista comienza usualmente con algún empirismo y en la medida que se gana en conocimiento se introducen variables y parámetros adicionales para explicar la producción de la cosecha. Así, el analista adopta un enfoque reduccionista. La mayoría de los modelos de crecimiento de cultivos caen dentro de esta categoría.

Modelos estáticos y dinámicos. Los modelos estáticos representan relaciones entre las variables que no se modifican en el tiempo y, por tanto, se conoce su valor final y no su

(33)

32 evolución en el tiempo (ejemplo simulación de la intercepción solar, fotosíntesis). Los modelos dinámicos describen el modo en el cual el sistema cambia en el tiempo y, por lo tanto, es posible seguir la evolución temporal de cada una de las variables del sistema (ejemplo: balance de nitrógeno e hídrico en el suelo).

Modelos determinísticos y estocásticos. Los modelos determinísticos atribuyen un solo valor a cada variable del sistema. Hacen predicciones para cantidades (por ejemplo, producción de la cosecha) sin ninguna distribución probabilística asociada, varianza o elemento aleatorio. En los sistemas biológicos y agrícolas son normales las variaciones, debido a imprecisiones en los datos recogidos y a heterogeneidad del material con que se ha trabajado. En algunos casos, los modelos determinísticos pueden ser adecuados a pesar de estas variaciones inherentes, pero en otros pueden resultar insatisfactorios, por ejemplo, en la predicción de lluvia. Cuanto mayor sea la incertidumbre del sistema, más inadecuados se vuelven los modelos determinísticos. Los modelos estocásticos señalan, en cambio, para una variable una distribución de valores.

Cuando la variación y la incertidumbre alcanzan un nivel alto, se hace recomendable desarrollar un modelo estocástico que dé un valor medio esperado con una varianza asociada. Sin embargo, los modelos estocásticos tienden a ser difíciles de manipular y rápidamente se vuelven muy complejos. Por consiguiente, es recomendable intentar resolver el problema inicialmente con un enfoque determinístico y utilizar el enfoque estocástico solo si los resultados no son adecuados o satisfactorios.

Trabajos realizados en Cuba con la aplicación de modelos empíricos

Desde la década de los 80 los modelos empíricos han sido ampliamente usados por muchos investigadores cubanos, con el fin de describir el crecimiento de disímiles cultivares, entre estos trabajos podemos mencionar algunos de los desarrollados en el INCA (Instituto Nacional de Ciencias Agrícolas), donde se realizó una comparación entre diferentes funciones matemáticas para describir el crecimiento de algunos órganos en posturas de café crecidas en vivero; además, se plantea que desde este tiempo se ha venido trabajando en Cuba en la aplicación de diferentes funciones matemáticas para describir el crecimiento de diferentes cultivos, como papa, cítricos,

(34)

33 tomate y café; esto permite estimar el valor de la variable en cuestión en cualquier momento, dentro del rango en que se realizó el estudio.

Se determinó, también, el crecimiento de plántulas de cafeto en diferentes condiciones de aviveramiento, con el objetivo de conocer la influencia del uso o no de la sombra durante el período de aviveramiento, la altura sobre el nivel del mar y dos fechas de siembra, en la dinámica de crecimiento de plántulas, así como en la extensión del período de aviveramiento (Figura 1); los datos fueron ajustados a una función exponencial polinómica de segundo grado (y =eb0 +b1x+b2x2), obteniéndose valores de R2 entre 0.96 y 0.98, y se establecieron dinámicas para cada una de las variables evaluadas.

Trabajos realizados en Cuba con la aplicación de modelos determinísticos

Durante tres décadas se han aplicado estos modelos, en lo fundamental, en países de clima templado. Por los beneficios que aportan, especialistas de la Universidad Agraria de La Habana, del Instituto Nacional de Riego y Drenaje, y el de Investigaciones de la Caña de Azúcar, elaboraron los primeros trabajos para utilizar en nuestras condiciones geográficas cinco de los modelos agrohidrológicos de alcance internacional.

Por primera vez en el país, se ofrecen los parámetros que describen las propiedades hidráulicas para los principales grupos de suelos cubanos. Esta investigación le confiere validez al modelo Swcrop para ser utilizado en el cultivo de la papa en condiciones tropicales; antes solo se empleaba en clima templado.

También se obtiene una versión del modelo Swap para la caña de azúcar. Este predice los daños que puedan originarse por cambios climáticos, características del suelo y fecha apropiada para la siembra. Una Unidad Básica de Producción Cooperativa del central Héctor Molina en La Habana, lo puso en práctica e informaciones preliminares anticipan un saldo productivo y económico alentador.

La importancia de este trabajo es facilitar herramientas que sean útiles para lograr una correcta estrategia agrícola y aprovechar al máximo el agua disponible, en tiempos de prolongada sequía como los actuales.

(35)

34 En el Instituto de Investigaciones de Riego y Drenaje se ha trabajado durante varios años en la evaluación y validación de diferentes modelos de simulación de transferencias hídricas, fundamentalmente para las condiciones edafoclimáticas de la región del sur de La Habana .

Investigadores del Instituto Nacional de Riego y Drenaje de Cuba realizaron el trabajo titulado “Posibilidades de los modelos de simulación como herramienta eficaz en los estudios del manejo óptimo del agua y la fertilización en diferentes sistemas de cultivos agrícolas”, con el objetivo de resumir y discutir las principales características de los modelos de simulación (STIC y MACRO) disponibles para la investigación en el Instituto de Riego y Drenaje de Cuba, y sus posibilidades para la predicción del comportamiento de los cultivos agrícolas ante diferentes manejos de agua, fertilización y ambientes climáticos.

De igual forma, se desarrolló el trabajo titulado Coeficientes de cultivo de la cebolla y su determinación con el modelo ISAREG, con el objetivo de explorar a partir de datos históricos los resultados de dos décadas de experimentos de campo de cebolla cultivada en la Estación Experimental de Riego y Drenaje, para la calibración y validación del modelo ISAREG, con el fin de obtener los coeficientes de cultivo (Kc) y la fracción de agotamiento (p) adecuada para este cultivo.

Los modelos de simulación respecto a cultivos agrícolas son una categoría de modelos ambientales que, típicamente, predicen el rendimiento de los cultivos, el crecimiento y desarrollo de las plantas, y la dinámica de la humedad y otros nutrientes.

Un modelo de cultivo es la simulación dinámica del crecimiento por el uso de la integración numérica de los procesos constituyentes con la ayuda de las computadoras. Más específicamente, esto implica un programa de computación que describe la dinámica del crecimiento del cultivo en relación con el ambiente, operando en pasos de tiempo y un orden de magnitud por debajo de la estación del crecimiento, y con la capacidad de obtener variables que describen el estado del cultivo en diferentes puntos del tiempo; por ejemplo, la biomasa por unidad de área, el estadio de desarrollo, el rendimiento, el contenido de nitrógeno de las hojas, etc.

(36)

35 Si definimos a los modelos de cultivos como la representación matemática de una síntesis de mecanismos y procesos, es erróneo pensar que podamos representar perfectamente los sistemas biológicos y, por lo tanto, la modelización está orientada generalmente a ver la respuesta a aspectos precisos como: predicción de la producción, potencialidad de cultivares, manejo de la irrigación, entre otros.

Los modelos de simulación agronómica son herramientas que integran información, y permiten analizar y cuantificar las relaciones existentes entre los factores mencionados y sus efectos como componentes del sistema, para evaluar diferentes planteos productivos o analizar un factor manteniendo los otros constantes; por ejemplo, la variación del rendimiento por efecto del clima sin modificar el manejo, el genotipo y el suelo. Numerosos modelos han sido desarrollados por diferentes grupos de trabajo y cada uno de ellos tiene fortalezas y debilidades para predecir las variables de respuesta. Es por ello necesario validar los modelos en los ambientes en donde se utilizarán.

No obstante la capacidad relativa de los modelos existentes y la credibilidad de sus resultados es todavía un aspecto importante a valorar. Esto está asociado primeramente a la no disponibilidad de datos apropiados para la validación del modelo y, por otra, a la inadecuación en las representaciones de los procesos e interacciones del sistema agua-suelo-planta-atmósfera. Es por tanto muy importante antes de adoptar uno u otro modelo para aplicaciones agrícolas y medioambientales que se realice un trabajo de evaluación y validación exhaustivo de estos.

Modelo DSSAT (Sistema de Apoyo de Decisiones para la Transferencia de la Agrotecnología). Desde 1983, un grupo internacional de científicos cooperantes han desarrollado modelos de simulación de cultivos, enfocados a proporcionar estimaciones realistas del comportamiento de los cultivos bajo diferentes estrategias de manejo y condiciones ambientales. Estos modelos se han combinado en un paquete, como parte de un programa de enlaces (software shell) conocido como Sistema de Apoyo para Decisiones de Transferencia de Agrotecnología (DSSAT, por sus siglas en inglés). Los modelos de simulación de cultivos del DSSAT utilizan archivos de datos para clima, suelo y manejo del cultivo. Estos archivos se utilizan para proveer en la simulación un

(37)

36 ambiente parecido a donde crece el cultivo. El DSSAT, además, incluye varios programas de aplicación para análisis estacionales, rotación de cultivo y análisis secuencial, y análisis espacial a escala de campo o regional. Los modelos proveen una de las mejores aproximaciones del comportamiento de los cultivos, integrando nuestro entendimiento de los procesos complejos de las plantas influenciados por el clima, el suelo y las condiciones de manejo.

El modelo DSSAT ha sido usado por investigadores de todo el mundo en los últimos 15 años; este paquete tiene incorporado 16 modelos de cultivos diferentes, con un software que facilita la evaluación y aplicación de estos modelos de cultivos para diferentes propósitos. Estos permiten simular el crecimiento de cultivos de importancia económica y han demostrado alta confiabilidad en distintas condiciones de clima, suelo y manejo. Con este modelo es posible organizar y archivar bases de datos sobre clima, suelos, cultivos, experimentos y precios; simular producciones de cultivo en una o varias épocas y en secuencias; analizar resultados y representar gráficamente simulaciones; analizar variabilidad espacial y evaluar diferentes prácticas de manejo específicas a una explotación o parte de ella.

El DSSAT ha tenido los siguientes impactos:

ha sido adoptado por más de 1500 investigadores en 91 países

utilizado en más de ocho proyectos nacionales e internacionales sobre el cambio climático

cientos de aplicaciones desarrolladas independientemente de los creadores originales validó el enfoque de sistemas para la transferencia tecnológica

dio lugar a la formación de ICASA.

El DSSAT de la Red de Sitios Indicadores Internacionales para la Transferencia de la Agrotecnología (IBSNAT) incluye un sistema de manejo de base de datos, modelos de simulación de cultivos y programas de aplicación. Hoy en día, los modelos de simulación forman parte del Consorcio para la Aplicación de Sistemas Agrícolas ICASA (International Consortium for Agricultural System Application).

(38)

37

Agrupamiento de datos

Cuando tiene un conjunto de datos muy grande en un análisis de Exploración visual de datos, los datos serán más fáciles de manejar si los agrupa en subconjuntos lógicos y consulta solo un subconjunto cada vez. Por ejemplo, una cuadrícula en el análisis refleja los sueldos de los empleados por Región, Director y Empleado. Puede poner Región en el área de paginación y ver los datos sobre los sueldos de los empleados por Director y Empleado, a razón de una región cada vez. Todos los datos de la cuadrícula seguirán estando presentes, si bien estarán agrupados en secciones más pequeñas y manejables.

Una vez que haya agregado un atributo al área Paginación según, puede hacer clic en un elemento de atributo para utilizarlo para agrupar datos o desplazar el cursor encima de un elemento de atributo en el área Paginación según para mostrar rápidamente los datos tal como se mostrarían si se hubiese seleccionado el elemento.

Cuando se filtran los datos de grupo en un análisis, se aplican los agrupamientos a todas las visualizaciones de la ficha de diseño actual. Cada diseño en un análisis se agrupa por separado, sin afectar el contenido de los otros diseños del análisis.

Los siguientes pasos indican cómo agrupar y desagrupar datos y cómo crear una animación de los datos agrupados.

Para agrupar o desagrupar datos en un análisis

Realice una de las siguientes acciones:

Para agrupar datos por un atributo, realice los siguientes pasos:

Desde el panel Objetos de conjunto de datos, arrastre y suelte el atributo que desea utilizar para agrupar datos en Área de paginación. Los elementos del atributo se muestran automáticamente en el área de paginación.

Referencias

Documento similar

La respuesta de los sistemas estables ante la entrada escalón unitario tiende en más o menos tiempo y con más o menos oscilaciones hacia un valor constante, K, denominado

c) El valor de la constante cinetica no se modifica si se duplica la concentracion de A. 10.- Para una determinada reacción: A→Productos, se han obtenido los datos de la tabla. 12.-

El siguiente paso es encontrar el desplazamiento de la partícula cuya velocidad inicial en el tiempo t= 0 es v 0 y que se mueve con aceleración constante... Esto es, la suma de

0,408 → constante dimensional para las unidades consideradas Calcular el valor de la constante dimensional para poder emplear dicha ecuación en el sistema internacional..