• No se han encontrado resultados

4. ANÁLISIS DE PROBLEMAS Y TOMA DE DECISIONES

N/A
N/A
Protected

Academic year: 2021

Share "4. ANÁLISIS DE PROBLEMAS Y TOMA DE DECISIONES"

Copied!
6
0
0

Texto completo

(1)

4.

ANÁLISIS DE PROBLEMAS Y TOMA DE DECISIONES

1. INTRODUCCIÓN

 En el transcurso de la historia, el hombre ha tomado las decisiones basándose en la experiencia, en la intuición, en el sentido común, y en la repetición de de fórmulas exitosas en el pasado.

 Hoy en día, para esas decisiones, además, es necesario el empleo de un método científico basado en instrumentos objetivos de investigación y medida.

2. LA MODELIZACIÓN

 Un modelo es una representación simplificada de una parte de la realidad.

 El principal objetivo de un modelo es permitir una mejor comprensión y descripción de la parte de la realidad que representa. Esa mejor comprensión de la realidad permite tomar mejores decisiones.

 Los modelos se pueden clasificar atendiendo a multitud de criterios: 1. Objetivos Vs Subjetivos.

2. Analíticos Vs De Simulación:

o Los modelos analíticos han de ser resueltos (sirven para obtener soluciones).

o Entre los modelos analíticos, se encuentran los modelos de optimización, que son aquellos que permiten determinar los valores que ha de darse a las variables de modo que se maximice o minimice otra variable que se tiene como objetivo (solución optima y prescriptiva).

o Los modelos de simulación son representaciones simplificadas de la realidad sobre las que se opera para estudiar los efectos de las distintas alternativas de actuación, seleccionando la más conveniente (solución descriptiva).

3. Estáticos Vs Dinámicos:

o Los modelos estáticos no utilizan la variable tiempo, al contrario que los dinámicos. 4. Deterministas Vs Probabilísticos:

o En los modelos deterministas se suponen conocidos con certeza todos los datos de la realidad que representan. o Si uno o varios datos se conocen sólo en términos de probabilidad, el modelo se denomina probabilístico,

aleatorio o estocástico. 3. AMBIENTES DE DECISIÓN

 Es más sencillo tomar decisiones cuanto mayor es la información de la que se dispone.

 Los estados de la naturaleza, son los sucesos de los que depende la decisión y en los que no puede influir apenas el decisor.  El nivel de información determina el tipo de ambiente de la decisión. Distinguiendo así los siguientes ambientes de decisión:

o Certeza, es aquél en el que el decisor conoce con absoluta seguridad los estados de la naturaleza que van a presentarse. o Riesgo, es aquél en el que el decisor no sabe los estados de la naturaleza, pero si conoce cuales pueden presentarse y la

probabilidad de cada uno de ellos. o Incertidumbre:

 Estructurada, es aquél en el que se conocen los estados de la naturaleza, pero no la probabilidad de cada uno de ellos.

 No estructurada, es aquél en el que ni si quiera se conocen los posibles estados de la naturaleza.

 Para ir escalando ambientes es necesario obtener cierto grado de información, a ese proceso de consecución de información, se le denomina proceso de aprendizaje.

4. CRITERIOS DE DECISIÓN DE AMBIENTE DE INCERTIDUMBRE

 En un entorno de tanta escasez de información como es el de la incertidumbre, ha de intervenir en gran medida la subjetividad.  Los principales criterios de decisión en un entorno de incertidumbre estructurada son:

1. Criterio de Laplace, racionalista o de igual verosimilitud:

o Parte del postulado de Bayes, según el cual, sin no se conocen las probabilidades asociadas a cada uno de los estado de la naturaleza, no hay razón para pensar que uno tenga más probabilidades que otros. Por ello, se

(2)

2 Longinos Recuero Bustos http://longinox.blogspot.com calcula la media aritmética de los resultados que se puedan derivar de cada una de las decisiones y se elige aquella a la que corresponda el resultado medio más favorable.

2. Criterio optimista

o Es el criterio que seguiría una persona que pensara que, cualquiera que fuera la estrategia que eligiera, el estado que se presentaría sería el más favorable para ella.

o Cuando los resultados son:

 Favorables, se determina cual es el resultado más elevado y se elige aquella que le corresponda el máximo de los máximos (criterio del maxi-max).

 Desfavorables, se determina cual es el resultado más elevado que puede obtenerse con cada estrategia (el menor) y se elige en mínimo de los mínimos (criterio mini-min).

Estado 1 Estado 2 Estado 3

Decisión 1 60 50 40

Decisión 2 10 (mini-min) 40 70 (maxi-max)

3. Criterio pesimista, o criterio de Wald 4. Criterio de optimismo parcial de Hurwicz:

o Constituye un compromiso entre los criterios optimista y pesimista, mediante la introducción de un coeficiente de optimismo, , comprendido entre 0 (criterio pesimista), 1 (criterio optimista) y de su complemento a la unidad ), denominado coeficiente de pesimismo.

o El mejor de los resultados de cada estrategia se pondera con el coeficiente de optimismo, en tanto que el peor de los resultados se pondera con el de pesimismo.

5. Criterio del mínimo pesar, de Savage:

o Este criterio es el que siguen quienes tienen aversión a equivocarse. o Ha de partirse de la elaboración de una matriz de pesares.

 Se dice que una estrategia, A, está dominada por otra estrategia, B, si cualquiera que sea el estado de la naturaleza que se presente, B, es igual o mejor que A.

 En ocasiones existen estrategias dominadas y hay que prescindir de ellas para la aplicación de los diversos criterios de decisión. 5. LA TEORÍA DE LOS JUEGOS DE ESTRATEGIA

 En muchas ocasiones, el resultado obtenido no sólo depende de la alternativa seleccionada por nuestro decisor, sino también de las decisiones tomadas por otros u otros sujetos.

 Las principales clasificaciones, según los criterios, de los juegos de estrategia son, según: 1. El número de participantes.

2. La ganancia total obtenida por el conjunto de todos los participantes:

 Suma nula (suma rectangular, tiene gran importancia por construir la base de toda la teoría de los juegos) o no nula.  Suma constante o variable.

3. El número de jugadas.

4. La información de la que disponen los participantes:  Completa.

 Incompleta.

5. Elementos que intervengan en las decisiones:  Estrategia pura.

 Estrategia mixta.

 En general, para obtener una solución de un juego rectangular tendremos que hallar las mejores estrategias de los dos jugadores y el valor del juego (cantidad que un jugador gana y que el otro pierde).

 Los juegos en los que, el maxi-min del ganador, coincide con el mini-max del perdedor, se denominan juegos con punto de silla.  La técnica más sencilla para encontrar un punto de silla es determinar un número que sea el menor de su fila y el mayor de su

(3)

6. PROBABILIDAD Y RIESGO

 Existen dos concepciones sobre la probabilidad: o La definición clásica, o de Laplace:

 Si en un total de casos posibles, todos igualmente factibles, un suceso puede presentarse en de los casos favorables, la probabilidad de ocurrencia de ese suceso, , es:

o La concepción frecuencial u objetivista de la probabilidad.

 Aplicando esta concepción como probabilidad estimada, o empírica, se tomaría las frecuencias relativas de la aparición del suceso, considerando que el número de observaciones del experimento es suficientemente grande.  La probabilidad, en sí, es el límite de la frecuencia relativa cuando el número de observaciones crece

indefinidamente.

 Sean y dos sucesos. Se denomina suceso compuesto de y al consistente en que acontezcan y , y se le designa .  La probabilidad del suceso compuesto es igual a (teorema del suceso compuesto):

Donde es la probabilidad de condicionada a , es decir la probabilidad que tendría si hubiera ocurrido Del mismo modo, es la probabilidad de condicionada a .

 Si y son sucesos independientes:

 Cuando dos sucesos no se pueden presentar conjuntamente, se dice que son mutuamente excluyentes (obtener cara y cruz en un lanzamiento, etc).

Es decir:

Por lo tanto:

 Se dice que una variable es aleatoria cuando no se sabe con certeza el valor que tomará, sino sólo que valores puede tomar y que probabilidades tiene cada uno de ellos.

 Al conjunto y probabilidades de esos valores se les denomina distribución de probabilidad de la variable aleatoria.  Esa distribución se puede representar gráficamente, mediante un histograma.

 Existen algunos parámetros relativos a las variables aleatorias que es importante conocer: o Esperanza matemática o valor esperado o media:

 Es la media aritmética ponderada de los valores que puede tomar la variable aleatoria, utilizándose, como coeficiente la ponderación de cada valor , su probabilidad .

 Es un valor de referencia que señala donde se encuentra centrada la distribución de probabilidad.

o Varianza:

 Es una medida de la dispersión de la variable aleatoria, definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media.

 Dispersión significa riesgo, en el caso de certeza la dispersión vale 0 y va creciendo a medida que el riesgo va siendo superior.

(4)

4 Longinos Recuero Bustos http://longinox.blogspot.com

o Desviación típica:

 Definida como la raíz cuadrada positiva de la varianza.

o Coeficiente de variación:

 Definido como la relación entre la desviación típica y su valor esperado de una variable aleatoria.

 Permite comparar las dispersiones de dos distribuciones distintas, siempre que sus medias sean positivas.

7. ANÁLISIS BAYESIANO

 Sean , un conjunto de sucesos disjuntos, y sea un suceso que puede producirse si acaece , o acaece ,…, o si acaece :

Como se observa en la figura:

Por tanto:

Por otra parte, como se recordará, por el teorema del suceso compuesto:

Despejando, en esta última igualdad, , obtenemos el teorema de Bayes:

8. LA DETERMINACÓN DEL GRADO DE CONFIANZA

 Existen variables que pueden tomar ciertos valores (discretos) y otras que pueden tomar un número finito de valores, que se denominan variables continuas.

 Uno de los tipos de variables continuas más importantes es el integrado por las denominadas variables normales, a cuyas distribuciones de probabilidad se les denomina también distribuciones

normales.

 Esta distribución presenta una serie de características:

o Son simétricas y con forma acampanada (campana de Gauss). o El área correspondiente a cada valor de la variable es

(5)

o La probabilidad de que la variable tome un valor comprendido en un cierto intervalo finito es igual al área existente bajo la campana en ese intervalo. El área total de la campana es 1.

o La esperanza matemática de la variable habrá de encontrarse en el centro de la distribución, por lo tanto el tanto el área situado a la izquierda, como a la derecha, han de valer 0,5.

o Se representa perfectamente conociendo su esperanza (centro de la distribución) y su varianza o desviación típica (su dispersión o anchura).

Es decir, la variable sigue una distribución normal con una esperanza matemática igual a y una desviación típica igual a .

 El teorema fundamental del límite, señala que, si una variable está formada por la suma de un infinito (o suficientemente grande) número de variables independientes entre sí, cada una de las cuales tiene una distribución de media y varianzas finitas, esa variable-suma seguirá una distribución normal.

Por lo tanto:

Si además estas variables son independientes entre sí, tendremos que:

 Existe una distribución normal estandarizada o tipificada, que es aquella cuya esperanza matemática vale 0 y cuya desviación típica es igual a 1 (distribución normal cero-uno).

 Tipificación de la variable ( sigue una distribución normal):

 Con la tipificación de una variable, es posible calcular cualquier probabilidad relativa de la misma.

 Para determinar el nivel de confianza que puede tenerse en que una variable aleatoria tomará un valor comprendido entre ciertos valores, se supone que es aplicable el teorema central del límite.

9. LA TEORÍA DE LA INFORMACIÓN

 La información proporcionada por la materialización de un suceso depende de la probabilidad de su acaecimiento; proporciona tanta más información cuanto mayor sea la sorpresa que produce, es decir, cuanto menor fuera la probabilidad de su acaecimiento.  Si denominamos a como la información proporcionada por la realización de un suceso con probabilidad ( ), podemos decir

que tal información es función de

 Para determinar esa función hay que tener en cuenta que: o Debe ser decreciente con .

o Tiende a infinito si tiende a 0 (suceso imposible). o Tiende a 0 si tiende a infinito (suceso seguro).

o Debe ser monótona y continua (a cada uno de los infinitos valores de le corresponde una y solo una, medida de información).

o La información proporcionada por la ocurrencia conjunta de dos o más sucesos independientes entre sí, debe ser igual a la suma de las informaciones que nos proporcionan por separado.

 En teoría de la información, como medida de la cantidad de información asociada a un suceso, , se utiliza el logaritmo del recíproco de su probabilidad, :

Si el logaritmo es:

o Neperiano, la información viene dada en nits. o Decimal, la información viene dada en hartley. o Binario, la información viene dada en bits.

(6)

6 Longinos Recuero Bustos http://longinox.blogspot.com  Si se consideran un conjunto, o sistema de sucesos complementarios y mutuamente excluyentes, , a los que le

corresponden unas probabilidades respectivas (donde ), a cada uno de los le corresponderá:

Por lo tanto, la esperanza matemática del tamaño de la información (información esperada) será:

 mide la incertidumbre que afecta al sistema antes de saberse cual de los sucesos va a producirse.

 A se le denomina entropía o desorden del sistema, y es siempre no negativa, alcanzando su: o Mínimo, cuando (sólo uno de los sucesos es posible).

o Máximo, cuando (todos los sucesos son equiprobables). o Nula, cuando no existe incertidumbre alguna.

 A la entropía también se define como la esperanza matemática del valor de la información.

 La ocurrencia de un suceso, comunicación o noticia, denominado mensaje, que haciendo variar la probabilidad de a y variando además la incertidumbre existente en relación con tal suceso, viene dado por:

Por tanto, la expresión anterior se define como el contenido informativo del mensaje, o lo que es lo mismo, la ganancia de información derivada del mismo.

 Si en lugar de tratarse de un único suceso, se tratase de un conjunto o sistema de sucesos, el contenido informativo del mensaje o información de canal o valor esperado de la información del mensaje, se definiría como:

Denominando a como información de canal.

Referencias

Documento similar

Período de realización (indicar meses ou períodos posibles de realización e xornada laboral: tempo completo ou parcial).. Do 01 de abril ao 30 de setembro en horario de

Pero cuando vio a Mar sacar el fuego de bajo su ala, voló de vuelta a su tribu a contarles lo que había visto.... Justo antes de que el sol saliera, Tatkanna se despertó y comenzó

o esperar la resolución expresa" (artículo 94 de la Ley de procedimiento administrativo). Luego si opta por esperar la resolución expresa, todo queda supeditado a que se

En tales circunstancias, una forma de proceder posible sería iniciar una fase preconstitucional de diálogo nacional, como sucedió en Sudáfrica, para reunir a

El tercero tiene notas bajas pero la mayor es estadística, una de las temáticas trabajadas de forma más mecánica, asimismo el último arquetipo muestra que, aun con notas buenas,

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

Este parón o bloqueo de las ventas españolas al resto de la Comunidad contrasta sin em- bargo con la evolución interior de ese mismo mercado en cuan- to a la demanda de hortalizas.

Se dice que una variables es aleatoria cuando no se sabe con certeza Se dice que una variables es aleatoria cuando no se sabe con certeza el valor que tomará, sino solo los valores