• No se han encontrado resultados

Procesos de decisión de Markov

Procesos de decisión de Markov y algunos problemas financieros

Procesos de decisión de Markov y algunos problemas financieros

... los procesos de decisión de Markov, que ha sido presentado en el capítulo 1 ahora se aplicará en algunos problemas dinámicos de optimización financiera selecciona- ...los procesos de ...

141

Algoritmos genéticos para la búsqueda de políticas óptimas en procesos de decisión de Markov

Algoritmos genéticos para la búsqueda de políticas óptimas en procesos de decisión de Markov

... Para el caso del algoritmo propuesto para los procesos de decisión de Markov, se utilizaron los operadores de selección que se incluían en la herramienta GAOT, adicional- men[r] ...

10

Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado

Herramienta software para resolver procesos de decisión de Markov utilizando recocido simulado

... los procesos de decisión de Markov (PDM) en varios campos de la ciencia y la industria está ligada a la capacidad que tienen para predecir el comportamiento de un sistema a través del tiempo y lograr ...

5

Prototipo de Software para Solucionar Procesos de Decisión de Markov Implementando Algoritmo Recocido Simulado

Prototipo de Software para Solucionar Procesos de Decisión de Markov Implementando Algoritmo Recocido Simulado

... en procesos de decisión de Markov” 3 ...llamados procesos de decisión de Markov ...de Markov y se definieron dos posibles acciones, la primera es mantener el carro y la ...

156

Procesos de decisión de Markov en un agente simulador de brazo robótico para búsqueda y traslación hacia un objeto

Procesos de decisión de Markov en un agente simulador de brazo robótico para búsqueda y traslación hacia un objeto

... Para el brazo robótico no se tiene un conjunto de ejemplos, además es necesario que el robot interactué con su ambiente de tal manera que éste le provea información para tomar de decisiones. De aquí que el uso de ...

15

Caracterización de estrategias umbral en procesos de decisión de Markov

Caracterización de estrategias umbral en procesos de decisión de Markov

... CONCLUSIONES El trabajo de tesis se centr´ o en el estudio de la existencia de pol´ıticas umbral en el contexto de Procesos de Decisi´ on de Markov. Se presentan condiciones en el modelo de control de ...

78

Representación y aprendizaje de procesos de decisión de markov cualitativas

Representación y aprendizaje de procesos de decisión de markov cualitativas

... Uno de los aspectos que ignoran los sistemas de control tradicionales de una planta de procesos es el hecho de que estos dispositivos pueden fallar y por tan- to la acci´on de control puede no tener los efectos ...

123

Procesos de decisión de Markov bajo el criterio de entropía relativa

Procesos de decisión de Markov bajo el criterio de entropía relativa

... es Procesos de Decisi´ on de Markov con horizonte infinito, el cual se trabaj´ o con los criterios de rendimiento: costo total esperado, recompensa total esperada y recompensa descontada total esperada, se ...

77

Un ejemplo de procesos de decisión de Markov sensibles al riesgo: Un enfoque por matrices no negativas

Un ejemplo de procesos de decisión de Markov sensibles al riesgo: Un enfoque por matrices no negativas

... Si la Suposición 1 es válida, entonces para cualquier política el valor asintótico medio óptimo es acotado inferiormente por Además, si la política estacionaria lleva al valor [r] ...

11

Un Sistema Conversacional para Despliegue de Información Basado en Procesos de Decisión de Markov Edición Única

Un Sistema Conversacional para Despliegue de Información Basado en Procesos de Decisión de Markov Edición Única

... Para facilitar la interacción con el robot se desarrolló el Sistema Conversacional para Despliegue de Información SCDI, el cual opera como una interfaz mediante la síntesis y reconocimie[r] ...

113

Procesos de decisión de Markov sensibles al riesgo: propiedad de continuidad y caso Semi Markoviano

Procesos de decisión de Markov sensibles al riesgo: propiedad de continuidad y caso Semi Markoviano

... los Procesos de Decisi´ on Semi mar- kovianos (PDSM) sensibles al riesgo, donde a diferencia de los Procesos de Deci- si´ on de Markov sensibles al riesgo, la teor´ıa no ha sido ampliamente ...

76

Caminata aleatoria de Lindley en procesos de decisión de Markov: caso descontado y caso promedio

Caminata aleatoria de Lindley en procesos de decisión de Markov: caso descontado y caso promedio

... ´ optimas estacionarias que minimicen los criterios estudiados. Para resolver el problema de control ´ optimo promedio se requiere una hip´ otesis adicional a las ya dadas en el problema de control ´ optimo descontado, ...

66

Un Sistema Conversacional para Despliegue de Información Basado en Procesos de Decisión de Markov-Edición Única

Un Sistema Conversacional para Despliegue de Información Basado en Procesos de Decisión de Markov-Edición Única

... Para facilitar la interacción con el robot se desarrolló el Sistema Conversacional para Despliegue de Información (SCDI), el cual opera como una interfaz mediante la síntesis y reconoc[r] ...

115

CAPITULO 16 Procesos de Markov

CAPITULO 16 Procesos de Markov

... parte, si ella acepta la llamada de Henry esta semana, la probabilidad de que ella no lo hará la próxima. semana es .20.[r] ...

26

CAPITULO I PROCESOS DE MARKOV

CAPITULO I PROCESOS DE MARKOV

... los Procesos de Markov, para la situación de cuentas por cobrar es la presencia de estados absorbentes; una vez que un Nuevo Sol hace una transición al estado 1 (el estado de pagado), la probabilidad de ...

13

PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV

PROCESOS ESTOCÁSTICOS CADENAS DE MARKOV

... Dada una matriz el algoritmo nos tiene que regresar si es una cadena de Markov absorbente, regular ó ergódica, para ello el siguiente código:. 1 for i in range ( len ( matriz )):[r] ...

11

Modelado de canales inicos como procesos de Markov

Modelado de canales inicos como procesos de Markov

... de Markov resulta ser muy útil puesto que proporciona un marco conceptual para una amplia gama de variables medibles para un canal iónico, tales como carga de compuerta, conductancia o corriente ...

11

12. Procesos estocásticos y cadenas de Markov

12. Procesos estocásticos y cadenas de Markov

... n Las probabilidades de transición entre estado están descritas por una cadena de Markov. n La estructura de recompensas del proceso está descrita por una matriz cuyos elementos indivi[r] ...

10

12. Procesos estocásticos y cadenas de Markov

12. Procesos estocásticos y cadenas de Markov

... § La matriz de transición se puede representar con un grafo en el que cada nodo representa un estado y cada arco la probabilidad de transición entre estados... Clasificación de estados[r] ...

12

Identificación de Entidades con Nombre basada en Modelos de Markov y Árboles de Decisión

Identificación de Entidades con Nombre basada en Modelos de Markov y Árboles de Decisión

... En muchos casos la identificaci´ on de en- tidades con nombre plantea un problema de clasificaci´ on bastante dif´ıcil, por ejemplo la palabra Sevilla puede hacer referencia a un lugar, a una organizaci´on (el ...

8

Show all 10000 documents...

Related subjects