• No se han encontrado resultados

Estudio teórico y experimental de métodos de defusificación de conjuntos difusos tipo dos de intervalo

N/A
N/A
Protected

Academic year: 2020

Share "Estudio teórico y experimental de métodos de defusificación de conjuntos difusos tipo dos de intervalo"

Copied!
99
0
0

Texto completo

(1)FACULTAD DE INGENIERÍA PROYECTO CURRICULAR DE INGENIERÍA ELECTRÓNICA. MONOGRAFÍA:. ESTUDIO TEÓRICO Y EXPERIMENTAL DE MÉTODOS DE DEFUSIFICACIÓN DE CONJUNTOS DIFUSOS TIPO DOS DE INTERVALO Monografı́a presentada por Jose Daniel Sastoque Buitrago para optar al tı́tulo de Ingeniero Electrónico. Dirigido por: Ing. Omar Salazar Morales Codirigido: José Humberto Serrano Devia Universidad Distrital Francisco José de Caldas 2018.

(2) 2.

(3) 3. Nota de Aceptación. Jurado. Jurado. Jurado. Bogotá, Septiembre 2018..

(4) 4.

(5) Agradecimientos Agradezco al maestro Omar Salazar Morales por la dirección del presente trabajo.. 5.

(6) 6.

(7) Índice general Glosario de constantes. 13. Glosario de siglas. 15. 1. Generalidades 1.1. Planteamiento del problema 1.2. Objetivos . . . . . . . . . . 1.2.1. Objetivo general . . 1.2.2. Objetivos especı́ficos 1.3. Justificación . . . . . . . . . 1.4. Alcances y limitaciones . . .. . . . . . .. 17 17 18 18 18 19 19. . . . . . .. 21 21 26 28 30 31 33. . . . . . . . . .. 37 37 37 41 46 49 50 52 52 53. 4. Discretización del intervalo [0, 1] 4.1. Rutinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. Algoritmos y búsquedas . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2. Sumatorias de inicialización . . . . . . . . . . . . . . . . . . . . . . .. 57 58 58 68. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. . . . . . .. 2. Marco Teórico 2.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Relación con el concepto de Par motor . . . . . . . . . . . . 2.3. Enhanced Karnik Mendel (EKM) . . . . . . . . . . . . . . . 2.4. Enhanced Iterative Algorithm with Stop Condition (EIASC) 2.5. IASC2 y KM2 . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6. Enhanced Opposite Direction Searching (EODS) . . . . . . . 3. Nuevos algoritmos 3.1. Nuevas herramientas para nuevos algoritmos . . . . . . . . . 3.1.1. Cotas de segundo orden para la función de Par motor 3.1.2. Aproximación usando polinomios de Bernstein . . . . 3.2. Aproximaciones e inicialización . . . . . . . . . . . . . . . . 3.3. Fuerza bruta . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Bernstein y Raı́z convexa . . . . . . . . . . . . . . . . . . . . 3.5. Raı́z acotada y Newton acotado . . . . . . . . . . . . . . . . 3.6. Bisección . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7. Halley Acotado . . . . . . . . . . . . . . . . . . . . . . . . .. 7. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . .. . . . . . .. . . . . . .. . . . . . . . . ..

(8) 8 5. Estrategia de experimentación 5.1. Generación aleatoria de conjuntos 5.2. Estructura de experimentación . . 5.3. Experimentos . . . . . . . . . . . 5.3.1. Experimento exploratorio 5.3.2. Experimento final . . . . .. ÍNDICE GENERAL. difusos . . . . . . . . . . . . . . . .. tipo dos . . . . . . . . . . . . . . . . . . . .. de intervalo . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. . . . . .. 71 71 74 75 76 78. 6. Resultados. 81. 7. Conclusión. 89. A. Ejemplos de conjuntos difusos. 91. B. Organización del código fuente. 93.

(9) Índice de figuras 2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.. Sistema de lógica difusa tipo dos de intervalo (T2FLS), adaptado de [12]. Comportamiento del centroide ce . . . . . . . . . . . . . . . . . . . . . . . Gráfica de las funciones τ (ξ) y c(ξ). . . . . . . . . . . . . . . . . . . . . . Visión de la función de pertenencia empotrada como una superficie. . . . Visualización gráfica del método Newton - Raphson. Adaptado de [4] . . Cotas internas de ϕ(ξ) y ω(ξ). . . . . . . . . . . . . . . . . . . . . . . . . Raı́z de τ (ξ) a partir del cruce de las funciones Sl (ξ) y Sr (ξ). . . . . . . .. . . . . . . .. . . . . . . .. 23 24 25 27 29 32 34. 3.1. 3.2. 3.3. 3.4. 3.5. 3.6.. Cotas de las funciones ϕ(ξ) y ω(ξ), según las ecuaciones (3.14) y Cotas de ϕ(ξ) con error cero en: (a) ξ = 0, (b) ξ = 1. . . . . . . Aproximación de ϕ(ξ) a partir de la combinación de las cotas. . Aproximación de Bernstein de orden √dos para ϕ(ξ). . . . . . . . Aproximación de la función s(z) = z, z ∈ [0, 3]. . . . . . . . . Visualización gráfica del método de Halley. Adaptado de [23] . .. . . . . . .. . . . . . .. 39 40 41 43 49 54. 4.1. Estrategia de normalización. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Estrategia de normalización simplificada. . . . . . . . . . . . . . . . . . . . .. 58 58. 5.1. 5.2. 5.3. 5.4.. Generación de funciones de pertenencia. . . . . . . . . . . . Función envolvente en dominio continuo. . . . . . . . . . . . Efecto de la función envolvente en la generación de conjuntos Estructura básica de los experimentos . . . . . . . . . . . . .. . . . . . . . . . . . . . . aleatorios. . . . . . . . .. . . . .. . . . .. 72 73 73 74. 6.1. 6.2. 6.3. 6.4.. Tiempo promedio por algoritmo, sobre todas las mediciones. Diagramas de caja, para cada experimento de dos factores . Tiempo de ejecución medio por algoritmo, por experimento. Tamaño total del programa después de la compilación. . . .. . . . .. . . . .. . . . .. 82 87 88 88. 9. . . . .. (3.15). . . . . . . . . . . . . . . . . . . . .. . . . .. . . . .. . . . .. . . . .. . . . . . .. . . . ..

(10) 10. ÍNDICE DE FIGURAS.

(11) Índice de tablas 3.1. Comparación, Bernstein y Combinación de cotas . . . . . . . . . . . . . . . .. 47. 6.1. Resultados del análisis ANOVA, para el experimento factorial de tres factores. 6.2. Resultados ANOVA, dos factores, N = 102 . . . . . . . . . . . . . . . . . . . . 6.3. Resultados Tukey HSD, dos factores, N = 102 . . . . . . . . . . . . . . . . . . 6.4. Resultados ANOVA, dos factores, N = 103 . . . . . . . . . . . . . . . . . . . . 6.5. Resultados Tukey HSD, dos factores, N = 103 . . . . . . . . . . . . . . . . . . 6.6. Resultados ANOVA, dos factores, N = 104 . . . . . . . . . . . . . . . . . . . . 6.7. Resultados Tukey HSD, dos factores, N = 104 . . . . . . . . . . . . . . . . . . 6.8. Resultados ANOVA, dos factores, N = 105 . . . . . . . . . . . . . . . . . . . . 6.9. Resultados Tukey HSD, dos factores, N = 105 . . . . . . . . . . . . . . . . . . 6.10. Porcentajes de diferencia basados en el análisis Tukey HSD, para N = 102 . . 6.11. Porcentajes de diferencia basados en el análisis Tukey HSD, para N = 103 . . 6.12. Porcentajes de diferencia basados en el análisis Tukey HSD, para N = 104 . . 6.13. Porcentajes de diferencia basados en el análisis Tukey HSD, para N = 105 . .. 82 83 83 84 84 84 84 85 85 85 85 86 86. 11.

(12) 12. ÍNDICE DE TABLAS.

(13) Glosario de constantes Z. A. 1. xµ(x)dx. 0. Z. B. 1. µ(x)dx. 0. Z. C. 1. xµ(x)dx. 0. Z. D. 1. µ(x)dx. 0. A1. 2. B1. 2. C1. 2. D1. 2. Z. 1 2. xµ(x). 0. Z. 1 2. µ(x). 0. Z. 1 2. xµ(x). 0. Z. 1 2. µ(x). 0. E.   2 A1 − C1 − B1 + D1. F. A−B−C +D. 2. 2. 2. 2. 13.

(14) 14. Glosario de constantes.

(15) Glosario de siglas. FS. Fuzzy Set. T2FS. Type 2 Fuzzy Set. IVFS. Interval Valued Fuzzy Set. IT2FS. Interval Type 2 Fuzzy Set. EFS. Embedded Fuzzy Set. T2FLS. Type 2 Fuzzy Logic System. EKM. Enhanced Karnik Mendel. EIASC. Enhanced Iterative Algorithm with Stop Condition. EODS. Enhanced Opposite Direction Searching. 15.

(16) 16. Glosario de siglas.

(17) Capı́tulo 1 Generalidades 1.1.. Planteamiento del problema. La teorı́a clásica de conjuntos define a un conjunto como una colección de elementos que comparten una caracterı́stica definida. Dicha caracterı́stica no da lugar a ninguna ambigüedad, ni aparecen dudas, al responder si un elemento pertenece o no a un conjunto. Este tipo de conjuntos se denominan clásicos. A diferencia de un conjunto clásico, los elementos (universo de discurso) de un conjunto difuso, no definen su pertenencia a través de un riguroso si o no, sino que lo hacen a través de una función matemática. Ésta, conocida como función de pertenencia, le asigna a cada elemento del conjunto difuso, un valor en [0, 1] ⊂ R. Si no hay ambigüedad, como en un conjunto clásico, al elemento se le asignará cero para decir que no pertenece al conjunto. En caso contrario se le asignará uno. A los elementos que no se les pueda atribuir pertenencia sin ambigüedad, se les asigna un valor en el intervalo (0, 1), que indica pertenencia parcial. Cuando no hay consenso en la asignación de un único valor de pertenencia para cada elemento: se asigna un intervalo cerrado de valores de pertenencia, dando lugar a los conjuntos difusos tipo dos de intervalo (IT2FS - Interval Type 2 Fuzzy Set). Al pasar de los conjuntos clásicos, a los difusos, y luego a los tipo dos de intervalo, aumenta la flexibilidad con la que se puede describir la pertenencia de los elementos al conjunto. Sin embargo, este aumento de flexibilidad, puede aumentar la dificultad (complejidad algorı́tmica) con la que se obtiene un elemento representativo del conjunto. Ası́, por ejemplo, para el conjunto clásico: {0,1,2,3,4}, un elemento representativo puede ser el resultado del promedio aritmético de los elementos: x = 2. Evidentemente, en la obtención de un elemento representativo de un conjunto difuso, es necesario operar con los valores o intervalos de pertenencia; he ahı́ el aumento de dificultad. Para los conjuntos difusos, la operación que obtiene el valor representativo del conjunto, es conocida como defusificación. Una de las propuestas que existen para realizar la defusificación de IT2FS, es el algoritmo de Karnik y Mendel [7]. A partir de éste, han aparecido otros algoritmos, los cuales se pueden clasificar [20] ası́: Algoritmos que convergen a la misma solución que el algoritmo original, y algoritmos que convergen a una solución aproximada. A los primeros se les conoce como algoritmos tipo Karnik - Mendel (KM). Todos los algoritmos tipo KM han sido desarrollados y estudiados desde un punto de vista de dominio discreto, es decir, los elementos (universo de discurso) del IT2FS son tratados como el dominio de una señal muestreada. Sin embargo, se ha propuesto realizar el estudio de. 17.

(18) 18. CAPÍTULO 1. GENERALIDADES. los algoritmos desde un punto de vista de dominio continuo [16]. El resultado más importante que ha dado este cambio de punto de vista, ha sido, mostrar la relación entre: La búsqueda de raı́ces de una función, y el algoritmo KM [9]. Lo que facilita el entendimiento del mecanismo de acción del algoritmo, clarifica su objetivo y, proporciona herramientas para el desarrollo de nuevos algoritmos equivalentes. Aunque el nuevo punto de vista si se ha utilizado en la elaboración de nuevos algoritmos [8,9,14], éstos se han quedado en dominio continuo y no han sido llevados de nuevo a dominio discreto, de tal forma que no se pueden comparar con el KM original. Además, no se han analizado, bajo éste punto de vista, todos los algoritmos tipo KM. Adicional a este cambio, se ha mostrado que, en dominio continuo: al normalizar el domino del IT2FS a el intervalo [0, 1] ⊂ R, no se pierde generalidad y, además, reduce el efecto que tiene el universo de discurso sobre métricas que comparan los valores de convergencia de los algoritmos [19]. Por lo tanto, es una práctica sugerida si se va a trabajar con el enfoque de dominio continuo. A partir de lo anterior, surge la pregunta de investigación: Usando IT2FS con dominio continuo [0, 1], para el análisis de los algoritmos de defusificación tipo KM, ¿Se facilita la comprensión del mecanismo de cada algoritmo, a tal punto que: se pueden mejorar, rebatir y/o proponer nuevas alternativas en dominio discreto?. Se espera que, al resolver esta pregunta, se encuentren nuevas herramientas y nuevo conocimiento que aporte al problema de la defusificación.. 1.2. 1.2.1.. Objetivos Objetivo general. Realizar un estudio teórico y experimental de la defusificación de conjuntos difusos tipo dos de intervalo, tipo Karnik - Mendel, usando conjuntos con dominio continuo [0, 1] ⊂ R.. 1.2.2.. Objetivos especı́ficos. 1. Realizar un estudio teórico, usando funciones de pertenencia de dominio continuo, de los algoritmos tipo Karnik - Mendel: EKM, EIASC, EODS, IASC2 y KM2. 2. Proponer a lo menos tres algoritmos, tipo Karnik - Mendel, a partir de la aplicación de los métodos para la búsqueda de raı́ces: Bisección, Halley y Búsqueda exhaustiva. 3. Establecer la versión, para funciones de pertenencia de dominio discreto, correspondiente a cada uno de los algoritmos propuestos. 4. Comparar, mediante un experimento, el tiempo de ejecución de los algoritmos existentes y los propuestos..

(19) 1.3. JUSTIFICACIÓN. 1.3.. 19. Justificación. La defusificación tipo KM de IT2FS es un procedimiento computacionalmente intensivo [3,6,11,20,24–26]. Por lo tanto, cualquier sistema difuso que incluya la defusificación, verá afectado su rendimiento global. Especialmente en los sistemas de lógica difusa tipo dos de intervalo (IT2FLS - Interval Type 2 Fuzzy Logic System), en donde el uso de defusificación tipo KM, crea un cuello de botella. Ası́, toda nueva propuesta que se dé con el propósito de reducir ésta intensidad computacional, es de interés. En la elección de qué algoritmo de defusificación usar, no sólo se tiene en cuenta el rendimiento computacional, sino que, también influye la facilidad con la que se explica y se deduce cada uno [11, 13, 24]. Por lo tanto, si el mecanismo de acción de cada uno de los algoritmos, efectivamente es explicado más fácilmente usando conjuntos de dominio continuo, supondrá la reducción de este factor como argumento de selección. También, la conexión del problema con la búsqueda de raı́ces [9], permite integrar la gran variedad de herramientas de análisis que, por ser un problema ampliamente investigado, tiene a disposición. Además, el enfoque de dominio continuo ha demostrado ser fructı́fero [8, 11]. Una justificación informal, de por qué trabajar este problema (donde el cálculo de cl y cr hace referencia a los métodos tipo KM), es la dada por Mendel [12]: “The many algorithms for computing cl and cr raise the following question: Why is it that so many people have and continue to search for better algorithms for computing cl and cr ? Having thought about this a lot, my answer is: cl and cr are associated with very well defined and relatively easy optimization problems that lend themselves to analyses and/or simulations, and researchers who look at such problems love to do analysis and/or simulations (myself included)”. Dada la gran cantidad de algoritmos para encontrar cl y cr , surge la pregunta: ¿Por qué tantas personas tienen y continúan la búsqueda de mejores algoritmos para encontrar cl y cr ? Después de pensarlo mucho, mi respuesta es: cl y cr están asociados a problemas de optimización muy bien definidos y relativamente fáciles, que se prestan a análisis y/o simulaciones, y, los investigadores que buscan ese tipo de problemas, aman hacer análisis y/o simulaciones (incluyéndome a mı́).. 1.4.. Alcances y limitaciones. La limitación principal de esta monografı́a es la que restringe los algoritmos de defusificación que se analizarán y compararán. Se trabajará unicamente con algoritmos tipo KM, concretamente: EKM (Enhanced Karnik Mendel), EIASC (Enhanced Iterative Algorithm with Stop Condition), EODS (Enhanced Opposite Direction Searching), KM2, e IASC2. Algoritmos que no convergen a la misma solución que el KM original, están fuera del alcance de esta monografı́a. Lo anterior implica, tácitamente, que el método de integración numérica que se utilizará para obtener la versión en dominio discreto de los algoritmos que se propondrán, debe ser la Suma de Riemann. Cualquier otro método producirá algoritmos de defusificación que no.

(20) 20. CAPÍTULO 1. GENERALIDADES. convergen a la misma solución que el KM. Adicionalmente, en algunos artı́culos [24–26], al i-ésimo elemento xi del universo de discurso X, se le asigna un intervalo Xi = [xi , xi ], de tal forma que: para el cálculo de cr se utilizan los valores xi , y para el cálculo de cl , los valores de xi . Por lo tanto, es necesario aclarar que en esta monografı́a no se usará el intervalo Xi , o lo que es lo mismo: xi = xi = xi . También, sólo se consideran universos de discurso ordenados. Finalmente, los demás componentes del IT2FLS no son estudiados, unicamente es de interés el procesamiento de salida..

(21) Capı́tulo 2 Marco Teórico Desde la aparición de los conjuntos difusos, una de las principales criticas a éstos, ha sido el como se atribuyen los grados de pertenencia a los elementos de un conjunto [2]. Es por esto que Zadeh [28], con la idea de que, en la lógica difusa a todo se le puede atribuir un grado de pertenencia; desarrolla los conjuntos difusos tipo n. Ası́, se pueden construir conjuntos difusos con funciones de pertenencia difusas, donde los grados de pertenencia de cada elemento pueden ser definidos por términos lingüı́sticos, como: alto, bajo, medio, etc. Define ası́, conjuntos difusos tipo n: “A fuzzy set is of type n, n = 2,3, ..., if its membership function ranges over fuzzy sets of type n − 1. The membership function of a fuzzy set of type 1 ranges over the interval [0, 1]”. Un conjunto difuso es de tipo n, n = 2,3, ..., si su función de pertenencia asigna conjuntos difusos tipo n − 1. La función de pertenencia de un conjunto difuso tipo 1 asigna elementos del intervalo [0, 1]. Aisbett et al. [1] recomiendan el uso de notación y terminologı́a matemática estándar cuando se trabaje con conjuntos difusos. De esta forma, el conjunto difuso debe ser entendido como una función en el contexto de las matemáticas. Esto tiene como objetivo facilitar la comunicación con investigadores en otras disciplinas.. 2.1.. Definiciones. A continuación se presentan las definiciones principales de conjuntos difusos tipo n, donde X es un universo de discurso (en el contexto de las funciones, el conjunto dominio) no vacı́o. Las definiciones 2.1.1, 2.1.2, 2.1.3 han sido tomadas de [2]. Definición 2.1.1. Un conjunto difuso (FS - Fuzzy Set) o conjunto difuso tipo uno, µ en X, es un mapeo: µ : X → [0, 1]. (2.1) Si x ∈ X, el valor µ(x) es el grado de pertenencia de x en µ. El conjunto de los FS en X, se denota como: FS(X) ó [0,1]X .. 21.

(22) 22. CAPÍTULO 2. MARCO TEÓRICO. Definición 2.1.2. Un conjunto difuso tipo dos (T2FS - Type 2 Fuzzy Set), µ en X, es un mapeo: µ : X → FS([0, 1]). (2.2) El conjunto de los T2FS en X, se denota como: T2FS(X) ó FS([0,1])X . Sea el conjunto de todos los subintervalos cerrados de [0,1] denotado por L([0,1]):  L([0, 1]) = [x, x] (x, x) ∈ [0,1]2 , x ≤ x . (2.3). Definición 2.1.3. Un conjunto difuso intervalo valuado (IVFS - Interval Valued Fuzzy Set), µ̃ en X, es un mapeo: µ̃ : X → L([0,1]). (2.4). El concepto de IVFS es introducido, de forma independiente, por Sambuc y Zadeh [2]. Zadeh [28] lo muestra como un caso especial de los T2FS. Sin embargo, los creadores de los algoritmos de defusificación que son de interés en esta monografı́a, han usado la definición divulgada por Mendel [12] (que no se replica aquı́) para los IT2FS. Bustince [2] hace notar que los IVFS son un caso especial de los IT2FS y, de hecho, todas las operaciones, métodos y sistemas que han sido publicadas para los IT2FS (incluidos los métodos de defusificación), sólo son validos para el caso especial de los IVFS [12]. Por lo tanto, en esta monografı́a, cuando se hace referencia a los IT2FS se debe usar la definición 2.1.3, es decir IVFS. El grado de pertenencia de x ∈ X en µ̃ está dado por µ̃(x) = [µ(x), µ(x)] ∈ L([0, 1]),. (2.5). µ : X → [0, 1],. (2.6). µ : X → [0, 1],. (2.7). donde los mapeos. corresponden a los limites inferior y superior del intervalo de pertenencia µ̃(x), respectivamente. A éstos se les denomina como función de pertenencia inferior y superior. Lo anterior permite definir el conjunto difuso empotrado en un IT2FS, ası́: Definición 2.1.4. Un conjunto difuso µe en X, empotrado en un IT2FS µ̃ en X, denominado EFS (Embedded fuzzy set); es un mapeo: µe : X → [0, 1],. (2.8). µe (x) ∈ [µ(x), µ(x)], ∀x ∈ X.. (2.9). que satisface:.

(23) 2.1. DEFINICIONES. 23. Un sistema de lógica difusa que emplea conjuntos del tipo IT2FS, se muestra en la figura 2.1. En esta monografı́a sólo es de interés el procesamiento de salida, por lo que los demás componentes del T2FLS no son expuestos. El procesamiento de salida consiste en obtener un elemento x ∈ X, que represente al IT2FS definido sobre X. En este sentido, Karnik y Mendel, introducen el concepto de centroide para un IT2FS [7]. Partiendo del concepto del promedio ponderado 1 , el centroide de un IT2FS, es el conjunto2 de los centroides de sus EFS. Definición 2.1.5. El centroide de un EFS, µe en X = [a, b], es: Z. b. xµe (x)dx a. ce = Z. b. µe (x)dx. , x ∈ [a, b]. (2.10). a. Definición 2.1.6. El centroide de un IT2FS, µ̃ en [a, b], es: c̃ = [cl , cr ],. (2.11). donde, cl = mı́n{ce }, cr = máx{ce }. e. e. (2.12). Ası́, el centroide de un IT2FS, es un intervalo cerrado. Un intervalo es en sı́ mismo un conjunto clásico, que a su vez es un caso especial de los conjuntos difusos tipo uno. Por lo tanto, al calcular el centroide, se ha pasado de tener un T2FS a tener un FS; lo que corresponde a la primera etapa del procesamiento de salida: el reductor de tipo. La segunda etapa consiste en la defusificación propiamente dicha, que para el caso de un conjunto clásico como c̃, corresponde al promedio aritmético de los extremos del intervalo: r cM = cl +c . En esta monografı́a se prefiere usar el termino defusificación para agrupar las 2 1. Karnik y Mendel [7] resaltan la analogı́a entre (2.10) y el valor esperado de una función densidad de probabilidad. 2 Originalmente [7], se habló del conjunto que resulta de la unión de los centroides de cada uno de los conjuntos empotrados. Recientemente [12], se entiende como centroide al intervalo [cl , cr ].. Figura 2.1: Sistema de lógica difusa tipo dos de intervalo (T2FLS), adaptado de [12]..

(24) 24. CAPÍTULO 2. MARCO TEÓRICO. Figura 2.2: Comportamiento del centroide ce , de acuerdo al cambio de la función de pertenencia µe . dos etapas del procesamiento de salida, en lugar de sólo el promedio aritmético final. La intensidad computacional atribuida al proceso de defusificación, radica en la búsqueda de cl y cr . Karnik y Mendel [7], usando un enfoque de optimización3 (maximizar / minimizar ce ), y pensando en iterar sobre las funciones de pertenencia empotradas, plantean las reglas que dictan como se comporta el centroide ce frente a los cambios de µe . Si k es un indice discreto para iterar sobre las funciones empotradas, las reglas son (2.13) y (2.14). La figura 2.2 muestra gráficamente el razonamiento que permite llegar a las reglas.. Si,. Si,. µek (x) > µek−1 (x), ∧ µek (x) < µek−1 (x),. x < cek−1. µek (x) < µek−1 (x), ∧ µek (x) > µek−1 (x),. x < cek−1. =⇒ cek < cek−1 .. (2.13). =⇒ cek > cek−1 .. (2.14). x > cek−1. x > cek−1. A partir de las reglas (2.13) y (2.14), se puede discriminar un tipo de conjuntos empotrados cuyos centroides se aproximan a (o son) cl ó cr . Ası́, la búsqueda se realizará sobre los conjuntos empotrados cuya pertenencia tiene la forma ( f (x), x < ξ , x, ξ ∈ [a, b], (2.15) h(x) = g(x), x ≥ ξ donde ξ se conoce como punto de conmutación. Por lo tanto, el centroide de h tiene la forma: Z ξ Z b xf (x)dx + xg(x)dx a ξ c(ξ) = Z ξ , ξ ∈ [a, b], (2.16) Z b f (x)dx + g(x)dx a. 3. ξ. El razonamiento lo hicieron utilizando funciones de pertenencia de dominio discreto. A partir de la razón de cambio de ce con respecto al valor de pertenencia de un elemento arbitrario xk [7]. Para la versión continua del problema no se mostró ningún razonamiento formal. Sólo se mencionó [16] que la versión discreta de ce era una instancia (instantiation) de su versión continua..

(25) 2.1. DEFINICIONES. 25. 0.5. 0.6. 0.4 0.4 0.3 0.2 0.2. 0.0. 0.1. 0.0. τ (ξ). τ (ξ) −0.2. c(ξ) −0.1 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. 0.0. c(ξ) 0.2. 0.4. 0.6. ξ. ξ. (a). (b). 0.8. 1.0. Figura 2.3: Gráfica de las funciones τ (ξ) y c(ξ), ξ ∈ [0, 1]. (a) f = µ, g = µ. (b) f = µ, g = µ. donde, para buscar el mı́nimo: f = µ y g = µ, y para el máximo: f = µ y g = µ. El punto de conmutación ξ pasa a ser la variable independiente de la función centroide c(ξ). La gráfica de ésta función, se muestra en la figura 2.3. Todo lo anterior constituye el punto de partida del algoritmo Karnik - Mendel. En el desarrollo inicial del algoritmo KM, no se realizó ningún análisis en dominio continuo que permitiera usar las herramientas del cálculo diferencial para la optimización de c(ξ). Posteriormente, Liu y Mendel [9] demostraron que: usando el método de búsqueda de máximos y mı́nimos, a través de la primera derivada de la función c(ξ), el problema se convierte en la búsqueda de la única raı́z de la función τ (ξ), τ (ξ) =. Z. a. ξ. (ξ − x)f (x)dx +. Z. ξ. b. (ξ − x)g(x)dx,. ξ ∈ [a, b].. (2.17). Se cumple que, si ∂ c(ξ) = 0 ⇐⇒ τ (ξ) = 0. ∂ξ. (2.18). La gráfica de la función τ (ξ), se muestra en la figura 2.3. Ası́, para encontrar cl y cr , se puede partir de c(ξ) (ecuación (2.16)) o de τ (ξ) (ecuación (2.17)). En ambos casos, el resultado depende de: El dominio y la imagen de las funciones de pertenencia µ y µ. Por lo tanto, toda métrica que se calcule a partir de cl y cr , dependerá también de dicho domino e imagen. Por lo anterior, y con el objetivo de reducir el efecto del dominio X = [a,b] sobre las métricas que comparan el resultado de los algoritmos, Rojas et al. [19] proponen la normalización.

(26) 26. CAPÍTULO 2. MARCO TEÓRICO. al intervalo unitario [0,1]. Para ello, establecen la función biyectiva [a,b] → [0,1] : x → y,. (2.19). dada por:. x−a , b−a que conduce a las funciones de pertenencia, con dominio normalizado, dadas por y=. (2.20). µ∗ (y) = µ(a + y(b − a)), y ∈ [0,1],. (2.21). µ∗ (y) = µ(a + y(b − a)), y ∈ [0,1].. (2.22). Utilizando la función biyectiva (2.20), Rojas et al. [19] también obtienen las expresiones de τ y c de domino normalizado. Éstas resultan ser, en su estructura, idénticas a las expresiones con dominio X = [a,b], descritas por las ecuaciones (2.16) y (2.17). Por lo tanto, y por comodidad, a lo largo de esta monografı́a se utilizarán las funciones de pertenencia µ y µ, como normalizadas. Es decir: X = [0,1], y, x, ξ ∈ [0,1]. Siguiendo lo anterior, los algoritmos convergen a las soluciones normalizadas: c∗l y c∗r . De nuevo, usando la función biyectiva (2.20), se calculan las soluciones en el dominio X = [a,b]. cl = (b − a)c∗l + a,. cr = (b − a)c∗r + a.. (2.23) (2.24). Aclarado lo anterior, el análisis de los algoritmos puede hacerse con funciones de pertenencia con dominio X = [0,1]. La relación entre la reducción de tipo y la búsqueda de raı́ces, les permitió a Liu y Mendel [9], establecer la equivalencia entre el método Newton - Rapson y el método KM.. 2.2.. Relación con el concepto de Par motor. En la sección anterior se mencionó que, para encontrar el centroide c̃ = [cl , cr ] de un IT2FS, se puede optimizar la función c o encontrar el cero de la función τ . El Par motor es la tendencia que tiene una fuerza para hacer girar a un objeto alrededor #– #– de un punto llamado pivote. Matemáticamente está definido como: T = #– r × F, donde #– r es la distancia del pivote xc , a un punto x donde la fuerza se aplica: #– r = xc − x î.. El concepto de centroide está asociado al de centro de masa, por lo que, si al encontrar donde se hace cero la función τ , se encuentra el valor del centroide; la función τ debe corresponder al Par motor. En efecto, si se considera la función de pertenencia empotrada, h(x), como una superficie cuya masa es encerrada entre la función y el eje horizontal, y, #– dicha superficie está sometida a una fuerza F , perpendicular a #– r , la cual provoca un giro al rededor del pivote xc : El valor del centro de masa, será igual a la ubicación del pivote xc #– que evita el giro de la superficie, es decir, T = 0. La función resultante coincidirá con la.

(27) 2.2. RELACIÓN CON EL CONCEPTO DE PAR MOTOR. 27. Figura 2.4: Visión de la función de pertenencia empotrada como una superficie. encontrada por Liu y Mendel [9] para τ (ecuación (2.17)). Sea una superficie con densidad superficial de masa, σ=. m A. (2.1). sometida a una fuerza proporcional a la masa de la superficie, #– F = g m ĵ.. (2.2). Si se divide la superficie en N rectángulos de área Ai = h(xi )∆x,. (2.3). el Par motor del i-ésimo rectángulo será: #– Ti = g σ (xc − xi )h(xi )∆x k̂.. (2.4). La magnitud del Par motor total es función de la posición del pivote: T(xc ) = g σ. N −1 X i=0. Si ∆x → 0, x ∈ [0,1] T(xc ) = g σ. Z. 0. (xc − xi )h(xi )∆x.. (2.5). 1. (xc − x)h(x)dx.. (2.6). Normalizando por el factor g σ, T(xc ) = g σ τ (xc ), τ (xc ) =. Z. 1 0. (xc − x)h(x)dx.. (2.7).

(28) 28. CAPÍTULO 2. MARCO TEÓRICO. Finalmente, se busca la posición del pivote que coincida con el valor de ξ, es decir, xc = ξ. Sustituyendo h(x): τ (ξ) =. Z. ξ. 0. (ξ − x)f (x)dx +. Z. 1. ξ. (ξ − x)g(x)dx,. x, ξ ∈ [0,1].. (2.8). Cuando se da el cero de τ (ξ), el valor de ξ corresponde al centro de masa de h(x), que coincide con el punto de conmutación. La anterior es una forma compacta, en relación a la utilizada por Mendel y Liu en [9], para llegar a la función τ . Permite reconocer a τ como una función de Par motor.. 2.3.. Enhanced Karnik Mendel (EKM). El método Newton - Rapson, aplicado sobre una ecuación de la forma τ (ξ) = 0, supone que τ es diferenciable. En un punto (ξ0 , τ (ξ0 )), hay una recta l(ξ), tangente a τ , que es una buena aproximación en la vecindad del punto [4]. l(ξ) = (ξ − ξ0 ). ∂ τ (ξ0 ) + τ (ξ0 ). ∂ξ. (2.1). El cero de l(ξ) se toma como aproximación de la raı́z de τ (ξ), l(ξ1 ) = 0 =⇒ ξ1 = ξ0 −. τ (ξ0 ) . ∂ τ (ξ0 ) ∂ξ. (2.2). El proceso sigue con una nueva recta tangente al punto (ξ1 , τ (ξ1 )), y puede continuar de forma iterativa hasta dar con la raı́z de τ [4]. τ (ξk−1 ) , k = 1, 2, 3, ... ∂ τ (ξk−1 ) ∂ξ. ξk = ξk−1 −. (2.3). donde ξ0 es una aproximación inicial a la raı́z. La figura 2.5 muestra el procedimiento descrito. Derivando (2.17) con respecto a ξ ∂ τ (ξ) = ∂ξ. Z. ξ. f (x)dx +. 0. Z. 1. g(x)dx. (2.4). ξ. y sustituyendo en (2.3). ξk = ξk−1 −. Z. 0. ξk−1. (ξk−1 − x)f (x)dx + Z. 0. ξk−1. f (x)dx +. Z. 1. ξk−1 Z 1 ξk−1. (ξk−1 − x)g(x)dx g(x)dx. (2.5).

(29) 2.3. ENHANCED KARNIK MENDEL (EKM). 29. Figura 2.5: Visualización gráfica del método Newton - Raphson. Adaptado de [4] Z. ξk−1. xf (x)dx +. 0. ξk = Z. ξk−1. f (x)dx + 0. Z. 1. xg(x)dx. ξk−1 Z 1. .. (2.6). g(x)dx. ξk−1. ξk = c(ξk−1). (2.7). τ (ξk−1 ) = 0 =⇒ ξk = ξk−1 , ξk = c(ξk ).. (2.8). Se debe notar que, si. Por lo tanto, la raı́z de τ (ξ) es punto fijo de c(ξ) [9]. Y, además, el criterio de parada del algoritmo iterativo, se cumple cuando: ξk = ξk−1. Hasta este punto, las ecuaciones (2.6) y (2.8), permiten construir el algoritmo CKM (Continuous Karnik - Mendel) [9] y, a partir de éste, el KM. Sin embargo, es preferible continuar con el análisis en dominio continuo y llegar al algoritmo EKM (Enhanced Karnik Mendel) [25], pues este último reemplaza completamente al primero. Al ser c(ξk ) una función integral, para calcular un sólo valor de su imagen, es necesario recorrer todo el dominio. Lo que implica, en dominio discreto, realizar al menos una sumatoria de N términos (siendo N la cantidad de muestras). La complejidad algorı́tmica no será de un orden menor a O(N). Sin embargo, el valor de c(ξk−1) puede ser usado para el cálculo de c(ξk ), G(ξk ) c(ξk ) = , G(ξ0 ) = H(ξk ). Z. ξ0. xf (x)dx + 0. G(ξk ) = G(ξk−1) +. Z. 1. xg(x)dx, H(ξ0) = ξ0. Z. ξk ξk−1. Z.   x f (x) − g(x) dx,. ξ0. f (x)dx + 0. Z. 1. g(x)dx ξ0. (2.9) (2.10).

(30) 30. CAPÍTULO 2. MARCO TEÓRICO. H(ξk ) = H(ξk−1) +. Z. ξk ξk−1. .  f (x) − g(x) dx.. (2.11). Son estas ecuaciones de recurrencia las que implementa el algoritmo EKM. Permiten, conforme el algoritmo converge, que la cantidad de operaciones disminuya. Adicionalmente, a partir de diez mil simulaciones de Monte Carlo [25], las aproximaciones iniciales, en el intervalo [0, 1] fueron establecidas como: ξ0 = 1/2,4 para cl y ξ0 = 1/1,7 para cr . Salaken et al. [20] sugieren cambiar el punto de inicio para cr a ξ0 = 1/1,6. En el intervalo [0, 1] este cambio es de 36,7647 × 10−3 .. 2.4.. Enhanced Iterative Algorithm with Stop Condition (EIASC). Es un algoritmo de búsqueda exhaustiva. Partiendo de uno de los extremos del intervalo [0, 1], según se busque cl ó cr , avanzando en un sólo sentido durante la búsqueda; evalúa la función c(ξ) hasta que: c(ξ) = ξ. Aquı́, aunque la progresión del algoritmo es diferente, se utiliza la misma expresión de c(ξ). En el EKM se obtuvo c(ξ), aplicando el método de Newton sobre τ (ξ). Sin embargo, solamente a través de operaciones algebraicas simples, es posible obtener ξ = c(ξ) a partir de τ (ξ) = 0. Lo importante no es mostrar que partiendo de τ (ξ) se obtiene c(ξ), sino que: La forma en que se deduce c(ξ) determina el comportamiento de cada algoritmo. EIASC ha mostrado, en dominio discreto, tener menores tiempos de ejecución que el EKM [15, 24, 26]. ¿Por qué razón un algoritmo de búsqueda exhaustiva tiene menor tiempo de ejecución que uno de convergencia cuadrática?. El análisis de convergencia, por si solo, no tiene en cuenta el tiempo de ejecución por iteración. La búsqueda exhaustiva requiere de más iteraciones que el método de Newton, pero son menos costosas. Para lograr que cada iteración cueste menos, dependiendo de si la búsqueda inicia en ξ = 0 (para cl ) ó en ξ = 1 (para cr ), el cálculo de c(ξ) se da en dos formas diferentes. Iniciando la búsqueda en ξ0 = 0: G(ξ) =. Z. 1. xg(x)dx + 0. H(ξ) =. Z. 1. g(x)dx +. 0. Iniciando la búsqueda en ξ0 = 1: G(ξ) =. Z. H(ξ) =. xf (x)dx −. Z. 0. ξ 0. 1. f (x)dx −.   x f (x) − g(x) dx,. Z ξ 0. 1 0. Z. Z. 1 ξ. Z. 1 ξ. (2.1).  f (x) − g(x) dx.. (2.2).   x f (x) − g(x) dx,. (2.3).   f (x) − g(x) dx.. (2.4).

(31) 2.5. IASC2 Y KM2. 31. Los dos procedimientos pueden ser descritos con un sólo conjunto de ecuaciones. En el cálculo de cl , f (x) = µ(x) y g(x) = µ(x). Para cr , f (x) = µ(x) y g(x) = µ(x). Por lo tanto, en ambos casos: Z 1 (2.5) G(ξ0 ) = xµ(x)dx, 0. H(ξ0 ) =. Z. 1. µ(x)dx,. (2.6).   x f (x) − g(x) dx,. (2.7).   f (x) − g(x) dx.. (2.8). 0. en general, la k-ésima iteración, G(ξk ) = G(ξk−1 ) +. Z. ξk. ξk−1. H(ξk ) = H(ξk−1) +. Z. ξk ξk−1. c(ξk ) =. G(ξk ) H(ξk ). (2.9). Si, ǫ > 0 para cl y ǫ < 0 para cr , la progresión del algoritmo, en dominio discreto, puede interpretarse como: ξk = ξk−1 + ǫ. (2.10) por lo tanto,. Finalmente,.   G(ξk ) = G(ξk−1) + ξk f (ξk ) − g(ξk ) ǫ,   H(ξk ) = H(ξk−1) + f (ξk ) − g(ξk ) ǫ..   G(ξk ) = G(ξk−1) + ξk µ(ξk ) − µ(ξk ) |ǫ|,   H(ξk ) = H(ξk−1) + µ(ξk ) − µ(ξk ) |ǫ|.. (2.11) (2.12) (2.13) (2.14). Ası́, por iteración, el costo es menor. Además, las búsquedas de cl y cr comparten la inicialización (ecuaciones (2.5) y (2.6)), lo que reduce el tiempo de ejecución total. Ésta ventaja en la inicialización, no fue notada4 por los autores originales del algoritmo [26].. 2.5.. IASC2 y KM2. Celemin y Melgarejo [3], plantean dos algoritmos que resultan al aplicar un nuevo método de inicialización para los algoritmos EIASC y EKM. Ambos algoritmos utilizan los mismos puntos de inicio. Están basados en el concepto de cotas interiores [27], es decir, para cl : ξ0 > cl , y para cr : ξ0 < cr . Ası́, la búsqueda se hace desde el interior del intervalo [cl , cr ], hacı́a los extremos. 4. Wu y Nie [26], consideraban que, el i-ésimo elemento xi del universo de discurso X, cumple: xi ∈ Xi = [xi , xi ]. Por lo tanto, no podı́an hacer la simplificación..

(32) 32. CAPÍTULO 2. MARCO TEÓRICO 0.4. ϕ(ξ) N0 (ξ). 0.3. N1 (ξ) ω(ξ). 0.2. 0.1. 0.0. −0.1. −0.2. −0.3 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. ξ. Figura 2.6: Cotas internas de ϕ(ξ) y ω(ξ). El cálculo de ξ0 está dado por: Z. 1. Z. 1. .  0 xf (x)dx 0 xg(x)dx  , , Z 1 ξ0 = OP   Z 1 f (x)dx g(x)dx 0. (2.1). 0. donde OP(a, b) corresponde a min(a, b) para cl y max(a, b) para cr . Estos puntos de inicio corresponden a los ceros de las rectas Z 1 Z 1 N0 = ξ g(x)dx − xg(x)dx, (2.2) 0. N1 = ξ. Z. 0. 0. 1. f (x)dx −. Z. 1. xf (x)dx,. (2.3). 0. que son tangentes a los puntos τ (0) y τ (1), respectivamente. Aquı́ es conveniente discriminar las dos formas de la función Par motor τ , ası́: ( ϕ(x) si f (x) = µ(x), g(x) = µ(x) τ (x) = , ω(x) si f (x) = µ(x), g(x) = µ(x). (2.4). cuyas cotas lineales N0 y N1 se muestran en la figura 2.6. Las raı́ces de N0 y N1 , corresponden a la primera iteración del método de Newton, cuando el punto de inicio es cero o uno. Por lo tanto, en el caso del EKM, es solamente un cambio en el punto de inicio. En cuanto al EIASC, corresponde a utilizar una iteración, del método de Newton, como partida para la búsqueda exhaustiva; evitando operaciones de división innecesarias. Sin embargo, el IASC2 pierde la ventaja que tiene el EIASC, pues, además del cálculo de Z 1 Z 1 (2.5) µ(x)dx, xµ(x)dx y 0. 0.

(33) 2.6. ENHANCED OPPOSITE DIRECTION SEARCHING (EODS) es necesario calcular. Z. 1. xµ(x)dx. y. Z. 33. 1. µ(x)dx.. (2.6). 0. 0. Por lo tanto, el punto de inicio usado en el IASC2 es contraproducente. Las expresiones para la progresión del algoritmo KM2, se mantienen igual a la del EKM. El IASC2, después de la iteración del método de Newton inicial, realiza la búsqueda exhaustiva con los siguientes cambios: Si, ǫ < 0 para cl y ǫ > 0 para cr , la progresión del algoritmo, en dominio discreto, puede interpretarse como: ξk = ξk−1 + ǫ. (2.7) por lo tanto,. Finalmente,. 2.6..   G(ξk ) = G(ξk−1) + ξk f (ξk ) − g(ξk ) ǫ,   H(ξk ) = H(ξk−1) + f (ξk ) − g(ξk ) ǫ..   G(ξk ) = G(ξk−1) + ξk µ(ξk ) − µ(ξk ) |ǫ|,   H(ξk ) = H(ξk−1) + µ(ξk ) − µ(ξk ) |ǫ|.. (2.8) (2.9) (2.10) (2.11). Enhanced Opposite Direction Searching (EODS). Es un algoritmo de búsqueda exhaustiva. Ha sido identificado como el algoritmo con menor tiempo de ejecución [6, 24], comparado con EKM y EIASC. Hu et al. [6] usaron la ecuación (2.16) para, a través de operaciones algebraicas simples, dar con (2.5). A partir de ésta última, usaron el numerador de la fracción para plantear el algoritmo. El numerador corresponde a la función τ (ξ), ası́, si consideramos como punto de partida al Par motor, el procedimiento de Hu et al. es circular. Además, la comprensión del algoritmo es la más sencilla de todas5 . Sin embargo, realizando su análisis en dominio continuo, se puede notar la omisión de un termino en las ecuaciones de recurrencia usadas por el autor original. La función Par motor τ (ξ) puede ser expresada como una resta: τ (ξ) =. Z. ξ 0. (ξ − x)f (x)dx −. Z. ξ. 1. (x − ξ)g(x)dx.. el minuendo y el sustraendo son, cada uno, una función: Z ξ Sl (ξ) = (ξ − x)f (x)dx,. (2.1). (2.2). 0. 5. Se le ha acusado al EODS de ser muy complicado de entender. Tan complicado que, a pesar de ser el más veloz, se sugiere no utilizarse [24] ó no estudiarse [13]..

(34) 34. CAPÍTULO 2. MARCO TEÓRICO. 0.10. 0.08. Sl Sr. 0.06. 0.04. 0.02. 0.00 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. ξ. Figura 2.7: Raı́z de τ (ξ) a partir del cruce de las funciones Sl (ξ) y Sr (ξ).. Sr (ξ) =. Z. 1. ξ. (x − ξ)g(x)dx.. (2.3). Evidentemente, si τ (ξ) = 0, entonces: Sl (ξ) = Sr (ξ). Es a través de éste punto de corte que, el EODS, encuentra la raı́z de τ (ξ). La búsqueda del punto de cruce se hace calculando, de forma intercalada y en dirección opuesta, las funciones Sr (ξ) y Sl (ξ). Sl (ξ) y Sr (ξ), tienen la forma: S(ξ) =. Z. ξ ξ0. (ξ − x)d(x)dx,. (2.4). que se puede separar en dos integrales, S(ξ) = ξ S1 (ξ) − S2 (ξ),. S1 (ξ) =. Z. ξ. d(x)dx,. S2 (ξ) =. ξ0. Z. ξ. xd(x)dx.. (2.5). ξ0. Para el cálculo de S1 (ξ) y S2 (ξ), en una búsqueda exhaustiva, es apropiado expresarlas con ecuaciones de recurrencia, de igual forma que se hace en el EIASC. S(ξk ) = ξk S1 (ξk ) − S2 (ξk ),. S1 (ξ0 ) = 0,. S1 (ξk ) = S1 (ξk−1) + S2 (ξk ) = S2 (ξk−1 ) +. Z. Z. S2 (ξ0 ) = 0,. (2.6). ξk. d(x)dx,. (2.7). xd(x)dx.. (2.8). ξk−1 ξk. ξk−1. Si, ǫ > 0 para Sl y ǫ < 0 para Sr , la progresión del algoritmo, en dominio discreto, puede interpretarse como: ξk = ξk−1 + ǫ. (2.9).

(35) 2.6. ENHANCED OPPOSITE DIRECTION SEARCHING (EODS) por lo tanto,. . 35. . S(ξk ) = ξk S1 (ξk ) − S2 (ξk ) ǫ, S1 (ξk ) = S1 (ξk−1) + d(ξk ),. (2.10). S2 (ξk ) = S2 (ξk−1) + ξk d(ξk ),. (2.11). recordando que, para Sl (ξ), ξ0 = 0, y para Sr (ξ) ξ0 = 1. Otra ecuación de recurrencia para S(ξ), es: . S(ξk ) = S(ξk−1) + ξk − ξk−1. Z. ξk−1. d(x)dx +. Z. ξk. ξk−1. ξ0. (ξk − x)d(x)dx,. Ésta expresión es correcta. Sin embargo, debido al sumando Z ξk (ξk − x)d(x)dx, e(ξk ) =. S(ξ0 ) = 0.. (2.12). (2.13). ξk−1. su implementación en dominio discreto tiene dificultad. Si se opta por desestimar su valor   Z ξk−1 d(x)dx, (2.14) S(ξk ) = S(ξk−1 ) + ξk − ξk−1 ξ0. conduce a un error acumulativo que convierte al EODS original, pues hace uso de esta expresión, en un método aproximado en comparación con los algoritmos EKM y EIASC, es decir, no converge a la misma solución que el algoritmo KM. La progresión del algoritmo, en dominio discreto, puede interpretarse como: ξk = ξk−1 + ǫ.. (2.15). S(ξk ) = S(ξk−1) + ǫ F (ξk−1),. (2.16). F (ξk ) = F (ξk−1) + ǫ d(ξk ). (2.17). por lo tanto,. Hu et al. dedujeron en dominio discreto la ecuación de recurrencia, por ello, no notaron la omisión del sumando de la ecuación (2.13). Además, no identificaron a la función de Par motor τ (x). El algoritmo original, una vez ha encontrado el punto de cruce, realiza un cálculo adicional. Si ξ× es el punto encontrado, el centro de masa empotrado es: c = ξ× −. Sl (ξ× ) − Sr (ξ× ) Fl (ξ× ) + Fr (ξ× ). (2.18). lo cual es idéntico (olvidando el termino omitido) a la ecuación (2.5). Éste último cálculo corresponde a una iteración del método de Newton. Sin embargo, el algoritmo sigue siendo aproximado, pues sólo se hace una iteración. En el caso del conjunto difuso contra ejemplo (ACE , ver Anexo A) propuesto por Rojas et al. [19], aplicándole el EODS, se da un error relativo de 35.019 %..

(36) 36. CAPÍTULO 2. MARCO TEÓRICO. Si se usan las ecuaciones de recurrencia (2.10) y (2.11), en lugar de (2.16) y (2.17), se evita el error acumulativo y no es necesaria la iteración de Newton. Sin embargo, como se mostrará en el capı́tulo de resultados, el tiempo de ejecución se ve penalizado. De no ser por el termino omitido, el EODS original serı́a el algoritmo, entre los algoritmos tipo KM, con menor tiempo de ejecución. Debido a que en realidad es un algoritmo aproximado, debe compararse con otros algoritmos aproximados..

(37) Capı́tulo 3 Nuevos algoritmos Los algoritmos EKM, EIASC y EODS, se basan en el método de Newton y en la búsqueda exhaustiva. Además, sus puntos de inicio son estáticos, es decir, son los mismos para cualquier conjunto. KM2 e IASC2 introducen en su inicialización lo que puede considerarse como cotas de primer orden (lineales), para obtener la primera aproximación a la raı́z de la función Par motor. Ahora se expondrán algunos algoritmos que se pueden utilizar para resolver el problema. Estos también hacen uso del método de Newton y la búsqueda exhaustiva, además de los métodos de la Bisección y Halley. Para algunos, los puntos de inicio son estáticos. Para otros, están definidos por las cotas de segundo orden de la función τ (ξ) ó por la raı́z de su aproximación, de segundo orden, en polinomios de Berstein B2f (ξ).. 3.1. 3.1.1.. Nuevas herramientas para nuevos algoritmos Cotas de segundo orden para la función de Par motor. La función τ (ξ) =. Z. 0. puede expresarse como Z. τ (ξ) =. ξ. 0. Si1 |f (x) − g(x)| ≤ 1:. ξ. (ξ − x)f (x)dx +. 0. ξ. 1 ξ. (ξ − x)g(x)dx,. Z 1  (ξ − x) f (x) − g(x) dx + (ξ − x)g(x)dx. . (ξ − x) ≥ 0, x ∈ [0, ξ],. Z ξ  (ξ − x) f (x) − g(x) dx ≤ (ξ − x)dx, . (3.2). (3.3) (3.4). 0. resolviendo la integral del lado derecho, Z ξ   ξ2 (ξ − x) f (x) − g(x) dx ≤ . 2 0 1. (3.1). 0.   (ξ − x) f (x) − g(x) ≤ (ξ − x), Z. Z. El signo de f (x) − g(x), no afecta la desigualdad.. 37. (3.5).

(38) 38. CAPÍTULO 3. NUEVOS ALGORITMOS. Por lo tanto, ξ2 τ (ξ) ≤ +ξ 2. Z. 1 0. g(x)dx −. Z. 1. xg(x)dx.. (3.6). 0. Otra expresión de τ (ξ) es: Z 1 Z 1   τ (ξ) = (ξ − x)f (x)dx − (ξ − x) f (x) − g(x) dx, 0. (3.7). ξ. en este caso:   − (ξ − x) f (x) − g(x) ≥ (ξ − x), −. Z. . 1. ξ. . (ξ − x) ≤ 0, x ∈ [ξ, 1]. (ξ − x) f (x) − g(x) dx ≥. Z. ξ. 1. (ξ − x)dx,. (3.9). resolviendo la integral del lado derecho, Z 1   1 ξ2 − (ξ − x) f (x) − g(x) dx ≥ − + ξ − . 2 2 ξ Por lo tanto,.  ξ2 τ (ξ) ≥ − + ξ 1 + 2. Z. 0. 1. Z   f (x)dx − 1 +. 1 0. (3.10).  xf (x)dx .. Si se discrimina τ (ξ), de acuerdo a f (x) y g(x): ( ϕ(x) si f (x) = µ(x), g(x) = µ(x) τ (x) = , ω(x) si f (x) = µ(x), g(x) = µ(x) y se define Z 1 A= xµ(x)dx, 0. las cotas son:. B=. Z. 1. µ(x)dx, 0. C=. Z. (3.8). 1. xµ(x)dx,. D=. 0. Z. (3.11). (3.12). 1. µ(x)dx,. (3.13). 0.  1  1 2  1 2 ξ + Dξ − C ≥ ϕ(ξ) ≥ − ξ + 1 + B ξ − +A 2 2 2   1  1 2 1 ξ + Bξ − A ≥ ω(ξ) ≥ − ξ 2 + 1 + D ξ − +C 2 2 2. (3.14) (3.15). La raı́z de la cota superior de ϕ(ξ) y la raı́z de la cota inferior de ω(ξ), 1 ϕ(ξ) = ξ 2 + Dξ − C, 2   1  1 ω(ξ) = − ξ 2 + 1 + D ξ − +C , 2 2. (3.16) (3.17).

(39) 3.1. NUEVAS HERRAMIENTAS PARA NUEVOS ALGORITMOS 0.8. 1.0. ϕ(ξ) ϕ(ξ). 0.6. ω(ξ) ω(ξ). 0.8. ω(ξ). ϕ(ξ) 0.4. 0.6. 0.2. 0.4. 0.0. 0.2. −0.2. 0.0. −0.4. −0.2. −0.6. −0.4. −0.8 0.0. 39. 0.2. 0.4. 0.6. 0.8. 1.0. −0.6 0.0. 0.2. 0.4. ξ. 0.6. 0.8. 1.0. ξ. Figura 3.1: Cotas de las funciones ϕ(ξ) y ω(ξ), según las ecuaciones (3.14) y (3.15). permiten establecer puntos de inicio a partir de las constantes D y C, que son las mismas utilizadas para la inicialización del EIASC. Si de antemano se conocen los valores:.   M = máx f (x) − g(x) ,. (3.18). x.   m = mı́n f (x) − g(x) ,. (3.19). x. los cuales no es recomendable calcular en el procedimiento de defusificación, se pueden establecer las siguientes desigualdades: Z 1 Z 1 Z 1   −M (ξ − x)dx ≥ − (ξ − x) f (x) − g(x) dx ≥ −m (ξ − x)dx, (3.20) ξ. M. ξ. Z. 0. ξ. (ξ − x)dx ≥. Z. ξ. ξ 0. Z ξ  (ξ − x) f (x) − g(x) dx ≥ m (ξ − x)dx, . (3.21). 0. que conducen a otro conjunto de cotas para ϕ(ξ)    y ω(ξ), en el que para todos los casos  M = máx µ(x) − µ(x) y m = mı́n µ(x) − µ(x) , x. x. ϕ0 (ξ) =. M 2 ξ + Dξ − C, 2. ϕ0 (ξ) =. m 2 ξ + Dξ − C 2. (3.22). ϕ1 (ξ) =. M M 2 ξ + (B − M)ξ − A + , 2 2. ϕ1 (ξ) =. m 2 m ξ + (B − m)ξ − A + 2 2. (3.23). ω 0 (ξ) = −. m 2 ξ + Bξ − A, 2. ω 0 (ξ) = −. M 2 ξ + Bξ − A 2. (3.24). ω 1 (ξ) = −. m m 2 ξ + (D + m)ξ − C − , 2 2. ω 1 (ξ) = −. M M 2 ξ + (D + M)ξ − C − 2 2. (3.25).

(40) 40. CAPÍTULO 3. NUEVOS ALGORITMOS 0.4. 0.5. ϕ0 (ξ) ϕ0 (ξ). 0.4. ϕ1 (ξ) ϕ1 (ξ). 0.3. ϕ(ξ). ϕ(ξ) 0.2. 0.3 0.1 0.2 0.0 0.1 −0.1 0.0 −0.2. −0.1 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. −0.3 0.0. 0.2. 0.4. 0.6. ξ. ξ. (a). (b). 0.8. 1.0. Figura 3.2: Cotas de ϕ(ξ) con error cero en: (a) ξ = 0, (b) ξ = 1. donde el subindice de cada cota, indica: τ (ξ) = τ p (ξ) = τ p (ξ),. ξ = p.. (3.26). Este último grupo de funciones se puede utilizar para obtener una aproximación de la función τ (ξ).  1 τe(ξ) = ℓ1 τ 1 (ξ) + ℓ2 τ 1 (ξ) + ℓ3 τ 0 (ξ) + ℓ4 τ 0 (ξ) , (3.27) 2ℓ donde, ℓ3 + ℓ4 ℓ1 + ℓ2 = = 1. (3.28) ℓ ℓ La expresión (3.27) de τe(ξ) se obtuvo a partir de el promedio aritmético de: La combinación convexa de τ 1 (ξ) y τ 1 (ξ), y, la combinación convexa de τ 0 (ξ) y τ 0 (ξ). Los valores de ℓ, ℓ1 , ℓ2 , ℓ3 y ℓ4 , se eligieron de forma que: τ (ξ) = τe(ξ),. Entonces, si  1 M −m , ℓ= 2 ℓ3 = y,. ℓ1 =. ξ = 0, 1. M − A + C, 2. M + A − B − C + D, 2. ℓ4 = −. .. (3.29). m + A − C, 2. (3.30). m − A + B + C − D, 2. (3.31). ℓ2 = −.  1 ℓ1 ϕ1 (ξ) + ℓ2 ϕ1 (ξ) + ℓ3 ϕ0 (ξ) + ℓ4 ϕ0 (ξ) , 2ℓ  1 ω e (ξ) = ℓ1 ω 1 (ξ) + ℓ2 ω 1 (ξ) + ℓ3 ω 0 (ξ) + ℓ4 ω 0 (ξ) , 2ℓ ϕ(ξ) e =. (3.32) (3.33).

(41) 3.1. NUEVAS HERRAMIENTAS PARA NUEVOS ALGORITMOS. 41. 0.4. ϕ(ξ) e. ϕ(ξ) e. 0.04. ϕ(ξ). ϕ(ξ). 0.3. 0.02. 0.2 0.00. 0.1. −0.02. 0.0. −0.04. −0.1 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. 0.20. 0.25. 0.30. ξ. ξ. (a). (b). 0.35. 0.40. Figura 3.3: Aproximación de ϕ(ξ) a partir de la combinación de las cotas, conjunto A3 (ver Apéndice A). (a) Intervalo [0, 1], (b) Intervalo [0.2, 0.4] producen:.    1 B − D ξ 2 + B − 2A + 2C + D ξ − 2C , (3.34) 2   2  1 − B − D ξ + B + 2A − 2C + D ξ − 2A , (3.35) ω e (ξ) = 2 que no requieren el cálculo de M ni de m. La desventaja de ésta aproximación es que se necesita del cálculo de A y B, adicional al de C y D. Adicionalmente, aún no ha sido posible obtener una expresión analı́tica que permita acotar el error en la aproximación. De ser tenida en cuenta ésta propuesta, deberı́a compararse con otros algoritmos aproximados. ϕ(ξ) e =. 3.1.2.. Aproximación usando polinomios de Bernstein. Dada la función τ (ξ) en el intervalo [0, 1]. Se define el polinomio de Bernstein de orden n, que aproxima a τ (ξ), como [10]: Bnτ (ξ). =. n X j=0. τ (ξj )bn,j (ξ),. j ξj = , n.   n j ξ (1 − ξ)n−j , bn,j (ξ) = j. ξ ∈ [0, 1],. (3.36). donde, lı́m Bnτ (ξ) = τ (ξ).. n→∞. (3.37). Buscando, como aproximación, un polinomio de segundo grado. Si n = 2: B2τ (ξ) = τ (0) b2,0 (ξ) + τ (1/2) b2,1 (ξ) + τ (1) b2,2 (ξ),. (3.38).

(42) 42. CAPÍTULO 3. NUEVOS ALGORITMOS. donde los polinomios de Bernstein son: b2,0 (ξ) = ξ 2 − 2ξ + 1, b2,1 (ξ) = −2ξ 2 + 2ξ, b2,2 (ξ) = ξ 2 .. (3.39) (3.40) (3.41). B2τ (ξ) = a0 ξ 2 + a1 ξ + a2 ,. (3.42). a0 = τ (0) − 2τ (1/2) + τ (1), a1 = −2τ (0) + 2τ (1/2), a2 = τ (0).. (3.43) (3.44) (3.45). Por lo tanto, donde,. Si, τ (ξ) = entonces: a0 =. Z. 0. a2 = −. Z. ξ 0. (ξ − x)f (x)dx +. 1. (ξ − x)g(x)dx,. ξ. (3.46). Z 1     x f (x) − g(x) dx + (1 − x) f (x) − g(x) dx,. 1 2. a1 = −2. Z. 1 2. Z. Z. 1 2. 0. 1. Z   x f (x) − g(x) dx +. 1 2. f (x)dx +. 0. Z. (3.47). 1. g(x)dx,. (3.48). 1 2. xg(x)dx.. (3.49). 0. Si se usan las constantes definidas en (3.13), y se define, A1 = 2. Z. 1 2. xµ(x),. 0. B1 = 2. Z. 1 2. µ(x),. C1 = 2. 0. Z. 1 2. xµ(x),. 0. D1 = 2.   E = 2 A1 − C1 − B1 + D1 , 2. 2. 2. 2. F = A − B − C + D,. entonces:.     B2ϕ (ξ) = E − F ξ 2 + D − E ξ − C,     ω 2 B2 (ξ) = F − E ξ + B + E ξ − A.. Z. 1 2. µ(x),. (3.50). 0. (3.51) (3.52) (3.53) (3.54). La desventaja de ésta aproximación es que se necesita del cálculo de A y B, adicional al de C y D, por lo que no es recomendable para iniciar una búsqueda exhaustiva. Los valores de A 1 , B 1 , C 1 y D 1 , se pueden obtener durante el cálculo de A, B, C y D. 2. 2. 2. 2. La aproximación usando polinomios de Berstein tiene un error uniforme. Se ha demostrado que dicho error se puede acotar [10, 18, 22, 29]..

(43) 3.1. NUEVAS HERRAMIENTAS PARA NUEVOS ALGORITMOS. 43. 0.4. B2ϕ (ξ). B2ϕ (ξ). 0.04. ϕ(ξ). ϕ(ξ). 0.3. 0.02. 0.2 0.00. 0.1. −0.02. 0.0. −0.04. −0.1 0.0. 0.2. 0.4. 0.6. 0.8. 1.0. 0.20. 0.25. 0.30. ξ. ξ. (a). (b). 0.35. 0.40. Figura 3.4: Aproximación de Bernstein de orden dos para ϕ(ξ), del conjunto A3 (ver Apéndice A). (a) Intervalo [0, 1], (b) Intervalo [0.2, 0.4] En general, para cualquier aproximación polinomial, la cota del error es proporcional al modulo de continuidad de la función aproximada. Si el polinomio de grado n, Pn (t), aproxima a la función f (t), entonces2 : f (t) − Pn (t) ≤ Cω f (1/n),. t ∈ [0, 1],. (3.55). t1 , t2 ∈ [0, 1].. (3.56). donde ω f (δ) es el modulo de continuidad3 de f (t), ω f (δ) = máx. |t1 −t2 |<δ. f (t1 ) − f (t2 ) ,. Para la aproximación de Bernstein4 , f (t) − Bnf (t) ≤ Si ω1f (δ), es el modulo de continuidad de. 5 f −1 ω (n 2 ). 4. d f (t), dt. f (t) − Bnf (t) ≤. entonces5. 3 −1 f −1 n 2 ω1 (n 2 ). 4. Otras expresiones para la cota del error en la aproximación son: 2. Teorema 2. Dunham Jackson [29] Página 3, [29] 4 Teorema 1.6.1, página 20 [10] 5 Teorema 1.6.2, página 21 [10] 3. (3.57). (3.58).

(44) 44. CAPÍTULO 3. NUEVOS ALGORITMOS Si, f (t) cumple la condición de Lipschitz, es decir, existe una constante L > 0 tal que6 , f (t1 ) − f (t2 ) ≤ L|t1 − t2 |,. entonces. t1 , t2 ∈ [0, 1],. (3.59). r. ln n . (3.60) n Si, f (t) cumple la condición de Holder (generalización de la condición de Lipschitz), es decir, existe una contante C, tal que7 f (t) − Bnf (t) ≤ K. f (t1 ) − f (t2 ) ≤ C|t1 − t2 |α ,. t1 , t2 ∈ [0, 1],. α > 0,. (3.61). entonces,. K . nα/2 Si, f (t) cumple la condición de Lipschitz, con constante L > 0, entonces8 f (t) − Bnf (t) ≤. t − t2 f (t) − Bnf (t) ≤ L n. !1/2. .. (3.62). (3.63). Con el fin de utilizar las expresiones anteriores en esta monografı́a, es necesario obtener el modulo de continuidad y la constante L de Lipschitz. A partir de la definición de modulo de continuidad y de la condición de Lipschitz, la relación entre L y ω f (δ) ω f (δ) = L|t1 − t2 |, |t1 − t2 | ≤ δ, (3.64) ω f (δ) ≤ L δ,. (3.65). f (t1 ) − f (t1 + δ) ≤ L δ,. (3.66). f (t1 ) − f (t1 + δ) ≤ L. δ. (3.67). ası́, si se acota L, se acota ω f (δ). Si, Lδ es la constante de Lipschitz correspondiente a la variable δ, Lδ ≤ lı́m. δ→0. f (t1 ) − f (t1 + δ) ≤ L0 , δ. Lδ ≤ 6. d f (t) ≤ L0 , dt. Gzyl and Palacios, página 1410 [22] Y.Punkla and E.Sontonsinsongvon, página 1411 [22] 8 Teorema 1, página 63 [18] 7. (3.68). (3.69).

(45) 3.1. NUEVAS HERRAMIENTAS PARA NUEVOS ALGORITMOS. 45. Por lo tanto, 1 1 d 5 5 5 f −1 ω (n 2 ) ≤ L n− 2 ≤ n− 2 f (t) , 4 4 4 dt. (3.70). 3 1 d2 3 −1 f −1 3 1 n 2 ω1 (n 2 ) ≤ L≤ f (t) , 4 4n 4 n dt2. (3.71). t − t2 L n. !1/2. d ≤ f (t) dt. t − t2 n. !1/2. .. (3.72). Se tienen tres opciones para acotar el error: f (t) − Bnf (t) ≤. 5 −1 d n 2 f (t) , 4 dt. (3.73). f (t) − Bnf (t) ≤. 3 1 d2 f (t) , 4 n dt2. (3.74). f (t) −. Bnf (t). d ≤ f (t) dt. t − t2 n. !1/2. .. (3.75). Con n = 2, d 5 f (t) − B2f (t) ≤ √ f (t) , 4 2 dt f (t) − B2f (t) ≤. 3 d2 f (t) , 8 dt2. d f (t) − B2f (t) ≤ f (t) dt. ξ−1+. 1 0. (3.77). t − t2 2. De la misma forma que se acotó τ (ξ), se puede acotar Z. (3.76). !1/2. .. (3.78). ∂ τ (ξ) ∂τ. ∂ τ (ξ) ≤ ξ + f (x)dx ≤ ∂τ. Z. 0. 1. g(x)dx. (3.79).

(46) 46. CAPÍTULO 3. NUEVOS ALGORITMOS. por lo tanto, τ (ξ) −. B2τ (ξ). Z 1  5  √ ξ+ g(x)dx , ≤ 4 2 0. (3.80). 3 τ (ξ) − B2τ (ξ) ≤ , 8. (3.81). Z  τ τ (ξ) − B2 (ξ) ≤ ξ +. 0. 1.  ξ − ξ2 g(x)dx 2. !1/2. .. En general para cualquier aproximación polinomial de segundo orden, Z 1  1 τ ξ+ g(x)dx . τ (ξ) − P2 (ξ) ≤ C 2 0. (3.82). (3.83). Todas estas cotas del error son conservadoras, por lo tanto, insatisfactorias. Pueden resultar injustas con la aproximación.. 3.2.. Aproximaciones e inicialización. En esta sección, se consideran las ventajas e inconvenientes que presentan las aproximaciones de la sección anterior, si se utilizan para obtener una primera aproximación a la raı́z de la función de Par motor. La aproximación con menor costo de inicialización es la que sólo requiere del cálculo de C y D, 1 (3.1) ϕ(ξ) = ξ 2 + Dξ − C, 2   1  1 +C . (3.2) ω(ξ) = − ξ 2 + 1 + D ξ − 2 2 La aproximación que aparece al combinar las cotas, necesita del cálculo adicional de A y B,   2  1 ϕ(ξ) e = B − D ξ + B − 2A + 2C + D ξ − 2C , (3.3) 2    1 − B − D ξ 2 + B + 2A − 2C + D ξ − 2A , (3.4) ω e (ξ) = 2 Para usar la aproximación de Bernstein de segundo orden, es necesario almacenar los valores de A 1 , B 1 , C 1 , y D 1 , durante el cálculo de las constantes A, B, C y D, 2. 2. 2. 2. B2ϕ (ξ). . .   = E − F ξ + D − E ξ − C, 2. (3.5).     B2ω (ξ) = F − E ξ 2 + B + E ξ − A.. (3.6).

(47) 3.2. APROXIMACIONES E INICIALIZACIÓN donde,. 47.   E = 2 A1 − C1 − B1 + D1 , 2. 2. 2. (3.7). 2. F = A − B − C + D.. (3.8). Las aproximaciones de Berstein y combinación de cotas, hacen uso de las mismas constantes, por lo que tendrán los mismos costos de inicialización. Entonces, es interesante compararlos en cuanto a exactitud (con respecto a la solución del KM). Usando los mismos conjuntos usados por Rojas et al. [19] (ver Apéndice A: Ejemplos de conjuntos difusos), y con la misma notación, el error relativo de cada aproximación se muestra en la tabla 3.1. A partir de ésta tabla, se concluye que ninguna de las dos aproximaciones pueden utilizarse por si solas para obtener la solución, sin embargo, pueden usarse como primera aproximación. Todas las aproximaciones son polinomios de segundo orden, lo que implica el cálculo de la raı́z cuadrada para obtener la raı́z de la aproximación. Es un cálculo costoso y debe evitarse. En todos los casos, la aproximación tiene la forma τe(ξ) = a2 ξ 2 + a1 ξ + a0 ,. y la raı́z en el intervalo [0, 1]. ξ0 =. −a1 +. La raı́z se reescribe como, 1 a1 ξo = 2 a2. r. (3.9). p a21 − 4a2 a0 . 2a2. (3.10). ! a2 a0 1−4 2 −1 . a1. (3.11). El argumento de la raı́z cuadrada tiene la forma 1 − z, por √ lo que la expansión en serie de Taylor, de primer orden centrada en cero, para la función 1 − z 1 T1 (z) = 1 − z, 2. (3.12). Tabla 3.1: Resultados encontrados en la comparación de Bernstein y Combinación de cotas. IT2FS ACE. cM. REcc. REB. cr. 0.3321 5.38 % 14.75 % 0.0500. REcc 4.65 %. REB. cl. 63.57 % 0.6130. REcc. REB. 6.40 %. 21.37 %. A1. 0.5000 0.00 %. 0.00 %. 0.3590 23.47 % 41.28 % 0.6410 13.14 % 23.12 %. A2. 0.4631 0.68 %. 1.41 %. 0.2850 10.80 % 35.05 % 0.6390. 4.16 %. 18.02 %. A3. 0.4415 0.71 %. 0.63 %. 0.3440 12.40 % 28.12 % 0.5380. 6.94 %. 19.21 %. A4. 0.4752 0.39 %. 0.15 %. 0.3800. 1.98 %. 10.43 %. 3.86 %. 15.92 % 0.5700.

(48) 48. CAPÍTULO 3. NUEVOS ALGORITMOS. puede reemplazar a la raı́z, obteniendo. ! ! a2 a0 −1 , 1−2 2 a1 a0 ξeo = − . a1 El resto de Lagrange, determina el error cometido en la aproximación − 23 1 z 2 , t ∈ [0, z]. E2 (z) = − 1 − t 8 Esta aproximación para la raı́z cuadrada se utilizará para encontrar las raı́ces de las maciones ϕ̃, ω̃, B2ϕ , y B2ω . 1 a1 ξeo = 2 a2. (3.13) (3.14). (3.15) aproxi-. Con el fin de utilizar la aproximación menos costosa, (3.1) y (3.2), como punto de inicio para una búsqueda exhaustiva, la aproximación de la raı́z cuadrada debe garantizar ce el ≤ cel , cer ≥ ce er , (3.16). donde cel y cer , son los ceros de las aproximaciones si se realiza directamente el cálculo de la raı́z cuadrada y, ce el y ce er , si se evita el cálculo directo. Si, √ cel = −D + sl , sl = zl , zl = D 2 + 2C, (3.17) √ 2 cer = 1 + D − sr , sr = zr , zr = (1 + D) − 2(1/2 + C), (3.18). y sabemos que, 0 < C <. 1 2. y 0 < D < 1, entonces. 0 < zl < 2, −1 < zr < 3.. (3.19) (3.20). −D + sel < −D + sl , sel < sl ,. (3.21) (3.22). Las desigualdades establecidas en la ecuación (3.16), implican. 1 + D − sr > 1 + D − ser , sr > ser .. (3.23) (3.24). Por lo tanto, para√ z ∈ [0, 3], la aproximación s̃(z), debe ser una aproximación por defecto de la función s(z) = z. Para cumplir con estos requerimientos, se propone la siguiente aproximación en el intervalo [0, 3]  3  25 z 0 ≤ z ≤ 50  6      3 3  T2, 1 (z) 50 < z ≤ 20   10     2 3 (3.25) s(z) = T2, 41 (z) 20 < z ≤ 5 , z ∈ [0, 3] e      T2, 1 (z) 25 < z ≤ 54  2      4   T2, 23 (z) 5 < z ≤ 3.

(49) 3.3. FUERZA BRUTA. 49 1.8. s(z) 1.6. se(z). 1.4 1.2 1.0 0.8 0.6 0.4 0.2 0.0 0.0. 0.5. 1.0. 1.5. 2.0. 2.5. 3.0. z. Figura 3.5: Aproximación de la función s(z) =. √. z, z ∈ [0, 3].. donde T√n,a (z) es la expansión en serie de Taylor de orden n, centrada en a, de la función s(z) = z. La aproximación es,  3 25  z 0 ≤ z ≤ 50  6    √   3 3 10  − (100z 2 − 60z − 3) < z ≤ 20   80 50     3 1 (16z 2 − 24z − 3) < z ≤ 52 , − 16 20 se(z) =    1 2   − 27/2 (4z 2 − 12z − 3) < z ≤ 54  5      1 4 2   − 27/2 33/2 (4z − 36z − 27) 5 < z ≤ 3. z ∈ [0, 3]. (3.26). mostrada en la figura 3.5. La aproximación s̃(z) para la raı́z cuadrada, se utilizará para encontrar las raı́ces de las cotas de segundo orden, ϕ y ω.. 3.3.. Fuerza bruta. Consiste en la búsqueda exhaustiva sobre la función τ (ξ), evitando cálculos redundantes, e iniciando la búsqueda desde los extremos del intervalo [0, 1]. Para cl , la búsqueda inicia en ξ0 = 0, por lo que es conveniente: Z ξ Z 1   τ (ξ) = (ξ − x) f (x) − g(x) dx + (ξ − x)g(x)dx. (3.1) 0. 0. Para cr , la búsqueda inicia en ξ0 = 1, por lo que es conveniente: Z 1 Z 1   τ (ξ) = (ξ − x)f (x)dx − (ξ − x) f (x) − g(x) dx. 0. ξ. (3.2).

(50) 50. CAPÍTULO 3. NUEVOS ALGORITMOS Ası́, en ambos casos τ (ξk ) = ξk H(ξk ) − G(ξk ), G(ξk ) = G(ξk−1) +. G(ξ0 ) = C,. Z. ξk. ξk−1. H(ξk ) = H(ξk−1) +. Z. ξk. H(ξ0 ) = D,.   x f (x) − g(x) dx,. ξk−1. .  f (x) − g(x) dx.. (3.3) (3.4) (3.5). En comparación con el algoritmo EKM, H(ξ) corresponde a la derivada de τ (ξ). Por lo tanto, hacer uso directo de τ (ξ) no implica evitar el cálculo de su derivada. Se evita la operación de división en cada iteración, reemplazándola por una multiplicación y una resta. Si, ǫ > 0 para cl y ǫ < 0 para cr , la progresión del algoritmo, en dominio discreto, puede interpretarse como: ξk = ξk−1 + ǫ. (3.6) por lo tanto,. Finalmente,.   G(ξk ) = G(ξk−1 ) + ξk f (ξk ) − g(ξk ) ǫ,   H(ξk ) = H(ξk−1) + f (ξk ) − g(ξk ) ǫ..   G(ξk ) = G(ξk−1) + ξk µ(ξk ) − µ(ξk ) |ǫ|,   H(ξk ) = H(ξk−1) + µ(ξk ) − µ(ξk ) |ǫ|.. (3.7) (3.8). (3.9) (3.10). Ası́, este algoritmo cuenta con la misma estructura que el EIASC. La principal diferencia es el uso directo de la función τ , evitando la operación de división que requiere, por iteración, G(ξk ) el EIASC para calcular c(ξk ) = H(ξ . k). 3.4.. Bernstein y Raı́z convexa. Son dos algoritmos de búsqueda exhaustiva. La única diferencia es su inicialización. El punto de inicio del algoritmo Bernstein, está dado por la raı́z del polinomio de Bernstein de segundo orden: Para cl , r 2   D − E + 4C E − F E −D+   , (3.1) ξ1 = 2 E−F. y para cr. 2     r B + E + 4A F − E − B+E +   . ξ1 = 2 F −E. (3.2).

(51) 3.4. BERNSTEIN Y RAÍZ CONVEXA. 51. El punto de inicio del algoritmo Raı́z convexa, está dado por la raı́z del polinomio de segundo orden que se obtiene al combinar las cotas: Para cl ,     r 2   2 A−C − B+D + B + D − 2(A − C) + 8C B − D   ξ1 = , (3.3) 2 B−D y para cr. ξ1 =. . . . . −2 A − C − B + D +. r. B + D + 2(A − C)   2 D−B. 2.   − 8A B − D. .. Aplicando en ambos algoritmos la aproximación √ z 1−z ≈1− , 2. (3.4). (3.5). los puntos de inicio, para cada algoritmo, son: Bernstein, cl ξ1 =. C , D−E. (3.6). ξ1 =. A . B+E. (3.7). 2C , B + D − 2(A − C). (3.8). y cr. Raı́z convexa, cl ξ1 = y cr. 2A . (3.9) B + D + 2(A − C) La progresión de cada algoritmo es la misma. Usan las expresiones obtenidas para el algoritmo de Fuerza bruta. ξ1 =. Si, ξ0 = 0 para cl y ξ0 = 1 para cr , y ξ1 es la raı́z de la aproximación, en general: ǫ>0 ǫ<0. si si. τ (ξ1 ) < 0, τ (ξ1 ) > 0.. (3.10). Donde,. G(ξ1 ) = C +. Z. τ (ξk ) = ξk H(ξk ) − G(ξk ), Z  ξ1  x f (x) − g(x) dx, H(ξ1) = D +. ξ0. (3.11) ξ1. ξ0. .  f (x) − g(x) dx,.   G(ξk ) = G(ξk−1) + ξk f (ξk ) − g(ξk ) ǫ,   H(ξk ) = H(ξk−1) + f (ξk ) − g(ξk ) ǫ.. (3.12) (3.13) (3.14).

(52) 52. 3.5.. CAPÍTULO 3. NUEVOS ALGORITMOS. Raı́z acotada y Newton acotado. Ambos algoritmos comparten el punto de inicio. A partir de las raı́ces de las cotas: ϕ(ξ) y ω(ξ), haciendo uso de la aproximación de la raı́z cuadrada, se(z) (3.26), el punto de inicio para cl es ξ1 = −D + se(z), z = D 2 + 2C, (3.1) y para cr.   ξ1 = − 1 + D + se(z),. . z = 1+D. 2. −2. 1 2. . +C .. (3.2). El algoritmo Raı́z acotada, es de búsqueda exhaustiva. Usa las mismas expresiones que los algoritmos: Bersntein y Raı́z convexa. Newton acotado, corresponde al método de Newton, usando como punto de inicio ξ1 . Si, ξ0 = 0 para cl y ξ0 = 1 para cr , G(ξk ) c(ξk ) = , G(ξ1 ) = C + H(ξk ). Z. ξ1. ξ0.   x f (x) − g(x) dx,. G(ξk ) = G(ξk−1) +. Z. ξk. ξk−1. H(ξk ) = H(ξk−1) +. 3.6.. Z. H(ξ1) = D +. Z. ξ1. ξ0.   f (x) − g(x) dx,.   x f (x) − g(x) dx,. ξk ξk−1. .  f (x) − g(x) dx.. (3.3) (3.4). (3.5). Bisección. Sea f una función continua, definida sobre el intervalo [a, b]. Si a < b y se cumple que: f (a)f (b) < 0, es decir, hay un cambio de signo, entonces f tiene al menos una raı́z [17] r, f (r) = 0, a < r < b. En el caso de τ , en el intervalo [0, 1] se cumple τ (0) = − τ (1) =. Z. Z. 1 0. xg(x)dx ≤ 0,. (3.1). 1 0. (1 − x)f (x)dx ≥ 0.. (3.2). Por lo tanto, Además, ∂ τ (ξ) = ∂ξ. Z. τ (0)τ (1) < 0.. (3.3). Z. (3.4). ξ. f (x)dx + 0. ξ. 1. g(x)dx > 0, ∀x ∈ [0,1]. por lo que τ es creciente en [0,1]. Por lo tanto tiene un solo cambio de signo..

(53) 3.7. HALLEY ACOTADO. 53. La bisección consiste en dividir el intervalo de búsqueda en dos subintervalos iguales, e identificar cuál se puede descartar. Luego, repetir el proceso dividiendo en dos el subintervalo elegido. En cada iteración, partiendo del intervalo [0,1], la cota del error está dada por, |ξk − r| ≤ ek ,. ek =. 1 , k = 1,2,3,... 2k. (3.5). Dado que τ sólo tiene un cambio de signo, y teniendo en cuenta la cota del error ek , el signo de τ determina el valor de ξk . Ası́, tanto para cl y cr , 1 ek = ek−1 , 2. 1 e0 = , 2. ξk = ξk−1 − sgn( τ (ξk−1 ) ) ek ,. (3.6) 1 ξ0 = . 2. (3.7). El cálculo de τ (ξ) en cada iteración está dado por τ (ξk ) = ξk H(ξk ) − G(ξk ),. (3.8). donde G(ξ0) =. Z. 0. ξ0. xf (x)dx +. Z. 1. xg(x)dx, H(ξ0) = ξ0. G(ξk ) = G(ξk−1 ) +. Z. ξk. ξk−1. H(ξk ) = H(ξk−1) +. Z. ξk. Z. ξ0. f (x)dx + 0. Z. 1. g(x)dx,.   x f (x) − g(x) dx,. ξk−1. (3.9). ξ0.   f (x) − g(x) dx.. (3.10) (3.11). Éstas expresiones son las mismas que se utilizan al aplicar el método de Newton. Por lo tanto, la bisección no permite evitar el cálculo de la derivada de τ (ξ).. 3.7.. Halley Acotado. Está basado en el método de búsqueda de raı́ces propuesto por Edmond Halley. El uso de este método en el contexto de la defusificación fue mencionado por primera vez por Liu y Mendel [9]. Sin embargo, no se ha trabajado lo suficiente como para obtener un algoritmo análogo al EKM. Una de las razones puede ser la necesidad de calcular la segunda derivada de la función bajo análisis, lo que puede inducir a pensar en que no es una alternativa para reducir recursos. El método de Halley también es conocido como el método de las hipérbolas tangentes [23], lo que le da una interpretación geométrica, como se muestra en la figura 3.6. Sin embargo, lo más común es obtener el método a partir de la raı́z de la serie de Taylor de segundo orden para τ , en el entorno de ξk , suponiendo que τ (ξk−1 ) ≈ 0   ∂ 2 ∂ 2 1 τ (ξk−1 ) + ξk − ξk−1 ξk − ξk−1 τ (ξk−1 ) + τ (ξk−1) = 0, ∂ξ 2 ∂ξ 2. (3.1).

(54) 54. CAPÍTULO 3. NUEVOS ALGORITMOS. Figura 3.6: Visualización gráfica del método de Halley. Adaptado de [23]. ξk − ξk−1 = Usando la formula de Newton. τ (ξk−1 ) .   ∂2 ∂ 1 ξk − ξk−1 τ (ξk−1 ) + τ (ξk−1 ) ∂ξ 2 ∂ξ 2 ξk − ξk−1 = −. τ (ξk−1 ) , ∂ τ (ξk−1 ) ∂ξ. (3.2). (3.3). en el denominador del lado derecho, se obtiene la expresión ∂ τ (ξk−1 ) 2 τ (ξk−1 ) ∂ξ , ξk = ξk−1 −  2 ∂2 ∂ τ (ξk−1 ) − τ (ξk−1 ) 2 τ (ξk−1 ) 2 ∂ξ ∂ξ. (3.4). donde ξ0 es una aproximación inicial a la raı́z. Afortunadamente, la función τ (ξ) ofrece dos ventajas: El cálculo de su primera derivada se puede obtener durante el cálculo de la misma función, y la segunda derivada es una resta simple. En este caso, Z 1 Z ξk ∂ f (x)dx + τ (ξk ) = g(x)dx, (3.5) ∂ξ 0 ξk ∂2 τ (ξk ) = f (ξk ) − g(ξk ). ∂ξ 2. (3.6). Por lo tanto, τ (ξk ) = ξk. ∂ τ (ξk ) − S(ξk ), ∂ξ. (3.7).

Figure

Figura 2.1: Sistema de l´ogica difusa tipo dos de intervalo (T2FLS), adaptado de [12].
Figura 2.2: Comportamiento del centroide c e , de acuerdo al cambio de la funci´on de perte-
Figura 2.3: Gr´afica de las funciones τ (ξ) y c(ξ), ξ ∈ [0, 1]. (a) f = µ, g = µ. (b) f = µ, g = µ.
Figura 2.4: Visi´on de la funci´on de pertenencia empotrada como una superficie.
+7

Referencias

Documento similar

No había pasado un día desde mi solemne entrada cuando, para que el recuerdo me sirviera de advertencia, alguien se encargó de decirme que sobre aquellas losas habían rodado

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the

In medicinal products containing more than one manufactured item (e.g., contraceptive having different strengths and fixed dose combination as part of the same medicinal

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

Package Item (Container) Type : Vial (100000073563) Quantity Operator: equal to (100000000049) Package Item (Container) Quantity : 1 Material : Glass type I (200000003204)