Soluci on del problema de m inimos cuadrados que se presenta en el algoritmo del elipsoide interior para programaci on lineal

Texto completo

(1)AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS. FI S. IC AS. Y. M. ESCUELA ACADÉMICO PROFESIONAL DE MATEMÁTICAS. S. TESIS. CI A. SOLUCIÓN DEL PROBLEMA DE MÍNIMOS CUADRADOS QUE SE PRESENTA EN EL ALGORITMO DEL ELIPSOIDE. Autor:. DE. CI. EN. INTERIOR PARA PROGRAMACIÓN LINEAL. Asesora: Dra. Rojas Jerónimo Jenny Margarita. Trujillo - Perú 2013. BI. BL. IO. TE. CA. Br. DE LA CRUZ CHÁVEZ CARLOS HUMBERTO. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(2) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. UNIVERSIDAD NACIONAL DE TRUJILLO FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS. IC AS. Y. M. ESCUELA ACADÉMICO PROFESIONAL DE MATEMÁTICAS. FI S. TESIS. S. SOLUCIÓN DEL PROBLEMA DE MÍNIMOS CUADRADOS QUE. CI A. SE PRESENTA EN EL ALGORITMO DEL ELIPSOIDE. EN. INTERIOR PARA PROGRAMACIÓN LINEAL. Autor:. Asesora:. Dra. Rojas Jerónimo Jenny Margarita. Trujillo - Perú 2013. BI. BL. IO. TE. CA. DE. CI. Br. DE LA CRUZ CHÁVEZ CARLOS HUMBERTO. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(3) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. IC AS. Y. M. Jurado. FI S. Jurado 1. Jurado 2 Vocal. Dra. Jenny Margarita Rojas Jerónimo Asesora. BI. BL. IO. TE. CA. DE. CI. EN. CI A. S. Presidente. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(4) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Dedicatoria. A Dios, porque me ha dado la oportunidad de vivir la experiencia del saber y. Y. por apoyarme en alcanzar mis metas.. IC AS. A mis padres. He llegado a esta etapa gracias a ustedes; gracias por su apoyo, paciencia y comprensión. Esta tesis se la dedico a ustedes con mucho cariño, como. FI S. sı́mbolo de gratitud por el amor incondicional que siempre me han manifestado. A mi hermana, quien a sido un motor para lograr mis propósitos, gracias por su. BI. BL. IO. TE. CA. DE. CI. EN. CI A. S. ayuda y fortaleza.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(5) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Agradecimiento. A mi Alma Mater la Universidad Nacional de Trujillo, por darme la. Y. oportunidad de alcanzar esta meta, gracias a los profesores e investigadores quienes. IC AS. durante los cinco años se esmeraron por dar lo mejor para mi formación profesional, por los conocimientos teóricos y las experiencias vividas.. FI S. Un sincero agradecimiento a la Dra. Jenny Rojas Jerónimo, asesora del presente trabajo de tesis por su tiempo, orientación y ayuda que me brindó para la elaboración del presente trabajo.. CI A. S. Quiero expresar también mi más sincero agradecimiento al Dr. Wilson Maco Vásquez por sus valiosas sugerencias y acertados aportes durante el desarrollo de. BI. BL. IO. TE. CA. DE. CI. EN. este trabajo.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(6) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Presentación. Y. Señores miembros del jurado:. IC AS. En cumplimiento con lo dispuesto por las normas del reglamento de Grados y Tı́tulos de la Universidad Nacional de Trujillo, pongo a su consideración la. FI S. Tesis titulada:. SOLUCIÓN DEL PROBLEMA DE MÍNIMOS CUADRADOS QUE. S. SE PRESENTA EN EL ALGORITMO DEL ELIPSOIDE INTERIOR. CI A. PARA PROGRAMACIÓN LINEAL. Br. Carlos Humberto De la Cruz Chávez.. Trujillo, 3 de noviembre de 2013. BI. BL. IO. TE. CA. DE. CI. EN. con el propósito de obtener el tı́tulo profesional de Licenciado en Matemáticas.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(7) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. : El conjunto de los números naturales.. R. : El conjunto de los números reales.. diag(x) AT. : Espacio de las matrices reales de orden m × n. : Matriz diagonal con componentes x1 , x2 , · · · , xn en su diagonal.. FI S. Rm×n. IC AS. N. Y. M. Lista de Sı́mbolos. : Transpuesta de la matriz A. : Rango de la matriz A.. {xn }N. : Sucesión x1 , x2 , · · · .. CI A. S. ran(A). : Lı́mite de una sucesión o función.. ||.||. : Norma euclidiana en Rn .. ||.||F. : Norma de Frobenius en Rn×n .. EN. lı́m. CI. mı́n f (x) : Mı́nimo valor de f sobre A. x∈A. ∇f (x). : Gradiente de la función f en x. : Hessiana de la función f en x.. BI. BL. IO. TE. CA. ∇2 f (x). : Conjunto de funciones cuyas derivadas parciales existen y son continuas.. DE. C1. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(8) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Índice general. IC AS. Dedicatoria. FI S. Agradecimiento Presentación. CI A. S. Sı́mbolos Resumen. CI. Introducción. EN. Abstract. DE. I. Preliminares. IV. V. VI. VII. X. XI. XII. 1 1. 1.1.1. Problema no factible . . . . . . . . . . . . . . . . . . . . . . .. 3. 1.1.2. Problema no acotado . . . . . . . . . . . . . . . . . . . . . . .. 3. TE. CA. 1.1. Definiciones Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 1.1.3. Problema factible . . . . . . . . . . . . . . . . . . . . . . . . .. 3. 1.2. Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 6. 1.3. Multiplicadores de Lagrange . . . . . . . . . . . . . . . . . . . . . . .. 9. IO BL BI. III. Y. Jurado. 1.4. Métodos Cuasi-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.4.1. Descripción del método . . . . . . . . . . . . . . . . . . . . . . 11. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(9) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. ÍNDICE GENERAL. AT EM AT IC AS. ix. 1.5. Método de puntos interiores . . . . . . . . . . . . . . . . . . . . . . . 14 1.5.1. Interpretación geométrica . . . . . . . . . . . . . . . . . . . . 14. 1.6. El Método de la Función Barrera . . . . . . . . . . . . . . . . . . . . 16. 1.6.1. Problema Primal: . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.6.2. Problema Barrera: . . . . . . . . . . . . . . . . . . . . . . . . 16. II. Solución del problema de mı́nimos cuadrados. M. 1.7. Proyección sobre el Espacio Nulo de una matriz . . . . . . . . . . . . 18 20. Y. 2.1. Algoritmo del Elipsoide Interior . . . . . . . . . . . . . . . . . . . . . 20. IC AS. 2.1.1. Construcción del elipsoide interior . . . . . . . . . . . . . . . . 21 2.1.2. Manteniendo la factibilidad . . . . . . . . . . . . . . . . . . . 22 2.1.3. Dirección de decrecimiento más rápido . . . . . . . . . . . . . 22. FI S. 2.1.4. Determinación del tamaño de paso α . . . . . . . . . . . . . . 23 2.1.5. En el espacio original F . . . . . . . . . . . . . . . . . . . . . 23. S. 2.2. Solución del problema de mı́nimos cuadrados . . . . . . . . . . . . . . 31 . . . . . . . . . . . . . . . . . . 34. CI A. 2.2.1. Actualización de la matriz D̂. Conclusiones. EN. 2.2.2. Cálculo de la dirección dˆ usando la actualización a D̂ . . . . . 37 45 46. Anexos. 48. DE. CI. Referencias Bibliográficas. 49. BI. BL. IO. TE. CA. 1. IMPLEMENTACIÓN DEL ALGORITMO. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(10) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Resumen. El presente trabajo de investigación resuelve el problema de mı́nimos. Y. cuadrados que requiere el algoritmo del elipsoide interior para determinar la. medio de este método de puntos interiores.. IC AS. dirección de descenso; dando ası́ solución a problemas de Programación Lineal por. FI S. Resolvemos el problema de mı́nimos cuadrados usando la función auxiliar con barrera logarı́tmica y una aproximación a la factorización de la matriz inicial mediante una matriz con actualización de rango uno; para finalmente usar la fórmula de Sherman-. CI A. S. Morrison-Woodburry y determinar la inversa de la matriz actualizada resolviendo ası́ el problema de mı́nimos cuadrados y obteniendo una aproximación a la dirección. EN. de descenso.. CI. Palabras clave: Programación Lineal, elipsoide interior, mı́nimos cuadrados,. BI. BL. IO. TE. CA. DE. dirección de descenso.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(11) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Abstract. This research work solves the problem of least squares who requires that. Y. inner elipsoid algorithm determines the descendent direction; giving solution to. IC AS. linearprogramming problems by means of this method of interior points. We solve the least squares problem by using an auxiliary function with. FI S. logarithmic barrier and an approximation of the started matrix factorization by a update matrix of rank one; finally we use the Sherman-Morrison-Woodburry formula and. CI A. S. determining the inverse of the update matrix,so we solve the least squares. EN. problem and obtaining an approximation to the descendent direction.. Keywords: Linear Programming, inner elipsoid, least square, descendent. BI. BL. IO. TE. CA. DE. CI. direction.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(12) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Introducción. El Método de puntos interiores para resolver problemas de Programación. Y. Lineal es un método relativamente nuevo en la historia de la Programación. IC AS. Lineal. La denominación de método de puntos interiores se debe al esquema que usa en la búsqueda de la solución óptima, pues a diferencia del método Simplex. FI S. que busca el óptimo a través de puntos frontera (vértices) de la región factible, éste método lo hace a través de puntos interiores de la región factible del problema. En 1947 George Dantzig desarrolló el Método Simplex para resolver problemas de. CI A. S. Programación Lineal, detallado en su libro “Linear Programming and Extensions” [4]. La simplicidad del procedimiento del método se puede ver disminuida por la. EN. cantidad de evaluaciones que realiza para hallar la solución óptima cuando el número de variables es elevado.. CI. En 1972 Klee y Minty [7] dan un ejemplo en el cual el método Simplex utiliza todos los vértices de la región factible, por lo tanto el número de evaluaciones para. DE. hallar la solución óptima es 2n − 1, donde n es el número de variables del problema, es decir, está acotado por una función exponencial.. CA. Con la finalidad de mejorar el número de evaluaciones que realiza el método. TE. Simplex, en 1984 Karmarkar propuso un método de puntos interiores para dar solución a un tipo de problema de Programación Lineal en el cual el número de. IO. evaluaciones para hallar el óptimo está acotado por una función polinómica [11],. BL. por lo tanto realiza menos evaluaciones que el método Simplex.. BI. El método desarrollado por Karmarkar usa esferas y la proyección geométrica para construir una sucesión de puntos interiores de la región factible que convergen a la. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(13) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. ÍNDICE GENERAL. AT EM AT IC AS. xiii. solución óptima generando ası́ un método de puntos interiores. La formulación del problema de Programación Lineal que usa Karmarkar [9] es M inimizar z = cT x sujeto a Ax = 0 eT x = 1. M. x ≥ 0,. IC AS. Karmarkar se basa en las siguientes condiciones:. Y. donde x ∈ Rn , c ∈ Rn , A ∈ Rm×n y e = (1, 1, · · · , 1). La validez del método de 1. x = ( n1 , n1 , · · · , n1 ), satisface Ax = 0. 2. mı́n z = 0.. FI S. La restricción x ∈ {x ∈ Rn : x ≥ 0, eT x = 1} se reemplaza por x ∈ S, donde S es una esfera; simplificándose ası́ el problema, pues el valor óptimo se consigue. S. aproximándose en forma iterada resolviendo un sistema de ecuaciones lineales.. CI A. A continuación se presenta un método de puntos interiores que trabaja con el problema en su formulación estándar y no necesita ningún conocimiento a priori. M inimizar cT x sujeto a Ax = b x ≥ 0,. CA. DE. CI. EN. del valor óptimo de la función objetivo. El cual es formulado de la siguiente manera:. mediante el método de puntos interiores: el algoritmo del elipsoide interior se. TE. inicia en un punto interior del poliedro definido por las restricciones del. IO. problema lineal, el cual es centro de un elipsoide incluido estrictamente en el poliedro.. BL. La optimización de la función objetivo sobre el elipsoide, proporciona un punto. BI. interior más próximo a la solución óptima. Éste método genera una sucesión de. puntos interiores que converge a la solución óptima del problema, para esto es necesario una dirección de descenso, la cual se obtiene con la solución de un. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(14) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. ÍNDICE GENERAL. AT EM AT IC AS. xiv. problema de mı́nimos cuadrados en cada iteración. El problema de investigación del presente trabajo queda planteado como sigue:. ¿Es posible resolver el problema de mı́nimos cuadrados que se presenta en el algoritmo del elipsoide interior para programación lineal basándose en una factorización matricial?. M. El problema de mı́nimos cuadrados que se presenta, se resuelve por medio de la. equivalencia de calcular la proyección ortogonal de un vector sobre el. Y. espacio nulo de una matriz que cambia en cada iteración y para obtener una. IC AS. aproximación de esta matriz se construye un método recursivo. Además garantizamos una “buena” aproximación de esta matriz parametrizando la función objetivo mediante una función llamada función barrera. En este caso usamos la. FI S. función barrera logarı́tmica [10] que para un Problema Lineal es definida por: B(x) =. n ∑. (− ln xi ) ,. CI A. S. i=1. el gradiente y el hessiano de esta función barrera involucra a la matriz que queremos. EN. aproximar.. CI. Luego se usa la ecuación de la secante basada en la función auxiliar con barrera ∑ logarı́tmica dada por: cT x − µ ni=1 ln xi , y posteriormente se usa la fórmula de actualización de Broyden para obtener una aproximación a la matriz.. DE. Finalmente usando la fórmula de Sherman-Morrison-Woodburry [14], se obtiene la aproximación a la dirección de descenso; con esta dirección se obtiene un nuevo punto y. repitiendo. CA. interior. este. proceso. en. forma. iterativa. se. obtiene. una. BI. BL. IO. TE. aproximación a la solución óptima del Problema de programación Lineal.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(15) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. ÍNDICE GENERAL. AT EM AT IC AS. xv. Utilizando estas herramientas y otras se construye un algoritmo que permite. resolver el problema lineal estándar, que a base de teoremas la convergencia del método está garantizada.. La. presentación. se. a. dividido. en. dos. capı́tulos.. En. el. capı́tulo I se presentan los conceptos básicos. En el capı́tulo II se realiza el del. algoritmo. del. elipsoide. interior,. describe. detalladamente. el. M. estudio. problema de mı́nimos cuadrados, desarrolla el algoritmo del elipsoide interior y. Y. luego se ilustra con un ejemplo. Al culminar este capı́tulo se da solución el problema. IC AS. planteado y tambien se logran los objetivos propuestos: Resolver. el. problema de mı́nimos cuadrados para programación lineal estándar basándose en una factorización matricial y el de construir un algoritmo. FI S. del elipsoide interior para problemas de programación lineal estándar. En los anexos se presenta el programa, implementado en Matlab. Finalmente se. S. presentan las conclusiones y las referencias bibliográficas utilizadas en el presente. BI. BL. IO. TE. CA. DE. CI. EN. CI A. trabajo.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(16) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Capı́tulo I. Definiciones Básicas. FI S. 1.1.. IC AS. Y. Preliminares. Un Problema de Optimización se formula de la siguiente manera. S. Optimizar f (x). CI A. sujeto a x ∈ F ⊆ Rn. EN. donde f : F ⊂ Rn → R es la función objetivo (lineal ó no lineal) y la naturaleza del problema puede ser de minimización o maximización. El conjunto F es definido. CI. por las restricciones impuestas sobre el vector x. Un Problema de optimización. DE. lineal o también llamado problema de Programación Lineal (PL); es aquel en el que la función objetivo, el conjunto de restricciones de inecuaciones; son lineales y. CA. el vector x es no negativo o se dice que satisface las restricciones de no negatividad.. BI. BL. IO. TE. Matemáticamente es dado por : M inimizar cT x sujeto a Ax ≥ b. (1.1). x≥0. donde x ∈ Rn , c ∈ Rn , b ∈ Rm y A ∈ Rm×n .. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(17) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 2. AT EM AT IC AS. 1.1 Definiciones Básicas. Ası́ tenemos que la función objetivo lineal es f (x) = cT x, las restricciones de. inecuaciones lineales son dadas por Ax ≥ b y las restricciones de no negatividad por x ≥ 0, por tanto el conjunto F = {x ∈ Rn : Ax ≥ b, x ≥ 0}.. Asociada a la formulación (1.1) se tiene la forma estándar del modelo de optimización lineal y es dado por:. IC AS. x ≥ 0.. (1.2). Y. sujeto a Ax = b. M. M inimizar cT x. El método que se presenta, resuelve el (PL) en su formulación estándar. Definición 1.1 (Solución factible) Una solución factible para el problema. FI S. lineal dado en (1.2) es el vector x tal que. Ax = b. CI A. S. x ≥ 0.. Al conjunto de todas las soluciones factibles se le denomina conjunto o región factible. EN. y se denota por F, es decir, F = {x ∈ Rn : Ax = b, x ≥ 0}.. CI. Definición 1.2 (Solución interior factible) Una solución interior factible. CA. DE. para el problema lineal dado en (1.2) es el vector x tal que Ax = b x > 0.. TE. Definición 1.3 (Solución óptima) Dado el (PL) de minimización (1.2), una solución óptima x∗ es aquella solución factible, que cumple con la siguiente cT x∗ ≤ cT x,. ∀ x ∈ F.. BI. BL. IO. condición:. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(18) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 3. AT EM AT IC AS. 1.1 Definiciones Básicas. Definición 1.4 (Dirección de descenso) Un vector d ∈ Rn es una dirección de descenso para la función f (x) = cT x en un punto x, si ∇f (x)T d < 0.   x1  = cT x, entonces Ejemplo 1.1 Sea la función f (x) = 2x1 +3x2 = (2 , 3)  x2 ∇f (x) = (2 , 3)T .. Y. M. El vector d = (1 , − 3)T es una dirección de descenso, puesto que   1  = 2(1) + 3(−3) = 2 − 9 = −7 < 0 ∇f (x)T d = (2 , 3)  −3. categorı́as:. Problema no factible. FI S. 1.1.1.. IC AS. El (PL), mostrado en (1.2) puede pertenecer a una de las siguientes tres. Un problema no factible, es un problema para el cual no existen soluciones. Problema no acotado. EN. 1.1.2.. CI A. S. factibles; es decir F es un conjunto vacı́o.. Un problema no acotado, es un problema para el cual las soluciones factibles. CI. existen, pero la función objetivo no está acotada inferiormente (superiormente, si el. Problema factible. CA. 1.1.3.. DE. problema lineal es de maximización).. TE. Un problema factible, es un problema para el cual la región factible F es diferente del vacı́o y además la función objetivo está acotada inferiormente (superiormente,. BI. BL. IO. si el problema lineal es de maximización).. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(19) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 4. AT EM AT IC AS. 1.1 Definiciones Básicas. Ahora se tiene algunos ejemplos para comprender mejor las definiciones. Ejemplo 1.2 M inimizar − 2x1 + 3x2 sujeto a x1 − 2x2 ≥ −2. x1 ≥ 0, x2 ≥ 0.. Y. x2 ≥ 4. M. −2x1 + x2 ≥ −4. IC AS. El conjunto factible es vacı́o,es decir, no existen soluciones factibles. Por tanto se. DE. CI. EN. CI A. S. FI S. tiene un Problema no factible.. CA. Figura I.1: Conjunto Factible vacı́o: Problema no factible. BI. BL. IO. TE. Ejemplo 1.3 M inimizar − x1 sujeto a − x1 + x2 ≥ 0 x1 + x2 ≥ 1 x1 ≥ 0, x2 ≥ 0.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(20) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 5.  La función objetivo f (x) = −x1 = (−1 , 0) .  x1. AT EM AT IC AS. 1.1 Definiciones Básicas.  = cT x no es acotada. x2 inferiormente, sin embargo el conjunto factible es diferente del vacı́o. El Problema es no acotado porque existen soluciones factibles x = (x1 , x2 ) tales que cT x → −∞, x1 → +∞.. En la Figura (I.2) mostrada más adelante se observa la región factible.. IC AS. M inimizar x2. Y. M. Ejemplo 1.4. sujeto a − x1 + x2 ≥ 0 x1 + x2 ≥ 1. FI S. x1 ≥ 0, x2 ≥ 0. (. ) 1 1 , . F ̸= ∅ y la función objetivo 2 2. EN. CI A. S. El problema tiene solución óptima en   x1  = cT x está acotada inferiormente. Por tanto se tiene f (x) = x2 = (0 , 1)  x2 un Problema factible.. BI. BL. IO. TE. CA. DE. CI. En la Figura (I.2) se observa la región factible.. Figura I.2: Conjunto Factible no vacı́o: Problema no acotado y factible. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(21) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 6. AT EM AT IC AS. 1.2 Dualidad. Observación: Notar que los ejemplos (1.3) y (1.4) tienen la misma región. factible; sin embargo son dos problemas diferentes de Programación Lineal, esto es consecuencia de que las dos funciones objetivos son diferentes, el primero no acotado y la otro acotado.. Dualidad. M. 1.2.. Asociado a cada problema de programación lineal se tiene otro problema de. Y. programación lineal denominado problema dual. Este nuevo problema satisface. IC AS. algunas propiedades muy importantes. Se puede usar para obtener la solución del problema original y sus variables proporcionan información muy útil acerca de la solución del problema lineal original.. FI S. Dado un problema primal (PL) en su forma estándar, su correspondiente. S. problema dual está dado por el problema (D).. CI A. M inimizar cT x sujeto a Ax = b. sujeto a AT w ≤ c. (PL). (D). w libre. EN. x≥0. M aximizar bT w. CI. En la tabla 1.1 mostrada en la página 9, se resume el dual de otras formas de un (PL). Se puede usar esta tabla para obtener el dual de cualquier problema lineal. DE. sin tener que transformarlo primero a la forma estándar.. BI. BL. IO. TE. CA. Ejemplo 1.5 Dado el problema lineal:. M inimizar x1 + 4x2 sujeto a. 2x1 + 3x2 = 5. 8x1 − 4x3 = −3 x1 ≥ 0, x2 ≥ 0, x3 ≥ 0.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(22) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 7. AT EM AT IC AS. 1.2 Dualidad. Matricialmente expresado por: .  x1. Y. (x1 , x2 , x3 ) ≥ 0. M.     M inimizar (1 , 4 , 0)  x2  = cT x   x3     x1     2 3 0 5    sujeto a   x2  =    8 0 −4 −3 x3. CI A. S. FI S. IC AS. El problema dual asociado a este problema estándar es   w1  = bT w M aximizar (5 , − 3)  w2       2 8 1     w   1    sujeto a  3 0  ≤ 4      w2 0 −4 0. EN. (w1 , w2 ) libre.. TE. CA. DE. CI. Es decir,. M aximizar 5w1 − 3w2. sujeto a. 2w1 + 8w2 ≤ 1 3w1 ≤ 4. −4w2 ≤ 0 w1 , w2 libres. IO. El siguiente teorema permite establecer una relación muy importante entre las. BI. BL. soluciones óptimas del problema primal y dual. Teorema 1.1 Si x ∈ Rn es una solución factible para el problema primal (PL). y w ∈ Rm es una solución factible para el problema dual (D), entonces: bT w ≤ cT x.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(23) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 8. AT EM AT IC AS. 1.2 Dualidad. Demostración:. Para cualquier par de soluciones factibles x, w para (PL) y (D) respectivamente, se tiene. bT w = (Ax)T w (reemplazando las restricciones lineales de (PL)) = xT AT w (propiedad de transpuesta). ≤ xT c (aplicando las restricciones lineales de (D)). M. = (cT x)T. IC AS. Y. = cT x.. . FI S. Por tanto bT w ≤ cT x.. Corolario 1.1 Si x0 y w0 son soluciones factibles de los problemas primal y dual respectivamente, tales que cT x0 = bT w0 , entonces x0 y w0 son soluciones óptimas de. CI A. S. sus problemas respectivos. Demostración:. EN. Sean x0 y w0 soluciones factibles de los problemas primal y dual respectivamente, tales que cT x0 = bT w0 .. CI. Por el teorema anterior bT w ≤ cT x0 , para cualquier solución factible w ∈ Rm del. DE. Problema (D), por tanto. b T w ≤ c T x 0 = b T w0 .. CA. Entonces w0 es la solución óptima para (D). Analogamente, cT x ≥ bT w0 , para cualquier solucion factible x ∈ Rn del Problema. IO. TE. (PL), por tanto. c T x ≥ b T w0 = c T x 0 . . BI. BL. Entonces x0 es la solución óptima para (PL).. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(24) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 9. AT EM AT IC AS. 1.3 Multiplicadores de Lagrange. Tabla 1.1. Relación entre los Problemas Primal y Dual.. →. PRIMAL. DUAL. máx. mı́n ←→. variable i ≥ 0. restricción i = bi. ←→. variable i, libre. restricción i ≥ bi. ←→. variable i ≤ 0. variable j ≥ 0. ←→. restricción j ≥ cj. variable j, libre. ←→. restricción j = cj. variable j ≤ 0. ←→. restricción j ≤ cj. Y. mı́n. ←. PRIMAL. FI S. DUAL. Multiplicadores de Lagrange. S. 1.3.. IC AS. máx. M. restricción i ≤ bi. CI A. Sea f : D ⊂ Rn → R la función que queremos minimizar sujeto a condiciones de igualdad. EN. hk (x) = 0 (k = 1, · · · , m). CI. para m < n; aqui, h1 , · · · , hm también están definidas sobre D. Buscaremos el. DE. minimizante local de f , que es, un punto x0 el cual pertenece a la región factible F := {x ∈ D : hk (x) = 0 (k = 1, · · · , m)}. TE. CA. y para el cual existe una vecindad U , tal que f (x) ≥ f (x0 ) ∀x ∈ U ∩ F.. IO. Después de estas observaciones preliminares, estamos en posibilidades de formular. BI. BL. la siguiente condición necesaria de optimalidad.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(25) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 10. AT EM AT IC AS. 1.3 Multiplicadores de Lagrange. Teorema 1.2 (Condición necesaria de optimalidad) Sea D ⊂ Rn un abierto y f, h1 , · · · , hm ∈ C 1 en D. Supongamos que f tiene un mı́nimo local en x0 ∈ F y ( ) ∂hk el Jacobiano ∂xj (x0 ) tiene rango m. m,n. Entonces 1 existen números reales λ1 , · · · , λm -llamados multiplicadores de Lagrangecon ∇f (x0 ) +. m ∑. λk ∇hk (x0 ) = 0.. (1.3). La expresión (1.3) equivale a las expresiones. M. k=1. IC AS. Y. m ∑ ∂f ∂hk (x) + λk (x) = 0, j = 1, · · · , n ∂xj ∂x j k=1. que junto con las ecuaciones hk (x) = 0, k = 1, 2, · · · , m producen un sistema de. FI S. m + n ecuaciones con m + n incógnitas, a saber x1 , · · · , xn (las coordenadas de x) y λ1 , · · · , λm . Resolviendo este sistema localizamos a los candidatos x ∈ D a mı́nimos. S. locales de la función f .. CI A. Ejemplo 1.6 Determinaremos los extremos de la función. DE. CI. sujeto a la restricción. EN. f (x, y, z) = x2 + y 2 + z 2. 1 1 h(x, y, z) = x2 + y 2 + z 2 − 1 = 0. 4 9. Hallando los vectores gradientes. BI. BL. IO. TE. CA. ∇f (x, y, z) = ( (2x, 2y, 2z) ) 1 2 ∇h(x, y, z) = 2x, y, z . 2 9 Entonces el sistema a resolver es:. 1. ∂h ∂f (x, y, z) + λ (x, y, z) = 2x + 2λx = 0 ∂x ∂x ∂f ∂h 1 (x, y, z) + λ (x, y, z) = 2y + λy = 0 ∂y ∂y 2. Para demostración ver [13]. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(26) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 11. AT EM AT IC AS. 1.4 Métodos Cuasi-Newton. ∂f ∂h 2 (x, y, z) + λ (x, y, z) = 2z + λz = 0 ∂z ∂z 9 1 1 h(x, y, z) = x2 + y 2 + z 2 − 1 = 0, 4 9. de donde se obtienen 6 puntos que satisfacen las ecuaciones anteriores, a saber, (±1, 0, 0), (0, ±2, 0), (0, 0, ±3). Nótese que en este caso la superficie S que impone las restricciones es el elipsoide x2 + 14 y 2 + 91 z 2 = 1. Entonces entre los puntos. encontrados se encontrará el máximo y el mı́nimo. Como f (±1, 0, 0) = 1,. M. f (0, ±2, 0) = 4, f (0, 0, ±3) = 9, se tiene que el mı́nimo (igual a 1) se logra en. 1.4.. IC AS. Y. los puntos (±1, 0, 0) y el máximo (igual a 9) en los puntos (0, 0, ±3).. Métodos Cuasi-Newton. FI S. En optimización, los métodos cuasi-Newton son algoritmos que buscan el mı́nimo (máximo) local de una función f : Rn → R; encontrando los puntos estacionarios. S. de la función. Los métodos asumen que en la k-ésima iteración la función puede ser. CI A. localmente aproximada por una función cuadrática en una vecindad del óptimo; usa el gradiente y una aproximación de la matriz hessiana, Bk , de la función f .. Descripción del método. CA. 1.4.1.. DE. CI. EN. Los métodos cuasi-Newton se basan en el siguiente esquema:   B s = −∇f (xk ) k k  xk+1 = xk + s k. Usaremos el subı́ndice + para referirnos a la nueva iteración y el subı́ndice c para. TE. referirnos a la iteración anterior (actual).. 1 ϕ+ (x) := f (x+ ) + ∇f (x+ )T (x − x+ ) + (x − x+ )T B+ (x − x+ ) 2. BL. IO. Consideremos para x ∈ Rn ,. BI. la aproximación cuadrática ϕ+ de f en x+ . Entonces ∇ϕ+ (x) = ∇f (x+ ) + B+ (x − x+ ).. (1.4). Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(27) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 12. AT EM AT IC AS. 1.4 Métodos Cuasi-Newton. La ecuación (1.4) satisface ∇ϕ+ (x+ ) = ∇f (x+ ), exigimos que B+ sea tal que. ∇ϕ+ (xc ) = ∇f (x+ ) + B+ (xc − x+ ) = ∇f (xc ).. (1.5). B+ sc = yc. (1.6). M. La relación. Y. resulta de (1.5) con: sc = x+ − xc y yc = ∇f (x+ ) − ∇f (xc ).. IC AS. La ecuación (1.6) es llamada ecuación de la secante.. Para n = 1, la ecuación (1.6) determina únicamente B+ . Para n > 1, este es un. FI S. sistema de n ecuaciones y n2 incógnitas. Por lo tanto no tiene solución única. Ejemplo 1.7 Consideremos la función f : R2 → R dada por f (x, y) = x2 + y 2. S. y los puntos xc = (0, 1), x+ = (1, 21 ).. CI A. El vector gradiente de la función f es. EN. ∇f (x, y) = (2x, 2y),. evaluando en los puntos xc y x+. Además. DE. CI. ∇f (xc ) = (0, 2) y ∇f (x+ ) = (2, 1).. CA. 1 1 sc = x+ − xc = (1, ) − (0, 1) = (1, − ), 2 2. yc = ∇f (x+ ) − ∇f (xc ) = (2, 1) − (0, 2) = (2, −1).. BL. IO. TE. La ecuación de la secante es:      1 b11 b12 2   = , 1 −2 b21 b22 −1. BI. es decir,.   b 11 −  b 21 −. 1 b 2 12. =. 1 b 2 22. = −1. 2. .. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(28) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 13. AT EM AT IC AS. 1.4 Métodos Cuasi-Newton. Se tiene un sistema de 2 ecuaciones y 4 variables.   b11        1  b  2 1 −2 0 0 .   12  =      b21  −1 0 0 1 − 12   b22. Teorema 1.3 Sea Bc ∈ Rn×n , sc , yc ∈ Rn , sc ̸= 0. Entonces la actualización de. Y. (yc − Bc sc ) T sc sTc sc. (1.7). IC AS. B+ = Bc +. M. Broyden. es la única solución de mı́n ||B − Bc ||F , donde B={B ∈ Rn×n : Bsc = yc } y B∈B. ||.||F denota a la norma de Frobenius.. yc − Bc sc T sc sc = Bc sc + yc − Bc sc = yc , entonces B+ ∈ B.   T s s c c. CI A. S. i) B+ sc = Bc sc +. FI S. Demostración:. ii) Sea B ∈ B, entonces B+ − Bc = (B − Bc ). sc sTc , sTc sc. EN. sc sTc 1  T  T ||F ≤ ||B − Bc ||F T  ||s ||s c ||F  c ||F T sc sc |scsc |  = ||B − Bc ||F , ∀B ∈ B. CI. ||B+ − Bc ||F ≤ ||B − Bc ||F ||. DE. De i) e ii), B+ es el mı́n ||B − Bc ||F . B∈B. CA. iii) (unicidad) Sean B+ , B + , tales que δ = mı́n ||B − Bc ||F = ||B+ − Bc ||F = ||B + − Bc ||F , B∈B. BI. BL. IO. TE. 0 ≤ ||B+ − B + ||2F = ||(B+ − Bc ) − (B + − Bc )||2F = 2(||B+ − Bc ||2F + ||B + − Bc ||2F ) − ||B+ + B + − 2Bc ||2F 1 = 2(δ 2 + δ 2 ) − 4|| (B+ + B + ) − Bc ||2F 2 1 = 4δ 2 − 4|| (B+ + B + ) − Bc ||2F . 2. (1.8). Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(29) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 14. Como B+ , B + ∈ B y B es convexo,. AT EM AT IC AS. 1.5 Método de puntos interiores. 1 (B+ + B + ) ∈ B; entonces 2. 1 δ ≤ || (B+ + B + ) − Bc ||F 2. 1 −4δ 2 ≥ −4|| (B+ + B + ) − Bc ||2F . 2. Sumando la útima expresión a la ecuación (1.8) se tiene. luego. IC AS. ||B+ − B + ||2F = 0.. . FI S. Por tanto B+ = B + .. Método de puntos interiores. CI A. S. 1.5.. Y. M. 0 ≤ ||B+ − B + ||2F ≤ 4δ 2 − 4δ 2 = 0,. En la presente sección se presenta una introducción al algoritmo de puntos. EN. interiores para un problema de programación lineal. Se inicia con una interpretación geométrica y luego se procede a dar los requirimientos matemáticos básicos. El. CI. método de puntos interiores busca la solución óptima de manera aproximada en forma progresiva a través del interior de la región factible F. La forma como se. DE. procede en esta búsqueda, se explica a continuación.. Interpretación geométrica. CA. 1.5.1.. BI. BL. IO. TE. Dado el problema programación lineal en su forma estándar M inimizar cT x sujeto a Ax = b. (1.9). x≥0. donde x ∈ Rn , c ∈ Rn , b ∈ Rm , A ∈ Rm×n , ran(A) = m.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(30) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 15. AT EM AT IC AS. 1.5 Método de puntos interiores. Una forma de resolver el problema (1.9) es usando el método simplex de. programación lineal, que busca la solución óptima sobre la frontera de la región factible F = {x ∈ Rn : Ax = b, x ≥ 0}.. Por el contrario, en el caso del método de puntos interiores el procedimiento consiste. en aproximarse a la solución óptima a partir de un punto interior factible conocido,. CI A. S. FI S. IC AS. Y. M. x0 . Ambos procedimientos se ilustran en la figura (I.3).. EN. Figura I.3: Aproximación interior y búsqueda por la frontera a la solución óptima. Para hallar la solución óptima del problema (1.9) la dirección a seguir es aquella. CI. donde el valor de la función objetivo decrece. Este proceso debe ser repetido hasta alcanzar un punto interior suficientemente próximo a la solución óptima.. DE. Especı́ficamente uno tiene que responder las siguientes preguntas:. CA. 1. ¿Cómo empezar?, es decir, ¿cómo encontrar un punto interior factible inicial?.. TE. 2. ¿Cómo continuar?, es decir, conociendo un punto interior factible. ¿Cómo hacer. BI. BL. IO. para generar el siguiente punto que también sea interior factible y al mismo tiempo genere un menor valor en la función objetivo?.. 3. ¿Cómo parar? Asumiendo que encontramos una respuesta satisfactoria para las dos preguntas anteriores. ¿Cuántas veces se formula la segunda pregunta?, ¿cuántos puntos se deberán generar?.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(31) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 1.6.. 16. AT EM AT IC AS. 1.6 El Método de la Función Barrera. El Método de la Función Barrera. Las funciones Barrera son usadas para transformar un problema con restricciones. de desigualdad a uno sin ellas. Este conjunto de funciones Barrera fijan una “barrera” para evitar que las soluciones queden fuera de la región factible.. M. Problema Primal:. Considere el problema:. IC AS. M inimizar f (x). Y. 1.6.1.. sujeto a g(x) ≥ 0. FI S. x ∈ X ⊂ Rn. donde f : X ⊂ Rn → R, g = (g1 , g2 , · · · , gm ) : X ⊂ Rn → Rm . Además f, g son. Problema Barrera:. EN. 1.6.2.. CI A. S. funciones continuas sobre X.. DE. CI. El siguiente problema:. M inimizar Θ(µ) sujeto a µ > 0. se denomina problema Barrera donde:. CA. Θ(µ) = ı́nf{f (x) + µB(x) : g(x) > 0, x ∈ X} y la función A = f + µB es. TE. llamada función auxiliar; B es la función Barrera que es continua sobre la región {x : g(x) > 0} y se aproxima a ∞ cuando se aproxima desde el interior hacia la. BI. BL. IO. frontera de la región {x : g(x) ≥ 0}.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(32) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 17. AT EM AT IC AS. 1.6 El Método de la Función Barrera. Esta función barrera es definida por: B(x) =. m ∑. Φ[gi (x)]. i=1. donde Φ : R → R es una función continua que satisface: lı́m Φ(y) = ∞. y→0. M. El método de la función barrera se usa para transformar el problemas primal con. IC AS. trabajo de investigación se restringe al caso lineal.. Y. restricciones, g(x) ≥ 0 ya sean lineales o no lineales, en otro sin ellas. En el presente. La función barrera a emplearse en el problema primal de este trabajo será B(x) =. n ∑. Φ[gi (x)] =. i=1. −ln[gi (x)] =. n ∑. −ln(xi ). (1.10). i=1. FI S. i=1. n ∑. puesto que la función − ln(x) satisface todas las condiciones dadas por la función Φ.. CI A. S. Ejemplo 1.8 Considerar el siguiente problema de una variable. EN. M inimizar x2. (1.11). sujeto a x ≥ 1. CI. el cual tiene una solución única x∗ = 1. La función barrera para este problema es. CA. DE. dada por B(x) = − ln(x − 1) y la función auxiliar es: A(x) = x2 − µ ln(x − 1), µ > 0. x∗ (µ) =. 1 1√ + 1 + 2µ . 2 2. IO. TE. y el mı́nimo de la función A es. El punto minimizante x∗ (µ) de la función auxiliar se aproxima a la única solución. BI. BL. x∗ = 1, cuando µ → 0.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(33) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 18. FI S. IC AS. Y. M. AT EM AT IC AS. 1.7 Proyección sobre el Espacio Nulo de una matriz. Proyección de un vector sobre el Espacio. CI A. 1.7.. S. Figura I.4: Aproximación de x∗ (µ) a x∗. EN. Nulo de una matriz Definición 1.5 (Espacio Nulo y Espacio Fila de una matriz) Sea. DE. CI. A ∈ Rm×n , ran(A) = m; el espacio nulo de la matriz A N (A) = {x ∈ Rn : Ax = 0}. CA. y el espacio fila de la matriz A R(AT ) = {z = AT y ∈ Rn : y ∈ Rm }.. TE. Los subespacios lineales N (A) y R(AT ) de Rn son ortogonales entre si.. IO. Tener en cuenta que la matriz AAT es cuadrada y simétrica. Además como la matriz. BI. BL. A es de rango m entonces, AAT es definida positiva y por tanto no singular. Definición 1.6 (Matriz proyección) Sea A ∈ Rm×n , de rango m; v ∈ Rn . La. matriz proyección de v sobre N (A) es P = I − AT (AAT )−1 A.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(34) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 19. AT EM AT IC AS. 1.7 Proyección sobre el Espacio Nulo de una matriz. Teorema 1.4 Sea A ∈ Rm×n , de rango m, v ∈ Rn . La matriz proyección P de v sobre N (A) satisface las siguientes propiedades: i) AP = 0 ii) P T P = P .. Por tanto la matriz proyección transforma cualquier v ∈ Rn en P v = p tal que. M. p ∈ N (A). IC AS. generado por a1 = (2, 0, 1)T , a2 = (0, 3, 0)T .. Y. Ejemplo 1.9 En R3 , vamos a proyectar v = (3, 2, 2)T sobre el subespacio N (A). Tomemos como base B = {a1 , a2 } y formemos la matriz . . 1 0 0. A=.  2 0 1. .. 0 3 0. .  −1      5 0 2 0 1      ,  −  0 3     0 9 0 3 0 1 0 2 0. . 0 −2/5. EN. 1/5 0. 0. −2/5 0. CI. entonces.   P = . CI A. S.   P = I − AT (AAT )−1 A =  0 1 0  0 0 1. . FI S. Con ella calculamos. . 0. .   . . 4/5. IO. TE. CA. DE. Ahora proyectamos el vector v = (3, 2, 2)T  1/5 0 −2/5   p = Pv =  0 0 0  −2/5 0 4/5. BL. Notar que. . . . 2 0 1   Ap =   0 3 0 . −1/5 0. . . . . 3 −1/5          2  =  0 .     2/5 2. .      0  , =  0. 2/5. BI. por tanto p ∈ N (A).. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(35) AT EM AT IC AS. Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. M. Capı́tulo II. Y. Solución del problema de mı́nimos. FI S. 2.1.. IC AS. cuadrados. Algoritmo del Elipsoide Interior para el. CI A. S. Problema Lineal estándar. EN. Dada la formulación estándar de un problema de Programación Lineal,. sujeto a x ∈ F. CI. (P). M inimizar cT x. DE. donde F = {x ∈ Rn : Ax = b, x ≥ 0}, c ∈ Rn , b ∈ Rm y A ∈ Rm×n de rango m; el algoritmo del elipsoide interior busca mediante aproximaciones la. CA. solución del problema (P). Antes de pasar a describir este algoritmo para el problema dado; tendremos en. TE. cuenta que el punto interior factible, x0 , es dado. Punto necesario para la. BI. BL. IO. construcción del elipsoide interior.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(36) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 2.1.1.. 21. Construcción del elipsoide interior. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Empezando con x0 = (x01 , x02 , · · · , x0n )T y k=0, el algoritmo ejecuta los siguientes pasos iterativos.. Dada la solución interior factible xk = (xk1 , · · · , xkn )T , Axk = b y xk > 0; se define la. matriz diagonal Dk = diag(xk ). Puesto que Dk es una matriz diagonal con elementos xki > 0, entonces es no singular; siendo su inversa, Dk−1 , otra matriz diagonal con. M. elementos 1/xki .. Y. Se define el elipsoide E = {x ∈ Rn : (x − xk )T Dk−2 (x − xk ) = R2 }, la elección. IC AS. especı́fica de R se abordará en la determinación del tamaño de paso. Se considera la siguiente transformación de variables: T : F → Rn. (2.1). FI S. x → y = T x := Dk−1 x.. Bajo esta transformación, el problema en la variable x se transforma en el. CI A. S. siguiente problema en la variable y,. EN. M inimizar cT y. (2.2). sujeto a y ∈ F. CI. donde F = {y ∈ Rn /Ay = b, y ≥ 0}, c = Dk c, A = ADk . Obsérvese que la transformación (2.1) convierte xk en e = (1, · · · , 1), un punto. DE. interior de la nueva región factible equidistante de todas las condiciones de no negatividad del problema (2.2). Resolver el problema (P) es equivalente a resolver. CA. el problema (2.2).. BI. BL. IO. TE. En vez de resolver el problema (2.2), se resolverá el siguiente problema M inimizar cT y sujeto a Ay = b. (2.3). y ∈ E = {y ∈ Rn : (y − y k )T (y − y k ) = R2 }.. Ası́ se llegará a una solución factible. Al repetir de manera iterada todo lo anterior será posible obtener una solución óptima para el problema original (P).. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(37) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 2.1.2.. 22. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Manteniendo la factibilidad. Se tiene que un punto factible y deberı́a satisfacer Ay = b, y ≥ 0. Por tanto los puntos interiores factibles sólo son aquellos que satisfacen Ay = b y y > 0. Como y k = Dk−1 xk , entonces y k = e es un punto interior factible.. Cada vez que nos movamos de un punto y k a y k+1 = y k + αd, donde α > 0 es el tamaño de paso, necesitamos que Ay k+1 = b. Esto implica que. M. Ay k+1 = A(y k + αd) = Ay k + αAd = b + αAd.. IC AS. Y. Desde que α ̸= 0, de la ecuación (2.4) se tiene. (2.4). Ad = 0. Es decir, d ∈ N (A).. FI S. Por tanto. d = Pv. S. para algún v ∈ Rn ; donde. T. T. Dirección de decrecimiento más rápido. CI. 2.1.3.. (2.6). EN. es la matriz proyección.. CI A. P = I − A (A A )−1 A. (2.5). DE. La dirección de decrecimiento más rápido es la del gradiente de la función objetivo del problema (2.3) en el sentido negativo, es decir, −c, donde. CA. c = Dk c.. Sin embargo, la condición de factibilidad (2.5), implica que la dirección de. TE. decrecimiento más rápido es el sentido negativo del gradiente proyectado. BL. IO. ortogonalmente sobre N (A), entonces. BI. Por tanto. d = −P c.. (2.7). ] [ d = − I − (ADk )T (ADk2 AT )−1 (ADk ) Dk c.. (2.8). Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(38) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 2.1.4.. 23. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Determinación del tamaño de paso α. Determinada la dirección de movimiento, d = (d1 , · · · , dn )T , a lo largo de la cual. se debe desplazar en el espacio transformado, F, la siguiente interrogante a resolver es: ¿cuánto moverse en esa dirección?. Es decir, escoger un α > 0 tal que y k+1 = y k + αd,. M. siga siendo un punto interior factible.. Y. Obsérvese que si d ≥ 0, α puede ser cualquier valor real sin que el nuevo punto se. IC AS. “salga” de la región factible.. Si por el contrario, di < 0, para algún i, el valor de α habrá de ser menor que. FI S. yik 1 = ; −di −di. tomando θ tal que 0 < θ < 1, y de acuerdo con lo anterior, en cada paso k del. (2.9). EN. CI A. S. proceso se escogerá una amplitud en la dirección d dada por   θ , d≥0 { } α=  mı́n θ : di < 0 , d  0. −di. Como y k+1 ∈ E, (y k+1 − y k )T (y k+1 − y k ) = R2 . Por tanto R2 = (αd)T (αd) = α2 ||d||2 ,. 2.1.5.. DE. CI. entonces R = α||d||.. En el espacio original F. CA. Una vez obtenido el punto y k+1 en el espacio transformado, la siguiente operación. TE. que se debe realizar es convertir ese punto en su correspondiente, xk+1 , en el espacio original.. BI. BL. IO. Esto se realiza mediante la tranformación inversa, T −1 . Es decir, xk+1 = T −1 (y k+1 ) = Dk y k+1 = Dk (y k + αd) = Dk y k + αDk d = xk + αDk d.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(39) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 24. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Como d = −P c = −P Dk c,. xk+1 = xk − αDk P Dk c [ ] = xk − αDk I − Dk AT (ADk2 AT )−1 ADk Dk c [ ] = xk − αDk2 c − AT (ADk2 AT )−1 ADk2 c = xk − αDk2 (c − AT W ),. Y. W = (ADk2 AT )−1 ADk2 c;. M. donde. (2.10). IC AS. a este vector w ∈ Rm lo denominaremos estimador dual.. Lo que quiere decir que la dirección de movimiento en el espacio original es dx = −Dk2 (c − AT W ). y la amplitud del paso a dar α. En el espacio. FI S. transformado la dirección de movimiento es d = −Dk (c − AT W ).. S. Teorema 2.1 Supongamos que xk es un punto interior factible para el. CI A. problema (P), y k = T (xk ), y k+1 = y k + αd donde d está definido en (2.7) y α > 0 es el tamaño de paso definido en (2.9). Entonces. EN. i) xk+1 = T −1 (y k+1 ) es un punto interior factible.. CI. ii) Cuando d ̸= 0, dx = Dk d es una dirección de descenso para la función. DE. f (x) = cT x en xk , cT xk+1 < cT xk . Demostración:. CA. i) Se demostrará (a) Axk+1 = b y (b) xk+1 > 0.. Puesto que y k = Dk−1 xk , A = ADk y. BI. BL. IO. TE. (a) Axk+1 = A(Dk y k+1 ) = ADk y k + αADk d.. Ad = −A(P c) = −(AP )c = 0 (1.4 (i)), entonces Axk+1 = Axk = b.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(40) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. (b). 25. • Si d ≥ 0, se tiene α = θ > 0. Entonces αd ≥ 0. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. y k+1 = y k + αd ≥ y k > 0 por tanto y k+1 > 0. • En caso contrario, se tiene α = mı́n. θ −di. }. : di < 0. θ 1 < , ∀di < 0. −di −di. M. α≤. {. Y. Analizaremos y k+1 = e + αd por componentes.. IC AS. Si di ≥ 0, yik+1 = 1 + αdi ≥ 1 > 0. Entonces yik+1 > 0. Si di < 0, 1 + αdi > 0. Entonces yik+1 > 0.. FI S. Se tiene que xk+1 = Dk y k+1 , donde Dk = diag(xk ). Entonces. S. xk+1 = (xk1 y1k+1 , xk2 y2k+1 , · · · , xkn ynk+1 )T .. CI A. Puesto que xki > 0 y yik+1 > 0 ∀i = 1, · · · , n; se concluye xk+1 > 0. ii) ∇f (xk )T dx = cT dx = cT Dk d = (Dk c)T d = −cT P c = −cT P T P c (1.4 (ii)).. EN. = −(−P c)T (−P c) = −dT d = −||d||2 < 0.. CI. Por tanto dx es una dirección de descenso. Además (2.11). DE. cT xk+1 = cT (xk + αdx ) = cT xk + αcT dx .. cT xk+1 < cT xk . . BI. BL. IO. TE. CA. Puesto que cT dx < 0, entonces. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(41) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 26. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Teorema 2.2 Si existe un punto interior factible, xk , y d > 0; entonces el problema (P) no está acotado. Demostración:. Como d > 0 entonces ||d|| > 0. Ademas como d ∈ N (A), el punto y k+1 = y k + αd es factible para el problema (2.2) para cualquier α > 0. En consecuencia, α se puede. hacer tan grande como se quiera resultando de (2.11) que cT xk+1 tenderá a −∞. . Y. M. para xk+1 = xk + αDk d ∈ F.. IC AS. Teorema 2.3 Si existe un punto interior factible, xk , y d = 0; entonces cualquier solución factible del problema (P) es óptima.. FI S. Demostración:. Como d = −P Dk c = 0, Dk c pertenecerá al subespacio complemento ortogonal del subespacio nulo de ADk . Como el complemento ortogonal de N (ADk ) es el. CI A. S. subespacio que determinan los vectores fila de ADk , Im((ADk )T ), existe un vector u tal que. EN. (ADk )T u = Dk c o uT ADk = cT Dk .. cT x = uT Ax = uT b.. DE. CI. Como Dk−1 existe, uT A = cT . Para cualquier punto factible x,. . CA. Como uT b no depende de x, el valor de cT x es constante en F.. TE. Teorema 2.4 Si el problema de programación lineal (P) está acotado inferiormente y el valor de la función objetivo no es constante; entonces la. IO. sucesión cT xk , k = 1, 2, · · · es estrictamente decreciente.. BL. Demostración: . BI. Es consecuencia directa de los dos teoremas anteriores y de la ecuación (2.11).. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(42) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 27. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Sea R = c − AT W , obsérvese que si R ≥ 0, el estimador dual W es una solución factible del problema dual y eT Dk R = (xk )T R = cT xk − bT W.. En el caso de que eT Dk R = 0, con R ≥ 0, se habrá alcanzado una solución factible en el problema primal (P), xk , y la factibilidad del dual con w. Además por el. M. corolario (1.1), xk es una solución óptima del problema (P).. Y. Teorema 2.5 (Problema de mı́nimos cuadrados) Supongamos que xk es. IC AS. un punto interior factible para el problema (P), Dk = diag(xk ). Entonces ahora d = −(Dk c − Dk AT u), donde u es el vector solución del problema de mı́nimos cuadrados. Demostración:. FI S. mı́n ||Dk c − Dk AT u||.. u∈Rm. S. Usando la condición normal de Gauss, u. ∈. Rm. es el mı́nimo de. CI A. ||Dk c − Dk AT u|| = ||Dk AT u − Dk c|| si y solo si satisface la ecuación. EN. (Dk AT )T (Dk AT )u = (Dk AT )T Dk c,. CI. es decir,. ADk2 AT u = ADk2 c.. CA. luego. DE. Como A es de rango m, entonces ADk2 AT es de rango m, por tanto existe (ADk2 AT )−1 , u = (ADk2 AT )−1 ADk2 c.. TE. En consecuencia. BI. BL. IO. [ ] [ ] − Dk c − Dk AT ((ADk2 AT )−1 ADk2 c) = − Dk c − (ADk )T (ADk2 AT )−1 ADk Dk c ] [ = − I − (ADk )T (ADk2 AT )−1 (ADk ) Dk c = d. . Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(43) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 28. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. Etapas del algoritmo del Elipsoide Interior. Antes de empezar a describir el Algoritmo del Elipsoide Interior para Programación Lineal, tendremos en cuenta que el punto interior factible x0 = (x01 , · · · , x0n ) y la. tolerancia para el error ϵ > 0 son dados. Con estos valores iniciales empezaremos las. M. etapas del Algoritmo del Elipsoide Interior.. INGRESO: x0 , ϵ > 0 y 0 < θ < 1.. PASO 1 Inicialización Establezca k = 0, PASO 2 Cálculo de las matrices. IC AS. Y. SALIDA: Aproximación del vector solución x, aproximación del valor óptimo cT x. FI S. D = diag(xk ), A = AD, c = Dc.. PASO 3 Cálculo de los estimadores duales. S. W = (AD2 AT )−1 AD2 c.. CI A. PASO 3 Cálculo de los costos reducidos R = c − AT W .. EN. PASO 4 Comprobar si el punto es óptimo. CI. SI R ≥ 0 y eT DR ≤ ϵ PARAR. (El problema está resuelto, xk aproxima a la solución. DE. óptima).. CA. SINO. Ir al siguiente PASO. T. mı́nm ||c − A u||.. u∈R. PASO 6 Cálculo de la dirección de movimiento T. d = −(c − A u). BI. BL. IO. TE. PASO 5 Calcular el vector u solución del problema de mı́nimos cuadrados. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(44) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 29. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. PASO 7 Comprobar si existe solución no acotada. SI d > 0 PARAR (El problema es no acotado). SI d = 0. PARAR (El punto xk aproxima a la solución óptima). SINO. Y. IC AS. PASO  8 Calcular la amplitud de paso  θ , d≥0 { } α=  mı́n θ : di < 0 , d  0. −di. M. Ir al siguiente PASO.. PASO 9 Obtener nuevo punto. FI S. xk+1 = xk + αDd. PASO 10 Prepara la siguiente iteración k = k + 1. Ir al PASO 2.. CI A. S. FIN.. EN. Ejemplo. Usaremos el algoritmo descrito para resolver el problema de programación lineal:. CI. minimizar − 2x1 + x2 x 1 − x2 + x 3. DE. sujeta a. x2. x1 , x2 , x3 , x4 ≥ 0.. CA. A=. + x4 = 15. 1 −1 1 0 0. 1. 0 1. . . . , b = . 15.  y c = (−2, 1, 0, 0)T .. 15. BL. IO. TE. En este problema, . = 15. BI. Comenzamos el proceso iterativo partiendo del punto x0 = (10, 2, 7, 13), el cual como se comprueba fácilmente, está en el interior de la región factible del problema.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(45) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. Las. iteraciones. del. algoritmo. del. 30. elipsoide. AT EM AT IC AS. 2.1 Algoritmo del Elipsoide Interior. interior. problema propuesto se presenta en la siguiente tabla.. para. resolver. el. Iteración: Aproximación a la solución óptima: Aproximación al valor óptimo: xk. k. cT x k. 10.0000 0. 2.0000. -18.0000. M. 7.0000. Y. 13.0000. 1. 2.1117 1.4000. FI S. 12.8883. IC AS. 15.7117. -29.3117. 18.0519 3.3319. -32.7719. S. 2. CI A. 0.2800. 11.6681. EN. 27.5312 12.6664. 2.3336 29.4111 14.5333. 0.4667. 5. 14.9067. IO. -44.2890. 0.1221. 29.8357. BL BI. -42.3961. 0.1351. TE. CA. 4. DE. CI. 3. -44.7648. 0.0709 0.0933. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(46) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 31. AT EM AT IC AS. 2.2 Solución del problema de mı́nimos cuadrados. Iteración: Aproximación a la solución óptima: Aproximación al valor óptimo: xk. k. cT x k. 29.9416 6. 14.9558. -44.9274. 0.0142 0.0442. 7. M. 29.9843 14.9912. -44.9773. Y. 0.0069. IC AS. 0.0088 29.9943 14.9957 0.0014 0.0043. -44.9929. FI S. 8. CI A. S. 29.9985 9. 14.9991. -44.9978. EN. 0.0007. parte. del. algoritmo. del. elipsoide. interior. que. mayor. tiempo. CA. La. Solución del problema de mı́nimos cuadrados. DE. 2.2.. CI. 0.0009. consume es el cálculo de la dirección de descenso, el cual requiere resolver el. TE. problema de mı́nimos cuadrados o equivalentemente calcular la proyección. IO. ortogonal del vector −Dc sobre el espacio nulo de la matriz B = AD que cambia en cada iteración.. BL. Lo que proponemos es aproximarnos a esta dirección, usando una matriz D̂ que es. BI. una aproximación a la matriz D.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(47) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 32. Vamos a aproximar la dirección [ ] d = − I − B T (BB T )−1 B Dc por dˆ = −D−1 D̂[I − B̂ T (B̂ B̂ T )−1 B̂]D̂T c, donde. M. B̂ = BD−1 D̂ = (AD)D−1 D̂ = AD̂,. AT EM AT IC AS. 2.2 Solución del problema de mı́nimos cuadrados. Y. y D̂ es una aproximación no singular a D, el estudio de D̂ será realizado en la. IC AS. siguiente sección. La nueva iteración en el espacio transformado es. FI S. ˆ ŷ = e + αd.. Antes de abordar la forma en que obtendremos la matriz D̂, notemos que si D̂ = D,. S. entonces dˆ = d.. CI A. Ahora describimos el proceso de obtención de la matriz de aproximación D̂.. EN. Empezaremos con D̂0 = D0 , una matriz diagonal cuyos elementos son las componentes del punto inicial interior factible, x0 . Podemos obtener actualizaciones. CI. de rango uno a esta matriz mediante el uso de una función no lineal cuyo gradiente y. DE. hessiano involucra la matriz D. La función a usar es la función barrera logarı́tmica.. M inimizar cT x sujeto a Ax = b x≥0. IO. TE. CA. Aplicando la transformación barrera al problema (P). BI. BL. se obtiene minimizar F (x) = c x − µ T. n ∑. ln xi. (2.12). i=1. sujeto a Ax = b.. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(48) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 33. AT EM AT IC AS. 2.2 Solución del problema de mı́nimos cuadrados. Tenemos ∇F (x) = c − µD−1 e, donde D = diag(x) y e = (1, · · · , 1)T ; y ∇2 F (x) = µD−2 . La. función. Lagrangiana. asociada. al. problema. (2.12). es. M. L(x, λ) = F (x) − λT (Ax − b), donde λ ∈ Rm denota los multiplicadores de Lagrange de la condición Ax = b.. Y. La condición necesaria para la optimalidad es que el gradiente del Lagrangiano en. IC AS. x∗ (µ) debe anularse, es decir,. (2.13). Ax∗ (µ) − b = 0.. (2.14). FI S. ∇F (x∗ (µ)) − AT λ(µ) = 0. Teorema 2.6 Sea x∗ (µ) la solución óptima del problema (2.12) y x∗ = lı́m x∗ (µ) ∗. µ→0. CI A. S. entonces x es la solución óptima del problema (P). Demostración:. EN. Multiplicando x∗ (µ) a la ecuación ∇F (x∗ (µ)) − AT λ(µ) = 0, se tiene (2.15). CI. cT x∗ (µ) − µx∗ (µ)T D−1 e − x∗ (µ)T AT λ(µ) = 0. DE. Como D−1 = diag(x∗ (µ))−1 y por la factibilidad de x∗ (µ), (2.15) se reduce a cT x∗ (µ) − bT λ(µ) = nµ.. (2.16). c − µD−1 e − AT λ(µ) = 0. TE. CA. Además de (2.13). AT λ(µ) < c.. (2.17). BL. IO. y como µD−1 e > 0 entonces. BI. Tomando lı́mite a la ecuación (2.16) y a la inecuación (2.17) cuando µ → 0 se tiene cT x∗ − bT λ∗ = 0,. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(49) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 34. AT EM AT IC AS. 2.2 Solución del problema de mı́nimos cuadrados. AT λ∗ ≤ c, es decir, AT λ∗ ≤ c. (2.18). cT x∗ = bT λ∗ .. (2.19). Por (2.14) y (2.18), x∗ y λ∗ son soluciones factibles para el problema (P) y dual (D) respectivamente. Además con (2.19), se cumplen con las condiciones del corolario (1.1), por tanto x∗ es la solución óptima para el problema (P).. 2.2.1.. IC AS. Y. M. . Actualización de la matriz D̂. No es nuestra intención resolver el problema (2.12) para cualquier valor de µ;. FI S. simplemente usaremos la función barrera logarı́tmica, cuyo gradiente y hessiano involucran la matriz D, para obtener una aproximación a esta matriz. +. para referirnos a la nueva iteración y el subı́ndice c para. S. Usaremos el subı́ndice. CI A. referirnos a la iteración anterior (actual).. Escribiendo la ecuación de la secante de la función auxiliar, basada en la función. EN. barrera logarı́tmica, se tiene. CI. −2 −1 µD̂+ (x+ − xc ) = (c − µD+ e) − (c − µDc−1 e). o. DE. −2 −1 D̂+ (x+ − xc ) = (Dc−1 − D+ )e,. −2 −2 donde µD̂+ es una aproximación no singular a ∇2 F (x+ ) = µD+ . El término de la. CA. derecha puede ser calculado exactamente. −1 )e, desde que no buscamos que la aproximación D̂ sea simétrica, Sea q = (Dc−1 − D+. IO. TE. T 2 , necesitamos que la aproximación cumpla con D̂+ D̂+ entonces reemplazando D̂+ T q. (x+ − xc ) = D̂+ D̂+. BI. BL. T q como Expresamos la condición (x+ − xc ) = D̂+ D̂+. (x+ − xc ) = D̂+ s. (2.20). T q s = D̂+. (2.21). Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

(50) Biblioteca Digital. Dirección de Sistemas de Informática y Comunicación - UNT. 35. AT EM AT IC AS. 2.2 Solución del problema de mı́nimos cuadrados. para algún vector s ∈ Rn . Ahora usamos la fórmula de actualización de Broyden para obtener D̂+ como una aproximación a la matriz D̂c , satisfaciendo (2.20): (x+ − xc − D̂c s)sT . sT s. D̂+ = D̂c +. (2.22). Teorema 2.7 Reemplazando la expresión (2.22) en (2.21) se tiene s = η D̂cT q, (x+ − xc )T q . donde η 2 = q T D̂c D̂cT q. M. Demostración: Como. T D̂+ = D̂cT +. s(x+ − xc − D̂c s)T sT s. T D̂+ q. s(x+ − xc − D̂c s)T q + sT s. D̂cT q. (x+ − xc − D̂c s)T q s, sT s. (2.23). s = η D̂cT q.. EN. entonces ∃ η ∈ R tal que. CI A. S. s = D̂cT q +. IC AS. =. Y. (x+ − xc − D̂c s)sT sT s. FI S. s=. D̂+ = D̂c +. (2.24). CI. Reemplazando (2.24) en (2.23). TE. CA. DE. η D̂cT q = D̂cT q +. η =1+. (x+ − xc )T q − ηq T D̂c D̂cT q. BL BI. ηq T D̂c D̂cT q. η D̂cT q. (x+ − xc )T q − ηq T D̂c D̂cT q T D̂c q = D̂cT q + ηq T D̂c D̂cT q [ ] (x+ − xc )T q − ηq T D̂c D̂cT q D̂cT q, = 1+ T T ηq D̂c D̂c q. entonces. IO. (x+ − xc − η D̂c D̂cT q)T q. Sea β = q T D̂c D̂cT q, η =1+. ηq T D̂c D̂cT q. .. (x+ − xc )T q − ηβ ηβ. Esta obra ha sido publicada bajo la licencia Creative Commons Atribucion-No Comecial-CompartirIgual bajo la misma licencia 2.5 Perú. Para ver una copia de dicha licencia, visite http://creativecommons.org/licenses/by-nc-sa/2.5/pe/.

Figure

Actualización...

Referencias

Actualización...

Related subjects : Programaci on lineal