• No se han encontrado resultados

Optimización por enjambre para la p-mediana continua y discreta

N/A
N/A
Protected

Academic year: 2021

Share "Optimización por enjambre para la p-mediana continua y discreta"

Copied!
8
0
0

Texto completo

(1)

Resumen--Éste trabajo describe la aplicación de la meta-heurística de optimización por enjambres (PSO) para las versiones continua y discreta del problema de la p-mediana. Ambas son problema son problemas NP-du-ros y para ellos se han aplicado muchas metaheurísti-cas. Se proponen nuevas versiones de la optimización por enjambres para ambos problemas con la combina-ción de una mejora local, que se comparan con las ver-siones estándar de la PSO y de la PSO discreta (DPSO), incluso con un ajuste de sus parámetros. Palabras clave—PSO, p-Mediana, Híbridos, Logística.

I.INTRODUCCIÓN

La Optimización por Enjambre de Partículas (Particle Swarm Optimization, PSO) es una prome-tedora metaheurística relativamente reciente intro-ducida por James Kennedy y Russel Eberhat . Se trata de un método de evolutivo inspirado en el comportamiento social de individuos dentro de en-jambres en la naturaleza, como bandadas de pájaros o bancos de peces. Para ello se modela un conjunto de soluciones alternativas o potenciales del proble-ma como miembros del enjambre que se echan a vo-lar en el espacio virtual de las posibles soluciones.

En la planificación y optimización logística hay que adoptar tres tipos de decisiones: estratégicas o a largo plazo (cada varios meses o años), tácticas o a medio plazo (cada pocas semanas o meses) y

opera-tivas (varias veces en un día o una semana). Las

me-taheurísticas son importantes en el apoyo de los tres tipos de decisiones, pero las características que se buscan en ellas son diferentes. Los tres tipos proble-mas más importante en logística, los probleproble-mas de localización, de rutas y de cargas, corresponden pre-ponderantemente a decisiones estratégicas, tácticas y operativas respectivamente. Los sistemas evoluti-vos inteligentes como la PSO son relevantes sobre-todo en entornos estratégicos donde es frecuente en-contrar elementos nuevos en el problema que hacen inviables procedimientos específicos ajustados a un modelo. En estos entornos, los procedimientos que como la PSO no son muy exigentes con las caracte-rísticas del problema son cada vez más necesarios. Sin embargo, las pruebas iniciales de las estrategias de aplicación de la PSO pueden hacerse en instan-cias de los problemas estándares de localización como es el problema de la p-mediana.

En este trabajo planteamos la aplicación de las versiones estándares de la PSO y de la PSO discreta, la mejora de los parámetros aportados y una

aproxi-mación específica que tiene en cuenta la separación real entre dos soluciones y una búsqueda local.

Las secciones siguientes se introducen la versión estándar de la PSO y de la PSO discreta (DPSO). Se describen el problema de la p-mediana en sus ver-siones continua y discreta. Se propone una nueva implementación de ambos métodos combinados con búsquedas locales. Finalmente se ofrece una des-cripción de la experiencia computacional realizada y unas breves conclusiones.

II.OPTIMIZACIÓNDE ENJAMBRE

La metaheurística de optimización por enjambre o PSO está inspirada en el movimiento continuo de las partículas que forman enjambres sometidas al efecto de la inercia y de la atracción de los miem-bros más relevantes que lideran el enjambre. Dos de las características más importantes en el desarrollo de esta metaheurística es la facilidad de implemen-tación y el uso de la evolución de las relaciones so-ciales como modelo computacional. Otras denomi-naciones que ha recibido esta metodología en espa-ñol son optimización de partículas, por enjambre de partículas y por cúmulo de partículas.

En una heurística PSO, las partículas o miem-bros del enjambre son interpretados como agentes de búsqueda que recorren el espacio de soluciones. La PSO fue propuesta inicialmente como un proce-dimiento de solución de problemas de optimización con variables continuas. En un problema con d va-riables continuas, cada partícula i del enjambre S = {1, 2, …, s} tiene asociada su vector de posición xi

= (xi1, xi2, …, xij, …, xid) y su velocidad o tasa de

cambio vi = (vi1, …, vij, …, vid). Cada partícula i del

enjambre se comunica con un subconjunto del en-jambre o entorno social N(i) S que puede variar dinámicamente. Cada partícula guarda y usa infor-mación de su mejor posición durante el proceso de búsqueda. También puede obtener la mejor posición alcanzada por las partículas de su entorno social, que puede ser todo el enjambre o una parte. La in-formación de las mejores posiciones influye en el comportamiento de las partículas. En todos estos ca-sos se almacena también el valor del objetivo como función de adaptación (fitness).

La posición y velocidad inicial de las partículas se suele obtener aleatoriamente dentro de unos ran-gos. En cada iteración, las partículas actualizan su posición y velocidad mediante unas formulas

recu-Optimización por enjambre para

la p-mediana continua y discreta

(2)

rrentes. La posición se modifica usando exclusiva-mente su velocidad, pero en la actualización de la velocidad intervienen, además del valor de la propia velocidad, la mejor posición de la propia partícula y la mejor posición del grupo de partículas del enjam-bre con las que se relaciona; su entorno social. Estas mejores posiciones, individuales y conjunta, actúan con distinto peso o ponderación, como focos de atracción para las partículas.

Las ecuaciones vectoriales de actualización de la posición xi y velocidad vi de la i-ésima partícula del

enjambre, en el procedimiento PSO estándar según la propuesta de Kennedy y Eberhart son las siguien-tes:

vi = c1 vi + c2 rnd (bi – xi) + c3 rnd (gi – xi)

xi = xi + vi

donde los vectores bi y gi son la mejor posición que

ha tenido esta partícula desde que se inició el proce-dimiento y la mejor posición entre las que han teni-do todas las partículas del grupo o entorno social de dicha partícula. El parámetro c1 representa el efecto

de la inercia cuya misión es controlar la magnitud de la velocidad y evitar que crezca indefinidamente. Los escalares c2 y c3 son los pesos que representan el grado de confianza de la partícula, en si misma y en su grupo social, que en muchas versiones coinciden. El término rnd hace referencia a un número aleato-rio con distribución uniforme en [0,1]. Estas canti-dades suelen ser positivas e inferiores a uno y en di-ferentes versiones se fija c1 = 1, o bien c2 = c3 o

in-cluso c1 + c2 + c3 = 1. En la versión estándar PSO-2006 propuesta por Kennedy y Clerc1, la estructura

de entornos se obtiene fijando al azar el número K de partículas que informan a otra que son elegidas al azar y se renuevan cada vez que no se mejora la me-jor posición global g*. Los valores por defecto en esta versión estándar son: c1 = 1/(2+ln2) y c2 = c3 =

0.5 + ln2; además K = 3 y el tamaño del enjambre se fija en 10 + 2 d donde d es la dimensión del espa-cio de soluespa-ciones.

Aparte de esta selección aleatoria de la estructu-ra de entornos, las dos topologías más corrientes para la estructura de entornos son las denominadas

anillo Na y estrella Ne. Con la estructura de anillo

cada partícula interactúa con la anterior y posterior (en una ordenación considerada cíclica) y en la es-tructura de estrella cada partícula interactúa con to-das las partículas. Formalmente, estos entornos vienen definidos por:

Na(1) = {s, 1, 2}, Na(s) = {s1, s, 1}

Na(i) = {i1, i, i+1}, 1 < i < s,

y

Ne(i) = S, (1 i s).

III.ELPROBLEMADELAP-MEDIANA

El problema de la p-mediana es uno de los pro-blemas más importantes en localización de servicios

1 http://www.particleswarm.info/Standard_PSO_2006.c

y constituye uno de los focos de interés en la planifi-cación logística , . Este problema corresponde a una situación ideal en el análisis de decisiones estratégi-cas importantes en logística, como son las de locali-zación. Sin embargo, el problema de la p-mediana no suele presentarse en estado puro en situaciones reales sino con restricciones o costes adicionales, y mezclado con otros problemas, configurándose como un problema mixto de optimización. Una de las cuestiones que le confieren esa importancia al problema de la p-mediana es servir de modelo y prototipo para otros problemas relevantes en los que las soluciones alternativas se basan en escoger un número fijo de elementos.

Para formalizar el problema de la p-mediana como un problema de localización de servicios se considera, en un espacio determinado E, un conjun-to de n punconjun-tos de demanda donde radican los usua-rios del servicio denotado por Z = { z1, z2, …, zn }, y

un conjunto L de posibles localizaciones de los pun-tos de servicio. Cada punto de demanda zi suele

te-ner asociado un peso wi, que representa la cantidad

que demanda o usuarios en dicho punto. El proble-ma de la p-mediana consiste en determinar simultá-neamente las p posiciones de L (medianas) en las que establecer el servicio, de forma que se minimice el coste total del trasporte necesario para satisfacer todas las demandas de los usuarios, suponiendo que dicho coste es proporcional a la cantidad de deman-da y a la distancia recorrideman-da. Por tanto, cademan-da usuario será atendido por el punto de servicio (mediana) más cercano que tiene una capacidad ilimitada.

Los tipos más importantes de este problema son los problemas de la p-mediana continuo y discreto; según que el espacio E en el que se encuentra la de-manda y se establecen los servicios, sea continuo o discreto. En el problema continuo de la p-mediana estándar el espacio E es todo el plano, y L coincide con E. En otros problemas continuos, el espacio es de mayor dimensión o es una región convexa acota-da que incluye a Z. En el problema discreto de la

p-mediana el espacio E consiste en los puntos de una

red de comunicaciones y tanto Z como L son con-juntos finitos formados por vértices o nodos de la red; coincidentes en el caso estándar. Ambos son problemas de optimización NP-duros ( y ).

El problema continuo de la p-mediana también se denomina problema múltiple de Weber y es un problema importante en localización desde el traba-jo inicial de Cooper e interesante desde el punto de vista de la geometría computacional. Formalmente, el problema consiste en, dados n los puntos Z = { z1, z2, …, zn } con sus correspondientes pesos wi,

encon-trar el conjunto X de p puntos del plano que hacen mínima la función:

= ∈ = n i i X x i d z x w X F 1 ) , ( min ) (

El problema simple de Weber o de la mediana continua consiste en encontrar el punto del plano

(3)

que hace mínima la suma ponderada al conjunto de puntos Z. No se dispone de un algoritmo que aporte la solución óptima de este problema en un número finito de pasos y el algoritmo más práctico consiste en aplicar el método iterativo de Weiszfeld . Este método aplica, a un punto arbitrario del plano la si-guiente transformación de forma iterativa:

= = = n i i i n i i i i z x d w z z x d w x T 1 1 ) , ( ) , ( ) ( .

La sucesión de puntos del plano definida por la ecuación xi+1 = T(xi) converge a la mediana de Z, a

menos que en algún momento coincida en algún punto de Z. Esta situación, aunque posible es impro-bable, porque se ha podido determinar que el con-junto de puntos de arranque desde los que la suce-sión alcanza un punto de Z que no es solución del problema, es numerable. Una modificación posterior permite resolver este caso; si la sucesión se estanca en un punto, y es sencillo comprobar si dicho punto es la solución del problema o no. En caso de que no lo sea se arranca la sucesión desde otro punto distin-to, en la esperanza de que no vuelva a ocurrir lo mismo; lo que es casi seguro.

El problema continuo de la p-mediana se ha ex-tendido en múltiples direcciones; prescindiendo del número fijo de localizaciones e incluyendo, restric-ciones de capacidad, costes de localización, barre-ras, distinto tipo de normas o pseudo-normas en lu-gar de la euclídea, etc. Una revisión de los métodos heurísticos aplicados al problema continuo de la p-mediana se encuentra en ; con posterioridad han aparecido otras heurísticas en , y .

Si el problema de la p-mediana se plantea sobre un grafo G = (V,A), donde los puntos de demanda son vértices (Z V) y el conjunto L está formado por todos los puntos sobre el grafo, incluyendo los vértices de V y todos los puntos intermedios de las aristas de A, es posible restringir la búsqueda de la

p-mediana sólo los vértices (ver ). Por tanto, el

con-junto L de posibles localizaciones se puede conside-rar restringido al propio conjunto V de los vértices del grafo, convirtiéndose también en un problema discreto de la p-mediana. En el planteamiento más común todos los vértices son a la vez los puntos de demanda y los de posible localización; Z = L = V (además todos tienen igual peso).

El problema discreto de la p-mediana se aborda utilizando la matriz de distancias D entre todos los pares formados por una localización posible de L y un punto de demanda de Z. Si el problema está plan-teado en un grafo o red, estas son distancias entre vértices que se puede obtener por conocidos algorit-mos de caminos mínialgorit-mos, como los de Dijkstra o Floyd. Si el problema está planteado en el plano, el conjunto L de localizaciones posibles y el conjunto de puntos de demanda Z son conjuntos finitos de

puntos y se trabaja con la matriz de distancias euclí-deas. En el caso más común los conjuntos Z y L coinciden y la matriz de distancias D es una matriz cuadrada.

Por tanto el problema discreto de la p-mediana se suele plantearse en términos estrictamente mate-máticos a partir de los elementos de la matriz de dis-tancias D = [dij = d(zi, zj), i,j = 1, 2, …, n], y el

vec-tor de pesos w = [wi, i = 1, 2, …, n]. El objetivo es

encontrar las p filas de D tal que la media, pondera-da por los pesos de w, de los mínimos de capondera-da co-lumna en esas filas sea mínima. Es decir, se trata de encontrar el conjunto de índices J {1, 2, …, n} con |J| = p, que minimiza:

= ∈ = n i ij J j i d w X F 1 min ) (

Para el problema de la p-mediana discreto se han propuesto muy diferentes procedimientos de resolu-ción; desde los trabajos iniciales de Cooper se han aplicado la mayoría de los métodos exactos y heu-rísticas. Una reciente revisión de los procedimientos heurísticos aplicados se encuentra en y una biblio-grafía anotada en . Entre los procedimientos aplica-dos se encuentran procedimientos evolutivos como los algoritmos genéticos , y los sistemas de Colo-nias de Hormigas . El método PSO se ha aplicado recientemente a un problema de localización similar a la p-mediana pero con costes de localización en .

IV.LA PSO PARALAP-MEDIANACONTINUA.

Para aplicar la versión estándar de la heurística PSO al problema de la p-mediana continua en el plano representamos cada solución posible consis-tente en p puntos por las 2p coordenadas. Por tanto, el vector de posición y el vector de velocidades son vectores del espacio de dimensión 2d sin más res-tricción. Sin embargo, unas pruebas sencillas mues-tran que la elección por defecto de los parámetros de la versión estándar puede ser mejorada. Aquí se pro-pone una nueva versión de la PSO que tiene en cuenta la separación real entre las soluciones enten-didas como conjuntos de puntos. Además se incor-pora el algoritmo de Weiszfeld para mejorar la posi-ción de las partículas derivadas de su velocidad.

La versión aquí propuesta trata de reflejar física-mente la atracción de la mejor posición de la partí-cula y de su grupo de informantes. En lugar de utili-zar la diferencia vectorial de las posiciones líderes y la actual, componente a componente, sin tener en cuenta su ordenación, en la actualización de la velo-cidad, se utiliza la proximidad de las medianas de las posiciones líderes para dirigir la atracción sobre cada punto de la posición de la partícula. El segundo sumando de la ecuación de actualización de la velo-cidad se calcula como sigue. Para cada uno de los p puntos del conjunto representado por la posición de la partícula, se determina el punto más cercano de la solución representada por la mejor posición de la

(4)

partícula. La diferencia entre ambos puntos del pla-no se multiplica por el factor estocástico. Análoga-mente se hace intervenir la atracción de la mejor po-sición del grupo en el tercer sumando de la actuali-zación.

Formalmente, la posición de una partícula viene dada por el vector de dimensión 2p. La posición de la partícula i-ésima viene dada por

xi = ( (xi11,xi12), …, (xij1,xij2), …, (xipj1, xipj2) )

o equivalentemente xi = (xi1, xi2, …, xij, …, xid)

don-de para cada j = 1, 2, ..., p, la componente xij de la

posición es el punto del plano dado por sus coorde-nadas xij = (xij1,xij2).

Si la ecuación de actualización de la velocidad de una partícula se expresa por

vi = c1 vi + c2 rnd (bi Ө xi) + c3 rnd (g Ө xi),

entonces la operación Ө actúa, como sigue. Si x e y representan dos conjuntos de p puntos del plano, el vector z = x Ө y se obtiene de la forma siguiente. Para cada punto xj de x se determina el punto yj* de

y más cercano a xj; es decir el que hace mínima

d(xj,yk) y las diferencias constituyen las

componen-tes de z que corresponden al punto xj. Formalmente:

zj = xj yj* donde d(xj,yj*) = mink d(xi,yk).

El otro aspecto en que se modifica la versión ori-ginal de la PSO es la actualización de la posición. Una vez obtenida la posición xi al añadirle

algebrai-camente la velocidad se asignan los puntos de de-manda al punto más cercano de la solución repre-sentada por la partícula. Con cada uno de estos pun-tos como punto de arranque se aplica el algoritmo de Weiszfeld con los puntos de demanda que le han sido asignados. Formalmente, se definen los conjun-tos Zj = { z Z: d(z,xj) = mink d(z,xk)} y se

reempla-za cada punto xj de la partícula por el resultado xj*

de aplicar el algoritmo Weiszfeld al conjunto Zj con

el punto xj como punto de arranque.

V.DISCRETIZACIONESDELA PSO

El método de optimización por enjambre o PSO fue originalmente propuesto para problemas de opti-mización continua, pero dado que, en palabras de sus autores, no es posible “echar a volar” las partí-culas en un espacio discreto, se han propuesto varias formas de adaptar el método a problemas discretos. Un grupo de individuos (agentes de búsqueda) que recorren un espacio discreto dando saltos de forma simultánea de unas soluciones a otras sin hundirse en posiciones intermedias rememora naturalmente el comportamiento de un grupo ranas saltando de pie-dra en piepie-dra en un estanque. El correspondiente método de optimización, como método bio-inspira-do, se denominaría optimización por el salto de la rana o JFO (Jumping Frog Optimization); sobre todo si, como ocurre en nuestra propuesta, se pres-cinde de la componente de la velocidad y en su lu-gar aparecen esporádicamente saltos aleatorios.

La versión de la PSO propuesta por sus creado-res para problemas de optimización con variables

binarias, denominada PSO discreta o DPSO

(Dis-crete Particle Swarm Optimization), permite tratar

conjuntos de puntos mediante el vector característi-co (ver ). La posición de cada partícula es un vector binario xi = (xi1, xi2, …, xij, …, xid) del espacio

d-di-mensional binario, xij∈ {0,1}d, pero la velocidad

si-gue siendo un vector dimensional vi del espacio

con-tinuo de dimensión d. ∈ℜd. La velocidad sigue

in-terpretándose como la tasa de cambio de cada com-ponente del vector de posición y se actualiza por misma la fórmula:

vi = c1 vi + c2 rnd (bi – xi) + c3 rnd (g – xi).

Sin embargo la posición se obtiene exclusiva-mente de la velocidad por un nuevo procedimiento. La propuesta original de los autores de la PSO utili-za la función sigmoidal y consiste en que cada va-riable xij de cada partícula toma el valor 1 con

pro-babilidad (1 + exp(−vji))−1, y 0 en otro caso. Para

evitar la explosión en la velocidad, además de usar un coeficiente de inercia c1 pequeño se suele

esta-blecer una cota para sus componentes vij (los valores

típicos están en torno a 6.0).

Otras propuestas para tratar problemas con va-riables dinámicas son las siguientes. En se conside-ra una versión de la DPSO con una forma distinta de actualizar la velocidad. En se utiliza un método ba-sado en la DPSO cuyas partículas se ven influencia-das alternativamente por la mejor posición de su re-corrido particular y de todo su entorno en lugar de simultáneamente. En se usa la modulación angular con sólo cuatro parámetros en la PSO continua.

Para problemas donde las soluciones son permu-taciones, como en el problema del vendedor o TSP, se ha propuesta una versión que se ha aplicado en , y . La PSO ha sido aplicada a varios problemas de programación entera en . En se propone una versión de la PSO para variables discretas con varios valo-res; no sólo binarias. Las posiciones de las partícu-las que son unidimensionales en la PSO y bidimen-sionales en la DPSO, pero son tridimensiona-les para la PSO discreta con múltiples valores (MVP-SO). Las posiciones de las partículas vienen dadas por las cantidades xijk, que representan las

probabili-dades de que en la i-ésima partícula, la j-ésima va-riable tome su k-ésimo valor posible. Por tanto la evaluación de las partículas es en todo momento es-tocástica y la velocidad también es tridimensional.

Correa y Freitas proponen en una discretización de la PSO para el problema de la selección de atri-butos en minería de datos adaptable directamente al problema de la p-mediana, y a cualquier otro proble-ma cuyo espacio de soluciones esté constituido por una selección de elementos de un universo finito. En esta versión se utilizan vectores característicos para representar los subconjuntos de variables. Si d es el número de variables entre las que hacer la selección, la posición y la velocidad de cada partícula son vec-tores de dimensión d. Los vecvec-tores de posición son vectores binarios pero los vectores de velocidad

(5)

es-tán formados por números positivos. Cada compo-nente del vector de velocidad se interpreta como la verosimilitud relativa de la correspondiente compo-nente binaria del vector de posición de la partícula. La ecuación de actualización de la velocidad es:

vi = vi + c1 xi + c2 bi + c3 gi.

Nótese que, para cada partícula, los vectores xi , bi y

gi corresponden a posiciones de partículas y son

bi-narios pero no es así la velocidad vi.

Para inicializar el enjambre, se selecciona al azar el número de variables de cada partícula. Este nú-mero, posiblemente distinto de unas partículas a otras, se mantiene fijo a lo largo del proceso. A con-tinuación se seleccionan al azar tantas variables como corresponda para cada partícula. El vector de posición inicial de todas las partículas está constitui-do por unos.

Para obtener la posición de la partícula a partir de la correspondiente velocidad, se multiplica cada una de sus componentes por un número al azar con distribución uniforme en [0,1]. A continuación se asigna 1 a las variables que alcanzan mayor valor, dejando el resto de las variables a 0. El número de variables que alcanza el valor 1 es el que correspon-da a cacorrespon-da partícula.

VI.LA PSO PARALAP-MEDIANADISCRETA.

De las discretizaciones o versiones discretas de la PSO propuestas en la literatura, la más apropiada para el problema discreto de la p-mediana es natu-ralmente la reciente propuesta de Correa y Freitas . El único aspecto que hay que modificar es el núme-ro de elementos de cada partícula que viene fijado en p, en lugar de ser generado al azar en la iniciali-zación de cada partícula.

En este trabajo proponemos una nueva versión de la PSO para el problema de la p-mediana discreta que utiliza sólo conjuntos de puntos. Al carecer de continuidad el movimiento, la idea de velocidad pierde sentido, por lo que prescindimos de esta com-ponente, aunque no de la atracción de las mejores posiciones. Utilizamos para la actualización de la posición de la partícula una expresión similar a la de Correa y Freitas para la actualización de la veloci-dad. Sin embargo, los pesos de la ecuación los inter-pretamos como las probabilidades de que se de un comportamiento aleatorio, y de una atracción por la mejor posición de la propia partícula, por la mejor posición de su entorno social y por la mejor posi-ción global. La atracposi-ción de estas posiciones hace que la posición de la partícula evolucione acercán-dose a alguno de estos atractores mientras que se mejora.

Expresamos formalmente la ecuación de actuali-zación de la posición de cada partícula por

xi = c1 xi c2 bi c3 gi c4 g*.

El resultado de esta operación consiste realizar mo-vimientos aleatorios con probabilidad c1,

movimien-tos de acercamiento con mejora hacia la mejor

posi-ción de la propia partícula bi con probabilidad c2,

ha-cia la mejor posición de su entorno soha-cial gi con

pro-babilidad c3, o hacia la mejor posición global g* con

probabilidad c4. Los movimientos consisten en

re-emplazar una de las p medianas por otro punto. Este punto se elige totalmente al azar en los movimientos aleatorios. En los movimientos de atracción se elige al azar entre las medianas del atractor correspon-diente. Los movimientos de atracción que no produ-cen mejora se rechazan. Este resultado se obtiene de la siguiente forma. Se divide el intervalo unidad [0,1] en cuatro segmentos con probabilidades c1, c2, c3 y c4 = 1 − (c1 + c2 + c3). A continuación se genera

un número al azar en [0,1] y en función del segmen-to al que pertenezca el número aleasegmen-torio resultante, se aplican a la posición de la partícula movimientos aleatorios de mejora hacia el atractor correspondien-te. El número de movimientos aplicado en cada ge-neración a la posición de una partícula se elige al azar según una distribución de probabilidades geo-métrica con media igual al producto de p por el co-rrespondiente coeficiente; ci. Para ello tras cada

mo-vimiento se genera un número al azar con distribu-ción [0,1] que se multiplica por p y por el corres-pondiente coeficiente ci. Si el resultado es mayor

que 1 se aplica otro movimiento, en otro caso se de-tienen los movimientos hasta la próxima generación. Además, a esta versión, JFO, de la PSO para la

p-mediana discreta se puede incorporar una

búsque-da local similar a la utilizabúsque-da para la p-mediana con-tinua. Esta búsqueda local es la propuesta por Ma-ranzana que consiste en la aplicación alter-nativa de movimientos de asignación y localización, hasta que no se obtenga mejora. La asignación consiste en asignar cada punto de demanda a la mediana más cercana de la solución representada por la posición de la partícula. La localización consiste en determi-nar por inspección la mediana de cada uno de estos conjuntos. Formalmente, se definen los conjuntos Zj

= {z Z: d(z,xj) = mink d(z,xk)} y se reemplaza cada

punto xj de la partícula por la 1-mediana de Zj; el

punto que minimiza maxj d(x,zj).

VII.EXPERIENCIACOMPUTACIONAL.

Para la experiencia computacional, se seleccio-naron problemas de la OR-Library que son usados asiduamente para probar heurísticas para los proble-mas continuo y discreto de la p-mediana. El objetivo de la experiencia es mostrar el comportamiento de las nuevas versiones de la PSO propuesta en compa-ración con las versiones estándares de la literatura.

Para el problema de la p-mediana continua se utilizó un conjunto de 287 puntos, con sus pesos co-rrespondientes originarios de que se ha utilizado también en , y . Se abordaron problemas con p des-de 2 hasta 10. La tabla I muestra los resultados des-de la comparación de la versión estándar de la PSO con los parámetros propuestos por los autores (PSO-2006), con esta versión con un ajuste de parámetros

(6)

para mejorar su rendimiento (PSO-2006*) y con la versión de la PSO aquí propuesta, tanto sin la bús-queda local (PSO-LS) como con ella (PSO+LS). TABLA I RESULTADOSPARALAP-MEDIANACONTINUA

p PSO-2006 PSO-2006* PSO-LS PSO+LS Óptimos

2 15.136,64 14.581,68 14.531,65 14.712,41 14.427,59 3 14.172,18 13.235,77 13.047,97 12.369,72 12.095,44 4 13.954,55 12.700,80 12.118,91 11.101,83 10.661,48 5 12.318,66 11.514,69 11.001,70 10.295,89 9.715,63 6 13.292,27 11.269,26 10.613,18 9.433,24 8.787,56 7 11.561,06 10.980,82 10.170,99 8.724,55 8.160,32 8 10.862,25 10.182,80 9.782,72 8.353,93 7.564,29 9 11.534,92 10.094,40 9.091,56 8.091,64 7.088,13 10 11.236,14 10.288,59 8.814,41 7.518,48 6.705,04

Los estudios sobre los valores adecuados de los parámetros de la PSO, aunque no escasos, son poco concluyentes (, , , , , ), excepto en que el ta-maño del enjambre debe crecer, al menos hasta 50 para problemas de gran tamaño.

Para realizar comparaciones sobre la p-media-na continua se implementó la versión estándar PSO-2006 para 2p variables. Sin embargo, unas sencillas pruebas permitieron modificar algunos de sus parámetros para mejorar su rendimiento. Uno de los valores de los párame-tros más impor-tantes es el tamaño del enjambre que en la ver-sión estándar se fija a partir del número de varia-bles d = 2p por la ecuación: s =  2 donde .

es la parte entera. Este valor se mantiene para las cuatro versiones comparadas. La estructura de en-torno de PSO-2006 es la aleatoria con el número de partículas en cada grupo k = 3. Este número se

mostró insuficiente por lo que en la versión están-dar mejorada se usa k = 30 y en nuestras propues-tas k = 20. Por último, los coeficientes de inercia y de confianza en la versión estándar son c1 = 1.7

y c2 = c3 = 0.72. Sin embargo, para la versión mejorada se usó c2 = c3 = 0.2 y en la JFO c1 =

1.5 y c2 = c3 = 0.33.

Para comparar las versiones consideradas para la p-mediana discreta se seleccionaron 10 proble-mas de los 40 que están disponibles en la OR-Li-brary y que son utilizados con frecuencia para probar procedimientos heurísticos para este blema desde que aparecieron en . Se trata de pro-blemas definidos sobre grafos y sin ponderacio-nes. En la tabla II se muestran los resultados obte-nidos con la adaptación de la propuesta de Correa y Freitas (DPSO) y nuestra propuesta, tanto sin búsqueda local (JFO-LS) como con ella (JFO+LS).

TABLA II RESULTADOSPARALAP-MEDIANA DISCRETA

Caso N p DPSO JFO-LS JFO+LS Óptimos

1 100 5 5821 5819 5819 5819 2 100 10 4113 4093 4093 4093 3 100 10 4250 4250 4250 4250 4 100 20 3122 3034 3034 3034 5 100 33 1427 1357 1355 1355 6 200 5 7858 7824 7824 7824 7 200 10 5656 5639 5631 5631 8 200 20 4590 4445 4445 4445 9 200 40 2931 2773 2738 2734 10 200 67 1466 1276 1269 1255

Los valores de los parámetros elegidos para las pruebas con la p-mediana discreta fueron si-milares para los tres procedimientos. El tamaño del enjambre se fijó en 50 y el tamaño de los en-tornos aleatorios en 15. Los coeficientes de la ecuación de actualización de la velocidad en DPSO se fijaron en c1 = 0.1, c2 = 0.2 y c3 = 0.5.

Los coeficientes de atracción en nuestra propues-ta JFO se fijaron en c1 = 0.1, c2 = 0.2, c3 = 0.5 y c4

= 0.1.

VIII.CONCLUSIONES.

En este trabajo se ha analizado la aplicación de la metaheurística de Optimización por

(7)

Enjam-bre (PSO) a los problemas de la p-mediana conti-nuo y discreto. Se han implementado las versio-nes más estándares de la PSO para los problemas de la p-mediana continua y discreta haciendo un ligero ajuste de parámetros. Se han propuesto nuevas versiones para ambos problemas que tie-nen en cuenta la atracción entre las soluciones re-presentadas por las partículas siguiendo una inter-pretación fiel al problema. Además se ha pro-puesto la incorporación de una búsqueda local para mejorar las posiciones de las partículas tras cada actualización.

Los resultados experimentales obtenidos muestran que es necesario un ajuste de los pará-metros de las versiones estándar para conseguir de ellas un rendimiento apropiado. Se muestra como nuestras dos propuestas mejora considera-blemente la calidad de las soluciones aportadas. También se muestra como la introducción de la búsqueda local consigue mejorar aún más la cali-dad de las soluciones aportadas alcanzando la so-lución óptima en bastantes casos.

Como investigaciones futuras se profundizará en el estudio experimental de los aspectos aquí considerados. Además se estudiará la posibilidad de utilizar otras estructuras de entornos y de para-lelizar el procedimiento. Así mismo se considera-rá la aplicación a otros problemas estándares de la planificación logística y a problemas mixtos y más realistas.

AGRADECIMIENTOS

Este trabajo ha sido parcialmente subvencio-nado por los proyectos TIN2005-08404-C04-03 (70% FEDER) y PI042005/044.

REFERENCIAS

[1] B. Al-kazemi, C.K. Mohan (2000). “Multi-phase Discrete Particle Swarm Optimiza-tion”. Fourth International Workshop on Frontiers in Evolutionary Algorithms. [2] O. Alp, E. Erkut, D. Drezner (2003). “An

efficient genetic algorithm for the p-median problem”. Annals of Operations Research, 122:21-42.

[3] N. Aras, K.C. Özkısacık, İ.K. Altınel (2006). “Solving the uncapacitated multi-fa-cility Weber problem by vector quantization and self-organizing maps”. Journal of the Operational Research Society, 57(1):82-93. [4] J.E. Beasley (1985). “A note on solving

large p-median problems”. European Journ-al of OperationJourn-al Research, 21:270-273. [5] J.E. Beasley (1990). “OR-Library:

Distrib-uting test problems by electronic mail”. Journal of the Operational Research Soci-ety, 41:1069-1072.

[6] I. Bongartz, P.H. Calami, A.R. Conn (1994). “A Projection Method for Lp Norm

Location-Allocation Problems”. Mathemat-ical Programming, 66:283-312.

[7] J. Bramel, D. Simchi-Levi (2005) "The Lo-gic of Logistics: Theory, Algorithms, and Applications for Logistics Management" Springer.

[8] J. Brimberg, P. Hansen, N. Mladenovic, E. Taillard (1997). “Improvements and com-parison of. heuristics for solving the multi-source Weber problem”. Operations Re-search, 48:444–460.

[9] M. Clerc (2006). “Particle Swarm Optimiza-tion”. ISTE (International Scientific and Technical Encyclopaedia), 2006.

[10] L. Cooper (1963). “Location-allocation problem”. Operations Research, 11:301– 343.

[11] L. Cooper (1964). “Heuristic methods for location-allocation problems”. SIAM Re-view. 6, 37–53.

[12] E.S. Correa, S.A. Freitas, C.G. Johnson (2006) “A new Discrete Particle Swarm Al-gorithm Applied to Attribute Selection in a Bioinformatic Data Set”. Proceedings of GECCO 2006, 35–42

[13] R.C. Eberhard, J. Kennedy, (1995) “A new optimizer using particle swarm theory”, Proceedings of the Sixth International Sym-posium on Micro Machine and Human Sci-ence, Nagoya, Japan, 39–43.

[14] R.C. Eberhart, Y. Shi, (2000). “Comparing inertia weights and constriction factors in particle swarm optimization”, Proceedings of the 2000 Congress on Evolutionary Com-putation, vol. 1, 16–19.

[15] A.I. El-Gallad, M.E. El-Hawary, A.A. Sa-llam, A. Kalas (2002). “Enhancing the Particle Swarm Optimizer via Proper Para-meters Selection”. Canadian Conference on Electrical and Computer Engineering, 792– 797.

[16] M.D.H. Gamal, S. Salhi (2003) “A cellular heuristic for the multisource Weber prob-lem”. Computers and Operations Research, 30(11) 1609-1624.

[17] M.R. Garey, D.S. Johnson (1979). “Com-puters and Intractability: A Guide to the Theory of NP-Completeness”. Freeman, 1979.

[18] O. Kariv, S.L. Hakimi (1979). “An al-gorithmic approach to network location problem. Part 2: The p-median”. SIAM Journal of Applied Mathematics, 37:539– 560.

[19] J. Kennedy, “Small worlds and mega-minds: Effects of neighborhood topology on particle swarm performance”, Proceedings

(8)

of the 1999 Conference on Evolutionary Computation, 1931–1938.

[20] J. Kennedy, R. Eberhart (1995) “Particle swarm optimization”. Proceedings of the 1995 IEEE International Conference on Neural Networks, IV, 1942–1948.

[21] J. Kennedy, R.C. Eberhart (1997) “A dis-crete binary version of the particle swarm algorithm”. IEEE Conference on Systems, Man, and Cybernetics, Vol. 5, 4104–4108 [22] J. Kennedy, R. Eberhart (2001) “Swarm

In-telligence”, Morgan Kaufmann Publishers, San Francisco, 2001.

[23] T. Levanova, M.A. Loresh (2004). “Al-gorithms of Ant System and Simulated An-nealing for the p-median Problem” Automa-tion and Remote Control 65:431-438. [24] F.E. Maranzana (1964) “On the Location of

Supply Points to Minimize Transport Costs” Operational Research Quarterly 15:261-270. [25] N. Megiddo, K.J. Supowit (1984). “On the

Complexity of Some Common Geometric Location Problems”. SIAM Journal of Com-puting 13(1):182-196.

[26] N. Mladenović, J. Brimberg, P. Hansen, J.A. Moreno-Pérez (2007) “The p-median problem: A survey of metaheuristic ap-proaches”. European Journal of Operational Research, en prensa.

[27] J.A. Moreno-Pérez, J.L. García-Roda, J.M. Moreno-Vega (1994) “A parallel genetic al-gorithm for the discrete p–median problem”. Studies in Locational Analysis 7:131-141.

[28] G.C. Onwubolu, M. Clerc (2004). “Optimal operating path for automated drilling opera-tions by a new heuristic approach using particle swarm optimisation”, International Journal of Production Research, 42(3):473-491.

[29] G. Pampara, N. Franken, A.P. Engelbrecht (2005). “Combining Particle Swarm Optim-isation with angle modulation to solve bin-ary problems”, IEEE Congress on Evolu-tionary Computing, Vol. 1, 89-96.

[30] W. Pang, K. Wang, C. Zhou, L. Dong (2004). “Fuzzy Discrete Particle Swarm Op-timization for Solving Traveling Salesman Problem”, Proceedings of the 4th Interna-tional Conference on Computer and Inform-ation Technology (CIT04), IEEE Computer Society.

[31] K.E. Parsopoulos, M.N. Vrahatis (2002). “Recent approaches to global optimization problems through particle swarm optimiza-tion”, Natural Computing 1, No. 2-3, 235– 306.

[32] B. Pelegrín (2004) “Avances en Teoría de Localización y Aplicaciones”. Servicio de Publicaciones de Murcia.

[33] J. Pugh, A. Martinoli (2006). “Discrete

Multi-Valued Particle Swarm

Optimization”. IEEE Swarm Intelligence Symposium, 103–110.

[34] J. Reese (2006). “Solution methods for the

p-median problem: An annotated

biblio-graphy”. Networks 48(4):125-142.

[35] S. Salhi, M.D.H. Gamal (2003). ”A genetic Algorithm for the uncapacitated continuous location-allocation problem”. Annals of Op-erations Research 123:203-222.

[36] B.R. Secrest (2001). “Traveling Salesman Problem for Surveillance Mission using Particle Swarm Optimization”, Thesis, School of Engineering and Management of the Air Force Institute of Technology, Air University , 2001.

[37] M. Sevkli, A.R. Guner (2006) “A New Ap-proach to Solve Uncapacitated Facility Loc-ation Problems by Particle Swarm Optimiz-ation” Proceedings of 5th International Symposium on Intelligent Manufacturing Systems, 237-246.

[38] Y. Shi, R.C. Eberhart (1998) “Parameter se-lection in particle swarm optimization”, Lecture Notes In Computer Science, 1447 (Proceedings of the 7th International Con-ference on Evolutionary Programming VII): 591–600.

[39] A. Weber (1909). “Über den standort der in-dustrien”. Tübingen. (Traducción de C.J. Friederich (1929). “Theory of the location of industries”. University of Chicago Press). [40] E.V. Weiszfeld. (1937) “Sur le point pour

lequal la somme des distances de n points donnés est minimum”. The Tohoku Math-ematical Journal, 43, 335–386.

[41] G.O. Wesolowsky (1993) “The Weber prob-lem: History and perspectives” Location Science, 1, 5–23.

[42] S. Yang, M. Wang, L. Jiao (2004). “A Quantum Particle Swarm Optimization”, Proceedings of the Congress on Evolution-ary Computing, 2004, Vol. 1, 320–324. [43] H. Yapicioglu, G. Dozier, A.E. Smith,

(2004) “Bi-criteria model for locating a semi-desirable facility on a plane using particle swarm optimization”, Proceedings of the 2004 Congress on Evolutionary Com-putation, 2328–2334.

[44] L. Zhang, H. Yu, S. Hu (2005) “Optimal choice of parameters for particle swarm op-timization” Journal of Zhejiang University Science, 6A(6):528-534

Referencias

Documento similar

In medicinal products containing more than one manufactured item (e.g., contraceptive having different strengths and fixed dose combination as part of the same medicinal

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

Package Item (Container) Type : Vial (100000073563) Quantity Operator: equal to (100000000049) Package Item (Container) Quantity : 1 Material : Glass type I (200000003204)

If certification of devices under the MDR has not been finalised before expiry of the Directive’s certificate, and where the device does not present an unacceptable risk to health

In addition to the requirements set out in Chapter VII MDR, also other MDR requirements should apply to ‘legacy devices’, provided that those requirements

The notified body that issued the AIMDD or MDD certificate may confirm in writing (after having reviewed manufacturer’s description of the (proposed) change) that the