• No se han encontrado resultados

Calidad de servicio en redes MPLS con VPNs

N/A
N/A
Protected

Academic year: 2020

Share "Calidad de servicio en redes MPLS con VPNs"

Copied!
142
0
0

Texto completo

(1)CALIDAD DE SERVICIO EN REDES MPLS CON VPNs. MARIA ISABEL SERRANO GÓMEZ. Tesis de grado presentada como requisito para optar al título de Magíster en Ingeniería de Sistemas y Computación. Asesor: ING. HUGO SINN TRIANA Jurados: ING. BEATRIZ ACOSTA, ING. RAFAEL CAMERANO, ING. JUAN PABLO SEGURA. SANTAFÉ DE BOGOTÁ UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERÍA 2003.

(2) Tabla de Contenido 1.. INTRODUCCIÓN .................................................................................................................................. 4. 2.. METODOLOGÍA ................................................................................................................................... 6. 3.. USUARIOS DIRECTOS Y FORMAS DE UTILIZACIÓN DE LOS RESULTADOS. ESPERADOS .................................................................................................................................................... 7 4.. 5.. OBJETIVOS............................................................................................................................................ 8 4.1. OBJETIVO GENERAL ......................................................................................................................... 8. 4.2. OBJETIVOS ESPECÍFICOS .................................................................................................................. 8. MARCO TEÓRICO ............................................................................................................................... 9 5.1. CALIDAD DE SERVICIO ..................................................................................................................... 9. 5.1.1.. Modelos End to End de QoS ..................................................................................................... 12. 5.1.1.1.. Servicio del mejor esfuerzo.............................................................................................................13. 5.1.1.2.. Servicios Integrados........................................................................................................................13. 5.1.1.3.. Servicios Diferenciados ..................................................................................................................15. 5.1.2.. Mecanismos de QoS.................................................................................................................. 17. 5.1.2.1.. Control de Admisión.......................................................................................................................17. 5.1.2.2.. Clasificación y Marcación de Paquetes...........................................................................................18. 5.1.2.3.. Administración de Congestión ........................................................................................................21. 5.1.2.4.. Abolición de Congestión.................................................................................................................31. 5.1.2.5.. Mecanismos de Regulación de Tráfico ...........................................................................................35. 5.1.2.6.. Señalización ....................................................................................................................................43. 5.1.2.7.. Mecanismos de Eficiencia de Enlace ..............................................................................................44. 5.1.2.8.. Administración, Aprovisionamiento y Monitoreo...........................................................................45. 5.2. MPLS ............................................................................................................................................ 47. 5.2.1.. Qué es MPLS? .......................................................................................................................... 49. 5.2.2.. Bloques Constitutivos ............................................................................................................... 50. 5.2.3.. Modo de Funcionamiento ......................................................................................................... 52. 5.2.3.1.. Componentes de la Arquitectura MPLS..........................................................................................53. 5.2.3.2.. Operación Básica ............................................................................................................................54. 5.2.4.. 5.3. Características Adicionales...................................................................................................... 56. 5.2.4.1.. Ingeniería de Tráfico .......................................................................................................................56. 5.2.4.2.. Servicios de ancho de banda garantizados en MPLS ......................................................................58. 5.2.4.3.. Rápido Reenrutamiento (FRR)........................................................................................................58. 5.2.4.4.. Any Transport over MPLS (AToM) ...............................................................................................58. MPLS VPN.................................................................................................................................... 59. 2.

(3) 5.3.1.. Protocolos de VPN ................................................................................................................... 60. 5.3.2.. Clasificación de los servicios VPN ........................................................................................... 61. 5.4. CALIDAD DE SERVICIO EN REDES MPLS........................................................................................ 65. 5.5. SOPORTE DE CALIDAD DE SERVICIO EN REDES MPLS CON VPN................................................... 68. 5.6. IMPLEMENTACIÓN DE MPLS QOS ................................................................................................. 70. 6.. 5.6.1.. LSRs de Borde (Edge LSRs)...................................................................................................... 71. 5.6.2.. LSRs en el núcleo de la red MPLS (Core LSRs) ....................................................................... 72. JUSTIFICACIÓN Y PROYECCIONES ............................................................................................ 73 6.1. JUSTIFICACIÓN ............................................................................................................................... 73. 6.2. PROYECCIONES .............................................................................................................................. 74. 7.. DELIMITACIÓN DEL TRABAJO .................................................................................................... 75. 8.. DESCRIPCIÓN..................................................................................................................................... 78 8.1. ESTÁNDAR DE INTERNET ................................................................................................................ 78. 8.2. REQUISITOS PARA EL PROVEEDOR DEL SERVICIO ........................................................................... 80. 8.2.1.. Definición de un SLA ................................................................................................................ 81. 8.2.2.. Implementación de MPLS VPNs............................................................................................... 84. 8.2.3.. Técnicas de QoS ..................................................................................................................... 100. 8.2.3.1.. Clasificación y Marcación de Paquetes.........................................................................................102. 8.2.3.2.. Regulación de tráfico y Administración de Congestión ................................................................105. 8.3. REQUISITOS PARA EL USUARIO .................................................................................................... 109. 8.4. ASPECTOS ADICIONALES .............................................................................................................. 110. 8.4.1. 8.5. Implementación de Extranets y Acceso a Internet .................................................................. 110 QOS EN REDES MPLS CON VPNS ................................................................................................ 112. 9.. CONCLUSIONES............................................................................................................................... 126. 10.. ANEXO 1. PREGUNTAS FORMULADAS A CLIENTES Y EMPRESAS PROVEEDORAS. DE SERVICIOS DE COMUNICACIÓN ................................................................................................... 130 11.. ANEXO 2. GUÍA METODOLÓGICA......................................................................................... 131. 12.. ANEXO 3. OPCIONES DE IMPLEMENTACIÓN .................................................................... 133. 13.. ANEXO 4. TABLA COMPARATIVA ......................................................................................... 136. 14.. GLOSARIO DE ACRÓNIMOS.................................................................................................... 137. 15.. BIBLIOGRAFÍA Y FUENTES DE INFORMACIÓN ............................................................... 141. 3.

(4) 1. Introducción. La actual demanda de aplicaciones relacionadas con información multimedia, como son la video-conferencia, audio-conferencia y video bajo demanda (VoD) entre otros y su coexistencia con aplicaciones clásicas como bases de datos, transferencias de archivos y WWW, han obligado a las compañías proveedoras de servicios de comunicación a buscar e implementar tecnologías y estrategias que les permitan atacar agresivamente los nuevos mercados, ofreciendo servicios fácilmente escalables y administrables, con altos estándares de seguridad y diferentes niveles de calidad de servicio, que cumplan con los requerimientos del cliente para sus interconexiones privadas y públicas (Intranet, Extranet e Internet), de forma que obtengan la mejor relación costo-beneficio. Las redes de computadores actuales, basadas en enrutadores, adolecen de la capacidad para proporcionar implícitamente unos niveles de calidad de servicio necesarios para la transmisión del tráfico multimedia (ofrecen un servicio Best Effort o de mejor esfuerzo). Otras redes, como ATM (Asynchronous Transfer Mode), aunque si fueron diseñadas para proporcionar con distintos niveles de calidad de servicio, se enfrentan al problema de la dificultad para escalar la red a nuevas interconexiones, lo que las hace costosas de implementar. Es por esto que se han diseñado nuevos protocolos y políticas de gestión de los recursos de red, en un esfuerzo por obtener una calidad de servicio extremo a extremo y garantizar la compatibilidad de las distintas tecnologías a causa de la heterogeneidad de las redes. MPLS es una tecnología reciente, desarrollada para extender los servicios proporcionados por las redes IP, en ingeniería de tráfico, calidad de servicio (QoS) y redes privadas. 4.

(5) virtuales (VPNs: Virtual Private Networks). Es un estándar propuesto por la IETF (Internet Engineering Task Force)1, diseñado para incrementar la velocidad del flujo de tráfico en la red y mejorar la administración del mismo.. MPLS viene de Multiprotocol Label. Switching, donde Multiprotocol se refiere al hecho de poder ser aplicado a cualquier protocolo de red de capa 3, aunque su interés principal es el tráfico IP, como será el enfoque de ésta tesis. Con el desarrollo del presente trabajo de grado, se busca proporcionar a las empresas proveedoras de servicios de comunicación con las bases teóricas necesarias para entender el funcionamiento de las redes MPLS, sus características y ventajas, y la forma de implementar calidad de servicio sobre redes MPLS con VPNs, de modo que puedan entrar a competir con ventaja en el nuevo mercado.. 1. RFC 3031, “Multiprotocol Label Switching Architecture”, 2001. 5.

(6) 2. Metodología. Para el desarrollo de este trabajo de grado, se inició con una etapa de investigación y profundización en los mecanismos de calidad de servicio y su forma de implementación. Igualmente, se estudiaron algunos trabajos desarrollados respecto a la implementación de calidad de servicio en redes MPLS y calidad de servicio en VPNs. Con esta información, se desarrolló en forma teórica una guía metodológica que conlleva a implementar QoS en redes MPLS con VPNs de forma que, teniendo en cuenta los estándares de Internet, se especificaron los requerimientos de red, las ventajas y limitaciones de la aplicación para diferentes tipos de redes y clases de servicio, así como el tipo de acuerdos de servicios que se podrían llegar a establecer entre proveedores y clientes. El trabajo concluye con un documento guía metodológico que especifica los procesos del montaje de redes MPLS con VPNs, aprovisionados con los mecanismos de Calidad de Servicio. Para ello, se ha organizado el trabajo de la siguiente forma: en el capítulo 3 se indican los usuarios directos del trabajo y la forma como pueden implementar los resultados mostrados en el mismo. En los capítulos 4, 5 y 6 se describen los objetivos del trabajo, la justificación y proyecciones del mismo y el marco teórico necesario para la comprensión de los aspectos básicos de calidad de servicio y de la tecnología MPLS. Los capítulos 7 y 8 delimitan y describen la guía metodológica propuesta para la implementación de servicios con diferentes niveles de calidad sobre redes MPLS con VPNs. En el capítulo 9 se encuentran las conclusiones obtenidas con el desarrollo del proyecto. Por último, algunos anexos que complementan esta investigación se desarrollan en los capitulos 10 al 15. 6.

(7) 3. Usuarios Directos y Formas de Utilización de los Resultados Esperados. La guía metodológica desarrollada en este trabajo de grado sirve como base a empresas proveedoras de servicio en el proceso de implementación de QoS en redes MPLS con VPNs. En ella se incluye un análisis de las ventajas que ofrece dicha implementación, de los tipos de servicio que se podrían ofrecer a los clientes y de los requisitos necesarios en éstos últimos.. 7.

(8) 4. Objetivos. 4.1. Objetivo General. Realizar una guía metodológica donde se indiquen los pasos básicos necesarios para el montaje de Calidad de Servicio en redes MPLS con VPNs, indicando las ventajas, los requerimientos, la forma de implementación y los niveles de servicio que el proveedor puede ofrecer a sus clientes. Para ello, se realizó una investigación acerca de las características que se deben cumplir en calidad de servicio y su aplicación a las redes MPLS con VPN.. 4.2. Objetivos Específicos. 1. Estudiar a fondo los mecanismos de implementación de calidad de servicio, su definición, área de cubrimiento y modo de empleo. 2. Profundizar en el conocimiento de la aplicación de calidad de servicio para redes MPLS. 3. Investigar acerca de los estándares de la industria para calidad de servicio en redes MPLS. 4. Analizar los métodos de implementación de calidad de servicio en VPNs, sus características, ventajas y falencias. 5. Analizar los procesos de implementación de calidad de servicio en redes MPLS con VPN, tanto si son estándares de la industria, como si son ofrecidos por compañías particulares. 6. Proponer una guía metodológica para la implementación de servicios de calidad, según los requerimientos de los clientes. 8.

(9) 5. Marco Teórico. El desarrollo e implementación del presente trabajo exige tener conocimientos tanto de Calidad de Servicio, como de la tecnología MPLS y MPLS con VPNs. Es por esto que a continuación se resumen las bases teóricas necesarias para cubrir dichos campos. Es necesario aclarar que en la actualidad el tema de calidad de servicio esta siendo sujeto a una profunda investigación, y por ende, los planteamientos aquí realizados pueden cambiar rápidamente.. 5.1. Calidad de Servicio. La definición de calidad de servicio depende del ámbito en el cual se implemente. Para el caso de las telecomunicaciones, se puede definir calidad de servicio como “el efecto colectivo del rendimiento de un servicio que determina el grado de satisfacción del usuario de dicho servicio” [20]. En el ámbito de la telemática, QoS es la capacidad de un elemento de red – ya sea una aplicación, un servidor, un enrutador, o cualquier elemento que tome parte en la comunicación – de asegurar que su tráfico y los requisitos del servicio previamente establecidos puedan ser satisfechos; habilitarla requiere además la cooperación de todas las capas de la red, así como de cada elemento de la misma (arquitectura de sistema punto-a-punto). Desde este punto de vista, la QoS también suele ser definida como un conjunto de tecnologías y mecanismos que permiten a los administradores de red manejar los efectos de la congestión del tráfico y controlar la mezcla de ancho de banda, retardo, jitter y pérdida de paquetes en una red, usando óptimamente los diferentes recursos de la misma.. 9.

(10) QoS se refiere a la habilidad de una red de proporcionar servicio mejorado a un tráfico de red seleccionado sobre varias tecnologías soportadoras, incluyendo Frame Relay, ATM, redes Ethernet y 802.1, SONET, redes enrutadas IP, entre otras. Toda arquitectura de calidad de servicio en redes heterogéneas, debe implementar: -. QoS en cada elemento de red, incluyendo características de colas, programación (scheduling) y traffic shaping.. -. Técnicas de señalización de QoS para coordinar la QoS en la entrega end-to-end entre los elementos de red.. -. Funciones de administración y políticas de QoS para controlar y administrar el tráfico end-to-end a lo largo de la red.. La tarea de mantener un nivel de calidad de servicio adecuado a cada tipo de tráfico, es realizada en su mayoría por los nodos de red como Switches y Routers; en ellos, la implementación de las técnicas de calidad de servicio, depende de la función que cumplan dentro de la red, ya que no desempeñan las mismas operaciones. En general los routers de borde desempeñan las siguientes funciones de calidad de servicio: -. Clasificación de paquetes. -. Control de admisión. -. Administración de congestión. Mientras que las funciones de QoS para los enrutadores del núcleo, core o backbone incluyen: -. Administración de congestión. -. Abolición de congestión. Es necesario diferenciar el término calidad de servicio (QoS), de los términos Clase de Servicio (CoS) y Tipo de Servicio (ToS), puesto que éstos dos últimos se refieren a dos técnicas utilizadas para obtener QoS. Así, CoS implica la prioritización de los distintos 10.

(11) tipos de tráfico definidos a través de la red y la definición de las clases de servicio que se aplicarán a los tipos de tráfico diferenciados. CoS, a diferencia de QoS, no garantiza ancho de banda o latencia para tráfico específico, sino que permite a los administradores de red solicitar prioridad para el tráfico basándose en la importancia de éste. El tipo de servicio o ToS es una técnica que permite reservar el ancho de banda con antelación a la transmisión, de modo que el tráfico preferencial, como es el tráfico de voz o una CoS con prioridad, pueda utilizar el ancho de banda reservado. ToS no implica ningún tipo de garantías. El protocolo IP Versión 4 incluye un campo en el paquete IP para el tipo de servicio (IP TOS). En este campo se pueden especificar los atributos de confiabilidad, capacidad de procesamiento y retardos del servicio.. Precedencia. Ver. P. DA. IHL. SA. ToS. IP ToS. T/L. IP ToS. MRZ. Long… Datos. Datos. Paquete IP. CRC. Trama Ethernet. Figura 1. Campo ToS en IPv4. [20]. Como requisito adicional a la definición y diferenciación de calidad de servicio, es necesario realizar una clasificación de la misma según la sensibilidad del tráfico para el cual se aplicará la asignación de recursos de la red, tal y como se indica a continuación. Teniendo en cuenta la variedad de tráfico existente y los requerimientos de retardo, latencia y ancho de banda para cada tipo, se pueden definir cuatro niveles de calidad de servicio, que son los que se implementarán en esta guía: 1. QoS muy sensible al retardo para tráfico de tiempo real. En este nivel se incluye el tráfico de vídeo comprimido, que requiere altas garantías de disponibilidad del canal, gran cantidad de ancho de banda reservado y un valor de retardo mínimo que asegure la correcta transmisión del mismo. Para conseguirlo será 11.

(12) necesario utilizar mecanismos de prioridad, definidos posteriormente, así como encolar adecuadamente los flujos de datos. 2. QoS algo sensible al retardo para tráfico tipo Oro. Al igual que en el caso anterior, en este nivel se garantiza hasta una cierta cantidad de ancho de banda, aunque en menor valor. De la misma manera, será necesario asignar prioridades para la transmisión de los datos. 3. QoS muy sensible a pérdidas para tráfico tipo Plata. En este nivel se clasifica el tráfico tradicional, que requiere niveles muy bajos (cercanos a cero) de pérdidas de paquetes. Para ello se deben implementar buffers de almacenamiento de datos diseñados con la suficiente profundidad para que se minimice el descarte de paquetes y se evite el desbordamiento del mismo. 4. QoS nada sensible para tráfico tipo Bronce o de Mejor Esfuerzo. En este campo se clasifica por ejemplo el tráfico de servicios de noticias, que no requiere garantías de retardos o de pérdidas. Aquí se usa cualquier oportunidad de transmisión que se presente y se asume que la capacidad de los buffers es suficiente para llevarla a cabo. A este tipo de tráfico se le asigna la prioridad más baja. A continuación se describen algunos modelos de servicio definidos por la IETF para implementar QoS extremo-a-extremo en una red.2. 5.1.1.. Modelos End to End de QoS. Un modelo de servicio describe un conjunto de capacidades end-to-end que se requieren para implementar QoS entre dos extremos de una red; entre ellos se encuentran los modelos de mejor esfuerzo, servicios integrados y servicios diferenciados, que se diferencian en la forma en que habilitan a las aplicaciones para enviar datos y en el camino o la forma en la que la red intenta enviar los mismos.. 2. RFC 2475: “An Architecture for Differentiated Services” y RFC 1633: “Integrated Services in the Internet. Architecture: an Overview”.. 12.

(13) 5.1.1.1.. Servicio del mejor esfuerzo. En este modelo, una aplicación envía datos cada vez que lo requiera, y en cualquier cantidad, sin solicitar permiso ni informar inicialmente a la red. En este servicio, la red envía los datos si puede, sin asegurar nada respecto a la confiabilidad, rendimiento ni retardos. El principal problema de este modelo se presenta al tener una ráfaga de paquetes dentro de uno de los múltiples flujos de datos que se manejan, puesto que ésta afectará a todos los demás flujos retardando su transmisión. Es decir, que el tiempo de llegada de los paquetes de un flujo puede verse afectado por otros flujos.. 5.1.1.2.. Servicios Integrados. En el modelo de servicios Integrados, la aplicación solicita un tipo de servicio específico a la red, antes de enviar los datos. Para ello, la aplicación le informa a la red del perfil de su tráfico, solicitando un servicio que cumpla con sus requerimientos de ancho de banda y retardo. Se espera que el envío de datos inicie una vez se haya recibido confirmación por parte de la red. La red a su vez, realiza control de admisión basado en la información de la aplicación y en los recursos disponibles de red y se compromete a mantener la calidad de servicio, mientras que el perfil del tráfico permanezca dentro de los límites especificados. El Protocolo de Reserva de Recursos o RSVP (por sus siglas en ingles) [RFC2205, Versión 1 Functional Specification] es un componente clave de la arquitectura de los Servicios Integrados en Internet IETF (IntServ) en la que se define el funcionamiento y la forma de petición e intercambio de información entre y para cada elemento de la red, de forma que se realiza un control de la calidad de servicio. RSVP es un protocolo de señalización que proporciona un control para la reserva de recursos de red, orientado fundamentalmente a redes IP. [20] La reserva de recursos se realiza en todos los routers situados a lo largo del camino que seguirán los datos de la aplicación. La tarea del protocolo consiste en establecer y mantener las reservas de recursos a lo largo de dicho camino.. 13.

(14) El grupo de trabajo Integrated Services del IETF ha considerado la existencia de varias clases de QoS; si bien actualmente sólo dos de éstas han sido formalmente especificadas para ser utilizadas con RSVP: •. Servicios garantizados (Guaranteed Service) (RFC2211): Este servicio proporciona un nivel de ancho de banda y un límite en el retardo, garantizando la no existencia de pérdidas en colas. Está pensado para aplicaciones con requerimientos en tiempo real, tales como aplicaciones de audio y vídeo. Cada router caracteriza el servicio garantizado para un flujo específico, asignando un ancho de banda y un espacio en buffer.. •. Servicio de Carga Controlada (Controlled-Load Service) (RFC2212): A diferencia del anterior, este servicio no ofrece garantías en la entrega de los paquetes. Esta definido para aquellas aplicaciones que toleran una cierta cantidad de pérdidas y un retardo mantenidos en un nivel razonable. Los routers que implementen este servicio deben verificar que el tráfico recibido cumpla con ciertas especificaciones dadas, de forma que cualquier tráfico que no las cumpla será reenviado por la red como tráfico best-effort.. Existen dos tipos de mensajes fundamentales en RSVP: Resv y Path. Una aplicación solicita participar en una sesión RSVP como emisor, enviando un mensaje Path en el mismo sentido que el flujo de datos, por las rutas unicast o multicast proporcionadas por el protocolo de enrutamiento. Al recibir este mensaje, el receptor transmite un mensaje Resv dirigido hacia el emisor de los datos, siguiendo exactamente el camino inverso al de los mismos, en el cual se especifica el tipo de reserva a realizar en todo el camino. No se ha logrado implementar ampliamente el protocolo RSVP, a pesar de sus ventajas en cuanto a garantías de calidad de servicio, debido a tres problemas fundamentales que afectan al funcionamiento del mismo: la escalabilidad, el enrutamiento y la imposibilidad de lograr una interacción con redes que no pueden implementar RSVP.. 14.

(15) El problema de la escalabilidad existe, dada la necesidad de mantener en cada elemento de red a lo largo del camino de comunicación, la información de estado de cada reserva, lo que se dificulta o aumenta en exigencias de memoria, a medida que crece el número de flujos reservados a lo largo del núcleo de red. Adicionalmente, conforme la red vaya aumentando de tamaño, u ocurran cambios en la topología de red por caídas de nodos, se incrementa la cantidad de señalización que aparecerá en ésta, tanto en cuanto a rutas como en cuanto a usuarios, puesto que es necesario refrescar de manera periódica las reservas realizadas. En este último punto se corre el riesgo adicional de que los paquetes de refresco de rutas se pierdan en el camino y por tanto se pierda o liberen los recursos reservados para una comunicación, por parte de los dispositivos de red. El enrutamiento se convierte en un problema, dado que el proceso de encaminamiento se realiza en el instante de establecer la sesión y enviar el mensaje Path. En este punto, los algoritmos de encaminamiento utilizados no tienen en cuenta cuales van a ser las características de reserva solicitadas por el receptor, con lo cual puede que la decisión adoptada para establecer la ruta, no sea la más adecuada teniendo en cuenta sólo los parámetros de caracterización del tipo de QoS elegido. Finalmente, RSVP exige que todos los nodos intermedios en el camino de transmisión implementen el protocolo, de forma que se pueda efectuar de manera real la reserva de recursos. Cuando algún dispositivo intermedio no implementa el protocolo, no se podrá asegurar la disponibilidad de los recursos requeridos por el servicio, o posiblemente se realize la reserva sobre un ancho de banda mayor al ancho de banda efectivo del canal. Es por estas limitaciones que fue definido el modelo de servicios diferenciados, sobre el cual se enfoca el desarrollo del presente trabajo.. 5.1.1.3.. Servicios Diferenciados. Este modelo de QoS propuesto por la IETF3 se diferencia del modelo de servicios integrados en que las aplicaciones no informan explícitamente a la red antes de enviar los. 3. RFC 2474 y RFC 2475. 15.

(16) datos, sino que ésta trata de proveer un tipo particular de servicio basada en la QoS especificada para cada paquete. Dicha especificación puede realizarse por ejemplo al seleccionar los bits de precedencia IP, o con las direcciones fuente o destino, etc. La red utiliza la QoS especificada para clasificar, marcar, dar forma, aplicar políticas de tráfico y desarrollar colas inteligentes. Para proporcionar los diferentes niveles de servicio, utiliza el campo type of service (TOS) o differentiated services code point (DSCP)4 de la cabecera del estándar Ipv4 e Ipv6, para dividir el tráfico en un número pequeño de clases. Así, con el uso de los 6 bits DSCP, se obtiene un máximo de 64 clases de servicio a las cuales se asignan los recursos según su nivel de preferencia. Los elementos de red o hops a lo largo del camino, examinan el valor del campo DSCP y determinan la QoS requerida por el paquete (PHB o per-hop behavior). De esta forma se define el nivel de Expedited Forwarding (EF) PHB5 como el servicio de mínimo retardo y bajas pérdidas con la más alta prioridad y los niveles de Assured Forwarding (AF) PHB6 como clases de servicio asegurado con diferentes niveles de preferencia de descarte (cuatro clases diferentes de transmisión, cada una con tres niveles de posibilidad de descarte), a las cuales se les asigna los recursos basándose en el nivel de servicio acordado entre el proveedor y el usuario. El PHB por defecto, o servicio del mejor esfuerzo, corresponde a un DSCP = ‘000000’. El DSCP estándar para EF PHB es el 101110 (DSCP 46) y los niveles AF PHB, toman los valores que se muestran en la siguiente tabla.. Preferencia de descarte bajo Preferencia de descarte medio Preferencia de descarte alto. Clase 1 001010 (10D) 001100 (12D) 001110 (14D). Clase 2 010010 (18D) 010100 (20D) 010110 (22D). Clase 3 011010 (26D) 011100 (28D) 011110 (30D). Clase 4 100010 (34D) 100100 (36D) 100110 (38D). Tabla 1. DSCPs para las clases AF PHB. 4. RFC 2474, “Definition of the Differentiated Services Field (DS Field) in the IPv4 and IPv6 Headers”. 5. RFC 2598, “An Expedited Forwarding PHB”. 6. RFC 2597, “Assured Forwarding PHB Group”. 16.

(17) Diffserv es un protocolo simple, flexible y hasta el momento bastante aceptado por los usuarios, fabricantes y los proveedores de servicios, convirtiéndose en una de las mejores opciones para la obtención de QoS extremo a extremo. A continuación se definen algunos mecanismos que implementan calidad de servicio dentro de una red de comunicaciones.. 5.1.2.. Mecanismos de QoS. Algunos mecanismos y/o herramientas utilizadas en la obtención de calidad de servicio en los nodos de una red y algunas técnicas de coordinación de QoS extremo a extremo entre dichos nodos incluyen: control de admisión, clasificación de tráfico, administración de congestión, abolición de congestión, policing y shaping, señalización, mecanismos de eficiencia de enlace y administración, aprovisionamiento y monitoreo. A continuación se especificarán cada una de éstos en más detalle. [5], [20]. Se debe anotar que el funcionamiento básico de la mayoría de estos mecanismos se ve restringido en interfaces de túneles o sobre paquetes encriptados, puesto que fueron diseñados para aprovechar información de las cabeceras de los paquetes para realizar la clasificación de los mismos.. Es por ello que para su aplicación en redes MPLS el. reconocimiento del tráfico se debe basar, en primera instancia al ingreso de la red MPLS, en alternativas adicionales como por ejemplo la interfaz de entrada o la clasificación desarrollada por el usuario y almacenada en la cabecera del paquete encriptado (en cualquier caso, la clasificación del tráfico quedaría bajo la entera responsabilidad del cliente). Una vez dentro de la red MPLS, el funcionamiento de los mecanismos se fundamentaría en la clasificación almacenada dentro de la etiqueta MPLS asignada a cada paquete, como se explicará posteriormente.. 5.1.2.1.. Control de Admisión. El control de admisión determina si una petición de conexión puede ser llevada a cabo por la red. Las principales consideraciones tras esta decisión son la carga del tráfico actual, la calidad de servicio que se puede lograr, el perfil de tráfico pedido, la calidad de servicio solicitada, el precio, entre otras. Es por tanto una herramienta resultante de la aplicación de 17.

(18) las políticas de calidad de servicio definidas en la compañía proveedora de servicios de comunicación, y por tanto requiere de una correcta monitorización del sistema de forma que se pueda visualizar en cada momento el estado del mismo para poder aplicar la política de admisión definida.. 5.1.2.2.. Clasificación y Marcación de Paquetes. La clasificación de los paquetes es un paso muy importante en la implementación de esquemas de calidad de servicio, puesto que permite ofrecer un mejor servicio a los usuarios al asignar prioridades a los tráficos individuales, a la vez que se disminuye la intensidad de procesamiento requerido en el núcleo (donde la carga de tráfico es mayor comparada con los bordes de la red). Una vez clasificados y marcados los paquetes, es posible aplicar en el núcleo de la red técnicas como control de congestión o colas de prioridad, que refuercen los compromisos adquiridos en los acuerdos de nivel de servicio o SLA, para tráfico específico. La clasificación de los paquetes y el tratamiento adecuado de los mismos en el núcleo de la red, permite usar de forma eficiente los recursos y disminuir los retardos de transmisión. Es de interés del usuario mismo el realizar una adecuada clasificación de su tráfico con los niveles de prioridad pactados en el SLA, como se definirá en una sección posterior. Pero muchas veces los proveedores de servicios reclasifican los paquetes al ingreso de su red, de acuerdo con políticas especificadas para el servicio. Los equipos encargados de ésta tarea realizan la clasificación de acuerdo con diferentes características especificadas en las cabeceras de los protocolos7; por ejemplo, se pueden clasificar los paquetes por puerto físico, por aplicación, por dirección de red y/o dirección MAC fuente o destino, por el tipo de protocolo TCP/IP, en fin por cualquiera de las características que se encuentren en las cabeceras de los paquetes. Un ejemplo de clasificación y marcación de paquetes es el siguiente:. 7. Los dispositivos que no permitan el marcado de paquetes, pueden ser remplazados o se pueden implementar. técnicas de no-marcado como la Generic Traffic Shaping de Cisco.. 18.

(19) Con precedencia IP 0 y 2 (DSCP 0–7 y DSCP 16-32), se marca el tráfico normal o de mejor esfuerzo, que no es sensible a la latencia, pero puede ser un poco sensible a la pérdida de paquetes. La precedencia IP 3 y 4 (DSCP 24–31 y DSCP 32-39), tiene mayor prioridad que la anterior y puede ser usada para aplicaciones administrativas u otro tráfico de valor. La mayor prioridad se asigna a la Precedencia IP 5 (DSCP 40-47) reservada para aplicaciones de video y voz sobre IP, con la menor latencia y el más alto ancho de banda efectivo posible. La mayoría de los equipos identificadores de tráfico, pueden controlar el tráfico en las capas de red y transporte, de manera que pueden dar forma a dicho tráfico a nivel de red, cuando se especifican direcciones IP o subredes determinadas; y a nivel de transporte, para puertos conocidos como el puerto 80, 25, etc8. Pero si se desea identificar tráfico que no tiene asignado un puerto “bien conocido”, se debe analizar las cabeceras de las capas superiores al nivel de transporte. Las aplicaciones de Internet varían considerablemente en el método de comunicación entre hosts. La tabla 2 muestra como se clasifican algunos protocolos en el modelo de referencia OSI y en la arquitectura TCP/IP. Aunque muchos protocolos de nivel de aplicación realizan la comunicación sobre puertos bien conocidos, por ejemplo las comunicaciones http se llevan a cabo sobre el puerto 80, existen algunos protocolos que negocian de forma dinámica los puertos de comunicación, lo que hace difícil reconocerlos y prioritizarlos adecuadamente. La compañía Morenet, en su reporte investigativo “QoS Customers Edge Devices” de abril del 2001, realizó una comparación entre cuatro equipos respecto a sus capacidades para identificar tráfico por aplicación, limitar tráfico agregado, marcar paquetes y dar forma al tráfico de acuerdo con políticas preestablecidas. Es necesario resaltar que el rendimiento de la red es afectado por. 8. La lista completa de puertos se puede encontrar en: http://www.iana.org/assignments/port-numbers. 19.

(20) los procesos adicionales que estos productos realizan para el reconocimiento de aplicaciones.. Transporte. Inter-red. Red. Acceso a Red. Enlace de Datos. TCP. RTP, RTCP. TFTP. SNMP. DNS. Napster. H.323 Start. Sesión. SMTP. Proceso / Aplicación host a host FTP. Presentación. Telnet. Aplicación. UDP IP & ICMP. IEEE 802.2, Token Ring, FDDI Ethernet, Líneas Arrendadas, UTP. Físico. Tabla 2. Clasificación de Protocolos en el modelo de referencia OSI y en la arquitectura TCP/IP. Tomado de “QoS Customers Edge Devices – Research Report”, Morenet, abril del 2001.. Según el reporte, dos de los cuatro equipos evaluados son capaces de identificar y monitorear flujos de tráfico por sesión, de forma que pueden seguir una transmisión aún cuando se asignen los puertos de manera dinámica durante la conversación. Igualmente, son capaces de examinar la porción de datos de un paquete en busca de la “firma” que identifica ciertas aplicaciones como Napster, según lo especifican. Estos equipos son dimensionados tanto para uso de Proveedores de Servicio, como de usuarios finales y son capaces de realizar la marcación de los paquetes de acuerdo con el grupo en el que fueron clasificados, en la Precedencia IP o en los bits DSCP. El campo de la clasificación de paquetes esta siendo todavía ampliamente estudiado y diariamente nacen nuevos modelos y algoritmos de clasificación que buscan contribuir al reconocimiento de aplicaciones y por tanto al desempeño de la red, sin sacrificar lo anterior en tiempos de procesamiento. Una vez clasificados los paquetes, es necesario realizar la marcación de los mismos que puede hacerse a nivel de los tres bits de Precedencia IP o del byte de Servicios Diferenciados (DSCP) en la cabecera del paquete IP. El contexto del servicio DiffServ para cada clase, que incluye el PHBs a aplicar sobre cada clase, es almacenado en una base de 20.

(21) datos en cada nodo de red, conocida como la Forwarding Information Base. Dicha tabla es consultada en cada nodo tanto para aplicar el PHB adecuado a los datos del encapsulado del paquete entrante, como para marcar nuevamente el paquete saliente según el PHB que le pertenezca y transmitirlo al hop adecuado. Es necesario anotar que los mapeos entre la clasificación del paquete y el PHB adecuado a la misma, están sujetos a la configuración que cada administrador de red realice en sus equipos. La clasificación y marcación de los paquetes dentro de grupos de calidad de servicio se convierte en el primer paso para soportar calidad de servicio end to end en toda red de comunicaciones; pero a partir de éste punto es necesario llevar a cabo una serie de tareas tanto en el borde como en el núcleo de la red, que aseguren el cumplimiento bilateral del acuerdo de nivel de servicio.. 5.1.2.3.. Administración de Congestión. Las redes actuales transportan diferentes tipos de tráfico sobre un medio común, lo que genera la necesidad de prioritizar los paquetes con el fin de satisfacer a las aplicaciones sensibles a retardos, a la vez que se cubren las necesidades de aquellas que no tienen gran dependencia del tiempo, como las transferencias de archivos. La congestión de un sistema no se explica únicamente como el hecho de que las tasas de tráfico alcanzaron cierto nivel, permanecieron allí un tiempo y luego disminuyeron. Debido a que no es predecible el periodo de alto tráfico, es difícil especificar adecuadamente el tamaño de una red de forma que se reduzca la congestión; un incremento lineal del tamaño del buffer no necesariamente resulta en un decremento de la tasa de pérdida de paquetes, puesto que al poder incrementar el número de conexiones activas se puede incurrir en un aumento de la perdida de paquetes. Las técnicas de administración de congestión operan sobre el control de la congestión una vez ésta ocurra, asegurando equidad en el tratamiento de los distintos tipos de tráfico y permitiendo controlar la congestión al determinar el orden en el cual los paquetes son enviados fuera de la interfaz de salida, basados en las prioridades asignadas previamente a dichos paquetes. Este mecanismo se debe implementar tanto en el borde como en el núcleo de la red. 21.

(22) Una forma en que los elementos de red manejan el sobreflujo de tráfico es por medio del uso de un algoritmo de colas para ordenar el tráfico y luego determinar algún método de prioritizarlo en los enlaces de salida. Cada algoritmo de colas fue diseñado para resolver un problema específico de tráfico de red y tiene un efecto particular sobre el desempeño de la misma. Los esquemas de control de congestión se pueden clasificar según la capa en el modelo OSI en la cual el esquema opera. Existen esquemas de control que aplican en la capa de enlace, en la de red y en la de transporte; dependiendo de la severidad y la duración de la congestión, se aplica uno u otro esquema o una combinación de los mismos.. En la. siguiente figura se muestra como afecta la duración de la congestión a la escogencia del método de control. Duración de la Congestión Larga. Corta. Mecanismo de Control Planeamiento de capacidad y diseño de red Control de admisión a la conexión Enrutamiento Dinámico Compresión Dinámica End-to-end feedback Link-by-link feedback Almacenamiento. Figura 2. Técnicas de control de congestión según la duración de la misma. [14]. Así, para redes que permanecen casi constantemente congestionadas, la mejor opción es instalar enlaces de alta velocidad y rediseñar la topología, de forma que cubra el patrón de demanda. En las redes con congestión esporádica se puede enrutar de acuerdo con el nivel de carga de los enlaces y rechazar nuevas conexiones si el camino se encuentra altamente cargado; esto se denomina Control de Admisión de la conexión. Cuando la congestión dura poco tiempo, se utilizan algoritmos que dan forma al tráfico (traffic shaping) por ejemplo al iniciar una nueva conexión, o se informa dinámicamente a los nodos (nivel de enlace) o a los extremos del enlace (nivel de transporte) de forma que disminuyan su tasa de transmisión. 22.

(23) Para niveles bajos de carga en los enlaces, el mejor mecanismo implica tener buffers lo suficientemente profundos en los enrutadores. Cuando se trabaja sobre redes ATM, por ejemplo, se utiliza el bit CLP (cell loss priority) para marcar las celdas que fueron admitidas en la conexión pero que pueden ser descartadas en casos de congestión; adicionalmente, se pueden emplear los bits del campo Tipo de Carga para indicar a los nodos que existe congestión en el enlaces, de forma similar a la del bit FECN (Forward explicit congestion notification) para redes Frame Relay. En la implementación de servicios diferenciados sobre redes IP, los algoritmos de control de congestión o algoritmos de colas deben cumplir mínimo con cuatro requisitos: asignar equitativamente el ancho de banda entre las distintas clases de servicio, según su nivel de prioridad o su peso; brindar protección a las distintas clases de servicio, de forma que el tráfico en exceso de una clase no impacte el ancho de banda y el retardo asignado a las otras colas que se encuentran en el mismo puerto de salida. Igualmente deben permitir que se utilice el ancho de banda asignado a una clase por las demás, cuando el nivel de tráfico de ésta no es lo suficientemente alto para copar sus recursos. Y por último, el algoritmo debe poder implementarse en hardware, de forma que sea efectivo en las interfaces de enrutamiento de alta velocidad, ya que un algoritmo implementado en software no es lo suficientemente rápido para controlar el acceso en los enlaces de alta velocidad. Las disciplinas tradicionales de programación de colas para redes IP se describen a continuación. Se debe aclarar que los fabricantes de enrutadores implementan muchas veces combinaciones de estos métodos en sus equipos, de forma que se debe examinar cuidadosamente cada implementación para que se entienda claramente como opera y si cumple con las características necesarias para soportar los requerimientos de los usuarios. [15] Colas FIFO (First In – First Out): Es el método más básico en el que no existe prioridad para los paquetes, sino que todos ellos son tratados de igual manera y colocados en una única cola de salida de acuerdo con el orden de llegada. Su implementación agrega poca carga computacional al sistema y su comportamiento es bastante predecible, por lo que se. 23.

(24) puede calcular aproximadamente los tiempos de retardo para los paquetes. Es un método útil en sistemas poco congestionados.. Figura 3. Colas FIFO: First In – First Out [15]. Entre sus limitaciones se tiene el que no diferencia entre clases de tráfico sino que trata a todos los paquetes con la misma prioridad, lo que lo hace ineficiente para tráfico de tiempo real. Adicionalmente, cuando se presentan picos de tráfico, se puede llenar la longitud de la cola y se produce negación de servicio para el tráfico adicional que intente pasar por el canal. Este mecanismo generalmente se encuentra configurado por defecto en los enrutadores, algunas veces con la variación en el número de colas: por ejemplo se utiliza una segunda cola de alta prioridad para el tráfico de control. Colas de Prioridad o PQ: Método básico que soporta clases de servicio diferenciables, en el cual los paquetes clasificados son colocados en diferentes colas según su prioridad. Las colas de más alta prioridad son servidas primero que las de más baja prioridad, pero dentro de una misma cola, se tiene un comportamiento FIFO para los paquetes. Se puede prioritizar flexiblemente de acuerdo con el protocolo de red (IP, IPX o AppleTalk), la interfase de entrada, tamaño del paquete, direcciones fuente/destino, etc.. 24.

(25) Figura 4. Colas de Prioridad [15]. Aunque este método adiciona baja carga computacional a los sistemas de enrutamiento basados en software, tiene el problema de que si no se limita y politiza adecuadamente el tráfico de alta prioridad en los extremos de la red, el tráfico de baja prioridad experimentará retardos extensos puesto que no será servido sino hasta el momento que las colas con mayor prioridad se encuentren desocupadas, hasta el punto en que se puede llegar a negar el servicio al tráfico de baja prioridad porque se llena la cola. Adicionalmente y puesto que el flujo que comparte una misma cola es tratado en orden FIFO, se puede aumentar el retardo para cierto flujo de paquetes debido a que otra fuente se encuentra enviando alto flujo de tráfico marcado con nivel de prioridad alta. Típicamente la implementación de este mecanismo se basa en dos modelos. El primero ofrece colas de prioridad estricta que garantiza que los paquetes en la cola de alta prioridad sean siempre programados antes que los paquetes en las colas de baja prioridad.. El. segundo implementa colas de prioridad con tasa controlada, en el cual se limita la cantidad de paquetes de la cola de alta prioridad a un máximo configurado por el usuario, respecto al ancho de banda del puerto de salida. De esta forma, si la cantidad de tráfico del alta prioridad es superior a éste nivel, los paquetes en las otras colas pueden ser servidos antes que los de la cola de alta prioridad. El buen funcionamiento de este mecanismo depende en gran medida de las políticas que se implementen en los bordes de la red para la cantidad de tráfico de alta prioridad que es aceptado. El problema de esto radica en la dificultad de predecir la cantidad de tráfico que 25.

(26) se generará por ciertas aplicaciones, como video interactivo, y que dificulta un buen aprovisionamiento de los recursos de red. Fair Queuing (FQ): es una disciplina diseñada para asegurar que cada flujo tenga un acceso equitativo a los recursos de red y prevenir así que flujos pico consuman más del ancho de banda de puerto de salida de lo que realmente merecen. Aquí los paquetes se clasifican en colas según al flujo al que pertenecen y cada cola es servida en orden circular (round robin) de un paquete al tiempo.. Figura 5. Fair Queuing (FQ) [15]. Con este método se da acceso igualitario a todos los flujos que acceden a un mismo puerto de salida, sin verse afectado un flujo por los demás, sino únicamente por la cantidad de paquetes dentro de su misma cola. La clasificación por flujos de los paquetes, no es una tarea fácil de conseguir en redes IP. Los resultados varían de acuerdo con el esquema de clasificación que se utilice; por ejemplo, si se clasifica por dirección fuente, todo el tráfico generado por una misma estación de trabajo se le asignaría la misma cantidad de recursos de red. Si se buscara clasificar por conexión TCP, se requeriría leer dentro de la cabecera nivel 4 del paquete y afrontar los problemas que surgirían en caso de que exista fragmentación o encripción de tráfico. En general, sería necesario analizar el mejor esquema que se adapte a las necesidades de la red.. 26.

(27) Otras limitaciones que presenta, incluyen el hecho de que al asignar la misma cantidad de ancho de banda a todos los flujos, no soporta flujos con diferentes requerimientos de ancho de banda, excepto cuando el tamaño de los paquetes en un flujo es muy grande, es decir, asigna el ancho de banda por ancho de paquete. Adicionalmente, por la forma circular como sirve a las diferentes colas, si un paquete llega a una cola vacía que acaba de ser servida, tiene que esperar el tiempo necesario para que las demás colas sean servidas hasta recibir su turno de transporte. Es por esto que no es muy útil para servicios de tiempo real. Típicamente su implementación se basa en la clasificación de los paquetes en colas de 256, 512 o 1024 paquetes, en un esquema de clasificación que lee las direcciones pares fuente/destino, los números de puerto TCP/UDP fuente/destino y el byte ToS de la cabecera IP [15]. Cuando se utiliza FQ basado en clases, el puerto de salida es dividido en un número de diferentes clases de servicio, donde a cada clase se le asigna un porcentaje del ancho de banda de salida y los flujos pertenecientes a una misma clase son servidos en un esquema FQ sobre el ancho de banda asignado.. Figura 6. Class–Based Fair Queuing [15]. Weighted Fair Queuing (WFQ): Realiza mejoras a FQ al soportar flujos con diferentes requerimientos de ancho de banda y paquetes de longitudes variables. Para el primer aspecto proporciona a cada cola con un peso que implica una asignación diferente del ancho de banda de salida; para el segundo, se añade complejidad al algoritmo de. 27.

(28) programación de colas de forma que se asegure que el ancho de banda asignado a los flujos con paquetes largos, no sea mayor que el asignado a flujos con paquetes pequeños. [15] Adicionalmente entre sus beneficios se tiene el que da protección a cada clase de servicio al asegurar un nivel mínimo del ancho de banda de salida, independiente del comportamiento de las otras clases de servicio y que al combinarlo con un acondicionador de tráfico en el borde de la red, WFQ garantiza una asignación equitativa al peso del ancho de banda de salida para cada clase de servicio. Pero dada la complejidad del algoritmo, mayor al ser implementado en software, es difícil escalarlo para soportar varias clases de servicio en interfaces de alta velocidad, donde adicionalmente se introducen altos retardos que no justifican la implementación de éste esquema de administración de colas. Entre las mejoras realizadas a WFQ, se tiene el WFQ basado en clases (CBWFQ), que asigna los paquetes a las colas basado en criterios de clasificación de paquetes definidos por el usuario; por ejemplo, según los bits de precedencia IP. Una vez asignados a las colas, los paquetes reciben un servicio prioritizado según los pesos configurados por el usuario y asignados a las diferentes colas. Al implementar este algoritmo, se puede configurar de forma que clasifique los paquetes en diferentes colas según el par direcciones fuente/destino, los puertos UDP/TCP fuente/destino y el byte ToS o que utilice las clases de servicio y los porcentajes de ancho de banda asignados por el usuario en un esquema CBWFQ. Class-based Queuing (CBQ) o Weighted Round Robin (WRR): Protocolo dirigido a mejorar las limitaciones de los modelos FQ y PQ en cuanto a soportar flujos con requerimientos diferentes de ancho de banda y asegurar que no se niegue el acceso al canal a las colas de baja prioridad. Inicialmente los paquetes son clasificados en clases de servicios y asignados a la cola adecuada a la clasificación. Cada cola es servida en orden circular, como en PQ y FQ, con el aditamento que las colas que requieren mayor ancho de banda son visitadas más continuamente o atendidas en un mayor número de paquetes que las demás colas. 28.

(29) Figura 7. Colas WRR. [15]. WRR cuenta con parámetros de control que sintonizan el comportamiento de cada cola en cuanto al retardo y jitter experimentado por lo paquetes en la cola, y la cantidad de paquetes perdidos en las mismas. Adicionalmente, es un modelo que puede ser empleado en interfaces de alta velocidad, que soporta clases de servicio diferenciadas y que asegura un ancho de banda mínimo a todas las colas para que no se produzca negación de servicio a ningún flujo. El problema que enfrenta es que depende de la igualdad en el tamaño de los paquetes para proporcionar el porcentaje de ancho de banda adecuado a cada clase de servicio. Si no hay equidad o si no se conoce el tamaño medio de los paquetes por adelantado (una clase contiene paquetes con un mayor tamaño promedio que las otras clases), la clase de servicio con el mayor tamaño promedio de paquetes obtiene un mayor ancho de banda que el que le ha sido configurado. Deficit Weighted Round Robin (DWRR): Desarrolla mejoras a las limitaciones de WRR y WFQ en cuanto a soportar una asignación equitativa del ancho de banda, según la clase de servicio, para colas con paquetes de longitudes variables y definir una disciplina con menor complejidad, que puede ser implementada en hardware y que por tanto es efectiva en interfaces de alta velocidad. Adicionalmente asegura que todas las clases de servicio tengan acceso a por lo menos una mínima cantidad configurada del ancho de banda del canal. En este algoritmo, se configura para cada cola un peso que define el porcentaje del ancho de banda de salida al que tiene acceso la cola y un contador de deficiencia (Déficit Counter) que especifica el número total de bytes que puede transmitir la cola cada vez que es 29.

(30) visitada, de forma que soporte paquetes con diferentes tamaños sin asignar un mayor ancho de banda que el especificado. [15] Entre sus limitaciones se cuenta el hecho de que este algoritmo no proporciona garantías precisas de retardo end-to-end, como lo hacen otras disciplinas de programación de colas. Adicionalmente a los anteriores esquemas de colas, existen otros dedicados específicamente a tráfico sensible al tiempo y que se utilizan en conjunto con alguno de los algoritmos básicos de encolamiento: 1. Prioridad IP RTP (Real-time Transport Protocol): esquema de prioritización de colas que permite que datos sensibles a retardo, como el tráfico de voz, sea sacado de la cola y enviado antes que los paquetes de otras colas, hasta un máximo de ancho de banda. Esta característica puede ser usada en interfaces seriales y en los PVCs de Frame Relay, junto con WFQ o CBWFQ, sobre la misma interfase de salida. Se especifica según el intervalo de puertos UDP. 2. Colas de baja latencia (LLQ: Low Latency Queuing): proporcionan con colas de prioridad estrictas para ATM VCs e interfases seriales, permitiendo que datos sensibles a retardo sean decolados y enviados antes que los paquetes en las otras colas. Permite configurar el estatus de prioridad a clases dentro de CBWFQ y no esta limitado a números de puertos UDP, aunque tienen menor precedencia que el tráfico IP RTP. Algunos aspectos que se deben considerar al determinar cuando se debería establecer e implementar políticas de colas en una red, incluyen: •. Determinar si la WAN está congestionada, que ocurre cuando los usuarios de ciertas aplicaciones perciben una degradación en el desempeño de la red.. •. Determinar los objetivos y las metas, basadas en la mezcla de tráfico, que se desean administrar en la topología y el diseño de la red. Esto implica la determinación de lo que se desea lograr respecto a:. 30.

(31) o El establecimiento de una distribución equitativa del ancho de banda entre todos los tipos de tráfico identificados. o Garantizar prioridad estricta a cierto tipo de tráfico (como aplicaciones multimedia interactivas). posiblemente a expensas de un tráfico menos. estricto que también se transporte. o La repartición personalizada de los recursos compartidos de red entre las distintas aplicaciones, de forma que se cumplan con los requerimientos específicos de anchos de banda identificados. o La configuración efectiva de colas, dependiendo del análisis realizado sobre los diferentes tipos de tráfico. •. Configurar la interfaz para el tipo de estrategia de cola escogida según los criterios anteriores y observar los resultados.. 5.1.2.4.. Abolición de Congestión. El objetivo de las técnicas de abolición de congestión, consiste en predecir y evitar la congestión en zonas reconocidas como cuellos de botella dentro de una red, descartando paquetes de manera preventiva, de forma que se actúa antes de que la congestión se convierta en un problema. Estas técnicas son diseñadas para proporcionar tratamiento preferencial, bajo situaciones de congestión, al tráfico Premium o de prioridad, a la vez que maximizan el rendimiento y la capacidad de utilización de la red y minimizan la pérdida de paquetes y el retardo. La técnica de Tail Drop o descarte de cola, es el mecanismo por defecto en muchos enrutadores para el manejo de la profundidad de una cola, e implica una ausencia absoluta de administración sobre la memoria de la cola. Los mecanismos activos que administran la memoria de una cola, como RED (Random Early Detection), WRED (Weighted RED) y ECN (Explicit Congestion Notification), permiten a un router responder pro-activamente a la congestión, a medida que la longitud de su cola comienza a incrementarse.. A. continuación se detalla cada mecanismo. 31.

(32) 5.1.2.4.1.. Tail Drop. Cuando un paquete llega al final de una cola cuyos recursos están completamente agotados, el paquete es descartado junto con todos los paquetes siguientes que lleguen hasta que exista espacio en la cola.. Figura 8. Tail Drop [18]. Tail Drop es una metodología fácil de implementar, que puede reducir el número de paquetes descartados cuando se utiliza suficiente memoria para la cola; el problema de incrementar la memoria consiste en que también se aumenta el retardo experimentado por los flujos que atraviesan la red. Adicionalmente, este esquema realiza un manejo ineficiente de los recursos, puesto que solo hasta cuando la cola se encuentra completamente llena, comienza a descartar paquetes y por tanto no puede absorber ráfagas de tráfico posteriores sino hasta cuando haya desocupado suficiente espacio en la cola. Otra limitación del descarte de cola, con el tráfico basado en TCP, es que suele generar la sincronización global de TCP puesto que al descartar paquetes por orden de llegada, todas las sesiones TCP reducirán al mismo tiempo sus tasas de transmisión y las incrementarán de igual manera, ocasionando que existan oleadas de congestión y momentos de bajo tráfico, con alta pérdida de paquetes. Es por estas limitaciones, que se desarrollaron algoritmos para el manejo activo de colas, que buscan eliminar la sincronización global de TCP utilizando más eficientemente los recursos de red; poder absorber ráfagas de tráfico, evitando que los sistemas disminuyan sus tasas de transmisión; y disminuir los retardos en la cola de un enrutador, al controlar el tamaño de la misma.. 32.

(33) 5.1.2.4.2.. Random Early Detection (RED). Es una técnica basada en el hecho que un equipo generador de tráfico TCP, asume que existe congestión en la red cuando observa un paquete descartado de su flujo de datos, y como respuesta a esto, disminuye su velocidad de transmisión. De esta forma se evita que la memoria de cola en el enrutador se llene por completo y se previene la sincronización global al descartar selectivamente los paquetes. Para el proceso de descarte de paquetes de RED, se define un intervalo de probabilidades de descarte según el tamaño de ocupación de la cola. Así, si la cantidad de paquetes en la cola del enrutador permanece debajo de un umbral mínimo, no se realiza descarte de paquetes.. Para un tamaño de cola superior al umbral máximo definido, se utiliza el. esquema Tail Drop. Y para tamaños de cola entre estos dos umbrales, se descartan los paquetes de acuerdo con la probabilidad de descarte que tengan y que es definida por el usuario. Los umbrales mínimo y máximo dependen de parámetros configurados en el algoritmo, que buscan medir de la manera más eficiente posible, la ocupación de la cola según el nivel de congestión. 9 Con este mecanismo se logra prevenir posibles congestiones de red, disminuyendo la posibilidad de alcanzar un estado de negación de servicio, reduciendo los tiempos de retardo, además de poder aceptar ráfagas de tráfico al no mantener la cola en el enrutador completamente llena. Entre sus limitaciones se encuentra el que es complejo de configurar en cuanto a sus parámetros y que puede ocasionar comportamientos peores que con Tail Drop, si se realiza una mala configuración. Adicionalmente es un esquema diseñado para flujos basados en TCP, que respondan adecuadamente al descarte preventivo de paquetes. Con otro tipo de flujos, como el tráfico de VoIP basado en UDP, se recomienda no implementar éste. 9. Ver la referencia [19] para una descripción más detallada de los parámetros de funcionamiento de RED.. 33.

(34) mecanismo, sino utilizar el esquema de Tail Drop, con colas cortas para disminuir los retardos.. Figura 9. Probabilidad de descarte en RED [18]. 5.1.2.4.3.. Weighted Random Early Detection (WRED). Define mejoras al mecanismo RED, en cuanto a la posibilidad de asignar diferentes perfiles de descarte RED a diferentes tipos de tráfico, soportando en mejor medida las distintas clases de servicio. Por ejemplo, se marcan según las políticas los paquetes que están fuera de perfil con una probabilidad de descarte alta y los paquetes que permanecen conformes al nivel de servicio pactado con una probabilidad de descarte baja. De esta forma se aplica el perfil de descarte RED adecuado a la marca transportada por el paquete. Igualmente se pueden definir perfiles de descarte diferentes para cada cola en un mismo puerto de salida, como se muestra en la figura 10. De esta forma se soportan no solo las distintas clases de servicio, sino se refuerzan los SLA contratados. WRED puede ser configurado para usar los valores DSCP (IP Differentiated Services Code Point en el byte de ToS) cuando calcula la probabilidad de soltar un paquete, permitiéndole así ser compatible con los servicios diferenciados (DiffServ) de la IETF.. 34.

(35) Figura 10. Perfiles de descarte RED según el tipo de cola [18]. La característica de compatibilidad de WRED con DiffServ, permite a los usuarios implementar Assured Forwarding (AF) Per Hop Behavior (PHB), al definir distintas prioridades para los paquetes según los valores DSCP y luego asignar probabilidades preferenciales de descarte a dichos paquetes. Existe un tercer mecanismo para el manejo activo de colas, denominado Notificación explícita de congestión (Explicit Congestion Notification), que busca implementar a nivel de red el mecanismo de notificación de congestión que permiten tecnologías de nivel de enlace como Frame Relay (FECN y BECN10). Para ello se basa en el uso de dos bits del campo DS en la cabecera IP (bits 6 y 7), para especificar condiciones de congestión en la red, a sistemas que son capaces de manejar este tipo de indicadores ECN.. 5.1.2.5.. Mecanismos de Regulación de Tráfico. A medida que la demanda de los suscriptores por ancho de banda aumenta, se hace necesaria la determinación por parte de los proveedores de servicios, de la manera en la cual los recursos compartidos de red serán distribuidos entre los diferentes suscriptores, usuarios y aplicaciones; porque si el proveedor no tiene la capacidad de administrar el. 10. Forward/Backward explicit congestion notification. 35.

(36) volumen y la tasa a la cual el tráfico entra en el núcleo de su red, le será muy difícil administrar el nivel de servicio que entrega a cada suscriptor. Para ello las herramientas de limitación de tasa y de politización de tráfico le permiten determinar que tráfico entra en su red, el volumen y la tasa a la cual el tráfico es admitido en la red y el PHB que seguirán los enrutadores a medida que el nivel de congestión de red cambia con la carga de tráfico. Los requisitos generales para la administración de tráfico incluyen el desarrollo de la habilidad de identificar, prioritizar, limitar y restringir flujos de tráfico específicos. Cada día las compañías buscan poder aplicar políticas de negocios corporativas a sus redes, respecto a la administración del ancho de banda, de los muros cortafuegos (firewalls), del almacenamiento, enrutamiento y de equipos VPNs, de forma que cumplan con las decisiones de negocios tomadas, como: •. Seleccionar que usuarios tienen acceso a que recursos de red. •. Prioritizar que aplicaciones son críticas para la operación de la compañía. •. Proporcionar servicios diferenciables y ancho de banda adecuado a cada usuario de acuerdo con sus necesidades. •. Administrar las demandas de voz, datos y video en los enlaces LAN y WAN corporativos. •. Administrar la totalidad del flujo de tráfico que transita por las redes internas y externas de la compañía.. Existen dos métodos fundamentales para proteger los recursos compartidos en el núcleo de una red: Traffic Shaping y Traffic Policing. El primero busca reducir la posibilidad de una congestión en la red, al colocar paquetes dentro de una cola que cuenta con una herramienta que suaviza los flujos de paquetes y regula la tasa y el volumen de tráfico admitido en la red. Dos herramientas fundamentales se encargan de limitar la tasa de tráfico: una de ellas suaviza el tráfico, eliminando las ráfagas y presentando un flujo estable de tráfico a la red; es usualmente implementada con un algoritmo de cubeta de goteo. Y la otra herramienta, permite ciertos tamaños predeterminados de ráfagas y presenta un flujo regulado de ráfagas 36.

(37) de tráfico a la red (usualmente implementada con un algoritmo de cubeta de tokens), manteniendo una tasa de transmisión promedio a largo plazo.. Figura 11. Suavización de tráfico usando un algoritmo de cubeta de goteo [16]. Figura 12. Delimitación de ráfagas usando un algoritmo de cubeta de tokens. [16]. Las herramientas de Traffic Policing permiten examinar el flujo de tráfico del suscriptor y descartar o marcar los paquetes que exceden el SLA. Son usualmente implementadas con un algoritmo de cubeta de Tokens, en el cual en vez de encolar el tráfico para transmitirlo, se implementa la función de marcación o descarte de paquetes. El marcar un paquete como fuera de perfil implica que tiene la posibilidad de ser transportado por la red, pero que una vez se presenten situaciones de congestión, o que la red lo considere necesario con las herramientas de abolición de congestión, dicho paquete tendrá una mayor preferencia de descarte que los que permanecen dentro del perfil señalado en el SLA. De esta forma se permite al tráfico adaptarse a las condiciones cambiantes de la red, protegiendo los recursos de la misma.. 37.

(38) 5.1.2.5.1.. Traffic Policing. Antes de comenzar a detallar el funcionamiento de esta herramienta, es necesario definir lo que significa una política. Las políticas denotan la regulación unificada del acceso a los recursos de red y a los servicios, basados en criterios administrativos. Consisten de dos componentes: un conjunto de condiciones bajo las cuales las políticas se aplican y que incluyen parámetros como el nombre de usuario, direcciones, protocolos y tipos de aplicaciones y un conjunto de acciones que se aplican como consecuencia de satisfacer o no las condiciones, incluidas garantías de ancho de banda, control de acceso, balanceo de carga, redireccionamiento de caché y enrutamiento inteligente. Estas condiciones y acciones trabajan sobre componentes administradores de las políticas y equipos encargados de hacerlas cumplir a través de toda la red, como un enrutador. Específicamente el enrutador se encargará de hacer la conversión entre la información transportada en la etiqueta del paquete (su clasificación) y la política adecuada a la misma. Por ejemplo, una política puede decir que “cualquier cosa que provenga de un usuario específico con prioridad 3, tendrá garantizado un ancho de banda mínimo de 100k”. Una infraestructura de policing corresponde a un conjunto de protocolos, modelos de información y servicios que permiten trasladar las intenciones administrativas en tratamientos diferenciales para paquetes en los flujos de tráfico en las redes. Una política puede ser vista desde diferentes niveles: a nivel de la red, se encarga de regular los objetivos de la política y los requerimientos en los distintos nodos de red. Esto a su vez está compuesto por las reglas de la política a través de las cuales se controlan los distintos nodos de red, de forma que cumplan con los objetivos de calidad de servicio. Por último, cada nodo de red cuenta con mecanismos de distribución de recursos específicos al fabricante, de forma que se debe trasladar las decisiones tomadas en los dos niveles anteriores a instrucciones específicas al dispositivo.. 38.

Referencias

Documento similar

Proporcione esta nota de seguridad y las copias de la versión para pacientes junto con el documento Preguntas frecuentes sobre contraindicaciones y

La campaña ha consistido en la revisión del etiquetado e instrucciones de uso de todos los ter- mómetros digitales comunicados, así como de la documentación técnica adicional de

La siguiente y última ampliación en la Sala de Millones fue a finales de los años sesenta cuando Carlos III habilitó la sexta plaza para las ciudades con voto en Cortes de

El fenómeno del cuidado, emerge como necesidad la simbiosis entre el proceso de enfermería y su transcendencia en la investigación científica a través de la enfermería basada

por unidad de tiempo (throughput) en estado estacionario de las transiciones.. de una red de Petri

Por lo tanto, en base a su perfil de eficacia y seguridad, ofatumumab debe considerarse una alternativa de tratamiento para pacientes con EMRR o EMSP con enfermedad activa

The part I assessment is coordinated involving all MSCs and led by the RMS who prepares a draft assessment report, sends the request for information (RFI) with considerations,

o Si dispone en su establecimiento de alguna silla de ruedas Jazz S50 o 708D cuyo nº de serie figura en el anexo 1 de esta nota informativa, consulte la nota de aviso de la