Logo Studenta

ANAüLISIS-DE-ENRUTAMIENTO-EN-LA-ARQUITECTURA-MPLS

¡Este material tiene más páginas!

Vista previa del material en texto

INSTITUTO POLITÉCNICO NACIONAL 
ESCUELA SUPERIOR DE INGENIERÍA 
MECÁNICA Y ELÉCTRICA 
ANÁLISIS DE ENRUTAMIENTO EN LA ARQUITECTURA MPLS 
 
TESIS 
QUE PARA OBTENER EL TÍTULO DE INGENIERO 
EN COMUNICACIONES Y ELECTRÓNICA 
PRESENTAN 
JULIO CÉSAR GONZÁLEZ ORTÍZ 
MARCO ALONSO JIMÉNEZ JIMÉNEZ 
KAREN ROMERO CRUZ 
 
ASESORES TÉCNICOS: 
PEDRO GUSTAVO MAGAÑA DEL RÍO 
CÍRILO GABINO LEÓN VEGA 
 
ASESOR METODOLÓGICO: 
PEDRO MARTÍN MORALES BECERRA 
 
MÉXICO, D.F FEBRERO DE 2016 
2 
 
ÍNDICE DE CONTENIDO. 
_______________________________________________________________ 
 
Objetivo…………………………………………………………………………......................4 
Introducción………………………………………………………………………………….... 6 
Capítulo 1: Capa de Red y Protocolos de enrutamiento………………………………….8 
1.1 Algoritmos de enrutamiento………………………………………………………...12 
 
 1.1.1 Algoritmo de camino más corto……………………………………………...13 
 1.1.2 Inundación de red. ……………………………………………………………13 
 1.1.3 Enrutamiento de vector de distancia………………………………………..13 
 1.1.4 Enrutamiento de estado de enlace………………………………………….14 
 1.2 Protocolos de enrutamiento………………………………………………………...14 
 1.3 Protocolos de pasarela interior……………………………………………………..15 
 1.3.1 Protocolo de información de enrutamiento…………………………………15 
 1.3.2 Protocolo de enrutamiento de pasarela de internet……………………….15 
 1.3.3 Protocolo primero el camino abierto más corto……………………………16 
 1.3.4 Protocolo mejorado de enrutamiento de pasarela de internet…………...19 
 1.3.5 Protocolo de sistemas intermedios………………………………………….19 
 1.4 Protocolos de pasarela exterior…………………………………………………….21 
 1.4.1 Protocolo de pasarela exterior……………………………………………….21 
 1.4.2 Protocolo de pasarela de frontera…………………………………………..21 
Capítulo 2: Antecedentes de MPLS………………………………………………………...24 
 2.1 Definición de MPLS………………………………………………………………….25 
 2.2 Uso de una infraestructura de red unificada……………………………………...26 
 2.3 Mejor integración IP en ATM……………………………………………………….26 
 2.4 ATM……………………………………………………………………………………27 
 2.5 Formato de datos de las celdas ATM……………………………………………..28 
 2.6 Clasificación de servicios…………………………………………………………...30 
3 
 
 2.7 Señalización ATM……………………………………………………………………33 
Capítulo 3: Arquitectura de la Conmutación de Etiquetas Multiprotocolo.……………..34 
 3.1 Etiquetas MPLS……………………………………………………………………...35 
 3.2 Apilado de etiquetas…………………………………………………………………36 
 3.3 Codificación de MPLS…………………………………………………………….…36 
 3.4 Enrutador conmutador de etiquetas……………………………………………….37 
 3.5 Camino conmutado de etiquetas…………………………………………………..38 
 3.6 Clases de equivalencia de reenvío (FECs)……………………………………….39 
 3.7 Distribución de etiquetas……………………………………………………………40 
 3.8 IP sobre ATM…………………………………………………………………………42 
 3.9 Conmutación de paquetes………………………………………………………….43 
Capítulo 4: Descripción funcional de MPLS…………….……………………………...….46 
 4.1 Paquetes etiquetados reenviados………………………………………………….47 
 4.1.1 Reenvío de paquetes etiquetados……………………………………………….47 
 4.1.1.1 Operación de etiquetas…………………………………………………………47 
 4.1.1.2 Etiquetas desconocidas………………………………………………………...48 
 4.2 Protocolo de distribución de etiquetas…………………………………………….48 
 4.3 Control de la información en MPLS………………………………………………..49 
 4.4 Funcionamiento global MPLS……………………………………………………...50 
Capítulo 5: Aplicaciones de MPLS………………………………………………………….53 
 5.1 Red Privada Virtual MPLS………………………………………………………….54 
 5.2 Clase de Servicio…………………………………………………………………….58 
 5.3 Ingeniería de tráfico………………………………………………………………….59 
 5.3.1 Ingeniería de tráfico con MPLS…………………………………………………...60 
Conclusiones………………………………………………………………………………….63 
Anexos…………………………………………………………………………………………65 
Acrónimos……………………………………………………………………………………..71 
Bibliografía - Referencias……………………………………………………………………77 
4 
 
 
 
 
 
 
 
 
OBJETIVO 
 
 
 
 
 
 
5 
 
 
 
OBJETIVO. 
_______________________________________________________________ 
 
Analizar las características de la arquitectura MPLS que se involucran en el 
enrutamiento de redes de alta velocidad. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6 
 
 
 
 
 
 
 
 
 
INTRODUCCIÓN 
 
 
 
 
 
7 
 
 
INTRODUCCIÓN. 
_______________________________________________________________ 
 
En las comunicaciones y tecnologías de la información se brindan soluciones para la 
demanda de servicio de Internet. Algunas de ellas se centran en el desarrollo de 
dispositivos electrónicos, así como software e interfaces que mejoren el rendimiento 
de las redes informáticas. 
Una red está compuesta por “routers” o “enrutadores”, que son los encargados de 
desplazar paquetes de información de una fuente a un destino. Estos paquetes deben 
realizar una serie de saltos a través de varios enrutadores que pueden pertenecer a 
una misma red o una red diferente. 
En la primera década del funcionamiento de la Internet y debido al uso puramente de 
paquetes, a las redes que componen la Internet se les denominó “redes de paquetes o 
datagramas”. Más adelante, se fue agregando tráfico de voz y video. Para cubrir está 
necesidad se requirió la implementación de una “red de circuitos”. Concepto que se 
basa en las redes conmutadas empleadas en la telefonía. 
El uso de una red de circuitos permitió fijar una ruta por la cual se desplazan los 
paquetes para tener un mayor control de estos, además de brindar servicios para la 
corrección de errores. 
En la actualidad existe un cambio constante de tecnologías para el intercambio de 
información, así como distintos operadores y administradores de éstas. Lo que produjo 
el desarrollo de protocolos de pasarela exterior para el manejo de interoperabilidad de 
redes. Para poder abastecer el tráfico de redes de alta velocidad no es suficiente con 
el manejo adecuado de los recursos a través del enrutamiento. También es necesario 
un buen manejo de interoperabilidad. Para ello es necesario que las redes puedan 
establecer una buena comunicación sin importar el tipo de tecnología o administración 
de red. Esto debe trabajar en conjunto con un enrutamiento dinámico. El conjunto de 
protocolos que hace posible este manejo se conoce como Conmutación de Etiquetas 
Multiprotocolo (MPLS - Multiprotocol Label Switching). MPLS se caracteriza por el 
manejo eficiente de los paquetes de información y en conjunto con los enrutadores 
permite el intercambio de grandes cantidades de tráfico de datos, voz y video. 
 
 
 
 
8 
 
 
 
 
 
 
CAPÍTULO 1: CAPA 
DE RED Y 
PROTOCOLOS DE 
ENRUTAMIENTO 
 
 
 
 
 
 
9 
 
CAPÍTULO 1: CAPA DE RED Y PROTOCOLOS DE ENRUTAMIENTO. 
_______________________________________________________________ 
 
La mayor parte de las redes se organizan como una pila de capas o niveles. Estas 
capas se comunican entre sí utilizando protocolos de red. El número de capas o 
niveles puede variar dependiendo de cada red. El conjunto de capas y protocolos se 
conoce como arquitectura de red. 
En una red existen dos capas fundamentales en intercambio de información: una es la 
capa de enlace y la otra es la capa de red. En la primera capa existe una 
diferenciación en el flujo de bits que se le denomina tramas. En la capa de red se 
mueven mensajes de una fuente a un destino. Estos mensajes reciben el nombre de 
paquetes. 
Para que los paquetes lleguen al destino, antes tienen que realizar una serie de saltos 
a través de dispositivos que reciben el nombre de “routers” o “enrutadores”. Al 
encaminar paquetes se producen problemas como sobrecarga en algunas líneas de 
comunicación, así como la inactividad de enrutadores. Para resolver esta situación, en 
la capa de red se deben contar con características funcionales que mejoren el 
encaminamiento de paquetes.Debido a que la capa de red es considerada como una capa superior y la capa de 
enlace es considerada inferior. En el proceso de comunicación, la capa de enlace 
debe de brindar servicios a la capa de red. Estos servicios se ven reflejados en un 
encabezado (o header) que es colocado junto a un paquete. Este proceso es conocido 
como encapsulamiento. 
“Enrutamiento” es el proceso de mover uno o más paquetes desde una fuente a un 
destino de red. El enrutamiento es fundamental dentro de de las redes de la Internet, 
debido a que se realiza en varias ocasiones de una máquina o varias máquinas a uno 
o varios puntos destino dentro de una red de datos. En este proceso existen dos tipos: 
Enrutamiento estático. Utiliza registros fijos que son definidos por el administrador de 
la red. Cuando la red es de gran tamaño, es difícil escalar y mantener los registros de 
enrutamiento. 
Enrutamiento dinámico. Es establecido por los diferentes protocolos de enrutamiento 
de datos. Es muy común y el más usado. 
El elemento fundamental que une todas las partes de la Internet es el protocolo de 
Internet (IP - Internet Protocol), que es el elemento donde se encuentra definido el 
formato de los paquetes o datagramas y el esquema de direccionamiento utilizado. 
Actualmente, se utilizan dos versiones de IP y son: IP versión 4 (IPv4) e IP versión 6 
(IPv6). Ambos consisten de un formato de 32 bits. 
10 
 
Un host de red es un dispositivo conectado a una red, el cuál proporciona información, 
de fuentes, servicios y aplicaciones. Un host es un nodo que se le es asignado un 
número de identificación. Éste número de identificación es una porción de una 
dirección IP. 
Una característica de IPv4 son sus direcciones de 32 bits. Cada host y enrutador en la 
Internet tiene una dirección IP que puede ser usada en los campos de dirección de los 
paquetes IP de la fuente y destino. 
Cuando un paquete se envía de un host para transmitirse al enrutador más cercano, 
sea a través de una Red de Área Local o un enlace punto a punto a un Proveedor de 
servicio de Internet (ISP - Internet Service Provider). El paquete es almacenado en 
dicho enrutador hasta que el proceso de transmisión esté completo y el enlace haya 
finalizado un proceso de verificación. Después es enviado al siguiente enrutador hasta 
alcanzar el host destino. Este mecanismo se conoce como conmutación de paquetes y 
reenvío. (Ver Figura 1.1). 
 
 
 
Figura 1.1 Proceso de conmutación de paquetes y reenvío: el host 1 envía un paquete 
al enrutador más cercano y posteriormente a otro enrutador, así sucesivamente hasta 
llegar al destino (host 2). 
 
 
En una red se envían varios paquetes, por lo cual, en la conmutación y reenvío de 
paquetes se debe tener un control y orden sobre los paquetes. Para ello, existen 
11 
 
arreglos encargados de listar las rutas para destinos de red particulares. Estos 
arreglos se conocen como tablas de enrutamiento. 
Las redes pueden proveer dos tipos de servicio: orientado a la conexión, como es el 
caso de las redes de circuitos y no orientado a la conexión, como en las redes de 
paquetes. El tipo de servicio empleado depende del tipo de información. En el envío 
de datos no es indispensable la calidad de servicio, por lo tanto, la mejor opción es el 
uso de servicio no orientado a la conexión. En el caso de voz y video, la calidad de 
servicio es fundamental, por ello, la opción más recomendable es el servicio orientado 
a la conexión. 
Para el servicio orientado a la conexión, es necesario establecer una ruta del host 
fuente al host destino. Así, los paquetes tendrán que seguir un mismo camino. Caso 
contrario al servicio no orientado a la conexión, donde cada paquete elige la ruta más 
conveniente. 
La Internet es un conjunto de redes o subredes, dónde dependiendo el tamaño de la 
red o el tipo de operación, requiere manejar sus propias políticas de enrutamiento. Sin 
embargo para que pueda existir un intercambio de tráfico, es importante el manejo de 
determinados protocolos para el manejo de las políticas entre redes. 
Un concepto importante es el Sistema Autónomo (AS - Autonomous System) que es 
una porción lógica de una gran red y comprende una construcción de líneas de amplio 
ancho de banda y un conjunto de enrutadores de alta velocidad con una política de 
enrutamiento, que están bajo una administración técnica. La red de internet está 
compuesta de subredes o Sistemas Autónomos. No es una estructura real como tal, 
debido a que existen redes troncales a través de las cuales se interconectan estos 
sistemas. Los Sistemas Autónomos son identificados por los Números de Sistema 
Autónomo (ASN - Autonomous System Numbers), que es un número único de 16 o 32 
bits asignado por el Registro Norteamericano para Números de Internet (ARIN - 
American Registry for Internet Numbers). Conectados a las redes troncales se 
encuentran ISPs que se encargan de proveer acceso a Internet, a casas, negocios, 
centros de datos y facilidades de colocación llenas de servidores, así como redes 
regionales de nivel medio. A estas redes regionales, se encuentran conectados más 
ISPs, redes de área local en distintas universidades, compañías y otras redes 
privadas. A continuación un breve bosquejo de esta organización (Ver figura 1.2). 
12 
 
 
Figura 1.2 La internet está compuesta de distintas redes. 
 
1.1. ALGORITMOS DE ENRUTAMIENTO. 
Los algoritmos de enrutamiento forman parte del software de la capa de red. Tienen la 
responsabilidad de decidir sobre cual línea de salida, los paquetes entrantes deben 
ser transmitidos. Si la red usa datagramas internamente, la decisión debe hacerse 
nuevamente para cada paquete de datos entrante. La ruta más adecuada puede 
cambiar desde la última vez, por esto se requieren nuevas decisiones. Por otro lado, si 
la red utiliza circuitos virtuales internamente, las decisiones de enrutamiento deben 
hacerse cada vez que un nuevo circuito virtual sea establecido. 
Dentro de los enrutadores se realizan dos procesos: el primero es el reenvío de 
paquetes, que es la acción de manejar cada uno de los paquetes conforme van 
llegando y busca la línea de salida disponible para ser usada de las tablas de 
enrutamiento y el segundo es responsable de llenar y actualizar las tablas de 
enrutamiento. De este último proceso, se encargan los algoritmos de enrutamiento. 
 
13 
 
1.1.1 ALGORITMO DE CAMINO MÁS CORTO. 
El algoritmo de camino más corto es una técnica para calcular los caminos más 
óptimos en una red o conjunto de redes. Para ello proporcionan una representación de 
la red o conjunto de redes. 
El propósito de obtener una representación de red o conjunto de redes es para elegir 
una ruta entre un par de enrutadores determinados. La ruta debe ser la más corta 
entre un conjunto de rutas analizadas. Para hacer esto posible se requiere una 
representación de red con cada nodo representando a un enrutador y cada límite de 
dicha representación, simbolizando una línea o enlace. 
 
1.1.2 INUNDACIÓN DE RED. 
Después de la implementación de un algoritmo, cada enrutador debe tomar decisiones 
respecto al conocimiento local, no necesariamente sobre la representación completa 
de la red. Para ello, se requiere una técnica local denominada Inundación de red. Esta 
técnica consiste en que cada paquete entrante es enviado en cada línea de salida 
excepto el paquete recién llegado. 
La inundación de red genera un vasto número de paquetes duplicados. Incluso, se 
podría generar un número infinito de paquetes duplicados, a no ser que se tomen 
medidas para abortar el proceso, si es el caso. Una medida es tener un contador de 
saltos. Este contador tendría que estar contenido en el encabezado de cada paquete, 
por lo tanto, tendría que ir disminuyendo en cada salto hasta que el paquete sea 
descartado cuando el contador llegue a cero. 
Una técnica más óptima para evitar el duplicadode paquetes. Es tener un conjunto de 
enrutadores que mantengan registro de los paquetes que han sido inundados, para 
evitar que sean enviados por segunda vez. 
 
1.1.3 ENRUTAMIENTO DE VECTOR DE DISTANCIA. 
Usualmente las redes utilizan algoritmos de enrutamiento dinámicos que son más 
complejos que el algoritmo de inundación de red. Estos algoritmos son más eficientes 
debido a que localizan el camino más corto en la topología en que son implementados. 
El algoritmo de vector de distancia de enrutamiento opera haciendo que cada 
enrutador mantenga una tabla que proporcione la mejor distancia conocida para cada 
destino, que el enlace va a usar para llegar ahí. Las tablas son actualizadas debido al 
intercambio de información entre enrutadores vecinos. Eventualmente, cada enrutador 
conocerá el enlace más óptimo para alcanzar el destino. 
En el enrutamiento de vector de distancia, cada tabla de enrutamiento que es 
mantenida es ordenada y debe contener espacio disponible de entrada para cada 
14 
 
enrutador de la red. Esta entrada está compuesta de dos partes: la línea de salida 
preferida para ser usada para cada llegar al destino que se desea y un estimado de la 
distancia para llegar a tal destino. La distancia puede ser medida como un número de 
saltos o utilizar una métrica similar al algoritmo de camino más corto. 
Se asume que los enrutadores conocen la distancia de cada enrutador vecino. Si se 
determina que la métrica son saltos, la distancia es un solo salto. Si se decide que la 
métrica es la propagación de retraso, el enrutador debe medir la distancia 
directamente con paquetes especiales que el receptor detenga momentáneamente y 
que posteriormente reenvíe lo más pronto posible. 
 
1.1.4 ENRUTAMIENTO DE ESTADO DE ENLACE. 
El enrutamiento de vector de distancia solía ser muy utilizado, posteriormente fue 
remplazado por el enrutamiento de estado de enlace. El principal problema del 
enrutamiento utilizando los algoritmos de vector de distancia, fue el largo tiempo para 
converger después que la topología cambiara. 
El concepto del enrutamiento de estado de enlace está divido en cinco partes: 
1 El descubrimiento de cada vecino y el conocimiento de sus respectivas 
direcciones. 
2 El establecimiento de la métrica de distancia o costo de cada uno de sus 
enrutadores vecinos. 
3 La construcción de un paquete con información sobre las direcciones y la métrica. 
4 El envío del paquete construido y la recepción de paquetes de información de 
otros enrutadores. 
5 El registro del camino más corto para cada enrutador. 
 
1.2. PROTOCOLOS DE ENRUTAMIENTO. 
Los protocolos de enrutamiento se encargan de mantener las tablas de enrutamiento 
de manera exacta a pesar de que la red sobre la cual estén operando cambie 
constantemente debido a equipo o fallas al agregar nuevos segmentos de red. 
La operación de un protocolo de enrutamiento tiene dos partes: la primera parte se 
encarga de enviar avisos o actualizaciones de enrutamiento desde un enrutador con 
respecto a números de red conocidos; la segunda parte recibe y procesa estas 
actualizaciones o avisos de manera que las tablas de enrutamiento mantengan un 
tráfico eficiente. 
Existen dos tipos de protocolos de enrutamiento: el protocolo de enrutamiento de 
pasarela interior y el protocolo de enrutamiento de pasarela exterior. 
 
15 
 
1.3. PROTOCOLOS DE PASARELA INTERIOR. 
La Internet está compuesta por un largo número de redes independientes o Sistemas 
Autónomos que son operadas por distintas organizaciones, puede ser una compañía, 
una escuela o un proveedor de servicio de internet. Una organización puede utilizar 
su propio algoritmo de enrutamiento para el enrutamiento interno de su propia red. No 
obstante, existen protocolos estándar para realizar esa tarea. 
 
1.3.1 PROTOCOLO DE INFORMACIÓN DE ENRUTAMIENTO (RIP). 
El primer Protocolo de Pasarela Interior fue el Protocolo de Información de 
Enrutamiento (RIP - Routing Information Protocol). Este protocolo fue diseñado para 
un ambiente compuesto de sólo unos cuantos aparatos que están conectados a 
enlaces de características similares. 
El Protocolo de Información de Enrutamiento pertenece a la clase de algoritmos 
conocidos como Vector de Distancia. El propósito de RIP es para el uso de la Internet 
basado en IP. La Internet está organizada dentro de un número de redes conectadas a 
través de Puertas de enlace. Los hosts y puertas de enlace son presentados con 
datagramas IP y direccionados a algún host. RIP es destinado para permitir que hosts 
y puertas de enlace intercambien información para rutas a través de redes basadas en 
IP. Los paquetes realizan saltos por distintos enrutadores hasta llegar a su destino, 
para ello, RIP usa el conteo de saltos de enrutadores como métrica. Existen dos 
versiones: RIP versión 1 o RIPv1 y RIP versión 2 o RIPv1. 
 
1.3.2. PROTOCOLO DE ENRUTAMIENTO DE PASARELA DE INTERNET (IGRP). 
El Protocolo de Enrutamiento de Pasarela de Internet (IGRP - Internet Gateway 
Routing Protocol) es un protocolo del tipo de vector de distancia. Fue desarrollado por 
los sistemas Cisco para redes complejas de gran tamaño basadas en los protocolos 
IP. 
El propósito del desarrollo de IGRP fue para resolver problemas que limitan a RIP. La 
métrica de IGRP se basa en parámetros de tiempo real de la red como: retardo, ancho 
de banda, Máxima Unidad de Transmisión (MTU - Maximum Transmission Unit), 
confiabilidad y carga de los recursos de la red. La métrica puede ser configurada de 
acuerdo a las necesidades y requerimientos por el administrador de la red. 
Una característica de este protocolo es la capacidad para permitir el enrutamiento de 
una o varias subredes a través de múltiples enlaces, lo que permite converger el 
tráfico en casa de fallas con algunos enlaces. 
16 
 
IGRP incluye tres tipos de paquetes de actualizaciones que permiten ampliar la 
estabilidad de este protocolo: mantenimiento (Hold-down), horizonte dividido (Split-
horizon) e inversa envenenada (Poison-reverse). 
Los mensajes de mantenimiento previenen reinserciones inapropiadas de rutas no 
óptimas durante cierto periodo de tiempo. Las actualizaciones de horizonte dividido 
trabajan bajo la regla de no enviar información innecesaria de determinadas subredes 
al enrutador origen. Los mensajes de tipo de inversa envenenada tienen por finalidad 
evitar grandes lazos de enrutamiento. El propósito de los mensajes es para eliminar la 
ruta afectada. 
 
1.3.3. PROTOCOLO EL CAMINO MÁS CORTO PRIMERO (OSPF). 
La Fuerza Especial de Ingeniería en Internet (IETF - Internet Engineering Task 
Force) empezó a trabajar en un nuevo protocolo estándar para sustituir al RIP. El 
resultado fue el Protocolo de Pasarela Interior Primero el Camino Abierto más 
Corto (OSPF – Open Shortest Path First). Este protocolo es una tecnología pública 
sin propietario. 
Este es un protocolo de enrutamiento con estructura "jerárquica", basado en una 
primera versión del Protocolo de Enrutamiento de Sistemas Intermedios (IS-IS – 
Intermediate System to Intermediate System). Y que trabaja basándose en el 
algoritmo del camino más corto, así como en algoritmos de estado de enlace. OSPF 
es un protocolo importante porque posee un número de ventajas que no se 
encuentran en ningún otro protocolo de pasarela interior. Lo que lo hace la opción 
preferida en las nuevas redes IP, especialmente en grandes redes. 
Sus actualizaciones incluyen información referente a interfaces conectadas y métricas 
usadas, entre otras variables. Estas actualizaciones son enviadas a los enrutadores 
dentro del "área común de enrutamiento" cuando existe algún cambio en el estado 
de los enlaces. La métrica se calcula basándose en el estado de los enlaces, y la 
misma permite al enrutador determinar cuál es el camino más corto hacia uno o varios 
nodos. 
Este protocolo tiene como características adicionalesel enrutamiento basado en 
múltiples caminos con igualdad de costos, y el enrutamiento basado en 
requerimientos de Tipos de Servicios (TOS - Type of Service) de las capas de alto 
nivel; este tipo de enrutamiento soporta aquellos protocolos que puedan especificar 
ciertos tipos de servicios. Por ejemplo, una aplicación puede requerir que ciertos 
datos sean enviados urgentemente, y esto es posible si el OSPF tiene disponibilidad 
de enlaces de alta prioridad. 
El OSPF calcula su métrica basándose en la inversa del ancho de banda disponible 
en las interfaces de los enrutadores. Además, soporta una o más métricas. Si una 
métrica es usada, no se considera el TOS. Si más de una métrica es usada, el TOS 
17 
 
es usado a través del uso de una métrica aparte (y por consiguiente, utilizándose 
una tabla de enrutamiento separada) para cada una de las ocho combinaciones 
creadas por los tres bits IP del TOS (a saber: el retardo, la eficiencia y la 
disponibilidad). 
En la Figura 1.3 se muestra un ejemplo de lo que puede ser una red basada en 
OSPF. En la misma se observan que las redes basadas en OSPF están 
organizadas en áreas. Las áreas pueden ser definidas basándose en la ubicación o 
a una región, o pueden estar basadas en límites administrativos. Todas las redes 
OSPF están formadas al menos por un área, una red dorsal y tantas áreas 
adicionales como sean necesarias. 
Dentro de un área OSPF todos los enrutadores mantienen la topología de base de 
datos, intercambiando información de estado de enlace para mantener su 
sincronización. Esto asegura que los enrutadores pueden calcular el mismo mapa de 
red para una misma área. 
 
 
Figura 1.3 Ejemplo de Red Dorsal OSPF (Primero el Camino Abierto más Corto) 
Además de las áreas, una red OSPF está compuesta por otras entidades, las 
cuales se listan a continuación. 
La red dorsal OSPF. Esta área debe formar parte de cualquier red OSPF, a la misma 
se le asigna como identificador de área. La red dorsal tiene todas las propiedades 
del área, pero además tiene la responsabilidad de distribuir la información de 
enrutamiento a las áreas que están conectadas al mismo. 
18 
 
Enrutadores de Intra-Área (IA), límite de área (AB) y de frontera (ASB). A continuación 
se detalla su funcionamiento. 
Enrutadores de Intra-Área (IAR - Intra-Area Routers). Estos enrutadores se 
encuentran situados dentro del área OSPF. Todos estos enrutadores entregan avisos 
de enlaces de enrutadores en esta área para definir los enlaces a los cuales se 
encuentran conectados. 
Enrutadores de límite de Área (ABR - Area Border Routers). A los enrutadores que 
se encuentren conectados a más de dos áreas se les denomina Enrutadores de 
límite de área. Se encargan de mantener la topología de base de datos para cada 
una de las áreas a las que están “conectados”. 
Enrutadores de Frontera (BR - Boundary Routers). Estos son los enrutadores que 
se encuentran ubicados en la periferia de una red OSPF e intercambian información 
con los enrutadores en otros Sistemas Autónomos usando protocolos de pasarela 
exterior. 
Los mensajes de OSPF se transmiten directamente en datagramas IP. Todos los 
mensajes OSPF comparten una cabecera común, la cual se muestra en la Fig. 1.5. 
Cabecera común de OSPF. Esta cabecera contiene información general, como por 
ejemplo: el identificador de área (ID del área) y el identificador de enrutador origen 
(ID del enrutador o router), entre otros. Un campo define cada paquete OSPF como 
una de los siguientes cinco tipos posibles: 
Saludo (Hello). Se usa para identificar a los vecinos, elegir un enrutador designado 
para una red de multienvío, para encontrar a un enrutador designado existente y 
para enviar señales de “estoy vivo”. 
Descripción de la base de datos (Database description). Durante el inicio, se usa 
para intercambiar información de manera que un enrutador pueda descubrir los datos 
que le faltan en la base de datos. 
Petición del estado de enlace (Link state request). Se usa para pedir datos que un 
enrutador se ha dado cuenta que le faltan en su base de datos o que están obsoletos. 
Actualización del estado de enlace (Link state update). Se usa como respuesta a los 
mensajes de Petición del estado de enlace y también para informar dinámicamente de 
los cambios en la topología de la red. 
Reconocimiento de estado de enlace (Link state acknowledgement). Se usa para 
confirmar la recepción de una Actualización del estado de enlace. El emisor 
retransmitirá hasta que se confirme. 
El identificador del enrutador, identificador de área y la información de 
autenticación son configurables en cada enrutador OSPF. 
 
19 
 
1.3.4. PROTOCOLO MEJORADO DE ENRUTAMIENTO DE PASARELA DE 
INTERNET 
El Protocolo Mejorado de Enrutamiento de Pasarela de Internet (EIGRP- Enhanced 
Internet Gateway Routing Protocol) desarrollado por S i s t e m a s Cisco, combina la 
facilidad del uso de los protocolos tradicionales con las ventajas del rápido re-
enrutamiento de los protocolos con algoritmos de estado de enlace, suministrando así 
capacidades avanzadas en la convergencia rápida y las actualizaciones parciales. 
Se usan mensajes simples periódicos de saludo para descubrir a los vecinos y para 
comprobar que aún están activos. Otra mejora importante de este protocolo es el uso 
del Algoritmo de Actualización por Difusión (DUAL – Diffusing Update Algorithm). La 
idea básica de DUAL es simple. Se basa en la siguiente observación: Si una ruta 
consistente te lleva más directo a un destino, la ruta no puede ser un bucle. 
Cuando ocurre un cambio en la topología de la red el algoritmo de difusión, realiza la 
convergencia en menos de 5 segundos en la mayoría de los casos; esto equivale a la 
convergencia ejecutada por protocolos de enlace de estado tales como OSPF y por 
IS- IS. Adicionalmente, EIGRP sólo envía actualizaciones de re-enrutamiento cuando 
ocurren cambios a los enrutadores directamente afectados. 
Por otra parte, EIGRP soporta enmascaramiento de rede de longitud variable (VLSM 
- Variable-Length Subnet Mask). El protocolo EIGRP soporta actualizaciones 
increméntales en el Protocolo de Servicio de Aviso (SAP - Service Advertisement 
Protocol), elimina la limitación de RIP en el número máximo de saltos, y provee uso de 
caminos óptimos. Un enrutador ejecutando EIGRP realiza actualizaciones parciales y 
limitadas de enrutamiento y provee balanceo de cargas y uso de caminos óptimos. 
 
1.3.5. PROTOCOLO DE SISTEMAS INTERMEDIOS. 
El Protocolo de Enrutamiento de entre Sistemas Intermedios (IS-IS – Intermediate 
System to Intermediate System), inicialmente, fue definido para los enrutadores pero 
se ha extendido a redes IP. Al igual que OSPF, IS-IS es un protocolo de estado de 
enlace que dispone de enrutamiento jerárquico, enrutamiento por tipo de servicio, 
división del tráfico por varias rutas y autenticación. 
IS-IS tiene dos tipos de Rutas: enrutamiento de nivel 1 dentro de un área y 
enrutamiento de nivel 2 para destinos fuera del área. 
El IS-IS hace uso de dos niveles de jerarquía en el enrutamiento. Un dominio de 
enrutamiento es dividido en áreas. Esto es, los enrutadores del nivel 1 conocen la 
topología de su área, incluyendo los demás enrutadores y sistemas en su área. Sin 
embargo, los enrutadores de nivel 1 desconocen la identidad o los destinos de los 
enrutadores fuera de su área. Estos enrutadores de nivel 1 envían todo el tráfico con 
destinos fuera de su área a enrutadores de nivel 2 en su área. De manera similar, los 
enrutadores de nivel 2 conocen la topología de nivel 2, y saben cuáles direcciones 
20 
 
están accesibles a través de un enrutador de nivel 2. Sin embargo, los enrutadores de 
nivel 2 no necesitan conocer la topología dentro de cualquier área de nivel 1, excepto 
aquellas en las que un enrutador de nivel 2 sea un enrutador de nivel 1 dentro de una 
sola área.Sólo los enrutadores de nivel 2 pueden intercambiar paquetes de datos o 
información de enrutamiento directamente con enrutadores externos localizados fuera 
del dominio de enrutamiento. En pocas palabras, los enrutadores de nivel 1 se 
podrían ver de forma análoga a los enrutadores de la red dorsal en OSPF. Un 
enrutador de un Sistema intermedio de nivel 1 reenvía el tráfico a destinos fuera del 
área a su enrutador de nivel más cercano. 
Las direcciones están subdivididas en: parte del domino inicial (IDP-Initial Domain 
Part), y la parte del dominio específico (DSP-Domain Specific Part). El IDP está 
estandarizado por la Organización Internacional para la Estandarización (ISO – 
International Organization for Standarization), y específica el formato y la autoridad 
responsable para asignar el resto de las direcciones. El DSP es asignado por cualquier 
autoridad de direccionamiento especificada por el IDP. El DSP está subdividido en: 
a l t o o rden (HO-DSP - High Order of DSP), un identificador de sistema (ID), y un 
selector de (SEL). El IDP junto al HO-DSP (también denominada dirección de área) 
identifican el dominio de enrutamiento y el área dentro del dominio de enrutamiento. 
(Ver figura 1.4). 
Una ventaja del uso de IS-IS integrado tiene que ver con el esfuerzo en la gestión de 
redes. Ya que el IS-IS integrado provee un protocolo de enrutamiento simple, dentro 
de un dominio de enrutamiento coordinado que utiliza una sola red dorsal, existe 
menos información que configurar. 
Otra ventaja del IS-IS integrado es que utiliza menos recursos. Esto es, menos 
recursos de implantación (ya que sólo se utiliza un protocolo), menos recursos de 
CPU y memoria son usados por el enrutador, y menos recursos de red. 
 
 
Figura 1.4 Estructura de dirección jerárquica ISO 
 
 
 
 
21 
 
1.4. PROTOCOLOS DE PASARELA EXTERIOR. 
Los protocolos de pasarela exterior son usados para intercambiar información de 
enrutamiento entre redes que no comparten una administración común. Estos 
protocolos requieren la siguiente información antes de iniciar las tareas de 
enrutamiento: una lista de enrutadores vecinos con los cuales se intercambia 
información de enrutamiento, una lista de redes de acceso directo, un número de 
sistemas autónomos del enrutador local. 
 
1.4.1. PROTOCOLO DE PASARELA EXTERIOR. 
El Protocolo de Pasarela Exterior (EGP - Exterior Gateway Protocol) es el primer 
protocolo de enrutamiento al nivel de interdominios usado entre los enrutadores de 
la red dorsal principal de la Internet. 
A pesar de ser un protocolo de enrutamiento dinámico, no usa métricas ni realiza 
decisiones inteligentes de enrutamiento, sino que sus actualizaciones contienen la 
disponibilidad de redes, asumiendo que las mismas son alcanzables a través de 
determinados enrutadores. Éstas se efectúan entre determinados enrutadores vecinos 
por intervalos regulares de tiempo, indicando cada enrutador las subredes 
directamente conectadas al mismo. 
A pesar de que EGP tuvo buen desempeño por algunos años, ya había comenzado a 
mostrar ciertas fallas. EGP no tenía manera de tratar con los lazos de enrutamiento 
que ocurrían en redes con múltiples caminos, también las actualizaciones 
frecuentemente eran muy largas. Además, el EGP no podía realizar decisiones 
de enrutamiento inteligente porque no soportaba métricas de enlaces, esto se logra 
con el protocolo de pasarela de frontera. 
 
1.4.2. PROTOCOLO DE PASARELA DE FRONTERA. 
El Protocolo de Pasarela de Frontera (BGP - Border Gateway Protocol) es un 
protocolo de enrutamiento externo (o entre sistemas autónomos) diseñado para 
corregir las fallas presentadas por el EGP, ya que detecta los lazos de enrutamiento 
y usa una métrica con el fin de realizar decisiones de enrutamiento inteligente. 
Este protocolo puede ser utilizado dentro de los sistemas autónomos, y sus 
actualizaciones consisten en direcciones IP de las subredes y en caminos hacia 
distintos sistemas autónomos. Estos caminos contienen información de sistemas 
autónomos a través de los cuales ciertas subredes pueden ser alcanzadas. Estas 
actualizaciones son enviadas usando los mecanismos de transporte. 
Los datos inicialmente intercambiados entre dos enrutadores que manejen BGP se 
representan en una tabla completa de rutas. Las actualizaciones posteriores son 
22 
 
enviadas cuando cambian las tablas de enrutamiento. A diferencia de otros 
protocolos de enrutamiento de datos, éste no requiere renovaciones periódicas y 
completas de las tablas de enrutamiento. En su lugar, estos enrutadores retienen la 
última versión de las tablas de enrutamiento de los enrutadores vecinos con los 
cuales se estén ejecutando sesiones BGP. Aunque el BGP mantiene una tabla de 
enrutamiento con todos los posibles caminos hacia una subred en particular solamente 
anuncia el camino óptimo. 
BGP usa una métrica simple para determinar el mejor camino hacia una o varias 
redes en particular. Esta métrica consiste en un número arbitrario que especifica el 
grado de preferencia de un enlace en particular. Comúnmente esta métrica es 
asignada sobre cada enlace por el administrador de la red, y este valor puede ser 
basado en ciertos parámetros, incluyendo el número de sistemas autónomos a 
través de los cuales se enrutan los datos (los caminos con el menor número de 
sistemas autónomos son generalmente los mejores), la estabilidad, velocidad, el 
retardo o el costo. 
El protocolo BGP está compuesto por cuatro pasos principales: apertura y 
confirmación de una conexión BGP con un enrutador vecino, mantenimiento de la 
conexión BGP, envío de información de rutas óptimas y notificación de condición de 
error. 
Apertura y confirmación de una conexión BGP con un enrutador vecino. La 
comunicación BGP entre dos enrutadores se inicia con el establecimiento de la 
conexión del protocolo de control de transmisión (TCP – Transmission Control 
Protocol). Una vez que esta conexión se establece, cada enrutador puede enviar un 
mensaje abierto a su vecino. 
El mensaje abierto de BGP consiste de una cabecera estándar más contenidos 
específicos de tipo paquete. La cabecera estándar consta de un campo de 16 octetos, 
los cuales se ponen en todos uno cuando la el código de autenticación es 0, la 
longitud del mensaje de BGP (el formato de la cabecera de BGP se muestra en la 
figura 1.7), y el campo de tipo que especifica si el mensaje puede ser de uno de los 
siguientes tipos: OPEN. UPDATE. NOTIFICATION y KEEPALIVE. 
El mensaje abierto define el número de AS del enrutador originador, su identificador 
de enrutador BGP y el tiempo de mantenimiento para la conexión. Si no se reciben 
mensajes keepalive, update o notification, el enrutador originador asume que existe 
un error y envía un mensaje de notificación y corta la conexión. El formato del 
mensaje abierto se muestra a continuación. 
Mantenimiento de la conexión BGP. Los mensajes BGP deben ser intercambiados 
periódicamente entre vecinos. Si no se reciben mensajes durante un período de 
tiempo, el cual puede ser configurado entre 30 y 90 segundos, se asume que hubo 
un error de conexión. BGP usa mensajes KEEPALIVE para mantener la conexión 
23 
 
entre vecinos. Estos mensajes KEEPALIVE consisten de un mensaje BGP solamente, 
no posee datos. 
 
 
 
 
Figura 1.5 Cabecera del mensaje BGP. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
24 
 
 
 
 
 
 
 
 
 
CAPÍTULO 2: 
ANTECEDENTES 
DE MPLS. 
 
 
 
 
 
 
25 
 
CAPITULO 2: ANTECEDENTES DE MPLS. 
____________________________________________________________ 
 
Para lograr que la capa de red haga que los paquetes de información lleguen de una 
fuente a un destino. Ésta debe conocer la topología de la red para el elegir el camino 
apropiado. Debido a que esta acción tiene que realizarse de manera óptima, se deben 
elegir rutas que eviten la sobre carga de algunas líneas decomunicación mientras 
algunos routers permanezcan inactivos. 
La red puede proveer a los usuarios dos clases de servicio. Para ello existen dos tipos 
de organizaciones posibles dependiendo el tipo de servicio ofrecido. El primer tipo de 
organización provee servicio no orientado a la conexión, los paquetes son inyectados 
dentro de la red de manera individual y enrutados de manera independiente. Este tipo 
de red es llamada Red de datagramas. El segundo tipo de organización provee 
servicio orientado a la conexión, en este caso, se establece una trayectoria desde el 
enrutador fuente hasta el enrutador destino. Esta conexión es conocida como Circuito 
Virtual (VC – Virtual Circuit). A la arquitectura de red que provee este tipo de servicio 
se conoce como Red de circuitos virtuales. En algunos contextos, este proceso se 
llamado conmutación de etiquetas. Un ejemplo de servicio de red orientado a la 
conexión es Conmutación de Etiquetas Multiprotocolo o MPLS (MPLS – Multiprotocol 
Label Swtiching), el cuál es utilizado en la redes de los Proveedores de Servicio de 
Internet o ISP (ISP – Internet Service Provider), con paquetes IP envueltos en una 
encabezado MPLS teniendo un identificador de conexión de 20 bits, también llamado 
etiqueta. MPLS es usualmente oculto de los clientes, con el ISP estableciendo 
conexiones a largo plazo para grandes cantidades de tráfico. Es muy usado cuando se 
requiere Calidad de Servicio (QoS – Quality of Service) y también para tareas de 
manejo de tráfico proveniente de otro ISP. 
 
2.1 DEFINICIÓN DE MPLS. 
Las etiquetas MPLS son anunciadas entre los enrutadores para que éstos puedan 
construir un mapeo de etiqueta a etiqueta. Estas etiquetas están adjuntas a los 
paquetes IP. Lo que permite reenviar el tráfico de red basándose en la información 
proporcionada en las etiquetas y no en la dirección IP. De esta forma, se habla de 
conmutación de etiquetas y no conmutación IP. 
La técnica de conmutación de etiquetas no es algo reciente. Frame Relay y el Modo 
de Transferencia Asíncrono o ATM (ATM – Asynchronous Transfer Mode) usan esta 
técnica para mover tramas o celdas a través de la red. En el caso de Frame Relay, las 
tramas pueden ser de cualquier longitud, mientras que en ATM, una celda de longitud 
fija consiste de un encabezado de 5 bytes y una carga útil de 48 bytes. El encabezado 
de celda ATM y la trama Frame Relay se refiere al circuito virtual en el que la celda o 
26 
 
trama reside. La similitud entre ATM y Frame Relay es que en cada salto o 
intercambio de router a través de la red, el valor de la etiqueta en el encabezado 
cambia. Esto difiere del reenvío de paquetes IP. Cuando un router reenvía un paquete 
IP, no cambia el valor que pertenece al destino del paquete, es decir, no cambia la 
dirección IP del paquete. El hecho qye las etiquetas MPLS son usadas para reenviar 
los paquetes y no la dirección IP destino es algo que ha acrecentado el uso del 
conjunto de protocolos MPLS. 
 
2.2 USO DE UNA INFRAESTRUCTURA DE RED UNIFICADA. 
La idea de MPLS es etiquetar paquetes entrantes basados en su dirección destino u 
otro criterio de configuración y conmutar todo el tráfico en una infraestructura común. 
Una de las razones que hizo a IP el protocolo dominante en el mundo de las redes es 
su habilidad de transportar diversas tecnologías. No sólo datos, también telefonía. 
Al usar MPLS con IP, se pueden extender las posibilidades de lo que se puede 
transportar. Agregar etiquetas en los paquetes permite llevar otros protocolos a parte 
de IP en una dorsal capa 3 IP habilitada MPLS. 
MPLS puede transportar IPv4, IPv6, Ethernet, control de enlace de datos de alto nivel 
y otras tecnologías de la capa de enlace. 
La característica por la cual cualquier trama de capa 2 es llevada a través de una 
dorsal MPLS es conocida como AToM (AToM – Any Transport over MPLS). Los 
routers que conmutan el tráfico AToM no necesitan estar consientes de la carga útil 
MPLS, sólo necesitan tener permitido la conmutación de tráfico etiquetado al 
inspeccionar la etiqueta en la parte superior del paquete. En esencia, la conmutación 
de etiquetas MPLS es un método para conmutar múltiples protocolos en una red. 
AToM permite al ISP proveer el mismo servicio de capa 2 hacia el cliente como 
cualquier específica red sin MPLS. Al mismo tiempo, el proveedor de servicio necesita 
una infraestructura de red unificada para llevar todos los tipos de tráfico del cliente. 
 
2.3 MEJOR INTEGRACIÓN IP EN ATM. 
Hace dos décadas, el protocolo IP prevaleció sobre todos los protocolos de red. Es 
relativamente simple y omnipresente. Un protocolo de capa de enlace muy publicitado 
en ese momento fue ATM. 
ATM tuvo éxito a pesar de que su uso fue limitado como un protocolo de redes de área 
amplia en el centro de redes de proveedores de servicio. Varios de estos proveedores 
de servicio desplegaron redes troncales IP. El proceso de integración de IP sobre ATM 
fue largo. Para completarse, la comunidad de redes tuvo que brindar un par de 
soluciones. 
27 
 
Una solución fue la implementación IP sobre ATM de acuerdo con la “Encapsulación 
Multiprotocolo sobre la Capa 5 de Adaptación ATM (AAL – ATM Adaptation Layer)”, 
que específica como encapsular múltiples protocolos enrutados y puenteados sobre 
AAL5. Para hacer esto posible, todos los circuitos ATM tuvieron que ser establecidos 
manualmente, y todos los mapeos entre saltos siguientes IP y puntos finales ATM 
tuvieron que ser manualmente configurados en cada router con ATM adjunto en la red. 
Una mejor solución para la integración de IP sobre ATM fue una de las razones para la 
invención de MPLS. Los prerrequisitos para MPLS en conmutadores ATM fueron que 
los conmutadores ATM tuvieron que volverse más inteligentes. Los conmutatores ATM 
tuvieron que ejecutar un protocolo de enrutamiento IP e implementar un protocolo de 
distribución de etiquetas. 
 
2.4 ATM. 
El Modo de Transferencia Asíncrono o ATM es una tecnología de conmutación de 
paquetes para alta velocidad con una serie de características muy particulares: Los 
paquetes son de tamaño pequeño y constante (53 bytes); es una tecnología de 
naturaleza conmutada y orientada a conexión; los nodos que componen la red no 
tienen mecanismos para el control de errores de flujo; el encabezado de las celdas 
tiene una funcionalidad limitada. 
En ATM el flujo de información está organizado en celdas constituidas por un campo 
de información y un encabezado que se transmiten en un circuito virtual y el 
enrutamiento se realiza basándose en un Identificador de Circuito Virtual (VCI – 
Virtual Circuit Identifier) y a un Identificador de Camino Virtual (VPI – Virtual path 
Identifier) contenidos en el encabezado. 
Cada conexión virtual es identificada por un número, cuyo significado es sólo local, 
es decir está asociado a cada enlace. Esta función de identificación es ejecutada 
por dos subcampos del encabezamiento de la celda: el VPI y el VCI. El VCI 
identifica a un Circuito Virtual (VC – Virtual Circuit) específico en un Camino 
Virtual (VP – Virtual Path) dado. Un VC es un concepto usado para describir un 
transporte unidireccional de celdas ATM y un VP es un concepto usado para 
describir un transporte unidireccional de celdas ATM pertenecientes VCs. 
El propósito de los VCs y de los VPs es el de usar los conceptos de enlace virtual 
y conexión virtual. Los VPs permiten que la capacidad disponible en el medio físico 
sea dividida en un número de canales con velocidad de bit variable. Por otro lado, 
los VCs permiten una subdivisión más pequeña de la capacidad disponible en un 
VP. La conmutación puede ser ejecutada tanto a nivel del medio físico, del VP o 
VC. El multiplexaje y la conmutación en ATM son siempre realizados primero en los 
VPs y después en los VCs. 
 
28 
 
Un VC es análogo a una conexión Frame Relay. Un camino virtual es un conjunto 
de VCs que tienenlos mismos puntos finales. Este concepto fue desarrollado para 
las redes de alta velocidad con el fin de disminuir el costo del manejo de las 
señales de control. 
Las conexiones virtuales ATM pueden proporcionarse utilizando gestión de red. Estas 
conexiones se denominan canales virtuales permanentes (PVC-Permanent Virtual 
Channels). Así mismo, los canales virtuales pueden establecerse dinámicamente 
utilizando procedimientos de señalización ATM. Estos canales virtuales se denominan 
canales virtuales conmutados (SVCs- Switched Virtual Channels). 
En ATM no se asignan ranuras de tiempo específico periódicas al canal. La 
capacidad disponible es segmentada en las unidades de información de tamaño fijo 
(celdas), por tanto ATM se comporta de forma asíncrona porque transmite celdas 
que no necesitan ser periódicas. Se considera que ATM es un modo de 
transferencia eficiente y flexible, ya que al asignar ranuras según la demanda, se 
pueden acomodar fácilmente servicios de velocidad variable. ATM puede ganar 
también eficiencia en el manejo del ancho de banda multicanalizando estadísticamente 
fuentes de tráfico de tipo ráfaga, donde aparecen celdas a una velocidad muy alta por 
un período de tiempo muy corto. Este tipo de fuente no requiere una asignación 
continua de ancho de banda a su velocidad máxima y un gran número de 
estas fuentes puede compartir el mismo ancho de banda 
ATM es capaz de soportar todo tipo de servicio (con y sin conexión), inclusive 
emulación de redes de área local y de circuitos, Frame Relay. Además puede 
soportar todo tipo de tráfico (voz, video, dato y combinaciones). 
 
2.5. FORMATO DE DATOS DE LAS CELDAS ATM. 
Una celda ATM está formada por 53 bytes, de los cuales 5 bytes son de encabezado y 
48 bytes de información (ó carga útil). Los bytes son enviados en orden creciente, 
empezando con el primer byte del encabezado. Dentro de un byte, los bits son 
enviados en forma decreciente, comenzando por el bit 8. Para todos los campos de 
una celda ATM, el primer bit enviado es también el bit más significativo (MSB). 
El encabezado está dividido en diferentes campos (Ver figura 2.2). El campo más 
importante es el campo de dirección, ya que identifica el circuito y provee una 
dirección de enlace único entre dos nodos de red, a través de los VPI y VCI. 
El campo identificador de tipo de carga (PTI – Payload Type Identifier) específica 
si la celda contiene información del usuario o información a ser usada por la red 
misma para operación y mantenimiento por ejemplo, que permiten supervisar la 
calidad de la conexión y señalan eventuales congestiones presentes en los 
elementos de la red. El campo que define la prioridad de pérdida de celdas (CLP - 
Cell Loss Priority) permite diferenciar dos niveles de prioridad para las celdas de una 
29 
 
misma conexión y el valor del bit CLP puede ser asignado tanto por el usuario como 
por la red, en el caso de que no exista espacio suficiente para todas las celdas. 
El último campo del encabezado contiene un control de código cíclico (HEC – 
Header Error Control) que permite detectar y corregir un error aislado en un bit del 
encabezamiento y además detectar un número de errores superior o igual a dos, en 
cuyo caso se desecha la celda. Este último campo desempeña un papel muy 
importante, ya que el enrutamiento de las celdas y la propia integridad de las 
conexiones dependen de la interpretación del encabezamiento. 
En la interfaz entre el usuario y la red (UNI – User-Network Interface), cuatro bits del 
campo VPI son reemplazados por el campo de control de flujo genérico (GFC – 
Generic Flow Interface), el cual se emplea para controlar el uso de la capacidad de 
la red entre el terminal y la red. Esto es, permite implementaciones básicas de 
multiplexaje, es decir, puede ser utilizado por la red para controlar, en la instalación 
del usuario, el flujo de algunas conexiones y arbitrar el acceso a la red de varios 
terminales. 
 
 
Figura 2.2 Estructura de una celda ATM 
 
En la interfaz entre el usuario y la red (UNI – User-Network Interface), cuatro bits del 
campo VPI son reemplazados por el campo de control de flujo genérico (GFC – 
Generic Flow Interface), el cual se emplea para controlar el uso de la capacidad de 
la red entre el terminal y la red. Esto es, permite implementaciones básicas de 
multiplexaje, es decir, puede ser utilizado por la red para controlar, en la instalación 
30 
 
del usuario, el flujo de algunas conexiones y arbitrar el acceso a la red de varios 
terminales. 
 
2.6. CLASIFICACIÓN DE SERVICIOS. 
El modelo de capas de ATM se encuentra en la figura 2.3. Las tres capas más bajas 
son: 
Capa 1, la capa física, la cual transporta información (bits/celdas). ATM no 
prescribe un conjunto de reglas en particular, pero en cambio dice que las celdas 
ATM se pueden enviar por sí solas por un cable o fibra o bien se pueden empacar 
dentro de la carga útil de otros sistemas portadores. En otras, palabras, ATM se 
diseñó para que fuera independiente del medio de transmisión. 
Capa 2, la capa ATM, la cual principalmente ejecuta conmutación/enrutamiento y 
multiplexación. Define la organización de las celdas y dice lo que significan los 
campos del encabezado. Esta capa también tiene que ver con el establecimiento y la 
liberación de circuitos virtuales. En esta capa se localiza el control y la congestión. 
Capa 3, la capa de adaptación de ATM (AAL – ATM Adaptation Layer), la cual 
principalmente es responsable de la adaptación de los servicios de información de las 
celdas ATM. Esta capa permite a los usuarios enviar paquetes mayores a una celda 
porque la mayor parte de las aplicaciones no quieren trabajar de manera directa en 
celdas. Por lo que esta capa segmenta estos paquetes, transmite las celdas en forma 
individual y las reensambla en el otro extremo. 
El modelo que presenta ATM es un modelo tridimensional (Ver Fig. 2.3). El plano de 
usuario se encarga del transporte de los datos, el control de flujo, la corrección de 
errores y otras funciones de usuario. Mientras que el plano de control tiene que ver 
con la administración de la conexión. Las funciones de gestión de capas y planos 
se relacionan con la administración de recursos y la coordinación intercapas. 
Para permitir la transferencia de datos y servicios isócronos, la información debe ser 
adaptada a la red en diferentes maneras. Por esta razón, ATM ha sido dividida en 
cuatro clases de servicios (A, B, C y D) basándose en tres parámetros: 
 Servicios sincronos y asíncronos. 
 Proporción de bit variable (VBR) y proporción de bit constante (CBR). 
 Orientado a conexión y no orientado a conexión. 
 
Además se pueden mencionar cuatro protocolos: AAL 1, AAL 2, AAL 3/4 y AAL 5 (Ver 
Fig. 2.4). 
En las redes ATM cada vez que una aplicación necesita establecer una conexión 
entre dos usuarios, debe negociarse un contrato de tráfico que especifica, entre 
otras cosas, la clase de servicio de la conexión. La clase de servicio ATM cubre 
31 
 
una gama de parámetros de calidad de servicio. Estos parámetros de calidad de 
servicio pueden definir los niveles mínimos de ancho de banda requeridos y los 
límites en el retardo de las celdas y la tasa de pérdida de celdas. A continuación 
se detalla brevemente éstas clases de servicio. 
 
Figura 2.3 Modelo de Capas ATM. 
 
Proporción de Bit Constante (CBR - Constant Bit Rate): Es el tipo más sencillo de 
las clases de servicio ATM. Cuando una aplicación negocia el establecimiento de 
una conexión CBR, la red garantiza una proporción de celda de cresta (PCR - Peak 
Cell Rate), la cual es la máxima velocidad de datos que la conexión ATM puede 
soportar sin riesgos de pérdida de celdas. No existen límites para la velocidad de 
datos que se puede negociar en una conexión CBR, pero cualquier tipo de tráfico por 
encima de la velocidad negociada puede ser descartadopor la red. 
La clase de servicio CBR provee un circuito virtual de transmisión de ancho de 
banda fijo y está pensado principalmente para aquellas aplicaciones que requieren 
un suministro de ancho de banda estable, tales como video en tiempo real y tráfico 
vocal. 
32 
 
 
Figura 2.4. Descripción de los servicios de la capa AAL de ATM 
Real-Time Variable Bit Rate (rt-VBR): Se parece a la clase de servicio CBR en el 
sentido que deseamos un retardo por bajo tránsito pero el tráfico puede variar su 
velocidad. Los datos pueden ser video comprimido, voz comprimida con supresión de 
silencio, o emulación de enlaces DIC. 
Non-Real-Time Variable Bit Rate (nrt-VBR): Este es un servicio de entrega 
garantizado, donde el retardo de tránsito y el “jitter” son quizás menos importantes 
que el caso de rt-VBR. Un ejemplo de su aplicación puede ser la distribución de video 
codificado MPEG-2. En este caso, la información proviene de un disco y su 
distribución de la señal TV es de una vía. Un retardo de tránsito en la red de unos 
cuantos segundos no representa un problema aquí. Pero lo que sí deseamos es 
un servicio garantizado ya que la pérdida de algunas celdas en video comprimido 
tiene un efecto severo en la calidad de la conexión. 
Unspecified Bit Rate (UBR): No provee garantías sobre la velocidad de bits 
especificada, ni sobre los parámetros de tráfico ni sobre la calidad de servicio. La 
clase de servicio UBR ofrece una solución parcial para aquellas aplicaciones de 
ráfagas imposibles de predecir que no se ajustan realmente a los parámetros del 
contrato de tráfico. Cuando la red se congestiona, las conexiones UBR continúan su 
transmisión. 
Las conexiones UBR no tienen contrato de gestión con la red y por lo tanto las 
primeras celdas que se pierden son las suyas. El caudal de tráfico exitoso puede caer 
a niveles inaceptables, menos del 50%. Este tipo de servicio se puede aplicar a 
conexiones que puedan enviar datos a través de la red sin requerir garantía de cómo 
y cuándo estos datos lleguen a su destino. Desde el punto de vista de la red, la 
clase UBR utiliza excedentes de ancho de banda que de otro modo no se 
emplearían. 
Available Bit Rate (ABR): La clase de servicio ABR también hace uso de los 
excedentes del ancho de banda, pero utiliza técnicas de gestión de tráfico para 
estimar congestión de la red y evitar pérdidas de celdas. 
33 
 
Cuando una aplicación solicita una conexión ABR, la misma negocia con la red una 
velocidad de celda de cresta, sin embargo no negocia los parámetros específicos de 
tolerancia de variación de retardo de celda o de tolerancia de ráfaga. En realidad la 
aplicación y la red negocian un requerimiento de velocidad mínima, el cual garantiza 
a la aplicación un pequeño ancho de banda (la mínima requerida para mantener la 
aplicación establecida y funcionando). El usuario ABR acuerda no transmitir a 
velocidades superiores a la PCR y la red acuerda siempre proveer por lo menos la 
velocidad mínima (Minimum Cell Rate= MCR). 
Dado que la clase ABR provee garantías mínimas de ancho de banda para 
mantener las aplicaciones en funcionamiento (pero no garantiza el retardo de la 
celda), ella es apta para aplicaciones en tiempo no real en las cuales los datos no 
son demasiado sensibles al retardo. 
 
2.7. Señalización ATM. 
Señalización es el proceso mediante el cual los usuarios ATM y la red intercambian 
información de control, peticiones para el uso de los recursos de la red, o 
negociaciones para el uso de parámetros de circuitos. El par VPI/VCI y el ancho 
de banda requerido son escogidos como resultado de un intercambio de 
señalización exitoso. 
 
 
 
 
 
 
 
 
 
 
34 
 
 
 
CAPÍTULO 3: 
ARQUITECTURA 
DE LA 
CONMUTACIÓN DE 
ETIQUETAS 
MULTIPROTOCOLO 
 
 
 
35 
 
CAPÍTULO 3: ARQUITECTURA DE LA CONMUTACIÓN DE 
ETIQUETAS MULTIPROTOCOLO. 
_______________________________________________________________ 
 
Al principio el IPv4 fue el único protocolo en ser conmutado por medio de etiquetas. 
Después, se unió IPv6. Posteriormente, con AToM o “Cualquier trasporte sobre MPLS” 
fue el comienzo para etiquetar y transportar tramas de capa 2 sobre una dorsal MPLS. 
Así es como se llenó el aspecto multiprotocolo de MPLS. 
La conmutación de etiquetas indica que los paquetes conmutados ya no son paquetes 
IPv4, paquetes IPv6 o tramas de capa 2 cuando son conmutados, pero son 
etiquetados. La parte más importante para MPLS es la etiqueta. 
 
3.1 ETIQUETAS MPLS. 
Una etiqueta MPLS es un campo de 32 bits con una estructura determinada. La figura 
3.1 muestra la constitución de una etiqueta. 
 
 
Figura 3.1 Constitución de una etiqueta o label MPLS. 
 
Los primeros 20 bits son los valores de la Label o etiqueta. Este valor puede estar 
entre 0 y 2²º-1 o 1,048,575. Por otro lado. Los primeros 16 valores fueron exentados 
de uso normal. Los bits de 20 a 22 son los tres bits experimentales o EXP. Estos tres 
bits son usados para la calidad de servicio o QoS (QoS - Quality of Service). 
El bit 23 es la parte trasera de la pila o BoS (BoS – Bottom of Stack). Éste es 0 menos 
que sea la etiqueta trasera o la última de etiqueta en la cola. Si es así, el bit BoS es 
puesto como 1. La pila es una colección de etiquetas que son encontradas en la parte 
superior del paquete. La pila puede consistir de una o más etiquetas. El número de 
etiquetas que se puede encontrar en la pila no tiene límite. 
Los bits de 24 a 31 son 8 bits usados para el tiempo de vida o TTL (TTL-Time To 
Live). TTL tiene la misma función que el TTL encontrado en el encabezado IP. Éste 
puede ser de un valor decrementado de uno en uno en cada salto. Su principal función 
36 
 
es evitar que un paquete se atore en un bucle “enrutado”. Si un bucle enrutado ocurre 
y no hay un TTL presente, el paquete puede enlazarse eternamente. SI el TTL de una 
etiqueta alcanza el valor 0, el paquete es descartado. 
 
3.2 APILADO DE ETIQUETAS. 
Un enrutador con la capacidad de usar MPLS puede necesitar más de una etiqueta en 
la parte superior de un paquete para “enrutar” dicho paquete a través de la red MPLS. 
Esto es pasible si empaquetan las etiquetas en una pila. La primera etiqueta en la pila 
se denomina top label o etiqueta superior, y la última etiqueta es llamada etiqueta 
bottom label o última etiqueta. Entre estas etiquetas se puede tener cualquier número 
de etiquetas. La figura 3.2 muestra la estructura de una pila de etiquetas. 
 
 
Figura 3.2 Estructura de una pila de etiquetas MPLS. 
 
3.3 CODIFICACIÓN DE MPLS. 
La pila de etiquetas o MPLS Label Stack se coloca en enfrente del paquete de capa 3, 
es decir, antes del encabezado del Protocolo Transportado o Transported Protocol 
pero después del Encabezado de Capa 2 o Layer 2 Header. En la figura 3.3 se puede 
visualizar la colocación de la pila de etiquetas para paquetes etiquetados. 
 
Figura 3.3 distribución de pila de etiquetas MPLS en una trama. 
37 
 
El encapsulado del enlace puede ser casi cualquier tipo encapsulado suportado por el 
sistema operativo de un determinado router. 
 
3.4 ENRUTADOR CONMUTADOR DE ETIQUETAS. 
Un enrutador conmutador de etiquetas o label switch router es un enrutador que 
soporta MPLS. Es capaz de entender etiquetas MPLS; y de recibir y transmitir un 
paquete etiquetado en un enlace de datos. En una red MPLS, existen tres clases de 
enrutadores: 
-LSRs de ingreso o Ingress LSRs. 
Estos enrutadores reciben un paquete que aún no es etiquetado, insertan una etiqueta 
enfrente del paquete, después es enviado en el enlace de datos. 
-LSRs de egreso o Egress LSRs. 
Estos enrutadores reciben paquetes ya etiquetados, su función es remover las 
etiquetas y enviar estos paquetes en un enlace de datos. Los Ingress LSRs y Egress 
LSRs también son conocidos como LSRs de borde o Edge LSRs. 
-LSRs intermediarios o Intermediate LSRs. 
Este tipo de enrutadores reciben un paquete etiquetado, realizanalguna operación en 
él, conmutan el paquete y posteriormente envían el paquete al enlace de datos 
correcto. 
Un LSR es capaz de remover una o más etiquetas de la parte superior de la pila de 
etiquetas antes de conmutar el paquete a la salida. Un LSR debe ser capaz de 
empujar una o más etiquetas en el paquete recibido. Si el paquete recibido ya ha sido 
etiquetado, el LSR empuja una o más etiquetas en la pila de etiquetas y conmuta el 
paquete a la salida. Si el paquete no ha sido etiquetado, el LSR crea una pila de 
etiquetas y la empuja en el paquete. Un LSR también debe ser capaz de intercambiar 
una etiqueta. Esto significa que cuando un paquete etiquetado es recibido, la etiqueta 
superior de la pila de etiquetas es intercambiada por una nueva etiqueta y el paquete 
es conmutado en la salida del enlace de datos. 
Un LSR que empuja etiquetas en un paquete que no ha sido etiquetado es llamado 
LSR imponente o imposing LSR porque es el primer LSR en imponer etiquetas en el 
paquete. Un router que realiza imposición es un LSR de ingreso. Un LSR que remueve 
etiquetas de un paquete etiquetado antes de conmutar el paquete a la salida es un 
LSR disponente o disposing LSR. Un router que realiza esta acción es un LSR de 
egreso. 
 
 
38 
 
3.5 CAMINO CONMUTADO DE ETIQUETAS. 
Un camino conmutado de etiquetas (LSP – Label Switched Path) es una secuencia de 
LSRs que conmutan paquetes etiquetados a través de una red MPLS. Básicamente, el 
LSP es el camino a través de la red MPLS o parte de ella que los paquetes toman. El 
primer LSR de una LSP es el ingress LSR para ese LSP, mientras que el último LSR 
del LSP es el egress LSR. Todos los LSRs entre los ingress y egress LSRs son los 
intermédiate LSRs. 
En la figura 3.4, la flecha en la parte superior indica la dirección porque un LSP es 
unidireccional. El flujo de paquetes etiquetados en otra dirección, de derecha a 
izquierda entre los mismos edge LSRs puede ser otro LSP. 
 
 
Figura 3.4 Red MPLS. 
 
El ingress LSR de un LSP no es necesariamente el primer enrutador en etiquetar el 
paquete. El paquete puede haber sido etiquetado por un procedente LSR. Como un 
caso pudo ser un LSP anidado. Lo que quiere decir, un LSP dentro otro LSP. En la 
figura 3.5, se puede ver un LSP abarcando el ancho completo de una red MPLS. Otro 
LSP empieza en el tercer LSR y termina en el penúltimo LSR. Por lo tanto, cuando el 
paquete entra al segundo LSP en su ingress LSR (esto significa el tercer LSR), ya es 
etiquetado. Este ingress LSR del LSP anidado después empuja una segunda etiqueta 
en el paquete. La pila de etiquetas del paquete en el segundo LSP tiene dos etiquetas 
ahora. La etiqueta superior pertenece al LSP anidado y la etiqueta inferior pertenece al 
LSP que se expande en la red completa MPLS. 
 
39 
 
 
Figura 3.5 Red MPLS con LSPs anidados. 
 
3.6 CLASES DE EQUIVALENCIA DE REENVÍO (FECs) 
Una clase de equivalencia de reenvío (FEC – Forwarding Equivalence Class) es un 
grupo o flujo de paquetes que son reenviados en el mismo camino y son tratados con 
la misma consideración de reenvío. Todos los paquetes pertenecientes al mismo FEC 
tienen la misma etiqueta. No obstante, no todos los paquetes que tienen la misma 
etiqueta pertenecen al mismo FEC porque su valor EXP puede ser diferente; así que 
el tratamiento de reenvío puede ser diferente y pueden pertenecer a un FEC diferente. 
El enrutador que decide que paquete pertenece a que FEC es el ingress LSR. Es 
lógico porque el ingress LSR clasifica y etiqueta los paquetes. 
Algunos ejemplos de FECs son: 
-Paquetes con direcciones de destinos IP igualando un prefijo determinado. 
-Paquetes multicast perteneciendo un determinado grupo. 
-Paquetes con un mismo tratamiento de reenvío. 
-Tramas de capa 2 llevadas a través de una red MPLS recibidas en un VC o 
subinterface en el ingress LSR y transmitido en un VC o subinterface en el egress 
LSR. 
-Paquetes con direcciones IP destino de Capa 3 que pertenecen a un conjunto de 
prefijos de protocolos de pasarela de borde (BGP), todo con el mismo siguiente salto 
BGP. 
En el último ejemplo de un FEC, todos los paquetes en el ingress LSR para el cual la 
dirección IP destino apunta a un conjunto de rutas BGP en la tabla de enrutamiento 
pertenecen a un FEC. Es decir, todos los paquetes que entran a la red MPLS son 
etiquetados dependiendo en cual es el salto siguiente BGP. La figura 3.6 muestra una 
red MPLS en que todos los LSRs de borde corren BGP interno (iBGP). 
40 
 
 
Figura 3.6 Una red MPLS con LSR corriendo BGP o iBGP. 
La dirección IP destino de todos los paquetes IP entrando al ingress LSR serán 
buscadas en la tabla de reenvío IP. Todas estas direcciones pertenece a un conjunto 
de prefijos que son conocidos en la tabla de enrutamiento como prefijos BGP. Varios 
de los prefijos BGP en la tabla de enrutamiento tienen la misma dirección del salto 
siguiente BGP, a saber esto un egress LSR. Todos los paquetes con una dirección IP 
destino para los cuales la búsqueda IP en los recursos de la tabla de enrutamiento a la 
misma dirección de siguiente salto BGP serán mapeados al mismo FEC. Todos los 
paquetes que pertenecen al mismo FEC obtienen la misma etiqueta impuesta por el 
ingress LSR. 
 
3.7 DISTRIBUCIÓN DE ETIQUETAS. 
La primera etiqueta es impuesta por el ingress LSR y la etiqueta pertenece a un LSP. 
El camino del paquete a través de la red MPLS es ligado a ese LSP. Todo lo que 
cambia es que esa etiqueta superior en la pila de etiquetas es intercambiada en cada 
salto. El ingress LSR impone una o más etiquetas en el paquete. Los intermediate 
LSRs intercambian la etiqueta superior (la etiqueta entrante) del paquete recibido 
etiquetado con otra etiqueta (la etiqueta saliente) y transmite el paquete en el enlace 
saliente. El egress LSR del LSP desmonta las etiquetas de este LSP y reenvía el 
paquete. 
En el caso de IPv4 sobre MPLS, que es una red que consiste de LSRs que corren un 
protocolo de pasarela interior o IGP (Como es el caso del protocolo de información de 
enrutamiento [RIP], primero el camino abierto más corto [OSPF], Sistema intermedio a 
41 
 
sistema intermedio [IS-IS] y protocolo de enrutamiento de pasarela interior mejorado 
[EIGRP]). El ingress LSR busca la dirección IPv4 destino de el paquete, impone una 
etiqueta y reenvía el paquete. El siguiente LSR recibe el paquete etiquetado, 
intercambia la etiqueta entrante por una etiqueta saliente y reenvía el paquete. El 
egress LSR remueve la etiqueta y reenvía el paquete IPv4 sin etiquetas en el enlace 
saliente. Para que esto funcione correctamente los LSRs adyacentes debe estar de 
acuerdo en que etiqueta debe usarse para cada prefijo IGP. Por lo tanto, cada 
intermediate LSR debe tener la capacidad de figurar que etiqueta saliente, la etiqueta 
entrante debe ser intercambiada. Esto significa, que se requiere un mecanismo que 
indique a los enrutadores que etiquetas se deben usar cuando se reenvíe un paquete. 
Etiquetas son locales para cada par de enrutadores adyacentes. Las etiquetas no 
tienen significado global a través de la red. Para cada enrutador adyacente esté de 
acuerdo en que etiqueta usar para que prefijo, estos necesitan alguna forma de 
comunicación entre ellos; de otra forma, los enrutadores no reconocen que etiqueta 
saliente es necesaria para igualar que etiqueta entrante. Por lo que es necesario un 
protocolo de distribución de etiquetas. 
Se pueden distribuir etiquetas en dos maneras: 
-Recargar las etiquetas en un protocolo de enrutamiento IP existente. 
-Tener un protocolo separado que distribuya las etiquetas. 
El primer método tiene la ventaja que un nuevo protocolo no es necesario para correr 
en los LSRs pero cada protocolo de enrutamiento IP necesita ser entendido para llevar 
las etiquetas. La gran ventaja de tener un protocolo de enrutamiento que lleve las 
etiquetas es que el enrutamiento y la distribuciónde etiquetas siempre están en 
sincronía. Lo que significa que no se puede tener una etiqueta si el prefijo se 
encuentra perdido y viceversa. También elimina la necesidad de otro protocolo para la 
distribución de etiquetas. La implementación para protocolos de enrutamiento vector 
de distancia (como EIGRP) es completamente plana, ya que cada enrutador origina un 
prefijo de su tabla de enrutamiento. 
Los protocolos de enrutamiento de estado de enlace (como IS-IS y OSPF) no 
funcionan de esa forma. Cada enrutador origina actualizaciones de estado del enlace 
que después son reenviadas y sin alteraciones por todos los enrutadores dentro de un 
área. 
El segundo método, que es correr un protocolo separado para distribución de 
etiquetas tiene la ventaja de ser protocolo de enrutamiento independiente. De la forma 
que sea el protocolo de enrutamiento, si es capaz de distribuir etiquetas o no, un 
protocolo separado distribuye las etiquetas y permite a los protocolos de enrutamiento 
distribuir los prefijos. 
 
 
42 
 
3.8 IP SOBRE ATM. 
El protocolo IP fue conquistando terreno como protocolo de red ante otras 
arquitecturas que se encontraban en uso. El gran auge de la Internet y su explosivo 
crecimiento generó un déficit de ancho de banda, ya que las redes dorsales IP de 
los proveedores de servicio estaban construidos con enrutadores conectados por 
líneas dedicadas, lo que ocasionaba congestión y saturación de las redes. Por lo que 
se requirieron otras alternativas de ingeniería de tráfico. 
La respuesta de los proveedores de servicio de Internet o ISPs fue el incremento 
del número y de la capacidad de los enlaces. Del mismo modo, se plantearon la 
necesidad de aprovechar mejor los recursos de red existentes, sobre todo la 
utilización eficaz del ancho de banda de todos los enlaces. Con los protocolos 
habituales de encaminamiento (basados en métricas del menor número de saltos), 
ese aprovechamiento del ancho de banda global no resultaba efectivo. 
Por lo tanto, los esfuerzos se centraron en aumentar el rendimiento de los 
enrutadores tradicionales, tratando de combinar de diversas maneras, la eficacia y 
rentabilidad de los conmutadores ATM con las capacidades de control de IP. 
A favor de integrar conmutación y enrutamiento, estaban las infraestructuras de 
redes ATM que comenzaban a desplegar los operadores de telecomunicación. Estas 
redes ofrecían entonces una buena solución a los problemas de crecimiento de los 
ISPs. Por un lado, proporcionaba mayores velocidades y además, las características 
de respuesta determinanticas de los circuitos virtuales ATM posibilitaban la 
implantación de soluciones de ingeniería de tráfico. El modelo de red "IP sobre 
ATM" (IP/ATM) pronto ganó adeptos entre la comunidad de ISPs, a la vez que 
facilitó la entrada de los operadores telefónicos en la provisión de servicios IP y 
de conexión a la Internet al por mayor. 
El funcionamiento IP/ATM supone la superposición de una topología virtual de 
enrutadores IP sobre una topología real de conmutadores ATM. Cada enrutador 
se comunica con el resto mediante los circuitos virtuales permanentes (PVC) que 
se establecen sobre la topología física de la red ATM, desconociendo la topología 
real de la infraestructura ATM que sustenta los PVC. 
La base del modelo IP/ATM está en la funcionalidad proporcionada por el nivel ATM, 
es decir, los controles de software (señalización y enrutamiento) y el envío de las 
celdas por hardware (conmutación). En realidad los circuitos (PVCs) se establecen a 
base de intercambiar etiquetas en cada conmutador de la red, por lo tanto asociando 
etiquetas entre todos los elementos ATM se determinan los PVCs. 
El intercambio de etiquetas es uno de los componentes fundamentales en la 
arquitectura MPLS. Las etiquetas tienen solamente significado local en los 
conmutadores y son la base de la rapidez en la conmutación de celdas. La potencia 
de esta solución de topologías superpuestas está en la infraestructura ATM de la 
red dorsal; el papel de los enrutadores IP queda relegado a la periferia, que, a mitad 
43 
 
de los 90, tenían una calidad cuestionable, al estar basados en funcionamiento por 
software. 
La solución de superponer IP sobre ATM permite aprovechar la infraestructura ATM 
existente. Las ventajas inmediatas son el ancho de banda disponible a precios 
competitivos y la rapidez de transporte de datos que proporcionan los conmutadores. 
En los casos de ISPs de primer nivel que poseen y operan la red dorsal ATM para 
ofrecer el servicio de sus redes IP, los caminos físicos de los PVCs se calculan a 
partir de la necesidades del tráfico IP, utilizando la clase de servicio ATM UBR (UBR 
- Unspecified Bit Rate), ya que en este caso el ATM se utiliza solamente como 
infraestructura de transporte de alta velocidad (no hay necesidad de apoyarse en 
los mecanismos inherentes de ATM para control de la congestión y clases de servicio). 
La ingeniería de tráfico se hace a base de proporcionar a los enrutadores los 
PVCs necesarios con una topología lógica entre enrutadores totalmente 
superpuestos. El "punto de encuentro" entre la red IP y a ATM está en el 
acoplamiento de las subinterfaces en los enrutadores con los PVCs, a través de los 
cuales se intercambian los enrutadores la información de enrutamiento 
correspondiente al protocolo interno IGP. Lo habitual es que, entre cada par de 
enrutadores, haya un PVC principal y otro de respaldo, que entra automáticamente en 
funcionamiento cuando falla el principal. 
El modelo IP/ATM tiene también sus inconvenientes: se debe gestionar dos redes 
diferentes, una infraestructura ATM y una red lógica IP superpuesta, lo que supone a 
los proveedores de servicio unos mayores costos de gestión global de sus redes. 
Existe, además, lo que se llama la "tasa impuesta por la celda", una cabecera 
aproximada del 20% que causa el transporte de datagramas IP sobre las celdas 
ATM y que reduce en ese mismo porcentaje el ancho de banda disponible. Por otro 
lado, la solución IP/ATM presenta los típicos problemas de crecimiento exponencial 
n x (n-1) al aumentar el número de nodos IP sobre una topología completamente 
superpuestas. Debido al crecimiento exponencial de rutas el protocolo de pasarela 
interior debe realizar un mayor esfuerzo. 
 
3.9 CONMUTACIÓN DE PAQUETES 
Es la respuesta a los requerimientos de mantener una convergencia entre el 
enrutamiento de IP y la conmutación ATM. El nombre de conmutación de IP (IP 
switching) engloba dos términos antagónicos. IP: un protocolo no orientado a 
conexión, basado en enrutamiento, y Conmutación: método empleado por las redes 
ATM, gracias a la cual son posibles todas sus funcionalidades. Se basa en un 
mecanismo de intercambio de etiquetas al igual que Tag Switching. 
Se caracteriza por no ocultar la verdadera topología de la red a la capa IP, evitando, 
entre otras cosas complejidad y duplicación de funcionalidad. Sin embargo, ciertos 
artículos que analizan pruebas sobre este sistema indican que el protocolo no ha sido 
44 
 
lo suficientemente cuidadoso con el manejo de direcciones. Esto conlleva a que su 
escalabilidad se ve limitada en redes grandes debido al gran número de circuitos 
virtuales que se requieren para cada conexión. 
La convergencia continuada hacia IP de todas las aplicaciones existentes, junto a los 
problemas de rendimiento derivados de la solución IP/ATM, llevaron posteriormente a 
que varios fabricantes desarrollaran técnicas para realizar la integración de niveles de 
forma efectiva, sin las discontinuidades señaladas anteriormente. Esas técnicas se 
conocieron como "conmutación IP" (IP switching) o "conmutación multinivel" 
(multilayer switching). Una serie de tecnologías privadas condujeron finalmente a la 
adopción del actual MPLS. El problema que presentaban soluciones anteriores era la 
falta de interoperatividad, ya que usaban diferentes

Otros materiales