Вы находитесь на странице: 1из 19

Cisco has refined a hierarchical approach to network design that enables network designers

to organize the network into distinct layers of devices. The resulting network is efficient,
intelligent, scalable, and easily managed

Access Layer
The access layer exists where the end users are connected to the network. Access switches
usually provide Layer 2 (VLAN) connectivity between users. Devices in this layer,
sometimes called building access switches, should have the following capabilities:
■ Low cost per switch port
■ High port density
■ Scalable uplinks to higher layers
■ High availability
■ Ability to converge network services (that is, data, voice, video)
■ Security features and quality of service (QoS)

Distribution Layer
The distribution layer provides interconnection between the campus network’s access
and core layers. Devices in this layer, sometimes called building distribution switches ,
should have the following capabilities:
■ Aggregation of multiple access layer switches
■ High Layer 3 routing throughput for packet handling
■ Security and policy-based connectivity functions
■ QoS features
■ Scalable and redundant high-speed links to the core and access layers
In the distribution layer, uplinks from all access layer devices are aggregated, or come
together. The distribution layer switches must be capable of processing the total volume
of traffic from all the connected devices. These switches should have a high port density
of high-speed links to support the collection of access layer switches.
VLANs and broadcast domains converge at the distribution layer, requiring routing, filtering,
and security. The switches at this layer also must be capable of routing packets with
high throughput.
Notice that the distribution layer usually is a Layer 3 boundary, where routing meets the
VLANs of the access layer.

Core Layer
A campus network’s core layer provides connectivity between all distribution layer devices.
The core, sometimes referred to as the backbone, must be capable of switching traffic
as efficiently as possible. Core switches should have the following attributes:
■ Very high Layer 3 routing throughput
■ No costly or unnecessary packet manipulations (access lists, packet filtering)

Redundancy and resilience for high availability


■ Advanced QoS functions
Devices in a campus network’s core layer or backbone should be optimized for high-performance
switching. Because the core layer must handle large amounts of campus-wide
data, the core layer should be designed with simplicity and efficiency in mind.
Although campus network design is presented as a three-layer approach (access, distribution,
and core layers), the hierarchy can be collapsed or simplified in certain cases.
For example, small or medium-size campus networks might not have the size or volume
requirements that would require the functions of all three layers. In that case, you could
combine the distribution and core layers for simplicity and cost savings. When the distribution
and core layers are combined into a single layer of switches, a collapsed core
network results.
To maintain organization, simplicity, and predictability, you can design a campus network
in a logical manner, using a modular approach. In this approach, each layer of the hierarchical
network model can be broken into basic functional units. These units, or modules,
can then be sized appropriately and connected, while allowing for future scalability and
expansion.
You can divide enterprise campus networks into the following basic elements or building
blocks:
■ Switch block: A group of access layer switches, together with their distribution
switches. This is also called an access distribution block , named for the two switch
layers that it contains. The dashed rectangle in Figures 1-8 through 1-10 represent
typical switch blocks.
■ Core: The campus network’s backbone, which connects all switch blocks.

Instead, switch block size should be based primarily on the following:


■ Traffic types and behavior
■ Size and number of common workgroups
Because of the dynamic nature of networks, you can size a switch block too large to handle
the load that is placed on it. Also, the number of users and applications on a network
tends to grow over time. A provision to break up or downsize a switch block might be
necessary as time passes. Again, base these decisions on the actual traffic flows and patterns
present in the switch block. You can estimate, model, or measure these parameters
with network-analysis applications and tools.

Generally, a switch block is too large if the following conditions are observed:
■ The routers (multilayer switches) at the distribution layer become traffic bottlenecks.
This congestion could be because of the volume of inter-VLAN traffic, intensive
CPU processing, or switching times required by policy or security functions (access
lists, queuing, and so on).
■ Broadcast or multicast traffic slows the switches in the switch block. Broadcast and
multicast traffic must be replicated and forwarded out many ports simultaneously.
This process requires some overhead in the multilayer switch, which can become too
great if significant traffic volumes are present.
You should become familiar with a few best practices that can help with a redundant hierarchical
network design:
■ Design each layer with pairs of switches.
■ Connect each switch to the next higher layer with two links for redundancy.
■ Connect each pair of distribution switches with a link, but do not connect the access
layer switches to each other (unless the access switches support some other means to
function as one logical stack or chassis).
■ Do not extend VLANs beyond distribution switches. The distribution layer should
always be the boundary of VLANs, subnets, and broadcasts. Although Layer 2
switches can extend VLANs to other switches and other layers of the hierarchy, this
activity is discouraged. VLAN traffic should not traverse the network core.

A core should consist of two multilayer switches that connect two or more switch blocks
in a redundant fashion. A redundant core is sometimes called a dual core because it is
usually built from two identical switches. Figure 1-16 illustrates the core. Notice that this
core appears as an independent module and is not merged into any other block or layer.
Chapter 2
Layer 2 Switch Operation
Consider a simple network that is built around many hosts that all share the same available
bandwidth. This is known as a shared media network and was used in early legacy
LANs made up of Ethernet hubs. The carrier sense multiple access collision detect
(CSMA/CD) scheme determines when a device can transmit data on the shared LAN.

When more than one host tries to talk at one time, a collision occurs, and everyone must
back off and wait to talk again. This forces every host to operate in half-duplex mode,
by either talking or listening at any given time. In addition, when one host sends a frame,
all connected hosts hear it. When one host generates a frame with errors, everyone hears
that, too. This type of LAN is a collision domain because all device transmissions are
susceptible to collisions.

An Ethernet switch operates at OSI Layer 2, making decisions about forwarding frames
based on the destination MAC addresses found within the frames. This means that the
Ethernet media is no longer shared among connected devices. Instead, at its most basic
level, an Ethernet switch provides isolation between connected hosts in several ways:

■ The collision domain’s scope is severely limited. On each switch port, the collision
domain consists of the switch port itself and the devices directly connected to that
port—either a single host or, if a shared-media hub is connected, the set of hosts
connected to the hub.
■ Host connections can operate in full-duplex mode because there is no contention on
the media. Hosts can talk and listen at the same time.
■ Bandwidth is no longer shared. Instead, each switch port offers dedicated bandwidth
across a switching fabric to another switch port. (These frame forwarding paths
change dynamically.)
■ Errors in frames are not propagated. Each frame received on a switch port is checked
for errors. Good frames are regenerated when they are forwarded or transmitted.
This is known as store-and-forward switching technology: Packets are received,
stored for inspection, and then forwarded.
■ You can limit broadcast traffic to a volume threshold.
■ Other types of intelligent filtering or forwarding become possible.

Incoming frames also include the destination MAC address. Again, the switch looks up
this address in the address table, hoping to find the switch port and VLAN where the
destination address is attached. If it is found, the frame can be forwarded out the corresponding
switch port. If the address is not found in the table, the switch must take more
drastic action: The frame is forwarded in a “best effort” fashion by flooding it out all
switch ports assigned to the source VLAN. This is known as unknown unicast flooding ,
because the location of the unicast destination is unknown

As the ingress queues are serviced and a frame is pulled off, the switch must figure out
not only where to forward the frame, but also whether it should be forwarded and
how . Three fundamental decisions must be made: one concerned with finding the egress
switch port, and two concerned with forwarding policies. All these decisions are made
simultaneously by independent portions of switching hardware and can be described as
follows:
■ L2 forwarding table: The frame’s destination MAC address is used as an index, or
key, into the content-addressable memory (CAM), or address, table. If the address is
found, the egress switch port and the appropriate VLAN ID are read from the table.
(If the address is not found, the frame is marked for flooding so that it is forwarded
out every switch port in the VLAN.)
■ Security ACLs: Access control lists (ACLs) can be used to identify frames according
to their MAC addresses, protocol types (for non-IP frames), IP addresses, protocols,
and Layer 4 port numbers. The ternary content-addressable memory (TCAM) contains
ACLs in a compiled form so that a decision can be made on whether to forward
a frame in a single table lookup.
■ QoS ACLs: Other ACLs can classify incoming frames according to quality of service
(QoS) parameters, to police or control the rate of traffic flows, and to mark QoS
parameters in outbound frames. The TCAM is also used to make these decisions in a
single table lookup.

Caché de ruta: la primera generación de MLS, que requiere un procesador de ruta (RP) y un motor de
conmutación (SE). El RP debe procesar el primer paquete de flujo de tráfico para determinar el destino. El SE
escucha el primer paquete y el destino resultante, y luego configura una entrada de "acceso directo" en su
caché MLS. El SE reenvía los paquetes posteriores que pertenecen al mismo flujo de tráfico en función de las
entradas de acceso directo en su caché. Este tipo de MLS también se conoce con el nombre de conmutación
LAN NetFlow, conmutación basada en flujo o basada en demanda, y enrutar una vez, cambiar muchas. El RP
debe examinar cada flujo de tráfico nuevo y configurar entradas de acceso directo para el SE. Incluso si este
método no se usa para reenviar paquetes en los switches Catalyst basados en Cisco IOS, la técnica aún se
puede usar para generar información y estadísticas de flujo de tráfico.

Basado en topología: la segunda generación de MLS, que utiliza hardware especializado, también está
organizada con distintas funciones RP y SE. El RP utiliza información de enrutamiento de capa 3 para
construir y rellenar previamente una sola base de datos de toda la topología de red conocida. Esta base de
datos se convierte en una tabla eficiente de búsqueda en hardware, y se consulta para que el SE pueda
reenviar paquetes a altas velocidades. La coincidencia más larga encontrada en la base de datos se utiliza
como el destino correcto de la capa 3. A medida que la topología de enrutamiento cambia con el tiempo, la
base de datos contenida en el hardware se puede actualizar dinámicamente sin penalización de rendimiento.
Aunque las funciones RP y SE dentro de un conmutador multicapa interactúan, pueden operar de manera
independiente, como si estuvieran en diferentes "planos". El plano de control de un conmutador incluye el RP
y cualquier proceso que se ejecute para controlar o administrar el conmutador, mientras que el plano de datos
existe en el SE, donde se reenvían los datos.

Tabla de reenvío L2: la dirección MAC de destino se utiliza como índice en la tabla CAM. Si la trama contiene
un paquete de capa 3 que debe reenviarse de una subred a otra, la dirección MAC de destino contendrá la
dirección de un puerto de capa 3 en el propio conmutador. En este caso, los resultados de la tabla CAM se
usan solo para decidir que el marco debe procesarse en la Capa 3.

■ Tabla de reenvío L3: se consulta la tabla FIB, utilizando la dirección IP de destino como índice. Se
encuentra la coincidencia más larga en la tabla (dirección y máscara), y se obtiene la dirección de capa 3 del
siguiente salto resultante. La FIB también contiene la dirección MAC de Capa 2 de cada enrutador del
siguiente salto y el puerto del conmutador de salida (y la ID de VLAN) para que no sean necesarias más
búsquedas en la tabla

Para reenviar paquetes utilizando los procesos de decisión simultáneos descritos en la sección anterior, el
paquete debe estar "listo para MLS" y no debe requerir decisiones adicionales. Por ejemplo, CEF puede
reenviar directamente la mayoría de los paquetes IP e IPv6 entre hosts. Esto ocurre cuando las direcciones de
origen y destino (tanto MAC como IP) ya son conocidas y no se deben manipular otros parámetros IP.

CEF no puede reenviar directamente otros paquetes y deben manejarse con más detalle. Esto se realiza
mediante una inspección rápida durante las decisiones de envío. Si un paquete cumple con criterios como los
siguientes, se marca para su posterior procesamiento y se envía o "puntea" a la CPU del conmutador para el
cambio de proceso

TACM TABLE

Extisten 2 tipos de componentes que son parte de la TCAM

Feature Manager (FM): después de que se haya creado o configurado una lista de acceso, el software
Feature Manager compila o fusiona las ACE en entradas en la tabla TCAM. La TCAM se puede consultar a
toda velocidad de reenvío de fotogramas.

Administrador de bases de datos de conmutación (SDM): en algunos modelos de conmutadores Catalyst, la


TCAM se divide en varias áreas que admiten diferentes funciones. El software SDM configura o ajusta las
particiones TCAM, si es necesario, para proporcionar un amplio espacio para funciones de conmutación
específicas. (La TCAM se repara en las plataformas Catalyst 4500 y 6500 y no se puede volver a particionar).

El TCAM siempre está organizado por máscaras, donde cada máscara única tiene ocho patrones de valores
asociados. Por ejemplo, el Catalyst 6500 TCAM (uno para ACL de seguridad y otro para ACL de QoS)
contiene hasta 4096 máscaras y 32.768 patrones de valor. El truco es que cada uno de los pares de valores
de máscara se evalúa simultáneamente, o en paralelo, revelando la mejor o más larga coincidencia en una
sola búsqueda de tabla.
La tabla TCAM en los switchs de capa 2, se usa para guardar las access-lists basadas en
direcciones MAC y también las access-lists usadas en la configuración de QoS.

La tabla TCAM en los switchs de capa 3, se usa para guardar las access-lists basadas en
direcciones IP y los puertos. Como en los equipos de capa 2 acá también las access-lists
usadas en la configuración de QoS.

De la misma manera que ocurre en la CAM, la TCAM queda guardada en la memoria RAM.

La TCAM es mucho más compleja que la CAM, y un mismo switch suele tener más de una
TCAM: una para el tráfico entrante, otra para el tráfico saliente, una más para el QoS y
puede tener otras más acorde a su configuración.

La TCAM tiene 3 campos, Valor, Mascara y resultado.

 Valor – Es un campo de 134 bits que contiene direcciones de origen, destino e


información relevante del protocolo utilizado.
 Mascara – Es otro campo de 134 bits que se usa para hacer comparaciones.
 Resultado – Es el valor numérico que representa las acciones que el equipo va a
tomar; dicha acción puede ser: permitir, denegar, o acciones más amplias.

La TCAM no puede ser configurada, pero, en algunos switches podemos cambiar el tamaño
que tenga la TCAM, optimizando su estructura para una funcionalidad específica.

Para hacer eso se utiliza el comando:

Switch (config) # sdm prefer ?


Port Operation de ACE capa 4 (LOU)

El administrador de características verifica todas las ACE para la operación de capa 4 y las
coloca en pares de registros LOU. Estos se pueden cargar con operaciones, independientes
de cualquier otro parámetro ACE. El contenido de LOU se puede reutilizar si otras ACE
necesitan las mismas comparaciones

y valores. Después de cargar las LOU, se hace referencia a ellas en las entradas de TCAM
que las necesitan. Esto se muestra en las LOU A1 y el par B1: 2. Un número finito (en
realidad, un número bastante pequeño) de LOU está disponible en la TCAM, por lo que el
software Feature Manager debe usarlos con cuidado.

Las TCAM tienen un número limitado de máscaras utilizables, patrones de valores y


entradas de LOU. Si las listas de acceso crecen para ser grandes o se necesitan muchas
operaciones de Capa 4, las tablas y registros de TCAM pueden desbordarse. Si eso sucede
mientras configura una ACL, el conmutador generará mensajes de syslog que marcan la
situación de desbordamiento de TCAM cuando intenta compilar la ACL en entradas de
TCAM.

Administrar tamaños de tabla de conmutación

Los switches Cisco de alta gama están diseñados para una conmutación eficiente de
múltiples capas en cualquier ubicación dentro de una red. Por ejemplo, los versátiles
modelos Catalyst 4500 y 6500 pueden usarse igualmente bien en el núcleo, la distribución
o la capa de acceso porque su hardware contiene amplios motores de conmutación y
espacio de tabla para cualquier aplicación. Otros modelos, como el 2960, 3750 y 3850,
tienen una arquitectura fija con espacio de tabla de conmutación limitado. los

CAM, FIB y otras tablas deben compartir recursos; para que una mesa crezca, las otras
deben hacerlo más pequeñas. Afortunadamente, puede seleccionar un tipo preferido de
conmutación que, a su vez, afecta el tamaño relativo de las tablas de conmutación. Para
sobresalir en la conmutación de capa 2, la tabla CAM debe aumentar de tamaño, mientras
que el espacio de la tabla de enrutamiento o FIB debe disminuir. Si se usa un interruptor
para enrutar el tráfico, su espacio de tabla FIB debería crecer y su tabla CAM debería
reducirse. El SDM gestiona las particiones de memoria en un conmutador. Puedes mostrar
la partición actual

preferencia y un desglose de tamaños de tabla con el siguiente comando EXEC:

Cambiar # show sdm preferir


El ejemplo 2-6 muestra que el conmutador funciona con la plantilla de memoria
"predeterminada de escritorio", que está diseñada para la capa de acceso. Según los
números, la plantilla predeterminada del escritorio proporciona una combinación equilibrada
de la capa 2 (direcciones MAC de unidifusión o la tabla CAM) y la capa 3 (rutas de
unidifusión IPv4 o la tabla FIB), además de las ACL de IPv4 y un soporte mínimo para IPv6.
CHAPTER 3

Ethernet Overview
La conmutación de Ethernet resuelve este problema al dividir un segmento compartido en muchos
segmentos individuales. Un conmutador Ethernet puede asignar una cantidad dedicada de ancho
de banda a cada una de sus interfaces o puertos. El aumento del rendimiento de la red resultante
se produce al reducir el número de usuarios conectados a un segmento Ethernet. En efecto, las
colisiones son menos probables y el dominio de colisión se reduce en tamaño. Idealmente, cada
puerto del conmutador está conectado a un solo usuario final, lo que a su vez limita el dominio de
colisión a ese único puerto del conmutador. Debido a que la Ethernet conmutada puede eliminar
la posibilidad de colisiones, las estaciones no tienen que escucharse entre sí para turnarse en la
transmisión por cable. En cambio, las estaciones pueden operar en modo full-duplex,
transmitiendo y recibiendo simultáneamente. El modo dúplex completo aumenta aún más el
rendimiento de la red al duplicar efectivamente el rendimiento neto en cada puerto del
conmutador.

Fast Ethernet

Fast Ethernet admite un máximo de 100 Mbps de par no retorcido (UTP) o cableado de fibra
óptica. La Tabla 3-3 enumera las especificaciones para Fast Ethernet que definen los tipos de
medios y las distancias. Observe que el cableado UTP está limitado a 100 metros, que es idéntico
al Ethernet original de 10 Mbps.
Puede escalar una red Fast Ethernet en un orden de magnitud adicional con Gigabit Ethernet (que
admite 1000 Mbps o 1 Gbps) utilizando el mismo formato de trama Ethernet IEEE 802.3 que antes.
Sin embargo, la capa física se ha modificado para aumentar las velocidades de transmisión de
datos. Se fusionaron dos tecnologías para obtener los beneficios de cada una: el estándar Ethernet
IEEE 802.3 y el canal de fibra X3T11 del Instituto Nacional Estadounidense de Estándares (ANSI).
IEEE 802.3 proporcionó la base del formato de trama, CSMA / CD, dúplex completo y otras
características de Ethernet. Fibre Channel proporcionó una base de circuitos integrados de alta
velocidad específicos para aplicaciones (ASIC), componentes ópticos y mecanismos de codificación
/ decodificación y serialización. Gigabit Ethernet admite varios tipos de cableado, denominados
1000BASE-X. La Tabla 3-4 enumera las especificaciones de cableado para cada tipo.

Transceiver types are denoted by a two-letter suffix. The first letter specifies the wavelength used: S =
short, L = long, E = extra-long wavelength. The second letter specifies the PHY type: R = LAN PHY, W
= WAN PHY. For LX4 and LW4, L refers to a long wavelength, X and W refer to the coding used, and 4
refers to the number of wavelengths transmitted. WWDM is wide-wavelength division multiplexing.
Cisco Catalyst switches supported 10-Gigabit Ethernet PMDs in the form of XENPAK,
X2, and SFP+ transceivers. Generally, the X2 form factor is smaller than the XENPAK,
and the SFP+ is smaller still, allowing more port density on a switch module
La velocidad del enlace se determina mediante señalización eléctrica, de modo que
cualquier extremo de un enlace puede determinar qué velocidad está tratando de
usar el otro extremo. Si ambos extremos del enlace están configurados para
autonegociar, utilizarán la velocidad más alta que les es común.

Si falla la negociación automática dúplex, un puerto del conmutador siempre vuelve


a su configuración predeterminada, semidúplex, porque ofrece la seguridad de la
detección de colisiones.

Debido a que este puerto está negociando automáticamente la velocidad del


enlace, debe haber detectado una señal eléctrica que indicaba 100 Mbps en común
con el host. Sin embargo, el host probablemente se configuró para 100 Mbps en
dúplex completo (sin negociación automática). El conmutador fue incapaz de
intercambiar información dúplex, por lo que volvió a su valor predeterminado de
half duplex. Nuevamente, asegúrese siempre de que ambos extremos de una
conexión estén configurados en la misma velocidad y modo dúplex.
CDP y LLDP

El Link Layer Discovery Protocol (LLDP) es similar al CDP, pero se basa en el estándar IEEE 802.1ab.
Como resultado, LLDP funciona en redes de múltiples proveedores. También es extensible porque
la información se anuncia agrupando atributos en estructuras Tipo-Longitud-Valor (TLV). Por
ejemplo, un dispositivo puede anunciar el nombre de su sistema con un TLV, su dirección de
administración en otro TLV, su descripción de puerto en otro TLV, sus requisitos de alimentación
en otro TLV, etc. El anuncio LLDP se convierte en una cadena de varios TLV que el dispositivo
receptor puede interpretar. LLDP también admite TLV adicionales que son exclusivos de
dispositivos audiovisuales como teléfonos VoIP. Los TLV del dispositivo de punto final de medios
LLDP (LLDP-MED) llevan información útil del dispositivo, como una política de red con números de
VLAN e información de calidad de servicio necesaria para el tráfico de voz, administración de
energía, administración de inventario y datos de ubicación física.

LLDP admite los TLV LLDP-MED de forma predeterminada, pero no puede enviar los TLV básicos y
MED simultáneamente en un puerto de conmutador. En cambio, LLDP envía solo los TLV básicos a
los dispositivos conectados. Si un conmutador recibe los TLV LLDP-MED de un dispositivo,
comenzará a enviar los TLV LLDP-MED nuevamente al dispositivo. Por defecto, LLDP está
deshabilitado globalmente en un switch Catalyst. Para ver si se está ejecutando actualmente o no,
use el comando show lldp. Puede habilitar o deshabilitar LLDP con los comandos de configuración
global lldp run y no lldp run, respectivamente. Use el siguiente comando para mostrar información
sobre anuncios LLDP que ha recibido un conmutador.

POE
Una solución más elegante está disponible como alimentación en línea o alimentación a través de
Ethernet (PoE). Aquí, se proporciona un suministro de 48 V CC a un dispositivo a través del mismo
cable de par trenzado sin blindaje que se utiliza para la conectividad Ethernet. La fuente de
alimentación de CC es el interruptor Catalyst en sí. No se necesita ninguna otra fuente de
alimentación a menos que se requiera un adaptador de CA como fuente redundante

El interruptor comienza suministrando un pequeño voltaje a través de los pares de transmisión y


recepción de la conexión de par trenzado de cobre. Luego puede medir la resistencia a través de
los pares para detectar si el dispositivo extrae corriente. Por ejemplo, si se mide una resistencia de
25K ohmios, de hecho hay un dispositivo alimentado. El interruptor también puede aplicar varios
voltajes predeterminados para probar los valores de resistencia correspondientes. El dispositivo
alimentado aplica estos valores para indicar a cuál de las cinco clases de energía PoE pertenece.
Sabiendo esto, el interruptor puede comenzar a asignar la potencia máxima adecuada que
necesita el dispositivo.
La clase 0 predeterminada se usa si el conmutador o el dispositivo con alimentación no admite o
no intenta el descubrimiento opcional de la clase de alimentación. La clase 4 representa el rango
de potencia más alto (hasta 30 W) que se puede ofrecer a un dispositivo. Normalmente, un
conmutador ofrecerá un máximo de 15.4W por puerto. Una vez que el conmutador comienza a
ofrecer energía en el puerto, el dispositivo puede encender todo o una parte de sus circuitos. Si se
necesita energía adicional, el dispositivo puede informar al conmutador a través de anuncios CDP
o LLDP y solicitar hasta los 30 W completos permitidos para la clase 4 de PoE. En un conmutador
Catalyst que puede admitir la característica UPoE patentada de Cisco, un dispositivo con
alimentación puede solicitar más de 30W de potencia. El dispositivo puede usar TLV especiales con
CDP o LLDP para solicitar UPoE hasta un máximo de 60W. En el momento de la publicación, solo el
Catalyst 4500 ofrece UPoE.
VLAN

Aunque el rango extendido de números de VLAN le permite admitir más VLAN en su red,
existen algunas limitaciones. Por ejemplo, un conmutador normalmente mantiene las definiciones
de VLAN en un archivo de base de datos especial, separado de la configuración del conmutador. El
VLAN Trunking Protocol (VTP) utiliza la base de datos de VLAN para que las definiciones de VLAN
puedan anunciarse y compartirse entre conmutadores a través de enlaces troncales. Cuando se
crean VLAN de rango extendido, no se almacenan en el archivo de base de datos de VLAN. ¿Por
qué importa esto? Mientras el conmutador permanezca en modo transparente VTP, se pueden
usar las VLAN extendidas. Sin embargo, si el switch se configura posteriormente para participar en
VTP como servidor o cliente, debe eliminar manualmente las VLAN extendidas. Para los puertos de
conmutador que se asignaron a las VLAN extendidas, también debe reconfigurarlos para la
membresía de VLAN dentro del rango normal de VLAN.

Para implementar las VLAN, debe tener en cuenta la cantidad de VLAN que necesita y la mejor
manera de ubicarlas. Como de costumbre, la cantidad de VLAN depende de los patrones de
tráfico, los tipos de aplicaciones, la segmentación de grupos de trabajo comunes y los requisitos de
administración de la red

Las VLAN de extremo a extremo no se recomiendan en una red empresarial, a menos que haya
una buena razón. En una VLAN de extremo a extremo, el tráfico de transmisión se transfiere de un
extremo a otro de la red, creando la posibilidad de que una tormenta de transmisión o un bucle de
puente de capa 2 se extienda por toda la extensión de una VLAN. Esto puede agotar el ancho de
banda de los enlaces de distribución y de la capa central, así como también cambiar los recursos
de la CPU. En ese caso, la tormenta o el bucle habrá interrumpido a todos los usuarios en la VLAN
de extremo a extremo, además de los usuarios en otras VLAN que podrían estar cruzando el
núcleo para llegar a los recursos en el otro lado. Se vuelve más difícil. En otras palabras, los riesgos
de las VLAN de extremo a extremo superan la conveniencia y los beneficios.
Vlan Locales

Debido a que la mayoría de las redes empresariales se han movido hacia la regla 20/80 (donde el
servidor y los recursos de la intranet / Internet están centralizados), las VLAN de extremo a
extremo se han vuelto engorrosas y difíciles de mantener. La regla 20/80 invierte el patrón de
tráfico de la VLAN de extremo a extremo: solo el 20 por ciento del tráfico es local, mientras que el
80 por ciento está destinado a un recurso remoto a través de la capa central. Los usuarios finales
generalmente requieren acceso a recursos centrales fuera de su VLAN. Los usuarios deben cruzar
al núcleo de la red con mayor frecuencia para llegar a los recursos centralizados. En este tipo de
red, las VLAN deben diseñarse para contener comunidades de usuarios basadas en límites
geográficos, sin tener en cuenta la cantidad de tráfico que sale de la VLAN. Las VLAN locales o
geográficas varían en tamaño desde un solo conmutador en un armario de cableado hasta un
edificio completo. Organizar las VLAN de esta manera permite que la función de Capa 3 en la red
del campus maneje de manera inteligente las cargas de tráfico entre VLAN, donde el tráfico pasa al
núcleo. Este escenario proporciona la máxima disponibilidad mediante el uso de múltiples rutas a
los destinos, la máxima escalabilidad al mantener la VLAN dentro de un bloque de conmutadores y
la máxima capacidad de administración. La Figura 4-2 muestra una VLAN local. Observe cómo se
limita a un solo bloque de conmutador, creando un dominio de falla muy pequeño en
comparación con la VLAN de extremo a extremo. Como práctica recomendada, siempre debe
intentar construir VLAN locales y mantenerlas limitadas dentro de un único bloque de
conmutadores.

Вам также может понравиться