Вы находитесь на странице: 1из 139

Fundamentos de redes

En esta primera unidad vamos a tratar conceptos fundamentales de la comunicación de


ordenadores, que no son específicos o exclusivos de redes locales, sino de redes en general. Algunos
conceptos ya se vieron en la unidad 0, pero insistiremos en ellos.

Conceptos básicos de redes


Se define formalmente telecomunicación como toda transmisión, emisión o recepción de
señales que representen signos, imágenes, sonidos o informaciones de cualquier tipo que se
realicen a través de hilos, medios ópticos, radioeléctricos u otros sistemas electromagnéticos.
Por su parte, una red de transmisión de datos es una estructura formada por determinados
medios físicos (dispositivos reales) y lógicos (programas de transmisión y control) desarrollada
para satisfacer las necesidades de comunicación de una determinada zona geográfica. Se trata,
pues, de un soporte que permite la conexión de diversos equipos informáticos (o cualquier otro
dispositivo electrónico) con el objetivo de suministrarles la posibilidad de que intercambien
informaciones.
La base de cualquier comunicación es una transmisión de señal. A través del medio o
cableado de la red se pueden transmitir señales adecuadas a la naturaleza del mismo, pero la red no
sólo debe entregar esta señal en su destino, sino que además debe garantizar que la información que
originó el emisor llega al receptor tal cual, de manera que el mensaje permanezca íntegro durante el
recorrido.
La señal recibida por el receptor es la suma de la señal enviada por el emisor más una
componente de ruido que se suma durante su circulación a través de la red. Por lo tanto, habrá que
introducir mecanismos de detección y corrección de errores. En la mayoría de los casos, todos los
errores producidos no pueden ser corregidos, pero sí la mayoría de ellos. El límite se sitúa teniendo
en cuenta el máximo aceptable por el usuario y el coste de la instalación de la red.
Hay que tener en cuenta que una red de transmisión de datos no está formada única y
exclusivamente por el medio de transmisión. El problema fundamental consiste en organizar toda la
estructura cuando existe una gran cantidad de equipos y/o usuarios. En estas condiciones, es
necesario un mecanismo que establezca comunicaciones entre distintos usuarios y/o equipos,
incluso a través de un mismo cable.
Por lo tanto, encontramos tres sistemas en una red de transmisión de datos:
• Sistema de transmisión: es la estructura básica que soporta el transporte de señales por la
red.
• Sistema de conmutación: mecanismo que permite el encaminamiento de la información
hacia su destino. Normalmente va a existir un medio limitado para la comunicación, por lo
que éste deberá ser compartido por varios emisores y receptores.
• Sistema de señalización: para que la comunicación sea posible, es necesario que exista un
sistema de inteligencia distribuido por la red que sincronice todos los recursos que se
encuentran en ella. Este control se lleva a cabo enviando determinadas señales a los distintos
elementos que intervienen en la comunicación.
Una red de computadoras o informática es una red de trasmisión de datos entre ordenadores
que cumplen dos características:
• se encuentran interconectados mediante algún medio de transmisión (es decir, pueden
intercambiar señales y por tanto información);
• son autónomos, es decir, tienen una cierta capacidad de cálculo (pueden realizar procesado
de datos) y no son controlados por otros ordenadores centrales.
Muchos grandes ordenadores centrales son utilizados por los usuarios a través de un monitor
y un teclado (lo que se denomina terminal), un sistema que no se considera una red informática ya
que solamente existe un ordenador que realiza los cálculos.

Elementos de una red informática


En una red informática participan muchos elementos, entre los que destacamos.
 Ordenadores, Terminales o Estaciones. Son los “usuarios” de la red, es decir, los que la
usan para enviar y recibir información de otros ordenadores. Para tener una red son
necesarios varios ordenadores independientes, es decir, que puedan funcionar de manera
autónoma sin necesidad de la red. Estos ordenadores pueden ser de distinto tipo y tener
distintos sistemas operativos, siempre que todos posean los adaptadores de red adecuados y
tengan instalados los protocolos adecuados en el sistema operativo.
 Medio o cableado. Es el canal a través del cual viajan de un ordenador a otro las señales que
representan a la información. Puede ser una línea telefónica, un cableado privado (usando
señales eléctricas) o el aire (usando radiofrecuencias). Cuando se trata de cableado privado,
éste tiene que recorrer los recintos sobre los que se asientas los ordenadores que deben
comunicarse entre sí. Esto define un conjunto de espacios, armarios y cuartos de
comunicaciones en los que se instalan algunos dispositivos de red especializados y se
practica parte de la conectorización, estructurando el sistema de cableado.
 Hardware de red. Dependiendo del medio que se use será necesario un hardware u otro. En
cualquier caso, siempre son necesarios dos tipos de dispositivos.
 Elementos de interconexión. Son máquinas independientes de los ordenadores
altamente especializadas en alguna función de la red. Distinguimos:
• Elementos pasivos. Se pueden considerar parte del cableado de la red, ya que su
función es recibir la señal que llega de un ordenador y repetirla tal cual amplificada
para todos los demás. Ejemplos son los repetidores y los hubs (cable).
• Elementos activos. De alguna manera, encaminan la información desde el origen a
su destino, regulando el tráfico en la red e incluso interconectando redes. Algunos
pueden incluso filtrar o codificar la información que viaja por la red. Se caracterizan
porque para poder realizar su función deben leer e interpretar parte de la información
que les llega, y no quedarse en las simples señales de los pasivos. Ejemplos son
switches (cable), routers1 (cable e inalámbricos), puntos de acceso (inalámbricos),
etc..
 Adaptadores de red. Son parte del ordenador, y su función es convertir la información
que el ordenador tiene que enviar en señales que se puedan transmitir por el medio
(eléctricas o radiofrecuencias). Y viceversa, recibir señales del medio y convertirlas en

1 Cuando una compañía de acceso a internet hable de un router, en verdad está hablando de un dispositivo que es a la
vez un modem, un router (en el sentido estricto de la palabra) y un switch o punto de acceso, según esa sólo para
cable o para cable e inalámbrico.
información comprensible por el ordenador. Ejemplos son los modem2 (para conexiones
de larga distancia a través de redes públicas), las tarjetas de red Ethernet (cable), las
tarjetas de red Wifi (inalámbricas), etc..
 Software de red. Programas gracias a los cuales se puede utilizar la red. Distinguimos dos
clases:
 Sistema operativo de red. Normalmente es la parte del sistema operativo que permite al
ordenador comunicarse con otros ordenadores, sin tener en cuenta para qué puede servir
esa información. Dentro podemos considerar dos niveles:
• los controladores o drivers de los adaptadores de red para el sistema operativo con
el que trabaja el ordenador;
• los protocolos de red instalados en el sistema operativo, de los cuales los más
utilizados son los de la familia TCP/IP.
 Aplicaciones de red. Son los programas que dan funcionalidad al hecho de que los
ordenadores intercambien información. También distinguimos dos clases:
• Los servidores: son programas que ofrecen servicios al resto de ordenadores de la
red, es decir, que ofrecen sus recursos físicos (dispositivos) y/o lógicos (información)
para que otros ordenadores de la red los usen mediante el intercambio de
información. Por ejemplo, tenemos un servidor web, que ofrece páginas web a los
demás ordenadores de la red; un servidor de archivos, que permite que el resto de
ordenadores de una red accedan a archivos del ordenador que lo ejecuta; un servidor
de impresión, que permite al resto de ordenadores de una red usar una impresora
conectada al ordenador que lo ejecuta.
• Los clientes: son programas que utilizan los servicios prestados por los servidores
que se están ejecutando en otros ordenadores de la red, es decir, que hacen peticiones
a los servidores y utilizan sus respuestas. Por ejemplo, un navegador web para ver
páginas web ofrecidas por un servidor; un cliente de archivos compartidos para
acceder a los archivos ofrecidos por un servidor de archivos en otro ordenador de la
red; un cliente de impresión, para poder usar las impresoras ofrecidas por un servidor
de impresión en otro ordenador de la red.
A veces es habitual que algunos servidores y clientes estén incluidos en el sistema
operativo, como por ejemplo los servidores y clientes de archivos y los servidores y
clientes de impresión.
Otros conceptos importantes en cuanto a los elementos de una red son los siguientes:
• Nodo. Un nodo es un dispositivo activo conectado a una red. Esta definición incluye las
estaciones y los elementos de interconexión activos.
• Host. Un host es un nodo que aloja un servicio de red, que es proporcionado a los clientes a
través de la red. Algunos servicios pueden ser ofrecidos no sólo por ordenadores, sino
también por elementos de interconexión activos.

Servicios y protocolos
Evidentemente, el simple hecho de que los terminales puedan comunicarse no justifica la
existencia de las redes de transmisión de datos. Esa posibilidad debe ser de alguna manera
beneficiosa para los propios terminales y sobre todo para los usuarios de los mismos. Cada una de

2 Recordar que muchos routers son también modem.


las posibilidades o funcionalidades que ofrece una red de telecomunicaciones se denomina servicio.
Una red está orientada a la transmisión de la información entre determinadas zonas
geográficas. Esta idea tan general se convierte en la práctica en muchos kilómetros de cableado
conectados a centralitas y otros dispositivos, todo ello destinado a ofrecer un conjunto de servicios
al usuario. Estos servicios dependen fundamentalmente del tipo de información que se va a
transmitir, lo que, a su vez, repercute en dos características muy importantes: protocolos utilizados y
velocidad de transmisión requerida.
Los servicios proporcionados por una red de transmisión de datos siguen unos protocolos bien
establecidos y estandarizados. Si una red en particular se le desea añadir una funcionalidad
concreta, se deberá comprobar si ya posee el protocolo adecuado o hay que añadírselo. Un
protocolo de red define unas normas a seguir a la hora de transmitir la información, normas que
pueden ser: velocidad de transmisión, tipo de información, formato de los mensajes, etc..
Todo esto es aplicable a las redes informáticas, como caso particular de redes de transmisión
de datos. En ellas, existen multitud de protocolos, cada uno de los cuales se encarga de un aspecto
concreto de la comunicación entre ordenadores. Incluso estos protocolos trabajan de forma
conjunta, usándose unos a otros para realizar sus funciones.
Los protocolos están implementados en los nodos en forma de software.

Topologías físicas
La topología física de una red determina la forma en que se interconectan los diferentes
nodos a ella.
• Topología de malla. Es una interconexión
total de todos los nodos, cada uno
directamente con todos los demás. la ventaja
de que si una ruta falla, se puede seleccionar
otra alternativa. Sin embargo, este tipo de
red es más costoso de construir, ya que hace
falta más cableado.

• Estrella. Los equipos se conectan a un nodo central


con funciones de distribución, conmutación y control.
Si el nodo central falla, todos los nodos quedan
aislados. En cambio, si falla uno de los enlaces, sólo
el nodo correspondiente queda aislado, mientras que
los demás siguen formando la red. Normalmente, el
nodo central no funciona como estación, sino que más
bien suele tratarse de elementos de interconexión. El
problema es que provoca una enorme madeja de
cables en torno al nodo central.

• Bus. Utiliza un único cable para


conectar todas las estaciones. Esta
configuración es la que requiere menos
cableado, es la menos costosa. Pero
tiene el inconveniente de que, si falla
algún enlace, todos los nodos quedan aislados (debido a que este cable se rompe y queda
abierto). También es muy sensible a problemas de tráfico.

• Árbol. Es una forma de conectar nodos


como una estructura jerarquizada. Esta
topología es la menos utilizada, y se
prefieren otras topologías, ya que el fallo de
un nodo o un enlace deja a conjuntos de
nodos incomunicados entre sí. Sin embargo,
se utiliza ampliamente en redes de telefonía
donde los enlaces intermedios son centralitas
locales y regionales. No se debe confundir
con una estrella extendida (estrella de
estrellas)

• Anillo. Todos los nodos están conectados a una única vía


con sus dos extremos unidos. Al igual que ocurre con la
topología en bus, si falla algún enlace todos los nodos
quedan aislados. Sin embargo, no presenta problemas de
congestión de tráfico.

• Irregular o mixta. Cada nodo debe estar conectado, como mínimo, por un enlace, pero no
existen más restricciones. Esta topología es la más utilizada en redes que ocupan zonas
geográficas amplias. Permite la búsqueda de rutas alternativas cuando falla alguno de los
enlaces. También se puede definir como la mezcla de varias topologías.

• Celular. Se usa en redes inalámbricas. Cada


nodo o estación crea un área geométrica o
célula centrada en él. Ese área es la zona
donde la señal que emite tiene alcance y
donde es capaz de recibir una señal de otro
nodo. Cuando dos células se instersectan
sus respectivos nodos se pueden comunicar
directamente. Si la zona está cubierta por
completo por células, la transmisión podría
ir saltando de nodo a nodo para conectar
dos nodos cualesquiera. Algunas células
pueden generarse por estaciones repetidoras
que definen células más grandes.

Clasificación de las redes informáticas


Podemos clasificar a las redes en diferentes tipos, atendiendo a distintos criterios. La
clasificación que se expone a continuación está ordenada según los criterios más importantes.

Titularidad de la red
Esta clasificación atiende a la propiedad de la red, por lo que se puede hacer una división en
dos tipos de redes: redes privadas dedicadas y redes compartidas.
• Redes dedicadas. Son aquellas en las que sus líneas de comunicación (cableado y
elementos de interconexión) son diseñadas, instaladas y mantenidas por la entidad usuaria o
administradora, o bien, alquiladas a las compañías de comunicaciones que ofrecen este tipo
de servicios (en el caso de que sea necesario comunicar zonas geográficas alejadas), pero
siempre para su uso exclusivo. Ejemplo de este tipo de red puede ser la red local de un aula
de informática de instituto o facultad.
• Redes compartidas. Son aquellas en las que las líneas de comunicación (cableado y
elementos de interconexión) soportan información de diferentes usuarios independientes. Se
trata en todos los casos de redes de servicio público ofertadas por las compañías de
telecomunicaciones bajo cuotas de alquiler en función de la utilización realizada o bajo
tarifas por tiempo limitado. Pertenecen a este grupo las redes telefónicas y las redes
especiales para transmisión de datos. Ejemplos de este tipo de redes son: la red de telefonía
fija, la red ADSL, la red de telefonía móvil, RDSI, las conexiones intercontinentales, etc..

Transferencia de la información
Esta clasificación tiene en cuenta la técnica empleada para transferir la información desde el
origen al destino. Por lo tanto, depende en cierta medida de la topología de red.
• Redes conmutadas (punto a punto). En este tipo de redes, un equipo origen (emisor)
selecciona un equipo con el que quiere conectarse (receptor) y la red es la encargada de
habilitar una vía de conexión entre los dos equipos. Normalmente pueden seleccionarse
varios caminos candidatos para esta vía de comunicación, que puede o no dedicarse
exclusivamente a la misma. Existe tres métodos:
- Conmutación de circuitos. En este tipo de comunicación, se establece un camino único
dedicado. La ruta que sigue la información se establece al principio de la comunicación
y permanece durante todo el proceso, aunque existan algunos tramos de esa ruta que se
compartan con otras rutas diferentes. Una vez finalizada la comunicación, es necesario
liberar la conexión. La información se envía íntegra desde el origen al destino y
viceversa usando el circuito establecido.
- Conmutación de paquetes. En este caso, el mensaje a enviar se divide en fragmentos,
cada uno de los cuales es enviado a la red y circula por ésta hasta que llega a su destino.
Cada fragmento, denominado paquete, contiene parte de la información a transmitir e
información de control, como los números o direcciones que identifican al origen y al
destino o número de orden del fragmento.
- Conmutación de mensajes. La información que envía el emisor se aloja en un único
mensaje con la dirección de destino y se envía al siguiente nodo. Ésta almacena la
información hasta que hay un camino libre, dando lugar a su vez, al envío al siguiente
nodo, hasta que finalmente el mensaje llega a su destino.
Estas redes, sobre todo la de conmutación de paquetes, se usan para comunicar ordenadores
a largas distancias usando redes públicas, por ejemplo en internet.
• Redes de difusión (multipunto). En este caso, un equipo o nodo envía la información a
todos los nodos y es el destinatario el encargado de seleccionar y captar esa información.
Esta forma de transmisión de la información está condicionada por la topología de la red, ya
que se caracteriza por disponer de un único camino o vía de comunicación que debe ser
compartido por todos los nodos o equipos. Esto quiere decir que la red debe tener una
topología en bus o anillo, o debe estar basada en enlaces por ondas de radio. También es
admisible una topología en estrella, pero sólo si el nodo central es capaz de repetir la señal
que le llega de un nodo a todos los demás. Aunque a primera vista este tipo de redes pueda
resultar poco eficiente y arcaico, en la práctica es muy utilizada en redes de tamaño
reducido, sobre todo porque no requiere del uso de complicados dispositivos de
conmutación para seleccionar las rutas, teniendo en cuenta que en una red de difusión
solamente existe una ruta posible.

Localización geográfica
La localización geográfica de la red es un factor a tener en cuenta a la hora de diseñarla y
montarla. No es lo mismo montar una red para un aula de informática que interconectar las oficinas
de dos sucursales que la misma empresa tiene instaladas en diferentes países. Sin embargo, esta
clasificación muchas veces resulta confusa o arbitraria, ya que se basa en criterios vagamente
definidos.
• Red de área extensa (Wide Area Network o WAN) y redes globales. Las WAN y redes
globales abarcan varias ciudades, regiones o países. Los enlaces WAN son ofrecidos
generalmente por empresas de telecomunicaciones públicas o privadas que utilizan enlaces
de microondas, fibra óptica o vía satélite. Ordenadores independientes o pequeñas redes se
pueden conectar a una WAN utilizando líneas telefónicas estándar o líneas telefónicas
modificadas para ofrecer un servicio más rápido. Debido a las grandes distancias, la tasa de
error es elevada y la velocidad de transmisión lenta. El ejemplo más famoso de WAN es
Internet.
• Red de área metropolitana (Metropolitan Area Network o MAN). Generalmente una
MAN está confinada dentro de un misma ciudad y se haya sujeta a regulaciones locales.
Puede constar de recursos públicos y/o privados, como el sistema de telefonía local,
sistemas de microondas locales o cables enterrados de fibra óptica. Una empresa local
construye y mantiene la red, y la pone a disposición del público. Este tipo de redes es
apropiado, por ejemplo, para la distribución de televisión por cable en el ámbito de la
población sobre la que se extiende geográficamente la red, añadiendo los operadores los
servicios de internet y voz al de televisión. Las redes de ONO en cada localidad son un
ejemplo de MAN.
• Red de campus. Una red de campus se extiende entre varios edificios dentro de un mismo
polígono industrial, que se conectan generalmente a un tendido de cable principal.
Normalmente la empresa es propietaria del terreno por el que se extiende el cable y tiene
libertad para poner cuantos cables sean necesarios sin tener que solicitar permisos
especiales. Por ejemplo, tenemos la red de la UCA en el Campus de Puerto Real (siete
edificios).
• Red de área local (Local Area Network o LAN). Una LAN es un término vago que se
refiere a uno o varios segmentos de red conectados mediante dispositivos especiales.
Normalmente se le da este calificativo a las redes cuya extensión no sobrepasa el mismo
edificio donde está instalada (o la misma habitación). El diseño, instalación y mantenimiento
de la red corre a cargo de quien la explota o usa, es decir, toda la red es privada. Se
caracteriza por una velocidad de trasmisión alta y una tasa de error baja. Un ejemplo sería la
red de este centro, o la red del aula.
• Subred o segmento de red. Un segmento de red está formado por un conjunto de estaciones
que comparten el mismo medio de transmisión (normalmente están conectadas a un mismo
cable). Gracias a esta característica, es posible montar un segmento de red sin necesidad de
utilizar dispositivos conmutadores y reduciendo así el coste de la instalación. El segmento
está limitado en espacio al departamento de una empresa, un aula de informática, etc.. Se
considera al segmento como la red de conmutación más pequeña, y todas las redes de mayor
tamaño están constituidas por la unión de varios segmentos de red. Un ejemplo sería varios
ordenadores conectados a un hub, o el formado por un ordenador y el switch al que se
conecta.
• Red de área personal (Persona Area Network o PAN). Son las “redes” que permiten la
conexión de dispositivos (teclados, ratones, impresoras, PDAs, móviles, etc.) a un
ordenador, usando normalmente medios inalámbricos (como radiofrecuencias, infrarrojos,
bluetooth, etc.). Su ámbito de acción debe ser muy limitado, para evitar que las redes
colisionen entre sí. La configuración de acceso es muy sencilla, y en mantenimiento de la
red corre a cuenta del propietario, pero a su vez propicia un coste mínimo o nulo. El término
no encaja dentro de nuestra definición de red informática, pero la incluimos porque así se
hace en muchos textos de redes.

Ubicación de los recursos


Desde el punto de vista operativo, la principal función de una red consiste en que los
ordenadores de la red puedan compartir recursos mediante el intercambio de paquetes de datos entre
los distintos equipos conectados a la red.
Hay dos maneras fundamentales de conexión de ordenadores en una red dependiendo de la
ubicación de los recursos:
• Redes entre iguales. Todos los ordenadores ponen a disposición de los demás los recursos
de que disponen, fundamentalmente discos e impresoras. Bajo esta concepción de red,
ningún ordenador está privilegiado, todos tienen las mismas funciones. Tecnológicamente
este modo de organización es muy simple. Pero se hace muy difícil el control de los
recursos, puesto que los accesos son posibles en cualquier dirección. Se aplica a redes
pequeñas y con servicios muy simples.
• Redes cliente-servidor. Consiste en privilegiar al menos a uno de los ordenadores
añadiéndoles capacidades en forma de servicios, por ello a estos ordenadores se les llama
servidores o servers. El resto de los ordenadores de la red solicitarán servicios a estos
servidores que estarán altamente especializados en la función que ofrecen, creando así una
estructura centralizada en la red. Este tipo de organización es mucho más fácil de controlar
puesto que la administración de los servicios está centralizada, lo que permite automatizar
en mayor grado el trabajo del administrador. Los servidores de red llevan incorporado un
sistema de cuentas y contraseñas de entrada que restringe los accesos a usuarios no
autorizados. Es más compleja de configurar y se aplica a redes grandes y pequeñas que
ofrecen servicios avanzados.

Normalización y organismos
Las primeras redes informáticas que se construyeron utilizaban sus propios protocolos.
Existen compañías como IBM que utilizaban normas de comunicación diferentes para sus propios
productos. Esta situación llevó a que las empresas mantuvieran redes de diferentes fabricantes.
Cuando necesitaron comunicar esas redes, surgieron los problemas: los sistemas de transmisión no
eran compatibles y, o bien había que deshacerse de todo los instalado y montar redes nuevas, o bien
había que desarrollar equipos adaptadores de redes, una alternativa de coste muy elevado.
A partir de entonces, se comprobó que era necesario definir un conjunto común de normas,
que permitiera coordinar a todos los fabricantes. Esta normas posibilitan la comunicación entre
diferentes equipos, y permiten que éstos tengan un menor coste y una mayor aceptación. Las
normas se dividen en dos categorías:
• Estándares de facto (del latín facto, que significa hecho). A este grupo pertenecen los
estándares que simplemente aparecieron y se impusieron en el mercado por su extensa
utilización. Suelen ser establecidos por consorcios de empresas creados a tal fin.
• Estándares de jure (del latín jure, que significa por ley). Son estándares formales y legales
acordados por algún organismo de estandarización autorizado. Estos organismos son de dos
tipos: los creados por tratados entre varios países o las organizaciones voluntarias.
Existen varias organizaciones internacionales dedicadas a tareas de normalización y
estandarización, como ITU, ISO, ANSI, IEEE, IETF, ISC, ICANN y W3C. Te informarás sobre
ellos en una actividad.

Arquitectura de red
Una arquitectura de red es la forma en que se organiza todo el proceso de comunicación en
esa red de ordenadores. Viene definida por tres características fundamentales, que depende de la
tecnología que se utilice en su construcción:
• Topología. La topología de una red es la organización de su cableado. Define la
configuración básica de la interconexión de estaciones y en algunos casos el camino de una
transmisión de datos sobre el cable.
• Método de acceso a la red. Todas las redes que poseen un medio compartido para
transmitir la información, necesitan ponerse de acuerdo a la hora de enviar información, ya
que no pueden hacerlo a la vez. En este caso, si dos estaciones transmiten a la vez en la
misma frecuencia, la señal recogida en los receptores será una mezcla de las dos. Para las
redes que no posean un medio compartido, el método de acceso al cable es trivial y no es
necesario llevar a cabo ningún control para transmitir.
• Protocolos de comunicaciones. Los protocolos son las reglas y procedimientos utilizados
en una red para realizar la comunicación. Esas reglas tienen en cuenta el método utilizado
para corregir errores, establecer una comunicación, etc..
Existen diferentes niveles de protocolos. Los protocolos de alto nivel definen cómo se
comunican las aplicaciones (programas de ordenador) y los protocolos de bajo nivel definen cómo
se transmiten las señales por el medio. Entre los protocolos de alto nivel y los de bajo nivel hay
protocolos de niveles intermedios, que realizan otras funciones, como establecer y mantener
sesiones de comunicaciones o controlar las transmisiones para detectar errores, entre otras muchas.
Debemos observar que los protocolos de bajo nivel son específicos del tipo de cableado utilizado
para la red.

Problemas que debe resolver una arquitectura de red


Aunque a primera vista parezca que el diseño de un sistema de comunicación parece simple,
cuando se aborda resulta mucho más complejo, ya que es necesario resolver una serie de problemas.
Los más importantes son:
• Encaminamiento. Cuando existen diferentes rutas posibles entre el origen y el destino (si la
red tiene topología de malla, mixta o irregular), se debe elegir automáticamente una de ellas
(normalmente la más corta o la que tenga menos tráfico).
• Direccionamiento. Puesto que una red normalmente tiene muchos ordenadores conectados,
y cada ordenador puede tener varios procesos que quieren usar la red, se requiere un
mecanismo para que un proceso en un ordenador especifique con qué proceso de qué
ordenador quiere comunicarse. Como consecuencia de tener varios destinos, se necesita
alguna forma de direccionamiento que permita determinar un destino específico. Suele ser
normal que un equipo tenga asignadas varias direcciones diferentes, relacionadas con
niveles diferentes de la arquitectura. En este caso, también habrá que establecer alguna
correspondencia entre esas direcciones.
• Acceso al medio. En las redes donde existe u medio de comunicación de difusión debe
existir al menos un mecanismo que controle el orden de transmisión de los interlocutores.
De no ser así todas las transmisiones se interfieren y no es posible llevar a cabo una
comunicación. El control de acceso al medio en una red es muy similar a una comunicación
mediante walkie-talkie, donde los interlocutores deben evitar hablar a la vez o se producirá
una colisión, las señales de los mensajes se mezclaran y resultará imposible interpretarlas.
• Saturación del receptor. Esta cuestión suele plantearse en todos los niveles de la
arquitectura y consiste en que un emisor rápido pueda saturar a un receptor lento. En
determinadas condiciones, el proceso en el otro extremo necesita un tiempo para procesar la
información que le llega. Si ese tiempo es demasiado grande en comparación con la
velocidad a la que le llega la información, será posible que se pierdan datos. Una posible
solución a este problema consiste en que el receptor envíe un mensaje al emisor indicándole
que está lista para recibir más datos.
• Mantenimiento del orden. Algunas redes de transmisión de datos fragmentan los mensajes
y desordenan los fragmentos que envían, de forma que si se envían en una secuencia
determinada, no se asegura que lleguen al destino en esa misma secuencia, y por tanto que el
mensaje sea el mismo que se envió. Para solucionar esto, la arquitectura a través de un
protocolo debe incorporar un mecanismo que le permita volver a ordenar los fragmentos del
mensaje en el destino.
• Control de errores. Todas las redes de comunicación de datos transmiten la información
con una pequeña tasa de error, que en ningún caso es nula. Esto se debe a que los medios de
transmisión son imperfectos. Tanto emisor como receptor deben ponerse de acuerdo a la
hora de establecer qué mecanismos se van a utilizar para detectar y corregir errores, y si se
va a notificar al emisor que los mensajes llegan correctamente.

Características de las arquitecturas por niveles


Como se ha indicando anteriormente, el diseño de un sistema de comunicación requiere la
resolución de muchos y complejos problemas. Por ese motivo, las redes informáticas se organizan
en capas o niveles para reducir la complejidad de su diseño; en tal caso, se dice que la red tiene una
arquitectura por niveles.
Cada una de esas capas o niveles
se encarga de un conjunto de funciones
concretas del proceso de comunicación,
y utiliza los servicios que le
proporciona el nivel inferior para
realizarlas. A su vez, esas funciones son
servicios que utiliza el nivel superior
para que este último realice sus propias
funciones. Se define la interfaz entre
dos niveles como el conjunto de posibles
mensajes que permiten la petición y
prestación de servicios entre niveles
contiguos.
Por otro lado, cuando se comuniquen dos ordenadores que utilicen la misma arquitectura de
red, cada par de niveles de uno y otro deben coordinar el proceso de comunicación a ese nivel. Por
ejemplo, el nivel 2 de un equipo (transmitiendo, por ejemplo) coordina sus actividades con el nivel
2 del otro extremo (que se encargaría de recibir). Esto quiere decir que ambos deben ponerse de
acuerdo y utilizar las mismas reglas de transmisión. En general, el nivel n de una máquina se
comunica de forma indirecta con el nivel n de la otra máquina. Las reglas y convenciones usadas en
esa comunicación se conocen como protocolo de nivel n.

Los protocolos que se establezcan en cada nivel son los que determinan los servicios que
realiza. Si los fabricantes quieren desarrollar productos (hardware y software) compatibles con la
red, deberán ajustarse a los protocolos definidos para ella.
Normalmente, aunque no siempre, todos los protocolos de una arquitectura concreta se
definen de forma conjunta, de manera que se establecen también los interfaces entre todos los de
cada pareja de niveles contiguos. Cuando se definen por separado, los interfaces con los protocolos
de los niveles contiguos también deben quedar especificados, para que se puedan definir protocolos
compatibles.
El modelo de arquitectura por niveles necesita información adicional para que los elementos
activos de un determinado nivel puedan comunicarse con los del mismo nivel de la otra máquina.
Estos datos adicionales dependen del protocolo utilizado y sólo se conoce su verdadero significado
a ese nivel; normalmente, los niveles inferiores los tratan como si fuera información propiamente
dicha. A ese añadido se le llama generalmente cabecera o información de control y suele ir al
principio y/o al final del mensaje.
Cuando veamos ejemplos de arquitecturas de redes reales, comprobaremos que en todas sus
capas se añaden cabeceras de control para la comunicación y todas ellas dependen del protocolo
usado a ese nivel. En general, una arquitectura de seis capas añade cinco cabeceras de control para
transmisión, como se muestra en la figura. La última capa no suele añadir información adicional, ya
que se encarga de enviar la señal que representa a los dígitos binarios por el medio.
Sintetizando lo dicho hasta ahora, en una arquitectura de niveles (también llamada jerarquía
de protocolos) se siguen las siguientes reglas:
• Cada nivel dispone de un conjunto de servicios.
• Los servicios están definidos mediante protocolos.
• Cada nivel proporciona servicios al nivel inmediato superior y utiliza los servicios que le
presta el inmediato inferior. Para solicitar y prestar servicios se usa una interfaz entre
niveles.
• Cada nivel n de un ordenador coordina el proceso de comunicación con el mismo nivel n del
otro ordenador, usando un protocolo de nivel n.
• Cada nivel del ordenador emisor añade una cabecera con información de control al mensaje
para pasarlo al nivel inferior. Cada nivel del ordenador receptor quita la información de
control de ese nivel del mensaje para pasarlo al nivel superior.

Modelo de referencia OSI


El modelo OSI (Open Systems Interconnection o Interconexión de Sistemas Abiertos) está
basado en una propuesta establecida en el año 1983 por la organización internacional de normas
ISO (ISO 7498) como un avance hacia la normalización a nivel mundial de protocolos. El modelo
se llama modelo de referencia OSI de la ISO, puesto que se ocupa de la conexión de sistemas
abiertos, esto es, sistemas que están preparados para la comunicación con sistemas diferentes.
Usualmente lo llamaremos sólo modelo OSI para acortar.
La génesis del modelo OSI hay que buscarla en la caótica situación de finales de los años
setenta, cuando los fabricantes producen máquinas incompatibles con sus máquinas más antiguas, y
la comunicación entre ordenadores de diferentes constructores no puede hacerse realidad. Pero la
comunicación entre máquinas heterogéneas es un problema con solución, como había demostrado el
éxito del proyecto ARPANET con TCP/IP. Las organizaciones de formulación de estándares
deciden tomar cartas en el asunto y definir el término sistema abierto.
Como veremos enseguida, es un modelo de arquitectura, y no una arquitectura propiamente
dicha.

Estructura
OSI emplea una arquitectura en siete niveles a fin de dividir los problemas de interconexión
en partes manejables. Los niveles son:
Los nombres de los niveles se muestran en el siguiente cuadro y diagrama.

Nivel 7 Aplicación Aplicación 7

Nivel 6 Presentación 6

Nivel 5 Sesión 5

Nivel 4 Transporte 4

Nivel 3 Red 3

Nivel 2 Enlace de datos 2

Nivel 1 Medio físico 1


Red
Usuario 1 Usuario 2
OSI está definido más bien como modelo, y no como arquitectura. La razón principal es que
la ISO definió solamente la función general que debe realizar cada capa, pero no mencionó en
absoluto los servicios y protocolos que se deben usar en cada una de ellas. Esto quiere decir que, al
contrario que el resto de arquitecturas de redes, el modelo OSI se definió antes de que se diseñaran
los protocolos
Posteriores estándares de ISO definieron las interfaces en cada nivel para asegurar que se
consigue una compatibilidad total entre ellos. Como se vio en el apartado anterior, la aproximación
en niveles asegura modularidad y facilita que el software de cada nivel pueda mejorarse sin
necesidad de introducir cambios revolucionarios.
Pero, ¿cómo llegó la ISO, partiendo desde cero, a definir una arquitectura a siete niveles de
esas características? Los principios teóricos en los que se basaron para la realización de OSI fueron
fundamentalmente los siguientes:
• Cada capa de la arquitectura está pensada para realizar una función bien definida.
• El número de niveles debe ser suficiente para que no se agrupen funciones distintas, pero no
tan grande que haga la arquitectura inmanejable.
• Debe crearse una nueva capa siempre que se necesite realizar una función bien diferenciada
del resto.
• Las divisiones en las capas deben establecerse de forma que se minimice el flujo de
información entre ellas, es decir, que la interfaz sea más sencilla.
• Permitir que las modificaciones de funciones o protocolos que se realicen en una capa no
afecten a los niveles contiguos.
• Utilizar la experiencia de protocolos anteriores. Las fronteras entre niveles deben situarse
donde la experiencia ha demostrado que son convenientes.
• Cada nivel debe interaccionar únicamente con los niveles contiguos a él (es decir, el superior
y el inferior).
• La función de cada capa se debe elegir pensando en la definición de protocolos
estandarizados internacionalmente.
Niveles
Las funciones encomendadas a cada una de las capas de OSI son las siguientes:
Nivel físico
Tiene que ver con la transmisión de dígitos binarios por un canal de comunicación. Las
consideraciones de diseño tienen que ver con el propósito de asegurarse de que, cuando un lado
envíe un "1", se reciba en el otro lado como "1", no como "0". Las preguntas típicas aquí son: ¿qué
voltaje deberá usarse para representar un 1 y para representar un 0?, ¿cuántos microsegundos dura
cada dígito?, ¿en qué frecuencia de radio se va a transmitir?, ¿cuántas puntas tiene el conector de la
red y para qué sirve cada una?, etc. Aquí las consideraciones de diseño tienen mucho que ver con
las interfaces mecánica, eléctrica y de procedimientos y con el medio de transmisión físico que está
bajo la capa física.
Nivel de enlace
Su tarea principal es detectar y corregir todos los errores que se produzcan en la línea de
comunicación. También se encarga de controlar que un emisor rápido no sature a un receptor lento,
ni se pierdan datos innecesariamente. Finalmente, en redes donde existe un único medio compartido
por el que circula la información, este nivel se encarga de repartir su utilización entre las estaciones.
La unidad mínima de datos que se transfiere entre entidades pares a este nivel se llama trama o
marco.
Nivel de red
Se ocupa de determinar cuál es la mejor ruta por la que enviar la información. Esta decisión
tiene que ver con el camino más corto, el más rápido, el que tenga menor tráfico, etc. Por todo esto,
la capa de red debe controlar también la congestión de la red, intentando repartir la carga lo más
equilibrada posible entre las distintas rutas. También a este nivel se realiza gran parte del trabajo de
convertir y adaptar los mensajes que circulan entre redes heterogéneas. La unidad mínima de
información que se transfiere a este nivel se llama paquete.
Nivel de transporte
Es el nivel más bajo que tiene independencia total del tipo de red utilizada y su función básica
es tomar los datos procedentes del nivel de sesión y pasarlos a la capa de red, asegurando que
lleguen correctamente al nivel de sesión del otro extremo. A este nivel, la conexión es realmente de
extremo a extremo, ya que no se establece ninguna conversación con los niveles de transporte de
todas las máquinas intermedias.
Nivel de sesión
A este nivel se establecen sesiones (conexiones) de comunicación entre los dos extremos para
el transporte ordinario de datos. A diferencia del nivel de transporte, a este nivel se proporcionan
algunos servicios mejorados, como la reanudación de la conversación después de un fallo en la red
o una interrupción, etc.
Nivel de presentación
A este nivel se controla el significado de la información que se transmite, lo que permite la
traducción de los datos entre las estaciones. Por ejemplo, si una estación trabaja con un código
concreto y la estación del otro extremo maneja uno diferente, el nivel de presentación es el
encargado de realizar esta conversión. Para conversaciones confidenciales, este nivel también
codifica y encripta los datos para hacerlos incomprensibles a posibles escuchas ilegales.
Nivel de aplicación
Es el nivel que está en contacto directo con los programas o aplicaciones informáticas de las
estaciones y contiene los servicios de comunicación más utilizados en las redes. Como ejemplos de
servicios a este nivel se puede mencionar la transferencia de archivos, el correo electrónico, etc.
Transmisión de datos
La siguiente figura muestra cómo se transmiten datos entre estaciones utilizando el modelo
OSI: un programa en la estación A desea enviar un bloque de datos a otro programa de la estación
B; el proceso A realiza una llamada al servicio correspondiente en el nivel de aplicación y le entrega
ese bloque de datos; el servicio del nivel de aplicación añade la cabecera EA y le entrega toda esa
información a la capa de presentación, mediante la llamada al servicio.

Estos mismos pasos se repiten conforme los datos van pasando de una capa a otra hasta llegar
al nivel físico. Conforme la entidad de una capa recibe datos, les añade la cabecera correspondiente
y los envía al nivel inmediatamente inferior. Es muy importante darse cuenta del hecho de que,
cuando una entidad recibe datos de su nivel inmediato superior, no sabe qué parte de ellos es
cabecera y qué parte son datos reales enviados por los programas que se desean comunicar.
Cuando los datos llegan al nivel físico de la máquina receptora, se produce justamente el
proceso contrario al anterior: cada capa recibe los datos, le quita su cabecera correspondiente y los
pasa al nivel superior. El nivel de aplicación de la estación A le pasa los datos puros al programa
receptor.

Perspectiva del modelo OSI


El modelo OSI es una división de tareas bien definida. Antes de la publicación del modelo
existían ya protocolos que seguían sus postulados y posteriormente se han desarrollado otros. No
todos los protocolos corresponden exactamente al modelo. De hecho el modelo OSI nunca llegó a
tener la implementación esperada, por motivos como, por ejemplo, la ya existencia del TCP/IP, que
había sido aceptado por los investigadores. En particular, hay protocolos que no respetan la división
en niveles propuesta por ISO y otros, los que más, que sólo implementan parte de las funciones, las
que corresponden a algunos niveles OSI.
Este modelo no es perfecto y, de hecho, algunas cuestiones adolecen de un mal diseño. La
más importante, en lo que se refiere a las capas, es que algunas de ellas están prácticamente vacías
(es decir, hay muy pocos protocolos definidos dentro de éstas y a la vez son bastante triviales),
mientras que otras están llenas a rebosar. Por ejemplo, las capas de sesión y presentación no se usan
en la mayoría de las aplicaciones, mientras que las capas más inferiores están tan saturadas que en
revisiones posteriores se han dividido en múltiples subcapas.
Otro problema que tiene OSI es que existen algunas funciones que se repiten en muchas de las
capas, lo que hace que muchos servicios y programas estén duplicados, a la vez que contribuye a un
aumento del tamaño de las cabeceras de control de los bloques de información que se transmiten.

Arquitectura TCP/IP
TCP/IP se suele confundir muchas veces con un protocolo de comunicaciones concreto,
cuando, en realidad, es una compleja arquitectura de red que incluye varios de ellos, apilados por
capas. Es, sin lugar a dudas, la más utilizada del mundo, ya que es la base de comunicación de
Internet y también se utiliza ampliamente en las redes locales; desde luego, cualquier nueva red que
se instale se basa en la arquitectura TCP/IP.
En el año 1973, el DoD (Departamento de Defensa de Estados Unidos) inició un programa de
investigación para el desarrollo de tecnologías de comunicación de redes de transmisión de datos.
El objetivo fundamental era desarrollar una red de comunicación que cumpliera las siguientes
características:
• Permita interconectar redes diferentes. Esto quiere decir que la red en general puede estar
formada por tramos que usan tecnología de transmisión diferente.
• Sea tolerante a fallos. El DoD deseaba una red que fuera capaz de soportar ataques
terroristas o incluso alguna guerra nuclear sin perderse datos y manteniendo las
comunicaciones establecidas.
• Permita el uso de aplicaciones diferentes: transferencia de archivos, comunicación en tiempo
real, etc.
Todos estos objetivos implicaron el diseño de una red con topología irregular donde la
información se fragmentaba para seguir rutas diferentes hacia el destinatario. Si alguna de esas rutas
fallaba repentinamente, la información podría seguir rutas alternativas. Así, surgieron dos redes
distintas: una dedicada a la investigación, ARPANET, y otra de uso exclusivamente militar,
MILNET.
El DoD permitió a varias universidades que colaboraran en el proyecto, y ARPANET se
expandió gracias a la interconexión de esas universidades e instalaciones del Gobierno. Este modelo
se nombró después como arquitectura TCP/IP, por las iniciales de sus dos protocolos más
importantes. En 1980, TCP/IP se incluyó en Unix 4.2 de Berkeley y fue el protocolo militar estándar
en 1983. En ese mismo año nació la red global Internet, que utiliza también esta arquitectura de
comunicación. ARPANET dejó de funcionar oficialmente en 1990.
Algunos de los motivos de la popularidad alcanzada por esta arquitectura son:
• Es independiente de los fabricantes y las marcas comerciales.
• Soporta múltiples tecnologías de redes.
• Es capaz de interconectar redes de diferentes tecnologías y fabricantes.
• Puede funcionar en máquinas de cualquier tamaño, desde ordenadores personales a grandes
supercomputadores.
• Se ha convertido en estándar de comunicación en EEUU desde 1983.

Estructura
La arquitectura de TCP/IP se construyó diseñando inicialmente los protocolos para,
posteriormente, integrarlos por capas en la arquitectura. Por esta razón, a TCP/IP muchas veces se la
califica como pila de protocolos. Su modelo por niveles es algo diferente a OSI de ISO, como
demuestra la siguiente tabla.
Nivel Nivel
OSI TCP/IP
OSI TCP/IP
7 Aplicación
6 Presentación Aplicación 4
5 Sesión
4 Transporte Transporte 3
3 Red Interred 2
2 Enlace de datos
Subred 1
1 Físico

Obsérvese que TCP/IP sólo tiene definidas cuatro capas (mientras que OSI tiene siete). Las
funciones que realizan cada una de ellas son las siguientes:
• Capa de subred: el modelo no da mucha información de esta capa y solamente se
especifica que debe existir algún protocolo que conecte la estación con la red. La razón
fundamental es que, como TCP/IP se diseñó para su funcionamiento sobre redes diferentes,
esta capa depende de la tecnología utilizada y no se especifica de antemano.
• Capa de interred: esta capa es la más importante de la arquitectura y su misión consiste en
permitir que las estaciones envíen información (paquetes) a la red y los hagan viajar de
forma independiente hacia su destino. Durante ese viaje, los paquetes pueden atravesar redes
diferentes y llegar desordenados. Esta capa no se responsabiliza de la tarea de ordenar de
nuevo los mensajes en el destino. El protocolo más importante de esta capa se llama IP
(Internet Protocol, Protocolo de Interred), aunque también existen otros protocolos.
• Capa de transporte: ésta cumple la función de establecer una conversación entre el origen
y el destino, de igual forma que hace la capa de transporte en el modelo OSI. Puesto que las
capas inferiores no se responsabilizan del control de errores ni de la ordenación de los
mensajes, ésta debe realizar todo ese trabajo. Aquí también se han definido varios
protocolos, entre los que destacan TCP (Transmission Control Protocol, Protocolo de
Control de Transmisión), orientado a la conexión y fiable, y UDP (User Datagram Protocol
o Protocolo de Datagrama de Usuario), no orientado a la conexión y no fiable.
• Capa de aplicación: esta capa contiene, al igual que la capa de aplicación de OSI, todos los
protocolos de alto nivel que utilizan los programas para comunicarse. Aquí se encuentra el
protocolo de terminal virtual (TELNET), el de transferencia de archivos (FTP), el protocolo
HTTP que usan los navegadores para recuperar páginas en la World Wide Web, los
protocolos de gestión del correo electrónico, etc.
Las capas de sesión y presentación no existen en la arquitectura TCP/IP, ya que los
diseñadores pensaron que no se necesitaban. La experiencia obtenida con los trabajos realizados en
el modelo OSI ha comprobado que esta visión fue correcta: se utilizan muy poco en la mayoría de
las aplicaciones de comunicación. En caso de que alguna aplicación desee utilizar un servicio de
encriptación de datos o recuperación ante caídas, será necesario incluirlos dentro del propio
programa de aplicación.
El modelo TCP/IP original no distinguía los conceptos de capa, servicio, interfaz y protocolo,
aunque revisiones posteriores han incluido parte de esta nomenclatura. Por esta razón, el modelo
OSI es más flexible a los cambios, ya que la interacción y encapsulación entre capas es más estricta.
Otro problema que tiene TCP/IP es que en sus capas inferiores no se distingue entre nivel
físico y nivel de enlace, funciones que resultan completamente diferentes. Como resultado, se
incluye una sola capa de subred en la que coexiste una amalgama de protocolos y estándares de
redes que poco se comprende.
Redes Locales e Internet
Una vez vistos los conceptos fundamentales de la comunicación de datos y los modelos y
arquitecturas existentes, nos centramos un poco más en las redes locales. Antes de empezar a
profundizar en cada uno de los niveles, y dado que de alguna manera u otra todos están
interconectados, vamos a ver en este tema una visión global de los principales estándares que
podemos encontrar en ellas. Como complemento, y dado que hoy en día no existe ninguna red
aislada, hacemos la misma visión de internet.

¿Qué es una Red de Área Local?


Las Redes de Área Local o LAN (Local Area Network) son redes privadas con un medio
físico de comunicación propio, es decir, propiedad del propietario de la red. Las redes locales son
las estructuras de comunicación entre ordenadores que abarcan un área limitada: un aula, un centro
escolar completo, un campus universitario, una empresa, etc. Son las redes que encontramos más
próximas a nosotros.
Las características fundamentales de una red LAN son:
• Zona geográfica limitada: son redes que no se extienden en ámbitos geográficos amplios, lo
que permite que empleen medios de comunicación privados para la interconexión de
ordenadores. No se marca una cantidad de espacio como extensión máxima de una red LAN,
sino que el limite lo establece la propiedad del medio. Todo depende de la inversión a
realizar en el medio.
• Medio de comunicación privado: es responsabilidad del propietario de la red crear el
“cableado” y mantenerlo. Por otro lado el cableado no es compartido con ninguna otra red.
• Los ordenadores comparten un mismo medio de comunicación: Todos los ordenadores están
conectados a un medio común, por lo que para su utilización deben competir por él.
• Son redes de difusión: al disponer de un medio compartido pueden enviar mensajes al resto
de los equipos de forma simultánea.
• Redes optimizadas: permiten una gran rapidez y fiabilidad a la hora de transmitir datos. El
tener un ámbito geográfico limitado hace que los medios se puedan aprovechar mejor y que
el coste en “cantidad de medio” no sea elevado, por lo que se puede usar un medio con
buenas prestaciones.
El desarrollo de las LAN ha buscado siempre una mayor fiabilidad, rapidez y costes más
asequibles a la vez que ha intentado solucionar los problemas que el medio de comunicación
empleado presentaba.

Utilidad de las redes locales: compartición de recursos


La finalidad de una red de ordenadores es que éstos puedan compartir información y
recursos”. Los recursos instalados en un equipo podrán ser utilizados por el resto de equipos y
usuarios de la red. Dicho acceso puede ser universal o no. Para limitar los accesos de los usuarios se
pueden aplicar permisos y políticas, que determinan quién puede hacer uso de qué y cómo.
Entendemos por recurso:
• Hardware: distintos periféricos de entrada o salida (impresoras, escáneres, cámaras, etc.),
unidades de almacenamiento de datos, etc..
• Software: cualquier tipo de aplicaciones, paquetes de programas, programas, etc..
• Información: todo tipo de datos: de texto, numéricos, bases de datos, imágenes, audio, etc..

La arquitectura cliente-servidor es la base para la utilización de los recursos disponibles en


una red. En ella, siempre tenemos:
• Clientes: entendemos como tal cualquier ordenador, conectado a una red, de cualquier tipo
que puede acceder a los recursos compartidos por otros.
• Servidores: es también un ordenador conectado a una red, pero que ofrece algún
recurso al resto de ordenadores de la red.

Como vemos estos dos términos son inseparables, el cliente solicita o usa algún recurso que el
servidor le ofrece: es un proceso cooperativo entre cliente y servidor.
Normalmente, el servidor es un ordenador más potente y con más recursos que el cliente, pero no
siempre es así.

Principales recursos para compartir


Conviene destacar que, de todos los recursos que pueden ser utilizados en una red local, los
que nos van a ofrecer mayores ventajas a la hora de ser compartidos son:

Unidades de almacenamiento
En una red pueden compartirse, discos duros, unidades de cd-rom, particiones de disco, etc.,
proporcionándonos un gran ahorro en la adquisición de estos dispositivos.
Sin embargo, más importante que este ahorro, es el poder tener la información centralizada, lo
que conlleva:
•No existe repetición de la misma información (de los mismos archivos) en cada ordenador.
•Cada vez que un ordenador realiza una modificación en un archivo, dicha actualización del
mismo es accesible inmediatamente para todos los ordenadores de la red. No es necesario replicar la
misma modificación en todos los ordenadores que usen el archivo. Esto permite que varios usuarios
desde distintos ordenadores puedan trabajar de forma simultánea con la información. Esto es de
trascendental importancia en las aplicaciones que trabajan con bases de datos (la inmensa mayoría
de aplicaciones en empresas u organismos públicos), en los que muchísimos usuarios acceden y
modifican los datos que contiene simultáneamente, necesitando cada uno de ellos acceder a los
datos introducidos o modificados por otro usuario.
•A la hora de hacer una copia de seguridad de un conjunto de archivos, están en un solo
ordenador, y no hay que ir haciendo copias ordenador a ordenador.
•Estableciendo
la configuración adecuada, al estar los archivos centralizados y accesibles
desde todos los ordenadores de la red, no hay una vinculación de dependencia que implique tener
que trabajar un archivo en un determinado ordenador. Es decir, el archivo se puede trabajar desde
cualquier ordenador de la red, por lo que si se avería uno se puede seguir trabajando en el archivo
desde otro.

Servidor de aplicaciones
En lugar de tener una misma aplicación instalada en cada ordenador, es mejor tener una única
para todos los que la utilicen a través de la red. Con esto ahorraremos costes y facilitaremos el
mantenimiento (mejor reparar o actualizar sólo una aplicación en el servidor que reparar o
actualizar la misma aplicación en cada ordenador).
En este sentido, vuelven a ser muy importantes las aplicaciones que trabajan con bases de
datos. Como ejemplo de ellas, tenemos las aplicaciones tipo groupware, que son aquellas que se
utilizan para trabajar en grupo, por ejemplo: calendarios de grupo, planificación de trabajos de
grupo, mensajería, etc... El incremento de productividad que esta forma de trabajar conlleva es
obvio.
Otra posible ventaja de un servidor de aplicaciones es cuando se necesita mucha potencia de
cálculo. Normalmente, lo que los usuarios necesitan es ordenar un determinada acción o cálculo y
ver el resultado de esa acción o cálculo: en realidad, el proceso de cómo se efectúa la acción o el
cálculo no le interesa. En ese sentido, en lugar de tener 20 ordenadores con una potencia de cálculo
media, es preferible tener un ordenador con una potencia extraordinaria (que haga de servidor) y 20
con una potencia sólo suficiente para ordenar la acción o cálculo al servidor y recibir del mismo el
resultado y mostrarlo.

Impresoras
Las impresoras son uno de los elementos periféricos más caros. Además, su uso es puntual, no
continuado. Es obvio que una impresora podría atender las peticiones de varios ordenadores, puesto
que habitualmente los usuarios de los mismos no estarían todo el tiempo imprimiendo. Gracias a las
redes podemos conseguir esto.
Como consecuencia, en lugar de adquirir 20 impresoras de calidad baja podemos adquirir una
de calidad alta por el mismo coste. Dicha impresora puede hacer la misma cantidad de trabajo que
las otras 20, ya que a ella pueden acceder todos los ordenadores, pero como beneficio obtenemos
una calidad mucho mayor en las impresiones.

Acceso compartido a Internet


Otra de las grandes ventajas de una red es el poder acceder a Internet a través de una única
conexión con un ISP. Todos los equipos, empleando una única conexión (del tipo que sea, RTB,
RDSI, ADSL, etc.) pueden obtener las ventajas de los servicios de Internet: correo electrónico, FTP,
news, WWW, etc..
En realidad, sólo habrá un ordenador (o router) conectado directamente a internet usando la
conexión correspondiente. Ese ordenador (o router) dispondrá de un software que ofrecerá a los
demás ordenadores de la red acceder a internet a través de su conexión.
Cuando para una red disponemos de un acceso a Internet de este tipo, podemos, además,
establecer una serie de medidas de seguridad mediante un cortafuegos en el servidor que evite el
acceso a contenidos inadecuados por parte de los usuarios a la vez que protegemos nuestra red de
ataques de intrusos procedentes de internet.

Redes según la organización de los recursos


Según cómo se organicen los recursos en una red local, podemos tener tres tipos de redes:
• Distribuida: en este caso los recursos estarán distribuidos entre los distintos ordenadores
que conforman la red y cada uno podrá, o no, ofrecer a los demás los recursos de
que disponga.
• Centralizada: en este caso los recursos estarán centralizados en un ordenador
servidor (o varios), y los demás ordenadores accederán a los recursos
solicitándolos al servidor.
• Mixta: es una mezcla de ambas, con parte distribuida y parte centralizada. Hay
servicios que funcionan mucho mejor o son más útiles centralizados, y otros que lo
hacen mejor distribuidos. El grado de centralización puede ser variable en cada caso.

Arquitectura cliente/servidor
La arquitectura de tipo cliente/servidor se caracteriza por el hecho de cada máquina tiene la
capacidad de ofrecer sus recursos a todas las demás, a la vez que puede usar los recursos que
ofrecen las demás. El grado, menor o mayor, en que estén distribuidos los recursos puede ser muy
variable. Es necesario realizar una organización que permita un uso adecuado y controlado de los
recursos de la red. La red se convierte así en un elemento crítico y, con ella, la figura de
administrador de la red. El objetivo es doble:
•proporcionar más potencia al usuario final, con el objetivo de aumentar la operatividad;
•hacer un uso eficiente de los recursos, que no llegue a saturarlos innecesariamente ni a
bloquear la red por exceso de tráfico de información, pero que a su vez cómodo.
Un tema importante en la organización de recursos que se diseñe es la seguridad.
Normalmente los servidores, debidamente configurados por el administrador, son los encargados de
pedir las passwords necesarias, de identificar a los usuarios, de conceder los permisos pertinentes
para acceder a los distintos recursos, etc..
La seguridad es un tema clave a la hora de determinar un modelo de organización. Cuando
utilizamos un modelo centralizado garantizamos la seguridad desde todos los puntos de vista, con el
coste de una configuración más compleja; sin embargo, cuando empleamos redes entre iguales
obtendremos un nivel de seguridad mucho más bajo, con una configuración más simple.
Existen una serie de modelos de organización predeterminados. Estos modelos se centran
sobre todo el uso de una aplicación que trabaje con bases de datos, las más importantes en el ámbito
empresarial.
• Modelo basado en servidor. En este modelo los datos residen en el servidor, pero además,
hay todos los procesos que impliquen operaciones con los datos se ejecutan también en él.
En la parte del cliente sólo queda el interfaz con el usuario, es decir, la parte de la
aplicación en la que el usuario puede solicitar una consulta de datos, ver el
resultado de la consulta, solicitar la introducción de nuevos datos o la modificación
de los existentes.
• Modelo “peer to peer” o “punto a punto”. Estas redes no tienen servidores
propiamente dichos, aunque cada ordenador puede tener algunos recursos y
puede ofrecerlos al resto de los ordenadores, o sólo a algunos. En este sentido, se
les puede considerar servidores. Aquí todos los ordenadores pueden ser tanto
clientes como servidores, dependiendo de que soliciten u ofrezcan algún recurso.
• Modelo basado en correo electrónico (e-mail). Todas las funciones son
ejecutadas por el cliente y sólo las funciones de mensajería están en el servidor.
• Modelo de base de datos compartida. Es parecido al modelo basado en servidor.
En este caso es todas las funciones son ejecutadas por el cliente, pero los datos
están en el servidor. El cliente carga la aplicación en su memoria y esta aplicación hace
las llamadas necesarias al servidor de datos. Cuando hay que hacer operaciones con los
datos, los hace el cliente.

Estándares en redes locales


En esta parte de esta unidad vamos a describir el esquema de capas que nos encontramos hoy
en día (con algunas vistas al pasado) en las redes locales.
Seguiremos como referencia un modelo de capas basado en una mezcla entre OSI y TCP/IP:
tomaremos los nombres de OSI pero uniendo las tres capas superiores en una sola llamada de
aplicación. Además, al menos en esta unidad, trataremos los niveles físicos y de enlace juntos, lo
que llamaremos nivel de subred (como en la arquitectura TCP/IP). Esto lo hacemos porque
normalmente los estándares de estas dos capas están ligados y casi siembre de forma excluyente, es
decir, que una vez seleccionado un estándar del nivel de enlace, ese estándar usa un determinado
medio físico.

Nivel de aplicación
Nivel de Transporte
Nivel de Red
Nivel de enlace
Nivel de Subred
Nivel físico

No entraremos en profundidad a describir cada estándar, ya que no es el objetivo de esta


unidad, lo será más adelante. Sólo los mencionaremos, los describiremos de forma breve y sobre
todo prestaremos atención a cómo se pueden utilizar junto a otros estándares.

Nivel de subred (niveles físicos y de enlace)


Los niveles físicos y de enlace siempre están muy relacionados en lo que a estándares se
refiere. Normalmente se selecciona el estándar de enlace y eso determina el medio físico a usar. A
nivel de enlace hablaremos de topología lógica, de tarjetas de red y de elementos de interconexión.
A nivel físico, hablaremos también de elementos de interconexión, de topología física y de tipos de
cable.
En estos niveles los estándares no son compatibles, es decir, no se pueden mezclar en la
misma red. Existen elementos de interconexión (routers y/o pasarelas) que permiten conectar redes
distintas, y por tanto que los ordenadores de una y otra puedan intercambiar información. Sin
embargo, los routers hacen uso del nivel de red, por lo que hablamos de conexión de redes distintas
o independientes, y no de un elemento de interconexión interno de una red.

Red Ethernet
La redes locales de tipo Ethernet son las más utilizadas hoy en día. De hecho el resto de
redes son o bien muy antiguas o bien de muy altas prestaciones y por tanto muy costosas. Sólo las
redes Wifi compiten últimamente con ellas, y son habituales elementos de interconexión (routers y
puntos de acceso, aunque a veces formen parte de otros elementos) que permiten formar “redes
híbridas Ethernet / Wifi” perfectamente integradas.
A nivel físico las redes Ethernet pueden ser de dos tipos:
● Red Ethernet con cable coaxial
En estas redes se usa el cable coaxial como medio, y los correspondientes conectores BNC.
La topología que se sigue es en bus, aunque no lo parezca. Tenemos un solo cable, que
partimos a la altura de cada ordenador. Usando un conector BNC en forma de T conectamos
las dos partes del cable y por otro lado tenemos el conector para el ordenador. De esta forma
aunque parezca que tenemos un cable que une pares de ordenadores consecutivos, los
conectores BNC en forma de T unen esos cables para formar uno solo.

En los extremos finales del cable se conecta un ordenador con un conector BNC normal o un
terminador.

No son necesarios elementos de interconexión, aunque se puede encontrar alguno, sobre


todo para tener una parte de la red con cable coaxial y la otra con cable de par trenzado.

● Red Ethernet con cable de par trenzado


En estas redes se usa cable de par trenzado de cuatro pares de hilos, y los correspondientes
conectores RJ45.
La topología que se sigue es en estrella. Existe un elemento central que suele ser un
elemento de interconexión tipo hub o switch. De cada ordenador parte un cable que se
conecta a uno de los puertos del elemento central.
En ocasiones, se tienen varios elementos centrales interconectados a su vez en estrella o en
árbol.
En cuanto al nivel de enlace, se usan tarjetas de red Ethernet. Estas tarjetas pueden ser
internas (conectadas a una ranura PCI o integradas en la placa base) o externas (conectadas a un
puerto USB o ranura PCMCIA).
Existen tarjetas de dos tipos: las que sólo sirven para cable de par trenzado, que sólo
incorporan un conector RJ45 hembra; y las que sirven para los dos tipos de cable, que incorporan
tanto el conector RJ45 para par trenzado como el conector BNC para el cable coaxial.

Estas tarjetas de red tienen un funcionamiento que usa una topología lógica en bus, tanto
cuando se usa el cable coaxial (que es evidente), como cuando se usa el cable de par trenzado. Esta
topología consiste en que el medio en su totalidad es compartido por todas las estaciones. Cuando
una pone una señal en el medio, esta señal llega a todas; la tarjeta de red de cada estación discrimina
la información que no es para ella, y acepta la que sí lo es. Cuando se usa topología en estrella y
cable de par trenzado el elemento central tiene la función de repetir por todos los puertos (y por
tanto por todos los cables conectados) la información que le llegue por cualquiera de ellos. De esta
manera, el elemento central convierte todos los cables en un solo.
Algunos elementos centrales, en concreto los switch, no se limitan a repetir la señal por todos
los puertos (que sería una función simplemente del nivel físico), sino que van aprendiendo a qué
puerto está conectada cada estación y repiten la señal sólo por los puertos necesarios. En este caso,
el elemento central se considera una estación a nivel de enlace.

Red Token Ring


Las redes Token Ring fueron muy usadas hace años, impulsadas por IBM, principal
diseñador por aquel entonces de grandes sistemas en red. Hoy en día han quedado en desuso.
Ninguna red nueva se monta usando este estándar, pero siguen existiendo redes importantes que
funcionan con él. Poco a poco estas redes se están migrando a Ethernet.
A nivel físico, Token Ring usa cable de par trenzado de 4 pares de hilos y conectores RJ45. Se
usa una topología física en estrella. A cada ordenador se conecta un cable que va hasta uno de los
puertos un elemento central especial llamado MAU.

Las tarjetas de red son de tipo Token Ring, muy difíciles de encontrar hoy en día en el
mercado. El elemento central, como hemos mencionado, también es especial y se denomina MAU.
Entre ambos, hacen que la red tenga una topología lógica en anillo. Esto significa que la
información va pasando de un ordenador a otro hasta que llega al destinatario.
FDDI
Las redes FDDI (Interfaz de Datos Distribuida por Fibra) fueron diseñadas con el
propósito de obtener una red de alta velocidad, alta capacidad (en numero de estaciones) y gran
fiabilidad. El uso de la fibra óptica como medio encarece mucho estas redes, luego sólo se usan
donde son absolutamente necesarias altas prestaciones (principalmente redes WAN).
Las redes FDDI usan fibra óptica multimodo como medio. La topología física es en estrella.
A cada ordenador se conecta un cable que va hasta un puerto de elemento central especial llamado
FDDI Hub.
Las tarjetas de red son de tipo FDDI y también son muy difíciles de encontrar en el mercado.
El elemento central, como hemos indicado, también es especial. Ambos hacen que la red tenga una
topología lógica de doble anillo, donde la información gira de una estación a otra en direcciones
opuestas. Esto le da gran robustez, haciendo que la red no se caiga por la rotura de uno de los
enlaces (cables).

Red Wifi o WLAN


Las redes Wifi (Wireless Fidelity) o WLAN (Wireless LAN) es el segundo estándar más
usado hoy en día, gracias a la gran ventaja que supone el usar el aire como medio y por tanto no
tener que hacer ninguna instalación de cableado.
Como hemos indicado, las redes Wifi usan el aire como medio, gracias a la emisión de señales
de radio en frecuencias en torno a los 2,4 GHz. El alcance es de 20 a 200 metros, dependiendo de
que haya obstáculos o no y de las antenas que se utilicen. A medida que nos alejamos el rendimiento
se va reduciendo.
Al ser el aire un medio accesible a todos y sobre el que no se tiene control, es necesario
resolver dos problemas:
● El hecho de que exista más de una red en el mismo “espacio de aire”. Esto supone en
realidad dos problemas: las señales se mezclan en el medio, y cómo distinguir entre una red
y otra a la hora de conectarse.
Para el problema de las señales, en el estándar se establecen 15 canales distintos para
transmitir. Cada una de las redes que coexistan en el mismo espacio deben usar canales
distintos, cuanto más separados mejor.
Para el problema de distinguir las redes, cada red tiene un identificador llamado SSID.
Cuando estamos en una zona detectamos los SSID de todas las redes existentes en ella, y así
podemos decidir a cuál conectarnos.
● El segundo problema es que al ser un medio abierto cualquiera puede acceder a la red. Para
ello se establecen varios mecanismos de seguridad, como listas cerradas de acceso, uso de
claves, etc..
Se sigue una topología física celular. Unos elementos centrales llamados puntos de acceso
emiten con mayor fuerza y crean la zona de cobertura. Es posible enlazar varios puntos de acceso
para crear zonas de cobertura mayores. Como es obvio, estos elementos centrales necesitan una
antena para recibir y emitir señal.
A nivel de enlace se usan tarjetas de red WiFi. Todas ellas tienen una antena para emitir y
recibir señal: algunas antenas son externas y otras internas. La topología lógica que se sigue es de
bus, interpretando el aire y el canal que se está usando como el cable. Los puntos de acceso
amplifican cualquier señal que les llega en todas las direcciones, así que en principio no son más
que meros repetidores. No obstante, el hecho de que se tenga que filtrar toda la información que
llega para discernir cuál pertenece a la red con la que esté trabajando hace que los puntos de acceso
trabajen en parte en el nivel de enlace.

Un par de redes muy simples


El estándar Ethernet permite crear una red usando un cable de par trenzado que conecte dos
ordenadores directamente a través de sus tarjetas de red. En este caso no hay elemento central, por
lo que la topología física podríamos considerar que es en bus. A nivel de enlace funciona
exactamente igual.
El estándar WiFi permite crear redes de varios ordenadores sin usar puntos de acceso, lo que
se ha llamado red ad-hoc. En este caso podríamos considerar que la topología física sigue siendo
celular, pero la red sólo funciona en la zona donde coincidan las pequeñas células que crean las
tarjetas de red. A nivel de enlace todo funciona igual.

Niveles de red y transporte


Los estándares de los niveles de red y transporte también se han definido de manera
tradicional conjuntamente.
Estos estándares son conjuntos de protocolos que interactuan y que definen cómo se debe
realizar la comunicación entre estaciones en estos niveles. Cada protocolo sirve para realizar una
tarea concreta.
En una red estos estándares tiene la forma de software que normalmente forma parte del
sistema operativo de las estaciones, ya sea implementados directamente o instalados como módulos.
En una red pueden coexistir varios de estos estándares, no interfiriendo unos en el funcionamiento
de los otros, y usando todos los mismos elementos de los niveles inferiores.
Algunos elementos de interconexión, como los routers, utilizan protocolos de este nivel para
realizar su función principal. Otros, como los puntos de acceso, los usan para su configuración o
para funciones extra, pero no para su función principal.

Estándar TCP/IP
El estándar TCP/IP es el más usado en los niveles de red y transporte para redes locales, y el
único que se usa en internet. TCP/IP funciona sobre cualquiera de las redes descritas en el apartado
anterior, es decir sobre cualquier estándar que se elija para el nivel de subred.
En estos niveles el estándar TCP/IP está formado por los protocolos:
● IP. Protocolo del nivel de red diseñado para conducir paquetes de información a través de
distintas redes interconectadas. Está especialmente preparado para que los paquetes sean
encaminados (utilizando routers) entre las distintas subredes que componen una red global.
Es un protocolo sin conexión, lo que supone que carece de seguridad, que debe ser
proporcionada por protocolos de un nivel superior. Este protocolo permite establecer un
identificador único en la red para cada estación o elemento de interconexión de la misma: la
dirección IP.
● ICMP. Es un protocolo de nivel de red que encapsula en un único paquete IP algún evento
que se produce en la red. Se trata, por tanto, de un protocolo de supervisión. Cualquier red
TCP/IP debe utilizar este protocolo.
● ARP. Es otro protocolo del nivel de red. Como el protocolo IP utiliza un sistema de
direccionamiento que no tiene nada que ver con las direcciones MAC de los adaptadores de
red y elementos de interconexión, hay que arbitrar un mecanismo de asignación de
direcciones IP a direcciones MAC propias del nivel de enlace. De esto se encarga el
protocolo ARP.
● TCP. Este protocolo pertenece al nivel de transporte. Su función es fragmentar la
información en trozos llamados datagramas para que en niveles inferiores sea enviada uno a
uno, y recomponer la información con los datagramas recibidos. También se encarga de
asegurar que los datagramas lleguen a su destino y de retransmitir en caso de problemas. Por
último, permite a una estación establecer distintas vías de comunicación con la misma o
distintas estaciones, para que varias aplicaciones puedan transmitir o recibir información
simultáneamente.
● UDP. Es un protocolo de transporte sin conexión, es decir, permite la transmisión de
mensajes sin necesidad de establecer ninguna conexión y, por tanto, sin garantías de entrega.

IPX/SPX
El estándar IPS/SPX fue desarrollado por la empresa Novell e implementado en principio en
sus sistemas operativos de red Netware. Posteriormente, fueron implementados también en otros
sistemas como Windows bajo el nombre NwLink. Se trata de un protocolo en desuso, ya que Novell
lo reemplazó en sus últimas versiones de Netware por TCP/IP. Curiosamente IPX/SPX tiene un
mejor rendimiento que TCP/IP, pero el hecho de que no se pueda enrutar, es decir, que no sirva para
intercomunicar distintas redes, ha hecho que desaparezca.
Los protocolos que lo forman son:
● IPX. Protocolo de nivel de red con funciones similares al IP de TCP/IP. Cambia la forma de
direccionar y el formato de los paquetes.
● SPX. Protocolo de nivel de transporte con funciones similares al TCP de TCP/IP.
NetBEUI
NetBEUI es un protocolo muy sencillo creado por Microsoft que se utiliza en redes pequeñas
de menos de 10 ordenadores que no requieran salida a Internet. Su funcionamiento se basa en el
envío de difusiones a todos los ordenadores de su red. Sus difusiones no atraviesan los routers, por
lo que es un protocolo no enrutable.
La ventaja de este protocolo es su sencillez de configuración, basta con instalar el protocolo y
asignar un nombre a cada ordenador para que empiece a funcionar. Su mayor desventaja es su
ineficiencia en grandes redes (se envían excesivas difusiones).

Nivel de aplicación
El nivel de aplicación es el más difuso en lo que a estándares se refiere. A veces los estándares
se presentan como protocolos que son usados por aplicaciones cliente y servidores para
comunicarse. Otras veces se presentan como una API del sistema operativo que permite a las
aplicaciones realizar operaciones estándar de la red. Y otras veces aparece implementado
directamente en las propias aplicaciones.
Otra característica de los estándares de este nivel es que no siempre funcionan sobre todos los
estándares de las capas inferiores.

Protocolos de aplicación de TCP/IP


Estos estándares se presentan en forma de protocolos, y funcionan tanto en redes locales como
en internet (de donde realmente proceden). Sólo funcionan sobre el estándar TCP/IP de los niveles
de red y transporte. El hecho de que se pueda usar un protocolo en una estación sólo depende de que
el sistema operativo tenga implementados o instalados los protocolos del estándar TCP/IP y de que
se tenga instalada una aplicación cliente o servidor que lo utilice.
Vamos a referir brevemente los más comunes, pero hay que señalar que existen casi tantos
protocolos distintos como tipos de aplicaciones o servicios de nivel de aplicación.
● FTP. Protocolo utilizado para la descarga (bajada) o carga (subida) de ficheros y desde o
hacia un servidor.
● HTTP. Es el protocolo usado por los navegadores para el acceso a las páginas web
publicadas en un servidor.
● SNMP. Protocolo utilizado para la gestión de la red.
● RCP. Se encarga de establecer diálogos entre las aplicaciones clientes y sus equivalentes
servicios. Se trata de un protocolo básico para la arquitectura de las aplicaciones
cliente/servidor.
● SMTP. Es el protocolo básico para el intercambio de mensajes de correo electrónico entre
servidores de correo o entre el cliente de correo y el servidor al que se conecta.
● POP. Es el protocolo de comunicaciones de alto nivel que se encarga de descargar mensajes
de correo electrónico desde el servidor de correo en donde se encuentra el buzón a la
bandeja de entrada del cliente de correo.
● IMAP. Es un protocolo semejante al POP, pero con algunas funcionalidades añadidas que lo
hacen recomendable en situaciones de congestión.

NetBIOS
El estándar NetBIOS viene dado como la especificación de interfaz para acceso a servicios de
red, es decir, una capa de software desarrollado para enlazar un sistema operativo de red con los
protocolos de nivel de transporte y red, que pueden ser del estándar TCP/IP, IPX/SPX o NetBEUI.
Resumiendo de forma sencilla, NetBIOS permite a las aplicaciones 'hablar' con la red. Está
desarrollado por Microsoft y de forma nativa implementado en los sistemas Windows. Sin embargo,
otros sistemas como Linux han implementado protocolos que permiten usar los servicios de
NetBIOS, como Samba, que se utiliza para la compartición y el acceso a las carpetas compartidas.

Netware Core Protocols


Novell Netware es un sistema operativo de red, incluyendo varias aplicaciones para la
explotación de la misma, sobre todo en lo que a servidores de archivo se refiere. Tuvo una gran
cuota de mercado en el mundo empresarial, pero poco a poco ha ido cediendo terreno hasta llegar a
ser sustituido como producto por sistemas Linux. Sin embargo, Novell ha asegurado el soporte
hasta 2015.
Novell Netware funcionaba originalmente sobre IPX/SPX, pero a partir de la versión 5 pasa a
funcionar por defecto sobre TCP/IP, aunque se sigue soportando IPS/SPX.
Al igual que Microsoft Windows con NetBIOS, Novell Netware implementa los NetWare
Core Protocols (o protocolos NCPs), un conjunto de llamadas primitivas a servicios que se encargan
de convertir las operaciones de alto nivel que realiza el usuario o las aplicaciones en peticiones que
se envían por la red a través de los protocolos de capas inferiores.

Tabla resumen de estándares de redes locales


Esta tabla intenta resumir los estándares presentes en las redes locales y sus compatibilidades.

Netware
Aplic. Netware Core
Nivel de aplicación Core NetBIOS NetBIOS NetBIOS
TCP/IP Protocols
Protocols
Compatibilidad Compatibilidad Compatibilidad

Nivel de Transporte TCP, UDP SPX


TCP/IP IPX/SPX NetBEUI
Nivel de Red IP, ICMP, ARP IPX
Compatibilidad

Nivel de Token Ring – FDDI – Top.


Ethernet – Top. Bus WiFi – Top. Bus
Nivel de enlace Top. Anillo Doble Anillo
Subred Coaxial – Top. Bus Par trenzado – Fibra óptica – Aire (2,4 GHz) –
Nivel físico
Par trenzado – Top. Estrella Top. Estrella Top. Estrella Top. Celular

Tabla 1: Estándares en redes locales

¿Qué es Internet?
Internet es una gran red mundial de ordenadores formada por multitud de pequeñas redes y
ordenadores individuales conectados unos con otros de forma que sea posible el intercambio de
información entre ellos. Este sistema de interconexión permite que cualquier usuario de cualquier
red pueda acceder a equipos integrados en otras redes de otros países, siempre que tenga permiso
para ello, para compartir información o comunicarse empleando, para ello, los distintos servicios de
esta red de redes. La versatilidad de estos servicios, la cantidad de información publicada y el
enorme número de usuarios han convertido a internet en uno de los principales medios de
comunicación existentes, con multitud de empresas que basan su negocio en ella.
El éxito de Internet se basa en que se puede considerar como una única entidad, es decir, que
es posible tomar información de otros sistemas como si estuviesen al lado.
Las redes de Internet pueden dividirse en tres clases:
● Redes de tránsito o transporte internacional: garantizan la interconexión de las diferentes
redes de proveedores de la conexión.
● Redes regionales y de proveedores de conexión: garantizan la conectividad entre el
usuario final y las redes de tránsito.
● Redes de usuario final: van desde una simple conexión de un ordenador hasta redes
corporativas privadas de una empresa (LAN)
En la actualidad Internet emplea parte de los recursos públicos de telecomunicaciones y los de
las grandes empresas de telecomunicaciones. Algunas de estas empresas, como parte de su negocio,
ofrecen a sus clientes a través de sus redes acceso a toda la red internet. En tal caso, decimos que la
empresa es un Proveedor de Servicios de Internet (ISP). Pero ese acceso a sus redes para conectar a
internet es todo el control que pueden ejercer las empresas, ya que el resto de internet y es
autosuficiente y está autorregulada.

Estándares de Internet
Como red que es, Internet está estructurada en niveles. El esquema de niveles es el mismo que
en las redes locales, salvo que en el nivel de subred, entre el nivel físico y el de enlace, hemos
introducido un nuevo nivel que llamaremos enlace bajo. Internet utiliza distintos estándares en
todos los niveles, la mayoría de ellos en los niveles de subred y en el de aplicación. Algunos de
estos estándares son comunes a los de las redes locales, y de hecho son estas últimas las que los han
tomado de Internet.

Nivel de subred (Niveles físico y de enlace)


Nos centraremos en los estándares de las redes regionales o de proveedor, ya que las de
usuario final son redes locales y las de tránsito e internacionales están diseñadas a medida para las
necesidades.
Al contrario de lo que sucede en las redes locales, para estos niveles en Internet lo más
importante es el medio disponible, y éste será el que determine el estándar del nivel de enlace. Aquí
no podemos adquirir el medio que queramos e instalarlo, sino que debemos “conformarnos” con el
o los medios que dispongamos en el lugar físico donde vayamos a hacer el acceso a internet. Estos
medios son ofrecidos por los estados o por las compañías de telecomunicaciones con los
correspondientes permisos de los mismos.
A nivel de enlace, y prácticamente en todos los estándares, podemos elegir entre dos
elementos de interconexión: el modem, para conectar un solo ordenador a internet, o el router, para
conectar toda una red LAN de usuario final.

RTC
RTC es la Red Telefónica Conmutada, y no es más que la red telefónica clásica, a través de la
cual hablamos por teléfono. Se trata de un cable formado por un par de hilos de cobre que va desde
los hogares y empresas hasta la central telefónica más cercana.
Como estándar del nivel de enlace bajo tenemos la normativa V.92. El elemento de
interconexión que se usa es el módem RTC (no existe router), y como consecuencia sólo se puede
conectar un ordenador (salvo que el usuario haga una adaptación en su red para compartir la
conexión). Para realizar la conexión, el modem debe establecer una llamada a un número dado por
el proveedor, y mantener esa llamada mientras dure la conexión.
A nivel de enlace se usa el protocolo PPP. Este protocolo permite al ordenador que tiene el
modem comunicarse con un ordenador del ISP en la centralita, que le da acceso al resto de internet.
Entre otras cosas, para establecer la conexión en este protocolo es necesario especificar un nombre
de usuario y contraseña registrado por el ISP.

ADSL
ADSL es un estándar que permite conexiones de alta velocidad a través de la red de cable
RTC, es decir, usando el mismo cableado que RCT. La única “diferencia” en el medio se da en las
centralitas, que están adaptadas para las conexiones ADSL. Aunque se use el mismo medio que en
RTC, la forma de usarlo es distinto, lo que permite las mejores velocidades. Por ejemplo, en ADSL
no es necesario que el modem o router realice una llamada para establecer la conexión, ya que la
conexión con el “ordenador” de la centralita del ISP es permanente.
El elemento de interconexión que se utiliza es el modem o router ADSL, dependiendo de que
se pueda conectar un sólo ordenador o toda una red local. Tanto el modem como el router ADSL,
nada más ser encendidos y mientras tengan línea eléctrica, establecen una conexión directa y
constante con el “ordenador” de la centralita o centro de datos del ISP que da paso al resto de
internet.
A nivel de enlace, el protocolo que se usa es el PPPoE, que determina el formato de la
comunicación entre el modem o router ADSL y el “ordenador” de la centralita o centro de datos del
ISP. Entre otras cosas, también para establecer la conexión en este protocolo es necesario
especificar un nombre de usuario y contraseña registrado por el ISP.

Cable-modem
El estándar cable-modem usa las redes de fibra óptica y cable coaxial instaladas en algunas
ciudades para la distribución de televisión por cable. Mediante esta red, el ordenador del usuario se
conecta con uno del ISP que le da acceso al resto de internet. Al igual que en ADSL, la conexión es
permanente.
A nivel de enlace inferior, se utiliza el estándar DOCSIS. Este sistema permite aislar en la red
del ISP la conexión del usuario con el ordenador que da acceso a Internet del resto de los
ordenadores de los usuarios. En este estándar el elemento de interconexión es el modem-cable, que
como modem que es permite sólo la conexión de un ordenador (salvo que el usuario configure su
red local para compartir esta conexión). El cable modem tiene una conexión coaxial para conectar
con la red del proveedor.
A nivel de enlace superior, al igual que en ADSL se usa el estándar PPPoE.

UMTS
El estándar UMTS/HDSPA (también conocido como 3,5G) permite la conexión a Internet
usando la red de telefonía móvil de tercera generación. Por tanto, como medio se usa el aire,
transmitiendo señales con las antenas adecuadas en la frecuencia de los 2GHz. Como es evidente, se
trata de un medio inalámbrico que podemos usar siempre que el lugar donde estemos haya
cobertura UMTS o 3G. Aunque realmente requiere conexión (que el modem o router haga una
llamada) se simula una conexión permanente.
El elemento de interconexión es el modem UMTS o el router UMTS. También es posible usar
un teléfono móvil UMTS como modem para realizar este tipo de conexión en cualquier ordenador.
UMTS especifica tanto el nivel físico como el de enlace, por lo cual no se definen estándares
en ellos.
Nivel de red y transporte
A nivel de red y transporte en Internet, tanto en las redes regionales y de proveedores, como
en las de tránsito o transporte internacional se usan los estándares de TCP/IP. De hecho estos
estándares fueron creados para Internet o sus predecesores.
Sea cual sea el estándar escogido en las capas inferiores, sobre ellas hay que usar TCP/IP (los
protocolos PPP y PPPoE, están diseñados para que se pueda hacer esto).
Cualquier red LAN que desee conectarse a Internet debe soportar a nivel particular el estándar
TCP/IP, aunque pueda haber otros funcionando en la red local. Si no lo hace, aunque siga
funcionando como red local no se conectará a Internet (los otros estándares no son capaces de
enrutar la información).
Los grandes routers que tienen los ISP en sus centralitas o centros de datos también usan a
nivel de red y transporte TCP/IP.
Remitimos al alumno a un repaso de los protocolos TCP/IP de los niveles de red y transporte
en redes de área local, ya que son los mismos.

Nivel de aplicación
A nivel de aplicación sólo se usan los protocolos de aplicación definidos en la familia TCP/IP:
HHTTP, SMTP, POP, etc..

Tabla resumen de los estándares de internet.

Aplicación HHTP, SMTP, POP, etc.


Transporte TCP
Red IP
Enlace PPP PPPoE
UMTS
Enlace (bajo) V.92 ADSL DOCSIS
Fibra óptica y
Físico RTC RTC adaptada Aire (2GHz)
coaxial
Nivel físico I: Medios de transmisión
Generalmente, la información que utiliza una persona o una aplicación no está en un formato
que se pueda transmitir por la red. Por ejemplo, no se puede enrollar una fotografía, insertarla en un
cable y transmitirla a través de la ciudad. Sin embargo, se puede transmitir una descripción
codificada de la fotografía. En lugar de enviar la fotografía real, se puede utiliza un codificador para
crear un flujo de unos y ceros que le indique al dispositivo receptor cómo reconstruir la imagen de
la fotografía.
Pero incluso los unos y ceros no pueden ser enviados a través de los enlaces de una red.
Deben ser convertidos posteriormente a un formato aceptable para el medio de transmisión. El
medio de transmisión funciona conduciendo energía a través de un camino físico. Por tanto, el flujo
de datos de unos y ceros debe ser convertido a energía en forma de señales electromagnéticas.

Medio y señales
Un medio es un elemento físico que permite la transmisión de información. La información
se transmite alterando algunas magnitudes electromagnéticas del medio en el tiempo, y este hecho
se denomina señal. Las señales son producidas en el emisor en función de la información a emitir y
detectadas en el receptor que las interpreta como la información que se emitió (si no ha habido
perturbaciones).
Las magnitudes que se alteran suelen ser el voltaje o tensión de una corriente eléctrica
(medida en voltios) cuando se trata de un cable de cobre o el campo eléctrico cuando se trata de
ondas electromagnéticas que viajan por el aire o por la fibra óptica. La evolución o cambio de esa
magnitud en el tiempo la podemos representar mediante una gráfica, dando lugar a una
representación que nos es más familiar cuando hablamos de términos como señal u onda.

A la hora de transmitir información mediante señales no sólo nos va a servir el valor de la


magnitud a alterar, sino que también la velocidad con que se cambie y cómo se cambie (si se
mantiene, crece, decrece, se hace 0, etc.).
Un ejemplo
Dentro de la carcasa de un ordenador, los dígitos binarios se transmiten de unos dispositivos a
otros (y en el interior de ellos) como señales eléctricas convenientemente codificadas. A cada tipo
de dígito binario se le puede asociar un nivel de tensión o voltaje diferente, y lo normal es asignar
un valor de +5 voltios para representar un “1” y 0 voltios para representar un “0”. Esto es
equivalente a decir que los circuitos de un ordenador interpretan un “1” cuando por la conexión
correspondiente reciben corriente eléctrica cuya tensión se aproxima a los +5 voltios, mientras que
interpretan un “0” cuando no hay corriente.
Cuando se transmite información binaria utilizando corriente eléctrica se necesitan al menos
dos hilos diferentes: por uno de ellos circula la señal y el otro es la masa del circuito. Es necesario
que exista esta masa para que el circuito se cierre y pueda circular corriente por él; además, se toma
como voltaje de referencia (0 voltios).
Los dígitos deben transmitirse por el cable uno a continuación del otro. Es necesario que
exista un tiempo para que se transmitan, puesto que la señal no puede viajar más deprisa que la luz.

Ilustración 2: Señal dentro de un ordenador

Normalmente suele considerarse que la transmisión de las señales por los cables suele ser
perfecta, y la información se muestra como en la figura anterior. Sin embargo, en la realidad no
ocurre así, debido fundamentalmente a la tecnología utilizada para fabricar los componentes. La
siguiente figura muestra cómo podría transmitirse realmente esa señal. Esto implica que los
circuitos digitales deben asignar rangos en vez de niveles de tensión exactos para poder interpretar
correctamente la información. Por ejemplo, se considera un “1” a cualquier nivel de tensión
comprendido entre 4V y 6V, mientras que se toma como “0” si está entre –1V y +1V.

Ilustración 3: Señal real dentro de un ordenador

Tipos de señales
Las señales pueden ser analógicas o digitales. En una señal analógica la magnitud que se
altera puede tomar cualquier valor en cada instante y el cambio es continuo, sin saltos. En una señal
digital la magnitud que se altera sólo puede tomar un número finito de valores (normalmente dos) y
el cambio es instantáneo, sin tomar los valores intermedios1.

1 En la realidad es pseudoinstantáneo, y toma los valores intermedios, pero en un lapso de tiempo muy rápido, por lo
que se considera que es instantáneo y los valores intermedios se desprecian.
Ilustración 4: Señal analógica y digital

La señales digitales permiten una transmisión más rápida y fiable, pero necesitan un medio de
más calidad. Por eso se utilizan para distancias cortas. Para distancias largas, se suelen usar señales
analógicas.
Se tiende a pensar que la señal analógica es para transmitir datos analógicos (como la voz
humana) y la señal digital para datos digitales, ya veremos más adelante que se puede usar señal
analógica para datos digitales y señal digital para datos analógicos.
Por otro lado, las señales pueden ser periódicas o aperiódicas. Una señal es periódica si
completa un patrón dentro de un marco de tiempo medible, denominado periodo, y repite ese
patrón en periodos idénticos subsecuentes. Cuando se completa el patrón se dice que se ha
completado un ciclo, siendo entonces el periodo el tiempo necesario para completar un ciclo. Una
señal aperiódica cambia constantemente sin exhibir ningún patrón que se repita en el tiempo.

Ilustración 5: Señales periódicas

Ilustración 6: Señales aperiódicas

Un importante hecho es que cualquier señal aperiódica puede ser descompuesta en un


número infinito de señales periódicas.

Señales analógicas
Las señales analógicas se pueden clasificar en simples o compuestas.
Una señal analógica simple, u onda seno, no puede ser descompuesta en señales más
simples.
Ilustración 7: Señal analógica simple u onda seno

Cualquier onda seno se puede describir completamente mediante tres características:


• Amplitud. Es el valor que toma la magnitud que cambia en el tiempo. En el gráfico, es la
altura que va tomando la gráfica. Se mide en la correspondiente unidad de la magnitud,
normalmente voltios. En muchas ocasiones, cuando se menciona la amplitud de una onda
seno, en realidad se está hablando de su amplitud máxima.

Ilustración 8: Amplitud

• Periodo y frecuencia. El periodo se refiere a la cantidad de tiempo, en segundos, que


necesita una señal para completar un ciclo. La frecuencia indica el número de periodos o
ciclos en un segundo, y se mide en herzios (Hz). La relación entre ambos es
1 1
periodo= , frecuencia =
frecuencia periodo

Ilustración 9: Periodo y frecuencia

• Fase. El término fase describe la posición de la onda relativa al instante de tiempo 0. Si se


piensa en la onda como algo que se puede desplazar hacia delante o hacia atrás a lo largo del
eje del tiempo, la fase describe la magnitud de ese desplazamiento. Indica el estado del
primer ciclo. La fase se mide en grados. Un desplazamiento de fase de 360 grados
corresponde a un desplazamiento de un periodo completo; un desplazamiento de fase de 180
grados corresponde a un desplazamiento de la mitad del periodo; un desplazamiento de fase
de 90 grados corresponde a un desplazamiento de un cuarto de periodo.

Ilustración 10: Fase

Una señal simple no transporta información. La señal debe ser manipulada, introduciéndole
cambios identificables que puedan ser reconocidos en el emisor y el receptor como representativos
de la información transmitida.

Ilustración 11: Cambio de amplitud

Ilustración 12: Cambio de frecuencia


Ilustración 13: Cambio de fase

Una señal analógica compuesta es aquella que no es simple. Siempre que las irregularidades
sean consistentes para cada ciclo, una señal sigue siendo periódica y puede describirse en los
mismos términos que los usados para las ondas seno.

Ilustración 14: Señal analógica compuesta y sus características

De hecho, se puede demostrar que cualquier señal periódica, sin importar su complejidad,
se puede descomponer en una colección de ondas seno, cada una de las cuales tiene una
amplitud, frecuencia y fase que se puede medir.
Ilustración 15: Señal compuesta como suma de señales
simples

Cuando descomponemos una señal compuesta en ondas seno, al conjunto de las frecuencias
que forman cada una de esas ondas seno se le denomina espectro de frecuencias. El ancho de
banda de una señal es la diferencia entre la frecuencia más alta y la más baja de las ondas seno que
la componen. Este concepto va a estar muy relacionado con la velocidad de transmisión que pueda
aportar un medio.

Señales digitales
Nos centramos en las señales digitales binarias, es decir, las que sólo pueden tomar dos
valores.
La mayoría de señales digitales son aperiódicas y, por tanto, la periodicidad o la frecuencia no
es apropiada. Se usan dos nuevos términos para describir una señal digital: intervalo de bit (en lugar
de periodo) y tasa de bit (en lugar de frecuencia). El intervalo de bit es el tiempo necesario para
enviar un único bit. La tasa de bit es el número de intervalos de bit por segundo. Eso significa que
la tasa de bit es el número de bits enviados en un segundo, habitualmente expresado en bits por
segundo (bps).
Ilustración 16: Señal digital y sus características

Una señal digital se puede descomponer en un número infinito de ondas seno sencillas
denominadas armónicos, cada uno de los cuales tiene una amplitud, frecuencia y fase distintas.
Esto significa que cuando se envía una señal digital por un medio de transmisión, se están enviando
un número infinito de señales simples.

Ilustración 17: Señal digital como suma de ondas seno


Para recibir una réplica exacta de la señal digital, todos los componentes de frecuencia deben
ser transferidos exactamente a través del medio de transmisión. Si alguno de los componentes no se
envía bien a través del medio, el receptor obtendrá una señal corrupta. Puesto que no hay ningún
medio práctico (como una cable) que sea capaz de transferir todo el rango completo de frecuencias,
siempre existe una cierta corrupción.
Ilustración 18: Incremento de la precisión con el número de armónicos
usados

Aunque el espectro de frecuencia de una señal digital tiene un número infinito de frecuencias
con distintas amplitudes, se se envían solamente aquellos componentes cuyas amplitudes son
significativas (están por encima de un umbral aceptable), todavía se puede reconstruir la señal
digital en el receptor con una exactitud razonable (distorsión mínima) A esta parte del espectro de
frecuencias infinito se le llama espectro significativo de la señal, y a su ancho de banda se le
denomina ancho de banda significativo.
Cuanto más estrechos sean los pulsos de una señal digital (véase la figura siguiente), mayor
ancho de banda tendrá, es decir, más componentes armónicos serán necesarios para representar
fielmente esos pulsos. Esta característica es muy importante y, como se verá posteriormente, un
medio de transmisión está limitado por su propio ancho de banda máximo. Este parámetro
determina el número de armónicos de una señal que es capaz de trasmitir, de forma que los que
poseen una mayor frecuencia nunca llegarán al otro extremo del medio. Por tanto, también limita el
número de pulsos que puede tener una señal digital transmitida por ese medio y en consecuencia la
velocidad de transmisión de datos.

Codificación y modulación
A la hora de transmitir una señal por un medio de transmisión, se presentan dos alternativas:
transmitirla tal y como es o alterar alguna de sus características. Para distancias cortas (algunos
metros o menos), medios de transmisión de gran capacidad o velocidades de transmisión bajas, se
suele transmitir los dígitos binarios como niveles de tensión (como se vio anteriormente). Sin
embargo, si las distancias son largas, el medio no es de calidad y se requieren velocidades altas, es
preciso adaptar la señal a enviar para que cumpla una serie de condiciones.
Todo medio de transmisión está limitado por un ancho de banda máximo. Esto quiere decir
que, cuando circula una señal por él, es posible que existan determinados armónicos de ella que no
pueden ser transportados por el medio (los que tienen una frecuencia mayor). Esos armónicos se
pierden y la señal que llega al destinatario puede haberse modificado considerablemente.
Cuanto mayor es la velocidad de transmisión, más estrechos son los pulsos en las señales
digitales y tienen un mayor ancho de banda. Esto implica que, si se aumenta la velocidad de
transmisión, llega un momento en que la señal que circula por el medio no tiene suficientes
armónicos como para ser interpretada correctamente. O visto de otra manera, el medio no es capaz
de ofrecer las frecuencias de armónicos necesarias para que la señal sea interpretada correctamente.
Por todo ello, cuando se transmite una señal digital, no se suele hacer directamente, sino que
es preferible modificarla de alguna forma con el fin de:
• Disminuir el ancho de banda de la señal.
• Permitir que el emisor y el receptor mantengan el sincronismo.
La señal resultante debe cumplir esas dos condiciones, pero, además, se supone que la
información que transporta debe ser la misma. Para que el emisor y el receptor mantengan el
sincronismo sin utilizar ninguna señal adicional, lo ideal es que se codifique, en cada pulso, un solo
dígito; mantener la señal en un nivel durante mucho tiempo hace que el receptor pierda la
sincronización. Seguidamente veremos algunas técnicas para alcanzar estos propósitos.

Modulación
Se dice que una señal llamada portadora (normalmente una onda seno adecuada al medio)
está modulada por otra llamada moduladora cuando ésta última controla algún parámetro de la
primera. Se podrá actuar sobre la amplitud, frecuencia o fase de la señal portadora (normalmente
sobre una sola característica, aunque existen métodosque actúan sobre más de una a la vez). Al
dispositivo que realiza esta conversión se le llama módem (Modulador. DEModulador). A partir de
una señal moduladora (información) y una portadora (con las características deseadas), se obtiene
una señal modulada (que posee la misma información que la moduladora pero con las
características de la portadora).

Existen varios tipos de modulación, dependiendo de si la señal que lleva la información es


analógica o digital y de si la portadora es a su vez analógica o digital.
• Modulación analógica con portadora analógica: se utiliza cuando se desea transmitir la
señal analógica a una frecuencia diferente o con un ancho de banda menor. La modulación
se puede realizar utilizando cambios de amplitud, frecuencia o fase de la señal portadora. Un
ejemplo es la FM de radio.
• Modulación digital con portadora analógica: se utiliza cuando se desea trasmitir la señal
digital por un medio de transmisión diseñado para transmisiones analógicas. Es la
modulación más común y la pueden utilizar los usuarios para el acceso a internet a través de
la red telefónica conmutada.
Ilustración 19: Ejemplos de modulaciones digitales con portadoras
analógicas

• Modulación analógica con portadora digital: se utiliza cuando se desea transmitir la señal
analógica a través de una red digital (por ejemplo, transmisión de voz a través de telefonía
móvil digital). En este caso, lo más probable es que la señal moduladora tenga una
frecuencia y un ancho de banda inferior a la señal modulada, con lo que se produce un
desaprovechamiento del medio de transmisión.

Codificación
La técnica de modulación digital con portadora digital no existe como tal, sino que se
denomina codificación. Esta técnica intenta modificar las señales digitales en otras más simples que
tengan una mayor facilidad para ser transmitidas por el medio o permitan una mayor velocidad. A
continuación se muestran algunos ejemplos de codificación.

Ilustración 20: Ejemplos de codificación 1


En los siguientes, especialmente importante es la Bifase-L, también llamada Manchester, que
es la usada en Ethernet.
Ilustración 21: Ejemplos de codificación 2

Técnicas de transmisión
Para efectuar la transmisión de la información se utilizan varias técnicas, pero las más
comunes son la banda base y la banda ancha.

Banda base
La transmisión de banda base usa señales digitales. Una transmisión que se efectúe en modo
de banda base utiliza todo el ancho de banda que puede ofrecer el medio, por lo que en un
determinado momento sólo se puede transmitir una señal y, con ella, un único dato (bit).
La técnica de banda base es especialmente adecuada en la transmisión a corta distancia. El
medio de transmisión (el cable) ha de poder cambiar de estado con la rapidez que requiera la
transmisión de datos digitales (de forma pseudoinstantánea), y los dispositivos de interfaz y
repetidores han de ser capaces de leer y transmitir información a esa velocidad.
Banda base significa que la señal no está modulada (no es necesario módem), y por tanto la
técnica no es muy adecuada para transmisiones a larga distancia ni para instalaciones sometidas a
un alto nivel de ruidos e interferencias. Sin embargo, el empleo de esta técnica permite utilizar
dispositivos de interfaz y repetidores que resultan muy económicos.
Todas sus características hacen la banda base ideal para las transmisiones en redes locales.

Banda ancha
Esta técnica consiste básicamente en modular la información sobre ondas portadoras
analógicas. Las señales analógicas son adecuadas para largas distancias.
Varias portadoras pueden compartir la capacidad del medio de transmisión, mediante técnicas
de multiplexado2. Aunque todos los usuarios utilizan la misma línea, es como si se estuvieran
utilizando varias diferentes. La transmisión de banda ancha permite que dos o más comunicaciones
compartan el mismo ancho de banda del medio de transmisión. Así, las redes de banda ancha
pueden transmitir simultáneamente vídeo, voz y datos.
Como consecuencia de algunas de las distintas formas de modulación existentes, se pueden
llegar a transmitir varias unidades de información por unidad de señal, lo que supone un mejor
aprovechamiento del ancho de banda que ofrece el medio. De hecho, el ancho de banda que se use
en la señal va a depender de la velocidad a la que se vayan a transmitir los datos. Esto permite usar

2 Multiplexación es una técnica que divide el medio de transmisión en dos o más canales. El proceso opuesto, la
Demultiplexaxión, recupera canales de una señal multiplexada.
medios de menor calidad y coste para cubrir mayores distancias.
Cuando se utiliza el sistema de banda ancha para transmitir datos, es necesario utilizar
módems para modular la información. Los módems utilizados en las redes de banda ancha son
dispositivos muy complejos y costosos comparados con los dispositivos de banda base, pues han de
realizar funciones de modulación/demodulación y de transmisor/receptor.
Todas sus características hacen la banda ancha ideal para las redes WAN con largas
distancias.

Degradación de la transmisión
Si la suma de todos los efectos producidos durante el viaje de una señal por su medio no crea
una gran diferencia entre la señal enviada y la recibida, conseguiremos una transmisión libre de
errores. Por el contrario, cuando la señal recibida difiera en exceso de la señal transmitida, el
receptor puede interpretar incorrectamente la información y decimos entonces que se produce un
error de transmisión. Evidentemente, no todas las señales sufren los mismos efectos al atravesar los
distintos medios; luego, cuando sea posible, se seleccionará cuidadosamente el tipo de señal y
medio que conduzca a las mejores condiciones de comunicación. Veamos ahora algunos de estos
problemas de la transmisión.
Uno de los problemas de transmisión más importantes, sobre todo a largas distancias, es la
atenuación. Ésta consiste en el debilitamiento o pérdida de amplitud de la señal recibida frente a la
transmitida. Por ejemplo, sabemos que cualquier sonido se percibe con menor intensidad cuanto
más alejados nos encontramos de la fuente que lo origina. La atenuación tiene un efecto
proporcional a la longitud del cable: a partir de una determinada distancia, la señal recibida es tan
débil que no se puede reconocer mensaje alguno. La siguiente figura muestra gráficamente el efecto
de la atenuación de una señal.

Ilustración 22: Atenuación

Para paliar el efecto de la atenuación, se pueden incorporar en el camino de la señal unos


dispositivos activos, cuya función es amplificar la señal en la misma medida en que acaba de ser
atenuada por el medio, con lo que así se consigue recuperar la señal para que pueda alcanzar más
distancia. Estos dispositivos tienen nombres diferentes: se utilizan repetidores que son capaces de
restaurar la señal digital original (amplificándola y eliminando el ruido añadido) y amplificadores
para señales analógicas.
La atenuación no sólo es función de la distancia, sino también de la frecuencia, ya que no
afecta por igual a todos los armónicos que representan la señal. Los de mayores frecuencias sufren
una mayor atenuación. A este fenómeno se le conoce como distorsión de atenuación y produce, en
las señales con diferentes componentes frecuenciales, una atenuación distinta para cada armónico,
lo que origina que la señal recibida tenga una forma diferente de la transmitida, amén de una menor
amplitud. Como la señal recibida se ha deformado con respecto a la transmitida, decimos que se ha
distorsionado. La siguiente figura muestra un ejemplo gráfico de este efecto:
Ilustración 23: Distorsión

Otro fenómeno muy común en comunicaciones es la diafonía. Consiste en la interferencia


mutua que se producen dos canales de cobre que se encuentran juntos. Cada una de esas señales
genera interferencias en el otro cable y hace que parte de la señal se “introduzca” y se sume con la
otra, a causa de la inducción electromagnética. En una conversación telefónica, esto se observa
como una segunda conversación que se oye de fondo mezclada con la nuestra. Este fenómeno
también se produce cuando las señales circulan por un medio compartido (en banda ancha) y sus
frecuencias en multiplexación están muy próximas entre sí.
Otra fuente de problemas en la transmisión es el denominado ruido impulsivo. Consiste en
pulsos irregulares de corta duración y, relativamente, de gran amplitud, que son provocados por
inducciones, como consecuencia de conmutaciones electromagnéticas. Este tipo de ruido se produce
por causas variadas que suelen ser externas al medio de transmisión. Podemos compararlo a las
interferencias en un receptor de radio cuando se aproxima una motocicleta, o también al encendido
de determinados aparatos en un domicilio (como puede ser una lavadora o un frigorífico, que
conectan y desconectan sus motores continuamente).
Existen infinidad de dispositivos cuyo encendido o apagado genera un impulso de
radiofrecuencia capaz de influir a canales de comunicación próximos. El ruido impulsivo es
típicamente aleatorio, es decir, se produce de manera inesperada y no suele ser repetitivo. La
siguiente figura muestra una señal digital a la que se le ha añadido pequeños pulsos de ruido; en
algunos casos, si esos pulsos tienen valores de tensión elevados, pueden hacer que el receptor
interprete la señal incorrectamente.

Ilustración 24: Ruido impulsivo

El ruido y las interferencias no afectan por igual a todas las señales. Es importante destacar
que algunas señales se ven afectadas por el ruido más que otras, sobre todo aquéllas que resultan
más tenues o de amplitud menor.

Capacidad de transmisión en un medio ideal


Hasta ahora hemos visto una serie de efectos físicos que producen problemas en la
transmisión. Aparte de ellos, existen unos límites superiores que determinan la velocidad de
transmisión máxima de un canal, dependiendo de su ancho de banda y del tipo de señal empleada.
Para medir la velocidad máxima que puede soportar un medio de transmisión determinado
con respecto al tipo de señal utilizada, se emplean dos medidas fundamentales: el baudio y los
dígitos binarios por segundo (bps).
La medida en bps es el parámetro más importante (junto con sus múltiplos Kbps, Mbps, Tbps,
etc.), ya que nos indica el número de bits que se transmiten en un segundo (visto desde el punto de
vista del emisor o el receptor). Por su parte, el baudio mide la cantidad de veces por segundo que la
señal puede cambiar una de sus características de forma distinguible. Dado que una señal es la
“suma” de sus armónicos, la cantidad de baudios, lo más rápido que puede cambiar una señal es al
ritmo de su armónico de mayor frecuencia. Por tanto, para un medio, baudio y ancho de banda son,
en cierta forma, equivalentes.
Una línea de x baudios no necesariamente transmite x bps, pues cada señal podría transportar
varios dígitos. Si se usaran, por ejemplo, los voltajes 0, 1, 2, 3, 4, 5, 6 y 7, el valor de cada señal
podría servir para transportar tres dígitos (como se muestra en la siguiente figura), de modo que la
velocidad en bps sería tres veces superior a la velocidad en baudios.

Ilustración 25: 3 bits por baudio

Si se utilizan solamente dos niveles, cada uno de ellos representará a un dígito


binario (0 ó 1) y la velocidad en bps será igual a la velocidad en baudios. En otros casos
la velocidad en bps puede ser menor que la velocidad en baudios.
La velocidad de transmisión de un canal de comunicación se mide en dígitos
binarios por segundo o bps, es decir, el número de dígitos binarios que es capaz de
transportar un determinado medio de comunicación utilizando algún método de
codificación. Si se tiene una velocidad de x bps, el tiempo que se requiere para enviar N
dígitos es de N / x segundos.
En 1924, H. Nyquist se dio cuenta de la existencia de un límite fundamental que
expresaba la tasa de datos máxima para un canal ideal (sin ruido ni distorsiones) de
ancho de banda finito. En este medio ideal, la velocidad máxima de transmisión de datos
en bps viene limitada por el teorema de Nyquist que establece:
C=2⋅W⋅log 2 M 
siendo M el número de niveles posibles de la señal y W el ancho de banda expresado en
hertzios (Hz). El valor de M para una señal digital binaria es 2 por ser señales de dos
estados. Por ejemplo, un canal sin ruido de 3 KHz de ancho de banda (W) no puede
transmitir señales binarias (esto es, de dos niveles) a una velocidad mayor que 6.000 bps.
C=2⋅W⋅log 2 M =2⋅3000⋅log 2  2=2⋅3000⋅1=6000
El interés de esta expresión radica en que fija una cota superior con la que comparar
el comportamiento de los sistemas que se diseñan ya que, cuando se habla de velocidad
de transmisión de un canal real (con ruidos), nunca se alcanzan estas velocidades.

Factores de evaluación del medio


El medio de transmisión constituye el soporte físico a través del cual emisor y
receptor pueden comunicarse en un sistema de transmisión de datos. Distinguimos dos
tipos de medios: guiados y no guiados. En ambos casos, la transmisión se realiza por
medio de ondas electromagnéticas. Los medios guiados conducen las ondas a través de
un campo físico (cables). Los medios no guiados proporcionan un soporte para que las
ondas se transmitan, pero no las dirigen (como es el aire).
La naturaleza del medio, junto con la de la señal que se transmite a través de él,
constituye un factor determinante de las características y la calidad de la transmisión. En
el caso de medios guiados, es él mismo el que determina las limitaciones de la
transmisión. Sin embargo, a la hora de obtener la velocidad de transmisión máxima que
puede soportar un medio no guiado, resulta más determinante el espectro de frecuencia
de la señal utilizado que las características del propio medio (aunque también están muy
influenciados por las condiciones atmosféricas).
Cada uno de los medios que se verán en los apartados siguientes cumple unas
determinadas características en cuanto a:
• Ancho de banda que puede soportar. Es importante tener en cuenta que el
ancho de banda disminuye con la distancia.
• Velocidad de transmisión de los datos. Depende del ancho de banda y de la
cantidad de bits que se puedan enviar en cada baudio.
• Espacio entre repetidores. Equivale aproximadamente a la distancia a la que la
señal llega con una calidad suficiente como para interpretar correctamente el
mensaje que conlleva. En este parámetro es determinante lo que le afecte la
atenuación/distorsión y la diafonía.
• Fiabilidad en la transmisión. Está muy ligada al anterior, ya que la transmisión en
menos fiable cuanto más distancia tiene el medio.
• Coste del medio y los conectores. Habría que tener en cuenta también el coste
de los adaptadores de red y dispositivos, pero eso corresponde a otros niveles más
altos.
• Facilidad de instalación. Es otro componente muy a tener en cuenta en cuanto al
coste de la red completa, ya que aunque el medio pudiera ser barato, el coste de
instalación es inevitable. Si ese coste es elevado, puede perjudicar la ventaja de un
medio menos costoso.
• Seguridad. Facilidad con la que se puede intervenir el cable.

Cable coaxial

Descripción
Este cable, muy parecido al de las antenas de televisión, tiene un hilo conductor central
(llamado vivo o alma). Rodeando este cable está un aislante plástico y, sobre él, una malla
conductora. El conjunto en su totalidad está recubierto por un aislante de intemperie.

Ilustración 26. Cable coaxial


El motivo de esta curiosa forma no es caprichoso: cuando una corriente atraviesa un par de
conductores, éstos producen unos campos magnéticos y eléctricos que se desplazan a lo largo del
conductor pudiendo provocar interferencias con otros conductores. Esto no ocurre si uno de los
hilos hace las veces de tierra de la instalación y, además, rodea al otro conductor, y de esta forma se
consigue confinar los campos dentro del cilindro que forma el conductor de tierra.
Esta construcción le confiere un elevado ancho de banda y excelente inmunidad al ruido.

Tipos y estándares
Hay dos tipos fundamentales de cable coaxial: el cable coaxial de banda base (para
transmisión digital en redes locales) y el cable coaxial de banda ancha (utilizado para transmisión
analógica, por ejemplo, en redes WAN).
Nos centramos en el coaxial de banda base, único usado en redes locales. El ancho de banda
máximo que se puede obtener depende de la longitud del cable; utilizar cables de mayor longitud
hace reducir la velocidad de transmisión. Existen dos tipos:
• Coaxial grueso o thicknet. Es el tipo de cable que comenzó a utilizarse en redes locales,
pero hoy en día sólo se emplea para realizar la estructura troncal de distribución de la red, y
sólo en redes antiguas. El estándar más usado es el RG-100. Su núcleo es de 2,6 mm,
mientras que la malla es de 9,5 mm (dando lugar a un cable de 1 cm de diámetro
aproximadamente). Se usa en el estándar Ethernet 10Base5, permitiendo velocidades de 10
Mbps con distancias de hasta 500 m..
• Coaxial fino o thinnet. Posee un núcleo de 1,2 mm y una malla de 4,4 mm, lo que hace un
cable de aproximadamente 0,5 cm. Dada su flexibilidad es más fácil de instalar, aunque es
más caro y posee menor inmunidad frente a interferencias. Por eso se usa para la conexión
de las estaciones. Existen varios tipos de cables coaxiales finos, pero el más utilizado es el
RG-58 (en España se suele nombrar como RG-58/U). Se usa en el estándar Ethernet
10Base2, permitiendo velocidades de 10 Mbps con distancias de hasta 185 m..

Tipo cable Nombre Ethernet Ancho de banda Distancia máxima


Fino (Thin o Thinnet) 10Base2 10 Mbps 185 m
Grueso (Thick o Thicknet) 10Base5 10 Mbps 500 m

Tabla 2. Tipos de cable coaxial

La red
Una red que utilice cable coaxial responde habitualmente a una topología física de bus o de
anillo. Se crea por medio de la unión de secciones de cable coaxial con conectores T para formar en
conjunto un cable largo. En caso de topología en bus, en los dos extremos finales se utiliza
terminadores en lugar de conectores T. Las estaciones están conectadas a las piezas T o a los
terminadores y de esta forma la información enviada al cable llega a todas.
Ilustración 27. Red con cable coaxial

Todo el conjunto de cables debe mantenerse en perfecto estado para que funcione la red. En
caso de que algún segmento se dañe o se desconecte la red queda inoperativa. Evidentemente esto
supone que también cuando hagamos modificaciones en la red, como añadir una estación, la red
queda inoperativa durante dicho proceso.

Factores de evaluación
En cuanto al ancho de banda y la velocidad de transmisión, como hemos indicado en los
tipos depende mucho de la longitud de los cables, es decir, de la distancia entre repetidores.
Podemos fijar como referencia los 10 Mbps para distancias de 185 o 500 metros3 (dependiendo del
tipo).
La fiabilidad se puede considerar de buena a excelente. Es poco sensible a interferencias
eléctricas, pero mucho a los ruidos eléctricos.
El coste del cable y los conectores es relativamente bajo. Además, como se usa en topologías
física de tipo bus se usa poca cantidad de cable. La instalación tampoco es costosa.
En cuanto a la seguridad, es baja, puesto que el cable puede actuar como una antena,
emitiendo señales constantemente, lo que permite la recepción no autorizada de las señales.

Conectores y herramientas
Tendremos básicamente dos tipos:
• Uno para ordenadores de la parte central de la cadena de ordenadores
que constituye la red, llamado conector BNC tipo T. La parte diferente
es la que se conecta al adaptador de red del ordenador y las otras dos
terminaciones se usan para conectar los cables que vienen de los
ordenadores justo anterior y posterior de la cadena.

• Otro para los ordenadores de los extremos de la cadena. Estos sólo


conectan el cable que les llega al adaptador de red del ordenador, que
normalmente contiene el terminador necesario para que el cable no
quede “abierto”.

3 Usando este tipo de cable, la red se suele formar uniendo cada estación con la siguiente. La sensación es que hay un
cable entre cada par de estaciones consecutivas, pero en realidad todos los enlaces entre estaciones consecutivas es
un único cable. Y la distancia máxima es la de este único cable, es decir, la suma de todos los fragmentos entre
estaciones consecutivas no puede exceder la longitud máxima.
No se necesita ninguna herramienta especial para la elaboración de los cables.

Montaje

Cable de par trenzado

Descripción
El par sin trenzar está formado por un par de hilos de cobre paralelos, recubiertos cada uno de
un material aislante. Uno de los hilos conduce la corriente que define la señales, mientras que el
otro hace de masa o tierra.
Si se disponen varios pares sin trenzar unidos el conjunto se vuelve muy sensible a
interferencias y sobre todo a diafonías producidas por la inducción electromagnética de unos
conductores en los otros. Sin embargo, si cada par se trenza se anulan las perturbaciones
electromagnéticas sobre otros conductores próximos.
De esta manera surge el cable de par trenzado (twisted pair), que es el cable más utilizado
para redes locales hoy en día, y casi el único cuando las redes son de tamaño medio o pequeño. Se
trata de un cable formado por dos hilos trenzados entre sí, formados cada uno de ellos por un
conductor de cobre y una cubierta aislante. El grosor de los hilos es de aproximadamente
1milímetro, lo que se denota por 24AWG.

Ilustración 28: Par trenzado

Normalmente se colocan varios pares de hilos trenzados dentro de un envoltorio o cubierta


exterior común. Lo más habitual, es encontrarlos de dos pares (cuatro hilos) o cuatro pares (ocho
hilos, el más común), aunque los hay con más pares (25 ó 100) y se utilizan para instalaciones de
cableado complejas. Los distintos pares dentro de la misma cubierta también están trenzados unos
con los otros. Esta doble disposición trenzada consigue optimizar la resistencia a interferencias por
inducción.
Pongámonos en el caso más común, el del cable de ocho hilos, cuatro pares. Cada par está
formado por dos hilos, uno de ellos de un color sólido (naranja, azul, verde y marrón) y el otro
blanco con franjas o marcas del mismo color (blanco-naranja, blanco-azul, blanco-verde y blanco-
marrón).

Tipos y estándares
Hay muchos aspectos que tratar sobre los tipos de cable de par trenzado. Comenzamos por lo
más importante, la categoría o clase.
Categoría / Clase
Las categorías (según el estándar ANSI/IEA/TIA-568) o clases (según el estándar ISO/IEC
11801) determinan la velocidad máxima de transmisión y la distancia máxima entre conexiones.
Cada categoría especifica unas características eléctricas para el cable: atenuación, capacidad de la
línea, impedancia, que dependen de factores de fabricación como la cantidad de trenzado por metro,
la existencia de pantalla protectora, etc..
En la siguiente tabla, se simplifica la definición de las categorías o clases indicando para cada
una la capacidad de ancho de banda para una distancia máxima de 100 metros. A su vez, se indica
en qué estándares de red son usadas cada una.
Cableado estructurado
Instalar una red local de pequeñas dimensiones con un solo concentrador de cableado no suele
plantear demasiados problemas. La instalación más simple que se puede realizar para que la red esté
operativa consiste en fijar el concentrador (normalmente a la pared) y conectar todos los equipos
usando cables de diferentes longitudes.
La instalación anterior puede funcionar perfectamente, pero plantea algunos problemas. El
primero consiste en que los cables que conectan los equipos con el concentrador se tiran por el
suelo, lo que resulta muy engorroso para los usuarios, ya que pueden tropezar con ellos, además de
que pueden pisarlos o hacer que se produzca un corte no intencionado. Para solucionar este
problema, se pueden utilizar conductos de plástico que se fijan a la pared e introducir todos los
cables por ellos. Sin embargo, no es buena idea introducir también por estos conductos el cableado
eléctrico, ya que puede generar interferencias con la red.
Otro problema que se puede generar en este tipo de instalaciones se produce a la hora de
realizar el mantenimiento. Por ejemplo, suele ser común la rotura de algunos conectores de red, por
lo que el administrador debe cortar el fragmento y engastar un nuevo conector. Y ahí es donde
puede venir el problema: qué ocurre cuando el cable queda demasiado corto. Se puede hacer un
empalme, pero suele ser bastante difícil asegurar que no generará ruido. La única alternativa que
queda es sacar todo el fragmento de cable e instalar uno nuevo más largo.
Finalmente, un problema que se suele agravar con el tiempo en este tipo de instalaciones son
las ampliaciones. Por ejemplo, si se desea instalar más equipos o conectar esa red con otra de
reciente instalación. La cantidad de cable que se debe instalar suele aumentar muy rápidamente, los
concentradores se llenan de conexiones y al administrador le cuesta cada vez más trabajo encontrar
las averías.
Por todas estas razones, en la instalación de una red se suele seguir una serie de normas que
aseguran un buen funcionamiento y permiten que la administración no se convierta en un
quebradero de cabeza.

Cableado estructurado

Definición
Un estándar de cableado estructurado especifica cómo debe organizarse la instalación del
cableado de comunicaciones en edificios, sobre todo a nivel empresarial. Engloba todas las
aplicaciones de comunicaciones, como voz, megafonía, conexiones de ordenadores, etc. El estándar
especifica de forma concisa el tipo de cable a utilizar, conectores, longitudes máximas de los
tramos, organización de los elementos de interconexión, etc.
El concepto estructurado lo definen los siguientes puntos:
• Solución Segura: El cableado se encuentra instalado de tal manera que los usuarios del
mismo tienen la facilidad de acceso a lo que deben de tener y el resto del cableado se
encuentra perfectamente protegido.
• Solución Longeva: Cuando se instala un cableado estructurado se convierte en parte del
edificio, así como lo es la instalación eléctrica, por tanto este tiene que ser igual de funcional
que los demás servicios del edificio. La gran mayoría de los cableados estructurados pueden
dar servicio por un periodo de hasta 20 años, no importando los avances tecnológicos en al
computadoras.
• Modularidad: Capacidad de integrar varias tecnologías sobre el mismo cableado voz, datos,
vídeo. Fácil Administración: El cableado estructurado se divide en partes manejables que
permiten hacerlo confiable y perfectamente administrable, pudiendo así detectar fallas y
repararlas fácilmente.
Aplicar un estándar de cableado estructurado a nuestra empresa nos ofrece muchas ventajas,
entre las que destacamos:
• Facilita las tareas de mantenimiento y supervisión, ya que resulta más sencillo identificar las
estructuras de cableado.
• Asegura un funcionamiento óptimo si se cumplen todos los requisitos del estándar.
• Posibilita la inclusión de una alta densidad de cableado.
• Permite la integración de diferentes tecnologías de redes.
• Resulta fácilmente ampliable.

Normativa
Existen tres estándares internacionales de cableado estructurado, que en la práctica tienen
diferencias muy poco significativas. Todos ellos han sido actualizados para incluir redes de
comunicación más modernas y rápidas. Los más importantes son:
• ISO/IEC 11801: Estándar a nivel internacional cuya última actualización se realizó el año
2002. Define de una forma genérica cómo se debe realizar la instalación del cableado
estructurado.
• ISO/IEC 14763-1: Indica cómo se debe llevar a cabo la administración, documentación y
registro de una instalación de cableado en concordancia con la norma ISO/IEC 11801.
• ISO/IEC 14763-2: Indica los pasos a seguir en los procesos de planificación, especificación
e instalación de sistemas de cableado estructurado, siguiendo la norma ISO/IEC 11801
• EN-50173: Norma europea basada en ISO/IEC 11801 que define la terminología y los
sistemas de cableado estructurado en general.
• EN-50174-1: Ofrece documentación de carácter informativo sobre la especificación,
implantación y operación de los sistemas de cableado, de cobre y fibra óptica.
• EN-50174-2: Define los métodos para realizar la instalación del cableado en el interior de
edificios.
• EN-50174-3: Define los métodos para realizar la instalación del cableado en el exterior de
los edificios.
• ANSI/EIA/TIA-568: Norma utilizada en Estados Unidos y resto del mundo desde 1991, que
ha quedado obsoleta en la actualidad y superada por la norma ANSI/IEA/TIA-568-B.
• ANSI/IEA/TIA-568-B: Norma que actualiza la anterior y que está dividida en varias
secciones:
◦ ANSI/IEA/TIA-568-B-1: establece cómo debe realizarse el cableado de
telecomunicaciones comercial.
◦ ANSI/IEA/TIA-568-B-2: define el cableado de par trenzado de 100 ohmios.
◦ ANSI/IEA/TIA-568-B-2: define el cableado de fibra óptica.
• ANSI/IEA/TIA-569-A: establece las características de instalación del cableado en edificios,
teniendo en cuenta los espacios disponibles y las remodelaciones que se puedan realizar.
• ANSI/IEA/TIA-606: establece un método de administración uniforme para el sistema de
cableado.
• ANSI/IEA/TIA-607: especifica las normas a seguir para la instalación de tomas de tierra en
edificios comerciales.
En este tema una breve reseña de estos estándares, ya que se trata de un conjunto de
especificaciones muy amplio. Todos los estándares mencionados incluyen compatibilidad para
cableado telefónico convencional, redes Ethernet (exceptuando 10Base-2, 10Base-5 y 10Broad-36),
FDDI, ATM, Frame Relay y RDSI.

Justificación del cableado estructurado


Se debe instalar un sistema de cableado estructurado en las siguientes situaciones:
• Cuando se desee tener una red confiable. El cableado, este es el medio físico que
interconecta la red y si no se tiene bien instalado ponemos en riesgo el buen funcionamiento
de la misma.
• Cuando se desee integrar una solución de largo plazo para la integración de redes. (desde 2
hasta 20 años), Esto significa hacer las cosas bien desde el principio, el cableado
estructurado garantiza que pese a las nuevas innovaciones de los fabricantes de tecnología,
estos buscan que el cableado estructurado no se altere, ya que este una vez que se instala se
convierte en parte del edificio. La media de uso que se considera para un cableado
estructurado es de 10 años pudiendo llegar hasta 20.
• Cuando el número de dispositivos de red que se va a conectar justifique la instalación de un
cableado estructurado para su fácil administración y confiabilidad en el largo plazo. (de 10
dispositivos de red en adelante). Si hablamos de una pequeña oficina (menos de 10
dispositivos de red), puede ser que la inversión que representa hacer un cableado
estructurado no se justifique y por tanto se puede optar por un cableado mas informal
instalado de la mejor manera posible.

Subsistemas del cableado estructurado


El conjunto de todo el cableado estructurado de un edificio es su sistema de comunicaciones.
Puesto que está organizado en varias partes, existen diferentes subsistemas, cada uno de los cuales
engloba un subconjunto de especificaciones.
Esta clasificación de subsistemas de cableado no es inflexible. Incluso las denominaciones de
cada subsistema pueden variar de unos textos técnicos a toros.
Esos subsistemas son los siguientes:
Armarios de distribución (4)
Es el lugar en el que confluyen los cables de comunicaciones. Contienen los elementos de
interconexión: concentradores de cableado, conmutadores, puentes, etc., montados en los armarios
en rack y conectados mediante paneles de distribución o de parcheo. Los paneles de parcheo se
comunican con los elementos de interconexión del mismo armario mediante latiguillos de longitud
reducida en la parte frontal del armario. Este método permite organizar más fácilmente el cableado
en el interior del armario de distribución. Además de elementos de interconexión, los armarios de
distribución también pueden incluir servidores montados en rack.
Existen varios tipos de armarios de distribución, dependiendo del lugar que ocupan dentro de
la organización: distribuidor de campus (que conecta los diferentes edificios), distribuidor de
edificio (montado en la sala de equipamiento) y distribuidor de planta (donde confluyen las
conexiones de toda la planta).

Área de trabajo (6)


Es el punto de conexión entre los dispositivos (ordenadores, etc.) y las rosetas o enchufes de
pared (llamados puntos de consolidación o conexiones cruzadas horizontales) . En cada roseta se
deberán instalar, al menos, dos conexiones, una para voz (par trenzado - RJ-11) y otra para datos
(par trenzado RJ-45 o fibra óptica). Los cables que conectan los enchufes de pared con los equipos
se denominan latiguillos deben tener una calidad mínima igual a la del cableado horizontal al que
están conectados, y sus longitudes se recogen en la tabla 1.
Cableado horizontal (5)
Se extiende desde las conexiones de pared hasta los paneles de parcheo de los armarios de
distribución de cada planta (distribuidor de planta o conexión cruzada intermedia). En el estándar se
reconocen los siguientes medios: cable UTP de 4 pares, cable FTP de 2 pares y cable de 2 fibras de
62.5/125 μm (para enlaces de elevado tráfico). Así mismo, existen unos límites máximos en lo que
se refiere a las longitudes de los cables, especificados en la siguiente tabla, junto con la longitud de
los latiguillos.
Longitud máxima del cableado del área de
Longitud del cableado Longitud máxima del cableado
trabajo más los latiguillos en los paneles de
horizontal del área de trabajo
conexiones
90 m. 5 m. 10 m.
85 m. 9 m. 14 m.
80 m. 13 m. 18 m.
75 m. 17 m. 22 m.
70 m. 22 m. 27 m.

Tabla 1: Longitudes máximas de latiguillos y cableado horizontal


Para el cableado de fibra óptica se permiten longitudes mayores y cualquier combinación es
aceptada por los estándares siempre que la longitud total del cable horizontal más el cable del área
de trabajo no exceda los 100 m.

Ilustración 1: Esquema de cableado horizontal y área de trabajo

Es recomendable la instalación de conductos (canaletas) o de subsuelo, o de falso techo para


el que llevar el cableado horizontal a cada puesto. Las exigencias de ancho de banda pueden
requerir el uso de dispositivos especiales para concentrar y repartir el cableado en estrella
(distribuidor de comunicaciones).

Cableado troncal, vertical o backnone (3)


Este subsistema se encargará de comunicar todos los subsistemas horizontales, las conexiones
con el exterior y los cables que comunican otros edificios colindantes. Por ello, se requieren medios
de transmisión de señal con un ancho de banda elevado y de elevada protección.
Se utilizará cableado UTP de hasta 800 m de longitud para transmisión de voz y FTP de hasta
90 m para transmisión de datos. En el caso de que se use fibra óptica, se permiten hasta 2.000 m en
fibra multimodo y 3.000 m en fibra monomodo. Los backbones más modernos se construyen con
tecnología ATM, redes FDDI o Gigabit Ethernet. Este tipo de comunicaciones es ideal para su uso
en instalaciones que requieran aplicaciones multimedia.
Se debe seguir una topología física en estrella para el backbone, y además no pueden existir
más de dos niveles de conexiones cruzadas (es decir, sólo se permite una conexión cruzada
intermedia).

Ilustración 2: Máximo dos niveles de conexiones


cruzadas

Subsistema de campus
Extiende la red de área local al entorno de varios edificios, por lo tanto, en cuanto a su
extensión se parece a una red MAN, pero mantiene toda la funcionalidad de una red de área local.
El medio de transmisión utilizado con mayor frecuencia es la fibra óptica.

Subsistema de entrada del edificio (1)


Es el punto en el que se conectan los cables exteriores con los cables interiores del edificio. Se
puede decir que es la frontera que separa la instalación que es responsabilidad de la compañía de
comunicaciones con la instalación privada gestionada por la organización. Recoge la entrada de los
servicios externos a la organización (líneas telefónicas, accesos a internet, recepción de TV por
cable o satélite, etc.) y la instalación de la maquinaria que estos accesos requieren.

Sala de equipamiento o cuarto de comunicaciones (2)


También llamada conexión cruzada principal, es el punto en el que confluyen todas las
conexiones del edificio, por lo que su complejidad de montaje es mayor que la de cualquier otra
sala. Se podría considerar que es la “sala de máquinas” de todo el bloque. Muchas veces coincide
con el subsistema de entrada del edificio.
Ilustraciones
Algunas ilustraciones de cableado estructurado.

Ilustración 3: . Diagrama de cableado estructurado


Ilustración 4: Cableado estructurado (desde web.iesrodeira.com)
Ilustración 5: Diagrama de cableado estructurado

Elementos de la instalación

Conductos: canaletas y bandejas


Las canaletas son los conductos a través de los cuales se tienden los cables para que queden
recogidos y protegidos convenientemente. Las canaletas suelen ser de PVC o aluminio (no
confundir con color aluminio, que son de PVC).
Hay canaletas decorativas, de aspecto más acabado cuya misión es ocultar los cables, y
canaletas acanaladas o bandejas que suelen instalarse en los falsos techos o falsos suelos y que son
suficientemente grandes como para llevar muchos cables.
Las canaletas de datos y de electricidad suelen estar separadas para evitar interferencias. En
caso de ser la misma, existe una división interior o tabique para separar ambas instalaciones.
La siguiente ilustración muestra los elementos más habituales de un sistema de canaletas.
Una web recomendada para conocer los distintos elementos de canaletas es la de la marca
unex, centrándonos en los elementos para cableado estructurado.
http://www.unex.biz/Web/Productos/SelMercado.asp
En la plataforma podrás encontrar otros catálogos y listados de precios.
Sobre la instalación de las canaletas para al cableado horizontal y para el de backbone es
importante tener en cuenta estas reglas extraídas del estándar ANSI/ESI/TIA 569-A:
• No puede tener más de 30 m y más de dos codos de 90grados entre cajas de registro o
inspección
• El radio de curvatura debe ser como mínimo 6 veces el diámetro de la canalización para
cobre y 10 veces para fibra. Si la canalización es de más de 50 mm de diámetro, el diámetro
de curvatura debe ser como mínimo 10 veces el diámetro de la canalización.
• El volumen de ocupación de la canaleta debe estar entre el 30% y el 60% de su sección.
• No se instalar en los huecos de los ascensores.
Cajas de mecanismos
Son cajas de PVC que se colocan en la pared y que disponen de marcos del tamaño y forma
adecuados para colocar distintos mecanismos, fundamentalmente:
• Enchufes eléctricos
• Rosetas RJ45 (conectores RJ45 hembra incorporados a una estructura que encaja
perfectamente en la caja)
• Rosetas RJ11 (conectores RJ11 hembra incorporados a una estructura que encaja
perfectamente en la caja)
• Marcos para incorporar conectores RJ45 hembra tipo Keystone o AMP.
• Marcos para incorporar acopladores de fibra óptica
• Interruptores, conmutadores, etc.
Cada marca dispone de un formato de caja diferente con el correspondiente formato para el
mecanismo, aunque para los más habituales hay marcos adaptadores.
A las cajas llegan a través de las canaletas los hilos de corriente y/o datos que van conectados
a los mecanismos.

Existen cajas especiales para su uso con suelos y techos técnicos, en lugares donde no existe
una pared cercana, para extraer de ellos tanto datos como electricidad. Sin embargo, hay que tener
cuidado en el diseño para que no estorben al paso y queden protegidos para evitar su deterioro.

Armarios rack
En las instalaciones de tipo medio o grande los equipos de comunicacoines se instalan en
armarios especiales con unas medidas estandarizadas y en los que es fácil su manipulación y la
fijación de los cables que a ellos se conectan. Estos armarios (armario principal y distribuidores de
planta) se denominan armarios rack.
Los distintos cableados horizontales de una instalación de cableado estructurado terminan
siempre en uno o varios paneles de parcheo de un armario rack, en concreto del correspondiente
armario de distribución. El cableado vertical parte de los paneles de parcheo de los armarios de
distribución y termina en el o los paneles de parcheo del armario rack principal.
La anchura de los racks está normalizada a 19 pulgadas, exactamente igual que los elementos
que puede albergar. La altura de los armarios suele medirse en “U”, que son 1'75 pulgadas. Así
diremos que un armario tiene una altura de, por ejemplo, 6U. Cada dispositivo ocupa una serie de
U's, por ejemplo, un switch suele ocupar 1U, una panel de parcheo 1U, una matriz de discos 3U,
etc.. El uso de las U nos da una idea de la cantidad y tipo de dispositivos que caben en el armario.

Una distinción que debemos hacer de los armarios es entre armarios mural, que se cuelgan en
la pared y suelen tener una capacidad no superior a 9U, y los armarios completos, que se colocan
sobre el suelo y tienen una capacidad mayor, por ejemplo 42U.
En la parte frontal del interior del armario, pegado a los laterales,
encontramos unas estructuras metálicas con orificios. En cada raíl hay tres
orificios por cada U. En estos orificios se instalan “tuercas” que permiten fijar
las unidades con tornillos.
Normalmente, los armarios se pueden abrir tanto por su parte frontal (que es de cristal o
vidrio), sus dos laterales y su parte posterior, para un más fácil acceso a los elementos y las
conexiones.
Además de elementos de interconexión y panales de parcheo, existen infinidad de elementos
que se pueden instalar en un armario rack: servidores, matrices de discos, monitores y teclados
(consolas), equipos de grabación, sensores de temperatura, regletas de enchufes de electricidad,
SAIs, etc.. También existen multitud de elementos para ordenar los cables dentro del armario:
bandejas, guías, bridas, pasadores, peines, etc..

Etiquetado
En un sistema de cableado estructurado es imprescindible etiquetar todos los elementos,
fundamentalmente las rosetas y las tomas de los paneles de parcheo entre las que existe conexión,
ya que los cables recorren largas distancias y a través de conductos, lo que los hace prácticamente
imposibles de seguir.
No es recomendable la utilización de un sistema de etiquetado con relación a un momento
concreto, es mejor, utilizar nomenclaturas neutras. Por ejemplo, si etiquetamos un PC como “PC de
Dirección”, y luego cambia el lugar del edificio en donde se ubica la Dirección, habría que cambiar
también el etiquetado, sin embargo, se trata de que el etiquetado sea fijo.
La norma EIA/TIA-606 especifica que cada terminación de hardware debe tener alguna
etiqueta que lo identifique de manera exclusiva, así como cada uno de los elementos del cableado
estructurado: cables horizontales, cables verticales, conductos, salas de comunicaciones, racks,
paneles, puertos, etc..
Nos centramos en primer lugar en el cableado horizontal.
Para los cables una primera opción es la utilización de etiquetas que incluyan un identificador
de sala y un identificador de conector, así se sabe todo sobre el cable: dónde empieza y dónde
acaba. Por ejemplo, se podría etiquetar un cable con el siguiente identificador:
03RS02-05RS24
Este cable indicaría que está tendido desde la roseta (RS) número 02 de la sala 03 hasta la
roseta 24 de la sala 05. Las rosetas en las salas 03 y 05 irían etiquetadas con 03RS02 y 05RS24
respectivamente. Algo parecido podríamos hacer para un cable que va de una roseta a un panel,
indicando en el extremo del panel la sala, el rack, el panel y el puerto. Por ejemplo, esta etiqueta
corresponde a un cable que va de la roseta 02 de la sala 03 al puerto 12 del panel 02 del rack 01 de
la sala 06
03RS02-06RA01PA02RS12
El problema de esta primera forma es que mirando una roseta no sabemos dónde llega el cable
que parte de ella y viaja a través de los conductos.
Otra opción es etiquetar ambos extremos del cable con el mismo identificador, y las
correspondientes terminaciones, en la roseta y en el panel de parcheo, también con el mismo
identificador. Si como identificador se usa la identificación del origen del cable en el
correspondiente cuarto de comunicaciones. Por ejemplo, el segundo cable del caso anterior los dos
extremos del cable se etiquetan con 06RA01PA02RS12, y la roseta también con el mismo
identificador. Des esta forma, con sólo mirar la roseta se sabe de dónde proviene el cable. Hay que
observar que en el puerto del panel de parcheo no hay que poner la identificación completa, ya que
tenemos “a mano” la identificación de la sala, del rack y del panel.
Puede ser conveniente el uso de números para identificar algunos elementos y de letras para
otros. Por ejemplo, usando números para el rack, letras para el panel y números para el puerto, la
etiqueta anterior podría quedar reducida a
06-1A12
En cuanto al cableado vertical, cada cable se etiqueta en ambos extremos con el origen y el
destino, además de un código que identifique el tipo de cable (coaxial, UTP, FTP, fibra monomodo
“SM”, fibra multimodo “MM”), y otro que distinga cables con el mismo origen y destino si es
necesario (por ejemplo, si origen y destino se especifican sólo a nivel de sala y no de panel y puerto,
y en tal caso podría haber dos cables que partieran del mismo origen y llegaran al mismo extremo).
Un ejemplo sería
1A/2A.FMM1
que indica que es un cable de fibra multimodo que va de la sala 1A a la sala 2A. El cable
1A/2A.FMM2
sería otro de fibra multimodo que va del mismo origen al mismo destino.
En el cableado vertical puede ser conveniente usar etiquetas intermedias, sobre todo en
registros. Además hay que etiquetar los conductos, indicando su origen y su destino en los extremos
y bifuraciones.
En estos dos enlaces puedes encontrar la referencia al etiquetado de la red de la Universidad
de Florida:
Cableado vertical: http://net-services.ufl.edu/infrastructure/labelstandardfiber.htm
C. horizontal: http://net-services.ufl.edu/infrastructure/labelstandardhorizontal.htm
Existen distintas formas de etiquetar los cables, siendo las más habituales las que se muestran
en la siguiente ilustración.

El uso de etiquetas y de cables de distintos colores puede facilitar la rápida comprensión del
cableado.

La instalación eléctrica y de aire acondicionado


Es muy importante que la instalación eléctrica esté muy bien hecha. De no ser así, se corren
riesgos importantes, incluso de electrocución. Los problemas eléctricos suelen generar problemas
intermitentes muy difíciles de diagnosticar y provocan deterioros importantes en los dispositivos de
red.
Todos los dispositivos de red deben estar conectados a enchufes con tierra. Las carcasas de
estos dispositivos, los armarios, las canaletas mecánicas, etc., también deben ser conectadas a tierra.
La toma a tierra, en electricidad, es la conexión al nivel de referencia de cero voltios. Las
instalaciones de los edificios bien construidos incorporan un sistema de cableado subterráneo (picas
de tierra) en contacto con el subsuelo del edificio que se toma como nivel de cero voltios. Todos los
dispositivos eléctricos o electrónicos de la instalación del edificio, entre ellos las mallas de los
cables STP/FTP y las carcasas de los dispositivos de red y racks, deben estar conectados a estas
picas de tierra.
Otro problema importante que hay que resolver viene originado por los cortes de corriente o
las subidas y bajadas de tensión. Para ello se pueden utilizar Sistemas de Alimentación
Ininterrumpida (SAI). Un SAI normalmente corrige todas las deficiencias de la corriente eléctrica,
es decir, actúa de estabilizador, garantiza el fluido frente a cortes de corriente, proporciona el flujo
eléctrico adecuado, etc..
El SAI contiene en su interior unos acumuladores que se cargan en el régimen normal de
funcionamiento. En caso de corte de corriente, los acumuladores producen la energía eléctrica que
permite guardar los datos que tuvieran abiertos las aplicaciones de los usuarios y cerrar
ordenadamente los sistemas operativos. Si además no se quiere parar, hay que instalar grupos
electrógenos u otros generadores de corriente conectados a nuestra red eléctrica.
Básicamente hay dos tipos de SAI:
• SAI de modo directo. La corriente eléctrica alimenta al SAI y éste suministra energía
constantemente al ordenador. Estos dispositivos realizan también la función de
estabilización de corriente.
• SAI de modo reserva. La corriente se suministra al ordenador directamente. El SAI sólo
actúa en caso de corte de corriente.
Los servidores pueden comunicarse con un SAI a través de alguno de sus puertos de
comunicaciones (puerto de serie o USB), de modo que el SAI informa al servidor de las incidencias
que observa en la corriente eléctrica: corte, autonomía restante, estado de las alarmas, etc..
Otra necesidad muy importante en una instalación informática es el control de la temperatura
y la humedad del ambiente en que se sitúan los ordenadores y otros dispositivos de la red. La
regulación de estos parámetros se realiza mediante la instalación de aire acondicionado. Esto reviste
una especial importancia en los centros de procesos de datos.
La instalación de aire acondicionado debe ser limpia. En los lugares críticos, debe ser
redundante, de modo que si alguna consola de aire acondicionado fallara, el resto puede suplir sus
funciones. Además, en caso de rotura de las conducciones o de las consolas, los equipos
informáticos no deben verse afectados por flujos de agua.
La temperatura y humedad deben controlarse continuamente de modo automático mediante
termostatos e higrómetros. La mayor parte de los ordenadores actuales incorporan de serie un
conjunto de controles internos de temperatura que hacen disparar alarmas en caso de calentamiento
de CPU, discos, etc..

Instalación de red inalámbrica


Aunque las redes inalámbricas no forman parte del sistema de cableado estructurado, son muy
utilizadas hoy en día para reducir el cableado a instalar y permitir la conexión de dispositivos
móviles. Debido a que la mayoría de las empresas ya disponen de instalaciones de cableado, los
sistemas inalámbricos se suelen instalar en coexistencia con ellos.
Los puntos de acceso son los encargados de centralizar las conexiones de una red inalámbrica.
Estos puntos de acceso pueden instalarse en cualquier lugar, siempre que exista una toma de
corriente para alimentación. Sin embargo, si el dispositivo se va a conectar con la red de cable,
entonces será necesaria también una toma de red cercana que forme parte del cableado estructurado.
Las redes inalámbricas trabajan con ondas de radio, por lo que pueden comunicar dispositivos
que se encuentren separados por tabiques, techos o suelos. Sin embargo, las señales pierden energía
conforme atraviesan los objetos, por lo que la localización de los dispositivos tiene gran
importancia para que se comuniquen correctamente. Por esta razón, cuando se instala una red
inalámbrica se intenta que los puntos de acceso se encuentren en la mejor ubicación posible para su
comunicación con los ordenadores.
En la instalación de los puntos de acceso hay que estudiar la dificultad que va a tener la señal
para llegar a los distintos lugares donde se van a encontrar los adaptadores de red (es decir, los
equipos). Por ejemplo, no es recomendable que entre un punto de acceso y una estación existan
muchas paredes (cinco ya es un valor muy elevado). Una localización situada cerca del centro del
edificio para el punto de acceso es una buena decisión aunque haya que instalar una línea de varios
metros para que lo comunique con el armario de distribución más cercano.
Si es necesario dar servicio a un área amplia con una red inalámbrica, será necesario instalar
varios puntos de acceso que la cubran. Aunque las normas de instalación de este tipo de redes no lo
contemplan, se recomienda que exista un solapamiento en la cobertura de cada punto de acceso, de
forma que no existan “puntos ciegos” donde los usuarios carecen de ella. Siempre será
recomendable que los puntos de acceso solapen entre un 20% y un 30% de su cobertura, de la
misma forma que lo hacen las antenas de telefonía móvil.

El proyecto de instalación
Fuera del ámbito doméstico, la instalación de un sistema de cableado estructurado exige la
realización de un proyecto en el que ha de tenerse en cuenta, como en cualquier proyecto, los
recursos disponibles, procedimientos, calendarios de ejecución, costes, documentación, etc..
Para trabajar con seguridad hay que tener en cuenta las normativas laborales en cuanto a
seguridad del trabajo se refiere. En la operación eléctrica ha de cuidarse:
• No trabajar con dispositivos encendidos que estén con la carcasa abierta.
• Utilizar los instrumentos de medida adecuados a las características de las señales con las que
se trabaja: no es lo mismo medir los 5 V en un componente electrónico que los 220 V de
fuerza en la red eléctrica.
• Conectar a tierra todos los equipamientos de la red.
• No perforar ni dañar ninguna línea tanto de fuerza como de datos o de voz.
• Localizar todas las líneas eléctricas, así como motores y fuentes de interferencia antes de
comenzar con la instalación de transporte de datos.
En los procedimientos laborales ha de tenerse en cuenta:
• Asegurarse bien de las medidas de la longitud de los cables antes de cortarlos.
• Utilizar protecciones adecuadas al trabajo que se realiza: gafas protectoras, guantes, etc..
• Asegurarse de que no se dañará ninguna infraestructura al realizar perforaciones en paredes,
suelos o techos.
• Limpieza y, sobre todo, orden.

La instalación consiste en la ejecución ordenada según las directrices del proyecto de


instalación de un conjunto de tareas que revierten en proporcionar el servicio que el cliente que
solicitó la instalación necesitaba.
Algunas de estas tareas se pueden superponer en el tiempo; es algo que habrá que tener en
cuenta al confeccionar el calendario de instalación. A continuación describimos algunas de estas
tareas:
• Instalación de las tomas de corriente. Esta tarea suele realizarla un electricista, pero desde
el punto de vista del proyecto hemos de asegurarnos que hay tomas de corriente suficientes
para alimentar todos los equipos de comunicaciones.
• Instalación de rosetas y jacks. Es la instalación de los puntos de red finales desde los que
se conectarán los equipos de comunicaciones sirviéndose de latiguillos. La mayor parte de
estas conexiones residirán en canaletas y cajas o en armarios de cableado.
• Tendido de los cables. Se trata de medir la distancia que debe recorrer cada cable y añadirle
una longitud prudente que nos permita trabajar cómodamente con él antes de cortarlo.
Hemos de asegurarnos de que el cable que utilizaremos tenga la certificación necesaria
(categoría, longitud, etc.).
• Conectorización de los cables en los paneles de parcheo y en las rosetas utilizando las
herramientas de crispado apropiadas.
• Probado de los cables instalados. Cada cable construido y conectorizado debe ser
inmediatamente probado para asegurarse de que cumplirá correctamente su función.
• Etiquetado y documentación del cable y conectores. Todo cable debe ser etiquetado en
ambos extremos así como los conectores de paneles de parcheo y rosetas de modo que
queden identificados unívocamente.
• Instalación de los adaptadores de red.
• Instalación de los dispositivos de red. Se trata de instalar los concentradores,
conmutadores, puentes y encaminadores. Algunos de estos dispositivos deben ser
configurados antes de prestar sus servicios.
• Configuración del software de red en clientes y servidores de la red.
En la realización del proyecto de instalación es muy importante respetar el plazo de visto en
cada tarea, sobre todo porque es muy probable que la instalación tenga que coordinarse con la
actividad de muchos otros profesionales: electricistas, albañiles, instaladores de aire acondicionado,
etc..
Certificación de la instalación
La certificación de una instalación de cableado se utiliza para comprobar que ésta es adecuada
para las necesidades de comunicación de la organización. La certificación permite comprobar que el
rendimiento que ofrece la instalación se corresponde con el presupuestado. Esta certificación
permite comprobar también que todas las conexiones se han realizado correctamente (pares sueltos,
niveles de ruido, etc.) y que no existen cables mal instalados en los conductos (torsiones mínimas,
radios de curvatura, etc.). La certificación del cableado también permite obtener datos sobre la red
de comunicación, de forma que puedan ser utilizados en el futuro en caso de averías. Todos los
estándares de cableado estructurado establecen una serie de normas a seguir a la hora de certificar
una instalación de cableado.
La certificación del cableado se realiza utilizando aparatos portátiles que miden los
parámetros más importantes del cableado: continuidad, diafonía, atenuación, longitud, etc.. Estos
aparatos se denominan genéricamente comprobadores de red. Los más sencillos sólo permiten
comprobar si los conectores se han engastado convenientemente (todos los pines están unidos),
mientras que los más sofisticados son capaces de medir radios de curvatura de los cables,
longitudes, etc..
Los dispositivos de comprobación de red están disponibles para cable de par trenzado con y
sin apantallar, cable coaxial y fibra óptica. Existen tres tipos básicos de comprobadores,
dependiendo de la función que realizan:
• Comprobadores de continuidad. Se trata de dispositivos que se dedican a comprobar si los
cables están bien montados o tienen algún corte. A este tipo pertenecen los voltímetros, los
multímetros digitales y los comprobadores de continuidad. Son dispositivos muy sencillos y
de un coste muy reducido, y se limitan a comprobar si uno de los hilos del cable ofrece
continuidad o está cortado, llegando como máximo a comprobar el mapeado de hilos.
• Comprobadores de cableado. Estos aparatos son más avanzados que los anteriores, ya que
aparte de pode realizar comprobaciones de continuidad, son capaces de realizar
comprobaciones de diafonía (proximidad del cableado), atenuación y ruido. Los más
avanzados son capaces también de realizar una monitorización del tráfico de la red,
incluyendo estadísticas de utilización de la red o mensajes perdidos.
• Reflector de Dominio del Tiempo (Time Domain Reflector o TDR). Son los dispositivos
de comprobación de red más avanzados y de mayor coste, ya que pueden realizar
comprobaciones como detección de empalmes, nudos, radios de curvatura del cable
demasiado pronunciados, errores de impedancia, etc.. También son capaces de medir la
longitud y la tasa de propagación de los cables. Los comprobadores para fibra óptica,
llamados OTDR (Optical Time Domain Reflector), pueden calcular la atenuación del
fragmento de cable y las pérdidas en los conectores. A diferencia de los comprobadores
normales, los comprobadores de dominio del tiempo detectan las anomalías e indican el qué
punto de la línea se están produciendo.
Para realizar la comprobación de un fragmento de cable hay que colocar el aparato en un
extremo del cable, mientras que en el otro se conecta una sonda o unidad remota que va incluida
con el aparato. En caso de que el equipo o la sonda lleven el mismo tipo de puerto que el dispositivo
donde se desea conectar (macho o hembra), entonces habrá que utilizar un latiguillo, asegurando
que éste está en buenas condiciones y que no va a interferir en la prueba.
Para facilitar en un futuro la localización de problemas o averías en la red, se recomienda que
se anoten y se conserven todos los valores obtenidos durante la fase de certificación de la red.
Dependiendo del tipo de aplicación, categoría y velocidad máxima de transmisión de la
instalación del cableado, los certificados que se realizan tienen en cuenta diferentes parámetros
medibles. Evidentemente, cuanto mayor sea la velocidad de transmisión y categoría a certificar,
mayores serán también las exigencias de los valores indicados anteriormente.
La prueba de reflectometría que realizan los comprobadores TDR es una de las funciones de
diagnóstico más potentes para localizar fallos en una instalación de red. Un comprobador
convencional solamente puede decirnos si hay cortes en el cable o, como mucho, puede detectar
determinadas anomalías sin poder determinar su localización a lo largo del cable. Esto es un
inconveniente cuando tenemos una instalación de cableado que debe ser desmontada
completamente por un problema. Sin embargo, un TDR es capaz de indicar en qué punto del cable
(contando la distancia desde el extremo en el que se encuentra el comprobador) está localizada la
avería. Esto se consigue gracias a que una pequeña parte de la señal que circula por el cable rebota
en el lugar donde existe alguna anomalía y vuelve a su extremo de origen. Si se mide el tiempo que
tarda la señal en volver al origen después de haber rebotado, entonces se puede calcular a qué
distancia se encuentra esa anomalía. Los comprobadores de alta precisión no solamente son capaces
de medir un problema en un punto del cable, sino que también pueden medir un parámetro
determinado, como la atenuación, a lo largo de todo el cable, utilizando una representación gráfica.
Cuando se realiza una certificación de una instalación de cableado hay que medir una serie de
parámetros. Los parámetros más importantes son los siguientes:
• Continuidad. Indica si existe alguna rotura en algún punto del cable, lo que hace que no
llegue la señal al otro extremo. Esta característica puede ser medida por un simple
comprobador de continuidad, aunque si se utiliza un comprobador tipo TDR se pude
conocer en qué punto exacto del cable está la rotura.
• Mapeado de bits. Se usa para comprobar si los cables que forman el circuito de un
extremos al otro están montados correctamente o existen cortocircuitos en los cables. Este
error es muy grave, porque impide que la información llegue de un extremo al otro, por lo
que su corrección debe ser prioritaria. Este parámetro se puede medir con un simple
comprobador de continuidad.
• Resistencia. Se usa para medir el valor de la resistencia eléctrica a lo largo del cable. Un
valor elevado puede producir una atenuación anormalmente alta. Puede estar causado por un
defecto en los cables o en el montaje de los conectores.
• Longitud. Es la distancia que existe entre los dos extremos del cable. La longitud de las
conexiones no debe exceder de la establecida en el estándar, ya que esto puede producir
retardos excesivos en las señales y los protocolos pueden fallar. También puede producir
atenuaciones que deterioren los mensajes. La medida de la longitud de los cables también
puede ser útil para detectar posibles rollos en el interior de los conductos.
• Atenuación o pérdida por inserción (Insertion Loss). Este fenómeno se produce por la
pérdida de energía de la señal cuando ésta atraviesa un medio que tiene una determinada
resistencia a su paso. Se mide en decibelios (dB) y cuanto menor sea el valor mejor será el
resultado. Dado que el mínimo real es 1 (el teórico es cero), se recomienda que este valor
sea lo más próximo posible a 1 dB. Un valor elevado puede ser debido a:
◦ la longitud del enlace es excesiva;
◦ los conectores no se han montado correctamente;
◦ la temperatura es elevada.
• Diafonía (Crosstalk). En general, este fenómeno se produce debido a que la corriente
eléctrica que circula por un medio crea un campo electromagnético a su alrededor, lo que
puede interferir con la señal que circula por otro cable cercano. A consecuencia de ello, en la
señal del cable cercano puede aparecer la otra señal, como pueden comprobar los usuarios
de telefonía fija cunado escuchan otra conversación de fondo en sus llamadas. Cuanto mayor
sea el valor de trenzado del cable, menor será el efecto de diafonía en él. Normalmente, los
valores elevados de diafonía se producen porque el cable no se ha mantenido trenzado el
máximo en los conectores o porque la pantalla protectora se ha deteriorado o es de mala
calidad.
• Diafonía del extremo cercano (Near End Crosstalk o NEXT). Se trata de un tipo de
diafonía que se mide por la diferencia entre la cantidad de señal de un cable y la cantidad de
señal que se acopla en otro cable y que vuelve en sentido contrario al de circulación de la
señal original. Este valor también se mide en decibelios y siempre se desea que sea alto (lo
que quiere decir que hay poca diafonía). Para controlar este valor hay que mantener los
cables trenzados hasta el máximo en los conectores.
• Diafonía del extremo lejano (Far End Crosstalk o FEXT). Es un parámetro muy parecido
a NEXT, salvo que el valor que se mide es la diferencia de la señal con la señal acoplada en
otro cable que va en el mismo sentido (llega al otro extremo). También se desea que sea alto.
Los problemas de valores de FEXT excesivos se derivan de problemas de atenuación y
diafonía.
• Igualdad de nivel de diafonía del extremo lejano (Equal Level Far End Crosstalk o
ELFEXT). No se trata de una medida, sino de un valor calculado, que se obtiene de la
diferencia de la atenuación con FEXT. Para calcular este valor se inserta señal en un par y se
mide otro par, por lo que para un cable de cuatro pares existen doce medidas distintas. Un
valor bajo de ELFEXT indica una buena instalación.
• Ratio de atenuación a diafonía (Attenuation to CrossTalk Ratio o ACR). Mide la
diferencia entre el valor NEXT y el valor de atenuación en esa línea. Este valor se mide en
decibelios y establece si la potencia de la señal es más fuerte que la del ruido de fondo. Este
parámetro debe ser lo más alto posible y un valor incorrecto puede ser debido a un valor
excesivo de atenuación o NEXT.
• Pérdida por retorno (Return Loss). Este fenómeno se produce debido a la diferencia de
impedancia (o resistencia al paso de la corriente eléctrica) que existe en una línea. Esta
diferencia puede aparecer varias veces y produce un efecto de rebote o reflejo de parte de la
señal que vuelve al extremo del origen. El valor medido se expresa como la cantidad de
señal que vuelve del cable, expresado en decibelios, y su nivel de aceptación depende del
tipo de medio. Cuando existe un valor excesivo de pérdida por retorno suele ser porque las
longitudes de destrenzado de los cables en los conectores son muy altas o no se ha
mantenido hasta el extremo la pantalla protectora.
Nivel de enlace I: Acceso al medio

El nivel de enlace de datos


El nivel de enlace de datos (o de enlace a secas) asegura una conexión libre de errores entre
dos ordenadores de la misma red. Fundamentalmente organiza los bits en forma de tramas y los
pasa a la capa física en forma de señales para que sean transmitidos al receptor a través del medio
de transmisión. Así que distinguimos dos funciones, y en cada una de esas funciones se plantean
varias cuestiones:
● Puesto que los bits deben ser agrupados en tramas, ¿cómo confeccionar esas tramas?
Además, ¿cómo saber si las tramas recibidas son correctas?
● En muchas redes de área local el canal o medio está compartido por muchos nodos;
entonces, ¿cómo saber si el canal está libre? Y si lo está, ¿cómo sabe un nodo si puede o no
apropiarse del mismo para transmitir?
Cada una de estas funciones da origen a una subcapa. La segunda función citada es propia de
la subcapa de control de acceso al medio o MAC (Media Access Control); la primera lo es de la
subcapa de control de enlace lógico o LLC (Logical Link Control), aunque normalmente esta
subcapa toma el nombre de la capa que la incluye: enlace de datos o DLL (Data Link Layer).

La subcapa MAC
La subcapa de control de acceso al medio es muy importante en las redes de área local, ya
que la mayoría de ellas utilizan un canal común o medio compartido (canal de acceso múltiple)
como base de sus comunicaciones.
La principal función de esta subcapa consiste en determinar quién tiene derecho de acceso en
cada momento sobre ese canal compartido por todos los equipos conectados a la misma red. Existen
varias maneras de hacerlo.

Aloha
Aloha, término del saludo típico en Hawai, es un protocolo que nació en la década de los años
setenta para la difusión radioterrestre de varias fuentes de datos en la Universidad de Hawai.
Con Aloha cualquier estación que tenga datos que transmitir lo hace inmediatamente. Esto
puede provocar colisiones con otras estaciones que también iniciaron la transmisión. Cuando se
produce una colisión, la estación la descubre sin más que escuchar el canal: si lo que escucha no es
lo que ella puso en el canal, es que alguien más ha puesto señal y, por tanto, se ha producido una
colisión. En este caso las estaciones esperan un tiempo aleatorio, y vuelven a intentar la transmisión
de las tramas que colisionaron. De este modo se establece un sencillo sistema de contienda.
El rendimiento de este protocolo es muy bajo y especialmente crítico cuando se incrementan
el número de estaciones de la red, porque aumenta en gran medida la probabilidad de colisión.

CSMA
Supongamos que cuando una estación desea transmitir, se pone a la escucha del canal para
determinar si está o no libre. Si el canal está libre, puede efectuar la transmisión. En cambio, si está
ocupado, deberá esperar a que se libere, lo que detectará automáticamente si permanece a la
escucha. Cuando efectivamente se libere, la estación emitirá su trama.
A este nuevo protocolo se le llama protocolo CSMA. Los protocolos CSMA (Carrier Sense
Multiple Access) son protocolos que permiten el acceso múltiple a un único canal, y que averiguan
si el canal está libre por detección en él de señal portadora.
Los protocolos CSMA representan una mejora sustancial con respecto del protocolo Aloha, ya
que disminuyen el número de colisiones tanto como sea posible. Sin embargo, las colisiones son
inevitables con las técnicas CSMA.

El protocolo CSMAICD
Tomando lo principal de Aloha y de CSMA obtenemos CSMA/CD. La técnica CD (Collision
Detection) implica que las estaciones permanezcan a la escucha mientras que transmiten sus tramas.
Si reconocen una colisión en el canal, es decir, lo que emiten no es lo que escuchan en el canal,
entonces suspenden inmediatamente la transmisión: es inútil seguir enviando las tramas sabiendo
que no se reconocerán en el destino. Con esto se ahorra tiempo y ancho de banda del canal. Esta
técnica se agrega al protocolo CSMA para conformar un nuevo protocolo denominado CSMA/CD,
que mejora el rendimiento tanto de Aloha como de CSMA, y que será el usado en el principal
estándar del nivel de enlace, Ethernet.
En algunas redes, las estaciones llegan incluso a transmitir una señal especial cuando detectan
la colisión para advertir al resto de los nodos de que se produjo una colisión en la red.

Protocolos sin colisión


Con el método CSMA/CD las colisiones se reducen al máximo. De hecho, una vez que una
estación se ha apropiado del canal sin error, será imposible que se produzca una colisión. Sin
embargo, el problema no queda resuelto en el tiempo de contienda, es decir, cuando dos estaciones
que desean transmitir esperan a que el canal se libere y una vez liberado vuelcan su información
simultáneamente en el canal.
Es posible la creación de protocolos absolutamente carentes de posibilidad de colisión. Aquí
vamos a estudiar algún ejemplo.
Vamos a imaginar una red compuesta por cuatro ordenadores (el estudio es válido para
cualquier número de ordenadores). Cada uno de ellos viene identificado unívocamente por una
dirección; aquí supondremos que esta dirección es un número, así el primer ordenador llevará el
número 1, el segundo el 2, etc..
Para establecer la contienda, la red divide su tiempo de contienda en ranuras, una ranura de
tiempo por cada estación conectada a la red, en nuestro caso cuatro ranuras. En la red habrá
estaciones que necesiten transmitir y otras que no. Cada ranura se identifica con un número
equivalente al de una estación. Así a la estación n se le asocia la ranura n.
En la contienda, de duración 4 ranuras, cada estación puede escribir en el canal durante el
tiempo que dura la ranura que tiene asociada un bit 1, indicando así a la red que necesita transmitir,
o bien un bit 0 para indicar que no necesita competir por los recursos de la red.
Una vez transcurrido el periodo de contienda se habrán rellenado los bits de contienda
correspondientes a todas las estaciones de la red. Sólo necesitará recursos de red aquella estación
cuyo bit representante en las ranuras de contienda esté a 1. Inmediatamente después de la contienda,
las estaciones enviarán sus tramas en el mismo orden en que aparecen los 1 en las ranuras de
contención. Ninguna estación se adelantará a otra, pues todas siguen el mismo criterio.
El protocolo CSMA/CA
Con la aprobación del estándar IEEE 802.11 para redes inalámbricas, se desarrolló
especialmente el protocolo CSMA/CA. El determinativo CA significa Collision Avoidance.
Según CSMA/CA, una estación que está preparada para transmitir un paquete de información
debe hacer un test al medio antes de la transmisión, como ya ocurría en CSMA/CD. Si el medio está
libre, se puede empezar a efectuar la transmisión. Sin embargo, si el medio estuviera ocupado se
esperará un tiempo aleatorio, medido en ranuras de tiempo (slots), antes de volver a intentar la
transmisión, que se efectuará utilizando un sistema de reservas, evitando de este modo cualquier
colisión que se pudiera producir.

La subcapa LLC
La principal función de esta subcapa está en garantizar, en colaboración con la subcapa MAC,
la comunicación libre de errores de las tramas construidas con la información recibida del nivel de
red, su inmediatamente superior.

Confección de las tramas


Las unidades de datos (PDU, Protocol Data Unit) de nivel 2 se llaman tramas. La capa de
enlace debe proporcionar a la capa física un flujo de bits convertidos en las señales adecuadas al
canal de transmisión para que se transmitan a través de ella. Cada una de las tramas constituye una
asociación de bits, unos corresponden al mensaje procedente del nivel superior (red) y otros son
generados por el propio nivel de enlace para el control. Las técnicas de asociación por la que los
bits se agrupan formando tramas se llaman técnicas de entramado o framing.
La primera función de entramado de la subcapa LLC es delimitar perfectamente dónde
comienzan y acaban las tramas, es decir, cómo indicar al receptor cuáles son las fronteras de las
tramas. Hay que dividir, si es necesario, la información procedente de la capa superior (red), y
colocar a cada fragmento una cabecera y una cola formada por bits de control para que el receptor,
al recibir la secuencia de señales que corresponde a distintas tramas consecutivas, pueda distinguir
dónde empieza y dónde termina cada una.

Control de errores
En segundo lugar, en la subcapa LLC habrá que averiguar si se produjeron errores en la
transmisión de los bits. Lo normal en las redes de área local es enviar al emisor alguna información
de retroalimentación o feedback donde se especifique el estado en que llegó la trama.
Si un protocolo de comunicaciones tiene prevista la recepción de una trama de confirmación y
ésta no llega, podría suspender la emisión de nuevas tramas por tiempo indefinido. Esto sucedería si
se produjera, por ejemplo, la ruptura del enlace de la línea de datos, o si se pierde la confirmación, o
si el receptor no está en línea, etc..
Para estos casos está previsto un sistema de temporizadores. Cuando el emisor envía una
trama, dispara un temporizador. Si cuando caduca el temporizador no se ha recibido la
confirmación, entonces se entiende que la trama pudo no llegar o llegó en mal estado al destino y se
procede a la retransmisión.
Si lo que se perdió fue la confirmación, entonces hay posibilidades de que el receptor reciba
varias veces la misma trama, puesto que el emisor la transmitirá por segunda vez al observar que su
temporizador ha caducado sin haber obtenido una confirmación. Para poder gestionar esta
multiplicidad de la misma trama, lo que se hace es numerar las tramas en el emisor. De este modo,
el receptor las identificará como copias de la misma información y no almacenará información
redundante, filtrará las duplicidades y de este modo se harán imperceptibles a las capas superiores.

Control de flujo
EL control de flujo es la solución más simple al problema que se genera cuando las
velocidades de transmisión del transmisor y de aceptación del receptor son diferentes. Con un buen
control de flujo se puede regular la cadencia con la que se envían las tramas en la red. Las técnicas
de control de flujo necesitan información de feedback intercambiable entre emisor y receptor. Lo
más común es que no se transmitan tramas al receptor hasta que éste no haya dado su permiso para
que le sean transmitidas, y cuando lo hace, expresa cuántas tramas está dispuesto a recibir hasta que
se conceda un nuevo permiso.

Gestión del enlace de datos


Cuando se tienen dos ordenadores unidos por una línea punto a punto, la gestión del enlace es
muy simple: hay un emisor y un receptor, y en el mejor de los casos, pueden intercambiar sus
papeles (semidúplex o dúplex). El problema se complica cuando se tienen múltiples ordenadores
que comparten el canal, especialmente en el caso de que los servicios estén orientados a la
conexión, puesto que habrá que gestionar quién, cuándo, cómo y con quién.
Algunos sistemas de gestión de enlace requieren la definición de una estación primaria que
lleve el peso de la gestión, haciendo que el resto sean secundarias. Se crea un sistema de sondeo o
polling por el que la estación primaria pregunta a las secundarias por sus necesidades de
transmisión, estableciendo de este modo un mecanismo de permisos para gestionar la utilización del
enlace.
Hay sistemas en que se permite que las estaciones secundarias transmitan a la estación
primaria sin necesidad de permiso: es responsabilidad de la red la gestión de los problemas que se
pudieran ocasionar.
En muchas redes de área local, es habitual que todas las estaciones sean iguales desde el punto
de vista de la funcionalidad en el nivel de enlace, es decir, todos los nodos de la red tienen los
mismos derechos de transmisión, estableciéndose la competición en los términos de los sistemas de
contienda que se han estudiado anteriormente.

Direccionamiento
Cuando un ordenador envía un mensaje a través de una red de difusión, éste es mantenido en
el medio, que es compartido, en espera de ser recogido por el destinatario. Puesto que todas las
estaciones están conectadas al mismo medio, todas pueden “ver” ese mensaje enviado (por lo
menos a nivel físico). Sin embargo, el nivel de enlace de cada estación debe decidir si ese mensaje
es para ella o no.
Se hace necesario un mecanismo que identifique y distinga cada estación. Al incluir el
identificador del destinatario en los mensajes cada estación que esté “a la escucha” podrá decidir si
es para ella (y por tanto aceptarlo, tratarlo a nivel de enlace y pasarlo a los niveles superiores) o no
lo es (y por tanto no aceptarlo, ignorarlo). Este mecanismo se denomina en general
direccionamiento.
Las direcciones a nivel de enlace, que normalmente se denominan direcciones MAC por
pertenecer a la subcapa MAC, están formadas por números binarios que identifican y distinguen a
las estaciones del resto (por lo que deben ser únicas). En la mayoría de estándares de enlace
(Ethernet, WiFi y Token Ring) las direcciones MAC son números binarios de 48 bits, que se suelen
expresar como grupos de 8 bits representados en hexadecimal y separados por puntos. Por ejemplo,
una dirección MAC será la siguiente:
18.3E.A0.64.F2.01
Las direcciones MAC suelen ir grabadas de fábrica en el propio elemento de red, de forma
que no pueden ser modificadas. Para impedir que en una red puedan existir dos estaciones con las
mismas direcciones MAC los fabricantes suelen convenir en los números que asignan a sus
dispositivos. La primera mitad (los 24 primeros bits) identifica al fabricante, mientras que la
segunda mitad (los restantes) es una asignación realizada por el propio fabricante diferente para
cada adaptador de red físico fabricado.

Adaptadores de red
El adaptador de red, tarjeta de red o NIC (Network Interface Card) es un elemento
fundamental en las redes de área local. Básicamente realiza la función de intermediario entre el
ordenador y la red de comunicación. En la tarjeta de red se encuentran grabados los protocolos de
comunicación de la red en los niveles físico y de enlace de datos para el estándar que hayamos
escogido.
El adaptador puede venir o no incorporado con la placa base del ordenador. En algunos
ordenadores hay que añadir una tarjeta separada, independiente del sistema para realizar
la función de adaptador de red. Esta tarjeta se inserta en el bus de comunicaciones del
ordenador personal convenientemente configurada, es decir, se instala en alguna de sus
ranuras de expansión. Otra opción es utilizar un periférico para realizar la misma función.
En este caso el periférico se conecta a algún puerto y desde éste se integra en el bus de
comunicaciones del ordenador.
Un equipo puede tener una o más adaptadores de red para permitir distintas
configuraciones de conexión a la misma red o poder atacar con el mismo equipo distintas
redes.

Descripción y conexión del adaptador


La tarjeta de red es un dispositivo electrónico que se compone de las siguientes partes:
● Interface de conexión al bus del ordenador.
La conexión de la tarjeta de red al hardware del ordenador se realiza a través del interface de
conexión. Cada ordenador transfiere internamente la información entre los distintos componentes
(CPU, memoria, periféricos) en paralelo a través de un bus interno. Los distintos componentes,
especialmente las tarjetas de expansión, se conectan a este bus a través de unos conectores llamados
slots de conexión, que siguen unas especificaciones concretas.
Por tanto, un slot es el conector físico en donde se «pincha» la tarjeta. Es imprescindible que
la especificación del slot de conexión coincida con la especificación del interface de conexión de la
tarjeta.
La velocidad de transmisión del slot, es decir, del bus interno del ordenador, y el número de
bits que es capaz de transmitir en paralelo, serán los primeros factores que influirán decisivamente
en el rendimiento de la tarjeta en su conexión con el procesador central.
Actualmente los interfaces más usados son PCI (tanto de 32 como de 64 bits), PCMCIA para
ordenadores portátiles y USB.

● Interface de conexión al medio de transmisión.


Esta parte se encarga de “colocar” al medio las señales adecuadas para transmitir un mensaje
en código binario y de “escuchar” de la red señales e interpretarlas como dígitos binarios.
El elemento electrónico que hace esta función de traducción de dígitos binarios en señales
para el medio y viceversa, de escucha de señales del medio para transformarlas en dígitos binarios,
es el transceptor. También se encarga de detectar la señal portadora que circula por el medio y las
colisiones que se puedan producir.
La salida hacia el cable de red requiere una interfaz de conectores específicos para red (BNC,
RJ45, SC, ST, etc.), dependiendo del estándar de red y del cable que se deba utilizar. Los niveles de
señalización que se usen en estos conectores también dependen del estándar de red que se esté
usando (por ejemplo, aunque Ethernet y Token Ring usan conectores RJ45, no mandan el mismo
tipo de señal por los mismos pines del conector).
En el caso de adaptadores para redes inalámbricas el procedimiento es semejante aunque no
se utilizan cables ni conectores, que serán sustituidos por el aire y las antenas de radiación que los
propios adaptadores llevan incorporadas.

● Componentes electrónicos internos, propios de la tarjeta.


Los componentes electrónicos incorporados en la tarjeta de red se encargan de gestionar la
transferencia de datos entre el bus del ordenador y el medio de transmisión, así como del proceso de
estos datos. Algunos de los procedimientos realizados son el empaquetamiento de datos, el control
de errores, etc. según el estándar de red para el que está diseñado el adaptador. La mayoría de estas
funciones las realiza el procesador principal del adaptador; por ejemplo, para el estándar Ethernet
son muy utilizados los chips Realtek RTL8139.
Otro elemento es el zócalo para insertar una memoria ROM que permite al ordenador obtener
el el sistema operativo de la red y cargarlo. Además existe un conector llamado WOL (Wake On
LAN) que permite mandar desde un ordenador remoto una orden que arranque el ordenador con la
tarjeta.

● Indicadores de estado
Permiten comprobar el estado actual de la comunicación. Aunque diferentes fabricantes usan
nombres distintos, podemos nombrarlos como LNK (o PWR), que se enciende si hay conexión con
la red; ACT, que se enciende de forma intermitente cuando se están enviando o recibiendo datos; y
uno o varios indicadores más para mostrar la velocidad con la que se está trabajando.

Características de la tarjeta de red


Las características a observar en una tarjeta de red son:
● Estándar de red. No todos los adaptadores de red sirven para todas las redes. Existen
tarjetas apropiadas para cada estándar de red: Ethernet, Token Ring, FDDI, WiFi, etc..
● Especificación del estándar. Dentro de un estándar pueden existir varias especificaciones,
que difieren en la velocidad de transmisión o el medio a usar, por ejemplo. Así, en Ethernet
existe Ethernet, Fast Ethernet y Gigabit Ethernet. En WiFi existen las especificaciones b, g
y n (esta última aun en borrador).
● Interface de conexión con el medio. Conectores que presenta el adaptador: RJ45 para par
trenzado, BNC para coaxial, SC o ST para fibra óptica, etc..
● Interface de conexión al bus de datos. Los tipos más comunes son PCI, PCI-X, PCMCIA
y USB. Cuando la tarjeta está integrada en la placa base también responde a uno de esto
tipos, pero en lugar de tener la tarjeta conectada en el correspondiente slot tenemos sus
componentes soldados en la propia placa base, sin necesidad de slot.
● Modelo del procesador de la tarjeta. Determina sobre todo la facilidad que vamos a tener
para localizar controladores o drivers para cualquier sistema operativo. Tiene especial
importancia en las tarjetas de red inalámbricas, no sólo por los drivers, sino también por la
calidad para conectar de forma estable y eficiente.
● Características de servidores. Existen tarjetas de red con propiedades avanzadas que
mejoran las prestaciones de los servidores (aunque no son imprescindibles). Algunas de ellas
son:
○ la posibilidad de tener más de un puerto;
○ la posibilidad de pasar de usar un puerto a otro de forma transparente debido a una
avería en el primero de ellos;
○ la posibilidad de usar varios puertos en la misma red;
○ compatibilidad con VLAN1.

Driver o controlador de la tarjeta de red


Como en cualquier otra tarjeta, el adaptador de red necesita de un software controlador o
driver que conduzca sus operaciones desde el sistema operativo. De este modo, las aplicaciones a
través del sistema operativo tienen controlados los accesos al hardware del sistema, y en concreto, a
la red.
Este software es un programa de muy bajo nivel denominado controlador o driver de red y
que es específico para cada adaptador. Normalmente cada fabricante construye su propio
controlador para cada una de las tarjetas que fabrica, aunque los sistemas operativos tienen
integrados controladores para las tarjetas más comunes.
Sobre este controlador pueden establecerse otros programas de más alto nivel y que tienen
funciones específicas relacionadas con los protocolos de la red. A estos programas se les llama
packet-drivers, porque son los encargados de la confección de los paquetes o tramas que circularán
por la red. Estos paquetes están construidos de acuerdo con las especificaciones de los protocolos de
capa superior (red) adecuándolos a las características del nivel de enlace y del medio físico de la
red.
Hay dos tecnologías básicas para realizar este enlace entre las capas de alto nivel, por
ejemplo, las aplicaciones de usuario y el adaptador de red. Se trata de las especificaciones NDIS
(Network Driver Interface Specification, de Microsoft y 3COM) y ODI (Open Datalink Interface,

1 Las redes virtuales consiste en la posibilidad de crear redes independientes dentro del mismo cableado.
de Novell y Apple) El software de estas especificaciones actúa como interface entre los protocolos
de red y transporte y la tarjeta de red.
NDIS (Network Driver Interface Specification, Especificación de interface de unidad de red)
es un software que hace posible que los protocolos de red Microsoft puedan comunicarse con una
tarjeta de red. Mediante el driver NDIS se enlaza una tarjeta de red a uno o varios protocolos de la
capa de red instalados en el sistema. Esto permite que varios protocolos de red puedan enviar
información al mismo tiempo. Por ejemplo, un proceso puede estar enviando información usando
un el protocolo NetBEUI mientras otro proceso está enviando información usando el protocolo IP.
Una adaptación de NDIS llamada NDISwrapper se ha utilizado también recientemente para usar
drivers de tarjetas de red WiFi para Windows en Linux
En la última generación de tarjetas, la configuración de múltiples aspectos que antes se
realizaban “a mano” (elección del tipo de conector si tiene varios, configuración de la comunicación
con el sistema, IRQ, DMA, puerto de E/S, etc.) se realiza automáticamente. Todo ello es posible si
tanto la tarjeta como el ordenador disponen de la tecnología Plug'n'Play (desde hace mucho tiempo
en todas las tarjetas y ordenadores). Esta configuración es realizada por el correspondiente driver.

IEEE 802
El Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) es una organización profesional
que define las normas de red. En 1995, el comité de normalización IEEE para las redes locales y
metropolitanas publicó sus normas para redes LAN. Las normas IEEE LAN son las predominantes
y más conocidas para las redes LAN actuales. Esta normas comienzan con el número 802.
El IEEE quiso asegurarse qye sus normas eran compatibles y encajaban con el modelo de
referencia OSI. Sin embargo, el IEEE divide la capa de enlace de datos OSI en dos subcapas
separadas: control de acceso al medio (MAC) y control de enlace lógico (LLC). Para la segunda se
define una única norma (802.2). Para la primera se definen múltiples normas que implican a la capa
MAC y al nivel físico. La norma 802.1 define la forma en que se relacionan las distintas normas.

Subcapa
802.2 Control de enlace lógico
Capa de LLC
Enlace de
802.1 Administración

802.4

802.5

802.14
802.3

802.9

802.11

datos Subcapa
MAC
Token Passing Bus

LAN Inalámbrica

TV por cable
Token Ring
Ethernet

(WiFi)
RDSI

Capa Física Capa Física

Capas OSI Capas 802 Normas 802

Tabla 1: Normas 802

Ethernet
Ethernet es un tipo de red que sigue la norma IEEE 802.3. Esta norma define un modelo de
red de área local utilizando el protocolo de acceso al medio CSMA/CD en donde las estaciones
están permanentemente a la escucha del canal y, cuando lo encuentran libre de señal, efectúan sus
transmisiones inmediatamente. Esto puede llevar a una colisión que hará que las estaciones
suspendan sus transmisiones, esperen un tiempo aleatorio y vuelvan a intentarlo.
IEEE 802.3 tiene su predecesor en el protocolo Aloha al que ya nos hemos referido
anteriormente. Más tarde, la compañía Xerox construyó una red CSMA/CD de casi 3 Mbps de
velocidad de transferencia, denominada Ethernet, que permitía conectar a lo largo de un cable de 1
km de longitud hasta 100 estaciones. En una fase posterior las compañías DEC (Digital Equipment
Corporation, absorbida por Compaq y posteriormente por HP) e Intel, junto con Xerox, definieron
un estándar para Ethernet de 10 Mbps con topología en bus. Posteriores revisiones de Ethernet han
llegado hasta 1 Gbps y ya se está empezando a experimentar Ethernet a 10 Gbps.
Las características de la comunicación Ethernet son:
● La transmisión de los datos no está gobernada por ningún órgano central.
● Se puede acceder a la red desde muchos puntos y todos los nodos de la red tienen la misma
posibilidad de transmitir.
● Los datos se transmiten encapsulados en tramas.
● Cada una de las tramas transmitidas contiene la dirección del nodo que realiza en envío y del
que lo debe recibir.
● Las tramas viajan a todos los nodos de la red.
● El direccionamiento de la trama incluye la posibilidad de especificar la dirección de un
nodo, de varios nodos o de todos los nodos de la red.
● El nodo receptor tiene la responsabilidad de reorganizar y aceptar las tramas que tengan su
dirección de destino.
● La transmisión de los datos es relativamente rápida. Puede ser de 10, 100 y hasta 1000
Mbps, aunque las velocidades de transmisión varían dependiendo de la topología y del
volumen de tráfico.
● Una buena detección de errores hace que los retardos de transmisión sean mínimos.
● La especificación de comunicación desaconseja implementar características especiales, que
podrían conducir hacia variaciones incompatibles en la red.

Especificaciones Ethernet y medio físico


El modo en que las tramas IEEE 802.3 son puestas en el medio de transmisión físico depende
de las especificaciones de hardware y de los requerimientos del tipo de cableado elegido. Se definen
para ello varios subestándares, todos ellos integrados dentro de la norma IEEE 802.3, que
especifican el tipo de conector y de cable que es preciso para alcanzar los rendimientos previstos
utilizando siempre el método CSMA/CD.
A lo largo de la historia se han publicado tres especificaciones Ethernet, cada una con varios
subestándares: Ethernet, Fast Ethernet y Gigabit Ethernet. Las características de los subestándares
se reflejan en esta tabla:
Estándares Ethernet
Ethernet Fast Ethernet Gigabit Ethernet
802.3 802.3u 802.3z
10Base 100Base 100Base 1000Base 1000Base
10Base5 10Base2 10BaseT
FP TX FX TX SX/LX
1000 Mbps
Velocidad 10 Mbps 100 Mbps
1 Gbps
Par Par
Par Fibra Fibra Fibra
Coaxial Coaxial trenzado trenzado
Cableado trenzado Óptica Óptica Óptica
Grueso Fino Cat. 5 Cat. 5e
Cat. 3 (1 par) (1 par) (1 par)
(2 pares) (4 pares)
AUI +
Conector BNC RJ45 ST/SC RJ45 ST/SC RJ45 ST/SC
BNC
Longitud 220 m /
500 m 185 m 100 m 500 m 100 m 412 m 100m
máxima 550 m
Topología
Bus Estrella
Física
Nodos por
100 30 2 (un extremo es el elemento de interconexión y el otro la estación)
segmento

Las características básicas de algunos de estos estándares Ethernet son:


● 10Base5. Es la especificación original de Ethernet y utiliza coaxial grueso para el transporte
de las señales en banda base. Permitía grandes distancias (500 m. por segmento y hasta 5
segmentos) y muchas estaciones (hasta 100 por segmento). Pero la instalación era muy
compleja por la difícil manipulación del cable y la necesidad de transceptores AUI para la
conexión de la estación con el cable.
La transmisión de las señales es semidúplex y usa codificación Manchester.
● 10Base2. También es una especificación original de Ethernet que utiliza cable coaxial fino,
en concreto se suele utilizar el cable RG-58. Era más fácil del manipular que el coaxial
grueso y para las conexiones se usaban conectores BNC en forma de T. Por contra, los
segmentos quedan reducidos a 185 metros y el número de estaciones a 30 por segmento.
La transmisión de las señales es semidúplex y usa codificación Manchester.
● 10BaseT. Utiliza cables de par trenzado UTP de categoría 3 o superior para producir
transmisiones de hasta 10 Mbps, usando dos pares de hilos. Configura la Ethernet a nivel
físico como una estrella, en la que cada estación está conectada a un elemento de
interconexión central (concentrador o hub) por un cable particular de hasta 100 metros. Cada
uno de estos cables constituye un segmento físico. Se pueden usar varios elementos
centrales, pero en cualquier caso, entre dos estaciones no pueden existir más de cinco
segmentos.
Aunque a nivel físico la topología sea de estrella, a nivel lógico sigue utilizando una
topología en bus (característica fundamental de cualquier estándar Ethernet). Esta
combinación de topologías será la usada en el resto de subestándares.
La transmisión de las señales es semidúplex y usa codificación Manchester.
● 100BaseTX. Es semejante al 10BaseT, pero con velocidades hasta 100 Mbps, utilizando
cables UTP de categoría 5 y también dos pares de hilos. De entre las novedades técnicas
cabe destacar el uso de transmisión dúplex, frente a la semidúplex de los estándares
anteriores, que permite la introducción de los switches como elementos centrales. Estos
elementos reducen drásticamente el número de colisiones e incluso en determinadas
condiciones llegan a permitir transmisiones simultáneas dentro de la red. La longitud
máxima del segmento también es de 100 m. .
La transmisión de las señales es semidúplex o dúplex y usa codificación 4B/5B y MLT-3.
● 100BaseFX. Es idéntico al 100BaseTX pero usando un par de fibras ópticas multimodo. La
ventaja del uso de este medio es que permite una distancia mayor por segmento (412 m.) y
mayor inmunidad a las interferencias.
La transmisión de las señales es semidúplex o dúplex y usa codificación 4B/5B y NRZI.
● 1000BaseTX. En este caso las comunicaciones siguen la normativa Ethernet pero con
velocidades de 1000 Mbps. También usa cable de par trenzado, pero se necesitan cables
superiores al UTP de categoría 5, por ejemplo, el de categoría 5 mejorada (categoría 5e) y
usando cuatro pares de hilos. La longitud máxima del segmento vuelve a ser de 100 m.. Se
suele utilizar como backbone para conectar los distintos switches de las plantas de un
edificio.
La transmisión de las señales es semidúplex o dúplex y usa codificación 8B1Q4 y 4D-
PAM5.
● 1000BaseSX y 1000BaseLX. Son idénticas a 1000BaseTX pero usando un par de fibras
ópticas multimodo. Las ventajas vuelven a ser una mayor distancia (de 220 a 500 m.,
dependiendo de la “calidad” de la fibra) y una mayor inmunidad a las interferencias. Esto lo
hace ideal para las conexiones backbone. La diferencia entre SX y LX es que LX admite
también fibra monomodo, que le permitiría alcanzar distancias de 5000 m..
La transmisión de las señales es semidúplex o dúplex y usa codificación 8B/10B y NRZ.
En la actualidad ya se habla de Ethernet 10G, que sería la red con tecnología Ethernet a 10
Gbps.

La tarjeta de red Ethernet


La tarjeta de red o adaptador de red Ethernet es el interface de acceso a la red de las
estaciones. Su función es la de permitir que el ordenador se conecte a una red Ethernet para
comunicarse a través de ella con otras estaciones.
La tarjeta no sólo se encarga de la conexión física entre dos equipos, sino que se ocupa de
gestionar la comunicación entre el PC que la monta y la red. Realiza estas tareas:
Generar la señal adecuada al medio por el que se va a transmitir (tipo de cable).
Escuchar la red.
Establecer comunicación con la red.
Dar formato a la información a enviar o recibida de la red.
Control de errores en la emisión y recepción de la señal.

La primera característica que debemos tener en cuenta en una tarjeta de red Ethernet es el tipo
de conexión con el bus de datos del ordenador. Las posibilidades en este caso son:
● PCI
● PCI eXpress (PCI-X)
● USB
● PCMCIA o PcCard
● Integradas en placa base (serán PCI o PCI-X pero con la conexión fija formando parte de la
circuitería de la placa).

La segunda característica a tener en cuenta será el o los estándares que soporte. Podemos
encontrar tarjetas de estos tipos:
Tarjetas de red combo. Tienen 2 conectores, uno BNC para cable coaxial (10Base2) y otro
para RJ45 para cable de par trenzado (10BaseT). Su velocidad máxima es de 10 Mbps. Este
grupo de tarjetas de red tienden a desaparecer (al igual que el cable coaxial).

Ilustración 1. Tarjeta de red combo

Tarjetas de red 10/100. Tienen sólo conector RJ45 para cable de par trenzado. Se adaptan a
la velocidad de la red (10 Mbps o 100 Mbps), por lo que son compatibles con 10BaseT y
100BaseTX. El tipo de cable y el elemento conectado al otro extremo influye de manera
determinante en la velocidad de transmisión, que se configura automáticamente. También se
les llama Fast Ethernet.

Ilustración 2: Tarjeta de red Ethernet 10/100

Tarjetas 10/100/1000. Tienen sólo conector RJ45 para cable de par trenzado. Se adaptan a
la velocidad de la red (10 Mbps, 100 Mbps o 1000 Mbps), por lo que son compatibles con
10BaseT, 100BaseTX y 1000BaseTX. El tipo de cable y el elemento conectado al otro
extremo influye de manera determinante en la velocidad de transmisión, que se configura
automáticamente. Estas tarjetas responden a la especificación Gibabit Ethernet.
Ilustración 3. Tarjeta de red Ethernet
10/100/1000

Tarjetas de fibra óptica. Son aquellas a las que se puede conectar un cable de fibra óptica
para lo que incorporan un par de conectores SC o ST (el par de conectores sirve para una
sola conexión). Por tanto, soportan los estándares 100BaseFX, 1000BaseSX y/o
1000BaseLX. Normalmente responden a la especificación Gigabit Ethernet, correspondiente
a los dos últimos estándares.

Ilustración 4: Tarjeta de red Ethernet


Fibra Óptica

Una tercera característica a observar es el hecho de que la tarjeta incorpore la ROM con la
BIOS para permitir el arranque del sistema operativo desde la red. En caso de no incluirlo, es
conveniente que al menos incluya el zócalo para poder instalarla posteriormente si es oportuno.
Uno o dos o tres diodos en la parte exterior de la tarjeta informan del estado de la misma:
diodo apagado indica que no hay conexión;
diodo encendido fijo indica que hay conexión pero no se están transmitiendo o recibiendo
datos;
diodo parpadeando indica que hay conexión y se están transmitiendo o recibiendo datos;
los otros diodos, si existen, son de colores diferentes e indican el estándar bajo el que se ha
producido la conexión en aquellas tarjetas que soportan más de uno (10, 100 o 1000 Mbps).

El precio actual de una tarjeta de red ronda los 6 € en los modelos más económicos, que son
tarjetas Ethernet 10/100 PCI, con un solo conector RJ45 y sin ROM. Como curiosidad, indicar que
las tarjetas de red suelen incluir drivers para todo tipo de sistemas operativos, a diferencia de
muchos otros componentes.

La trama Ethernet
Hay dos tipos de tramas, las nuevas IEEE 802.3 y las Ethernet II o DIX. Ambas se componen
de los siguientes campos:
Direc. Direc. Tipo o
Preámbulo Inicio Datos Relleno CRC
Destino Origen Longitud
(7 bytes) (1) (0 - 1500) (0 - 46) (4)
(6) (6) (2)

● Preámbulo. Este campo tiene una extensión de 7 bytes que siguen la secuencia
«10101010». No forma realmente parte de la trama, y se usa para sincronizar.
● Inicio. Es un campo de 1 byte con la secuencia «10101011», que indica que termina el
preámbulo y empieza la trama, de la que tampoco forma parte.
● Dirección de destino. Es un campo de 6 bytes que contiene la dirección MAC del
destinatario.
La dirección MAC puede ser local o global. Una dirección global es la que viene “grabada”
en la tarjeta de red por el fabricante y no se puede cambiar. Una dirección local es asignada
por el administrador de red a través del sistema operativo, pero sólo tiene validez dentro de
la red local. Si la dirección es global el bit 41 (siendo 0 el menos significativo) vale 0 y si es
local vale 1.
Por otro lado, la dirección de destino puede ser para un único destinatario (unicast) o para
varios destinatarios (multicast). El bit 40 indica con un 0 que es unicast y con un 1 que es
multicast2. Un caso especial es cuando todos los bits de la dirección de destino son 1, es
decir la dirección FF.FF.FF.FF.FF.FF. Esta dirección se denomina broadcast y significa que
la trama se envía a todas las estaciones de la red local.
● Dirección de origen. Es semejante al campo de dirección de destino, pero codifica la
dirección MAC de la estación que originó la trama, es decir, de la tarjeta de red de la
estación emisora. También puede ser local o global.
● Tipo o Longitud. Tipo es un código usado en las tramas Ethernet II o DIX que indica el tipo
de información que lleva la trama, en concreto, el protocolo de nivel de red usado en en
contenido de la trama, como por ejemplo, IP, ARP, etc.. En las nuevas tramas 802.3, este
campo lleva el tamaño completo de la trama. Si el valor de este campo está entre 64 y 1522
es del tipo nuevas 802.3 y significa el tamaño de la trama completa, mientras que si es
mayor que 1536 (0060 hexadecimal) indica que es tipo Ethernet II o DIX y significa el tipo
de protocolo de nivel de red.
● Datos. Es un campo de entre 0 y 1500 bytes en donde se incluye la información de usuario
procedente de la capa de red.
● Relleno. La norma IEEE 802.3 especifica que una trama no puede tener un tamaño inferior
a 64 bytes, por tanto, cuando la longitud del campo de datos es muy pequeña se requiere
rellenar este campo para completar una trama mínima de al menos 64 bytes. Es un campo
que puede, por tanto, tener una longitud comprendida entre 0 y 46 bytes, de modo que la
suma total de la trama sea al menos de 64 bytes.

2 Será recibido por todos los dispositivos que estén configurados para recibir las tramas enviadas a esa dirección.
Suelen direcciones especiales que los protocolos usan para fines muy específicos y totalmente transparentes al
usuario y al técnico.
● CRC. Es el campo de 4 bytes en donde se codifica el control de errores de la trama.

Las colisiones en Ethernet


Vamos ahora a estudiar el modo en que se resuelven las colisiones. Cuando se produce una
colisión las estaciones implicadas en ella interrumpen sus transmisiones, generan una señal de ruido
para alertar al resto de las estaciones de la red y esperarán un tiempo aleatorio para volver a
retransmitir.
El sistema de asignación de tiempos de espera consiste en dividir el tiempo en ranuras
temporales de valor 51,2 microsegundos. En este tiempo, la red hubiera podido transmitir 512 bits
que se hubieran desplazado 2,5 km y que coincide con la distancia máxima permitida en la red.
Después de la colisión las estaciones generan un número aleatorio que se resuelve como 0 o 1.
Si el resultado es 0, se produce la retransmisión inmediatamente, mientras que si es 1 se espera una
ranura para efectuar la retransmisión. Si ambas estaciones eligen el mismo número aleatorio, se
producirá de nuevo otra colisión.
La probabilidad de colisión es 1/2. En ese caso se repite el proceso, pero ahora generando
números aleatorios con resultado 0, 1, 2 o 3, esperando ese número de ranuras para producir la
transmisión. Pueden volver a colisionar, pero ahora la probabilidad de colisión es de 1/4.
Así se repite el proceso hasta que se consigue una retransmisión eficaz. Con cada colisión se
retarda la transmisión, pero la probabilidad de nueva colisión se reduce en progresión geométrica.

Dominios de colisión en Ethernet


Cuando Ethernet pone una trama en el bus de la red, esta trama viaja por todo el bus para
alcanzar a todas las estaciones que están conectadas a él, ya que cualquiera de ellas, algunas o todas
pueden ser las destinatarias de la información que viaja en la trama. Si mientras viaja por la red otra
estación emite otra trama, se producirá una colisión.
Sin embargo, una trama no puede saltar a otra red sin ser impulsada a ella por algún
dispositivo, y en tal caso se considera otra trama. Se dice que la trama se circunscribe a su dominio
de colisión, así que una trama sólo puede colisionar con otra dentro de su dominio de colisión pues
no puede traspasar esta frontera.
Cuando un nodo necesita transmitir información a otro que está en un dominio de colisión
distinto necesita acudir a los servicios de otros dispositivos de red intermedios como conmutadores
(switches), puentes (bridges) o encaminadores (routers). Estos dispositivos separan los dominios de
colisión y son los encargados de ampliar la red de área local con otros dominios de colisión, que a
otros niveles más altos podrán formar parte de la misma red o de otra, dependiendo del dispositivo.
Frecuentemente los distintos dominios de colisión de una misma red separados por switches o
bridges se les denomina segmentos de red.
Los protocolos de enlace que funcionan con direcciones de tipo multidifusión, es decir, con
más de un destinatario, pueden producir tormentas de difusión, en donde se generan avalanchas de
tramas que pueden colapsar la red. En estos casos es muy importante que los dominios de colisión
estén perfectamente acotados. Así, si se produce una tormenta de difusión, quedará confinada a ese
segmento de red y el problema no afectará a otros segmentos. Algunos dispositivos incorporan
protocolos de gestión y encaminamiento de la multidifusión, y otros técnicas que previenen estas
tormentas de difusión.
Esto reviste especial importancia si el paso de un segmento a otros se hace a través de una red
de baja velocidad: si toda la multidifusión tuviera que pasar por esta red de baja velocidad, todas las
comunicaciones quedarían probablemente colapsadas.
WiFi – IEEE 802.11
Las redes inalámbricas o Wireless LAN (WLAN) se están convirtiendo en el estándar del
futuro de las redes de área local, debido a una considerable bajada de precios de los componentes
necesarios y a la facilidad de instalación de la red. Sin embargo no todo son parabienes: el ancho de
banda de la red inalámbrica es significativamente menor que el de las redes de cables, ese ancho de
banda es inevitablemente compartido entre todos los dispositivos conectados a la red y la seguridad,
si no se cuida, se puede ver seriamente comprometida.
El estándar que fija este tipo de redes es el IEEE 802.11. Sobre este estándar, un consorcio de
compañías denominada WiFi Alliance prueba la compatibilidad de dispositivos y los marca con la
etiqueta WiFi.
Las principales características de las redes 802.11, aparte de usar el aire como medio, son:
● Todas las estaciones comparten un mismo canal, un rango de frecuencias en el aire, que sólo
puede ser usado por una en cada momento. Si dos transmiten simultáneamente se produce
una colisión.
● Puede tener un control de acceso distribuido, es decir, que ningún elemento supervise los
turnos de acceso a las estaciones; o un control de acceso centralizado, es decir, un elemento
coordina quién puede transmitir y en qué momento (este elemento será el punto de acceso).
● Todos los nodos de la red tienen la misma posibilidad de transmitir.
● Los datos se transmiten encapsulados en tramas.
● Cada una de las tramas transmitidas contiene la dirección del nodo que realiza en envío y la
del que lo recibe.
● Las tramas viajan a todos los nodos de la red (es de difusión).
● El direccionamiento de la trama incluye la posibilidad de especificar la dirección de un
nodo, de varios nodos o de todos los nodos de la red.
● El nodo receptor tiene la responsabilidad de reorganizar y aceptar las tramas que tengan se
dirección de destino.
● Se requiere un proceso de autenticación de cada dispositivo para que pueda ser admitido
dentro de la red, y otro de asociación entre dispositivos para que puedan transferir
información uno al otro.
Como se puede observar, estas propiedades son muy parecidas a las de Ethernet.

Especificaciones IEEE 802.11 y medio físico


Comercialmente existen tres especificaciones del estándar IEEE 802.11, que se resumen en la
siguiente tabla.

Radio de
Tasa Trans. Tasa Trans. Radio de
Especificación Frecuencia cobertura
Medida Máxima cobertura interior
exterior
802.11b 2,4 GHz 5,5 Mbps 11 Mbps 45 m 90 m
802.11g 2,4 GHz 22 Mbps 54 Mbps 45 m 90 m
802.11n 2,4 / 5 GHz 70 Mbps 300 / 600 Mbps 70 m 250 m

Tabla 2: Especificaciones 802.11


El estándar 802.11n fue implementado en Enero de 2009. Antes las compañías ya habían
desarrollado y comercializado productos que cumplen las especificaciones del borrador previo a la
implementación definitiva, y que suelen denominar “pre n”, asegurando al compatibilidad con
actualización si fuera necesario con el estándar n definitivo.
El rango de frecuencias utilizado en b y g es de 2,4 GHz a 2,4835 GHz. Este rango está
dividido en 14 canales numerados del 1 al 14, de los cuales en Europa sólo se pueden usar del 1 al
13. Todos los dispositivos de una red deben usar el mismo canal. Los dispositivos están preparados
para funcionar con cualquier canal, y la mayoría se configuran de forma automática para funcionar
en el canal establecido para la red. Si dos redes 802.11 se crean en el mismo espacio físico deben
estar configuradas cada una en canales diferentes. Sin embargo, los 13 canales no son
completamente independientes: canales contiguos se superponen y las emisiones en ellos se
producen interferencias mutuas. El ancho de banda de la señal (22MHz) es superior a la separación
entre canales consecutivos (5MHz), y por eso se hace necesaria una separación de al menos 5
canales con el fin de evitar interferencias entre celdas adyacentes. Tradicionalmente se utilizan los
canales 1, 6 y 11, aunque se ha documentado que el uso de los canales 1, 5, 9 y 13 (en dominios
europeos) no es perjudicial para el rendimiento de la red.

En el estándar n se introducen varias novedades, dos de ellas referentes a los canales. Por un
lado se dispone el uso de canales en torno a los 5 GHz, hasta cerca de los 5,4 GHz, además de los
existentes en b y g. Pero sobre todo, se pueden usar dos canales que no se solapen en la misma red y
por los mismos dispositivos (por ejemplo 1 y 6), de manera que la velocidad se dobla técnicamente
(aunque no en la práctica). Si embargo, esto decrementa la posibilidad de crear varias redes
inalámbricas 802.11 en el mismo espacio físico.
El alcance de cada especificación indicado en la tabla corresponde a antenas estándar. Existen
antenas de mayor potencia tanto omnidireccionales como unidireccionales. El rendimiento de la
red se ve afectado por la fuerza de la señal y la degradación de su calidad debidas a la distancia o
las interferencias. A medida que la señal se hace más débil, los dispositivos hacen automáticamente
una selección de tasa adaptativa y hacen caer la tasa de datos de 54 Mbps a 11 Mbps, de 11 Mbps a
5,5 Mbps, de 5,5 Mbps a 2 Mbps o desde 2 Mbps a 1 Mbps. En el estándar n se introduce el uso de
la técnica MIMO, que permite que cada dispositivo use dos o más antenas para aprovechar mejor
“el rebote” de las señales, y de esta forma mejorar también la velocidad.
En cuanto a la topología, tenemos dos opciones de configuración:
● Red en modo ad-hoc. Es una configuración muy simple, en la que no existen puntos de
acceso y los equipos se comunican directamente entre sí a través de los adaptadores
inalámbricos. Todos los dispositivos deben tener una zona de cobertura común, y esta zona
común en la única en la que funciona la red. Sólo es viable cuando tenemos un número de
equipos muy escaso y están bastante cerca todos de todos.
● Red en modo infraestructura. Esta configuración utiliza unos elementos de interconexión
llamados puntos de acceso, que reciben la señal de todos los adaptadores y la repite en todas
las direcciones amplificada. Facilita la ampliación del radio de acción mediante el uso de
mejores antenas y del enlace de varios puntos de acceso. Además, dispositivos que no tienen
una zona común de cobertura pueden comunicarse entre sí, si ambos están en la zona de
cobertura del punto de acceso.

Adaptadores de red inalámbricos


Los adaptadores de red inalámbricos o tarjetas de red inalámbricas son el hardware necesario
para que una estación pueda acceder a un red inalámbrica.
Los dos elementos fundamentales de estas tarjetas son el chip que utilice (habiendo mucha
más variedad que en Ethernet) y la antena a través de la cual se emiten y reciben las señales.
Dos son las características principales que debemos observar en un adaptador de red
inalámbrico: la especificación 802.11 al que pertenece y la conexión al PC. La primera corresponde
a las tres especificaciones mencionadas anteriormente. En cuanto al segundo, existen cuatro tipos:
Integradas en las placas bases, sobre todo de los ordenadores portátiles.
Tarjetas PCI, que sólo sirven para ordenadores de escritorio y que se conectan a una ranura
PCI.

Ilustración 6. Tarjeta de red Wireless PCI

Adaptadores USB, que se conectan a puertos USB, preferiblemente USB 2.0 sobre todo
para el estándar 802.11g a 54 Mbps. Evidentemente, sirven tanto para PCs de escritorio
como para portátiles.

Ilustración 7. Adaptadores de red Wireless USB

Adaptadores PCMCIA, especialmente para ordenadores portátiles que tienen este tipo de
conector.
Ilustración 8. Adaptador de red Wireless PCMCIA

Desafortunadamente, estas tarjetas de red no suelen traer driver para todos los sistemas
operativos, siendo Linux especialmente castigado en este sentido. No obstante, la comunidad
programadora de Linux ha conseguido desarrollar un sistema llamado NDIS-wrapper que permite
usar los drivers de Windows xp de muchas de estas tarjetas para que funcionen en Linux.

La trama 802.11
En 802.11, como en todos los estándares 802, la información se transmite en tramas. Sin
embargo, las tramas no son iguales que en Ethernet. De hecho, en 802.11 hay tres tipos de tramas:
● Tramas de administración: trama de solicitud de asociación, trama de respuesta de
asociación, trama de solicitud de prueba, trama de respuesta de prueba, trama beacon, trama
de autenticación.
● Tramas de control: solicitud para enviar (RTS, Request to send), listo para enviar (CTS,
Clear to send), acuse de recibo.
● Tramas de datos.
Sólo la trama de datos es similar a las de Ethernet.

Las colisiones 802.11


El protocolo de comunicación que usan estas redes se denomina CSMA/CA (Carrier Sense
Multiple Access / Collision Avoidance, Acceso Múltiple con Detección de Portadora y Evitación de
Colisiones). Es casi igual que el usado en Ethernet (CSMA/CD), con la salvedad de que en este caso
es físicamente imposible detectar colisiones por la imposibilidad de transmitir y recibir a la vez por
el medio. Cuando una estación quiere emitir primero escucha el canal. Si está libre transmite, y si
está ocupado espera un tiempo aleatorio y comienza de nuevo el proceso. Si dos estaciones
transmiten a la vez ambas señales se mezclan en el medio, quedando irreconocibles (se produce una
colisión). En las redes inalámbricas es imposible detectar físicamente este hecho. Para conseguir
detectar las colisiones, se utiliza una nueva técnica. Cuando una señal llega perfectamente al
destino, este transmite una señal específica a la red. La estación que emitió la señal original se
queda a la espera de la señal de respuesta. Si dicha señal, que tiene preferencia sobre las emisiones
“normales” no llega inmediatamente es que se ha producido una colisión. En ese caso, las
estaciones emisoras que provocaron la colisión esperan un tiempo aleatorio tras el que vuelven a
intentar emitir.
Otro método para evitar colisiones, aunque no es estándar, consisten en que cuando una
estación quiere emitir manda una trama llamada RTS al punto de acceso (por tanto necesario) en la
que identifica e indica el tiempo que quiere “reservar” el medio para transmitir. Si esta señal llega al
punto de acceso es que no se ha producido colisión. El punto de acceso contesta con otra trama
llamada CTS, que da permiso a la estación que solicitó transmitir el tiempo que indicó en su
petición; entonces la estación procede a emitir. Como la trama CTS llega a todas las estaciones, las
que no pidieron el permiso saben durante cuánto tiempo no pueden enviar trama RTS para comenzar
una emisión. Si dos estaciones emiten trama RTS simultáneamente se produce una colisión y no
llega ninguna de las dos señales al punto de acceso, que por lo tanto no responde. Al no tener las
estaciones señal de respuesta CTS, esperan un tiempo aleatorio y vuelven a intentarlo.

Autenticación y asociación
Toda red inalámbrica se debe configurar con un identificador o nombre denominado SSID.
Esta configuración se hace en el punto de acceso o en el primer nodo que forma la red ad-hoc. El
SSID puede establecerse como público u oculto. Cuando es público, el punto de acceso en modo
infraestructura o todos los adaptadores en modo ad-hoc emiten constantemente tramas beacon o
balizas. Esas tramas beacon contienen el SSID de la red a la que pertenece el dispositivo que la
emite.
Cuando un adaptador es activado empieza escuchando para localizar un dispositivo
compatible con el que asociarse. Este proceso se denomina escaneado y puede ser activo o pasivo.
En el escaneado activo al configurar el adaptador de red a través de su driver se espcifica el
SSID de la red a la que se quiere unir. Entonces comienza a emitir una solicitud de prueba que
contiene ese SSID. Cuando se encuentra un punto de acceso con el mismo SSID, el punto de acceso
emite una respuesta de prueba, completando la asociación. Si la red es en modo ad-hoc, basta con
que la solicitud de prueba llegue a uno de los dispositivos que pertenecen a la red con el SSID
indicado y éste emite la respuesta de prueba, completando la asociación.
Los nodos de escaneado pasivo escuchan en busca de tramas de administración de balizas
(beacons), trasmitidas por el punto de acceso (modo de infraestructura) o los nodos iguales (ad-
hoc). Posteriormente, se selecciona de forma automática o manual una de las redes cuyo SSID se ha
recibido y se produce un intento de unirse a ella como en el modo activo, completando en caso de
éxito la asociación. El escaneado pasivo es un proceso continuo y los nodos pueden asociarse o
disasociarse a los puntos de acceso debido a los cambios en la fuerza de la señal.
Después del escaneado, y una vez asociado a la red a un dispositivo de la red a la que quiere
unirse, se procede a la autenticación, proceso en el cual el nodo es identificado como un nodo
autorizado en la red. La norma IEEE 802.11 enumera dos tipos de procesos de autenticación, que
explicamos centrándonos en el modo infraestructura:
● Sistema abierto. En la autenticación por sistema abierto el cliente WLAN no se tiene que
identificar en el Punto de Acceso durante la autenticación. Así, cualquier dispositivo que lo
intente queda autenticado en el punto de acceso. Eso no significa que el nodo pueda
intercambiar información válida con él y por tanto con la red, puesto que la red puede
transmitir la información encriptada por algún método como WEP o WPA y el nodo no
disponer de las claves necesarias.
● Clave compartida. En la autenticación mediante Clave Compartida se necesita un método
de cifrado. Así que en la configuración del adaptador de red a través del driver o de la
utilidad del sistema operativo habrá sido necesario indicar una clave. En el caso de usar
WEP, el más sencillo, el proceso se divide en cuatro partes:
○ La estación cliente envía una petición de autenticación al Punto de Acceso.
○ El punto de acceso envía de vuelta un texto modelo.
○ El cliente tiene que cifrar el texto modelo usando la clave WEP ya configurada, y
reenviarlo al Punto de Acceso en otra petición de autenticación.
○ El Punto de Acceso descifra el texto codificado y lo compara con el texto modelo que
había enviado. Dependiendo del éxito de esta comparación, el Punto de Acceso envía
una confirmación o una denegación. Como se puede observar, la clave nunca viaja por la
red. Después de la autenticación y la asociación, WEP se sigue usando para cifrar los
paquetes de datos.
A primera vista podría parecer que la autenticación por Clave Compartida es más segura que
la autenticación por Sistema Abierto, ya que éste no ofrece ninguna autenticación real. Sin embargo,
es posible averiguar la clave WEP estática interceptando los cuatro paquetes de cada una de las
fases de la autenticación con Clave Compartida. Por lo tanto es aconsejable usar la autenticación de
Sistema Abierto para la autenticación WEP (nótese que ambos mecanismos de autenticación son
débiles).
Un mecanismo más primitivo para controlar los nodos que se pueden autenticar en la red
consiste en tener en el punto de acceso una lista con las MACs de los adaptadores autorizados.

Encriptación
En una red inalámbrica el medio es el aire y el aire es de todos. Nada impide a cualquiera con
una antena en la zona de cobertura recibir las señales correspondientes a una red inalámbrica. Así
que, por seguridad e incluso por privacidad, es conveniente cifrar la información usando algún
método de encriptación. Sin embargo, se puede tener una red inalámbrica sin cifrar, pero cualquiera
se podría unir a ella e, incluso sin unirse, obtener toda la información que circula por la red.
Dos son los métodos principales de encriptación o cifrado en redes inalámbricas: WEP y
WPA. Ambos métodos se pueden usar en dos niveles:
1. Para la autenticación. Sólo los dispositivos que tengan la clave adecuada podrán ser
autenticados en la red.
2. Para cifrar todos los paquetes de datos que viajan por la red. Sólo si un dispositivo tiene
la clave correcta podrá interpretar las señales que le llegan a la red y podrá enviar a la red
señales que sean comprensible por los demás dispositivos.
WEP se usa normalmente sólo para el segundo, mientras que WPA se usa para ambos.

WEP
El cifrado WEP (Wired Equivalent Privacy) es un sistema de encriptación muy sencillo que
utiliza algoritmos de cifrado de 64 y 128 bits. Para ello, se establece y usa una clave de 40 bits (10
caracteres hexadecimales o 5 ASCII) o una clave de 104 bits (26 caracteres hexadecimales o 13
ASCII). A estas claves se les une un vector de inicialización de 24 bits que produce las claves
completas del algoritmo. A veces se usa una frase de paso, que convierte un texto cualquiera en una
clave WEP de 40 o 104 bits.
La clave WEP de una red se fija en el punto de acceso. Si se trata de una red ad-hoc, la clave
WEP se estable al configurar el primer nodo de la misma, junto con el SSID. En los dispositivos,
como es evidente, la clave debe indicarse a mano, al menos la primera vez, ya sea en modo
hexadecimal, ASCII o con frase de paso.
El sistema WEP no impide obtener la clave de una red sin excesiva dificultad, con software
fácilmente accesible, sobre todo si es un sistema de clave compartida con clave de 40 bits.

WPA y WPA2
Vistos los defectos del sistema WEP, la WiFi Alliance y el IEEE comenzaron a trabajar de
forma conjunta en un nuevo sistema llamado WPA (WiFi Protected Access). IEEE definió en el
estándar 802.11i las propiedades que debía tener el sistema, y la WiFi Alliance las fue
implementado, primero en WPA, mientras 802.11i no era definitivo, y luego en WPA2, cuando ya
lo fue.
A nivel de autenticación, WPA se puede utilizar de dos formas:
1. Mediante el uso de un servidor de autenticación, donde se almacenan las credenciales y
contraseñas de los usuarios de la red, y que distribuye claves diferentes a cada usuario.
2. Mediante clave compartida (PSK, Pre-Shared Key), que de un modo similar al WEP,
requiere introducir la misma clave en todos los equipos de la red.
Nos centramos en la segunda forma, ya que la primera es excesivamente compleja. ¿Qué
ventajas ofrece WPA? En realidad en este modo es una evolución de WEP, que usa el mismo tipo de
algoritmos pero con una clave de 256 bits unidas a un vector de inicialización de 48 bits (frente a
los 24 de WEP, su principal problema). La clave se puede especificar mediante 64 caracteres
hexadecimales o mediante una frase de paso que tenga de 8 a 63 caracteres ASCII imprimibles. La
seguridad del algoritmo que convierte la frase de paso en clave WPA también se ha mejorado con
respecto a WEP.
Como en WEP, el punto de acceso es el dispositivo en el que se fija la clave WPA de una red.
Si se trata de una red ad-hoc, la clave WPA se estable al configurar el primer nodo de la misma. En
los dispositivos, como es evidente, la clave debe configurarse a mano, ya sea en modo hexadecimal
o con frase de paso.
Por último, una de las mejoras sobre WEP es la implementación del Protocolo de Integridad
de Clave Temporal (TKIP - Temporal Key Integrity Protocol), que cambia claves dinámicamente
a medida que el sistema es utilizado. Cuando esto se combina con un vector de inicialización mucho
más grande evita los ataques de recuperación de clave (ataques estadísticos) a los que es susceptible
WEP.
Nivel de enlace II: Dispositivos de
interconexión

Los dispositivos de interconexión


Un cable de comunicación solamente tiene dos extremos, por lo que se puede utilizar para
conectar solamente dos equipos. Para poder comunicar varios equipos entre sí se pueden utilizar
varios de estos enlaces, lo que hará que existan varios equipos de la red con múltiples enlaces
(dependiendo de la topología que se utilice). Sin embargo, las limitaciones principales de conectar
directamente los equipos entre sí radican en que éstos deben estar siempre funcionando para que los
enlaces permanezcan operativos.
Una red de comunicación está formada por el medio de transmisión y los dispositivos de
interconexión. Estos dispositivos son los encargados de realizar todas las conexiones de la red para
permitir que muchos ordenadores se puedan conectar a ella, sin necesidad de que todos los
ordenadores estén encendidos. También son los encargados de controlar el tráfico de mensajes que
circulan por la red.
Los dispositivos de interconexión trabajan en diferentes niveles de la arquitectura de red,
dependiendo de las funciones que realizan. Cuanto más alto sea este nivel, más complejo será el
dispositivo, pero también ofrecerá unas funciones más avanzadas. Hacer funciones más avanzadas
supone tardar más tiempo en tratar la información, lo cual no significa que el rendimiento sea
menor, ya que esas opciones avanzadas a veces están encaminadas a mejorar el rendimiento general
de la red (no siempre el sistema que trata la información de forma más rápida es el más efectivo).
A la hora de seleccionar un dispositivo de interconexión de red hay que tener en cuenta qué
funciones deben cubrirse en la red. También hay que tener en cuenta que los dispositivos de
interconexión que trabajan a un nivel más alto de la arquitectura son más complejos, más costosos y
ralentizan mucho más el funcionamiento de la red, ya que el proceso de los mensajes es mucho más
complejo.
En esta unidad nos centraremos en los dispositivos que trabajan en los niveles físico y de
enlace, aunque inevitablemente tendremos que hacer pequeñas incursiones en el nivel de red.

Repetidores y amplificadores
Cuando las distancias entre las estaciones son muy elevadas y los efectos de la atenuación
resultan intolerables, es necesario utilizar dispositivos que restauren la señal a su estado original y
permitan que el receptor la recoja e interprete en condiciones. Estos dispositivos son los
repetidores y los amplificadores.
Los repetidores se utilizan en transmisión digital: reciben la señal, la interpretan como bits, y
vuelven a construir la señal correspondiente a lo interpretado. Los amplificadores se usan en
transmisión analógica: reciben la señal y aumentan su intensidad para compensar el efecto de la
atenuación. Tanto unos como otros están formados por una conexión de entrada que recibe la señal
y por una conexión de salida por donde la señal sale reconstruida.
Los repetidores y amplificadores también están limitados en varios aspectos. En primer lugar,
los tramos de cable que los separan tienen siempre una longitud máxima, ya que si la señal les llega
demasiado atenuada, no podrán reconstruirla correctamente. En segundo lugar, una señal no puede
atravesar un número infinito de amplificadores, ya que se trata de dispositivos imperfectos que le
dan a la señal pequeñas componentes de ruido. Estas componentes se multiplican conforme la señal
los va atravesando, hasta que ésta se deforma completamente. Esta característica afecta en menor
grado a las señales digitales y a los repetidores.

Concentradores o Hubs
Una red local con topología física en bus o anillo utilizaría solamente adaptadores de red en
las estaciones y cableado (normalmente coaxial) para interconectarlas (además de los conectores).
Sin embargo, este método complica el mantenimiento de la red, ya que, si falla algún enlace, toda la
red deja de funcionar y el técnico deberá comprobar uno por uno todos los cables y todas las
conexiones porque no se sabe de antemano cuál falló. Pisar un cable de red o tropezar con él puede
poner “patas arriba” el departamento o la empresa entera.
Para impedir estos problemas, en vez de distribuir las conexiones se centralizan en un único
dispositivo o elemento central con varios conectores o puertos. Cada estación se conecta
directamente por medio de un cable a un puerto del elemento central, y si ese enlace falla, la red
sigue funcionando y sólo queda aislado el ordenador afectado. Distinto es si falla el propio
concentrador, caso en el que todos los nodos quedan aislados. Es decir, pasamos a una topología
física en estrella con un elemento central. Además, el elemento central mantiene indicadores
luminosos del estado de cada conexión.
El dispositivo más básico que sirve de elemento central de una topología de estrella se
denomina concentrador de cableado, que sólo trabaja con señales, es decir, a nivel físico.
Dependiendo de la manera en que internamente se realizan las conexiones entre puertos y
cómo circulen las señales, esa topología física en estrella se corresponde con una topología lógica
en bus o anillo, dando los dos tipos principales de concentradores.
• Concentradores con topología lógica en bus (HUB). Hacen que la red se comporte como un
bus, enviando la señal que les llegan por un puerto por todos los demás. Para ello,
internamente todas las salidas están conectadas entre sí, por lo que la información que envía
una estación la reciben todas las demás. En este caso, todos los cables juntos funcionan
como un miedo de difusión. Pero esto implica que dos estaciones no pueden transmitir a la
vez, ya que las señales se mezclan y se distorsionan, quedando inservibles. A esto, como ya
sabemos, se le llama colisión, situación que aunque esté contemplada, debe ser evitada
siempre que se pueda. Los estándares Ethernet 10BaseT y 100BaseTX pueden utilizar un
Hub Ethernet como elemento central.
• Concentradores con topología lógica en anillo (MAU). Hacen que la red se comporte como
un anillo, enviando la señal que le llega por un puerto al siguiente conectado. Para ello,
internamente cada salida está conectada con la siguiente, formado en total un anillo. En este
caso, el protocolo de comunicación debe controlar qué estación puede transmitir en un
momento dado, y así evitar colisiones. Token Ring usa concentradores MAU.
Otra forma de clasificar los concentradores es:
• Concentradores pasivos: simplemente encauzan las señales recibidas para que lleguen al
resto de estaciones.
• Concentradores activos: además de encauzar las señales recibidas, también las amplifican
y regeneran antes de ser enviadas.
Es muy importante indicar que un concentrador sólo trabaja con señales, que en ningún
momento interpreta (como máximo a nivel de bit si es activo). Se limita a replicarla y/o
amplificarla. Por tanto sólo trabaja a nivel físico, no a nivel de enlace, y por tanto no tiene ni
siquiera dirección MAC.
Además de los puertos para las estaciones, un concentrador también tiene puertos especiales
para conectar con otros concentradores, y así aumentar el número de estaciones que puede tener la
red. En los hubs, estos puertos se llaman uplink, y pueden ser de dos tipos:
• fijos: hay unos puertos marcados como uplink y sólo se pueden usar para hacer conexiones
entre hubs, mediante un cable directo del puerto uplink de uno a un puerto de estación del
otro.
• configurables: existe un botón que hace que un puerto particular se comporte como puerto
de estación o puerto uplink.
La conexión entre hubs también se puede hacer usando dos puertos de estación y un cable
Ethernet cruzado.
Varios hubs se pueden conectar entre ellos siguiendo dos esquemas:
• En estrella: todos los hubs conectan su puerto uplink con algún puerto de estación de un hub
central.
• En cascada: cada hub conecta su puerto uplink con un puerto de estación de otro hub, y éste
a su vez conecta su puerto uplink con uno de estación de otro hub, y así sucesivamente, con
un límite de cuatro hubs para 10BaseT y de dos para 100BaseTX.
Si nos centramos en un hub, las características que habría que observar a la hora de adquirir
uno (cuestión imposible hoy en día) son:
• Especificación o especificaciones Ethernet soportadas
• Número de puertos
• Presencia y tipo de puerto uplink.

Conmutador o Switch
En una red local Ethernet el medio es compartido por todas las estaciones. Al aumentar el
número de éstas, aumenta también el tráfico de la red y las colisiones se producirán con más
frecuencia. En esas condiciones, es conveniente segmentar (dividir) la red utilizando un conmutador
o switch.
Un conmutador o switch es un dispositivo de interconexión usado como elemento central en
una red con topología física de estrella (o árbol, o estrella de estrellas) muy parecido a un
concentrador o hub, pero que funciona de forma distinta. Como el hub, posee un número
determinado de puertos a cada uno de los cuales se puede conectar una estación u otro dispositivo
de interconexión. También presenta leds que nos indican el estado de la conexión en cada puerto.
Al contrario que en un hub, un switch envía las tramas que le llegan solamente por el puerto
de salida donde se encuentra el destinatario. Para ello, el switch lee la trama y comprueba el campo
donde se especifica el destino a través de su MAC, y la redirige al puerto donde está conectado el
equipo con esa MAC. Esto reduce drásticamente el número de colisiones, ya que la única colisión
posible sería la producida por el hecho de que una estación intente emitir una trama y a la vez el
switch le dirija otra que ha recibido de algún otro puerto. Es decir, no puede haber colisiones entre
estaciones conectadas en distintos puertos.
En el caso en que en los puertos de un switch estén conectados varios hubs, la tramas
enviadas por una estación a otra del mismo hub no atraviesan el switch. Sólo las tramas que vayan
destinadas a una estación en otro hub lo atravesarán. Así, aun usando hubs, la posibilidad de
colisiones queda restringida a cada uno de los hubs, por lo que decimos que estamos dividiendo la
red en distintos dominios de colisión. Así, podemos decir que un switch cada uno de sus puertos es
un dominio de colisión diferente.
Cuando se conecta un switch a una red, inicialmente no conoce qué equipos están ubicados en
qué puertos. Por esta razón, cuando recibe las primeras tramas, debe enviarlas a través de todos los
puertos. Las direcciones de origen de estas tramas (direcciones MAC) pueden ser inspeccionadas
por el switch para guardar la ubicación de los equipos emisores en una tabla que asocia la MAC con
el puerto por el que ha llegado. Puesto que solamente el equipo destinatario recibirá la trama y
contestará al emisor con otra, el switch podrá inspeccionar también las direcciones de origen de las
tramas de respuesta para saber en qué puertos están conectados esos destinatarios. Después de un
tiempo funcionando, el switch habrá generado su propia tabla en la que guardará los puertos en los
que se encuentran conectados cada uno de los equipos, identificados cada uno por su MAC. Hay
que tener en cuenta que en un mismo puerto pueden estar conectados varios equipos, si los que está
conectado al puerto es un hub u otro switch.
Por todo lo dicho hasta ahora deducimos que los switch trabajan a nivel de enlace, ya que leen
y extraen información de las tramas, en concreto las direcciones MAC. Es más, los swtichs se
comportan como estaciones normales a nivel de enlace, y por lo tanto, cada uno de los puertos
dispone de una dirección MAC que los identifica.
Alguna de las características que debemos observar al elegir un switch son:

Especificación Ethernet
Especificaciones Ethernet soportadas. Pueden ser sólo una o varias. Además, las
especificaciones pueden estas soportadas en todos los puertos o sólo en algunos especiales.

Número de puertos
Se contabiliza el número de puertos del switch. En algunos switch existen puertos especiales
de mayores prestaciones; por ejemplo, en un switch Fast Ethernet pueden existir varios
(normalmente dos) puertos Gibabit Ethernet bien para cobre o para fibra óptica. Otra opción es
tener ranuras para módulos mini GBIC que incorporen esos puertos y la tecnología necesaria para
transformar las señales y las tramas si fuera necesario, y que se adquieren por separado.

Modo de funcionamiento
● Store-and-Forward. Guardan cada trama en un buffer antes de enviarla hacia el puerto de
salida. Mientras la trama está en el buffer, el switch calcula el CRC y mide el tamaño de la
misma. Si el CRC falla, o el tamaño es muy pequeño o muy grande la trama es descartada.
Si todo se encuentra en orden, la trama es enviada hacia el puerto de salida. Ese método
asegura operaciones sin error y aumenta la confianza de la red, pero el tiempo utilizado para
guardar y chequear cada trama añade un tiempo de demora importante al procesamiento de
las mismas.
● Cut-Through. Fueron proyectados para reducir esta demora. Esos switches minimizan el
retardo leyendo sólo los 6 primeros bytes de datos de la trama, que contienen la dirección de
destino, e inmediatamente envían la trama. Pero este tipo de switch no detecta tramas
corruptas causadas por colisiones (conocidas como runts), ni errores de CRC. Cuanto mayor
es el número de colisiones en la red, mayor será el ancho de banda que consume al
encaminar tramas corruptas. Un segundo tipo de switch cut-through, fragment free, fue
proyectado para eliminar ese problema. En este caso, el switch siempre lee los primeros 64
bytes de cada trama, asegurando que tenga por lo menos el tamaño mínimo.
● Adaptative Cut-Through. Soportan tanto store-and-forward como cut-through. Cualquiera
de los modos puede ser activado por el administrador de la red, o el switch puede ser lo
bastante inteligente como para escoger entre los dos métodos, basado en el número de
tramas con error que pasan por los puertos. Cuando el número de tramas corruptas alcanza
un cierto nivel, el switch puede cambiar del modo cut-through a store-and-forward,
volviendo al modo anterior cuando la red se normalice.

Gestionable / No gestionable
Un switch gestionable permite configurar y usar las opciones avanzadas del switch. Uno no
gestionable no tiene opciones avanzadas, por lo que tampoco tiene configuración; simplemente se
limita a hacer la función básica de un switch. La configuración se puede hacer mediante un
interface web, y entonces no es necesaria ninguna conexión especial, o mediante un interfaz tipo
telnet o de conexión de serie, y entonces es necesaria una conexión especial (normalmente a través
de un puerto de serie) para establecer la configuración.

Soporte a VLAN
Una VLAN está formada por un conjunto de estaciones físicamente conectadas a los puertos
de uno o más switches de manera que cada estación sólo puede comunicar con otras estaciones de
su VLAN, y no con las de otra, aunque todas las estaciones están conectadas al mismo switch.
Incluso cabe la posibilidad de que una estación pertenezca a varias VLANs.
Las VLAN se crean y configuran en el switch, que evidentemente debe ser gestionable. A
cada VLAN creada en un switch se le asigna un número identificador. Dos son las formas de
agrupar las estaciones en una VLAN:
● VLAN con asignaciones de direcciones MAC. Las VLAN se forman por las direcciones
MAC de las estaciones. Si una estación se cambia de ubicación sigue perteneciendo a la
misma VLAN, incluso aunque se cambie de puerto. Si se reemplaza una estación o su
adaptador de red hay que actualizar la lista de MACs.
● VLAN con asignaciones de puertos. En este caso las VLAN se forman agrupando puertos
del switch, por ejemplo, del 1 al 4, o el 1 el 3 y el 5. Si una estación cambia de ubicación y
de puerto puede que deje de pertenecer a la VLAN y pase a otra. En cambio, si se reemplaza
una estación o su adaptador de red y se deja en la misma ubicación seguirá perteneciendo a
la misma VLAN.
Una tercera opción, que debe ir relacionada con la primera, consiste en que la tarjeta
de red de cada estación se configura mediante sus drivers para que pertenezca a una de
las VLAN creadas asignándole el número de VLAN correspondiente. Así no hay que
indicar la MAC en la configuración del switch, sino que se añade automáticamente a la
lista de MACs de la VLAN correspondiente.
Se pueden crear un número limitado de VLAN, que depende del switch.

Switch Capa 2 / Switch Capa 3 (Layer 2 / Layer 3)


Los switch de capa 2 son los originales, lo que trabajan únicamente en el nivel 2 de OSI (nivel
de enlace). Los switch de capa 3 realizan funciones de capa 3, es decir, funciones de enrutamiento.
Para ello se lee información de los protocolos propios del nivel 3, como por ejemplo las direcciones
IP. Los switch de capa 3 son prácticamente routers a nivel de funcionamiento. Sin embargo, no
realizan las funciones de un router en el sentido de que no comunican dos redes distintas; sólo lo
hacen entre VLANs creadas por el propio switch.
Ancho de banda, capacidad de swtiching, backbone...
Es la cantidad de información por segundo que es capaz de procesar el switch entre todas las
conexiones simultáneas que establezca. En el fondo corresponde al ancho de banda que dispone el
switch en un bus interno que une todos los puertos. Se mide en Gbps, y evidentemente, cuanto más
alto mejor, pero más caro será el switch.

Otras
● Control de ancho de banda. Permite limitar la velocidad máxima de cada puerto.
● Filtro de broadcast. Previene que una estación inunde la red con envíos masivos de tramas
broadcast.
● Trunking. Permite combinar varios puertos para usarlos con la misma estación
multiplicando la velocidad.
● Mirroring. Permite analizar las tramas enviados y diagnosticarlas.
● Priorización del tráfico. Permite dar prioridad a los puertos que estime oportuno el
administrador mediante la configuración del switch.
● Montaje en rack. Permite en montaje en racks estándar de 19 pulgadas.
● PoE (Power over Ethernet). Los puertos PoE suministran alimentación eléctrica a los
dispositivos que se conectan a ellos a través del cable de par trenzado. Puede ser útil para
puntos de acceso que se vayan a ubicar alejados de una toma de corriente eléctrica, pero
encarecen considerablemente el dispositivo.

Puente o Bridge
Un elemento genérico que permite interconectar redes de diferentes estándares a nivel de
enlace se llama puente o bridge. Este dispositivo realiza las adaptaciones necesarios de una LAN a
la otra, de forma que pueden intercambiar tramas y con ellas información, salvando los obstáculos
de incompatibilidad que las separan.
Un puente es un elemento de interconexión entre redes que está formado por dos conectores
diferentes, cada uno de ellos enganchado a la red correspondiente. Los puentes se comportan en
cada una de las redes como si fueran estaciones corrientes (a nivel de enlace) y se conectan a ellas
de la misma forma. Por ejemplo, si el puente comunica una LAN Ethernet 100BaseT con una LAN
Ethernet 10Base2, tendrá dos conectores como mínimo: un RJ-45 hembra y un BNC hembra.
Al contrario que en un hub y como en un switch, un puente se comporta como un filtro en la
red, ya que sólo pasan por él las tramas que van desde una estación de una red a otra estación de la
otra red. En cierto modo, el puente “retiene” dentro de cada red a las tramas que no van destinadas
al otro lado (cosa que no ocurriría si, en vez de un puente, se hubiera instalado un concentrador, si
es que fuera posible). Esto es debido a que el puente conoce cuáles son los equipos que están
conectados a ambos lados de él. En caso de que el puente no conozca al destinatario del mensaje,
entonces lo enviará a través de todos sus puertos, menos por donde le llegó.
La estructura interna de un puente está formada por dos partes principales. En cada una de
ellas, se encuentran los protocolos de nivel físico y nivel de enlace de los tipos de LAN que
interconecta. A niveles superiores, todo se ve como una sola red. La siguiente figura muestra un
ejemplo de funcionamiento.
Figura
Los puentes pueden construirse de dos formas: por hardware o por software. Un puente
hardware es un dispositivo específico para interconectar dos tipos de LAN. Por su parte, un puente
software es un ordenador en el que se deben instalar dos tarjetas de red (una del tipo
correspondiente conectada a cada LAN) además de un programa informático que le confiere el
comportamiento de puente.
Existen varios tipos de puentes, dependiendo de las redes que interconecten:
• Puentes de 802.x a 802.y. Permiten conectar redes de tipo IEEE802, por lo que tenemos
múltiples combinaciones. Cada una de estas combinaciones tiene sus propios problemas, ya
que los formatos y longitudes de trama son diferentes, las velocidades de transmisión de las
redes son bastante dispares o tienen métodos de acceso al medio distintos. Estos puentes
suelen descartar tramas problemáticas (como las que son demasiado grandes) y la mayoría
de las veces necesitan de la reconfiguración de alguno de los parámetros de las dos LAN que
interconectan.
• Puentes transparentes. Consiste básicamente en un puente que permita la transparencia
completa, es decir, que, para instalarlo, no sea necesario ninguna modificación en las redes
locales donde se va a instalar. Un puente transparente trabaja en modo promiscuo, es decir,
acepta todas las tramas transmitidas por cualquier LAN a la que está conectado, sin
descartar ninguna.
• Puentes remotos. Se trata de puentes que permiten interconectar dos o más LAN (o
segmentos de red) que se encuentran separadas por una gran distancia (y por lo tanto, no se
pueden conectar mediante un enlace local). Su conexión se realiza de manera que se coloca
un puente en cada LAN y se conectan en pares mediante líneas punto a punto que, en
general, conforman conexiones de área extensa (por ejemplo, las líneas alquiladas a las
compañías de teléfonos).
Un puente posee normalmente dos puertos para conectar dos redes distintas, aunque se
pueden encontrar en el mercado dispositivos que disponen de más de dos puertos. El ejemplo más
claro hoy en día de puente es el llama transceptor o transceiver de fibra óptica, que nos permite
conectar una red Ethernet de par tranzado con una red Ethernet de fibra óptica. Se usa para hacer
enlaces entre dos redes Ethernet de par trenzado separadas por mucha distancia.

Ilustración 9: Puentes Ethernet cobre a fibra óptica


Pero más habitual aún es encontrar otros dispositivos de interconexión que tienen funciones
de puentes. Ejemplos serían:
• los hubs Ethernet 10BaseT con un puerto BNC para Ethernet 10Base2;
• los switches Ethernet 100BaseTX o 1000BaseTX (par trenzado) con puertos de fibra óptica
Ethernet 1000BaseFX o puertos para módulos miniGBIC de fibra óptica;
• los puntos de acceso inalámbrico cuando disponen de un puerto RJ45 que conecta con una
red Ethernet 802.3 de par trenzado con una red 802.11.

Puntos de acceso
Un punto de acceso (AP, Access Point) es una mezcla en un solo aparato de dos dispositivos:
• un puente entre una red Fast/Gigabit Ethernet 802.3 y una red inalámbrica 802.11;
• el elemento central de una red inalámbrica 802.11 en modo infraestructura.
Tiene un tamaño relativamente pequeño, con un puerto RJ45 para la red Ethernet, y una o más
antenas para la red 802.11. Además, posee leds para indicar el estado (conectado / desconectado /
transmitiendo) tanto del puerto RJ45 (LAN) como de la “antena” (WLAN).
Su funcionamiento como puente es exactamente igual que el de cualquier otro, es decir,
permite que las estaciones de la red cableada y la red inalámbrica puedan comunicarse a nivel de
red, generando las señales correspondientes y adaptando las tramas si es necesario. A modo de
esquema:
• Si llega una trama por el puerto de la red cableada y va destinada a una estación de la red
inalámbrica, se lee la trama Ethernet, se adapta al formato de tramas de 802.11 y se generan
las correspondientes señales para que la trama sea colocada en el aire (es decir, para enviar
la trama por la red inalámbrica).
• Si llega una trama por la red inalámbrica y va destinada a una estación de la red cableada, se
lee la trama 802.11, se adapta al formato de tramas de Ethernet y se generan las
correspondientes señales por el puerto RJ45 para que la trama sea colocada en el cable (es
decir, para enviar la trama por la red cableada).
• Si llega una trama por la red cableada y es para otra estación de la red cableada, el punto de
acceso no hace nada.
• Si llega una trama por la red inalámbrica y es para otra estación de la red inalámbrica, el
punto de acceso se comporta como el elemento central de una red inalámbrica en modo
infraestructura, pero no utiliza para nada el puerto de la red cableada.
Es importante indicar que, al de alguna manera incorporar un elemento de cada tipo de red a
nivel de enlace, el punto de acceso tiene dos MAC, una para la red cableada y otra para la red
inalámbrica.
En cuanto a su funcionamiento como elemento central de una red inalámbrica 802.11 en
modo infraestructura, desarrolla las siguientes funciones:
• Permite que los adaptadores de red inalámbricos se asocien a él, para que éstos pueden
conocer el canal en el que funciona la red, seleccione esa red entre todas las disponibles, y el
punto de acceso sepa de la presencia de ese adaptador (identificado por su MAC) en la red
que controla.
• Autentica a los adaptadores de red de las estaciones que forman la red, para reconocerlos
como dispositivos autorizados y permitir la comunicación entre ellos a través del punto de
acceso.
• Recibe señales 802.11, y si proceden de un adaptador de red asociado y autenticado y el
cifrado es correcto, la regeneran y emiten de nuevo para que llegue en buenas condiciones al
resto de estaciones, que cuando la reciban decidirán si son para ellas o no.
• Permite definir mediante un interface web o de consola la configuración de la red 802.11 de
la que será elemento central, es decir, permite establecer:
◦ el canal de funcionamiento;
◦ el SSID de la red y su estado oculto o público;
◦ el método de autenticación;
◦ la seguridad, es decir, el filtrado de MAC, el método de encriptación (WEP, WPA o
WPA2) y la correspondiente clave.
Cuando el punto de acceso recibe una trama, comprueba que procede de un adaptador de red
asociado y correctamente autenticado, desencripta la trama para comprobar si es para otra estación
con adaptador inalámbrico en tal caso la regenera para que llegue al o los destinatarios.
Alguna de las características que debemos observar al elegir un switch son:

• Especificaciones 802.11. Especificaciones del estándar 802.11 (b, g, n) soportadas por el


punto de acceso.
• Especificaciones 802.3. Especificaciones del estándar Ethernet soportada en el puerto RJ45,
normalmente Fast Ethernet o Gigabit Ethernet.
• Puertos. Normalmente sólo tiene uno RJ45.
• PoE (Power over Ethernet). Indica que el puerto Ethernet que incluye permite alimentar el
dispositivo, es decir, que tomaría la alimentación eléctrica del cable de par trenzado. Para
ello es necesario que el dispositivo situado al otro extremo del cable sea compatible con PoE
y proporcione la corriente continua necesaria.
• SSID. Número de redes inalámbricas distintas que puede crear.
• Antenas. Número y ganancia de las mismas, medida en dBi (cuanto más mejor).
• Seguridad. Mecanismos de seguridad, como cifrado WEP, WPA, WPA2, Filtrado de MAC,
etc.
• Número de estaciones. Máximo número de estaciones a las que puede atender el punto de
acceso a través de la red 802.11, es decir, número máximo de adaptadores de red o
dispositivos que pueden estar asociados.
• Modo repetidor. Posibilidad de funcionar como un simple repetidor, que recibe señal de
otro punto de acceso y la amplifica, aumentando la cobertura de la red.
Si queremos desplegar una red inalámbrica en un edificio completo es necesario utilizar
varios puntos de acceso. La forma ideal de hacerlo es crear una red troncal cableada y conectar
puntos de acceso a ella. Todos los puntos de acceso están configurados con el mismo SSID y con la
misma seguridad, pero con canales distintos en puntos de acceso cuya cobertura se vaya a solapar.
Los adaptadores de red de las estaciones que se muevan se irán asociando al punto de acceso con
mayor cobertura cuando aquél al que están asociados no tiene una señal con la calidad necesaria.
La otra forma de hacerlo es usando el modo repetidor. Es muy difícil conseguirlo con puntos
de acceso de marcas diferentes, por lo que se recomienda encarecidamente usar dispositivos de la
misma marca, y que soporten el modo repetidor. Además, cada marca lo implementa de forma
distinta, puesto que este modo no pertenece al estándar. Será necesario configurar un primer punto
de acceso con la configuración de red deseada y como nodo original de la red; los demás se
configuran en modo repetidor, indicando el SSID de la red que expande. Además, puede ser
necesario incluir en el nodo original la MAC del punto de acceso que expande.

Dispositivos de niveles superiores


A nivel superior del de enlace, distinguimos dos dispositivos de interconexión:
• Router o encaminador. Permite interconectar dos redes a nivel de red, independientemente
del estándar que usen en niveles inferiores, siempre que sean compatibles con el router. Al
trabajar a nivel de red, usa protocolos de este nivel, fundamentalmente TCP/IP, con las
ventajas que conlleva como el direccionamiento configurable para crear subredes. El
ejemplo más claro es un router que conecta una red local Ethernet con internet, usando en
esta última protocolos de nivel de enlace y físicos como PPoE, ADSL, etc..
• Gateway o pasarela. Permite interconectar redes con arquitecturas totalmente diferentes,
trabajando a nivel de transporte y/o aplicación. Suelen ser ordenadores con los adaptadores
de red y protocolos adecuados y con el software específico para encaminar la información.

Híbridos: Router ADSL y Router WAN


Por cuestiones de mercado y por comodidad existen aparatos que mezclan varios dispositivos
de interconexión, cubriendo el conjunto de necesidades de una empresa, entidad, hogar, etc.. Un
ejemplo ya lo hemos visto en los swtiches, muchos de los cuales también son puentes. Veamos dos
ejemplos más.
El router ADSL permite la conexión de una red de área local completa a internet mediante el
servicio de datos ADSL contratado con un ISP.
Este router tiene, por una parte, un conector RJ11 para la línea telefónica. A través de este
conector, y gracias a un modem interno que dispone el router, se accede a internet. Por otro lado
tiene uno o varios puertos RJ45 para conectar con una red Ethernet. En caso de tener varios puertos,
el router actúa también como switch, por lo que no es necesario ningún otro dispositivo para crear la
red local. Algunos modelos son a su vez puntos de acceso, por lo que además de red Ethernet
pueden crear también una red 802.11. Así, en un solo dispositivo tenemos modem ADSL, Switch
Ethernet, Punto de Acceso 802.11 y router para comunicar la red local (Ethernet y/o 802.11) a
Internet.
El router WAN es similar al ADSL, sólo que en este caso no tiene modem. Dispone de un
puerto RJ45 denominado WAN al que se conecta un modem ADSL, un cable modem independiente
o una conexión de una red local que tenga acceso a internet. Por otro lado, tiene puertos RJ45
(llamados LAN) para crear la red local Ethernet y/o la antena para crear la red inalámbrica 802.11
similares al router ADSL. La conexión a internet se obtiene del modem independiente o de la red
conectada al puerto LAN y el router “sólo” se encarga de crear la red local e interconectar ésta con
el modem o con la otra red que ya tiene acceso a internet.
TCP/IP
Supongamos que se nos ocurre la peregrina idea de enviar “El Quijote” a un amigo,
empleando palomas mensajeras. Evidentemente, una sola paloma no puede llevar todo el libro.
Microfilmamos las páginas y a cada paloma le damos un microfilm. Para facilitar el trabajo de
nuestro amigo, numeramos las filminas, puesto que ordenar después todo el libro, sin una
numeración, resultaría muy difícil.
A lo largo de todo el viaje, alguna paloma puede ser cazada, decidir que se va a otro lugar o,
simplemente, perder su mensaje. Cuando esto sucede, nuestro amigo nos manda una paloma
diciendo que algo no ha llegado o que ha llegado defectuoso. Así, hasta que complete el libro y lo
pase a papel.
Ahora, en lugar de emplear las palomas, envío El Quijote en formato pdf por correo
electrónico. Aparentemente, el libro va completo, sin embargo, los protocolos de comunicación
realizarán las mismas tareas que tendríamos que hacer mi amigo y yo empleando las palomas. De
algo tendrían que valer las TIC.

La arquitectura TCP/IP
TCP/IP es una compleja arquitectura de red que incluye varios protocolos apilados por capas
y que interactúan unos con otros para conseguir el fin de la comunicación entre ordenadores. Es sin
lugar a dudas la arquitectura más utilizada del mundo, ya que es la base de comunicación de
Internet y se utiliza ampliamente en redes locales. En internet hay muchas clases distintas de
ordenadores, con distinto hardware, distinto software, integrados o no en distintos tipos de redes;
pero todos ellos tienen que tener en común el protocolo TCP/IP.
La arquitectura TCP/IP se construyó diseñando inicialmente los protocolos para,
posteriormente, integrarlos por capas en la arquitectura. Por esta razón, a TCP/IP muchas veces se la
califica como pila de protocolos. Como tal conjunto, fue desarrollado a principio de los años 70 por
el ministerio de Defensa norteamericano, para la red ARPANET. Adoptó su forma actual en 1983,
como consecuencia del proyecto DARPA (Defensive Advanced Research Projects Agency), de la
defensa norteamericana. Nació para interconectar distintas redes en entorno operativo UNIX.
Soluciona básicamente el problema de interconectar distintas redes, divididas en subredes,
enrutando el tráfico entre ellas.
En 1992 nació la Internet Society (ISOC), que es una ONG de profesionales cuyo objetivo es
fomentar, divulgar y estandarizar las distintas técnicas y tecnologías que permitan la comunicación
entre cualquier tipo de redes por heterogéneas que sean. Además, patrocina a la IAB (Internet
Architecture Board), responsable de la actualización del TCP/IP y a la IETF (Internet
Engenieering Task Force), encargada de desarrollar estándares para internet.
Como la comunicación entre ordenadores es de gran complejidad, la arquitectura TCP/IP
divide el problema en otros menos complejos, creándose varios niveles. Cada nivel soluciona un
problema de la comunicación y tiene asociado uno o varios protocolos para ello. Su modelo es algo
diferente a OSI, aunque están muy relacionados.
OSI TCP/IP
7 Aplicación
6 Presentación Aplicación
5 Sesión
4 Transporte Transporte
3 Red Interred
2 Enlace de datos Enlace
Subred
1 Físico Físico

Tabla 1: Capas de TCP/IP y equivalencia con OSI

Las funciones que realiza cada una de las capas de TCP/IP:


● Capa de aplicación. Contiene los protocolos de alto nivel que utilizan los programas para
comunicarse, para ofrecer y recibir servicios. Entre otros muchos, tenemos los protocolos
TELNET, FTP, HTTP, etc..
● Capa de transporte. Cumple la función de establecer una conversación entre el origen y el
destino. En este nivel la información es dividida en segmentos, para que la transmisión sea
más eficiente. Puesto que las capas inferiores no se responsabilizan del control de errores ni
de la ordenación de los paquetes, ésta debe realizar todo ese trabajo. Aquí se han definido
dos protocolos: TCP y UDP.
● Capa de interred. Esta capa es la más importante de la arquitectura, y su misión es permitir
que las estaciones envíen información (datagrama) a la red y los hagan viajar de forma
independiente hacia su destino. Es decir, su función es encaminar los datos por la red.
Durante ese viaje, los paquetes puede atravesar distintas redes y llegar desordenados. Esta
capa no se responsabiliza de ordenar de nuevo los mensajes en el destino. El protocolo más
importante de esta capa se llama IP, y otros son ARP/RARP e ICMP.
● Capa de subred. El modelo no da mucha información de esta capa, y solamente se
especifica que debe existir algún protocolo que conecte la estación con la red. La razón
fundamental es que, como TCP/IP se diseñó para su funcionamiento sobre redes diferentes,
esta capa depende de la tecnología utilizada y no se especifica de antemano. Así que en este
nivel no hablamos de protocolos, sino de estándares de los niveles de enlace y físico, como
Ethernet, X.25, Frame Relay, Token Ring, etc..

Si intentamos esquematizar los estándares de una red local que trabaje con TCP/IP,
tenemos el siguiente cuadro.
Protocolos de TELNET, HTTP, HTTPS, FTP, DNS, DHCP,
Nivel de aplicación
Aplicación TCP/IP BOOTP, SSH, SSL, POP, SMTP, IMAP, IRC

Nivel de Transporte TCP, UDP


Protocolos
TCP/IP ICMP
Nivel de Red IP

Compatibilidad ARP

Nivel de Token Ring – FDDI – Top.


Ethernet – Top. Bus WiFi – Top. Bus
Nivel de enlace Top. Anillo Doble Anillo
Subred Coaxial – Top. Bus Par trenzado – Fibra óptica – Aire (2,4 GHz) –
Nivel físico
Par trenzado – Top. Estrella Top. Estrella Top. Estrella Top. Celular

Tabla 2: Estándares en redes locales

El mismo esquema, pero para internet, sería el siguiente

Protocolos de TELNET, HTTP, HTTPS, FTP, DNS, DHCP,


Nivel de aplicación
Aplicación TCP/IP BOOTP, SSH, SSL, POP, SMTP, IMAP, IRC

Nivel de Transporte TCP, UDP


Protocolos
TCP/IP ICMP
Nivel de Red IP

Compatibilidad ARP

Nivel de PPP PPPoE UMTS / 3,5G /


Nivel de enlace V. 92 ADSL DOCSIS HDSPA
Subred
Fibra óptica /
Nivel físico RTC RTC (adaptada) Aire (2 GHz)
Coaxial

Tabla 3: Estándares en Internet

Los protocolos trabajan juntos para lograr el objetivo de la telecomunicación. Las


relaciones de prestación y solicitud de servicios entre protocolos sigue el esquema de la
ilustración 1.
En este tema nos centraremos en los protocolos de las capas de transporte y red.
Los de aplicación se verán en el segundo curso, conforme vayamos desplegando los
servicios sobre la red. Los de subred son más bien estándares independientes, y no
pertenecen para nada a la pila de protocolos de TCP/IP.
Telnet ... WWW DNS ... Time Aplicaciones

TCP UDP Transporte

ICMP
IP Red
ARP/RARP

Controlador
De Adap. Red
Subred

Adaptador
De red
Ilustración 1: Comunicación entre protocolos de TCP/IP

Protocolo IP

Definición. Características
Protocolo definido en el documento http://www.rfc-es.org/rfc/rfc0791-es.txt
El protocolo IP se encarga de conducir la información a través de la red o de las
redes.
Una red está formada por varios ordenadores o estaciones. Si queremos que
ordenadores de redes distintas puedan intercambiar información debemos conectar esas
redes mediante uno o varios routers. Cada router puede interconectar varias redes.
Cuando un protocolo de nivel de transporte envía una información simplemente indica
dónde la envía, pero no por dnde. Es el protocolo IP el encargado de decidir sobre la
marcha el camino que seguirá la información a través de la red o de las redes,
atravesando cuantos routers sean necesarios. Y para ello necesita identificar cada
estación y cada router de cada red, para lo que usa las llamadas direcciones IP.
El protocolo IP es el principal protocolo de la capa de red, y se encarga de
establecer y aplicar las normas para la transmisión a través de la red de bloques de datos
llamados paquetes IP o datagramas.
El protocolo recibe información de protocolos de nivel superior, en la mayoría de los
casos segmentos TCP o UDP. Normalmente, estos segmentos (junto con la cabecera que
deberá añadir IP) no exceden la longitud máxima de un datagrama. IP utiliza, a su vez,
protocolos de redes locales, que se encargan de llevar el datagrama IP encapsulado en
tramas a través de la red local hasta su destino en la misma red o, en caso de no estar
éste en la misma red, hasta la salida de la misma.
Segmento TCP o UDP

↓ ↓
Encabezado del
Área de datos del datagrama IP
datagrama IP

↓ ↓
Encabezado Final de la
Área de datos de la trama
de la trama trama

Ilustración 2: Encapsulado de datagrama IP


IP se encarga también, si fuera necesario, de la fragmentación y reensamblaje de
grandes datagramas para su transmisión por redes de trama pequeña.
Por tanto el protocolo IP realiza dos funciones básicas:
• Direccionamiento / Enrutamiento. Cada datagrama IP tiene una cabecera en la
que figuran la dirección de origen y de destino (direccionamiento). El módulo IP usa
estas direcciones para llevar el datagrama hasta su destino. Este proceso se llama
encaminamiento o enrutamiento.
• Fragmentación. El módulo IP usa campos en la cabecera para fragmentar y
reensamblar los datagramas IP, si fuera necesario, para su transmisión por redes
de trama pequeña.
En cada estación y en cada router que interconecta redes reside un módulo IP. Estos
módulos tienen reglas comunes para interpretar las direcciones y para fragmentar y
reensamblar los datagramas IP. Estos módulos, en los routers, saben cómo encaminar los
datagramas IP hacia una u otra red de todas las que conecta.
Es un sistema de conmutación de paquetes no orientado a conexión, ya que cada
paquete viaja independientemente de los demás; y no fiable, los paquetes se pueden
perder, duplicar o cambiar de orden, sin que el sistema se percate de ello. Es decir este
protocolo no soluciona estos problemas, tarea que queda para otros protocolos de niveles
superiores.
Cada datagrama IP, se trata como una entidad independiente, no relacionada con
ningún otro datagrama IP. No existen conexiones o circuitos lógicos (virtuales o de
cualquier otro tipo).

Modo de Operación
Para transmitir un datagrama, IP procede de la siguiente manera:
Supongamos dos estaciones, que quieren intercambiar información; cada una estará
integrada en su respectiva red local, y supongamos que hay routers intermedios que
interconectan ambas redes.
El protocolo de transporte del emisor, ya sea TCP o UDP, prepara sus datos,
segmentos, y llama a su módulo IP, que se encargará de enviar cada segmento como un
datagrama IP. Para ello, prepara la cabecera del datagrama con la dirección de destino y
otros parámetros y la adjunta al segmento TCP o UDP. Decide, según la dirección IP del
destino sea de la propia red o de otra, si debe enviarlo directamente o al router que
conecta la red con otras redes. Posteriormente, lo entrega a la tarjeta o interfaz de red
local (nivel de enlace) indicándole dónde ha decidido enviarlo. Ésta, crea una cabecera y
final de nivel de enlace (según las normas del protocolo de red la red local que sea), le
adjunta el datagrama IP y envía el resultado a través de la red local en forma de trama.
Nuestro caso es el caso más complejo, el que la dirección de destino es de otra red,
y por tanto el datagrama habrá sido enviado al router de la red local. El router usa su
módulo IP, que comprueba según sus reglas de configuración y la dirección IP de destino
a qué otra red de las que tiene conectada debe ir el datagrama, y hacia allí lo encamina.
Así sucesivamente, hasta llegar al router de la red local a la que pertenece la estación de
destino. Una vez en este router, y dado que la dirección de destino pertenece a la red en
la que ya se encuentra el datagrama, el router lo envía directamente a la estación de
destino (Ver ilustración).
Esta estación, a su vez, llama a su módulo IP, que quita la cabecera y lo pasa al
protocolo de transporte al cual va dirigido el datagrama.
Como vemos, los datagramas van pasando desde un módulo IP a otro hasta que se
alcanza el destino, y los módulos internet residen en las estaciones y los routers. Todo
este proceso se basa en la interpretación de la dirección IP de destino, y de ahí su
importancia.
En su ruta, los datagramas pueden necesitar atravesar una red cuyo tamaño
máximo de trama (nivel de enlace) es menor que el tamaño del datagrama. Para salvar
esta dificultad, el protocolo IP proporciona un mecanismo de fragmentación (Ver
ilustración).

Formato de un Datagrama IP
El formato del datagrama IP es el siguiente:
0 10 20 30
0 1 2 3 4 5 6 7 8 9 0 1 2 3 3 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
Byte 0 Byte 1 Byte 2 Byte 3
VERS HLEN Tipo de servicio Longitud total
Identificación Bandrs Desplazamiento de fragmento
TTL Protocolo CRC cabecera
Dirección IP origen
Dirección IP destino
Opciones IP (si las hay) Relleno
Datos
...

Ilustración 3: Formato de datagrama IP

Campos del datagrama IP


• Versión (4 bits). Indica la versión del protocolo IP utilizada. Actualmente se utiliza
mayoritariamente la versión 4 (IPv4), pero cualquier sistema operativo soporta ya la
siguiente versión, la 6 (IPv6).
• HLEN (4 bits). Longitud de la cabecera, expresada en palabras de 32 bits. Apunta
al comienzo de los datos. El valor mínimo es 5, correspondiente a 160 bits = 20
bytes.
• Tipo de servicio (Type Of Service) (8 bits): indica la prioridad, retardo,
rendimiento, etc..
• Longitud total (16 bits): indica la longitud total del datagrama, expresada en bytes
(8 bits), incluyendo la longitud de la cabecera y los datos. Como el campo tiene 16
bits, la máxima longitud posible de un datagrama será de 65535 bytes.
• Identificación (16 bits): número de secuencia del datagrama. Si se tratara de un
datagrama fragmentado, llevaría la misma identificación que los otros fragmentos.
• Flags o indicadores (3 bits): son indicadores de control. El bit (MF) indica que hay
más fragmentos. El bit (NF) prohíbe la fragmentación del datagrama.
• Posición del fragmento (13 bits): indica la posición del fragmento actual dentro
del datagrama completo, medido en unidades de 64 bits. Por esta razón los
campos de datos de todos los fragmentos menos el último tienen una longitud
múltiplo de 64 bits. Si el paquete no está fragmentado, este campo tiene el valor
cero.
• Tiempo de vida o TTL (8 bits): tiempo máximo que puede estar el datagrama en
la red. Cada vez que el datagrama atraviesa un router se resta 1 a este número.
Cuando llegue a cero, el datagrama se descarta y se devuelve un mensaje ICMP
de tipo "tiempo excedido" para informar al origen, y se descarta el datagrama.
• Protocolo (8 bits): indica el protocolo del siguiente nivel utilizado en el campo de
datos: 1 para ICMP, 2 para IGMP, 6 para TCP y 17 para UDP.
• Suma de control de cabecera (CRC) (16 bits): para comprobar si hay errores en
la cabecera del datagrama, sólo en la cabecera, no en los datos. La verificación de
errores de los datos corresponde a las capas superiores.
• Dirección origen (32 bits): contiene la dirección IP del origen.
• Dirección destino (32 bits): contiene la dirección IP del destino.
• Opciones: distintas opciones especificadas por el origen, referidas generalmente a
pruebas de red y depuración. Este campo es opcional.
• Relleno (variable): se usa para que la longitud de la cabecera sea múltiplo de 32
bits.
A continuación de estos campos, van la auténtica información que se quiere
transmitir, los datos, normalmente un segmento TCP o UDP.

Direccionamiento
Hay una distinción entre nombres, direcciones y rutas.
• Un nombre indica qué buscamos.
• Una dirección indica dónde está.
• Una ruta indica cómo llegar allí.
El protocolo IP maneja únicamente direcciones, la dirección Internet o dirección IP, y las
utiliza para identificar cada nodo (estación o router) . Es tarea de los protocolos de mayor nivel,
hacer corresponder nombres con direcciones. Gracias a las direcciones IP, los protocolos de
enrutamiento pueden calcular la ruta a seguir por un datagrama a través de las estaciones y/o routers
hasta su destino.
Dada la importancia del direccionamiento IP, lo veremos en un apartado separado.
Direcciones IP
La dirección IP es el identificador de cada host o estación dentro de su red a nivel de red.
Cada host conectado a una red tiene una dirección IP asignada, la cual debe ser distinta a todas las
demás direcciones que estén vigentes en ese momento en la red del host.
Una dirección IP es un número de 4 bytes (cuatro números decimales entre 0 y 255).
Por ejemplo: 194.142.78.95. Este número lleva codificado la dirección de la red, llamada
net-id y la dirección de la estación dentro de esa red, llamada host-id.
Las direcciones IP se clasifican en:
Direcciones IP públicas. Son las asignadas a las estaciones que forman parte
directa de Internet. Un ordenador con una IP pública es accesible (visible) desde
cualquier otro ordenador conectado a Internet. Para que una estación se conecte a
Internet es necesario que una dirección IP pública o que un elemento de su red la
tenga.
Direcciones IP privadas (reservadas). Son visibles únicamente por otros hosts de
su propia red privada. Se utilizan, por ejemplo, en las empresas para los puestos
de trabajo. Los ordenadores con direcciones IP privadas pueden salir a Internet por
medio de un router (o proxy) que tendrá una IP pública. Sin embargo, desde
Internet no se puede acceder a ordenadores con direcciones IP privadas1.
En el caso de Internet, no puede haber dos ordenadores con dos direcciones IP (públicas)
iguales. Dentro de una red local concreta, tampoco puede haber dos ordenadores con la misma
dirección IP. Pero sí podríamos tener dos ordenadores con la misma dirección IP siempre y cuando
pertenezcan a redes locales independientes entre sí (en el camino que comunica a ambas hay al
menos un router con una dirección IP pública o privada de otra red).

Direcciones IP públicas
Son las que se usan en la red Internet. Las direcciones IP públicas son controladas y
asignadas por la IANA, parte del ICANN. Normalmente, los ISP solicitan paquetes de direcciones
IP públicas y las utilizan para sus redes, que incluyen sus propias estaciones y routers de las
centralitas y las estaciones (conectadas por modem) y routers de sus clientes. Los ISP tienen dos
formas de otorgar las direcciones IP:
De forma estáticas (IP estática o fija). Un host que se conecte a la red con dirección IP
estática siempre lo hará con una misma IP. Las direcciones IP públicas estáticas son las que
utilizan los servidores de Internet con objeto de que estén siempre localizables por los
usuarios de Internet. Estas direcciones hay que contratarlas explícitamente.
De forma dinámica (IP dinámicas). Un host que se conecte a la red mediante dirección IP
dinámica cada vez lo hará con una dirección IP distinta. Las direcciones IP públicas
dinámicas son las que se utilizan en las conexiones a Internet mediante un módem. Los
proveedores de Internet utilizan direcciones IP dinámicas debido a que tienen más clientes
que direcciones IP contratadas (es muy improbable que todos se conecten a la vez).
Recordamos que las direcciones IP están formadas por 4 bytes (32 bits). Se suelen representar
de la forma a.b.c.d donde cada una de estas letras es un número comprendido entre el 0 y el 255.
Por ejemplo la dirección IP del servidor web de IBM (www.ibm.com) es 129.42.18.99.
Las direcciones IP también se pueden representar en hexadecimal, desde la
00.00.00.00 hasta la FF.FF.FF.FF o en binario, desde la

1 Existen técnicas como NAT que permiten hacer visibles en internet a ordenadores con direcciones IP privadas en
determinadas circunstancias.
00000000.00000000.00000000.00000000
hasta la
11111111.11111111.11111111.11111111
Éstas serían tres formas diferentes de escribir la misma dirección IP (podemos
utilizar la calculadora científica de Windows para realizar las conversiones).
(decimal) 128 . 10 . 2 . 30
(hexadecimal) 80 . 0A . 02 . 1E
(binario) 10000000 . 00001010 . 00000010 . 00011110

¿Cuántas direcciones IP existen? Si calculamos 2 elevado a 32 obtenemos más de


4.000 millones de direcciones distintas. Sin embargo, no todas las direcciones son válidas
para asignarlas a hosts.
Las direcciones IP no se encuentran aisladas en Internet, sino que pertenecen
siempre a alguna subred. Los ordenadores que están en la misma subred se pueden
comunicar directamente, y los que están en distintas subredes lo tienen que hacer a
través de un router.
Todas las máquinas conectadas a una misma subred se caracterizan en que los
primeros bits de sus direcciones IP son iguales. De esta forma, las direcciones se dividen
conceptualmente en dos partes: el identificador de red y el identificador de host. El
identificador de red será la primera parte de la dirección IP. No hay un número fijo de bits
que correspondan a la dirección de red, ya que ésto depende, en principio, de la clase a la
que pertenezca la dirección:
Las de clase A utilizan 7 bits para la dirección de red y un bit, el primero, puesto a
“0” para indicar el tipo. Esto significa que el primer número (hasta el primer punto)
está entre 0 y 127. Éste número es el identificador de red.
Las de clase B utilizan 14 bits para la dirección de red y dos bits, los primeros,
puestos a “10” para indicar el tipo. Esto significa que el primer número (hasta el
primer punto) está entre 128 y 191. El identificador de red serán los dos primeros
números (hasta el segundo punto).
Las de clase C utilizan 21 bits para la dirección de red y tres bits, los primeros,
puestos a “110” para indicar el tipo. Esto significa que el primer número (hasta el
primer punto) está entre 192 y 223. El identificador de red serán los tres primeros
números (hasta el tercer punto).
Pertenecerán a la misma red aquellas estaciones que tengan el mismo identificador
de red. El identificador de red viene a ser la dirección de la subred a la que pertenece el
host. De hecho, la dirección IP de la subred completa se referencia por el identificador de
red de sus hosts completado con ceros hasta alcanzar los 32 bits. Por ejemplo, para la
dirección IP 15.20.30.40 de la clase A, el identificador de red es 15, luego la dirección IP
de la red a la que pertenece es 15.0.0.0. No puede haber dos redes con el mismo
identificador de red.
El resto de bits de la dirección IP hasta completar los 32 bits se utilizan para el
identificador del host dentro de la red a la que pertenece. En cada ordenador de la red,
será diferente. Así, dependiendo de la clase de dirección IP, tenemos:
Las de clase A utilizan 24 bits para la dirección de host (a partir del primer punto)
Las de clase B utilizan 16 bits para la dirección de host (a partir del segundo
punto)
Las de clase C utilizan 8 bits para la dirección de host (a partir del tercer punto)
Como cada red tiene un identificador de red diferente, y dentro de cada red cada
host tiene un identificador de host diferente, resulta que cada ordenador tiene una
dirección IP diferente.
Existen dos clases más de direcciones. La clase D está formada por direcciones que
identifican no a un host, sino a un grupo de ellos. Las direcciones de clase E no se
pueden utilizar (están reservadas).

0 1 2 3 4 8 16 24 31
Clase A 0 red host
Clase B 1 0 red host
Clase C 1 1 0 red host
Clase D 1 1 1 0 grupo de multicast (multidifusión)
Clase E 1 1 1 1 (direcciones reservadas: no se pueden utilizar)

Tabla 4. Clases de direcciones IP

Ahora centrémonos en una de las clases, por ejemplo la A. Tenemos siete bits para el
identificador de red. Por tanto podemos construir 27 = 128 identificadores de red diferentes.
Como quiera que dos hosts con el mismo identificador de red pertenecen a la misma red,
esto implica que sólo podemos construir 128 redes diferentes utilizando direcciones IP de
clase A. Dentro de cada una de estas redes, tenemos 24 bits para identificar hosts. Esto
significa que podemos tener dentro de la subred 224 = 16.777.214 direcciones diferentes,
es decir, que dentro de cada red con direcciones de clase A podemos tener hasta
16.777.214 estaciones o hosts.
Los cálculos para las otras clases se hacen de forma similar, obteniéndose los
resultados de la siguiente tabla, en el que no se han tenido en cuenta direcciones
especiales que no se pueden utilizar y que citaremos a continuación2.

Formato
Número de Número de
Clase (r=red, Rango de direcciones de redes Máscara de subred
redes hosts por red
h=host)
A r.h.h.h 128 16.777.214 0.0.0.0 - 127.0.0.0 255.0.0.0
B r.r.h.h 16.384 65.534 128.0.0.0 - 191.255.0.0 255.255.0.0
C r.r.r.h 2.097.152 256 192.0.0.0 - 223.255.255.0 255.255.255.0
D grupo - - 224.0.0.0 - 239.255.255.255* -
E No válidas - - 240.0.0.0 - 255.255.255.255* -
*Son rangos de direcciones, no de direcciones de red
Tabla 5. Rango de las clases de direcciones IP

Direcciones IP privadas
Las direcciones IP privadas se encuentran reservadas para su uso en redes privadas o de área
local. Si se desea que las estaciones de estas redes se comuniquen con estaciones de internet o de

2 Estos datos pueden variar un poco porque algunas direcciones son especiales y no valen para una red o un host. Se
ha preferido la comprensión de los datos a su exactitud.
otras redes es necesario usar routers que comuniquen unas redes con otras.
Las IP privadas son asignadas por los usuarios o el administrador de red al configurar el
protocolo IP de las estaciones. No es necesario solicitar la dirección a la IANA ni a ningún otro
organismo, entidad, ISP, empresa, etc., se pueden usar libremente. En la red se puede articular un
mecanismo (DHCP) para que la asignación de esas IP pueda ser dinámica o automática.
Las direcciones IP privadas responden al mismo esquema que las públicas, es decir, están
formadas por cuatro bytes que se representan con cuatro números decimales entre 0 y 255
separados por puntos. Cada dirección está formada por un identificador de red y un identificador de
host. Tenemos tres clases de direcciones que se forman exactamente igual que las clases de las
privadas.
¿Dónde está la diferencia? Pues en que para que una dirección IP sea privada tiene que estar
en uno de los tres rangos (en función de su clase) que se describen en la siguiente tabla.

Clase Rango de direcciones reservadas como privadas


A 10.0.0.0 – 10.255.255.255
B 172.16.0.0 – 172.31.255.255
C 192.168.0.0 – 192.168.255.255

Tabla 6. Direcciones IP privadas

Lo primero que debemos indicar es que no existen direcciones IP públicas dentro de


estos rangos. Es decir, no existe la dirección IP pública, o de Internet, 10.20.30.40, ya que
se trata de una dirección IP privada.
Lo segundo es que estas direcciones se utilizan para los hosts que forman parte de
una red privada, y no de la red pública que constituye Internet. Por tanto no se puede
acceder a estas estaciones desde Internet, puesto que no tienen dirección pública, ni
viceversa, no se puede acceder a internet desde ellas. Sin embargo la comunicación con
internet en ambos sentidos sí es posible a través de un router que conecte la red local con
una subred de internet (y desde esta subred al resto de internet a través de más routers).
Cuando una estación intenta transmitir un mensaje a otra que tiene una IP privada,
la buscará dentro de la red privada o de área local a la que pertenece (será necesario que
tengan el mismo identificador de red). Sin embargo, si intenta transmitir un mensaje a otra
que tiene una IP pública o una IP privada de otra red lo hará a través del punto de salida
de la red a la que pertenece, llamado puerta de enlace. Este punto de salida será un
router que dispone, por un lado, de una dirección IP privada de la red local, y por otro, de
una IP pública de Internet o una IP privada de la otra red. La dirección en su red de la
puerta de enlace debe ser conocida por cualquier estación que se quiera comunicar con
internet u otra red.
Debido a este funcionamiento, podemos construir un número ilimitado de redes
locales independientes conectadas a internet utilizando las mismas direcciones IP
privadas. Dos redes independientes podrán usar las mismas direcciones IP privadas, ya
que éstas no salen del ámbito de la red local a la que pertenecen. Lo único que debe ser
diferente obligatoriamente es la IP pública mediante la cual accede cada una de las dos
redes a Internet.
Por ejemplo, si estamos construyendo una red privada con un número de
ordenadores no superior a 254 podemos utilizar una red con direcciones de clase C. Al
primer ordenador le podemos asignar la dirección 192.168.23.1, al segundo 192.168.23.2
y así sucesivamente hasta la 192.168.23.254. Esas mismas direcciones, pueden ser
utilizadas en otra red independiente a la anterior, aunque ambas estén conectadas a
internet.

Direcciones IP especiales y reservadas


No todas las direcciones comprendidas entre la 0.0.0.0 y la 223.255.255.255 son válidas para
un host, ya que algunas de ellas tienen significados especiales cuando se usan como
destino. Las principales direcciones especiales se resumen en la siguiente tabla. Su
significado depende del host desde el que se utilicen.

Significado cuando se usa como


Identificador de red Identificador de host Ejemplo
destino
Todos 0 El propio host 0.0.0.0
Host indicado dentro de la propia
Todos 0 Host 0.0.0.10
red
Red Todos 0 Dirección de Red 192.168.1.0
Todos 1 Difusión en la propia red 255.255.255.255
Red Todos 1 Difusión a la red indicada 192.168.1.255
Cualquier valor válido de
127 Loopback (el propio host) 127.0.0.1
host

Tabla 7. Direcciones IP especiales

Difusión o broadcasting es el envío de un mensaje a todos los ordenadores que se encuentran


en una red, sin atravesar los routers. La dirección de loopback (normalmente 127.0.0.1) se utiliza
para comprobar que los protocolos TCP/IP están correctamente instalados en nuestro propio
ordenador.

Máscara de subred y subnetting


El protocolo TCP/IP permite conectar redes privadas entre sí a través de un medio privado, es
decir sin necesidad de direcciones IP públicas. También sería necesario colocar cada dos redes un
router que en este caso contendría dos direcciones IP privadas, una de cada una de las redes que
conecta. Como las dos direcciones del router son privadas y deben ser de dos redes
diferentes, las direcciones IP de ambas redes no pueden tener el mismo identificador de
red. Observando la tabla de rangos de direcciones IP privadas podemos comprobar que
sólo podemos construir una red privada con direcciones IP de clase A, 16 redes privadas
con direcciones de clase B, y 255 redes privadas con direcciones de clase C diferentes.
Este problema se hace mucho más grande cuando hablamos de direcciones
públicas. En teoría, sólo se pueden construir 128 redes con direcciones de clase A,
16.384 con direcciones de clase B y 2.097.252 redes con direcciones de clase C.
Teniendo en cuenta que cada conexión a Internet que suministra a un ISP constituye una
red con direcciones públicas (formada normalmente sólo por un ordenador o router del
clientes y el router del ISP en la centralita) son muy pocas posibilidades. Al conectar un
simple ordenador a internet vía módem estaríamos en el mejor de los casos utilizando dos
de las algo más de dos millones de redes con direcciones de clase C, cada una de las
cuales puede tener 254 estaciones. Es decir, estamos desperdiciando 252 direcciones IP.
Y eso en el mejor de los casos.
Para solucionar estos problemas existen las máscaras de subred. Una máscara de
subred es una regla que usando nuestra dirección IP, nos indica si otra dirección IP
pertenece a nuestra subred o no.
La siguiente tabla muestra las máscaras de subred por defecto correspondientes a
cada clase:

Clase Máscara de subred


A 255.0.0.0
B 255.255.0.0
C 255.255.255.0

Si expresamos la máscara de subred de clase A en notación binaria, tenemos:


11111111.00000000.00000000.00000000
Los unos indican los bits de la dirección correspondientes a la red y los ceros, los
correspondientes al host. Según la máscara anterior, el primer byte (8 bits) es la red y los tres
siguientes (24 bits), el host. Por ejemplo, la dirección de clase A 35.120.73.5 pertenece a la red
35.0.0.0.
Ahora veamos para la clase B. La máscara 255.255.0.0 en binario es
11111111.11111111.00000000.00000000
De nuevo las posiciones que tienen un 1 indican que el correspondiente bit de la dirección IP
es parte del identificador de red mientras que las que tienen un 0 indican que dicho bit es parte del
identificador de host.
De forma similar se podría hacer para la clase C, donde la máscara sería 255.255.255.0, que
en binario es
11111111.11111111.11111111.00000000
Supongamos una subred con máscara 255.255.0.0, en la que tenemos un ordenador con
dirección 148.120.33.110. Si expresamos esta dirección y la máscara de subred en binario, tenemos:

148.120.33.110 10010100.01111000.00100001.01101110 (dirección de una máquina)


255.255.0 .0 11111111.11111111.00000000.00000000 (máscara de subred)
148.120.0 .0 10010100.01111000.00000000.00000000 (dirección de su red)

<------RED------> <------HOST----->

Al hacer el producto binario (AND) de las de la dirección y la máscara (donde hay dos 1 en
las mismas posiciones ponemos un 1 y en caso contrario, un 0) obtenemos la dirección de la red.
Si hacemos lo mismo con otro ordenador, por ejemplo el 148.120.33.89, obtenemos la misma
dirección de red. Esto significa que ambas máquinas se encuentran en la misma red (la red
148.120.0.0).

148.120.33.89 10010100.01111000.00100001.01011001 (dirección de una máquina)


255.255.0 .0 11111111.11111111.00000000.00000000 (máscara de subred)

148.120.0 .0 10010100.01111000.00000000.00000000 (dirección de red)

<------RED------> <------HOST----->
En cambio, si tomamos la 148.115.89.3, observamos que no pertenece a la misma red que las
anteriores.

148.115.89.3 10010100.01110011.01011001.00000011 (dirección de una máquina)


255.255.0 .0 11111111.11111111.00000000.00000000 (máscara de subred)

148.115.0 .0 10010100.01110011.00000000.00000000 (dirección de su red)

<------RED------> <------HOST----->

En una red de redes TCP/IP no puede haber hosts aislados: todos pertenecen a alguna red y
todos tienen una dirección IP y una máscara de subred (si no se especifica se toma la máscara que
corresponda a su clase). Mediante esta máscara un ordenador sabe si otro ordenador se encuentra en
su misma subred o en otra distinta. Si pertenece a su misma subred, el mensaje se entregará
directamente. En cambio, si los hosts están configurados en subredes distintas, el mensaje se
enviará a la puerta de salida o router de la red del host origen. Este router pasará el mensaje al
siguiente de la cadena de routers y así sucesivamente hasta que se alcance el de la red del host
destino y se complete la entrega.
Las máscaras 255.0.0.0 (clase A), 255.255.0.0 (clase B) y 255.255.255.0 (clase C) suelen ser
suficientes para la mayoría de las redes privadas. Sin embargo, las redes más pequeñas que
podemos formar con estas máscaras son de 254 hosts y para el caso de direcciones públicas suponen
un desperdicio de direcciones que, por otra parte, no abundan. Por esta razón suele ser habitual
dividir las redes públicas de clase C, B y A en subredes más pequeñas. A continuación se muestran
las posibles divisiones de una red de clase C. La división de una red en subredes se conoce como
subnetting.

Último byte Número de Nº de hosts por Direcciones de subredes (x=a.b.c por


Máscara de subred
en Binario subredes subred ejemplo, 192.168.1)
255.255.255.0 00000000 1 254 x.0
255.255.255.128 10000000 2 126 x.0, x.128
255.255.255.192 11000000 4 62 x.0, x.64, x.128, x.192
255.255.255.224 11100000 8 30 x.0, x.32, x.64, x.96, x.128, ...
255.255.255.240 11110000 16 14 x.0, x.16, x.32, x.48, x.64, ...
255.255.255.248 11111000 32 6 x.0, x.8, x.16, x.24, x.32, x.40, ...
255.255.255.252 11111100 64 2 x.0, x.4, x.8, x.12, x.16, x.20, ...
255.255.255.254 11111110 128 0 ninguna posible
255.255.255.255 11111111 256 0 ninguna posible

Tabla 8. División de un IP pública para varias subredes independientes

Veamos un ejemplo. ¿Pertenecen las direcciones 193.126.1.100 y 193.126.1.200 con la


máscara de subred 255.255.255.0 a la misma subred? Aunque ya debemos saber la respuesta, ya que
se trata de la máscara de red estándar para la clase C, vamos a realizar el cálculo. Pasamos las
direcciones a binario:

193.126. 1 .100 11000001.01111110.00000001.01100100 (dirección de máquina 1)


193.126. 1 .200 11000001.01111110.00000001.11001000 (dirección de máquina 2)
255.255.255. 0 11111111.11111111.11111111.00000000 (dir. de máscara de red)

<-----------RED----------> <-HOST->

Para que dos ordenadores pertenezcan a la misma red deben tener el mismo identificador de
red. Las posiciones de la máscara de red ocupadas por 1 determinan las posiciones que
corresponden al identificador de red. Así que para que ambas direcciones pertenezcan a la misma
red deben coincidir en todos los bits en los que la máscara de red es 1. En este caso eso sucede,
luego ambas direcciones pertenecen a la misma red.
¿Y con la máscara de red 255.255.255.128? Pongamos de nuevo las direcciones y la máscara
en binario:

193.126. 1 .100 11000001.01111110.00000001.01100100 (dir. de máquina 1)


193.126. 1 .200 11000001.01111110.00000001.11001000 (dir. de máquina 2)
255.255.255.128 11111111.11111111.11111111.10000000 (máscara de subred)

<------------RED-----------><HOST->

Ahora el identificador de red ocupa un bit más, el primero del último byte, marcado
con un 1 en la máscara de red. Además, resulta que ese bit es diferente en las dos
direcciones, luego el identificador de red es diferente, y por tanto no pertenecen a la
misma red.
En realidad, cuando una estación quiere determinar si una dirección IP pertenece a
su subred utiliza su propia máscara de subred. Con esto queremos indicar que, por
ejemplo, a la hora de enviar un datagrama IP no se usa la máscara de subred de la
dirección de destino, ya que entre otras cosas no se conoce.
Hagamos un último ejemplo teniendo en cuenta esto. El ordenador con dirección
193.126.1.100 con máscara 255.255.255.128 quiere enviar una datagrama a
193.126.1.120. Para ello primero debe determinar si está en su red, para si no lo está
enviarlo a la puerta de enlace. Hacemos el mismo cálculo de siempre:

193.126. 1 .100 11000001.01111110.00000001.01100100 (dir. de máquina 1)


193.126. 1 .120 11000001.01111110.00000001.01111000 (dir. de máquina 2)
255.255.255.128 11111111.11111111.11111111.10000000 (máscara de subred máq. 1)

<------------RED-----------><HOST->

Efectivamente, todos los bits que están en posiciones con un 1 en la máscara de


subred coinciden, luego la máquina uno termina concluyendo que la dos está en su
subred y por tanto le envía el datagrama directamente, y no lo envía a la puerta de enlace.
La gran utilidad del subnetting es hacer más flexible el espacio de direcciones IP.
Consultando la tabla podemos construir más redes más pequeñas usando el mismo
espacio de direcciones. Por ejemplo, podemos utilizar la máscara 255.255.255.248 para
crear 32 redes públicas diferentes con 6 direcciones de hosts válidas (la primera y última
dirección de todas las redes se excluyen) donde antes sólo podíamos crear una red de clase
C de hasta 254 hosts. Estas redes serán (partiendo de la dirección 193.126.1):
Dirección de red Comienzo Fin Difusión
193.126.1.0 193.126.1.1 193.126.1.6 193.126.1.7
193.126.1.8 193.126.1.9 193.126.1.14 193.126.1.15
193.126.1.16 193.126.1.17 193.126.1.22 193.126.1.23
... ... ... ...
193.126.1.248 193.126.1.249 193.126.1.254 193.126.1.255

Tabla 9. Subnetting de una red de clase C

Las máscaras con bytes distintos a 0 o 255 también se pueden utilizar para particionar redes
de clase A o de clase B, sin embargo no suele ser habitual. Por ejemplo, la máscara 255.255.192.0
dividiría una red de clase B en 4 subredes de hasta 16.382 hosts (2 elevado a 14, menos 2) cada una.
El uso de las máscaras de subred y el subnetting se ha extendido al CIDR (Claseless
Interdomain-Domain Routing) y el supernetting.
CIDR establece dos cosas. La primera es que dejamos de usar las clases, y ya sólo usamos la
máscara de subred. La segunda es que se establece una nueva notación para la máscara de subred.
Ahora tras la dirección IP se coloca una barra ( / ) y el número de bits que se utilizan para el
identificador de red (es decir, el número de unos que tiene la máscara en binario). Así, por ejemplo,
• 192.168.10.2 con máscara de subred 255.255.255.0 pasa a ser 192.168.10.2/24
• 192.168.10.2 con máscara de subred 255.255.255.128 pasa a ser 192.168.10.2/25
Máscara CIDR Máscara CIDR Máscara CIDN
255.225.0.0 /16 255.255.248.0 /21 255.255.255.192 /26
255.255.128.0 /17 255.255.252.0 /22 255.255.255.224 /27
255.255.192.0 /18 255.255.254.0 /23 255.255.255.240 /28
255.255.224.0 /19 255.255.255.0 /24 255.255.255.248 /29
255.255.240.0 /20 255.255.255.128 /25 255.255.255.252 /30

Tabla 10: Equivalencia máscaras y CIDR

El supernetting es una consecuencia directa del CIDR. Si ya no usamos las clases, nada nos
impide usar las máscaras de subred para, en lugar de dividir una red en redes más pequeñas, unir
dos redes en una red más grande sin más que, en vez de coger un bit más para el identificador de
red, coger uno menos. Así, por ejemplo, las direcciones 192.168.1.1/23 y 192.168.1.2/23 pertenecen
a la misma red.

Enrutamiento
A continuación veremos un ejemplo de interconexión de 3 redes. Cada host
(ordenador, estación) tiene una dirección IP propia de su red, con su correspondiente
máscara. Cada router, en cambio, tiene dos “adaptadores de red”, uno para cada una de
las redes que conecta, y dos direcciones IP con sus máscaras, una para cada una de las
redes que conecta. De esta manera el router “pertenece” a las dos redes, y puede
encaminar paquetes de una a la otra.
Host Dirección IP Red
A 192.168.0.10/24
Red 1 – 192.168.0.0/24
R1 192.168.0.1/24
R1 10.10.0.1/16
B 10.10.0.7/26 Red 2 – 10.10.0.0/16
R2 10.10.0.2/16
R2 200.3.107.1/24
C 200.3.107.73/24 Red 3 – 200.3.107.0/24
D 200.3.107.200/24

Tabla 11. Esquema de red

Ilustración 4. Diagrama del esquema de red

El mecanismo fundamental para encaminar los datagramas IP por las redes son las
tablas de enrutamiento. Cada estación y cada router tiene una tabla de enrutamiento, que
contiene las reglas necesarias para que se decida qué hacer con cada datagrama que
llegue a la correspondiente estación o router.
Una tabla de enrutamiento tiene una regla por cada fila. Para cada regla se definen
los siguientes parámetros (columnas):
• Red de destino. Indica que esta regla se debe aplicar cuando el datagrama vaya a
una estación de esa red.
• Máscara de red. Complementa a la dirección de red de destino dada
anteriormente, para determinar hasta dónde llega el identificador de red y el de
host.
• Siguiente. Indica dónde hay que enviar el datagrama para que siga su camino.
Esta dirección siempre debe ser accesible por la estación o el router donde está
definida la tabla de encaminamiento. En caso de tener que enviar ya directamente
a la estación de destino porque está en la misma red, no se indica dirección, o se
indica la propia de la estación o router donde está definida la tabla de
encaminamiento.
• Saltos o métrica. Indica de alguna manera el tiempo (no necesariamente medido
en segundos o milisegundos) que va a tardar el datagrama en llegar a la red de
destino.
Puede existir una regla especial, llamada ruta por defecto, que tiene como red de
destino la 0.0.0.0 con máscara 0.0.0.0. Esta regla se usa cuando el host de destino no
corresponde a la red de destino de ninguna de las reglas establecidas.
En caso de que existan dos reglas que se puedan aplicar para un datagrama, se
elegirá la que tenga una métrica menor.
La tabla de encaminamiento se puede construir de dos formas no excluyentes:
• De forma estática: un administrador configura las rutas editando la tabla
• De forma dinámica: el sistema crea la tabla en función de las configuraciones IP
establecidas para los adaptadores de red que dispone.
Un tabla de encaminamiento puede tener una parte estática y una dinámica.
Veamos cómo sería la tabla de encaminamiento de la estación A
Red destino Máscara Siguiente Saltos
192.168.0.0 255.255.255.0 - 0
10.10.0.0 255.255.0.0 192.168.0.1 1
200.3.107.0 255.255.255.0 192.168.0.1 2
0.0.0.0 0.0.0.0 192.168.0.1 10

Hay una serie de cuestiones a observar:


• La primera regla es la que se aplica cuando el datagrama va a una estación de la
propia red. Por lo tanto no se indica siguiente, aunque se podría haber indicado la
propia dirección de la estación A.
• Todas las direcciones indicadas en siguiente son accesibles por la estación A, y
todas corresponden a routers.
• Dado que la red donde está A sólo tiene una salida, las dos reglas intermedias las
podíamos eliminar, puesto que se incluyen en la última. Quedaría así.
Red destino Máscara Siguiente Saltos
192.168.0.0 255.255.255.0 - 0
0.0.0.0 0.0.0.0 192.168.0.1 10

Ahora vamos a ver la tabla de la estación B.


Red destino Máscara Siguiente Saltos
10.10.0.0 255.255.0.0 - 0
200.3.107.0 255.255.255.0 10.10.0.2 1
192.168.0.0 255.255.255.0 10.10.0.1 1
0.0.0.0 0.0.0.0 10.10.0.2 10

Aquí la única nueva consideración que tenemos que hacer es que hemos puesto la
ruta por defecto hacía la red 3 (200.3.107.0), pero ha sido por una simple suposición.
Y por último, veamos las tablas de los routers. Primero para R1.
Red destino Máscara Siguiente Saltos
192.168.0.0 255.255.255.0 192.168.0.1 0
10.10.0.0 255.255.0.0 10.10.0.1 0
200.3.107.0 255.255.255.0 10.10.0.2 1
0.0.0.0 0.0.0.0 10.0.0.2 10

Y la de R2.
Red destino Máscara Siguiente Saltos
10.10.0.0 255.255.0.0 10.10.0.2 0
200.3.107.0 255.255.255.0 200.3.107.1 0
192.168.0.0 255.255.255.0 10.10.0.1 1
0.0.0.0 0.0.0.0 ? 10

Hemos puesto en la ruta por defecto ? Porque suponemos que habrá otro router
para salir al resto de internet, pero desconocemos su IP en la red 3 (200.3.107.0)
Supongamos que el ordenador A (192.168.0.10) quiere enviar una datagrama al D
(200.3.104.200). El proceso es el siguiente:
1. A mira su tabla de enrutamiento. Mirando la dirección de destino observa que tiene
que aplicar la tercera regla, puesto que la estación de destino pertenece a la red
200.3.107.0. Si en vez de la primera miramos la segunda tabla que diseñamos,
tendríamos que escoger la regla 0.0.0.0. El cualquiera de los dos casos, el
datagrama se envía a 192.168.0.10.
2. El datagrama llega a R1. R1 mira su tabla de enrutamiento y la dirección de destino
del datagrama (200.3.107.0). Decide aplicar la regla número 3, y por tanto envía el
datagrama a 10.0.0.2, es decir R2.
3. El datagrama llega a R2. R2 mira su tabla de enrutamiento y la dirección de destino
del datagrama (200.3.107.0). Decide aplicar la regla número 2, y por tanto envía el
datagrama directamente a la estación de destino D.
4. El datagrama llega a D.
Protocolo ARP, RARP y BOOTP

Protocolo ARP
El protocolo está definido en http://rfc.net/rfc0826.html.
En una red los ordenadores se comunican por medio de tramas físicas a nivel de
enlace. Por ejemplo, en una red Ethernet, la comunicación se realiza por medio de las
tramas Ethernet. Cada adaptador de red que conecta una estación con una red está
identificado de fábrica con una dirección física, llamada MAC. En cada trama va un campo
con la MAC de origen y otro campo con la MAC de destino.
Sin embargo, a nivel de red, en una red TCP/IP la comunicación es por medio de
datagramas IP, y para identificar las estaciones se usan direcciones IP. Cuando el nivel de
enlace intenta mandar una trama que contiene un datagrama IP, necesita saber la
dirección MAC del destino a partir de la IP del mismo, que es lo que contiene el
datagrama. Esto es lo que hace el protocolo ARP (Address Resolution Protocol,
Protocolo de resolución de direcciones).
Veamos cómo funciona el protocolo ARP, con un ejemplo: supongamos que la
estación A con dirección IP 192.168.10.1 quiere enviar un datagrama a la estación B con
dirección IP 192.168.10.2.
1. El módulo IP de la estación A entrega el datagrama con las direcciones IP de
origen y destino a su módulo de enlace, a su adaptador de red.
2. El adaptador no sabe interpretar la dirección IP, y por tanto no sabe dónde tiene
que enviar la trama que contenga el datagrama IP. Necesita la dirección MAC de la
estación con IP 192.168.10.2.
3. Entonces entra en funcionamiento el protocolo ARP. Se manda un mensaje a todas
las estaciones de la red preguntando quién tiene la dirección IP de destino, es
decir, 192.168.10.2. Este mensaje es de multidifusión o broadcast y lleva la
dirección MAC e IP del ordenador origen.
4. El mensaje llega a todas las estaciones, y en concreto a la que tiene la dirección IP
102.168.10.2. Entonces esta estación responde a la que envió el mensaje de
difusión (de la que conoce la MAC) con otro mensaje indicando cuál es su dirección
MAC.
5. Ese mensaje de respuesta con la MAC del ordenador de destino llega al ordenador
que quería transmitir, que gracias a ella ya puede enviar la trama y, en su interior, el
datagrama IP.
Cada ordenador tiene una tabla ARP (caché ARP) que relaciona las direcciones
físicas con las IP que ha consultado recientemente. Esta tabla la va construyendo según
el proceso anteriormente descrito. Cada vez que el protocolo ARP hace una búsqueda,
almacena la respuesta en la tabla ARP. Así, en próximos envíos se consulta primera en la
tabla si ya se sabe la dirección MAC del destino conocida su IP, y en caso afirmativo no
hay que repetir la búsqueda (ver ilustración). La tabla ARP se está actualizando cada
cierto tiempo, para que recoja las modificaciones de direcciones IP y MAC que haya
podido haber.

Protocolo RARP
A veces, el problema se plantea al revés, se conoce la dirección física de una
estación y se necesita conocer la dirección IP. Esto es lo que hace el protocolo RARP
(Reverse Address Resolution Protocol - Protocolo de resolución de direcciones
inverso).
Una máquina utiliza el protocolo RARP para obtener la dirección IP de otra. RARP
utiliza el mismo formato de mensaje que ARP. Al igual que en ARP, se envía un mensaje
de difusión y la máquina que tiene la dirección MAC que se conoce responde con otro
mensaje que contiene su dirección IP (ver ilustración).

Protocolo BOOTP
El protocolo BOOTP (Bootstrap Protocol) es algo más eficiente que el anterior, ya
que además de la dirección IP del solicitante manda información adicional, para facilitar el
mantenimiento y movilidad de los ordenadores.
El protocolo BOOTP se utiliza para efectuar arranques remotos en ordenadores que
no tienen una dirección IP.

Protocolo ICMP
El Protocolo ICMP (Internet Control Message Protocol) proporciona un mecanismo
que puede informar de los posibles errores en la red. También da información de control,
como congestión en la red, cambios de ruta, etc..
Los mensajes ICMP van encapsulados en datagramas IP. ICMP utiliza el soporte
básico de IP como si se tratara de un protocolo de nivel superior (como TCP o UDP). Sin
embargo, ICMP es realmente una parte integrante de IP, y debe ser implementado por
todo módulo IP.
El protocolo ICMP no está diseñado para ser absolutamente fiable. El propósito del
protocolo es darnos información sobre los problemas que pueda haber en la
comunicación, pero no solucionarlos. Existe la posibilidad de que algunos datagramas no
sean entregados, sin ningún informe sobre su pérdida. Los protocolos de nivel superior
que usen IP son los encargados de que la comunicación sea fiable.
Los mensajes ICMP comienzan con un campo de 8 bits que contiene el tipo de
mensaje. Los tipos principales son:
• 0 Respuesta de eco.
• 3 Destino inaccesible.
• 4 Disminución tráfico de origen.
• 5 Redirigir datagrama.
• 8 Solicitud de eco.
• 11 Tiempo excedido.
Los mensajes tipo 8 y 0 se usan a menudo para ver si hay comunicación entre dos
estaciones, pero simplemente a nivel de capa de red, mediante las siguientes órdenes.

a) Orden ping
Esta orden envía mensajes ICMP, de solicitud de eco, desde una estación origen a
otra destino, a la que nos referimos por su dirección IP o por su nombre. La de destino, si
le llaga la solicitud, responde con los mismos mensajes, y de esta manera podemos
asegurar la conectividad a nivel de red. La orden nos muestra el tiempo que ha tardado la
respuesta o un mensaje de error si no hay respuesta transcurrido un tiempo. Su formato
es:
ping [dirección_IP o nombre]

b) Orden tracert
Sirve para saber por dónde va pasando un datagrama IP hasta su estación destino,
a la que nos referimos por su dirección IP o por su nombre. Manda mensajes ICMP de
solicitud de eco, con tiempos de vida 1, 2, 3, etc., hasta alcanzar la estación destino. El
primer datagrama IP (donde van encapsulados los mensajes ICMP) expira en el primer
router, mandando un mensaje tipo 11 (tiempo excedido) e indicando el router que lo envía.
El segundo informa del segundo router y, así sucesivamente. Con esto se consigue tener
una traza de los nodos por donde ha ido pasando el datagrama. Su formato es:
tracert [dirección_IP o nombre]

Protocolo TCP

Definición y Características
Este protocolo se encuentra descrito en el documento RFC 793 (http://www.rfc-
es.org/rfc/rfc0793-es.txt).
El protocolo TCP se encarga de regular el flujo de información entre un origen y un
destino, de tal forma que éste se produzca sin errores y de una forma eficiente, y sin
preocuparse por el camino que sigue la información durante su viaje.
Proporciona calidad de servicio, por lo que se dice que este protocolo es:
• Orientado a la conexión. Esto significa que se establece una conexión entre emisor y
receptor, previamente al envío de los datos. Se establece un circuito virtual entre los
extremos, que crea la ilusión de que hay un único circuito por el que viaja la información de
forma ordenada. Esto, en realidad no es cierto; la información viaja en paquetes
desordenados por distintas vías hasta su destino, y allí tiene que ser reensamblada. Una vez
establecida la conexión, la comunicación es bidireccional a través de ella. Por tanto, la
transmisión es punto a punto y full-duplex. (Ver animación).
• Fiable. Significa que la información llega sin errores al destino. Por esto, la aplicación o
programa que use este protocolo no se tiene que preocupar de la integridad de la
información, se da por hecho.
El protocolo TCP actúa de puente entre la aplicación o programa que requiere sus servicios
(establecer comunicación o “diálogo” con otra máquina) y el protocolo IP, responsable de dirigir el
tráfico por la red hasta llegar a su destino.
Este protocolo usa la tecnología de conmutación de paquetes. El mensaje a enviar se divide
o trocea en segmentos, que, con la cabecera correspondiente, son pasados al protocolo IP. El
protocolo IP les incorporará su cabecera dando lugar a datagramas IP- Por tanto, decimos que los
segmentos viajan encapsulados en los datagramas IP. Esos datagramas IP llevarán los segmentos
por la red hasta su destino.
Encabezado Área de datos del
segmento TCP segmento TCP
↓ ↓
Encabezado del
Área de datos del datagrama IP
datagrama IP

↓ ↓
Encabezado Final de la
Área de datos de la trama
de la trama trama

El flujo de información es no estructurado, es decir, se trata información binaria sin ningún


formato. Es la aplicación de destino quien tiene que interpretar esta información.
Como hemos dicho, antes de poder enviar información, hay que establecer una conexión entre
los extremos. En una transmisión hay tres fases (Ver animación):
1. Apertura de conexión.
2. Transferencia de datos.
3. Cierre de conexión.

Segmento TCP
Como ya hemos dicho, el protocolo TCP divide los mensajes en paquetes, llamados
segmentos TCP. Cada uno de estos segmentos se integran en el campo de datos de un datagrama IP,
y el protocolo IP se encarga de dirigirlos a través de la red o redes, hasta su destino.
La unidad de información en el protocolo TCP, es el byte (8 bits). Los bytes del mensaje se
numeran y cada segmento TCP indica en su cabecera el número del primer byte que transporta.
También la cabecera de cada segmento lleva el puerto de origen, el puerto destino, confirmaciones o
acuses de recibo (ACK), etc.
Para que la transmisión sea eficaz, el tamaño de los segmentos es muy importante. Hay dos
límites para el tamaño de los segmentos: por un lado el tamaño máximo de un paquete IP, que es de
64 Kbytes, aunque casi nunca llega a este tamaño; y por otro, el tamaño máximo que soporta la red
local, que viene dado por la Unidad de Transferencia Máxima (MTU). Es conveniente elegir el
tamaño de los segmentos de tal forma que no haya que fragmentarlos en los niveles inferiores.
Los datagramas IP no tienen porqué llegar en el orden correcto al destino, pueden llegar en
cualquier momento y en cualquier orden, e incluso puede que algunos no lleguen a su destino o
lleguen con información errónea. Por tanto, los mismo pasa con los correspondientes segmentos
TCP que transportan y, por añadido, con los fragmentos de mensaje original. El protocolo TCP se
encarga de corregir estos problemas, numera los segmentos antes de ser enviados y en el destino se
encarga de reensamblarlos en el orden adecuado para recomponer el mensaje (ver animación).
Además solicita el reenvío de los datagramas que no hayan llegado o sean erróneos. No es necesario
normalmente reenviar el mensaje completo.
El formato estándar de un segmento TCP es el siguiente (ver animación):
0 10 20 30
0 1 2 3 4 5 6 7 8 9 0 1 2 3 3 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
Byte 0 Byte 1 Byte 2 Byte 3
Puerto TCP origen Puerto TCP destino
Número de secuencia
Número de acuse de recibo
HLEN Reservado Indicadores Ventana
Suma de verificación Puntero de urgencia
Opciones (si las hay) Relleno
Datos
...
Ilustración 5: Segmento TCP

El significado de cada campo es:


● Puerto TCP origen: especifica el puerto del host origen que envía el segmento TCP. Ocupa
16 bits y es obligatorio.
● Puerto TCP destino: especifica el puerto del host destino al que se envía el segmento TCP.
Ocupa 16 bits y es obligatorio. Los puertos proporcionan una manera práctica de distinguir
entre las distintas transferencias de datos, ya que un mismo ordenador puede estar
involucrado en varias transferencias simultáneas.
● Número de secuencia: indica el primer byte de datos del mensaje que transporta el
segmento. Ocupa 32 bits y es obligatorio. Al principio de la conexión, se asigna un número
de secuencia inicial (ISN, Initial Sequence Number). Los siguientes bytes se numeran
consecutivamente.
● Número de acuse de recibo (ACK): indica el número de secuencia del siguiente byte que
se espera recibir. Ocupa 32 bits y es obligatorio. El número ACK - 1 sería el último byte
reconocido.
● Longitud de cabecera (HLEN): indica el número de palabras de 32 bits (4 bytes) que hay
en la cabecera. Ocupa 4 bits y es obligatorio. Por este campo sabemos dónde acaba la
cabecera y dónde empiezan los datos. Normalmente el tamaño de la cabecera es de 20 bytes
y este campo será 5, este es el valor mínimo y 15 el máximo.
● Reservado: está reservado para usos futuros, actualmente se pone a 0. Ocupa 6 bits.
● Indicadores o campos de control: indican el propósito del segmento. Contienen funciones
de control (como, por ejemplo, configuración y terminación de una sesión). Ocupa 6 bits.
Cada bit es un indicador y solamente tiene significado cuando su valor es 1. El significado
de cada bit es el siguiente:
 URG (puntero de urgencia): Indica que el segmento contiene datos urgentes, esto hace
que el número de secuencia se traslade donde están dichos datos. Se complementa con el
campo "Marcador urgente", que indica el número de datos urgentes que hay en el
segmento.
 ACK (acuse de recibo): Indica que tiene significado el número que hay almacenado en
el campo "Número de acuse de recibo".
 PSH (push): Indica que la aplicación ha solicitado enviar los datos almacenados en la
memoria temporal, sin esperar a completar el segmento de dimensión máxima.
 RST (interrupción de la conexión actual): sirve para hacer un reset de la conexión. Se
usa cuando hay un problema en la conexión, por ejemplo, cuando un paquete llega al
receptor y no hay ninguna aplicación esperándolo.
 SYN (sincronización de los números de secuencia): se usa cuando se crea una
conexión e indica al otro extremo cuál va a ser el primer número de secuencia con el que
va a comenzar a transmitir, que puede ser diferente de cero.
 FIN (fin): indica al destino que ya no hay más datos a transmitir. Se usa para solicitar el
cierre de la conexión actual.
● Ventana: indica el número de bytes que el emisor está dispuesto a aceptar. Ocupa 16 bits.
● Checksum TCP: contiene una suma de comprobación de errores del segmento actual. Se
calcula a partir de la cabecera, los campos de datos y las direcciones IP de origen y destino.
Ocupa 16 bits.
● Marcador urgente: indica que se están enviando datos urgentes, que tienen preferencia
sobre todos los demás. Indica el siguiente byte del campo datos que sigue a los datos
urgentes. Tiene sentido cuando el indicador URG está activo. Un mismo segmento puede
contener datos urgentes y normales. Ocupa 8 bits.
● Opciones: es opcional. Indica una de las siguientes opciones:
 Timestamp, para indicar en qué momento se transmitió el segmento. De esta manera se
puede medir el retardo del segmento desde el origen hasta el destino.
 Aumentar el tamaño de la ventana
 Indicar el tamaño máximo del segmento que el origen puede enviar.
● Relleno: bits de relleno para que el tamaño del segmento TCP sea múltiplo de 32 bits.
● Datos: información, propiamente dicha, fragmento del mensaje que envía el origen al
destino.

Establecimiento de una conexión


Para abrir la conexión se envían tres segmentos, por eso se llama "saludo de tres vías" :

Ilustración 6: Proceso de conexión


1. El ordenador 1 (O1), hace una apertura activa y envía un segmento TCP (S1), al ordenador
(O2). Este segmento lleva el bit SYN activado y el primer número de secuencia x que
usará para mandar sus segmentos.
2. O2 recibe el segmento (S1). Si desea abrir la conexión, responde con un segmento acuse de
recibo (ACK), con el bit SYN activado, con ACK = x +1 y con su propio no de secuencia
inicial (y), y deja abierta la conexión por su extremo. Si no desea abrir la conexión, envía un
segmento, con el bit RST activado, a O1.
3. O1 recibe el segmento y envía su segmento de confirmación con ACK = y + 1.
4. O2 recibe la confirmación y decide que la conexión ha quedado abierta y puede enviar
mensajes también en el otro sentido.
Los números de secuencia usados (x e y), son distintos en cada sentido y son aleatorios para
evitar conflictos.
A partir del paso 4 comienza la transmisión de datos hasta el final. Cuando ya no hay más
datos que transferir, habrá que cerrar la conexión.

Control del flujo


Para controlar el flujo de la transmisión, el protocolo TCP, usa unas técnicas conocidas con el
nombre genérico de “Solicitud de Repetición Automática” (ARQ), que usan el “acuse de recibo
positivo con retrasmisión” (PAR), mediante el cual el receptor (O2) envía un mensaje de acuse de
recibo (ACK), cada vez que recibe un segmento TCP del emisor (O1).
La técnica más simple es, la conocida como control de flujo mediante “sistema de parada y
espera”. En esencia funciona así:

Ilustración 7: Control de flujo mediante parada y espera

1. El ordenador 1 (O1), envía un segmento TCP (S1), al ordenador 2 (O2) y espera un ACK
antes de enviar el siguiente. También arranca un temporizador con un tiempo de
expiración (timeout). Si el temporizador expira antes de que O1 reciba un ACK,
retransmite el segmento y reinicia el temporizador.
2. O2 recibe el segmento y envía su segmento de confirmación con ACK.
3. O1 recibe la confirmación y envía el segundo segmento.
4. El proceso continua de esta manera sucesivamente.
Para controlar la transmisión, TCP numera los segmentos secuencialmente. En el receptor,
TCP reensambla los segmentos como estaban en el inicio. Si falta algún número de secuencia en la
serie, se vuelve a transmitir el segmento con ese número.
La numeración se hace contando los bytes de cada segmento. Si el primer segmento contiene
100 bytes y empezamos numerando con el 0, el siguiente segmento será el número 100.
La cantidad de datos en bytes que se pueden transmitir antes de recibir un ACK se denomina
"tamaño de ventana". Hasta ahora hemos visto un tamaño de ventana = 1 y ventana simple.
Esta técnica es la más eficaz para evitar errores en la transmisión. Es muy usada cuando se
transmiten tramas muy grandes, pero tiene el inconveniente que el canal de transmisión está
desaprovechado la mayor parte del tiempo.
Una técnica más avanzada, conocida como "ventana deslizante", hace un uso más eficiente
del canal de transmisión. Con cada ACK, el receptor envía un valor indicando cuántos segmentos
puede recibir. Entonces el emisor envía esos segmentos sin esperar los ACK correspondientes a
cada uno, sólo espera el del último (ver animación).
Con un tamaño de ventana negociado = 3 y ventana deslizante:

Ilustración 8: Control de flujo mediante ventana deslizante

Una tarea que tiene que realizar el protocolo TCP, es controlar la congestión de la transmisión.
Para esto controla dinámicamente el tamaño de la ventana, aumentando o disminuyendo su tamaño,
para que no haya congestión.

Control de errores
Para poder controlar la fiabilidad de la transmisión de segmentos que forman el mensaje, y
detectar los posibles errores y pérdidas de información, se incluye en la cabecera de los mismos un
campo de 16 bits, calculado a partir de la información contenida en el segmento completo,
denominado normalmente checksum. Cuando el equipo destino recibe el segmento, vuelve a
calcular el checksum del mismo, comprobando que es igual que el incluido por el emisor en la
cabecera. Si son distintos, el segmento se ha recibido con errores, por lo que se vuelve a solicitar de
nuevo su envío. Si es el mismo, el cliente envía un segmento de confirmación al servidor, que
contiene en su cabecera un campo de validación 32 bits, llamado Acknowledgment Number, y que
identifica el segmento que ha llegado correctamente. El emisor está a la espera de la llegada de
estos paquetes especiales de confirmación, por lo que, si transcurrido un tiempo determinado, no ha
recibido la confirmación correspondiente a un segmento, lo vuelve a enviar. A veces, por razones de
eficiencia, los segmentos se suelen enviar sin esperar esta confirmación.
Hay varias técnicas para obtener el checksum y con él detectar y corregir los posibles errores
en la transmisión. Las más usadas, de menor a mayor eficacia y complejidad son las siguientes (ver
animación):
• Comprobación de la paridad: se añade un bit de paridad a los datos, para que el número de
bits con valor 1 sea par. Es un control bastante elemental.
• Suma de chequeo: se calcula un valor haciendo operaciones con algunos valores de la
cabecera, como las direcciones IP de origen y destino, y el campo de datos. En el otro
extremo, se calcula el mismo valor para el segmento recibido. Los dos valores deben ser
iguales, para que la transmisión sea correcta.
• Comprobación de la redundancia cíclica (CRC): si hay un bloque de n bits a
transmitir, el emisor le suma los k bits necesarios para que n + k sea divisible por algún
número, conocido tanto por el emisor como por el receptor.
Los métodos para informar de que ha habido errores en la transmisión son variados:
• Confirmaciones positivas: el receptor devuelve un acuse de recibo positivo (ACK), por
cada segmento recibido correctamente. Se usa para detectar y solicitar el reenvío de
segmentos perdidos.
• Confirmación negativa y transmisión: el receptor confirma los segmentos recibidos
erróneamente, para que el emisor los vuelva a enviar.
• Expiración de intervalos de tiempo (timeout): El emisor arranca un temporizador con
un tiempo de expiración (timeout). Si el temporizador expira antes de que el emisor
reciba un ACK por parte del receptor, retransmite el segmento y reinicia el temporizador.

Cierre de la conexión
El proceso es una variación del saludo de tres vías:
Ilustración 9: Cierre de conexión

1. O1 ya no tiene más datos para transferir. Envía un segmento TCP con el bit FIN activado y
cierra la conexión activa, en el sentido de envío. La recepción está abierta todavía.
2. O2 recibe el segmento, informa a la aplicación receptora del cierre y devuelve la
confirmación (ACK) a O1.
3. O1 recibe el ACK de O2.
4. O2 decide cerrar la comunicación y envía un segmento TCP con el bit FIN activado.
5. O1 lo recibe y envía un ACK a O2.
6. O2 lo recibe y cierra la conexión definitivamente.

Puertos y Zócalos (Sockets)


La noción de puerto, es introducida por la capa de transporte para distinguir entre los
distintos destinos, dentro del mismo host, al que va dirigida la información. La capa de red
solamente necesita, para dirigir la información entre dos ordenadores, las direcciones IP del origen
y el destino. Sin embargo, un ordenador puede estar ejecutando a la vez varios procesos distintos,
por ello no es suficiente indicar la dirección IP del destino, además hay que especificar el proceso al
que va destinado el mensaje. Para esto, la capa de transporte añade la noción de puerto.
Cada proceso utiliza un número de puerto distinto. Cuando un proceso está esperando un
mensaje lo hace en un puerto determinado, y se dice que está "escuchando un puerto". Es decir, un
proceso sólo recoge los mensajes con destino el puerto que tiene en escucha. Un puerto es un
número de 16 bits, por lo que existen 216=65.536 números de puerto posibles en cada ordenador.
Los procesos utilizan estos puertos para enviar y recibir mensajes.
Aparte del concepto de puerto, la capa de transporte, usa el concepto de socket o zócalo. Los
sockets son los puntos terminales de una comunicación, que pueden ser nombrados y direccionados
en una red. Una dirección de socket está formado por la tripleta:
{protocolo, dirección local, proceso local}
Por ejemplo, en la arquitectura TCP/IP un socket sería: {tcp, 193.53.214.3, 1345}.
Genéricamente sería {protocolo de transporte, dirección IP, puerto}, ya que la dirección local
en este caso es una dirección IP, y la forma de identificar procesos en esta arquitectura es mediante
los puertos.
Si una aplicación cliente quiere comunicarse con una aplicación servidora de otro host, el
protocolo TCP le asigna un número de puerto libre; en el otro extremo, la aplicación servidora
permanece a la escucha en un puerto bien conocido, por lo que sabiendo su IP y este puerto se le
podrá enviar un mensaje.
Los primeros 1024 puertos son los llamados "puertos bien conocidos" (well-known) , y y
el resto de los números disponibles a las aplicaciones cliente (aquellas que solicitan servicios),
según los van necesitando.
Los números de puerto son controlados y asignados por IANA ("Internet Assigned Numbers
Authority"), parte del ICANN. Se han establecido tras intervalos:
• Puertos bien conocidos o well-known (del 0 al 1023). Se usan para servicios comunes,
como HTTP, FTP, etc.. TCP asigna los números de puerto bien conocidos para aplicaciones
servidoras (aquellas que ofrecen servicios). No se pueden usar sin registro en la IANA.
• Puertos registrados (del 1024 al 49151). Los puertos registrados son normalmente
empleados por las aplicaciones de usuario de forma temporal cuando conectan con los
servidores, pero también pueden representar servicios que hayan sido registrados en la
IANA por un tercero.
• Puertos dinámicos y/o privados (del 49152 hasta el 65535). No están regulados, y se
suelen usar para las aplicaciones cliente, aunque menos que los registrados.

Los puertos bien conocidos más habituales son (lista ampliada):


Palabra clave Puerto Descripción
echo 7/tcp-udp Eco
daytime 13/tcp-udp Fecha y hora
ftp 21/tcp Protocolo de Transferencia de Ficheros
telnet 23/tcp Telnet
smtp 25/tcp Protocolo de correo sencillo
domain 53/tcp-udp Servidor de nombres de dominio (DNS)
gopher 70/tcp Gopher
www-http 80/tcp World Wide Web HTTP (servicio de páginas web)
pop3 110/tcp Post Office Protocol - Versión 3
irc 194/tcp Internet Relay Chat Protolol (Protocolo de Internet para Chat)

Tabla 12: Principales puertos bien conocidos

Como veremos más adelante, con el comando netstat, podemos ver las conexiones activas y
los sockets en uso.

Puertos y seguridad
Al ser los puertos las "puertas" de entrada a un ordenador, pueden usarse por los "piratas" para
sus ataques. Hay diversas aplicaciones usadas por los piratas informáticos, para accesos no
autorizados. Se basan, generalmente, en la apertura de puertos de número mayor que 1023 para
estos accesos. Por eso se recomienda que, en general, no se tengan más puertos abiertos que los que
sean imprescindibles.
Es conveniente, por lo tanto, comprobar los puertos que tenemos abiertos, con netstat por
ejemplo, y cerrar los que no necesitemos mediante un firewall. En cualquier sistema, si no hay
firewall funcionando todos los puertos están abiertos por defecto.
Principales opciones de netstat ...en Windows ...en Linux
Usar direcciones IP y números de puertos en lugar de nombres -n -n
Mostrar las conexiones activas tcp -t
Mostrar las conexiones activas udp -u
Mostrar todas las conexiones -tu -a
Mostrar puertos escuchando -l
Mostrar aplicación en cada puerto -p -b
Mostrar tabla de enrutamiento -r -r

Ilustración 10: Uso del comando netstat

Protocolo UDP

Introducción y funcionamiento
Este protocolo se describe en: http://www.rfc-es.org/rfc/rfc0768-es.txt
El Protocolo de Datagrama de Usuario (UDP) es un protocolo de la capa de transporte que
proporciona una comunicación sencilla entre dos ordenadores, consumiendo pocos recursos.
Es el complementario de TCP en la capa de transporte, en el sentido de que su dos principales
características son las contrarias a las de TCP. Por tanto, UDP es:
• No confiable: no hay un control de paquetes enviados y recibidos. Estos pueden llegar
erróneos o no llegar a su destino, sin que el emisor se percate de ello.
• No orientado a conexión: no se realiza una conexión previa entre origen y destino, como
ocurre en el protocolo TCP.
Por contra, dada su sencillez, es mucho más “veloz” que TCP a la hora de transmitir un
mensaje. Por ello, es un protocolo útil en casos en los que no es necesario mucho control de los
datos enviados. Se usa cuando la rapidez es más importante que la calidad.
Utiliza el protocolo IP para transportar los mensajes, es decir, va encapsulado dentro de un
datagrama IP. No añade ninguna mejora a este protocolo, en cuanto a control de errores.
Encabezado Área de datos del
segmento UDP segmento UDP

↓ ↓
Encabezado del
Área de datos del datagrama IP
datagrama

↓ ↓
Encabezado Final de la
Área de datos de la trama
de la trama trama
Como TCP, incorpora los puertos origen y destino en su formato. El número de puerto de
destino, en la cabecera UDP, se utiliza para dirigir el segmento UDP a un proceso específico, que se
está ejecutando en el ordenador destino. El número de puerto origen, permite al proceso contestar
adecuadamente.
No controla errores, cuando se detecta un error en un segmento, se descarta. Esto hace que
deban ser las aplicaciones que lo usen, las que controlen los errores, si les interesa. Tampoco
numera los segmentos, ni utiliza confirmación de entrega, como ocurre en TCP. Esto hace que no
hay garantía de que un segmento llegue a su destino, ni que pueden llegar duplicados o
desordenados a su destino.
Los datagramas van quedando en una cola, de la que va leyendo la aplicación destino. Si el
puerto no estuviera abierto o se sobrepasara la capacidad de la cola, los datagramas serían
ignorados.
Uno de sus usos más comunes es el envío de mensajes entre aplicaciones de dos ordenadores.
No es tan fiable como el protocolo TCP, pero es simple, con baja sobrecarga de la red, y por lo tanto
ideal para aplicaciones que usen masivamente la red, como DNS y SNMP. Algunas situaciones en
las que es más útil el protocolo UDP, son:
• Aplicaciones en tiempo real como audio o vídeo, donde no se admiten retardos.
• Situaciones en las que se necesita conectar con un ordenador de la propia red, usando una IP
interna o un nombre. Habría que conectar primero con el servidor de red apropiado que
transforme dicha dirección en una dirección IP válida.
• Consultas a servidores en las que se envían uno o dos mensajes solamente, como es el caso
del DNS.
• En transmisiones en modo multicast (a muchos destinos), o en modo broadcast (a todos los
destinos), ya que si todos los destinos enviaran confirmación el emisor se colapsaría.
Entre los protocolos superiores que usan UDP están: DNS (Domain Name Server), SNMP
(Simple Network Management Protocol), TFTP (Trivial File Transfer Protocol), NFS (Network File
System), etc..

Formato del segmento UDP


El formato del segmento UDP es el siguiente:
0 10 20 30
0 1 2 3 4 5 6 7 8 9 0 1 2 3 3 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1
Byte 0 Byte 1 Byte 2 Byte 3
Puerto UDP origen Puerto UDP destino
Longitud segmento UDP Suma verificación UDP
Datos
...
Ilustración 11: Segmento TCP

El significado de cada campo es:


• Puerto UDP de origen: especifica el puerto del host origen. Ocupa 16 bits.
• Puerto UDP de destino: especifica el puerto del host destino. Ocupa 16 bits.
• Longitud del segmento: especifica la longitud en bytes del segmento, incluyendo la
cabecera. La longitud mínima es de 8 bytes. Ocupa 16 bits.
• Checksum UDP (Suma de verificación): en él se almacena una suma de comprobación de
errores del datagrama, que se calcula a partir de una pseudo- cabecera, que incluye las
direcciones IP origen y destino. En redes Ethernet es corriente que no se calcule el
checksum y puede ser ignorado.
• Datos: contiene los datos que se envían las aplicaciones

Вам также может понравиться