Академический Документы
Профессиональный Документы
Культура Документы
Comunicaciones y Redes
DOCENTE
Raúl Tschanz
2 NIVEL::2 CUATRIMESTE
2. COMUNICACIONES .............................................................................................18
Información ............................................................................................................................... 18
Definición de información .......................................................................................................... 18
Medida de la información ........................................................................................................... 18
Unidades de medida de la información ....................................................................................... 19
Velocidad de transmisión ............................................................................................................ 20
Velocidad de transferencia de datos ........................................................................................... 21
Modulación ................................................................................................................................ 28
Introducción ................................................................................................................................ 28
Modulación de amplitud ............................................................................................................. 28
Modulación de frecuencia ........................................................................................................... 29
Modulación de fase ..................................................................................................................... 30
Codificación ............................................................................................................................... 30
Señales en banda base ................................................................................................................. 30
Señales primitivas ....................................................................................................................... 31
Código diferencial ....................................................................................................................... 35
Código Manchester ..................................................................................................................... 36
Código Manchester diferencial ................................................................................................... 37
Código Miller .............................................................................................................................. 38
Código HDB-3 ............................................................................................................................ 39
Código 4B-3T ............................................................................................................................. 40
3. REDES ..................................................................................................................47
Definiciones................................................................................................................................ 47
Definición de red......................................................................................................................... 47
Introducción a las redes de datos ................................................................................................ 47
Objetivos de las redes de datos ................................................................................................... 48
Modelo TCP/IP.......................................................................................................................... 62
Introducción ................................................................................................................................ 62
ARPANET .................................................................................................................................. 62
Internet ........................................................................................................................................ 64
Características de TCP/IP ........................................................................................................... 64
Arquitectura interna del modelo ................................................................................................. 64
Capa de acceso a red ................................................................................................................... 65
Capa de interred .......................................................................................................................... 65
Capa de transporte....................................................................................................................... 66
Capa de aplicación ...................................................................................................................... 66
5. CAPA FÍSICA........................................................................................................68
Topología ................................................................................................................................... 70
Topología física .......................................................................................................................... 70
Topología física de Bus .............................................................................................................. 70
Topología física de Estrella ........................................................................................................ 71
Topología física de estrella extendida......................................................................................... 72
Topología física de Anillo .......................................................................................................... 73
Topología física de anillo doble.................................................................................................. 74
Topología física de Malla ........................................................................................................... 74
Topologías híbridas ..................................................................................................................... 75
Medios ........................................................................................................................................ 76
Cable Coaxial .............................................................................................................................. 76
Par trenzado no blindado ............................................................................................................ 77
Par trenzado blindado ................................................................................................................. 78
Fibra óptica ................................................................................................................................. 79
Transmisión inalámbrica ............................................................................................................. 80
Estándares ................................................................................................................................. 81
10base5 ....................................................................................................................................... 81
10base2 ....................................................................................................................................... 82
10baseT ....................................................................................................................................... 83
100baseX..................................................................................................................................... 84
La regla 5-4-3-2-1 ....................................................................................................................... 84
Conceptos ................................................................................................................................... 91
Introducción a la capa de enlace de datos ................................................................................... 91
Entramado ................................................................................................................................. 92
Introducción ................................................................................................................................ 92
Formato de trama ........................................................................................................................ 92
Enrutamiento........................................................................................................................... 126
Protocolos enrutados ................................................................................................................. 126
Protocolos de enrutamiento....................................................................................................... 126
Enrutamiento estático................................................................................................................ 126
Enrutamiento dinámico ............................................................................................................. 126
TCP........................................................................................................................................... 148
Introducción .............................................................................................................................. 148
Formato del segmento ............................................................................................................... 149
Confiabilidad TCP .................................................................................................................... 151
Números de secuencia............................................................................................................... 151
Control de flujo ......................................................................................................................... 152
Establecimiento de una conexión.............................................................................................. 153
Números de secuencia iniciales ................................................................................................ 153
Flujo de datos ............................................................................................................................ 154
Terminación de una conexión TCP........................................................................................... 156
En la actualidad, grandes empresas con cientos de oficinas diseminadas por todo el mundo, son
capaces de compartir información tan solo oprimiendo un botón.
La fusión entre las computadoras y las comunicaciones ha tenido una profunda influencia en las
organizaciones y las personas, generando un modelo conformado por un gran número de
computadoras separadas pero interconectadas.
Año Evento
Revolución informática
Después de la segunda guerra mundial, comenzaron a aparecer equipos electrónicos digitales para el
procesamiento de la información.
Hoy en día, las computadoras son parte integrante de toda actividad cotidiana. Una empresa, un
negocio, el gobierno, o simplemente una persona en su hogar tienen a su alcance un instrumento capaz
de optimizar a niveles nunca imaginados cualquiera de las funciones que tenga a cargo.
En la actualidad hay que subrayar el alto grado de integración que existe entre la informática y las
comunicaciones. Es de suma importancia mencionar que las comunicaciones no serían necesarias si no
existiera tan alto volumen de información a transmitir, y no habría tan alta necesidad de procesamiento
de información si los datos no estarían disponibles.
Redes de datos
La revolución de la informática y las comunicaciones permitieron solucionar un conjunto de problemas
que estaban produciéndose en las organizaciones. Es en este escenario de necesidades de las empresas
que se originan las redes de datos. El problema original residía simplemente en que la gente quería que
una computadora determinada se comunique con otra que podía estar tanto en la misma habitación
como en el otro lado del mundo.
En un principio, las empresas disponían de computadoras que trabajaban en forma independiente unas
de otras. Pera la continua búsqueda de rentabilidad y bajos costos presentó a las empresas una serie de
preguntas:
Como respuesta a esta y otras preguntas, y con el objetivo de bajar los costos y aumentar la
productividad, se comenzó a introducir la tecnología de conectar los dispositivos en redes de datos.
Es desde este momento en donde las redes comenzaron a converger hacia estándares tecnológicos que
permitían la interconexión de computadoras y otros dispositivos ya no sólo en el ámbito de una
determinada empresa, sino la interconexión de distintas redes también.
Circuito de comunicaciones
Introducción a los sistemas de comunicaciones
Un sistema de comunicación de datos está compuesto por estaciones transmisoras capaces de enviar
datos y estaciones receptoras capaces de recibir datos. Entre ambas estaciones debe existir un canal de
comunicaciones.
Es de suma importancia identificar que el canal de comunicaciones no es un canal ideal sino que está
afectado por distintos fenómenos que introducen ruido en dicho canal y afectan las señales de datos
que se transmiten por el canal de comunicaciones. Por lo tanto, el esquema básico de un circuito de
comunicaciones queda de la siguiente forma:
Su misión básicamente consiste en transformar las señales digitales generadas por el equipo
informático en señales (por ejemplo analógicas) capaces de ser transmitidas por la red y viceversa. Otra
función de estos equipos consiste en establecer y liberar el circuito de comunicaciones.
Para el circuito de datos, el DCE se define como el dispositivo y conexión de una red de comunicaciones
que comprende el extremo de la red de la interfase de usuario a red. El DCE brinda una conexión física
a la red, envía el tráfico y proporciona una señal de sincronización utilizada para sincronizar la
transmisión de datos entre los dispositivos DCE y DTE.
Línea de comunicaciones
La línea de comunicaciones es el enlace físico (como un cable o un circuito de comunicaciones) que
conecta a uno o más dispositivos a otro u otros dispositivos.
Enlace de datos
Es el circuito establecido entre el DTE que actúa como emisor de datos y el DTE que actúa como
receptor de los datos.
Las señales que se generan o llegan al DTE son señales digitales, que son entendidas por los equipos
informáticos.
El enlace de datos está formado por los controladores de comunicaciones de los equipos informáticos,
los DCE y las líneas de comunicaciones.
Circuito de datos
El circuito de datos es el camino formado por los DCE y la línea de comunicaciones. Su función es
entregar en la interfase del DTE receptor, las señales bajo la misma forma e información que recibió en
la interfase DTE emisora.
Al ir evolucionando la capacidad de las computadoras, cada una de éstas fue capaz de dar servicio a
varios usuarios simultáneamente permitiendo también que éstas se realicen en forma remota a través
de terminales y redes de comunicaciones, permitiendo en algunos casos repuestas casi inmediatas.
El éxito de las redes de computadoras se debe a un objetivo básico de los sistemas informáticos y que
debido a los notables logros tecnológicos se ha alcanzado en buena medida: el acceso sencillo y sin
mayores obstáculos a la información.
Para el usuario final, una red de computadoras aparece como un sistema de computación único y
homogéneo a lo largo de cada puesto de trabajo y esto se logra mediante una interfase adecuada que
represente, en forma lógica, lo que la red puede hacer por los usuarios, es decir, los servicios que
puede brindar como sistema de computación.
A continuación se detallan los principales beneficios que pueden obtenerse o esperarse de una red de
computadoras.
Las tareas que un usuario puede realizar con un conjunto de datos o un archivo determinado
dependerán del administrador de la red o del propietario de los datos.
Servicios de impresión
Este servicio permite al usuario obtener los beneficios de un servidor de impresión que pone a
disposición del usuario recursos de hardware como por ejemplo impresoras láser o plotters, a bajo
costo y una administración que potencian y flexibilizan la tarea. Desde el punto de vista del usuario, el
servicio de impresión pone a su disposición, en su entrono de trabajo, distintas impresoras
independientemente de las características propias de cada una de ellas y de la ubicación física dentro
del sistema.
El avance en la tecnología de las impresoras, hace que hoy en día ésta tengan la capacidad de
conectarse directamente a la red, realizar todas las tareas de administración de la cola de impresión y
poseen capacidades de almacenamiento para guardar temporalmente los trabajos hasta poderlos
imprimir.
Servicios de mensajes
El servicio de mensajes, o como comúnmente se denomina en la actualidad, correo electrónico (aunque
no necesariamente ambos términos sean equivalentes) permite a los usuarios el intercambio de
información de una manera rápida y eficiente.
En definitiva, estos servicios hacen referencia a la posibilidad que tiene un usuario de la red para
establecer un diálogo e intercambiar información con otros usuarios y otros recursos.
Servicios de comunicaciones
Una red necesita transmitir mensajes punto a punto, a varias estaciones (multicast) o a todas las
estaciones de una red (broadcast), según se dirijan a una única estación de la red, a las estaciones de
una lista previamente seleccionada o a cualquier estación activa que esté vinculada a la red. Estas
capacidades de comunicación son requeridas por los hosts de la red para comunicarse entre ellos
mismos, con los servidores de archivos, servidores de impresoras y gateways.
Es común que en la red se configuren uno o más hosts con algún dispositivo de almacenamiento
sofisticado que se hace disponible a todo el sistema a través de un servidor adecuado que administre y
controle la realización de copias de respaldo.
Organizaciones y estándares
Introducción
Durante la evolución de las tecnologías informáticas y de comunicaciones se hizo evidente la diversidad
de características de todo tipo que a lo largo del tiempo se habían ido desarrollando, de modo que el
entendimiento general de todos los dispositivos informáticos no era inmediato.
A pesar de las dificultades e impulsados por la necesidad y beneficios de intercambiar información con
los pares, los usuarios perseveraron en su intento obteniendo avances significativos.
Aún cuando los diversos tipos de computadoras conservan sus características operativas propias, se
han ido desarrollando mecanismos de interconexión que permiten al usuario, dentro de cierto rango de
posibilidades, no solo utilizar máquinas interconectadas de diversas arquitecturas, sino también una
metodología de trabajo “estándar”, aislándolo de las características propias del sistema específico que
esta utilizando en un momento dado.
Actualmente suele ser sencillo configurar una red entre máquinas de una misma arquitectura. No es
tan simple si deben coexistir diversas arquitecturas y en general si se trata de la interconexión de redes
heterogéneas.
Este es un problema de absoluta actualidad, dado el creciente interés de los usuarios por explotar al
máximo la potencialidad de sus equipos, estableciendo nexos no sólo dentro de su propia organización
sino entre diversas organizaciones, generando así un ámbito de trabajo global. El avance en las
comunicaciones contribuye, por su parte, a este propósito con nuevos y mejores dispositivos.
Internet, una red de redes de alcance global es un ejemplo concreto de cómo resolver exitosamente el
problema de interconexión de redes de computadoras, integrando en un ámbito homogéneo para el
usuario diversidad de equipos, medios de comunicación y organizaciones.
Para lograr esto es de suma importancia el papel que han cumplido las organizaciones para-
gubernamentales, así como cámaras empresarias, que han generado normas y/o estándares de
aplicación a los medios de transmisión.
ISO
La organización internacional de estandarización tiene a su cargo una amplia gama de estándares,
incluidos aquellos referidos a las redes. ISO desarrolló el modelo de referencia OSI, un popular modelo
de referencia de redes de computadoras. El modelo OSI (Open Systems Interconnection) fue
desarrollado para promover la interoperabilidad en las redes. Este modelo es una descripción genérica
de las funciones realizadas en una red de computadoras y de la relación entre ellas. La intención del
modelo era proveer un marco de trabajo dentro del cual se desarrollarían estándares más detallados
CCITT
El comité consultivo de la UIT (Unión Internacional de Telefonía) es un organismo para-gubernamental
con sede en Ginebra que genera y mantiene normas para la transmisión de señales analógicas y
digitales en redes públicas y privadas de telefonía, normando la transmisión de telefonía, fax, señales
de computación moduladas, audio-video conferencia, etc. Sus normas reciben el nombre de
Recomendaciones y responden a varias series, de las que se destacan las Series X y V.
IEEE
Este organismo para-gubernamental con sede en Estados Unidos que genera y mantiene normas para
la industria electrónica y electromecánica. Tiene normativas para la transmisión de datos en series de
normas de las que se destaca la serie 800.
EIA/TIA
La EIA/TIA es una cámara empresaria de las industrias de la Electrónica y de la Telecomunicaciones, que
genera estándares, llamados normas, que estandarizan cuestiones tecnológicas, tales como estilos,
interfaces, conectores, receptáculos, etc.
UL
El Underwriter Laboratories es un organismo para-gubernamental estadounidense que certifica la
calidad, especificidad y pertenencia de un producto según la norma que dice respetar.
2. Comunicaciones
Información
Definición de información
La información es un conjunto de datos que nos permiten conocer algo, sobre lo que nos era
desconocido.
Medida de la información
Según la teoría de la información, ésta se mide en una unidad denominada shannon que está
relacionada con la probabilidad de que un mensaje sea cierto y calculado en función de una operación
logarítmica de base 2.
Pero cuando están involucrados equipos informáticos que funcionan utilizando lógica binaria de dos
estados, la unidad de medida de la información comúnmente se denomina bit (contracción del inglés
“binary digit”, es decir dígito binario), que en un computador está representado por la presencia o
ausencia de cargas eléctricas, y que representa los valores del sistema numérico de base dos, 0 y 1.
Sin embargo hay que hacer una salvedad con respecto a la interpretación de los bits y la cantidad de
información que éstos representan. Para determinar fehacientemente si un dígito binario representa
información o no, una regla es suprimir el bit y verificar si la información se altera o no.
En contrapartida, aquellos bits utilizados para detectar errores por paridad o bits de sincronización para
indicar el comienzo o fin de una transmisión, no representan información.
Por lo tanto, para representar una mayor cantidad de valores de información habrá que combinar los
bits para representar dichos valores.
Por ejemplo, si tenemos una base de información que queremos transmitir que consta de los puntos
cardinales, es decir cuatro valores, necesitaremos combinar 2 bits para poder representar todos los
posibles valores de información.
Valor de Representación
información binaria
Este 00
Norte 01
Oeste 10
Sur 11
De esta forma, podemos determinar la cantidad de bits necesarios para representar los
distintos valores que puede tomar la información.
Cantidad Cantidad de
de bits valores
a
representar
1 2
2 4
3 8
4 16
5 32
7 128
8 256
n 2n
Byte
Se denomina byte al número de bits necesarios para codificar un carácter de datos.
Generalmente un byte está conformado por ocho bits, como ocurre en el código ASCII.
Además, un byte representa para las computadoras una sola ubicación de almacenamiento
direccionable.
Múltiplos
Debido a que la información se mide en función de bits y bytes que están representados
por el sistema de numeración binario, los múltiplos para representar grandes cantidades de
bytes están dados por multiplicar por 1024 en vez de por 1000 como habitualmente las
personas hacemos con otras unidades de medida.
Velocidad de transmisión
La velocidad de transmisión es el número de dígitos binarios transmitidos en una unidad de tiempo.
Esta velocidad se ve afectada por los equipos involucrados en la transmisión ya que éstos necesitan
cierto tiempo para introducir los datos en el medio y para obtenerlos en el otro extremo. Además, esta
velocidad se refiere exclusivamente a los bits que contienen información.
Modos de transmisión
Introducción
Los equipos transmisores de datos necesitan de procedimientos para enviar y recibir datos. Estos
procedimientos determinan dónde comienza y dónde finalizan los bits que componen la transmisión.
Estos procedimientos se denominan de sincronización.
Se presentan dos situaciones técnicas posible acerca de la transmisión de datos. La primera es cuando
los datos se transmiten en forma digital y otra cuando se transmiten en forma analógica.
Hay que tener presente que todos los equipos informáticos generan datos en forma digital. Por lo
tanto, si la transmisión se realizará a través de medios analógicos, será necesario transformar las
señales digitales en analógicas para ser transmitidas por el medio analógico y reconvertidas en digitales
en el otro extremo, en el destino final de los datos.
Existen dos formas de transmitir las señales. Una es transmitirlas en modo paralelo y la otra es
transmitirlas en modo serie.
Si las señales se transmiten en modo serie, existen dos procedimientos de sincronización entre los
dispositivos origen y destino. Uno es la transmisión sincrónica y la otra es la transmisión asincrónica.
Transmisión analógica
Estas transmisiones están representadas por funciones que pueden tomar un número infinito de
valores. Transporta datos en la propia forma de la onda que se transmite.
Las señales analógicas al transmitirse por los medios de comunicaciones son afectadas por un
fenómeno denominado atenuación. La atenuación es el fenómeno de degradación en la potencia de
una señal. Debido a este fenómeno, las señales analógicas deben ser amplificadas. Debe tenerse en
cuenta que el ruido que acompaña a una señal analógica es amplificado conjuntamente con la señal
original.
Una de las formas más comunes de señales analógicas es la función senoidal. Las dos características de
este tipo de señales son la amplitud y el período.
Se puede calcular el nivel de ondulación de la onda como la inversa del período. Esto da como resultado
la frecuencia que se representa mediante la letra “f” y se expresa mediante la unidad Hertz.
1
f (hertz ) =
T ( seg )
Transmisión digital
Estas transmisiones están representadas por funciones que pueden tomar un número finito de valores.
Los datos están contenidos en la codificación de los pulsos de la señal transmitida en el medio.
Las señales digitales son pulsos aparentemente cuadrados en donde un voltaje varía discretamente en
función del tiempo. Son señales típicamente electrónicas como es la transmisión de datos producida
por equipos informáticos en general.
Para el ejemplo de un byte típico de 8 bits, la transmisión en paralelo permite enviar de a ocho bits en
forma simultánea, por ocho líneas de transmisión diferentes, una para cada bit. Para transmitir varios
bytes, se transmite el primero seguido por un espacio de tiempo sin transmitir y luego se transmite el
siguiente, y así sucesivamente.
Este modo es utilizado por las computadoras para la transmisión de los datos internamente. La
transmisión en paralelo permite altas velocidades, ya que envía más bits en menor tiempo. La
desventaja de este tipo de transmisión, es que cuando las distancias entre el emisor y receptor
aumentan, la llegada al receptor de los bits transmitidos por las distintas líneas no es simultánea,
ocasionando errores en la interpretación de los datos.
Cuado se utiliza algún sistema de detección de errores, como por ejemplo la transmisión de un bit de
paridad, éste se envía en último término.
Transmisión sincrónica
En las transmisiones sincrónicas, se establece que entre el emisor y el receptor hay una base de tiempo
común. Para esto, los bits de datos son enviados junto con un pulso de reloj de sincronización. De esta
forma se puede determinar exactamente el momento en que se debe empezar a contar un bit, dado
que de no existir esta sincronización, el bit podría empezar a contarse al empezar, al terminar o durante
un estado intermedio.
Este mecanismo temporizador incorporado, coordina los relojes de los dispositivos emisor y receptor.
La tecnología actual, permite enviar información de sincronización incorporado con cada bit de datos
transmitido.
Transmisión asincrónica
En el proceso asincrónico, cada carácter a ser transmitido es delimitado por un bit de arranque y uno o
dos bits de parada, que permiten, el de arranque sincronizar los relojes emisor y receptor y el bit de
parada tiene la función de delimitar un carácter de otro. Adicionalmente, puede agregarse un bit de
paridad.
Una ventaja de la transmisión asincrónica, es que en medios con alto porcentaje de errores, siempre
que haya que retransmitir datos, éstos serán una pequeña cantidad de caracteres.
Un canal de comunicaciones puede transmitir de tres formas distintas: simplex, half dúplex y full
dúplex.
Simplex
En este modo de transmisión, también denominado unidireccional, una estación siempre actúa como
emisor y la otra siempre como receptora, haciendo que la información fluya sólo en un sentido.
Half dúplex
Este modo también se denomina semidúplex, y las transmisiones fluyen en ambos sentidos entre dos
estaciones, pero en forma alternada. En un momento del tiempo una estación emite mientras que otra
es la estación receptora, mientras que en un momento siguiente la estación receptora se transforma en
emisora y la estación emisora en receptora.
En este modo de transmisión se envían datos entre dos estaciones en ambos sentidos en forma
simultánea. Dos estaciones, actúan como emisor y receptor, transmitiendo y recibiendo datos en forma
simultánea.
Modulación
Introducción
Se denomina modulación a la operación de modificación de una onda denominada portadora en
función de otra onda denominada moduladora, que contiene información a ser transmitida. El
resultante de esta operación se denomina señal modulada.
Se denomina modulación por onda continua a la operación de modificar una señal portadora cuya
forma es de onda sinoidal, en su amplitud, frecuencia o fase, en función de una señal moduladora que
contiene información a ser transmitida.
Teniendo en cuenta los parámetros que definen a estas ondas, se tendrá tres tipos diferentes de
modulación: modulación de amplitud, modulación de frecuencia y modulación de fase.
Modulación de amplitud
La modulación en amplitud consiste en modificar el parámetro amplitud de la señal portadora senoidal.
Fue la primera técnica de modulación que se implementó y es conocida como modulación AM.
Por variación del nivel de la onda portadora: la señal moduladora modifica la señal portadora variando
la amplitud, mientras que la frecuencia y la fase quedan constantes.
Por supresión de onda portadora: los valores de la señal modulada varían entre un valor de amplitud
para la transmisión de un valor y la supresión de la portadora para la transmisión de otro valor.
Modulación de frecuencia
La modulación de frecuencia o también llamada FM, es aquella en la cual el parámetro que se modifica
es la frecuencia de la onda senoidal portadora.
Cuando se modula en frecuencia una onda, la amplitud de la onda modulada se mantiene constante.
Este tipo de modulación también es denominada PM, y una característica de ésta es que la amplitud de
la señal permanece inalterada. Las variaciones de fase se refieren a la fase de la portadora del estado
inmediatamente anterior al considerado.
Codificación
Señales en banda base
Se denomina señal en banda base a aquella señal que se ha generado y que aún no ha sido tratada para
ser transmitida por canales de comunicación.
La onda cuadrada en la práctica no es una onda totalmente uniforme, como consecuencia del ancho de
banda afectando la interpretación en el receptor.
Las cadenas largas de dígitos de valor 1 ó 0 producen que el receptor pierda sincronización respecto del
emisor, aumentando la tasa de error.
Estas limitaciones hace que las transmisiones en banda base sean útiles en distancias cortas. Para
permitir un mejor funcionamiento de estas transmisiones, se hace necesario codificarlas mediante un
conjunto de algoritmos que buscan generar señales codificados con anchos de pulsos y alternancia de
valores que faciliten la interpretación de las señales.
Estos algoritmos se denominan códigos de banda base y dan origen a la banda base codificada.
Códigos primitivos
Se denominan códigos primitivos de banda base a aquellos códigos que se limitan a establecer un valor
para el dígito uno y otro para el dígito cero, siendo estos valores siempre los mismos y cuyo ancho de
pulso es constante y predeterminado.
Las señales tienen un período T y un ancho de pulso τ, que recibe la denominación de intervalo
significativo.
Cuando en una onda cuadrada el pulso distinto de 0 V ocupa todo el intervalo significativo τ, se llama
señal NRZ (No Return to Zero – Sin retorno a cero).
Cuando en una onda cuadrada el pulso ocupa el tiempo de parte de un intervalo igual a τ/2, se llama
señal RZ (Return to Zero – Con retorno a cero).
Señales primitivas
Las señales primitivas tienen la importancia de determinar cómo codificar las señales en banda base.
Señal unipolar
Las señales unipolares positivas y negativas NRZ (sin retorno a cero) generan componentes continuas
importantes y una tasa de error alta por la incapacidad de introducir una señal de reloj que sincronice
al receptor.
Las señales unipolares positivas y negativas RZ (con retorno a cero) reducen el ciclo de trabajo y por lo
tanto la componente de continua, pero no aportan nada a la sincronización cuando se transmiten
cadenas de valores binarios cero.
La señal polar representa al valor binario 1 con un valor positivo (+V) y representa el valor binario 0 con
un valor negativo (-V).
Señal bipolar
La señal bipolar es aquella que genera un valor nulo (0 V) para el valor binario 0 y para el valor binario 1
alterna entre valores positivos (+V) y negativos (-V). Generalmente, el primer valor binario 1 es
representado por un valor positivo (+V).
Cuando la señal bipolar es NRZ (sin retorno a cero) recibe el nombre de código AMI (Alternate Mark
Inversión).
Código diferencial
El código diferencial es utilizado en transmisiones de baja velocidad, de hasta 100 Kbps. Aporta cambios
de estado cuando se transmiten cadenas de 1 sin utilizar las técnicas de retorno a cero, haciendo de
éste un código que utiliza menor ancho de banda. Sin embargo, no aporta ningún beneficio cuando se
transmiten extensas cadenas de valores binarios cero.
Procedimiento
Código Manchester
El código Manchester es el más utilizado en transmisiones en banda base con velocidades de hasta 10
Mbps y es el código normalizado por IEEE para las interfaces de red utilizadas en las redes de área local
(802.x).
Procedimiento
Se muestrea dicha señal primitiva en cada instante significativo (es decir, en cada centro de intervalo
significativo).
El codificador en el transmisor necesita de la ayuda de una señal de reloj para generar el código
resultante. Esta señal de reloj se usa para muestreo y su ancho de puso es igual a la mitad del ancho de
pulso de la primitiva.
Procedimiento
Si el valor muestreado corresponde a un cero, se efectúa una transición al inicio del intervalo.
Código Miller
El código Miller es otro de los códigos utilizados para transmisiones de baja y mediana velocidad, tal
como el Manchester, pero no tiene la misma eficiencia que el Manchester para resolver la cuestión del
reloj.
Procedimiento
Si el valor muestreado corresponde a un uno, se produce una transición en la mitad del intervalo
significativo.
Si el valor muestreado corresponde a un cero, se produce una transición al final del intervalo si el bit
siguiente es cero, pero de lo contrario, no se produce transición alguna.
Se debe recordar que el código AMI no resuelve el problema de transmisiones consecutivas de muchos
ceros. Es por esto, que éste código viola la primitiva cada vez que encuentra más de tres ceros
consecutivos, agregando bits que luego serán removidos en el receptor.
Procedimiento
Se genera un código AMI. La señal no deberá tener más de tres ceros consecutivos.
Cuando se encuentra una serie de cuatro ceros seguidos, se reemplaza la misma por una nueva
secuencia que puede ser 0001 (llamada 000V) o 1001 (llamada R00V).
Siempre se comienza una secuencia de violación con la serie de reemplazo 000V. Se denomina
secuencia de violación a cualquier serie de más de tres bits 0 consecutivos. A partir de allí, se alternarán
series 000V y R00V.
La secuencia 000V tendrá V con la misma polaridad que el 1 precedente en el código AMI. De esta
forma, podrá ser detectado. Si no había un 1 precedente, V tendrá polaridad positiva.
Código 4B-3T
El código Cuatro Binario a Tres Ternario, reemplaza cadenas binarias de cuatro dígitos de la señal
primitiva por cadenas ternarias de tres dígitos. Este código permite transmisión de velocidades de hasta
140 Mbps. La señal original se basa en la primitiva unipolar sin retorno a cero y la señal reemplazante
es una señal bipolar.
Procedimiento
0000 0 -1 +1
0001 -1 +1 0
0010 -1 0 +1
0011 0 +1 -1
0101 +1 0 -1
0110 +1 -1 +1
0111 0 +1 +1
1000 0 +1 0
1001 0 0 +1
1010 -1 +1 +1
1011 +1 0 0
1100 +1 0 +1
1101 +1 +1 0
1110 +1 +1 -1
1111 +1 +1 +1
Si la cantidad de bits a transmitir es menor a cuatro, se utiliza una serie ternaria que significa residuo, e
indica que lo que sigue está en primitiva.
Mientras la tendencia es hacia redes totalmente digitales, en la actualidad deben convivir redes de
comunicaciones analógicas y digitales. Por lo tanto, es de especial importancia convertir señales
analógicas en digitales.
Los dispositivos que se encargan de esta función reciben el nombre de CODEC (Codificadores /
Decodificadores). Éstos se encargan de transformar una señal analógica en una señal digital codificada.
Los equipos CODEC se definen como simétricamente inversos a los equipos MODEM, y utilizan técnicas
totalmente diferentes para su funcionamiento.
Muestreo
Cuantificación
Codificación
Muestreo
Una señal de ancho de banda finito puede ser definida por un conjunto de muestras instantáneas
tomadas en ciertos instantes de tiempo.
Por lo tanto, una señal original de entrada es muestreada a intervalos de tiempo generando una señal
de salida que consiste en cortos segmentos de la señal original.
Luego de codificarse será necesario transmitir más de un pulso en el intervalo de muestreo, por lo tanto
es necesario reducir el ancho de los pulsos a transmitir, con lo que el ancho de banda necesario para
transmitir será mayor.
La siguiente tabla muestra un ejemplo de codificación en el que se observan los pulsos obtenidos luego
del proceso de muestreo y cuantificación y el código binario correspondiente.
Señal Señal
analógica digital
Niveles de Código
amplitud binario
0 volt 000
1 volt 001
2 volts 010
3 volts 011
4 volts 100
5 volts 101
6 volts 110
7 volts 111
MODEM
El MODEM, cuyo nombre deriva de Modulador / DEModulador, es el dispositivo que permite la
comunicación entre una computadora y otro sistema mediante la utilización de una línea telefónica.
Los equipos MODEM se utilizan siempre de a pares. La velocidad de los MODEMs se mide en bits por
segundo (bps) y son velocidades típicas 300, 600, 1200, 1800, 2400, 4800, 7200, 9600, 19200 y
superiores. La normalización de estos equipos está contenida en las Recomendaciones del CCITT/UIT
V.20, V.21, V.22, V.23, V.26, V.26 bis, V.27, V.27 bis entre otras.
El usuario realiza la llamada con su computadora al número telefónico que atiende la red.
Una vez establecido el enlace con la red, ésta le pedirá que ingrese el nombre de la cuenta y la clave de
acceso (comúnmente denominado login y password).
Una vez autenticado el usuario, se permite al usuario ejecutar las aplicaciones deseadas.
Multiplexación de señales
Definición
La multiplexación o multicanalización es la técnica mediante la cual se transmite simultáneamente
señales de varios transmisores por un único canal de comunicación.
Entre los motivos por los cuales utilizar técnicas de multiplexación se enumeran:
Utilizar la totalidad del ancho de banda del canal para lograr la máxima velocidad de transmisión que
permite el canal utilizado
Combinar varios servicios simultáneamente de manera tal que en total no requiera un ancho de banda
mayor al disponible
La técnica consiste en asignar a cada uno de los subcanales una porción de espectro de frecuencias de
forma que el ancho de banda del canal mayor sea mayor o igual a la suma del ancho de banda de cada
uno de los subcanales.
La banda que utiliza cada subcanal se denomina banda útil y está separada de los subcanales anterior y
del posterior por una banda de protección denominada banda de guarda. No se utiliza todo el ancho de
banda del circuito para transmisión.
Tiene un esquema analógico. Los mux, realizan la transformación de una señal binaria recibida a
señales analógicas, con frecuencias diferentes para cada subcanal.
El bloque básico con el que está construida la jerarquía FDM es el canal de mensaje, llamado canal de 4
KHz.
Entramado de bits: cada período se ajusta para que transporte un solo bit de cada transmisor. Ésta
técnica es utilizada por los sistemas de mayor velocidad.
Entamado de caracteres: se emplea cuando las señales están compuestas por grupos de caracteres o
palabras que por razones operacionales conviene preservarlas íntegras.
Una variante de los STDM son los ATDM que son asincrónicos. En esta técnica, las tramas se ponen en
el canal asincrónicamente, en lugar de los períodos fijos.
3. Redes
Definiciones
Definición de red
Una red es un sistema compuesto por objetos o personas interconectados uno con otro. Los sistemas
en forma de red están presentes en todas partes, incluso en nuestro cuerpo. Ejemplos de estos tipos de
redes son el sistema nervioso y el cardiovascular. Existen alrededor nuestro muchos otros sistemas de
red, como por ejemplo redes de:
Comunicaciones
Transporte
Servicios
Etc.
En los últimos años, se ha producido una rápida convergencia entre estas dos áreas.
Corporaciones con oficinas diseminadas alrededor del mundo pretenden eliminar las diferencias y los
tiempos de captura, almacenamiento, transporte y procesamiento de la información.
Otro objetivo que persiguen las redes de datos es una alta confiabilidad de la red. Esto habitualmente
se logra duplicando los recursos de hardware y haciendo accesible la información desde múltiples
fuentes alternativas.
La posibilidad de utilizar recursos en forma compartida hace que se obtengan beneficios económicos.
En lugar de instalar grandes servidores para ser utilizados por los clientes en cada localización de una
gran compañía, es posible instalar solo uno con mayores capacidades y ser accesible desde todos los
sitios remotos. El beneficio no sólo se obtiene mediante la compra del equipamiento, sino que también
se obtienen beneficios del posterior mantenimiento que cualquier dispositivo debe recibir. También es
posible obtener beneficios en una rede de varias computadoras en una misma oficina. Conectándolas
en red, es posible que todos compartan los datos almacenados en otra computadora y es posible
utilizar una sola impresora para ser compartida por todas las computadoras de la oficina.
Otro objetivo que persiguen las redes de computadoras, es ser un medio de comunicaciones entre
personas. El mail y otras aplicaciones permite a las personas intercambiar rápidamente información y a
un costo reducido.
Los servicios correspondientes a estas redes son prestados pro compañías que se dedican a transportar
señales (que habitualmente reciben el nombre de prestadores o carriers).
Redes privadas
Una red es privada cuando la finalidad de la misma está bien determinada y los usuarios pertenecen a
una o más compañías con intereses específicos en la utilización de la red.
Es posible desarrollar una red privada sustentada por los medios de una red pública. En este caso, el
cliente alquila los enlaces a un prestador público para transportar sus datos y además se encarga de la
administración del mismo, teniendo el uso exclusivo de todo o una parte de la red pública.
Siguen siendo muy populares ya que se sigue utilizando las redes ya instaladas y en la actualidad tienen
una cobertura de alcance mundial y migrar toda esta tecnología instalada a digital demandaría grandes
inversiones.
Redes digitales
Las redes digitales están equipadas para transportar señales digitales y surgen de la necesidad de
transportar señales en la misma forma en que son generadas por ejemplo por las computadoras, es
decir, en forma digital.
Hay una gran cantidad de ventajas que marcan una tendencia en el futuro a digitalizar las redes, entre
las que se destacan la facilidad de desarrollo de circuitos integrados, regeneración de señales sin
amplificar, menor interferencia y la posibilidad de realizar el transporte de voz y datos.
Una característica de estos circuitos es que la conexión se mantiene permanente entre los nodos y
comúnmente son denominados punto a punto.
Una alternativa es definir en forma lógica el circuito sobre una red de tecnología de conmutación. En
este caso el circuito no existe físicamente, sino que se establece en forma virtual sobre la red,
predefiniendo un camino para la transmisión. En este caso, los circuitos reciben el nombre de Circuito
Virtual permanente.
Redes conmutadas
En las redes conmutadas es necesario establecer una ruta para los datos antes de comenzar la
comunicación entre los nodos origen y nodo destino.
Una característica de estas redes es que la ruta entre los nodos puede ser alterada dinámicamente sin
afectar la comunicación de los sistemas involucrados en la comunicación.
El proceso consiste en que el DTE tiene como estado natural el desconectado. Cuando se producen
datos para transmitir y es necesario establecer una comunicación, realiza acciones previas a la
transmisión que se denominan acciones en tiempo de conexión, en las que se le solicita a la red que
establezca un circuito de datos estático, es decir una ruta de datos que no podrá ser alterada en tiempo
de transmisión. Durante el tiempo de conexión, los DTEs y la red negocian parámetros tales como la
velocidad de transmisión y el tipo de protocolo entre otros.
Un paquete de datos es una cadena de bits que incluye bits de datos y de control y que tienen un
formato determinado regido por algún protocolo.
Las redes de conmutación de paquetes son típicamente redes de topología en malla, donde los nodos
se conectan todos contra todos existiendo múltiples conexiones y rutas físicas diferentes y la red
soporta múltiples nodos concurrentemente enviando cada uno paquetes a distintos destinos. Estas
características hacen que comúnmente se llame a este tipo de redes cualquiera contra cualquiera,
diferenciándose de las redes de conmutación de circuitos en las que se proporciona una conexión
dedicada temporal entre los DTEs.
Otra característica de las redes de conmutación de paquetes es que los enrutadores o routers se
encargan de enrutar (encaminar) los paquetes. Un router es un dispositivo de red que interconecta a
varios enlaces, tienen capacidad de computación para determinar las mejores rutas a tomar y están
diseñados específicamente para reenviar paquetes desde una línea de comunicación a otra. En esta
red, los paquetes pueden tomar rutas alternativas pero en el destino debe realizarse un
secuenciamiento para que los paquetes lleguen en el orden en que se generaron.
Servicios orientados a la conexión: se requiere estableces una conexión entre los DTEs antes de la
comunicación.
Circuitos virtuales: es una ruta dentro de una red de conmutación de paquetes que se comporta como
un enlace dedicado proporcionando para los DTEs una conexión orientada a la conexión. Se define una
ruta entre varias alternativas para el envío de paquetes aunque es posible que esa ruta se altere
durante la transmisión para evitar fenómenos tales como congestión o caída de líneas.
Circuitos virtuales permanentes (PVC – Permanent Virtual Circuit): la conexión entre los DTEs está
predefinida y por lo tanto los tiempos de establecimiento de la conexión son muy pequeños. Para el
establecimiento del circuito, sólo es necesario encender los DTEs.
Circuitos virtuales conmutados (SVC – Switched Virtual Circuit): los DTEs se conectan a través de una
conexión temporal que se extenderá sólo por el tiempo en que la necesiten los DTEs. Uno de los DTE
iniciará el establecimiento de la conexión complementada con la aceptación del otro DTE. En este caso,
no sólo es necesario que los DTEs se encuentren encendidos para establecer el circuito, sino que
además éstos deben negociar el establecimiento del circuito, que lo hacen a través de paquetes de
control denominados paquete de llamada.
Conmutación de mensajes
Las redes LAN han sido dominadas por dos protocolos muy difundidos llamados Ethernet y Token Ring.
Las redes LAN son redes de alta velocidad y en la actualidad alcanzan a los 100 Mbps (Fast Ethernet) y
1000 Mbps (Gigabit Ethernet).
Como el área de cobertura es limitado, se utilizan dispositivos para mejorar esta característica,
generalmente uniendo varios segmentos o interconectando varias redes LAN.
Las velocidades típicas que se utilizan en este tipo de redes alcanzan los 100 Mbps (redes FDDI) y 155
Mbps (redes DQDB).
Para realizar la interconexión de redes, las redes WAN se apoyan en la utilización de redes tanto
públicas como privadas, utilizando todo tipo de vínculos físicos como satélites, radio enlace, pares de
cobre, cables coaxiales y fibras ópticas.
Son utilizadas para poder comunicarse más allá de redes LAN cuando no existe una red MAN, o para
ampliar el alcance de una red MAN, dando servicios para todo tipo de DTEs y todo tipo de servicios.
Es posible aplicar este concepto de división en capas a una conversación humana para comprender
luego la aplicación del modelo dividido en capas a una comunicación informática.
Imagine a un turista inglés en Argentina que va a un restaurante de comidas rápidas con atención a
automóviles que comercializa hamburguesas. El turista ingresa con su auto a la zona de pedido donde
se encuentre un sistema de comunicación (un micrófono y un altoparlante) para realizar el pedido.
Cuando el turista detiene su auto, se baja del mismo y grita a viva voz y en tono exigente y hablando
rápido “I want a chicken” (quiero un pollo).
Es posible analizar este ejemplo desde el punto de vista de dividir el problema de la conversación entre
dos personas en capas y las violaciones que se producen en capas pares que imposibilitan el éxito en
éste ejemplo.
Primero se produce una violación al protocolo de comunicaciones en la capa de idea, ya que el turista
debería solicitar una hamburguesa en lugar de un pollo.
También se produce una violación en la capa de transporte al solicitar el pedido gritando, exigiendo y
además hablando demasiado rápido.
Por último, no se respeta la capa física que indica que se debe utilizar el micrófono para realizar el
pedido en lugar de gritar desde fuera del automóvil.
De esta forma, es posible dividir la conversación entre dos personas en cuatro capas:
Una capa de representación que indica el lenguaje que deben utilizar los interlocutores
Una capa física que consta del medio a utilizar para que las ondas de la conversación lleguen desde el
origen hasta el destino
En este ejemplo se nota también que si no se respetan las reglas que rigen cada capa de la
conversación, está destinada al fracaso.
El empleado del restaurante espera una solicitud de hamburguesa (capa de idea) en español (capa de
representación) en un tono de pedido y hablando pausadamente (capa de transporte) y utilizando un
micrófono y altoparlante (capa física).
La comunicación se establece entre capas pares, es decir, la capa n de una computadora se comunica
con la capa n de la otra.
Las reglas que rigen la comunicación entre estas capas se denomina protocolo, el cual no debe violarse
si se desea el éxito de la comunicación.
Una de las consideraciones más importantes en el diseño de las capas, es que éstas deben contar con
un mecanismo para identificar emisores y receptores. Una red puede estar compuesta por múltiples
computadoras, cada una de las cuales ejecuta múltiples procesos. Esto obliga a contar con un
mecanismo de direccionamiento que identifique que computadoras y que procesos son los que desean
comunicarse.
Para que los datos puedan viajar desde el origen hasta su destino a través de una red, es importante
que todos los dispositivos de la red utilicen el mismo protocolo o conjunto de protocolos para
comunicarse.
Interfaz
Entre cada par de capas adyacentes hay una interfaz que define cuáles operaciones y servicios ofrece la
capa inferior a la superior. Una interfaz bien definida minimiza la cantidad de información que se debe
pasar entre las capas y simplifica el reemplazo de la implementación de una capa con una nueva
implementación que mejora la anterior, ya que sólo se requiere que la nueva implementación ofrezca
a la capa superior los mismos servicios que ofrecía la implementación vieja.
Encapsulamiento
Como se mencionó antes, la comunicación se establece de a pares. Pero en realidad, los datos no se
transfieren directamente de la capa n de una computadora a la capa n de la otra, sino que cada capa
pasa datos e información de control (la información de control se denomina encabezado) a la capa
inferior adyacente, hasta llegar a la capa inferior del modelo, debajo de la cual se encuentra el medio
físico a través del cual se transferirán los datos.
Arquitectura de red
Una arquitectura de red está compuesta por un conjunto de capas y protocolos. La información que
provee una arquitectura de red debe permitirle a un implementador desarrollar el hardware y el
software necesario para que cada capa obedezca en forma correcta el protocolo correspondiente.
La lista de protocolos empleados por cierto sistema, con uno o más protocolos por capa, se denomina
pila de protocolos.
Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos de
diferentes fabricantes.
Impide que los cambios en una capa puedan afectar las demás capas, para que se puedan desarrollar
con más rapidez.
Capa física
La capa física está relacionada con la transmisión de bits por un canal de comunicación. Define las
especificaciones eléctricas, mecánicas, de procedimiento y funcionales para utilizar un medio de
transmisión físico.
Duración de un bit
Conectores físicos (definición de la cantidad de contactos y para qué sirve cada uno)
Para enviar los datos, la capa de enlace de datos los divide en partes, las cuales se denominan tramas,
las cuales son transmitidas en forma secuencial. Dado que la capa física sólo transmite una corriente de
bits sin preocuparse por su significado, corresponde a la capa de enlace de datos crear y reconocer los
límites de las tramas.
La capa de enlace de datos también se ocupa del direccionamiento físico que permite identificar los
hosts origen y destino de la transmisión.
También se encarga de resolver el problema provocado por las tramas dañadas producidas por ruido
que puede estar presente en el medio físico de transmisión.
La capa de enlace de datos define también el acceso a la red o también denominado acceso al canal.
Por ejemplo define si puede transmitir en cualquier momento o tiene que esperar un patrón especial
de bits que autoricen a transmitir.
Control de flujo
Capa de red
La capa de red se ocupa de proporcionar conectividad y selección de rutas entre dos hosts que se
encuentran en redes física diferentes.
Dado que la capa de red debe determinar si el host destino se encuentra en la misma red que el origen
o en otra red, necesita de un mecanismo para realizar esta función. Para esto se utilizan direcciones
lógicas, en base a las cuales la capa de red puede determinar si envía los datos directamente a través de
la red al destino o si debe enviar los datos a través de un dispositivo especial que se encargue de
reenviar los datos a través de las redes. Dado que pueden existir múltiples rutas entre el origen y el
destino, es misión de los dispositivos de la capa de red determinar las mejores rutas para enviar los
datos.
Capa de transporte
La capa de transporte recibe los datos de la capa superior y los divide en unidades más pequeñas (si es
necesario) y los envía a la capa de red y luego en el destino se encarga de recibir todas las unidades y
reensamblarlas en una corriente de datos.
Habitualmente se reconoce a la interfaz entre la capa de transporte y la capa de sesión como el límite
entre las capas de host y las capas de red. Mientras que las capas de host están relacionadas con las
aplicaciones, las capas de red están relacionadas con el transporte de datos.
La capa de transporte se encarga de la confiabilidad del transporte de los datos entre los sistemas
finales origen y destino, caracterizándose por ser una capa de extremo a extremo. Mientras que en las
capas inferiores las comunicaciones se producen entre el host origen y dispositivos vecinos, la capa de
transporte se comunica entre los hosts finales que pueden estar separador por muchos dispositivos.
Dado que cada computadora puede establecer múltiples conexiones con un mismo sistema final, es
necesario contar con un sistema de identificación de cada una de estas conexiones. La capa de
transporte provee dicho mecanismo.
Al proveer un servicio confiable, la capa de transporte debe proveer también mecanismos para la
detección de errores y su posterior recuperación.
Por último, la capa de transporte tiene la función de regular el flujo de datos. Esto es necesario en los
casos en que un host transmite datos en forma más rápida de la que pueden ser procesados en el
destino. Tal mecanismo se denomina control de flujo y permite que el host origen no sature al host
destino.
Capa de sesión
La capa de sesión establece, administra y finaliza sesiones entre dos hosts que se están comunicando.
Mientras que la capa de transporte administra las sesiones entre los hosts finales, la capa de sesión
administra las sesiones entre las aplicaciones.
Capa de presentación
La capa de presentación se encarga de la sintaxis y la semántica de los datos que se transmite,
garantizando que la información que envía la capa de aplicación del host origen va a ser interpretada
por la capa de aplicación del host destino y si fuese necesario se encarga de traducir los datos entre
varios formatos.
Capa de aplicación
La capa de aplicación suministra servicios de red a las aplicaciones de usuario.
Una característica de esta capa es que no provee servicios a ninguna otra capa del modelo OSI sino a
aplicaciones que se encuentran fuera del modelo.
Ejemplo de aplicaciones que requieren los servicios de la capa de aplicación son los navegadores web y
los clientes de correo.
Los encabezados que son adicionados en cada capa en el host origen, son retirados por las capas pares
en el host destino, entregando a la aplicación de usuario final los datos tal cual fueron originados por la
aplicación de usuario en el host origen.
La idea de la utilización de los encabezados es que a pesar de que el proceso de transmisión real de los
datos es vertical, cada capa se programa como si fuera horizontal.
La información de control que se agrega en cada encabezado por cada capa, sólo es interpretada por la
capa par en el otro dispositivo.
Sin embargo, TCP/IP es el protocolo o pila de protocolos que está más ampliamente distribuido para la
interconexión de computadoras y es el protocolo utilizado por todos los computadores conectados a
Internet, teniendo un alcance casi universal.
TCP/IP es el nombre con que se conoce a un conjunto de protocolos que implementan las distintas
funciones de las capas descriptas en el modelo OSI, donde los dos protocolos más importantes son TCP
(Transmission Control Protocol – Protocolo de Control de Transmisión) e IP (Internet Protocolo –
Protocolo Internet).
El modelo TCP/IP fue creado por el Departamento de Defensa (DoD) de Estados Unidos con el objetivo
de desarrollar una red redundante que pudiera sobrevivir a cualquier circunstancia, como por ejemplo
una guerra nuclear. El principal problema a vencer era la vulnerabilidad de las líneas telefónicas
existentes ya que la destrucción de una línea de comunicación o un conmutador finalizaría cualquier
comunicación en proceso.
ARPANET
Con el objetivo de desarrollar una red de comunicaciones resistente a los posibles ataques producidos
durante una guerra, el DoD patrocinó el desarrollo de una red que se denominó ARPANET (Advanced
Research Project Research – Agencia de Proyectos de Investigación Avanzada era la agencia encargada
de desarrollar la red). Dado que esta agencia disponía de un presupuesto reducido, amplió el
financiamiento de la red incorporando universidades y compañías cuyas ideas eran prometedoras.
Las primeras propuestas para cumplir con el objetivo se centraron en una red de conmutación de
paquetes, la cual estaría compuesta por una red y computadoras hosts. A la vez, la red estaría
compuesta por dispositivos con poder de procesamiento (denominados IMP: Interface Messages
Processors – Procesadores Interfaz de Mensajes) que estarían conectados al menos a dos líneas de
transmisión. De esta forma, si alguno de los caminos que debían seguir los paquetes se veía
imposibilitado de utilizar, siempre existía un camino alternativo para enviar los paquetes.
Pruebas posteriores que se realizaron, demostraron que los protocolos de ARPANET presentaban
problemas al integrar redes heterogéneas (como por ejemplo redes de cobre y redes satelitales).
Esto obligó a mejorar los protocolos existentes y desarrollar nuevos protocolos, lo que culminó en 1974
con la invención de TCP/IP.
El camino del éxito de TCP/IP comenzó a escribirse cuando ARPA propuso integrar los nuevos
protocolos al Unix de Berkeley que desarrolló la Universidad de California. Los investigadores de
Berkeley escribieron nuevo software se aplicación que facilitó en gran medida el uso de las redes. El
resultado fue que muchas universidades implementen redes LAN que con el sistema operativo de Unix
con TCP/IP integrado era muy fácil conectar dichas redes a ARPANET.
En 1983, ARPANET pasó a ser administrada por la Agencia de Comunicaciones de Defensa, la cual
dividió la red en dos: la red militar (que pasó a denominarse MILNET) y la red de investigación
ARPANET, con estrictos controles en los dispositivos de comunicación entre las dos redes.
Durante la década de 1980 se siguieron conectando redes LAN a ARPANET y para 1990 se vio superada
por nuevas redes originadas en ella misma, poniéndole fin a ARPANET y dando paso a una nueva red ya
no limitada a operaciones militares y de investigación, denominada Internet.
El crecimiento de Internet fue exponencial. En 1990 consistía de 3000 redes y 200000 computadoras.
Para 1992 contaba con un millón de computadoras conectadas y en 1994 se determinó que el tamaño
de la red se duplicaba cada año.
Características de TCP/IP
Algunos de los motivos principales que hicieron de TCP/IP el modelo de red más popular, y que su
utilización sea de alcance global son:
Total independencia del fabricante. No importa el fabricante, si respeta las funciones de las capas y sus
interfaces, la interconexión está garantizada.
Estos motivos son alcanzados debido a que TCP/IP se basa en un conjunto de metas:
Estandarización de protocolos.
Sin embargo, como una de las principales ventajas de TCP/IP es abstraer el funcionamiento de las
capas, esta abstracción también se aplica a los protocolos y tecnologías de los medios físicos, haciendo
posible el intercambio de información entre medios diferentes y tecnologías que en principio son
incompatibles.
La capa de host a red incluye detalles de tecnologías LAN y WAN y todos los detalles que se describen
en la capa física y de enlace de datos del modelo OSI.
Capa de interred
El protocolo específico que implementa las funciones de la capa de interred es el protocolo IP (Internet
Protocol – Protocolo Internet). Utilizando este protocolo, las comunicaciones son sobre una red de
conmutación de paquetes carente de conexiones.
El propósito principal de la capa de interred es enviar paquetes desde el origen en cualquier red hasta
el destino que puede encontrarse en cualquier otra red, y que estos paquetes lleguen al destino sin
importar la ruta y las redes que atravesaron para llegar al destino.
Dado que los paquetes pueden tomar rutas alternativas para llegar al destino, éstos pueden llegar en
un orden distinto al que se inyectaron en la red en el origen. La puesta en orden nuevamente de los
paquetes en el destino está a cargo de las capas superiores.
Dadas las funciones que se describen en este indicador, se desprende que los detalles de esta capa se
corresponden con las funciones descriptas en la capa de red del modelo OSI.
Capa de transporte
La capa de transporte está diseñada para proveer comunicación extremo a extremo.
Los principales objetivos de la capa de transporte están relacionados con la calidad de servicio, la
confiabilidad, el control de flujo, la corrección de errores y que los datos lleguen en la secuencia
correcta.
El segundo protocolo de capa de transporte que ofrece TCP/IP es UDP (User Datagram Protocol –
Protocolo de datagrama de usuario). Este protocolo no ofrece los servicios de conexión y confiabilidad
que ofrece TCP. Tampoco provee funciones de secuenciamiento ni control de flujo. Todas estas
funciones quedan en mano de la aplicación que utiliza UDP, y queda en la decisión de los
desarrolladores del software implementar o no estas características y cómo hacerlo. UDP es un
protocolo muy popular en aplicaciones de consultas de petición y respuesta que involucran un solo
paquete de datos en cada dirección o en aplicaciones que prefieren priorizar la velocidad de entrega de
los datos en vez de la precisión de dichos datos.
Capa de aplicación
La capa de aplicación de TCP/IP reúne las características mencionadas en las capas de sesión,
presentación y aplicación del modelo de referencia OSI.
Tal cual se mencionó en el modelo OSI, la capa de aplicación de TCP/IP no brinda servicios a otra capa
dentro del modelo, sino que provee servicios a aplicaciones de usuario que se encuentran fuera del
modelo.
Las capas por encima de transporte (incluyendo a ésta) en ambos modelos tienen como objetivo
prestar un servicio de transporte de extremo a extremo, independientemente de las características de
la red o las redes a través de las cuales se envíen los datos, a todos los procesos que deseen
comunicarse.
La capa de red e interred presentan las mismas funciones en ambos modelos. Conectividad y
determinación de la mejor ruta para enviar los datos.
Por último, TCP/IP implementa algunas de las funciones descriptas en las capas de enlace de datos y
física del modelo OSI en una única capa denominada acceso a red.
Hay que tener en cuenta también que el modelo OSI es posterior al modelo TCP/IP. Mientras que el
modelo OSI fue desarrollado definiendo capas y funciones de dichas capas para posteriormente
implementar los protocolos, en TCP/IP primero se escribieron los protocolos y el modelo sólo fue una
descripción de los protocolos existentes.
Los dos modelos tienen capas de aplicación, aunque incluyen servicios muy distintos
Es necesario conocer ambos, ya que uno es de referencia para toda la documentación y el otro es el
que está implementado
Diferencias
Las siguientes son las principales diferencias que se presentan entre los modelos OSI y TCP/IP.
TCP/IP combina las funciones de la capa de aplicación, presentación y de sesión de OSI en una única
capa de aplicación
TCP/IP combina las capas de enlace de datos y la capa física del modelo OSI en una sola capa de acceso
a red
Los protocolos TCP/IP son los estándares en torno a los cuales se desarrollaron Internet, por lo que el
modelo se encuentra muy popularizado y sus protocolos están altamente probados. En comparación,
las redes típicas no se desarrollan normalmente a partir de protocolos que siguen las especificaciones
del modelo OSI, aunque éste se utilice como referencia.
5. Capa física
Introducción
La capa física
La capa física es la base de cualquier red. La función principal de la capa física es transportar una
corriente de bits de una computadora a otra.
Medios de transmisión
Los medios de transmisión pueden clasificarse en tangibles e intangibles. Los principales medios
tangibles son el cable coaxial, el cable par trenzado y la fibra óptica. Los principales medios intangibles
incluyen ondas de radio, las microondas, las señales infrarrojas y las emisiones de láser a través del aire.
El sistema telefónico
Una de las redes más grandes existentes es la red telefónica. Dada la estructura de esta red, es una de
las redes en la que apoya la transmisión de datos. Los componentes principales de una red telefónica
son el lazo local (o última milla), los troncales y los conmutadores.
La última milla del sistema telefónico es dominantemente circuitos de par trenzado y analógicos que
requieren la utilización de MODEMs (Modulador/DEModulador - convierte señales analógicas en
digitales y viceversa) para transmitir los datos digitales generados por una computadora.
Los troncales son digitales y se pueden multiplexar de varias formas, entre ellas utilizando FDM y TDM.
Los conmutadores son los encargados de enrutar las comunicaciones a través de la red para comunicar
el origen con el destino. Los conmutadores pueden estar orientados a tecnologías de conmutación de
circuito como de conmutación de paquetes.
Es de destacar, que la tendencia para el futuro es que el sistema telefónico será digital en su totalidad,
de extremo a extremo.
Capacidad de un canal
El ancho de banda describe la capacidad de un canal.
El ancho de banda es la cantidad de información que puede fluir desde un dispositivo origen a un
dispositivo destino en un período de tiempo determinado.
Las unidades básicas para medir la cantidad de información es el bit y la unidad básica para medir el
tiempo es el segundo. Es por ello que el ancho de banda se expresa en bits por segundo para describir
el flujo de información que fluye por unidad de tiempo.
Topología
Topología física
La topología física de una red define la distribución de los dispositivos que se interconectan a través de
un medio determinado. En resumen, es el mapa de distribución del cable.
Existe una diversidad de topologías físicas. La elección de una u otra topología puede basarse en
función de alguno de los siguientes factores:
En una topología de bus hace posible que todos los dispositivos de la red vean todas las
señales de todos los demás dispositivos.
Ventajas
• Fácil de instalar y mantener.
• No existen dispositivos centrales del que dependa toda la red, cuya falla dejaría inoperativa
a toda la red
• Todos los hosts están directamente conectados entre sí, facilitando la comunicación entre
ellos.
Desventajas
• Si se presenta algún problema con el cable, toda la red falla.
• Es difícil detectar una falla, ya que si ésta se produce hay que recorrer toda la extensión de
la red para detectarla.
• Al ser un único medio, tiene problemas con el tráfico y las colisiones.
Cada vez que un dispositivo envía datos hacia otro, la información transferida pasa a través de un punto
central. Dependiendo de las características del concentrador es posible aumentar la longitud de la red.
Si se trata de un concentrador pasivo, éste sólo divide la señal de entrada en varias salidas, con lo cual
la degradación de la señal se extiende. Si se trata de un dispositivo activo, éste tiene la capacidad de
regenerar la señal, con lo cual la señal degrada que ingresa por un puerto, es recompuesta en los
puertos de salida.
Ventajas
La ruptura de un cable sólo deja fuera de operación al host que está conectado al concentrador sin
afectar al resto de la red.
Se simplifica la detección y localización de una falla, ya que la falla se limita a la extensión del cable
entre el host y el concentrador.
Al existir un concentrador central, es posible que los hosts se comuniquen de forma conveniente.
Desventajas
Dependiendo del tipo de concentrador, la red puede presentar problemas con el tráfico y las colisiones.
Las ventajas y desventajas de esta topología son similares a la topología en estrella, teniendo en cuenta
que las distancias se incrementan al multiplicar los nodos centrales y la cantidad de hosts también es
mayor.
Ventajas
En general en estas topologías se utilizan métodos de acceso al medio que permiten transmitir sólo a
un host a la vez, con lo cual no se presentan problemas de colisión.
Desventajas
Es difícil de instalar
Dado que cada dispositivo es parte de la red, si uno de los dispositivos no funcionara provocaría que la
red deje de funcionar. Debido a esto, se utilizan dispositivos especiales (que hacen las veces de
concentradores) que emulan una red en anillo, pero que disponen a los dispositivos en forma de
estrella con respecto a un concentrador central.
La topología presenta una alta redundancia, ya que cada nodo está directamente conectado a cualquier
otro nodo, con lo que si cualquier enlace, los datos pueden fluir por alguno de los múltiples enlaces
existentes.
Desventajas
Construir una topología física de malla insume una gran cantidad de medios para los enlaces y una gran
cantidad de conexiones en los dispositivos.
Debido a los altos costos que insume el desarrollo de una topología en malla, es habitual ver el
desarrollo de redes de malla semi-completa (o también denominada irregular) en la cual cada host se
conecta con algunos de los dispositivos de la red, pero no con todos, sin seguir un patrón de enlaces y
nodos.
Topologías híbridas
No siempre se implementa una topología física tal cual se detallan sus características. Es habitual
encontrar desarrollos que combinan más de una topología física.
La malla de cobre le confiere un muy buen aislamiento que permite un elevado ancho de banda, buena
inmunidad al ruido y mayores distancias de tendido.
Se presentan dos tipos de cables coaxiales. El coaxial grueso o thicknet es de un diámetro mayor y tiene
características de mejores longitudes alcanzables y mayor inmunidad al ruido. Por estos motivos, este
cable se especificó principalmente para su uso como backbone (cableado principal que interconecta
varios dispositivos que a su vez interconectan computadoras en redes locales).
El segundo tipo de cable coaxial se denomina fino o thinnet es de un diámetro menor que el thicknet y
es utilizado principalmente para los tendidos de redes de área local.
Un problema con este tipo de cable son los conectores. Como la malla de cobre que recubre el cable es
parte del circuito, éste debe estar correctamente, garantizando su conexión a tierra.
Tanto el cable coaxial thicknet como el thinnet utilizan terminadores de 50 ohms en sus extremos.
En el caso del cable thicknet, la interfaz de red de la computadora tiene un conector denominado AUI
que es del tipo DB15 (15 pines) que se conecta a un tranceptor conectado al cable a través de un cable
derivador o cable de suspensión.
Cuando el tendido de cable está realizado con cable thinnet, la interfaz de red de la computadora se
encuentra directamente conectada al cable mediante conectores denominados T-BNC, eliminando el
tranceptor y el cable de suspensión.
Existen varias categorías de cables UTP. El que se utiliza en las instalaciones de redes tiene una
impedancia de 100 ohmios. Esto lo diferencia de los cables de par trenzado utilizados en tendidos de
redes telefónicas.
Una ventaja del cable UTP es su diámetro pequeño, lo que beneficia las tareas de instalación.
Una desventaja del cable UTP es que es más susceptible al ruido eléctrico y la interferencia que otros
medios. Además, la distancia que puede abarcar la señal sin el uso de repetidores es más limitada que
en los casos de cables coaxiales o fibra óptica.
En la actualidad, el cable UTP es el más popular para la instalación de redes de área local.
Conectores
La instalación de cable UTP con conectores RJ, las posibilidades de que la red sea afectada
por ruido electromagnético y de radio frecuencia se reduce enormemente y se garantiza una
conexión sólida.
El cable STP es un cable de 150 ohmios y reduce las interferencias tanto dentro del cable (acoplamiento
de señales entre pares) como las interferencias externas (electromagnética –EMI- y de radio frecuencia
–RFI-)
En el caso del FTP, es un cable de 100 ó 120 ohmios que introduce en el mercado un producto
intermedio entre el UTP y el STP.
La instalación de este tipo de cables es más difícil, ya que los blindajes metálicos del STP y FTP deben
estar conectados a tierra en ambos extremos. Si estas conexiones no están correctamente realizadas o
se producen discontinuidades en el material de blindaje, se vuelven susceptibles a los problemas de
ruido.
Conectores
Al igual que el cable UTP, se utilizan conectores RJ-45, pero estos presentan conexiones adicionales
para los blindajes.
Fibra óptica
A diferencia de los cables de cobre que transportan señales eléctricas, el cable de fibra óptica conduce
impulsos de luz moduladas.
La mayor ventaja de la utilización de este tipo de medio es su total inmunidad a todo tipo de
interferencias electromagnéticas y alcanza transmisiones de datos a velocidades mayores que los
medios de cobre y a distancias más grandes.
El cable de fibra óptica está compuesto por dos fibras envueltas en revestimientos separados. Cada una
de las fibras, denominadas núcleo, es de fibra de vidrio o alguna resina plástica recubierta por un
material plástico o cristal con diferentes propiedades ópticas que el núcleo y que a la vez actúa como
material amortiguador protector de las frágiles fibras de vidrio cuyo diámetro es similar al de un
cabello. Este material habitualmente es kevlar y recibe el nombre de revestimiento. Un último
revestimiento denominado cubierta protege a todo el cable.
El proceso de transmisión consiste en guiar haces de luces. El núcleo tiene un alto índice de refracción
que guía la luz y el revestimiento captura la luz dentro del núcleo por tener un bajo índice de refracción.
Conectores
El conector de fibra óptica más utilizado es el conector ST. Tiene una apariencia similar a los conectores
BNC. También se utilizan, cada vez con más frecuencia conectores SC, de uso más fácil.
Transmisión inalámbrica
La transmisión inalámbrica está caracterizada porque utiliza medios no guiados como el aire. Una
antena irradia energía electromagnética que es recibida por otra antena.
Hay dos métodos para la emisión y recepción de las ondas. El método direccional, el haz es dirigido en
una dirección determinada, por lo que le emisor y el receptor deben estar alineados. El método
omnidireccional, las ondas de energía son dispersadas en múltiples direcciones, por lo que varias
antenas pueden captarlas.
Para enlaces punto a punto se utilizan frecuencias altas (microondas) y para enlaces multidireccionales
con varios receptores se utilizan bajas frecuencias (ondas de radio). Las señales infrarrojas se utilizan
para transmisiones en áreas pequeñas, como una habitación.
Microondas terrestres
Se utilizan antenas parabólicas. Es necesario que las antenas estén alineadas. Son populares para la
transmisión de televisión y voz. Una desventaja de este tipo de transmisiones es la atenuación que
sufren las ondas, la cual aumenta con fenómenos metereológicos, como la lluvia. Otro inconveniente es
que las ondas son afectadas por la interferencia de otras ondas presentes en el aire.
Las señales son transmitidas hacia un satélite geoestacionario (para mantener la alineación entre el
satélite y las antenas), el cual las amplifica y retransmite en la dirección adecuada. Las frecuencias de
subida y bajada deben ser distintas para que no haya interferencias entre las ondas que ascienden y
descienden.
Infrarrojos
Los emisores y receptores infrarrojos deben estar alineados. Algo a tener en cuenta con las señales
infrarrojas es que es posible que se reflejen en superficies como paredes, con lo cual no es posible
tener el emisor y receptor separados, por ejemplo en habitaciones diferentes.
Transmiten de una configuración de cables a otra (conversión de un puerto AUI a un puerto RJ-45) o de
un tipo de medio a otro (medio de cobre a medio óptico).
Repetidores
Una señal transmitida en un cable pierde potencia a medida que viaja a través del mismo. Este
fenómeno se denomina atenuación. La perdida de potencia puede provocar una pérdida de
información.
La función de un repetidor es amplificar la señal que recibe, permitiendo así que la distancia entre el
origen y el destino sea mayor a la distancia capaz de alcanzar sólo a través del medio sin dispositivos
intermedios.
Existen dos tipos de repetidores. Los repetidores activos reciben alimentación eléctrica, permitiendo
que los cables logren mayores distancias. Los repetidores pasivos, no tienen alimentación externa y en
general no se recomienda su uso.
Hubs
Un hub no es más que un repetidor multipuerto. Es decir, un hub recibe una señal de entrada, la cual es
amplificada y retemporizada y retransmitida por varios puertos de salida.
Un hub se instala como un dispositivo concentrador, habitualmente centro de una estrella, al cual se
interconectan varios dispositivos, en forma económica y sencilla.
Estándares
10base5
El estándar 10base2 es también conocido como Ethernet grueso (Thick Ethernet) ya que la red se
construye con el cable coaxial thicknet, siendo el cable relativamente grueso, de aproximadamente 10
milímetros y bastante rígido. Las ventajas de la utilización de este cable es que es bastante resistente a
interferencias externas y la pérdida de la señal es poca. Este cable se conoce con el nombre RG8 o RG11
y tiene una impedancia de 50 ohmios.
La notación 10base5 significa que opera a 10 Mbps, utilizando señalización en banda base y puede
extenderse hasta longitudes de hasta 500 metros.
La red 10base5 utiliza una topología física de bus, con un cable coaxial que conecta a todos los
dispositivos entre sí. En cada extremo del cable debe colocarse un terminador de 50 ohmios, para
acoplar con la impedancia del cable. Cada dispositivo se conecta al cable utilizando un transceptor. Éste
es del tipo “vampiro”, que consiste en una punta en el transceptor que se introduce hasta la mitad del
núcleo del cable coaxial. Luego, se conecta un cable AUI desde un conector de este tipo en el
transceptor a un conector presente en la interfaz de red de la computadora.
10base2
Las redes 10base2 o también denominada Ethernet fino (Thin Ethernet) o Red Barata (Cheaper-net)
están construidas con cable coaxial delgado. Los principales motivos para utilizar éste tipo de cable es
que es más económico que el coaxial grueso, no utiliza transceptores, bajando los costos de instalación
y además evitando una de las principales fuentes de fallas que es las conexiones de dichos
componentes. Otra ventaja de la utilización del cable coaxial delgado es que es más flexible.
La notación 10base2 significa que transmite a 10 Mbps, operando en banda base y la extensión del
cable puede llegar a 185 metros (se utilizó el 2 de 200 en el nombre de la red).
Igual que 10 base5, la topología física es de bus. El cable coaxial fino recibe el nombre RG-58 y cada
dispositivo de la red consta de una interfaz de red a la que se conecta adaptador BNC en forma de “T” y
al final de cada uno de los extremos del cable se coloca un terminador de 50 ohmios.
Por estos motivos, se introdujo un nuevo tipo de tecnología que se denomina 10baseT, que mejora los
aspectos antes mencionados.
La tecnología 10baseT utiliza cable de par trenzado. Éste puede ser UTP, que consta de cuatro pares
trenzados sin apantallamiento, donde el propio trenzado de los hilos cumple las funciones de aislar la
información de interferencias externas. También es posible realizar el cableado utilizando cable STP con
apantallamiento de malla de cobre o FTP con apantallamiento de papel de aluminio.
Otra característica de la tecnología 10baseT es que utiliza una topología física de estrella en lugar de las
topologías de bus de 10base2 y 10base5. En una topología en estrella, cada dispositivo está conectado
mediante un único cable, y que sólo conecta a ese dispositivo, a un concentrador común que está
encargado de interconectar todos los dispositivos.
La tecnología 100baseX tiene la misma arquitectura que 10baseT, con la diferencia de utilizar
componentes que son capaces de transferir información a 100 Mbps.
La regla 5-4-3-2-1
Los repetidores y hubs son equipos que actúan a nivel físico, prolongado la longitud de la red y uniendo
segmentos que pueden ser de diferentes tipos de cableado. Estos dispositivos cuentan con dos o más
puertos (AUI, BNC, RJ45 o fibra óptica) y transfieren los datos recibidos por un puerto a los demás,
independientemente de su contenido, origen y destino. Una característica de los repetidores y hubs es
que amplifican la señal antes de retransmitirla para eliminar posibles distorsiones que se hayan podido
introducir en la transmisión.
Una desventaja de la utilización de repetidores y hubs es que introducen un pequeño retardo en los
datos. Si el número de repetidores usado es elevado, el retardo introducido puede ser considerable y
puede darse el caso de que el sistema no funcione adecuadamente y produzca transmisiones erróneas.
La regla 5-4-3-2-1 limita el uso de repetidores y hubs limitando éstos a la regla que entre dos equipos
de la red no puede haber más de 4 repetidores y 5 segmentos de cable. De los cinco segmentos que
puede haber en la red, sólo 3 pueden tener dispositivos conectados, mientras los otros dos sólo tienen
como función la interconexión de repetidores y extender la longitud entre los segmentos. Por último, se
establece un único segmento de colisión, es decir, las señales transmitidas por cualquier dispositivo en
cualquier segmento pueden superponerse y destruir la información transmitida en las señales de
cualquier otro dispositivo en el mismo segmento o en cualquier otro.
Cableado estructurado
Introducción
La EIA/TIA estableció una norma denominada 568 que especifica cómo realizar un cableado
estructurado para implementar una tecnología 10baseT o similar (100baseX).
Algunos de los aspectos que cubren los estándares de EIA/TIA son el cableado horizontal,
características de los armarios de telecomunicaciones y el cableado backbone.
EIA/TIA 568 incluye definiciones para los medios para redes que están tendidos a lo largo
de una ruta horizontal, el tomo o conector de telecomunicaciones, las terminaciones
mecánicas del centro de cableado (panel de conexiones) y los cables de conexión.
Cableado horizontal
El cableado horizontal es el cable que se extiende desde la toma de comunicaciones en la pared hasta el
panel de conexiones o también denominado conexión cruzada horizontal.
Esto es, desde el conector que se encuentra en la roseta en la pared en el área de trabajo hasta un
panel metálico con conectores, que comúnmente recibe el nombre de patch panel, que se ubica en un
gabinete para tal fin.
Las normas de cableado horizontal rigen que se debe instalarse un mínimo de dos tomas o conectores
de telecomunicaciones en cada área de trabajo.
Según lo definido por EIA/TIA, el cableado horizontal no debe superar una extensión de 90 metros.
Este cable se extiende desde el conector correspondiente en el patch panel hasta el dispositivo
concentrador que tendrá la función de interconectar todos los dispositivos.
El cableado de campus es realizado utilizando típicamente fibra óptica o cable coaxial, para
interconectar los diferentes edificios en donde se vayan a ubicar las redes de área local.
El cable que interconecta los diferentes pisos del edificio es típicamente de fibra óptica o coaxial.
Tanto el cableado de campus como el cableado vertical reciben comúnmente el nombre de cableado
backbone (columna vertebral).
La velocidad con que se propaga depende del material y la estructura del medio y la frecuencia con que
se envían los pulsos.
El tiempo que tarda un bit en desplazarse desde un extremo a otro del medio y regresar se denomina
tiempo de ida y vuelta (RTT – Round Trip Time). Por lo tanto, el tiempo que tarda un bit en desplazarse
a través del medio al extremo más lejano es RTT/2.
El tiempo de propagación es una característica que hay que tener en cuenta. Puede representar un
problema si no hay un conocimiento cierto del tiempo de propagación y se supone que el bit llega a
destino demasiado rápido o demasiado tarde.
Atenuación
La energía de una señal decae con la distancia, por lo que hay que asegurarse que llegue con la
suficiente energía como para ser interpretada por el receptor y además, el ruido debe ser
sensiblemente menor que la señal original.
Distorsión
Debido a que en las transmisiones de datos se utilizan medios guiados, la velocidad de propagación de
una señal varía con la frecuencia.
La distorsión es el fenómeno de que ciertas frecuencias lleguen antes que otras dentro de la misma
señal y por tanto las diferentes componentes en frecuencia de la señal llegan en instantes diferentes al
receptor.
Ruido
El ruido es toda aquella señal que se adiciona a la señal original entre el emisor y el receptor.
Ruido térmico: es el producido debido a la agitación térmica de electrones dentro del conductor
Ruido impulsivo se trata de pulsos discontinuos de poca duración y de gran amplitud que afectan a la
señal.
Diafonía: se produce cuando hay un acoplamiento entre las líneas que transportan las señales
La diafonía es uno de los principales problemas del cable UTP. Dado que se transmiten distintas señales
en pares adyacentes, es posible que la señal de un par afecte a otro. Debido a esto, es de suma
importancia mantener el trenzado de los cables, ya que ésta es la forma de solucionar la diafonía.
Si no se controla cuidadosamente la reflexión, esta energía que se refleja puede interferir con la energía
de bits que se transmiten posteriormente.
Las reflexiones eléctricas son un punto muy importante a considerar en el cableado coaxial. Para
evitarlas, se utilizan los terminadores en los extremos del cable.
La reflexión también se produce en el caso de las señales ópticas. Las señales ópticas se reflejan si se
encuentran con alguna discontinuidad en el vidrio (medio), como en el caso de un conector enchufado
a un dispositivo.
Este fenómeno también se produce en el caso de las ondas de radio y las microondas, ya que detectan
distintas capas en la atmósfera.
La reflexión puede provocar problemas en la red. Por ese motivo, es importante que los
medios de la red tengan una impedancia específica para que concuerden con los
componentes eléctricos de las tarjetas de red. A menos que los medios de red tengan la
impedancia correcta, la señal experimentará cierta reflexión y se creará interferencia.
La dispersión es cuando la señal se ensancha con el tiempo. Esto se produce debido a los tipos de
medios involucrados. Si es muy grave, un bit puede comenzar a interferir con el bit siguiente y
confundirlo con los bits que se encuentran antes y después de él. La dispersión se puede solucionar con
el diseño de cables adecuado, limitando las longitudes de los cables y detectando cuál es la impedancia
adecuada. En el caso de la fibra óptica, la dispersión se puede controlar usando luz láser con una
longitud de onda muy específica. En el caso de las comunicaciones inalámbricas, la dispersión se puede
reducir al mínimo mediante las frecuencias que se usan para realizar la transmisión.
La fluctuación de fase ocurre cuando los relojes de los dispositivos origen y destino no están
sincronizados. Los pulsos del reloj indican al host origen en qué momento puede enviar cada bit y el
destino en qué momento leer cada bit. Si no están sincronizados, ocurrirá una fluctuación de fase. Esto
significa que los bits llegarán un poco antes o más tarde de lo esperado. La fluctuación de fase se puede
La latencia o retardo tiene dos causas principales. En primer lugar, las señales se trasladan a una
velocidad determinada. De modo que para trasladarse a una determinada distancia, el bit tarda por lo
menos una pequeña cantidad de tiempo para llegar hasta su destino. En segundo lugar, si el bit
atraviesa cualquier dispositivo, los transistores y los dispositivos electrónicos introducen más latencia.
La solución para el problema de la latencia es el uso cuidadoso de los dispositivos de red, distintas
estrategias de codificación y diversos protocolos de capa.
Por ejemplo, si varias computadoras se encuentran conectadas al mismo cable físico, a la misma fibra
óptica, o si comparten el mismo espacio aéreo, entonces se dice que comparten el mismo entorno de
medios.
Los entornos extendidos de medios compartidos son un tipo especial de entorno de medios
compartidos, en el que los dispositivos de red pueden extender el entorno para que se pueda
implementar múltiple acceso o más dispositivos.
Colisiones
Una colisión es el problema que se produce cuando dos bits se propagan al mismo tiempo en la misma
red.
El problema de las colisiones se agrava como resultado del exceso de tráfico en la red. Si todos los
dispositivos de la red están interconectados por medio de un solo cable, aumenta la probabilidad de
que se produzcan conflictos cuando varios usuarios intenten enviar datos al mismo tiempo. Lo mismo
sucede si los segmentos de una red están conectados con dispositivos tales como repetidores.
Cuando más de un dispositivo transmite se produce una colisión. No es posible que dos señales ocupen
el mismo medio simultáneamente.
Cuando se produce una colisión, los paquetes de datos involucrados se destruyen, bit por bit. Los datos
dañados no son recuperables y la única opción es volver a transmitirlos.
Por ejemplo, un alambre puede estar conectado con otro a través de cables de conexión,
transceptores, paneles de conexión, repetidores e incluso hubs. Todas estas interconexiones de capa
física forman parte del dominio de colisión.
Contención
Para evitar el problema de las colisiones, la red debe disponer de un sistema que pueda manejar la
competencia por el medio. Esto se denomina contención.
La contención es el mecanismo con el que cuenta la red para evitar las colisiones, tratar de disminuirlas
o recuperarse después de que éstas ocurren.
Este objetivo es alcanzado haciendo que el emisor divida los datos que le entrega la capa de red en
tramas de datos (en inglés frame), de uno pocos cientos de bytes. Estas tramas son transmitidas en
forma secuencial y procese las tramas de confirmación devueltas por el receptor.
La capa física sólo acepta y transmite una corriente de datos sin prestar ninguna atención al significado
o estructura. Por lo tanto, es la capa de enlace de datos la responsable de identificar el comienzo y el
final de una trama de datos.
Para identificar el comienzo y el final de una trama, la capa de enlace de datos agrega un patrón
especial de bits al comienzo y al final de cada trama y se encarga de que esos patrones de bits no se
repitan dentro de los datos.
Entramado
Introducción
La capa de enlace de datos utiliza el entramado para organizar o agrupar los datos.
Las corrientes de bits codificadas en medios físicos, por sí solas no bastan para que las comunicaciones
puedan llevarse a cabo. La capacidad de entramado ayuda a obtener información esencial que, de otro
modo, no se podría obtener solamente con las corrientes de bits codificadas: Entre los ejemplos de
dicha información se incluye:
Quién tiene el turno para enviar datos en una transmisión entre computadoras.
Formato de trama
Dependiendo de la implementación tecnológica de las funciones de la capa de enlace de datos, una
trama genérica tiene secciones denominadas campos, y cada campo está formado por bytes. Los
nombres de los campos son los siguientes:
Campo de preámbulo: cuando los computadores se conectan a un medio físico, debe existir alguna
forma mediante la cual puedan llamar la atención de otros computadores para enviar un mensaje. Las
diversas tecnologías tienen distintas formas para hacerlo, pero todas las tramas, de cualquier
tecnología, tienen una secuencia de bytes de inicio y señalización.
Campo de dirección: las tramas contienen información de denominación como, por ejemplo, el
identificador del computador origen y el identificador del computador destino.
Campo de datos: el paquete (unidad de datos entregado por la capa de red) de datos que se desea
enviar se coloca en este campo.
Verificación por redundancia cíclica (CRC): Ejecuta cálculos polinómicos con los datos.
Paridad de dos dimensiones: Agrega un 8vo bit que hace que una secuencia de 8 bits tenga un número
impar o par de unos binarios
Checksum Internet: Agrega los valores de todos los bits de datos para obtener una suma
Campo de fin de trama: la computadora que transmite los datos debe obtener la atención de otros
dispositivos para iniciar una trama y luego volver a obtener la atención de los dispositivos para finalizar
la trama. El campo de longitud implica el final y se considera que la trama termina luego de la FCS. A
veces hay una secuencia formal de bytes que se denomina delimitador de fin de trama.
El emisor, al recibir un acuse por cada una de las tramas enviadas, sabe si la trama ha llegado
correctamente o no al destino.
Cada trama enviada a través de la conexión lleva un número de secuencia, y la capa de enlace de datos
garantiza que cada trama llegará a su destino. Debido a la utilización de los números de secuencia de
enlace de datos, es posible garantizar que cada trama llegará a su destino sólo una vez y todas las
tramas serán recibidas en el orden adecuado.
En el servicio orientado a la conexión, las transferencias de datos atraviesan tres fases. La primera es de
establecimiento, en la cual el origen contacta al destino y ambos inicializan las variables y contadores.
La segunda es la fase de transferencia, en la que se transfieren una o más tramas. La tercera fase es de
cierre de conexión, liberando las variables, los buffers y otros recursos necesarios durante la conexión.
Control de flujo
Introducción
El control de flujo es una técnica necesaria para que el emisor no sobrecargue al receptor al enviarle
más datos de los que pueda procesar.
El receptor tiene un buffer de una cierta capacidad para ir guardando los datos recibidos y tras
procesarlos, enviarlos a capas superiores.
El mensaje de confirmación enviado por el receptor le indica al emisor que puede enviar otra trama al
receptor. De esta forma, cuando el receptor esté saturado y el buffer a punto de llenarse, sólo tiene
que dejar de confirmar una trama y entonces el emisor esperará hasta que el receptor decida enviarle
el mensaje de confirmación.
Es necesario utilizar números que identifiquen las tramas, ya que es necesario distinguir cada una de
las tramas que se guardan en el buffer del receptor.
El emisor transmite tramas por orden hasta el número máximo de tramas que quepan en el buffer del
receptor. El receptor irá procesando las tramas que le lleguen y confirmando que admite tramas a
partir de una dada. El emisor puede ahora volver a enviar tramas hasta el número máximo de tramas
admitidas por el receptor.
Cuando dos estaciones son emisoras y receptoras, se pueden utilizar dos ventanas, una por estación.
Se puede mejorar la utilización del canal utilizando la misma trama para enviar datos y confirmaciones.
Detección de errores
Introducción
La probabilidad de que una trama contenga errores es directamente proporcional al tamaño de la
trama.
Para lograr detectar errores, se añade un código en función de los bits de la trama de forma que este
código señale si se ha cambiado algún bit en el camino del origen al destino.
El código debe de ser conocido e interpretado tanto por el emisor como por el receptor.
Comprobación de paridad
La técnica de comprobación de paridad consiste en añadir un bit de paridad al bloque de datos.
Por ejemplo, si hay un número par de bits 1, se le añade un bit 0 de paridad y si son impares los bits 1,
se le añade un bit 1 de paridad. De esta forma, la trama siempre tiene la misma paridad.
El emisor le sumará k bits necesarios, de tal forma que n + k sea divisible (resto 0) por algún número
conocido tanto por el emisor como por el receptor.
Este proceso se puede implementar tanto por software o bien por un circuito de hardware, el cual es
mucho más rápido.
Control de errores
Introducción
El control de errores consiste tanto en detectar como en corregir errores aparecidos en las
transmisiones.
Tramas dañadas: cuando llega una trama con algunos bits erróneos.
Detección de errores: detectar los errores con alguna de las técnicas descriptas en la sección
correspondiente y descartar las tramas. La recuperación puede ser responsabilidad de alguna capa
superior.
Los protocolos en los que el transmisor envía un acuse positivo antes de avanzar a la siguiente trama se
llaman PAR (Positive Acknowledgment with Retransmition – acuse positivo con retransmisión) o ARQ
(Automatic Repeat reQuest – solicitud automática de repetición).
La técnica consiste en que el emisor transmite una trama y hasta que no recibe confirmación del
receptor, no envía otra.
La trama enviada por el emisor no llegue al receptor. En este caso, como el emisor guarda una copia de
la trama y además tiene un temporizador, cuando expira un cierto plazo de tiempo sin recibir
confirmación del receptor, reenvía la trama.
La trama enviada por el emisor llegue al receptor con errores. En este caso, el receptor no envía
confirmación al emisor de la llegada de la trama.
La trama enviada por el emisor llegue correctamente al receptor pero la confirmación de llegada no sea
recibida por el emisor. Cuando el temporizador del emisor lo indique, retransmitirá la trama, ya que no
recibió confirmación. Gracias a la utilización de los números de secuencia, el receptor identificará la
trama como duplicada.
Cuando no hay errores, la técnica es similar a las ventanas deslizantes, pero cuando la estación destino
encuentra una trama errónea, devuelve una confirmación negativa y rechaza todas las tramas que le
lleguen hasta que reciba otra vez la trama antes rechazada, pero en buenas condiciones.
Al recibir la estación emisora una confirmación negativa de una trama, retransmitir esa trama y todas
las siguientes.
La estación emisora mantiene un temporizador para el caso de que no reciba confirmación en un largo
periodo de tiempo o la confirmación llegue errónea, y así poder retransmitir las tramas.
Para que esto se pueda realizar , el receptor debe tener un buffer para guardar las tramas recibidas tras
el rechazo de una dada, hasta recibir de nuevo la trama rechazada y debe de ser capaz de colocarla en
su lugar correcto para entregar los paquetes a la capa de red en la secuencia en que se originaron.
Además, el emisor debe de ser capaz de reenviar tramas fuera de orden.
Los requerimientos adicionales para implementar esta técnica hacen que sea menos utilizado.
La primera se denomina Control de enlace lógico (LLC – Link Logical Control) y su misión es la
comunicación con las capas superiores.
La segunda es la subcapa de control de acceso al medio (MAC – Medium Access Control) y tiene como
función la identificación de los dispositivos conectados a los medios físicos, la agrupación de los bits en
tramas y el método de acceso al medio (por turnos o difusión).
Esta capa flexibiliza los servicios de los protocolos de la capa de red que está sobre la capa de enlace de
datos, mientras se comunica de forma efectiva con las diversas tecnologías que están por debajo.
El Control de acceso al medio administra el computador que transmitirá datos binarios de un grupo de
computadoras, en donde todas tratan de transmitir al mismo tiempo. Por ejemplo, en un entorno de
medios compartidos que establecen un dominio de colisión, la subcapa MAC determina cuál de los
computadores puede transmitir.
El control de acceso al medio se divide en dos categorías: protocolos determinísticos (por turno) y no
determinísticos (el primero que llega, el primero que se sirve).
Aquella computadora que desea transmitir deberá esperar a tener posesión del token. Dado que sólo
hay un token circulando en la red, sólo podrá haber una computadora transmitiendo en un tiempo
determinado.
En estos tipos de protocolos, cuando un host tiene datos para transmitir, sólo testea el medio para
verificar que no haya bits transmitiéndose, y si es así, comienza a transmitir. Si otro u otros hosts
La característica no determinística está dada por no saber el tiempo que le llevará a una computadora
transmitir, dado que no se conoce la cantidad de hosts compitiendo por el medio simultáneamente ni
la cantidad de colisiones que pueden producirse en los repetidos intentos de transmitir los datos.
Topología
Topología lógica
La topología lógica determina el método de acceso al cable.
Existen dos topologías lógicas que implementan las características de los protocolos determinísticos y
no determinísticos: token o broadcast.
Token
En las topologías lógicas de token, se va rotando la autorización de transmitir a cada dispositivo, de
forma que si el dispositivo no tiene nada que transmitir deja pasar la autorización a la siguiente
computadora.
La estación que quiere transmitir, sólo se le permite una cierta cantidad de datos en cada turno o un
determinado tiempo.
Este sistema es eficiente cuando casi todas las estaciones quieren transmitir algo, de forma que el
tiempo de transmisión se reparte equitativamente. Pero es ineficiente cuando sólo algunas estaciones
son las que desean transmitir, ya que se pierde mucho tiempo rotando sobre los dispositivos que no
desean transmitir.
Broadcast
En las topologías lógica de broadcast o también denominada de difusión, todas las estaciones que
quieren transmitir compiten para poder hacerlo. El control de acceso al medio se distribuye entre todas
las estaciones.
Estándares
IEEE 802
El comité 802 del Instituto de Ingenieros Eléctrico y Electrónicos (IEEE) define los estándares de redes
de área loca (LAN).
IEEE 802.1
El estándar 802.1 es la Definición Internacional de Redes.
Define la relación entre los estándares 802 de IEEE y el modelo OSI de la ISO.
IEEE 802.2
El estándar 802.2 define la subcapa LLC de la capa de enlace de datos. Esta definición asegura que los
datos son transmitidos de forma confiable por medio del enlace físico.
La definición también provee las direcciones de Puntos de Acceso a Servicios (SAP). Las SAPs son
específicamente las direcciones de una o más procesos de aplicaciones ejecutándose en una
computadora o dispositivo de red.
IEEE 802.3
El IEEE 802.3 define cómo operan aquellas redes locales que utilizan como método de acceso al medio
CSMA/CD (Carrier Sense and Multiple Access with Collition Detection – Acceso múltiple con detección
de portadora y detección de colisiones). El estándar formaliza las redes Ethernet creadas años antes por
un conjunto de empresas.
Se define la conexión de redes sobre cable coaxial, cable de par trenzado, y medios de fibra óptica. La
tasa de transmisión original es de 10 Mbits/seg, pero nuevas implementaciones transmiten a 100
Mbits/seg y superiores.
Las LAN 802.3 son redes de broadcast, en donde todos los dispositivos ven todas las tramas y cada una
debe examinar cada trama para determinar si es el destino.
IEEE 802.4
IEEE 802.4 o Token Bus define el método token-passing en una red de topología física de bus.
IEEE 802.5
IEEE 802.5 define los protocolos de acceso, cableado e interfase para las redes LAN Token Ring, creada
por IBM.
IEEE 802.5 define físicamente una topología en estrella, pero la topología lógica (el camino que siguen
los datos) es en anillo. Los dispositivos están conectados a un concentrador central que retransmite las
señales de un dispositivo al siguiente.
En una red Token Ring, los hosts individuales se ubican en forma de anillo. Un token de datos especial
circula alrededor del anillo. Cuando un host desea realizar una transmisión, toma el token, transmite los
datos durante un tiempo determinado y luego coloca el token nuevamente en el anillo, donde otro host
puede decidir dejarlo pasar o tomarlo.
Direccionamiento
Direcciones MAC
Los protocolos de la supcapa MAC utilizan direcciones MAC para identificar unívocamente a los
dispositivos.
Las direcciones MAC tienen 48 bits de longitud y se expresan como doce dígitos hexadecimales.
Las direcciones MAC a veces se denominan direcciones grabadas (BIA) ya que estas direcciones se
graban en la memoria de sólo lectura (ROM) de la tarjeta de red.
Las direcciones MAC también se denominan direcciones físicas, y no debe haber dos direcciones
iguales.
Las direcciones MAC se escriben con números hexadecimales (base 16). Hay dos formatos para las
direcciones MAC:
0000.0c12.3456
00-00-0c-12-34-56
Los seis primeros dígitos hexadecimales, que son administrados por el IEEE, identifican al fabricante o
proveedor. Estos dígitos se denominan Identificador Exclusivo de Organización (OUI).
Los seis dígitos hexadecimales restantes abarcan el número de serie de interfaz, u otro valor
administrado por el proveedor específico.
Dispositivos
Placa de red
La placa de red o NIC (Network Interface Card – Tarjeta de interfaz de red) tiene la función de adaptar
el dispositivo al medio de red.
Las tarjetas de red se consideran dispositivos de capa 2 debido a que llevan un código único, la
dirección MAC, la cual se utiliza para controlar la comunicación de datos entre los dispositivos. La
tarjeta de red controla el acceso al medio.
Puentes
Un puente es un dispositivo que conecta dos redes LAN separadas para crear lo que aparenta ser una
sola LAN.
Los puentes se utilizan para reducir la cantidad de tráfico de red de un segmento de red. Mediante la
división de un solo segmento de red en dos segmentos y conectándolos por medio de un puente, se
reduce el traficó general en la red.
Mediante la incorporación de un puente y la división del segmento del cable de red en dos segmentos,
se mantendrá aislada la actividad de la red en cada segmento, a menos que el host de un segmento
envíe información a un host de otro segmento, en cuyo caso el puente pasaría la información.
Los puentes con aprendizaje de lo sucedido o adaptativos, aprenden las direcciones de los nodos de la
red, por lo que no será necesario que el administrador de red cree una tabla con estas direcciones en el
puente. A medida que lasas estaciones de trabajo transmiten datos, el puente aprende continuamente
sus direcciones de identificación construyendo sus tablas a partir de estas direcciones. En una primera
etapa, el puente utiliza un método de inundación, ya que no conoce nada acerca de la red. Es decir,
toda trama recibida en un puerto es retransmitida al otro segmento, ya que el puente no sabe si el
destino se encuentra en el mismo segmento de donde proviene la trama o en el otro. A medida que el
puente construye su tabla de direcciones, deja de inundar los segmentos y comienza a filtrar en función
de las direcciones MAC destino. En resumen, las acciones del puente son:
Si las direcciones MAC origen y destino están en la misma LAN, el puente descarta la trama.
Si las direcciones MAC origen y destino están en distintas LAN, el puente reenvía la trama.
En la actualidad, la mayor parte de los puentes del mercado poseen aprendizaje de lo sucedido.
Switches
Los switches son dispositivos similares a los puertos. La función es la misma: enlazar redes LAN
separadas y proveer un filtrado de tramas entre ellas. La diferencia con los puentes, es que consta de
más de dos puertos. Por este motivo, los switches son conocidos como puentes multipuertos.
Un switch es un dispositivo con múltiples puertos, cada uno de los cuales puede soportar una simple
estación de trabajo o bien toda una red LAN (por ejemplo Ethernet o Token Ring).
El switch, igual que el puente, filtra las tramas basándose en su dirección de destino MAC.
Los switches son utilizados para aumentar la performance en las redes, segmentando redes grandes en
varias más pequeñas, lo cual disminuye la congestión a la vez que continúa proveyendo la
interconectividad necesaria.
Los switches aumentan la performance de las redes ya que cada puerto posee un ancho de banda
dedicado, sin requerir el cambio de equipamiento, tales como NICs o cableado ya instalado, a diferencia
de la utilización de hubs, donde el ancho de banda está compartido.
Ethernet
Historia
En la década de 1960, la Universidad de Hawai desarrolló y utilizó un sistema de comunicación por
radio denominado ALOHA que conectaba las distintas islas de Hawai.
El protocolo que se usaba permitía que cualquier persona transmitiera cuando quisiera. Esto provocaba
"colisiones" de ondas radiales que podían ser detectadas por los oyentes durante la transmisión. Sin
embargo, lo que empezó como ALOHA, con el tiempo se transformó en un protocolo MAC moderno
denominado acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD).
Las especificaciones de Ethernet sirvieron como base de la especificación 802.3 publicada en 1980 por
el Instituto de Ingeniería Eléctrica y Electrónica (Institute of Electrical and Electronic Engineers (IEEE)).
Poco después de la publicación de la especificación IEEE 802.3 en 1980, Digital Equipment Corporation,
Intel Corporation y Xerox Corporation desarrollaron y publicaron conjuntamente una especificación
Ethernet denominada "Versión 2.0" que era sustancialmente compatible con la IEEE 802.3.
Las redes Ethernet son las redes de área local más difundidas en la actualidad.
Características
Ethernet es la tecnología de red de área local (LAN) de uso más generalizado.
Ethernet e IEEE 802.3 especifican tecnologías similares; ambas son LAN de tipo CSMA/CD.
Tanto las LAN Ethernet como las LAN IEEE 802.3 son redes de broadcast. Esto significa que cada
estación puede ver todas las tramas, aunque una estación determinada no sea el destino propuesto
para esos datos. Cada estación debe examinar las tramas que recibe para determinar si corresponden al
destino. De ser así, la trama pasa a una capa de protocolo superior dentro de la estación para su
adecuado procesamiento.
Existen diferencias sutiles entre las LAN Ethernet e IEEE 802.3. Ethernet proporciona servicios que
corresponden a las Capas 1 y 2 del modelo de referencia OSI. IEEE 802.3 especifica la capa física y la
porción de acceso al medio de la capa de enlace de datos, es decir la subcapa de Control de Enlace
Lógico.
Tanto Ethernet como IEEE 802.3 se implementan a través del hardware. Normalmente, el componente
físico de estos protocolos es una tarjeta de interfaz en un computador host o son circuitos de una placa
de circuito impreso dentro de un host.
CSMA/CD
La técnica de acceso CSMA/CD (Carrier Sense and Multiple Access with Collition Detection) permite a
que todos los dispositivos puedan comunicarse en el mismo medio, aunque sólo puede existir un único
emisor en cada instante. De esta manera todos los dispositivos pueden ser receptores de forma
simultánea, pero la información tiene que ser transmitida por turnos.
Cuando un nodo desea transmitir datos, primero escucha el canal. Si el canal está ocupado, es decir hay
una transmisión en curso, el nodo espera hasta que se desocupa. Cuando el nodo no detecta
transmisión alguna en el medio, comienza a transmitir.
Debido a la longitud de los medios y el fenómeno de propagación, puede darse que dos o más
dispositivos en la red escuchen el canal en reposo y comiencen a transmitir casi simultáneamente. Esto
provocará una colisión.
Si varios dispositivos intentan transmitir en el mismo instante la colisión es detectada, de forma que
cada uno de ellos volverá a intentar la transmisión transcurrido un pequeño intervalo de tiempo
aleatorio.
Dado que los datos transmitidos por un host son visibles por todos los demás, es necesario un
procedimiento para identificar las tramas que pertenecen a cada computadora. Esto se realiza
utilizando las direcciones MAC. Durante el encapsulamiento, la capa de enlace de datos agrega las
direcciones MAC origen y destino.
Tras una colisión, el tiempo se divide en ranuras discretas. Cada ranura es de 51.2 microsegundos.
Tras la primera colisión, cada una de las estaciones involucradas elige esperar 0 ó 1 tiempo de ranura
antes se volver a intentar transmitir.
Si al tratar de volver a transmitir vuelve a ocurrir una colisión, las computadoras que retransmitieron
escogen ahora entre 0, 1, 2 o 3 ranuras al azar. Espera el tiempo determinado y vuelve a tratar de
transmitir.
7. Capa de red
Introducción
Objetivos de la capa de red
La capa de red se encarga de llevar los paquetes (unidad de datos de la capa de red) desde el origen
hasta el destino.
Interfaz red/transporte
La interfaz entre la capa de red y la capa de transporte tiene especial importancia porque en general es
la interfaz entre la portadora y el cliente. Habitualmente, las capas superiores se denominan capas de
host y las capas inferiores se denominan capas de red.
En contraposición, las compañías telefónicas, proponen que las capas de red deben proporcionar un
servicio confiable orientado a la conexión. Teniendo esto en cuenta, las capas de red deberían tener las
siguientes propiedades:
Antes de enviar los datos, el emisor debe establecer una conexión con el receptor de capa a capa.
Una vez iniciada la conexión, se negocian los parámetros y calidad del servicio.
A continuación se envían los datos en ambas direcciones, proveyendo control de flujo y errores
Los dispositivos utilizan el esquema de direccionamiento de capa de red para determinar el destino de
los datos a medida que se desplazan a través de la red.
La función de enrutamiento
Enrutamiento significa determinación de ruta. Esta función la implementan los dispositivos de capa 3,
los cuales evalúan todas las rutas disponibles hacia un destino determinado y establecen la mejor
opción para enviar los datos.
La forma en la cuál el dispositivo de capa de red para determinar cuál es la mejor ruta depende de la
configuración del equipo, del tipo de protocolo utilizado y del tipo de software instalado.
Direccionamiento
Introducción
Los protocolos que no poseen capa de red están limitados a ser usados en redes internas pequeñas.
Estos protocolos normalmente usan un nombre (por ejemplo la dirección MAC, o un nombre asignado
por el administrador) para identificar el computador en una red.
El problema con este sistema es que, a medida que la red aumenta de tamaño, se torna cada vez más
difícil organizar todos los nombres como, por ejemplo, asegurarse de que dos computadores no utilicen
el mismo nombre y las tablas que contienen la información de las computadoras en cada dispositivo
comienzan a agrandarse, impactando en el tiempo de resolución de los nombres.
Las direcciones de capa de red utilizan un esquema de direccionamiento jerárquico que permite la
existencia de direcciones únicas más allá de los límites de una red, junto con un método para encontrar
una ruta por la cual la información viaje a través de las redes. Las direcciones MAC usan un esquema de
direccionamiento plano que hace que sea difícil ubicar los dispositivos en otras redes.
Las direcciones de capa de red funcionan en forma similar y se describen en el siguiente indicador.
Direcciones IP
Cada interfaz conectada a una red debe tener una dirección. Ésta dirección es utilizada para identificar
unívocamente a cada dispositivo.
Una dirección IP es una dirección global de Internet de 32 bits. De estos 32 bits, algunos identifican al
dispositivo individualmente y el resto a la red a la que pertenece el dispositivo.
Para facilitar la utilización de las direcciones IP, éstas se dividen en cuatro octetos (un octeto cuenta
con ocho bits) y se representan utilizando una representación denominada notación decimal separada
por punto, en la cual, cada octeto binario se escribe con su correspondiente en decimal. Como cada
octeto está conformado por 8 bits, su correspondiente en el sistema decimal es un valor en el rango 0 –
255.
El número de red de una dirección IP identifica la red a la cual se encuentra conectado un dispositivo.
Como las direcciones IP están formadas por cuatro octetos separados por puntos, se pueden utilizar
uno, dos o tres de estos octetos para identificar el número de red. De modo similar, se pueden utilizar
hasta tres de estos octetos para identificar la parte de host de una dirección IP.
Clases de direcciones IP
Para una mejor administración de las direcciones IP, éstas se dividieron en cinco clases distintas.
De las cinco clases en que se dividieron las direcciones IP, tres son denominadas comerciales y son las
que se le asignan a los dispositivos conectados a las redes. Éstas son las clases A, B y C. Las otras dos
clases, están reservadas para usos determinados. La clase D es utilizada en tecnologías de multidifusión
(es decir, donde el destino de los paquetes son un conjunto de dispositivos y no uno determinado) y la
clase E está reservada para investigación y aplicaciones futuras.
Las tres clases de direcciones IP comerciales son administradas por el Registro Americano de Números
de Internet (ARIN).
La idea de contar con tres clases de direcciones IP asignables a las organizaciones reside en que cada
clase tiene un determinado tipo de organización a ser asignada.
Las direcciones Clase A se reservan para asignarlas a los gobiernos de todo el mundo (sin embargo,
direcciones de clase A han sido asignadas a empresas de gran envergadura como, por ejemplo, Hewlett
Las redes de clase A son las redes destinadas a asignar direcciones a una gran cantidad de
dispositivos. Debido a que se suponía que las organizaciones solicitantes de direcciones
clase A sería mínima, se maximizó la cantidad de direcciones de host y se limitó la cantidad
de redes posibles.
Las redes de clase A reservan el primer octeto para las direcciones de redes y los otros tres
octetos para direccionar hosts.
R H H H
Además, el primer bit del primer octeto es siempre cero. Teniendo en cuenta esto, se
podrán direccionar 27= 128 redes posibles y por cada red quedan 224 = 16777216
direcciones de host posibles.
0 R H H H
Como el primer bit es siempre cero, las direcciones utilizables del primer octeto de red de
la Clase A están en el rango 1 a 126. La red 0 no se utiliza y la 127 está reservada para
fines especiales (dirección de loopback).
Ejemplos de direcciones clase A son: 1.5.1.3 (el host 5.1.3 de la red 1) 10.25.32.129 (el
host 25.32.129 de la red 10) y 125.203.203.24 (el host 203.20.3.24 de la red 125).
Las redes de clase B reservan los dos primeros octetos para las direcciones de redes y los
otros dos octetos para direccionar hosts.
R R H H
Además, los dos primeros bits del primer octeto son siempre uno-cero. Teniendo en cuenta esto, se
podrán direccionar 214 = 16384 redes posibles y por cada red quedan 216 = 65536 direcciones de host
posibles.
1 R R H H
0
Ejemplos de direcciones clase B son: 128.1.32.123 (el host 32.123 de la red 128.1)
152.255.1.3 (el host 1.3 de la red 152.255) y 191.184.250.3 (el host 250.3 de la red
191.184).
Las redes de clase C reservan los tres primeros octetos para las direcciones de redes y el
último de los octetos para direccionar hosts.
R R R H
Además, los tres primeros bits del primer octeto son siempre la secuencia uno-uno-cero.
Teniendo en cuenta esto, se podrán direccionar 221 = 2097152 redes posibles y por cada
red quedan 28 = 256 direcciones de host posibles.
1 R R R H
1
0
Como los dos primeros bits son siempre la secuencia uno-uno-cero, las direcciones
utilizables de red de la Clase C están en el rango 192.0.0.0 a 223.255.255.0.
1 Dirección de multidifusión
1
1
0
Dada la secuencia inicial de bits del primer octeto de la Clase D, una dirección de esta clase
estará en le rango 224.0.0.0 a 239.255.255.255.
Sin embargo, las direcciones IP puras (Clase A, B y C) utilizan máscaras de subred por defecto.
Una máscara de subred es una dirección compuesta por puros bits 1 en aquellos bits que representan la
dirección de red y puros bits 0 en aquellos bits que componen la dirección de host.
Por lo tanto, las máscaras de subred por defecto asociadas a cada Clase de dirección son las siguientes:
Clase de Máscara de
dirección subred
por defecto
Clase A 255.0.0.0
Clase B 255.255.0.0
Clase C 255.255.255.0
Estas direcciones especiales son las direcciones de red y las direcciones de difusión o broadcast.
Direcciones de red
Una dirección de difusión es aquella que conserva la dirección de red asignada pero en la porción de
host presenta todos los bits con valores 0.
Direcciones de difusión
Una dirección de difusión es aquella que conserva la dirección de red asignada pero en la porción de
host presenta todos los bits con valores 1.
La dirección de difusión o difusión dirigida permite direccionar a todas las máquinas dentro de la red
especificada. Es un direccionamiento muy útil, ya que con un solo paquete es posible enviar el mismo
mensaje a todos los dispositivos de una red.
Direcciones privadas
En cada clase de dirección IP hay ciertas direcciones reservadas para su utilización en redes privadas y
no es posible asignar dichas direcciones a dispositivos que se encuentran conectados a Internet. Estas
direcciones se denominan direcciones privadas, en contraste con las denominadas direcciones públicas,
que son las utilizadas en Internet.
Las direcciones privadas pueden ser utilizadas dentro de una organización para la comunicación
interna. Cuando los dispositivos con estas direcciones necesitan conectarse a Internet, las direcciones
pueden ser traducidas a direcciones públicas utilizando una técnica denominada NAT (Network Address
Translation – Traducción de direcciones de red) o utilizando un servidor proxy, que cuenta con una
dirección pública y se encarga de realizar las peticiones del host con dirección privada y le devuelve las
respuestas.
Los paquetes con direcciones destino dentro de los intervalos de direcciones privadas no son
reenviados a través de Internet.
Clase de Intervalo de
dirección direcciones privadas
IP
Clase C 192.168.0.0 –
192.168.255.255
Subredes
Introducción
La jerarquía original de dos niveles (Red y Host) de una dirección IP suponía que cada organización sólo
tendría una red.
Sin embargo, muchas organizaciones comenzaron a plantear la necesidad de contar con varias redes
para dividir en forma lógica las organizaciones. Además, los administradores de las redes con gran
cantidad de hosts se encontraban con grandes dominios de colisión (toda la red lógica mapeada a una
red física), ya que no era posible dividir físicamente la red por no existir un mecanismo de
comunicación lógica entre los dispositivos que queden en cada red física.
La solución a estos problemas fue dividir las redes originales en redes lógicas en forma jerárquica y
enrutar entre ellas.
Desde el punto de vista de Internet, las organizaciones con múltiples redes lógicas se deberían tratar
como una única red.
Las redes lógicas en que se divide una red original recibe el nombre de subredes. Las subredes suponen
la introducción de un tercer nivel en la jerarquía de direccionamiento IP.
Mecanismo
Para crear subredes, un administrador toma “prestados” bits de la porción de host. La cantidad de bits
que el administrador tomará prestados de la porción de host variará en función de la cantidad de
subredes que desea direccionar o la cantidad de hosts por subred que tiene que individualizar.
Para tomar prestados bits de la porción de hosts, simplemente debe cumplir con algunas reglas muy
simples.
La primera regla a considerar al tomar prestados bits de la porción de host es que deben quedar un
mínimo de dos bits para direccionar los hosts dentro de la subred. Esto es porque si sólo queda un bit
en la porción de host, sólo habrá disponible dos direcciones. Éstas son las direcciones 0 y 1, que como
se mencionó antes, todos ceros en la porción de host representa una dirección de red y todos 1 en la
porción de host de una dirección representa una dirección de difusión. Con dos o más bits en la porción
de host, es posible utilizar direcciones para los dispositivos, como así también las direcciones de red y
difusión. Por ejemplo, si quedan dos bits en la porción de host, quedan cuatro direcciones posibles, de
las cuales 2 son utilizables para asignar a los hosts.
00 Dirección de red
01 Host 1 de la
subred
10 Host 2 de la
subred
11 Dirección de
difusión
A medida que quedan más bits en la porción de hosts, se incrementa la cantidad de direcciones
utilizables por los hosts. Si quedan 3 bits, es posible crear ocho direcciones, pero sólo seis son
utilizables (nuevamente, 000 es la dirección de sured y 111 es la dirección de difusión dentro de la
subred). En general, si quedan n bits en la porción de host, se obtendrá:
2n = direcciones
Direcciones utilizables se denomina a todas aquellas direcciones que pueden ser asignadas a las
interfaces de red de los dispositivos.
La otra regla que hay que tener en cuenta, es que como mínimo, se deben pedir prestados dos bits a la
porción de host para crear las subredes. El problema de pedir sólo un bit significa que se podrán crear
sólo dos subredes: la subred 0 y la subred 1. Si se quiere hacer referencia a la dirección de red de la
subred 0, significa que tendrá puros ceros en la porción de subred. Esto ocasiona una confusión que no
permite determinar si se trata de la dirección de red de la subred o la dirección de red de la Clase
original. En forma similar, si se quiere realizar una difusión en la subred 1, se colocarán todos unos en la
porción de host, lo que provoca una confusión para determinar si se trata de una difusión dentro de la
subred o una difusión dentro de la red de Clase original.
Esta regla se sigue aplicando si se toman prestados dos o más bits en la porción de hosts. Es decir, las
direcciones de subred que tienen puros ceros o puros unos no son utilizadas. Por lo tanto, si por
ejemplo se piden prestados dos bits a la porción de host para crear subredes, se crearán cuatro posibles
subredes de las cuales sólo dos son utilizables.
En general, la cantidad de subredes que se pueden identificar si se piden prestados n bits de la porción
de host, serán:
2n – 2 = direcciones utilizables
Utilizando las fórmulas que determinan la cantidad de direcciones de host utilizables y la cantidad de
direcciones de subred utilizables, un administrador puede pedir prestados los bits a la porción de host
que satisfagan sus necesidades.
Por ejemplo, un administrador puede necesitar dividir la red en 10 subredes. Si toma prestados 3 bits,
obtendrá:
23 – 2 = 6 direcciones utilizables
Si un administrador, en vez de tener en cuenta la cantidad de subredes, debe considerar por ejemplo
que debe asignar 500 hosts por subred, utilizando la fórmula de la cantidad de hosts utilizables tendrá:
lo que significa que dejando en la porción de host 9 bits cumplirán con sus objetivos.
Máscaras de subred
Cuando una red se segmenta, es decir, se divide en subredes, se utilizan dispositivos para interconectar
dichas subredes. Estos dispositivos son routers.
Es necesario identificar unívocamente cada uno de los segmentos. Como todos los segmentos tienen la
misma dirección de red, se hace evidente la necesidad de un mecanismo que diferencie los distintos
segmentos y permita a los routers reenviar los paquetes a la subred de destino correcto. Este
mecanismo es la máscara de subred.
Una máscara de subred tiene el mismo formato de una dirección IP. Esta conformada por 32 bits y se
utiliza para identificar en una dirección IP dos partes: la porción de red y subred y la porción de host.
Una máscara de subred tiene todos los bits en 1 en la porción correspondiente a la red y a la subred y
todos los bits en 0 en la porción de la dirección correspondiente al host.
Por ejemplo, si el administrador obtiene la dirección de clase C 180.32.5.0 con máscara por defecto
255.255.255.0 y decide tomar tres bits para dividir en subredes, la máscara de subred correspondiente
es 255.255.255.224 (los tres primeros octetos con 1 correspondientes a la porción de red y el cuarto
octeto, representando los tres bits en 1 de la subred y los cinco bits en 0 del host –11100000–).
Al tomar prestados 3 bits a la porción de hosts, se podrán crear la siguiente cantidad de subredes:
23 – 2 = 6 direcciones utilizables
25 – 2 = 30 direcciones utilizables
(cuarto octeto)
1 00100000 180.32.5.32
2 01000000 180.32.5.64
3 01100000 180.32.5.96
4 10000000 180.32.5.128
5 10100000 180.32.5.160
6 11000000 180.32.5.192
Ruteo
Introducción
En un sistema de conmutación de paquetes, el enrutamiento es e proceso de selección de una ruta
sobre la que se mandarán paquetes y el router es el dispositivo computacional que realiza la selección.
El objetivo del protocolo IP es proporcionar una red virtual que comprenda múltiples redes físicas, así
como ofrecer un servicio sin conexión de entrega de paquetes.
Cuando este router está conectado a una red LAN, se configura en las computadoras de la red como el
gateway o puerta de enlace. El gateway es el próximo salto de una computadora cliente, la cual le
enviará todos los paquetes cuya dirección destino no se encuentre en la misma red lógica.
Para transmitir un paquete, el origen determina si el destino se encuentra en la misma red. Para esto, el
dispositivo origen utiliza la porción de red (y subred si la hubiera) de su propia dirección IP y la del
destino. Si esta dirección de red es la misma, el emisor encapsula el paquete dentro de una trama,
obtiene la dirección física correspondiente al dispositivo que tiene la dirección IP destino y utiliza la red
para entregar los datos.
Entrega indirecta
En una entrega indirecta, los hosts origen y destino no se encuentran en la misma red física y tampoco
en la misma red lógica.
Cuando el emisor va a transmitir un paquete, determina la red a la que pertenece el host destino. Para
esto, verifica la porción de red – subred de su dirección IP y la correspondiente al destino. Si las
porciones de red – subred son distintas, el emisor determina que debe realizar una entrega indirecta.
Una entrega indirecta involucra siempre un router para enviar el paquete. Este router es conocido por
el host origen, porque es uno de los parámetros de configuración de red. Habitualmente se conoce
como puerta de enlace, gateway por defecto o simplemente gateway.
Una vez que el emisor determinó que debe utilizar una entrega indirecta, debe enviar el paquete al
destino a través del gateway. Como la dirección IP destino no puede cambiar en el paquete, ya que si
cambia los routers no sabrán dónde enviar el paquete, el emisor debe ingeniárselas para enviar el
paquete al router sin cambiar la dirección IP destino. Para esto, el host origen encapsula el paquete en
una trama cuya dirección física es la del gateway en lugar de la dirección física del destino.
Cuando el gateway recibe la trama, desencapsula el paquete y lee la dirección IP destino para
determinar la mejor ruta para reenviar el paquete a través de las redes hasta el destino.
El algoritmo usual de enrutamiento IP utiliza una tabla de enrutamiento en cada máquina que almacena
información sobre posibles destinos y sobre cómo alcanzarlos. Tanto los routers como los hosts tienen
tablas de enrutamiento.
Por este motivo, las tablas de enrutamiento utilizan la porción de red de una dirección de destino en
vez de toda la dirección de host. De esta forma, el enrutamiento es eficiente y se mantienen reducidas
las tablas.
Una tabla de enrutamiento contiene pares de información del tipo (N,R), donde N es la dirección de
red destino y R es la dirección IP del siguiente router en el camino hacia la red N. La dirección de red
destino siempre debe estar acompañada de la máscara de subred asociada.
Cada registro en una tabla de enrutamiento apunta hacia un router que se puede alcanzar
a través de una sola red.
30.0.0.0 20.1.1.2
10.0.0.0 20.1.1.1
40.0.0.0 30.1.1.2
10.0.0.0 30.1.1.1
20.0.0.0 30.1.1.1
Cuando un paquete IP llega a un host, el software de interfaz de red lo entrega al software IP para su
procesamiento. Si la dirección de destino del paquete corresponde a la dirección IP del host, el software
IP del host acepta el paquete y lo pasa al software de protocolo de capa superior, para su
correspondiente procesamiento. Si la dirección de destino no corresponde a la dirección del host, se
descarta el paquete.
A diferencia de los hosts, los routers manipulan los paquetes en forma diferente. Cuando llega un
paquete IP, el router lo entrega al software IP. En la determinación del destino del paquete surgen dos
Un router, para enrutar un paquete de datos, primero debe determinar la dirección de red o subred de
destino.
Para llevar a cabo estas operaciones, los dispositivos realizan un AND lógico utilizando la dirección IP
del destino y la máscara de subred de esa red.
Por ejemplo, suponga una red de Clase B con el número de red 172.16.0.0 a la cual se le piden 8 bits a
la porción de host para crear subredes. Con esto, la máscara de subred es 255.255.255.0.
Ahora, alguien desde fuera de esta red, envía datos a la dirección 172.16.2.120. Para determinar dónde
entregarlos, el router efectúa un AND de esta dirección con la máscara de subred.
Dir. IP del
10101100
host 00000010 01111000
00010000
172.16.2.120
Másc. de
subred 11111111
11111111 00000000
11111111
255.255.255.0
10101100
00010000 00000010 00000000
Subred
172 2 0
16
Una vez efectuada la operación, la parte de host del resultado siempre es 0. Lo que queda a la izquierda
es el número de red – subred. De esta manera, los datos se envían a la subred 172.16.2.0 y sólo el
router final entrega el paquete al host 120 de esa subred.
Dispositivos
Routers
Un router es un dispositivo que trabaja a nivel de capa de red del modelo OSI.
Un router, al funcionar en la capa 3, puede tomar decisiones basadas en direcciones de la capa de red.
También pueden conectar distintas tecnologías de capa 2, como por ejemplo, Ethernet y Token Ring.
Sin embargo, es la habilidad para enrutar paquetes basándose en la información de capa de red, los
routers se han transformado en la columna vertebral (backbone) de Internet, ejecutando el protocolo
IP.
El propósito de un router es examinar los paquetes entrantes (datos de capa 3), elegir cuál es la mejor
ruta para ellos a través de la red y luego conmutarlos hacia el puerto de salida adecuado.
Trabajan a nivel de red del modelo OSI, por tanto trabajan con direcciones IP.
Habitualmente se utilizan para conectar una red de área local a una red de área extensa.
Son capaces de elegir la ruta más eficiente que debe seguir un paquete en el momento de recibirlo.
Cuando llega un paquete al router, éste examina la dirección destino y lo envía hacia allí a través de una
ruta determinada.
Si la dirección destino pertenece a una de las redes que el router interconecta, entonces envía el
paquete directamente a ella; en otro caso enviará el paquete a otro router más próximo a la dirección
destino.
Para saber el camino por el que el router debe enviar un paquete recibido, examina sus propias tablas
de enrutamiento.
Cada segmento de red conectado a través de un router tiene una dirección de red diferente.
Protocolos de enrutamiento
Un protocolo de enrutamiento es un protocolo que soporta un protocolo enrutado y que proporciona
mecanismos para compartir información de enrutamiento. Los mensajes del protocolo de
enrutamiento se mueven entre routers. Un protocolo de enrutamiento permite que los routers se
comuniquen entre ellos para actualizar y mantener las tablas de enrutamiento. Ejemplos de protocolos
de enrutamiento son RIP (Routing Information Protocol – Protocolo de información de enrutamiento) y
OSPF (Open Shortest Path First – Primero la ruta libre más corta)
Enrutamiento estático
El enrutamiento estático se produce cuando el administrador de red introduce la información de ruta
en una tabla de enrutamiento en forma manual. Este tipo de rutas se denominan estáticas.
Este tipo de rutas son útiles cuando el administrador quiere controlar la ruta seleccionada por el router.
Otro escenario donde las rutas estáticas son útiles es en aquel donde sólo existe un enlace entre el
origen y el destino. Este tipo de redes se conocen como red de conexión única y la ventaja de utilizar
rutas estáticas reside en disminuir la sobrecarga innecesaria que introduciría un protocolo dinámico
para intercambiar información.
La desventaja de la utilización de rutas estáticas es que el administrador tiene que estar continuamente
actualizando todas las tablas de enrutamiento ante cualquier cambio que se produzca en la topología.
Enrutamiento dinámico
Los routers pueden conocer la información de las rutas en forma automática mediante protocolos de
enrutamiento. Estas rutas se denominan dinámicas.
El enrutamiento dinámico tiene lugar cuando los routers se envían mensajes periódicos de
actualización de enrutamiento unos a otros. Cada vez que un router recibe una actualización de
enrutamiento que contiene información nueva, calcula de nuevo cuál es la ruta óptima y envía esta
información nueva y actualizada a los demás routers.
ARP
Relación entre direcciones IP y direcciones MAC
Se debe relacionar la dirección IP con la dirección física correspondiente a la interfaz que tiene la
dirección IP mencionada.
Esto es necesario porque en la jerarquía de niveles utilizada por TCP/IP, se observa que por debajo del
protocolo IP (capa de Interred) existe el nivel de acceso a la red, que utiliza direcciones MAC.
El funcionamiento del protocolo ARP es bastante simple. Cuando un dispositivo desea enviar un
mensaje a otro dispositivo que está conectado a través de la misma red físico y lógica, se encuentra con
un problema: la dirección IP del dispositivo en cuestión es diferente a la dirección física de la misma. El
dispositivo que quiere enviar el mensaje sólo conoce la dirección IP del destino, por lo que tendrá que
encontrar un modo de traducir la dirección IP a la dirección física. Esto se hace con el protocolo ARP.
Este protocolo utiliza una tabla denominada Tabla de Direcciones ARP, que contiene la correspondencia
entre direcciones IP y direcciones físicas utilizadas recientemente. Si la dirección solicitada se encuentra
Si la dirección buscada no esta en la tabla el protocolo ARP envía un mensaje a toda la red (broadcast o
difusión). Este mensaje es visto por todos los dispositivos conectados a la red y cuando un dispositivo
reconoce su dirección IP envía un mensaje de respuesta que contiene la dirección física. Cuando el
dispositivo origen recibe este mensaje ya puede establecer la comunicación con el destino, y esta
dirección física se guarda en la Tabla de direcciones ARP.
ICMP
Introducción
Internet es un sistema autónomo que no dispone de ningún control central.
El protocolo ICMP (Internet Control Message Protocol – Protocolo de Mensajes de Control de Internet),
proporciona el medio para que el software de hosts y routers intermedios se comuniquen.
La implementación de ICMP es obligatoria como un subconjunto lógico del protocolo IP. Los mensajes
de error de este protocolo los genera y procesa TCP/IP, y no el usuario.
Tipo
Código
Checksum
Otras variables
0 Respuesta de Eco
3 Destino Inalcanzable
8 Solicitud de eco
Solicitud de Eco
Un host puede comprobar si otro host es operativo enviando una solicitud de eco. El receptor de la
solicitud la devuelve a su origen.
Esta aplicación recibe el nombre de Ping. Esta utilidad encapsula la solicitud de eco del ICMP (tipo 8) en
un paquete IP y lo manda a la dirección IP destino.
El receptor de la solicitud de eco intercambia las direcciones del paquete IP, cambia el código de tipo de
mensaje a 0 y lo devuelve al origen.
El valor del campo tipo es 3, y el error viene determinado por un campo código que lo identifica.
Código Descripción
0 Red no alcanzable
1 Host no alcanzable
2 Protocolo no alcanzable
3 Puerto no alcanzable
Control de flujo
Para contener los paquetes IP, un router dispone de un buffer. Si el número de paquetes es grande, el
buffer se satura.
En este momento el router descarta todos los mensajes que recibe hasta que obtiene un nivel de buffer
aceptable. Cada paquete descartado hace que el router mande un mensaje ICMP de control de flujo al
origen. Esto informa de que un mensaje ha sido descartado.
Originalmente el mensaje ICMP de control de flujo se enviaba cuando el buffer estaba lleno, pero esto
llegaba demasiado tarde, y el sistema ya estaba saturado.
Posteriormente el router verifica si el valor del campo es 0. Cuando se detecta un 0, el router manda un
mensaje de error ICMP y descarta el paquete.
Errores de parámetros
Un error de parámetros se produce cuando el dispositivo origen del paquete, lo construye mal, o el
paquete está dañado.
El protocolo NTP (Network Time Protocol – Protocolo de tiempo de red), puede utilizarse para marcar
el tiempo inicial, y puede guardar la sincronización en milisegundos del reloj.
Tipo
Código
Checksum
Identificador
El tipo de mensaje es igual a 13 para el origen y 14 para el host remoto. El código es igual a cero. El
identificador y el número de secuencia se usan para identificar la respuesta. El Fecha y hora original es
el tiempo en el que el emisor inicia la transmisión, el Fecha y hora receptor es el tiempo inicial en el que
el receptor recibe el mensaje. El Fecha y hora de transmisión es el tiempo en que el receptor inicia el
retorno del mensaje.
Mascara de subred
Cuando un Host quiere conocer la mascara de subred de una LAN física, puede mandar una solicitud
ICMP de mascara de subred.
El valor del campo tipo es 17 para la solicitud de mascara de subred y 18 para la respuesta. El código es
0, y el identificador y el número de secuencia se utilizan para identificar la respuesta.
8. Capa de transporte
Introducción
Fundamentos de la capa de transporte
La tarea de la capa de transporte es transportar los datos en forma confiable desde el dispositivo origen
al destino, independientemente de la red o redes físicas en uso.
Como se vio anteriormente, la capa de red aporta un servicio de entrega de paquetes sin conexión y no
confiable, que forma la base para toda la comunicación en red de redes.
Los paquetes se pueden perder o destruir cuando los errores de transmisión interfieren los datos,
cuando falla el hardware de red o cuando las redes se sobrecargan.
Las redes que rutean dinámicamente los paquetes pueden entregarlos en desorden, con retraso o
duplicados.
En el otro extremo, los programas de aplicación generalmente necesitan enviar grandes volúmenes de
datos entre el origen y el destino. Un sistema de entrega sin conexión y no confiable requiere que los
programas incorporen, en cada programa de aplicación, la detección y solución de errores.
Para implementar estas características de flujo confiable se establece entre los dispositivos extremos
un circuito virtual de capa de transporte.
No es suficiente con indicar la dirección IP del destino, además hay que especificar la aplicación que
recibirá el mensaje. Cada aplicación que esté esperando un mensaje utiliza un número de puerto
distinto. Más concretamente, la aplicación está a la espera de un mensaje en un puerto determinado
(escuchando en un puerto).
Pero no sólo se utilizan los puertos para la recepción de mensajes, también para el envío. Todos los
mensajes que envíe una computadora debe hacerlo a través de uno de sus puertos.
Circuito virtual
Antes de comenzar la transferencia de datos, los programas de aplicación, transmisor y receptor
interactúan informándose de la necesidad de realizar dicha transferencia. Conceptualmente, una
aplicación realiza una llamada que la otra tiene que aceptar. Los protocolos de capa de transporte en
los dos sistemas se comunican al enviarse mensajes a través de una red de redes, verificando que la
transferencia esté autorizada y que los dos extremos estén listos. Una vez que se establecen todos los
detalles, el protocolo informa a los programas de aplicación que se estableció una conexión y que la
transferencia puede comenzar.
Se utiliza el término circuito virtual para describir dichas conexiones porque aunque los programas de
aplicación visualizan la conexión como un circuito dedicado de hardware, la confiabilidad que se
proporciona depende del servicio de entrega de flujo.
Segmentación y secuenciamiento
Los programas de aplicación envían un flujo de datos a través del circuito virtual pasando
repetidamente octetos de datos al protocolo de capa de transporte.
Cuando transfieren datos, cada aplicación utiliza piezas del tamaño que encuentre adecuado, que
pueden ser tan pequeñas como un octeto o tan grandes como millones de bytes.
En el extremo receptor, la capa de transporte entrega octetos del flujo de datos en el mismo orden en
que se enviaron, poniéndolos a disposición del programa de aplicación receptor tan pronto como se
reciben y verifican.
Para hacer eficiente la transferencia y minimizar el tráfico de red, las implementaciones por lo general
recolectan datos suficientes de un flujo para llenar un paquete razonablemente largo antes de
transmitirlo a través de una red de redes. Por lo tanto, inclusive si el programa de aplicación genera el
flujo un byte a la vez, la transferencia a través de una red de redes puede ser sumamente eficiente. De
forma similar, si el programa de aplicación genera bloques de datos muy largos, la capa de transporte
puede dividir cada bloque en partes más pequeñas para su transmisión.
Para aplicaciones en las que los datos se deben entregar aunque no se complete un segmento, la capa
de transporte proporciona un mecanismo de empuje (push) que las aplicaciones utilizan para forzar una
transferencia. En el extremo transmisor, un empuje obliga a la capa de transporte a transferir todos los
datos generados sin tener que esperar a que se llene un segmento. Cuando llega al receptor, el empuje
hace que el protocolo ponga los datos a disposición de la aplicación sin demora.
Desde el punto de vista de un proceso de aplicación, una conexión full duplex consiste en dos flujos
independientes que se mueven en direcciones opuestas, sin ninguna interacción aparente.
El servicio de flujo permite que un proceso de aplicación termine el flujo en una dirección mientras los
datos continúan moviéndose en la otra dirección, haciendo que la conexión sea half duplex.
La ventaja de una conexión full duplex es que la capa de transporte puede enviar información de
control de flujo al origen, llevando datos en la dirección opuesta. Este procedimiento de carga,
transporte y descarga reduce el tráfico en la red.
Establecimiento de conexión
La fase de establecimiento de conexión es a primera vista un procedimiento simple. En principio
bastaría que un host enviara un mensaje solicitando una conexión al destino y esperara una respuesta
aceptando la conexión.
Este procedimiento simple se complica cuando se está en presencia de una red que puede perder,
almacenar o duplicar mensajes.
Los problemas de almacenamiento y duplicación de los mensajes se deben a que una red puede estar
congestionada y que los reconocimientos no lleguen a tiempo, y cada mensaje termina de temporizar y
se retransmite dos o tres veces. Además, si estamos en una red de datagramas, cada paquete sigue una
ruta diferente y algunos de estos datagramas podrían atorarse en un congestionamiento de tráfico y
tardar mucho tiempo en llegar, es decir, se almacenarían en la red y reaparecerían mucho después.
Los mayores problemas surgen de la existencia de duplicados retrasados (la combinación de una red
que pueda almacenar y duplicar paquetes). Supongamos el siguiente ejemplo. Un usuario establece una
conexión con un servidor, envía mensajes para realizar cierta función y libera la conexión.
Desafortunadamente, cada mensaje se duplica y almacena en la red. Tras liberar la conexión, todos los
mensajes llegan al destino en orden, solicitando una nueva conexión, ejecutar nuevamente la función
antes realizada y la liberación de la conexión. El servidor no tiene manera de saber que estos mensajes
son duplicados y ejecuta una función determinada dos veces.
Para resolver el problema se sugiere equipar a cada host con un reloj. Los relojes de los diferentes hosts
no necesitan estar sincronizados. Este reloj se implementa de la forma de un contador binario que se
incrementa a intervalos uniformes y se supone que continúa operando aun ante la caída de un host.
Además, la cantidad de bits del contador debe ser igual o mayor que la cantidad de bits en los números
de secuencia.
La idea básica es asegurar que nunca estén pendientes dos mensajes de número idéntico al mismo
tiempo. Cuando se establece una conexión, el número de bits del reloj se usan como número inicial de
secuencia. Así, cada conexión comienza a numerar sus mensajes con un número de secuencia
diferente. El espacio de secuencia también debe ser lo bastante grande para que, al dar la vuelta los
números de secuencia, los mensajes viejos con el mismo número de secuencia hayan desaparecido.
Transferencia de datos
Una vez que ambos hosts han acordado el número de secuencia inicial, se procede al intercambio de
datos entre los mismos.
En esta etapa es muy importante el buffer del que dispone cada host para almacenar los distintos
mensajes que llegan desordenados y el número de secuencia para reordenarlos y entregarlos a las
capas superiores.
Para garantizar esto, la mayor parte de los protocolos confiables utilizan una técnica fundamental
conocida como acuse de recibo positivo con retransmisión. La técnica requiere que un receptor se
comunique con el origen y le envíe un mensaje de acuse de recibo (ACK) a medida que recibe los datos.
El transmisor guarda un registro de cada paquete que envía y espera un acuse de recibo antes de enviar
el siguiente mensaje. El transmisor arranca un temporizador cuando envía un paquete y lo retransmite
si dicho temporizador expira antes de que llegue un acuse de recibo.
En este caso, los datos fluyen entre las máquinas en una dirección a la vez, inclusive si la red tiene
capacidad para comunicación simultánea en ambas direcciones y la red tendrá grandes tiempos ociosos
durante el tiempo en que las máquinas retrasen sus respuestas.
En respuesta a esto surge la técnica de ventana deslizante, que es una forma más compleja de acuse de
recibo positivo y retransmisión que el método anterior. Los protocolos de ventana deslizante utilizan el
ancho de banda de red de mejor forma, ya que permiten que el transmisor envíe varios paquetes sin
esperar un acuse de recibo.
Un mensaje es no reconocido o sin acuse de recibo si se transmitió pero no se recibió ningún acuse de
recibo. Técnicamente, el número de paquetes sin acuse de recibo en un tiempo determinado depende
del tamaño de la ventana y está limitado a un número fijo.
El problema final de confiabilidad surge cuando un sistema de entrega de paquetes los duplica. Los
duplicados también pueden surgir cuando las redes tienen grandes retrasos que provocan la
retransmisión prematura. La solución de la duplicación consiste en asignar a cada uno de los mensajes
un número de secuencia y al obligar al receptor a recordar qué números de secuencia recibe. Para
evitar la confusión causada por acuses de recibo retrasados o duplicados, los protocolos de acuses de
Debido a que se utiliza el acuse de recibo de expectativa, el número de secuencia que se envía en el
acuse corresponde al byte siguiente esperado.
Liberación de conexión
Una vez finalizado el intercambio de datos se procede a liberar los recursos utilizados durante la
conexión.
Hay dos estilos para la liberación de una conexión: liberación asimétrica y liberación simétrica.
La liberación asimétrica es similar al funcionamiento del sistema telefónico. Cuando uno de los
extremos cuelga, la comunicación termina. La liberación asimétrica es abrupta y puede resultar en la
pérdida de datos.
TCP
El protocolo de control de transmisión (TCP) pertenece al nivel de transporte, siendo el encargado de
dividir el mensaje original en datagramas de menor tamaño, y por lo tanto, mucho más manejables. Los
datagramas serán dirigidos a través del protocolo IP de forma individual. El protocolo TCP se encarga
además de añadir cierta información necesaria a cada uno de los datagramas. Esta información se
añade al inicio de los datos que componen el datagrama en forma de cabecera.
Cuando la información se divide en datagramas para ser enviados, el orden en que éstos lleguen a su
destino no tiene que ser el correcto. Cada uno de ellos puede llegar en cualquier momento y con
cualquier orden, e incluso puede que algunos no lleguen a su destino o lleguen con información
errónea. Para evitar todos estos problemas el TCP numera los datagramas antes de ser enviados, de
manera que sea posible volver a unirlos en el orden adecuado. Esto permite también solicitar de nuevo
el envío de los datagramas individuales que no hayan llegado o que contengan errores, sin que sea
necesario volver a enviar el mensaje completo.
• Confiable
• Orientado a la conexión
• Brinda control de flujo
• Divide y reensambla mensajes
• Reenvía segmentos perdidos
UDP
El protocolo de datagramas de usuario (UDP) puede ser la alternativa al TCP en algunos casos en los
que no sea necesario el gran nivel de complejidad proporcionado por el TCP. Puesto que UDP no
admite numeración de los datagramas, éste protocolo se utiliza principalmente cuando el orden en que
se reciben los mismos no es un factor fundamental, o también cuando se quiere enviar información de
poco tamaño que cabe en un único datagrama.
• Poco confiable
• No orientado a la conexión
• Transmite mensajes (denominados datagramas de usuario)
• No reensambla los mensajes entrantes
• No proporciona control de flujo
Números de puerto
Tanto TCP como UDP usan números de puerto (o socket) para enviar información a las capas superiores.
Los números de puerto se usan para mantener un seguimiento de las distintas conversaciones que
atraviesan la red al mismo tiempo.
Después de que IP pase los datos que llegan al protocolo de transporte, éste pasa los datos al proceso
de aplicación correcto. Los procesos de aplicación (también llamado servicios de red) se identifican por
los números de puerto, que son valores de 16-bits. El número de puerto origen, que identifica al
proceso que envía los datos, y el número de puerto destino, que identifica el proceso que recibe los
datos están contenidos en los primeros 32 bits del encabezado de cada segmento TCP y cada
datagrama UDP.
Los números de puerto menores que 255 están reservados para servicios bien conocidos (Well-known)
como FTP o TELNET y están definidos en el RFC Assigned Numbers. Los puertos numerados del 256 al
1023 se usan para servicios específicos, en general servicios UNIX o servicios propietarios, como por
ejemplo rlogin, que fue desarrollado originalmente para los sistemas UNIX.
Rango Utilización
Los números de puerto no son únicos entre los protocolos del nivel de transporte. Los números son
únicos solamente dentro de un protocolo de transporte específico. En otras palabras, TCP y UDP
pueden, y de hecho lo hacen, asignar los mismos números de puerto. Es la combinación de números de
protocolo y de puerto lo que identifica unívocamente el proceso específico al que deben ser entregados
los datos.
Los desarrolladores de software de aplicación han acordado utilizar los números de puerto conocidos
que se definen en RFC1700.
0
RESERVADO.
1 TCPMUX
Multiplexor TCP.
7 ECHO Eco.
9 DISCARD Descartar.
37 TIME Hora.
79 FINGER Finger.
160-
Reservado.
223
0 Reservado.
7 ECHO
ECO.
9 DISCARD Descartar.
37 TIME Hora.
Los puertos bien conocidos (well-known) son números de puerto estandarizados que permiten que
computadoras remotas puedan saber a qué puerto conectarse para un servicio particular de red. Esto
simplifica el proceso de conexión porque tanto el emisor como el receptor saben de antemano que los
datos dirigidos a un proceso específico usarán un puerto específico. Por ejemplo, todos los sistemas
que ofrecen TELNET, lo ofrecen en el puerto 23.
Otro tipo de número de puerto es el llamado puerto asignado dinámicamente. Como su nombre indica,
los puertos asignados dinámicamente no son asignados previamente. Son asignados a los procesos
cuando se necesitan. El sistema se asegura de que el mismo número de puerto no se asigne a dos
procesos, y de que los números asignados están por encima del rango de números de puerto estándar,
es decir, por encima de 1023.
Los puertos asignados dinámicamente proporcionan la flexibilidad necesaria para soportar múltiples
usuarios. Si a un usuario de TELNET se le asigna el número de puerto 23 tanto para el puerto origen
como para el puerto destino, ¿qué número de puerto se le asignará a un segundo usuario de TELNET
que lo utilice concurrentemente? Para identificar unívocamente cada conexión, el puerto origen se
Internet. A veces se intercambian los términos "socket" y "número de puerto". De hecho, los servicios
bien conocidos son frecuentemente llamados
TCP
Introducción
En sus inicios ARPANET usaba un servicio de red por circuito virtual perfecto y sobre él se utilizaba el
Network Control Protocol (NCP). Con el tiempo, al irse añadiendo redes a esta red básica, los mensajes
tenían que viajar por redes LANs, canales de radio, satélite, etcétera, y la fiabilidad extremo a extremo
de NCP se demostró insuficiente.
Gradualmente se hicieron cambios que dieron lugar a TCP (Transmission Control Protocol), diseñado
para tolerar redes no fiables.
En todas las implementaciones actuales TCP funciona sobre el protocolo de red IP, pero nada impide
que TCP funcione sobre otro nivel de red similar.
Una entidad de transporte en TCP acepta mensajes arbitrariamente largos de los procesos del usuario,
los fragmenta en partes de no más de 64 Kbytes y envía cada parte como un paquete IP separado.
En TCP cada octeto posee su número de secuencia privado. El espacio de números de secuencia es de
32 bits, para asegurar que al reutilizar un número, los viejos duplicados estén desaparecidos. TCP trata
explícitamente los duplicados viejos que puedan aparecer al abrir una conexión usando Saludo de Tres
Vías (TWH – Three Way Handshake).
• Puertos origen y destino: estos campos contienen respectivamente los números de puerto TCP que
identifican a los programas de aplicación en los extremos de la conexión. Cada uno es de una longitud
de 16 bits.
• Número de secuencia: este campo identifica la posición de la cadena (stream) de bytes de datos del
emisor en el segmento.
• Número de reconocimiento (ACK): este campo identifica el siguiente número de byte que el destino
espera recibir. Una vez que se establece la conexión, siempre se enviará el reconocimiento.
• OFFSET: este campo contiene un entero que especifica la longitud del segmento cabecera medido
en múltiplos de 32 bits. Esto es necesario ya que el campo Opciones varía en longitud dependiendo de
En cualquier caso el tamaño del encabezado del segmento debe ser múltiplo de 32 bits, por lo que
puede ser necesario añadir un campo de tamaño variable y que contenga ceros al final para conseguir
este objetivo cuando se incluyen algunas opciones. El campo de tamaño contiene la longitud total de la
cabecera TCP expresada en el número de palabras de 32 bits que ocupa. Esto permite determinar el
lugar donde comienzan los datos.
Dos campos incluidos en la cabecera y que son de especial importancia son los números de puerto de
origen y puerto de destino. Los puertos proporcionan una manera de distinguir entre las distintas
transferencias, ya que una misma computadora puede estar utilizando varios servicios o transferencias
simultáneamente, e incluso puede que por medio de usuarios distintos. El puerto de origen contendrá
un número cualquiera que sirva para realizar esta distinción. Además, el programa cliente que realiza la
petición también debe conocer el número de puerto en el que se encuentra el servidor adecuado.
Confiabilidad TCP
En la transmisión de datos a través del protocolo TCP la confiabilidad es un factor muy importante. Para
poder detectar los errores y pérdida de información en los mensajes, es necesario que el cliente envíe
de nuevo al servidor unas señales de confirmación una vez que se ha recibido y comprobado la
información satisfactoriamente.
También puede ocurrir que la información del mensaje llegue con errores a su destino. Para poder
detectar cuando sucede esto se incluye en la cabecera un campo de 16 bit, el cual contiene un valor
calculado a partir de la información del mensaje completo (checksum). En el otro extremo el receptor
vuelve a calcular este valor, comprobando que es el mismo que el suministrado en la cabecera. Si el
valor es distinto significaría que el datagrama es incorrecto, ya que en el encabezado o en la parte de
datos del mismo hay algún error.
Números de secuencia
La forma en que TCP numera los segmentos es contando los bytes de datos que contiene cada uno de
ellos y añadiendo esta información al campo correspondiente de la cabecera del segmento siguiente.
De esta manera el primero empezará por cero, el segundo contendrá un número que será igual al
tamaño en bytes de la parte de datos del segmento anterior, el tercero con la suma de los dos
anteriores, y así sucesivamente.
Control de flujo
Existe otro factor más a tener en cuenta durante la transmisión de información, y es la potencia y
velocidad con que cada uno de las computadoras puede procesar los datos que le son enviados. Si esto
no se tuviera en cuenta, la computadora de más potencia podría enviar la información demasiado
rápido al receptor, de manera que ésta no pueda procesarla.
TCP utiliza en realidad una técnica denominada ventana deslizante. La parte "deslizante" de la ventana
deslizante, se refiere al hecho de que el tamaño de la ventana se negocia de forma dinámica durante la
sesión TCP. Esto da como resultado un uso muy eficiente del ancho de banda por parte de los hosts.
El uso de ventanas es un mecanismo de control de flujo que requiere que el dispositivo origen reciba un
acuse de recibo desde el destino después de transmitir una cantidad determinada de datos. Por
ejemplo, con un tamaño de ventana de tres, el dispositivo origen puede enviar tres octetos al destino.
Entonces debe esperar un acuse de recibo. Si el destino recibe los tres octetos, envía un acuse de recibo
al dispositivo origen, que ahora puede transmitir otros tres octetos. Si, por algún motivo, el destino no
recibe los tres octetos, por ejemplo, debido a búferes cuya capacidad se ha excedido, no envía un acuse
de recibo. Como el origen no recibe un acuse de recibo, sabe que los octetos se deben retransmitir y
que la velocidad de transmisión debe reducirse.
Si el emisor envía más datos de los que establece la ventana sin esperar a recibir un acuse de recibo de
los datos previamente enviados, éstos con seguridad son descartados en el destino provocando su
posterior retransmisión. Lo mismo ocurre si el tamaño de la ventana se modifica en tiempo de
transmisión.
El primer segmento del saludo se puede identificar porque tiene activo el bit SYN en el campo de
código. El segundo mensaje tiene tanto el bit SYN como el bit ACK activos, indicando tanto el acuse de
recibo del primer segmento SYN como el hecho de que se continúa con el intercambio. El mensaje final
del saludo es sólo un acuse de recibo y nada más se utiliza para informar al destino que ambos
extremos están de acuerdo en establecer una conexión.
Una vez que se establece la conexión, los datos pueden fluir en ambas direcciones por igual.
Cada computadora debe seleccionar un número de secuencia inicial en forma aleatoria que se utilizará
para identificar octetos en el flujo que se está enviando. Los números de secuencia no pueden
comenzar siempre con el mismo valor.
Durante el flujo normal de datos, la entidad de transporte envía datos desde el origen hacia el destino
respetando el tamaño de ventana negociado. Cada vez que se envía un segmento de datos, se inicializa
un temporizador asociado, que indicará la posible pérdida de datos. Cuando se recibe un acuse de
recibo, se reconocen todos los datos enviados hasta el byte anterior indicado en el campo
correspondiente. Cuando esto ocurre, se elimina la información relacionada con los temporizadores de
dichos datos. También se reinicia el contador de bytes que tiene permitido enviar el origen hacia el
destino y que está regido por el campo Window.
Hay dos situaciones que se relacionan con la pérdida de datos en tránsito y en las cuales los dispositivos
se valen de los temporizadores para garantizar que todos los datos lleguen al destino. La primera es la
pérdida de uno o más segmentos en la secuencia de mensajes enviados desde el origen y la segunda es
la pérdida de un acuse de recibo enviado desde el destino. Ambas situaciones se ilustran a
continuación.
Una cuestión importante a tener en cuenta aquí es que TCP está diseñado para emplearse en un
ambiente de red de redes. En una red de redes, un segmento que viaja entre dos máquinas puede
atravesar una sola red de poco retraso (como por ejemplo una LAN de alta velocidad) o puede viajar a
través de varias redes intermedias y de varios routers. Por lo tanto, es imposible saber con anticipación
qué tan rápido regresarán los acuses de recibo al origen. Además, el retraso en cada router depende
del tráfico, por lo que el tiempo total necesario para que un segmento viaje al destino y para que un
acuse de recibo regrese al origen varía de un caso a otro.
El protocolo TCP maneja los retrasos variables en la red de redes al utilizar un algoritmo adaptable de
retransmisión. Básicamente, TCP monitorea el desempeño de cada conexión y deduce valores
razonables para la terminación de tiempo. Conforme cambia el desempeño de una conexión, TCP revisa
su valor de terminación de tiempo.
Es importante recordar que las conexiones TCP son de tipo full duplex y que éstas contienen dos
transferencias de flujo independientes, una en cada dirección. Cuando un programa de aplicación
informa a TCP que ya no tiene más datos para enviar, éste cerrará la conexión en una dirección. Para
cerrar la mitad de una conexión, el emisor TCP termina de transmitir los datos restantes, espera la
recepción de un acuse de recibo y, entonces, envía un segmento con el bit FIN activado. El receptor TCP
reconoce el segmento FIN e informa al programa de aplicación en su extremo que no tiene más datos
disponibles.
Una vez que la conexión se aserrado en una dirección dada, TCP rechaza más datos en esa dirección.
Mientras tanto, los datos pueden continuar fluyendo en la dirección opuesta hasta que el emisor la
cierra. Por supuesto, los acuses de recibo continúan fluyendo hacia el emisor incluso después de que la
conexión se ha cerrado. Cuando ambas direcciones se han cerrado, el software TCP en cada punto
extremo borra sus registros de la conexión.
• No orientado a conexión. No se establece una conexión previa con el otro extremo para transmitir
un mensaje UDP. Los mensajes se envían sin más y éstos pueden duplicarse o llegar desordenados al
destino.
• No confiable. Los mensajes UDP se pueden perder o llegar dañados.
UDP utiliza el protocolo IP para transportar sus mensajes. Como se ve, no añade ninguna mejora en la
calidad de la transferencia, aunque sí incorpora los puertos origen y destino en su formato de mensaje.
Las aplicaciones (y no el protocolo UDP) deberán programarse teniendo en cuenta que la información
puede no llegar de forma correcta.
Formato de datagrama
Cuando se utiliza UDP la garantía de que un paquete llegue a su destino es mucho menor que con TCP
debido a que no se utilizan las señales de confirmación. Por todas estas características el encabezado
de UDP es bastante menor en tamaño que el de TCP. Esta simplificación resulta en una mayor eficiencia
en determinadas ocasiones.
El protocolo UDP no emplea acuses de recibo para asegurarse de que llegan mensajes, no ordena los
mensajes entrantes, ni proporciona retroalimentación para controlar la velocidad a la que fluye la
información entre las máquinas. Por lo tanto, los mensajes UDP se pueden perder, duplicar o legar sin
orden.
Un programa de aplicación que utiliza UDP es responsable del manejo de los problemas de
confiabilidad, incluyendo la pérdida, duplicación y retraso de los mensajes, la entrega fuera de orden y
la pérdida de conectividad.
La mayoría de las veces los programas de software de red se prueban en redes de área local, altamente
confiables y de baja demora y el procedimiento de pruebas puede no evidenciar las fallas potenciales.
Por este motivo, muchos programas de aplicación que utilizan UDP trabajan bien en un ambiente local,
pero fallan cuando se utilizan en una red de redes más grande.
En conclusión, UDP ofrece a las aplicaciones un mecanismo para enviar la información encapsulada en
paquetes IP sin tener que establecer y liberar conexiones, y sin tener una sobrecarga de intercambio de
mensajes debido a los acuses de recibo.
Hay que tener en cuenta que algunas aplicaciones intercambian solo algunos pocos bytes, los cuales
pueden ser enviados en un único datagrama. En estos casos es mucho más eficiente utilizar un
protocolo que simplemente envíe los datos en lugar de uno que tenga que establecer una conexión,
enviar los datos (un único datagrama), esperar el acuse y por último liberar la conexión.
Procesos de aplicación
La capa de aplicación es la capa más cercana al sistema final. Esto determina si existen suficientes
recursos para la comunicación entre sistemas. Por lo tanto, sin la capa de aplicación, no habría soporte
de comunicación de red.
La capa de aplicación no brinda servicios a ninguna otra capa. Sin embargo, brinda servicios a los
procesos de aplicación. La capa de aplicación proporciona una interfaz directa, mediante el uso de
aplicaciones de red (por ej., WWW, correo electrónico, FTP, Telnet), o una interfaz indirecta, mediante
el uso de aplicaciones independientes (por ej., procesadores de texto, hojas de cálculo, administradores
de presentaciones, redirectores de red).
Aplicaciones populares
Los servicios de aplicaciones de Internet más populares y difundidos incluyen los siguientes.
Correo electrónico
El correo electrónico permite que un usuario componga mensajes y los envíe a individuos o grupos.
Otra parte de la aplicación de correo permite que un usuario lea los mensajes que ha recibido. El correo
electrónico ha sido tan exitoso que muchos usuarios de Internet dependen de él para su
correspondencia normal. Aunque existen muchos sistemas de correo electrónico, al utilizar TCP/IP se
logra que la entrega sea muy confiable.
Transferencia de archivos
Los programas para transferencia de archivos permiten a los usuarios que envíen o reciban archivos
arbitrariamente grandes. Por ejemplo, al utilizar el programa de transferencia de archivos, se puede
copiar de una máquina a otra una gran base de datos, un programa o un diccionario de idioma inglés. El
sistema puede proporcionar formas de verificar que los usuarios cuenten con autorización o, incluso, de
impedir el acceso.
Acceso remoto
Las computadoras pueden almacenar, procesar, manipular y mostrar vastas cantidades de información
más rápida y eficientemente que cualquier tecnología previa. Como son programables, las
computadoras pueden realizar muchas tareas diferentes. Son máquinas multipropósito. El deseo de
compartir la valiosa información fue una de las fuerzas de peso detrás del desarrollo de las redes de
computadoras. El desarrollo de las redes permitió que múltiples computadoras se conecten entre sí
para compartir archivos y las impresoras pudieran conectarse a la red para que múltiples usuarios
pudieran compartir dichas impresoras.
Otro beneficio importante de las redes comprende la capacidad de encontrar recursos y dispositivos
estén donde estén localizados. Para permitir que los usuarios y los sistemas en la red encuentren los
servicios que necesitan, las redes de computadoras utilizan servicios de directorio y de nombre.
Funcionando como el directorio telefónico, la red asigna un nombre a los usuarios, servicios y
dispositivos para que puedan ser identificados y accedidos. El conocer el nombre de un servicio en la
red permite a los usuarios hacer contacto con ese servicio sin tener que saber su ubicación física. En
realidad, su ubicación física puede cambiar y los usuarios aun pueden encontrar el servicio o dispositivo
si conocen su nombre.
Los servicios de directorio y de nombre hacen que una red sea más fácil de usar por las personas. La
gente trabaja mejor con nombres para los servicios y otras entidades. Ellos pueden confiar en los
servicios de directorio y nombre de la red para traducir esos nombres en direcciones utilizadas para
comunicarse con el servicio deseado. Después de la configuración inicial del servicio de directorio o de
nombre, esta traducción se realiza en forma transparente. Además de la facilidad de uso, esto hace que
la red sea más flexible. Los diseñadores y administradores de la red pueden localizar o mover un
archivo, impresora y otros servicios con la seguridad de que los usuarios aun podrán localizarlos por el
nombre. Las ventajas de los servicios de directorio y de nombre son las siguientes:
Interfases indirectas
Dentro de un entorno LAN, el soporte de red de aplicación indirecta corresponde a una función
cliente/servidor. Si un cliente desea guardar un archivo desde un procesador de textos en un servidor
El redirector es un protocolo que funciona con los sistemas operativos de los computadores y clientes
de red en lugar de programas de aplicación específicos.
El proceso del redirector es el siguiente. El cliente solicita que el servidor de archivos de la red permita
que los archivos de datos se puedan guardar.
Si el cliente solicita que el servidor de impresión de la red permita que los archivos de datos se
impriman en una impresora (red) remota, el servidor procesa la petición imprimiendo el archivo en uno
de sus dispositivos de impresión o rechaza la petición.
El redirector le permite al administrador de red asignar recursos remotos a los nombres lógicos en el
cliente local. Una vez que selecciona uno de estos nombres lógicos para realizar una operación, como,
por ejemplo, guardar o imprimir un archivo, el redirector de red envía el archivo seleccionado al
recurso remoto correspondiente de la red para su procesamiento. Si el recurso se encuentra en un
computador local, el redirector ignora la petición y permite que el sistema operativo local la procese.
La ventaja de usar un redirector de red para un cliente local es que las aplicaciones del cliente nunca
tienen que reconocer a la red. Además, la aplicación que solicita el servicio se ubica en el computador
local y el redirector reenvía la petición al recurso de red correspondiente, mientras que la aplicación lo
considera como petición local.
Los redirectores expanden las capacidades de software que no es de red. También permiten que los
usuarios compartan documentos, plantillas, bases de datos, impresoras y varios otros recursos, sin
tener que usar software de aplicación especial.
El lado del cliente se encuentra ubicado en la computadora local y es el que solicita los servicios. El lado
del servidor se encuentra ubicado en una computadora remota y brinda servicios en respuesta al
pedido del cliente.
El modelo cliente/servidor
Desde el punto de vista de una aplicación, TCP/IP, simplemente proporciona los mecanismos básicos
usados para transmitir datos. En concreto,
TCP/IP permite a los programadores establecer una comunicación entre dos programas de aplicación
que se pasan datos uno al otro. De esta forma, decimos que TCP/IP proporciona una comunicación par
a par. Las aplicaciones pares pueden ejecutarse en la misma o en diferentes máquinas.
Aunque TCP/IP especifica los detalles de cómo se pasan los datos dos aplicaciones que se estén
comunicando, no dicta cuándo o por qué interactúan las aplicaciones pares, ni cómo deberían organizar
los programadores los programas de aplicación en un entorno distribuido. En la práctica, hay un
método organizacional que domina el uso de TCP/IP de tal manera que casi todas las aplicaciones lo
usan. Este método se conoce con el nombre de modelo cliente/servidor.
La motivación fundamental para la aparición del modelo cliente/servidor surge del problema de la
reunión (rendezvous). El siguiente ejemplo ilustra este problema. Un individuo que intenta empezar en
máquinas distintas dos programas y que éstos se comuniquen. Sabemos que las computadoras operan
a una velocidad varios órdenes mayores que los humanos. Después de que se inicie el primer
programa, el programa empieza su ejecución y envía un mensaje a su par. En pocos milisegundos,
determina que el par ya no existe, por lo que emite un mensaje de error y termina. Mientras, el
individuo inicia el segundo programa. Desafortunadamente, cuando el segundo programa empieza su
ejecución, se encuentra que el par ya ha terminado su ejecución. Incluso si los dos programas
reintentaran comunicarse continuamente, se ejecutarían tan rápido que la probabilidad de enviarse
mensajes simultáneamente será muy pequeña.
El modelo cliente/servidor resuelve este problema afirmando que en cualquier par de aplicaciones que
se comuniquen, un lado debe empezar la ejecución y esperar (indefinidamente) hasta que el otro lado
se ponga en contacto. La solución es importante porque TCP/IP no responde por su cuenta a las
peticiones de comunicación que llegan.
La aplicación que inicia la comunicación se llama cliente. Los usuarios finales normalmente llaman al
software del cliente cuando usan un servicio de red. La mayoría del software del cliente está formado
por programas de aplicación convencional. Cada vez que se ejecuta una aplicación cliente, ésta
contacta con el servidor, envía una petición, y espera una respuesta. Cuando la respuesta llega, el
cliente continúa su proceso. Los clientes son a menudo más fáciles de construir que los servidores, y
por lo general no requieren ningún privilegio especial del sistema para operar.
Un servidor es cualquier programa (algunos usuarios llaman servidor a la computadora que ejecuta el
programa servidor) que espera peticiones de comunicación que lleguen desde un cliente. El servidor
recibe una petición de un cliente, realiza la computación necesaria, y devuelve el resultado al cliente.
Aplicaciones populares
Las siguientes son las aplicaciones más populares y sus respectivos protocolos.
Aplicaciones Protocolos
Administración de DNS
nombres
Administración de SNMP
red
Asignación de RARP, BOOTP, DHCP
direcciones
Por ejemplo, se crea una carpeta para el departamento de contabilidad, otra para el departamento
comercial y otra para el departamento de diseño, facilita que estos usuarios tengan acceso a la
información que les interesa de forma instantánea. Si a esto se añaden aplicaciones concretas,
entonces el trabajo en grupo mejora bastante con la instalación de la intranet. Esto se aprecia en las
aplicaciones de bases de datos preparadas para el trabajo en redes locales (la mayoría de las actuales),
lo que permite que varios usuarios puedan acceder de forma simultánea a los registros de la base de
datos, y que las actualizaciones que realice un operador queden inmediatamente disponibles para el
resto de los usuarios.
Impresión en red
Las redes locales permiten que sus usuarios puedan acceder a impresoras de calidad y alto precio sin
que suponga un desembolso prohibitivo.
Por ejemplo, si tenemos una oficina en la que trabajan siete personas, y sus respectivas computadoras
no están conectados mediante una red local, o compramos una impresora para cada usuario (en total
siete), o que cada usuario grabe en un disquete su documento a imprimir y lo lleve donde se encuentra
la impresora.
Si hay instalada una red local, lo que se puede hacer es comprar una o dos impresoras de calidad,
instalarlas y que los usuarios las compartan a través de la red.
Cuando se comparte una impresora en la red, se suele conectar a una computadora que actúa como
servidor de impresión, y que perfectamente puede ser el equipo de un usuario. También existen
impresoras que disponen de una tarjeta de red que permite la conexión directa en cualquier punto de
la red sin necesidad de situarse cerca de un servidor.
Aplicaciones de red
Existe un gran número de aplicaciones que aprovechan las redes locales para que el trabajo sea más
provechoso. El tipo de aplicaciones más importante son los programas de correo electrónico. Un
programa de correo electrónico permite el intercambio de mensajes entre los usuarios. Los mensajes
pueden consistir en texto, sonido, imágenes, etcétera, y llevar asociados cualquier tipo de archivos
Nombres de dominio
Introducción
Generalmente las personas no trabajamos con direcciones IP sino con nombres de dominio del estilo de
www.hotmail.com o tti.lunix.com.ar. Para que esto pueda ser posible es necesario un proceso previo de
conversión de nombres de dominio a direcciones IP, ya que el protocolo IP requiere direcciones IP al
enviar sus paquetes. Este proceso se conoce como resolución de nombres.
Sin embargo, a medida que se fueron conectando más computadoras a la red comenzaron los
problemas: el archivo HOSTS.TXT comenzó a ser demasiado extenso, el mantenimiento se hizo difícil ya
que requería más de una actualización diaria y el tráfico de la red hacia esta computadora llegó a
saturarla.
Es por ello que fue necesario diseñar un nuevo sistema de resolución de nombres que distribuyese el
trabajo entre distintos servidores. Se ideó un sistema jerárquico de resolución conocido como DNS
(Domain Name System – Sistema de Resolución de Nombres).
• Clientes DNS (resolvers). Los clientes DNS envían las peticiones de resolución de nombres a un
servidor DNS. Las peticiones de nombres son preguntas de la forma: ¿Qué dirección IP le corresponde
al nombre nombre.dominio?
• Servidores DNS (name servers). Los servidores DNS contestan a las peticiones de los clientes
consultando su base de datos. Si no disponen de la dirección solicitada pueden reenviar la petición a
otro servidor.
• Espacio de nombres de dominio (domain name space). Se trata de una base de datos distribuida
entre distintos servidores.
El punto más alto de la jerarquía es el dominio raíz. Los dominios de primer nivel (ar, edu, com,
etcétera) parten del dominio raíz y los dominios de segundo nivel (org, edu, microsoft, etcétera), de un
dominio de primer nivel, y así sucesivamente. Cada uno de los dominios puede contener tanto hosts
como más subdominios.
Un nombre de dominio es una secuencia de nombres separados por el carácter delimitador punto. Por
ejemplo, tti.frsf.utn.edu.ar. Esta máquina pertenece al dominio frsf (Facultad Regional Santa Fe) que a
su vez pertenece al dominio UTN (Universidad Tecnológica Nacional) y éste a su vez, al dominio edu
(Educación) y por último al dominio ar (Argentina).
Generalmente cada uno de los dominios es gestionado por un servidor distinto, es decir, se tiene un
servidor para el dominio frsf.utn.edu.ar (Facultad Regional Santa Fe), otro para frlp (Facultad Regional
La Plata) y así sucesivamente.
Los dominios de primer nivel (Top-Level Domains) han sido clasificados tanto en función de su
estructura organizativa como geográficamente.
Dominios organizacionales
Nombre
de Significado
dominio
Dominios geográficos
Nombre
de Significado
dominio
ar Argentina
us
Estados Unidos
es España
tw Taiwán
fr Francia
cl Chile
• Servidores primarios (primary name servers). Estos servidores almacenan la información de su zona
en una base de datos local. Son los responsables de mantener la información actualizada y cualquier
cambio debe ser notificado a este servidor.
• Servidores secundarios (secundary name servers). Son aquellos que obtienen los datos de su zona
desde otro servidor que tenga autoridad para esa zona. El proceso de copia de la información se
denomina transferencia de zona.
• Servidores maestros (master name servers). Los servidores maestros son los que transfieren las
zonas a los servidores secundarios. Cuando un servidor secundario arranca busca un servidor maestro y
realiza la transferencia de zona. Un servidor maestro para una zona puede ser a la vez un servidor
primario o secundario de esa zona. Estos servidores extraen la información desde el servidor primario
de la zona. Así se evita que los servidores secundarios sobrecarguen al servidor primario con
transferencias de zonas.
• Servidores locales (caching-only servers). Los servidores locales no tienen autoridad sobre ningún
dominio. Se limitan a contactar con otros servidores para resolver las peticiones de los clientes DNS.
Estos servidores mantienen una memoria caché con las últimas respuestas a las consultas. Cada vez que
un cliente DNS le formula una consulta, primero consulta en su memoria caché. Si encuentra la
dirección IP solicitada, se la devuelve al cliente. Si no, consulta a otros servidores, apunta la respuesta
en su memoria caché y le comunica la respuesta al cliente.
Los servidores secundarios son importantes por varios motivos. En primer lugar, por seguridad debido a
que la información se mantiene de forma redundante en varios servidores a la vez. Si un servidor tiene
problemas, la información se podrá recuperar desde otro. Y en segundo lugar, por velocidad porque
evita la sobrecarga del servidor principal distribuyendo el trabajo entre distintos servidores situados
estratégicamente (por zonas geográficas, por ejemplo).
Preguntas recursivas
Preguntas iterativas
Si el cliente formula una pregunta iterativa a un servidor DNS, este servidor devolverá o bien la
dirección IP si la conoce o si no, la dirección de otro servidor que sea capaz de resolver el nombre.
El siguiente ejemplo ilustra el proceso de resolución. En el navegador de páginas web Internet Explorer,
se escribe en la barra de dirección: www.hotmail.com. En primer lugar, el navegador tiene que resolver
el nombre de dominio a una dirección IP. Después podrá comunicarse con la correspondiente dirección
IP, abrir una conexión TCP con el servidor y mostrar en pantalla la página principal de Hotmail. El
siguiente gráfico muestra el esquema de resolución.
(1) La computadora cliente (resolver DNS) formula una pregunta recursiva al servidor DNS local
(generalmente el proveedor de Internet).
(2) El servidor local es el responsable de resolver la pregunta, aunque para ello tenga que reenviar la
pregunta a otros servidores. Suponemos que no conoce la dirección IP asociada a www.hotmail.com.
Entonces formulará una pregunta iterativa al servidor del dominio raíz.
(3) El servidor del dominio raíz no conoce la dirección IP solicitada, pero devuelve la dirección del
servidor del dominio com.
(5) El servidor del dominio com tampoco conoce la dirección IP solicitada, aunque sí conoce la dirección
del servidor del dominio hotmail.com, por lo que devuelve esta dirección.
(6) El servidor local vuelve a reenviar la pregunta iterativa al servidor del dominio hotmail.com.
(7) El servidor del dominio hotmail.com conoce la dirección IP de www.hotmail.com y devuelve esta
dirección al servidor local.
Preguntas inversas
Los clientes DNS también pueden formular preguntas inversas, esto es, conocer el nombre de dominio
dada una dirección IP. Para evitar una búsqueda exhaustiva por todo el espacio de nombres de
dominio, se ha creado un dominio especial llamado in-addr.arpa. Cuando un cliente DNS desea conocer
el nombre de dominio asociado a la dirección IP a.b.c.d, formula una pregunta inversa a d.c.b.a.in-
addr.arpa. La inversión de los bytes es necesaria debido a que los nombres de dominio son más
genéricos por la derecha, al contrario que ocurre con las direcciones.
Hoy en día existen navegadores y servidores Web disponibles para casi todas las plataformas. Se
pueden conseguir gratis, vía FTP, o comprando una copia con licencia. El rápido crecimiento de la
popularidad de la Web se debe a la flexibilidad con la que la gente puede navegar a través de recursos
de todo el mundo en Internet, así como descargarlos de la red.
Ya hay bastantes compañías haciendo negocio en el Web. Se pueden encontrar prospectos ofertas de
productos, y por supuesto, pedidos, en todo el Web. La mayoría de las multinacionales tienen un
servidor Web para distribuir información específica de sus productos, documentos o simplemente para
ponerse en contacto con clientes. Una página es sólo el término Web para un documento y la página
particular/personal un punto de partida para una colección de documentos. Es, si se desea, la tabla de
contenidos de un sitio Web. Desde allí se puede explorar y buscar con facilidad en todo el Web.
Los navegadores pueden usar además otros protocolos como el FTP, Gopher, WAIS y NNTP ("Network
News Transfer Protocol") por ejemplo. Por ello, no hace falta un cliente determinado para conseguir
acceso a todos estos otros recursos que también están disponibles en la red.
HTTP
El protocolo HTTP es el que controla la transferencia de datos en la World Wide Web y es el que
proporciona un vehículo de entrega para las imágenes, gráficos, video, hipertexto u otros datos en la
Web.
Mientras se recorre la web, el explorador intercambia mensajes con los servidores Web gracias al HTTP.
Cada vez que se hace un clic en un hipervínculos o se pasa de un recurso a otro, el explorador utiliza
HTTP para acceder al recurso seleccionado.
HTTP es un protocolo sin estado, en otras palabras el explorador y el servidor deben crear y después
cortar una conexión de red por cada operación http. A este conjunto de peticiones y respuestas se
denomina transacción.
• Conexión. El establecimiento de una conexión del cliente con el servidor. El puerto TCP/IP 80 es el
puerto bien conocido, pero el URL puede especificar otros puertos no reservados.
• Solicitud. El envío por parte del cliente de un mensaje de solicitud al servidor.
• Respuesta. El envío por parte del servidor de una respuesta al cliente.
• Cierre. El cierre de la conexión por parte del cliente y el servidor.
Las cabeceras de HTTP pueden contener información acerca de los objetos que transmite la aplicación a
través de la Web. Con la información de las cabeceras, las aplicaciones Cliente-Servidor negocian
formatos que pueden utilizar para transferir los objetos. Si no reconocen la información de la cabecera,
la ignoran. Por tanto, puede probar nuevos protocolos en la Web sin comprometer la integridad del
HTTP.
HTML
El lenguaje estándar de marcas para documentos Web es HTML ("Hypertext Markup Language"). HTML
es una aplicación de SGML ("Standard Generalized Markup Language").
Para crear un documento Web hay que usar las marcas HTML que constituyen la estructura lógica del
documento. Por ejemplo, cabeceras, listas y párrafos. Aquí se muestran algunas marcas para definir
enlaces a otros documentos o para embeber una imagen en el texto.
URL
Todos los documentos, imágenes, clips de audio o de vídeo se denomina recurso Web. Para identificar
el método de acceso a estos recursos el Web emplea URLs (Uniform Resource Locators). URL es un
protocolo estándar de Internet y se puede encontrar en el RFC 1738. El contexto global para construir
nuevos esquemas para codificar nombres y direcciones de objetos en Internet se describe en el RFC
informacional 1630. Este RFC acuña el término URI (Universal Resource Identifiers) como un modelo
más teórico para diseñar estos esquemas.
<scheme>:<scheme-specific-part>
Los siguientes esquemas los cubre la RFC, y les pueden seguir otros en el futuro:
Mientras que la sintaxis para el resto del URL puede variar dependiendo del esquema seleccionado, los
esquemas que implican el uso directo de un protocolo basado en IP usan una sintaxis común para la
parte <scheme-specific part>, que comienza por "//" para indicar que sigue la sintaxis estándar de
Internet:
//<user>:<password>@<host>:<port>/<url-path>
El "url-path" al final proporciona detalles de cómo acceder el recurso especificado. Nótese que la "/"
entre el host (o puerto) y el "url-path" no forma parte del "url-path".
http://<host>:<port>/<path>
Donde:
• host
El nombre de dominio completo de un host o una dirección IP en formato decimal.
La sintaxis para los demás esquemas como FTP y Gopher, por ejemplo, se explican en la RFC 1738.
Página Web
Una aplicación web consta de una o más páginas conectadas entre sí. Un buen punto de partida sería
decir que una página web es un archivo de texto que contiene lenguaje de marcas de hipertexto
(HTML), etiquetas de formato y vínculos a archivos gráficos y a otras páginas web.
El archivo de texto se almacena en un servidor de web al que pueden acceder otras computadoras
conectadas ese servidor, vía Internet o una LAN. Al archivo se puede acceder utilizando exploradores
Web que no hacen otra cosa que efectuar una transferencia de archivos e interpretación de las
etiquetas y vínculos HTML, y muestran el resultado en el monitor.
Otra definición sería que una página Web es un formulario interactivo que utiliza una red de
computadoras.
Hay dos propiedades de las páginas Web que la hacen únicas: que son interactivas y que pueden usar
objetos multimedia. El término multimedia se utiliza para describir archivos de texto, sonido, animación
y video que se combinan para presentar la información, por ejemplo, en una enciclopedia interactiva o
juego.
Cuando esos mismos tipos de archivo se distribuyen por Internet o una LAN, se puede utilizar el
término hipermedia para describirlos. Gracias a la World Wide Web ya es posible disponer de
multimedios a través de internet.
Cada página Web tiene asociado una dirección o URL. Por ejemplo la página principal de Microsoft es
http://www.microsoft.com/.
El nombre de la página principal dentro del servidor es normalmente default.htm o index.htm. Estos
son los archivos que se muestran en el navegador si no se indica cual y solo se indica el nombre base de
URL.
Funcionamiento de FTP
En ambos extremos del enlace, la aplicación FTP se construye con un proceso de control, un proceso de
transferencia de datos, y una interfaz de usuario.
La Interfaz de Usuario se comunica con el Proceso de Control, que está a cargo del control de la
conexión. Este Proceso de Control comunica la información necesaria a su propio sistema de archivos.
Operación de FTP
Al usar FTP, el usuario puede realizar alguna de las siguientes operaciones:
• Open
Selecciona el host remoto en que se inicia la sesión con el login
• User
Identifica el identificador del usuario remoto
• Pass
Autentifica al usuario
• Site
Envía información al host remoto. Utilizado para proporcionar servicios específicos para ese host
Selección de un directorio
Cuando se establece el enlace de control, el usuario puede emplear el subcomando cd (change
directory) para seleccionar un directorio remoto de trabajo. Obviamente, el usuario sólo podrá acceder
a directorios a los que su identificador le da acceso. El usuario puede seleccionar un directorio local con
el comando lcd (local change directory). La sintaxis de estos comandos depende del sistema operativo.
Estos comandos listan los archivos en el directorio remoto, es decir, los archivos y directorios que
residen en el servidor.
Si se quiere obtener un listado local de los archivos, es decir, los archivos y directorios que se
encuentran en la máquina local, se utilizan los mismos comandos pero anteponiendo el signo “!” (signo
de cierre de admiración).
Dependiendo del servidor, puede haber disponible otros comandos que permitan algunos listar el
contenido remoto y otros el contenido local.
• Mode
Especifica si el archivo se ha de tratar como si tuviera estructura de registros o como un flujo de bytes.
• Block
Se respetan las separaciones lógicas entre registros.
• Stream
El archivo se trata como un flujo de bytes. Esta es la opción por defecto, y proporciona una
transferencia más eficiente, pero puede que no produzca los resultados deseados cuando se trabaja
con un archivo estructurado por registros.
• Type
Especifica el conjunto de caracteres usado para los datos.
• ASCII
Indica que ambos host están basados en ASCII, o que si uno está basado en ASCII y el otro en EBCDIC, se
debería realizar una traducción ASCII-EBCDIC.
• EBCDIC
Indica que ambos host se basan en EBCDIC.
• Image
Indica que los datos deben tratarse como bits contiguos empaquetados en bytes de 8 bits.
Debido a que estos subcomandos no cubren todas las posibles diferencias entre sistemas, el
subcomando SITE está disponible para lanzar comandos dependientes del sistema.
Copia de archivos
Pueden realizarse dos tipos de copias de archivos. Una que indica la transferencia de un archivo o
archivos desde el servidor hacia el cliente y otra que se utiliza para copiar un archivo o archivos desde
el cliente hacia el servidor.
• Get
Copia un archivo del host remoto al host local.
• Put
Copia un archivo del host local al host remoto.
• Quit
Desconecta del host remoto y cierra el FTP. Algunas implementaciones usan el subcomando BYE.
• Close
Desconecta del host remoto pero deja al cliente FTP ejecutándose. Se puede lanzar un comando open
para trabajar con otro host remoto.
Códigos de respuesta
Con el fin de gestionar las operaciones antes mencionadas, el cliente y el servidor mantienen un
diálogo. El cliente lanza comandos, y el servidor contesta con códigos de respuesta. Las respuestas
incluyen también comentarios para el usuario, pero el cliente usa sólo los códigos.
Los códigos de respuesta tienen tres dígitos, siendo el primero el más significante.
FTP anónimo
Muchos servidores de archivos implementan lo que se conoce como FTP anónimo, lo que significa que
permiten el acceso público a los archivos de algunos directorios. El usuario remoto sólo tiene que usar
el identificador anonymous y el password guest o alguna otra convención de password, por ejemplo el
identificador de usuario para el E-mail. La convención que usa cada sistema se le explica al usuario
durante el proceso de login.
Además, no dispone de medios para la autentificación de usuarios, por lo que es un protocolo inseguro.
• Connect <host>
Especifica el identificador del host de destino
• Mode <ascii/binary>
Especifica el tipo del modo de transferencia
• Get <remote filename> [<nombre del archivo local>]
Recupera un archivo
• Put <remote filename> [<nombre del archivo local>]
Almacena un archivo
• Verbose
Activa o desactiva el modo "verbose", en el que muestra información adicional durante la transferencia
del archivo.
• Quit
Salir de TFTP
Existen otros subcomandos, pero los principales son los aquí descriptos.
Descripción
Cualquier transferencia comienza con una solicitud para leer o escribir un archivo. Si el servidor
concede la solicitud, se abre la conexión y el archivo se envía en bloques consecutivos de 512 bytes
(longitud fija). Los bloques del archivo se numeran correlativamente, comenzando en 1. Cada mensaje
de datos debe ser reconocido mediante un mensaje de reconocimiento antes de que se envíe el
siguiente mensaje. Se asume la terminación de la transferencia al recibir un mensaje de menos de 512
bytes.
Mensajes TFTP
Existen 5 paquetes TFTP.
Código de Descripción
operación
1 Solicitud de lectura
3 Datos
4 Reconocimiento
5 Error
Acceso Remoto
Descripción
El protocolo diseñado para proporcionar el servicio de acceso remoto (remote login) recibe el nombre
de TELNET, el cual forma parte del conjunto de protocolos TCP/IP y depende del protocolo TCP para el
nivel de transporte.
El protocolo TELNET es un emulador de terminal que permite acceder a los recursos y ejecutar los
programas de una computadora remota en la red, de la misma forma que si se tratara de un terminal
real directamente conectado al sistema remoto. Una vez establecida la conexión el usuario podrá iniciar
la sesión con su clave de acceso. De la misma manera que ocurre con el protocolo FTP, existen
servidores que permiten un acceso libre cuando se especifica "anonymous" como nombre de usuario.
Es posible ejecutar una aplicación cliente TELNET desde cualquier sistema operativo, pero hay que
tener en cuenta que los servidores suelen ser sistemas VMS o UNIX por lo que, a diferencia del
protocolo FTP para transferencia de archivos donde se utilizan ciertos comandos propios de esta
aplicación, los comandos y sintaxis que se utilice en TELNET deben ser los del sistema operativo del
servidor. El sistema local que utiliza el usuario se convierte en un terminal "no inteligente" donde todos
los caracteres pulsados y las acciones que se realicen se envían al host remoto, el cual devuelve el
resultado de su trabajo. Para facilitar un poco la tarea a los usuarios, en algunos casos se encuentran
desarrollados menús con las distintas opciones que se ofrecen.
Los programas clientes de TELNET deben ser capaces de emular los terminales en modo texto más
utilizados para asegurarse la compatibilidad con otros sistemas, lo que incluye una emulación del
teclado. El terminal más extendido es el VT100, el cual proporciona compatibilidad con la mayoría de
los sistemas, aunque puede ser aconsejable que el programa cliente soporte emulación de otro tipo de
terminales.