Вы находитесь на странице: 1из 56

TEMARIO REDES DE COMPUTADORAS

Unidad 1 Capa de Red

1.1 Principios Basicos en Capa de Red

1.2 Direccionamiento Capa de Red

1.2.1 Determinacion Ruta Capa de Red

1.2.1.1 Algoritmos Encaminamiento

1.2.2 Subredes

1.3 Protocolos de Enrutamiento

1.3.1 El Enrutamiento en Entorno Mixtos de medios de LAN

1.3.2 Operaciones Basicas Router

1.3.3 Rutas Estaticas y Dinamicas

1.3.4 Ruta por Defecto

1.3.5 Protocolos Enrutados y de Enrutamiento

1.3.6 Informacion Utilizada por Routers para ejecutar sus


funciones basicas

1.3.7 Configuracion de Rip

1.4 Arp , Rarp

1.5 Igrp , Egp

Unidad 2 Capas superiores del modelo OSI

2.1 Capa Transporte Osi

2.1.1 Parametros para lograr la Calidad Servicio de


Transporte
2.1.1.1 Servicios Orientados a Conexion
2.1.1.2 Servicios Orientados a no Conexion

2.2 Capa De Sesion Osi

2.2.1 Intercambio de Datos

2.2.2 Administracion del Dialogo

2.2.3 Sincronizacion Capa Sesion

2.2.4 Notificacion de Excepciones

2.2.5 Llamada Procedimientos Remotos

2.3 Capa de presentación

2.3.1 Codigos de Representacion de Datos

2.3.2 Tecnicas Compresion Datos

2.3.3 Criptografia Capa Presentacion

2.4 Capa de aplicación

2.4.1 Configuracion Servicios

Unidad 3 Técnicas de conmutación

3.1 Conmutacion Circuitos

3.2 Conmutacion Mensajes

3.3 Conmutacion Paquetes

3.3.1 Topologia Redes de Paquetes

3.3.2 Datagramas y Circuitos Virtuales

3.3.2.1 Estructura Conmutadores

3.3.2.2 Conmutacion de Paquetes


3.3.3 Encaminamiento Redes de Paquetes

3.3.4 Gestion de Trafico

3.3.5 Control de Congestion

Unidad 4 TCP/IP

4.1 Modelo Cliente Servidor

4.2 Protocolo de Internet Ip movil

4.3 Protocolos de Transporte Udp Tcp

4.4 Protocolos Nivel Aplicacion

4.4.1 Smtp Protocolo

4.4.2 Ftp Protocolo

4.4.3 http Protocolo

4.4.4 Nfs Protocolo

4.4.5 Dns Protocolo


Unidad 1 Capa de Red

1.1 Principios Básicos en Capa de Red

Existen dos amplias categorías de Redes Inalámbricas:

De Larga Distancia.- Estas son utilizadas para transmitir la


información en espacios que pueden variar desde una misma ciudad
o hasta varios países circunvecinos (mejor conocido como Redes de
Area Metropolitana MAN); sus velocidades de transmisión son
relativamente bajas, de 4.8 a 19.2 Kbps.

De Corta Distancia.- Estas son utilizadas principalmente en redes


corporativas cuyas oficinas se encuentran en uno o varios edificios
que no se encuentran muy retirados entre si, con velocidades del
orden de 280 Kbps hasta los 2 Mbps.

Existen dos tipos de redes de larga distancia: Redes de Conmutación


de Paquetes (públicas y privadas) y Redes Telefónicas Celulares.
Estas últimas son un medio para transmitir información de alto precio.
Debido a que los módems celulares actualmente son más caros y
delicados que los convencionales, ya que requieren circuiteria
especial, que permite mantener la pérdida de señal cuando el circuito
se alterna entre una célula y otra.

REDES DE AREA LOCAL (LAN).

Las redes inalámbricas se diferencian de las convencionales


principalmente en la “Capa Física” y la “Capa de Enlace de Datos”,
según el modelo de referencia OSI. La capa física indica como son
enviados los bits de una estación a otra. La capa de Enlace de Datos
(denominada MAC), se encarga de describir como se empacan y
verifican los bits de modo que no tengan errores.

PUNTOS DE ACCESO.

Las características a considerar son :


1.- La antena del repetidor debe de estar a la altura del techo, esto
producirá una mejor cobertura que si la antena estuviera a la altura
de la mesa.

2.- La antena receptora debe de ser más compleja que la repetidora,


así aunque la señal de la transmisión sea baja, ésta podrá ser recibida
correctamente.

Un punto de acceso compartido es un repetidor, al cual se le agrega


la capacidad de seleccionar diferentes puntos de acceso para la
retransmisión. (esto no es posible en un sistema de estación-a-
estación, en el cual no se aprovecharía el espectro y la eficiencia de
poder, de un sistema basado en puntos de acceso).

TOPOLOGIA Y COMPONENTES DE UNA LAN HIBRIDA.

En el proceso de definición de una Red Inalámbrica Ethernet debe de


olvidar la existencia del cable, debido a que los componentes y
diseños son completamente nuevos. Respecto al CSMA/CD los
procedimientos de la subcapa MAC usa valores ya definidos para
garantizar la compatibilidad con la capa MAC. La máxima
compatibilidad con las redes Ethernet cableadas es, que se mantiene
la segmentación.

1.2 Direccionamiento Capa de Red

La dirección de red ayuda al router a identificar una ruta dentro de la


nube de red, el router utiliza esta dirección de red para identificar la
red destino de un paquete dentro de la red. Lee despacio estos
conceptos, son muy sencillos y obvios pero si tienes la base clara te
ayudará mucho a comprender como funcionan las redes.

Además de la dirección de red, los protocolos de red utilizan algún


tipo de dirección de host o nodo. Para algunos protocolos de capa de
red, el administrador de la red asigna direcciones de red de acuerdo
con un plan de direccionamiento de red por defecto. Para otros
protocolos de capa de red, asignar direcciones es una operación
parcial o totalmente dinámica o automática.

La dirección MAC (la que viene grabada de fábrica en las tarjetas de


red) se puede comparar con el nombre de las personas, y la dirección
de red con su dirección postal. Si una persona se muda a otra ciudad,
su nombre propio seguiría siendo el mismo, pero la dirección postal
deberá indicar el nuevo lugar donde se puede ubicar. Los dispositivos
de red (los routers así como también los ordenadores individuales)
tienen una dirección MAC y una dirección de protocolo (capa de red).
Cuando se traslada físicamente un ordenador a una red distinta, el
ordenador conserva la misma dirección MAC, pero se le debe asignar
una nueva dirección de red.

1.2.1. Determinación Ruta Capa de Red

La función que determina la ruta se produce a nivel de Capa 3 (capa


de red). Permite al router evaluar las rutas disponibles hacia un
destino y establecer el mejor camino para los paquetes. Los servicios
de enrutamiento utilizan la información de la topología de red al
evaluar las rutas de red. La determinación de ruta es el proceso que
utiliza el router para elegir el siguiente salto de la ruta del paquete
hacia su destino, este proceso también se denomina enrutar el
paquete.

Los routers, como dispositivos inteligentes que son, verán la


velocidad y congestión de las líneas y así elegirán la mejor ruta. Por
ejemplo para ir de Logroño a Madrid pueden coger una nacional con
poco tráfico en lugar de la autopista con atasco de tráfico. Y viceversa
puede decidir ir por autopista aunque sea el camino mas largo (varios
routers) que la carretera directa mas lenta.

1.2.1.1 Algoritmos Encaminamiento

Podemos definir encaminamiento como un proceso mediante el cual


tratamos de encontrar un camino entre dos puntos de la red: el nodo
origen y el nodo destino. El objetivo que se persigue es encontrar las
mejores rutas entre pares de nodos

Los algoritmos de encaminamiento pueden agruparse en:

Determinanticos o estáticos

No tienen en cuenta el estado de la subred al tomar las decisiones de


encaminamiento. Las tablas de encaminamiento de los nodos se
configuran de forma manual y permanecen inalterables hasta que no
se vuelve a actuar sobre ellas. Por tanto, la adaptación en tiempo real
a los cambios de las condiciones de la red es nula.

ALGORITMOS DE ENCAMINAMIENTO.
Los algoritmos de encaminamiento se agrupan en dos tipos
principales: no adaptativos y adaptativos. Los algoritmos no
adaptativos no basan sus decisiones de encaminamiento en
mediciones o estimaciones de trafico o topología Actuales.

ENCAMINAMIENTO POR EL CAMINO MÁS CORTO.

El camino mas corto es una forma de medir la longitud del camino. En


el caso mas general, las etiquetas de los arcos se podrían calcular
como una función distinta, ancho de Banda, promedio de trafico,
costo de comunicación, longitud promedio de la cola de espera,
retardo medido, y algunos otros factores.

ENCAMINAMIENTO DE CAMINO MÚLTIPLE.

Existe un solo “mejor” camino entre cualquier par de nodos y que


todo él trafico entre ellos deberá utilizar. Con frecuencia, se puede
obtener un mejor rendimiento al dividir él trafico entre varios
caminos, para reducir la carga en cada una de las líneas de
comunicación. La técnica se conoce como Encaminamiento de camino
múltiple, o algunas veces encaminamiento bifurcado. Se aplica tanto
en subredes con data gramas, como en subredes con circuitos
virtuales .

ENCAMINAMIENTO CENTRALIZADO.

Si la topología es de característica estática y él trafico cambia muy


rara vez. Sin embargo, si los IMP y las líneas se desactivan y después
se restablecen, o bien, si el tráfico varia violentamente durante todo
el día, se necesitará algún mecanismo para adaptar las tablas a las
circunstancias que imperan en este momento.

Encaminamiento distribuido.

Intercambia periódicamente información de encaminamiento explicito


con cada uno de sus vecinos. Esta entrada consta de dos partes: la
línea preferida de salida que se utilice para dicho destino, y alguna
estimación del tiempo o distancia hacia él.
Encaminamiento Optimo.

Como una consecuencia directa del principio de optimización, se


puede observa que, el conjunto de rutas optimas, procedentes de
todos los orígenes a un destino dato, forman un árbol cuya raíz sale
del destino. A este árbol se le llama árbol sumidero, este no contiene
ningún lazo, de tal forma que cada paquete será entregado a través
de un número limitado finito de saltos.

Encaminamiento basado en el flujo.

Para utilizar en forma adecuada, es necesario conocer


anticipadamente cierto tipo de información. Primero, se deberá
conocer la topología de la red. Segundo la matriz de trafico deberá
darse a conocer. Tercero, también deberán conocerse la matriz de
capacidades en las líneas en Bits por segundo. Por ultimo se deberá
seleccionar un algoritmo de encaminamiento. El retardo incluye tanto
tiempo de espera como el tiempo de servicio. Para calcular el tiempo
de retardo medio de la red completa, se toma la suma ponderada de
cada uno de los ocho enlaces, en donde la ponderación es la fracción
del trafico total.

Encaminamiento jerárquico.

A medida que crece el tamaño de la red, tablas de encadenamiento


de los IMP crecen también en forma proporcional. No solamente se
produce un aumento de memoria consumida en el IMP al tener tablas
más grandes, sino también es necesario tener un mayor tiempo de
CPU para explorarlas y más ancho de banda para transmitir los
informes del estado que guardan.

Encaminamiento por difusión.

Para algunas aplicaciones, los hostales necesitan transmitir mensajes


a todos los demás hostales. En algunas redes los IMP pueden llegar a
necesitar este tipo de servicio, por ejemplo, distribuir la actualización
de las tablas de encaminamiento. A la transmisión de un paquete, en
forma simultanea a todos los destinos, se les conoce como difusión,
habiéndose ya propuesto varios métodos para desarrollarla.

En un método de difusión en el que no es necesario que la subred


tenga características especiales, el extremo fuente solamente tiene
que enviar un paquete distinto de información a cada destino. Esto no
solo trae como resultado un desperdicio considerable del ancho de
banda, sino también requiere que la fuente tenga una lista completa
de todos los destinos.

Un algoritmo es el encaminamiento multidestino. Si este método se


utiliza, cada paquete contiene una lista de destinos o un mapa de
bits, mediante el cual se indican los destinos deseados.

ALGORITMOS DE CONTROL DE LA GESTION.

En esta sección se estudiaran cinco estrategias para el control de la


congestión. Estas estrategias toman en consideración la asignación
de recursos en forma anticipada, que se desechen los paquetes
cuando no se puedan procesar, que se restrinja él numero de
paquetes en la subred, utilizar el control de flujo para evitar la
congestión y obstruir la entrada de datos cuando la subred esté
sobrecargada.

Preasignación de tampones.

Si se utilizan circuitos virtuales dentro de la subred, es posible


resolver por completo el problema de la congestión de la manera
siguiente. Cuando se establece un circuito virtual, el paquete de
solicitud de llamada sigue su camino a través de la subred,
produciendo entradas en las tablas según avanza. En el momento en
que llega a su destino, la ruta que deberá seguir todo él trafico
subsiguiente ya se ha determinado, así como se han hecho entradas
en las tablas de encaminamiento de todos los IMP intermedios.

Descarte de paquetes.

En lugar de reservar todos los tampones anticipadamente, no se


reserva absolutamente nada por adelantado. Si llega un paquete y no
existe un lugar disponible para colocarlo, el IMP sencillamente lo
descarta.

Descartar paquetes ha voluntad puede llegar demasiado lejos;


Resultaría bastante tonto. Este asentimiento le permitiría al IMP
abandonar un paquete ya recibido y liberar así un tampón. Si el IMP
no cuenta con tampones disponibles, no podría recibir ningún
paquete para ver si contiene asentamientos, si la congestión tiene
que ser evitada mediante el descarte del paquete será necesario
tener una regla para indicar cuando se deberá conservar o descartar
un paquete. Irland (1978.)

Control de flujo.

Algunas redes han intentado utilizar mecanismos de control de flujo


para eliminar la congestión. En la realidad, el control de flujo no
puede llegar ha resolver fácilmente los problemas de congestión, por
él trafico de unas ráfagas.

Cuando varios usuarios soliciten el pico máximo al mismo tiempo


cuando el control de flujo se utiliza como un intento para acabar con
la congestión se puede aplicar al trafico entre paredes:

1. Procesos de Usuarios.

2. Hostales.

3. IMP de origen y destino.

Además se puede restringir él numero de circuitos virtuales abiertos.

Paquetes reguladores.

Podemos definir encaminamiento como un proceso mediante el cual


tratamos de encontrar un camino entre dos puntos de la red: el nodo
origen y el nodo destino. El objetivo que se persigue es encontrar las
mejores rutas entre pares de nodos j-k.

a) Mejor Ruta. Por mejor ruta se entiende aquella que cumple alguna
de estas condiciones:
* presenta el menor retardo medio de transito,
* consigue mantener acotado el retardo entre pares de nodos de la
red (Tjk<To),
* consigue ofrecer altas cadencias efectivas independientemente
del retardo medio de transito
* ofrezca el menor coste.

b) Métrica de la Red. Citaremos dos de ellas:


* Numero de saltos (canales) necesarios para ir de un nodo a otro.
No se comporta de forma óptima, pero si ofrece buenos resultados, y
es empleada con bastante frecuencia.. La distancia (valor que se
asocia a cada canal) es igual a 1 para todos los canales.
* Retardo de Transito entre nodos vecinos. En este caso la
distancia se expresa en unidades de tiempo (p.e ms), y no es
constante a lo largo del tiempo sino que depende del trafico que
soporta el canal.

Algunos de los problemas con los que nos encontramos a la hora de


encaminar son:
* La carga de los enlaces no va a ser constante (es decir, el mejor
camino no siempre será el mismo), al igual que la tasa de generación
de mensajes. El encaminamiento busca el camino óptimo, pero como
el tráfico varía con el tiempo, el camino óptimo también dependerá
del instante en que se observa la red.
* Hay que tener en cuenta los cambios en la topología de la red
(hay nodos que se caen, o se añaden, o se quitan, etc).
* Existen recursos limitados, no pudiendose cursar todos los
paquetes a infinita velocidad.
* Asincronía, en el sentido de que no hay un momento determinado
para que ocurran las cosas (un nodo transmite cuando le llega
información, y esto sucede a su vez cuando el usuario decide
mandarla).

Por tanto, el encaminamiento debe proveer a la red de mecanismos


para que ésta sepa reaccionar ante situaciones como:
* Variabilidad del tráfico: se han de evitar las congestiones de la
red.
* Variaciones topológicas, como las mencionadas arriba: caídas de
enlaces, caídas de nodos, altas y bajas.
* Cambios en la QoS (Quality of Service): a veces se pide un
servicio donde no importa el retardo y sí un alto throughput, y
viceversa.

La nomeclatura que utilizaremos es la siguiente:


* Algoritmo de encaminamiento: método para calcular la mejor ruta
para llegar de un sitio a otro. La mejor ruta podrá calcularse en
función de los ‘costes’, retardos, distancia…
* Protocolo de encaminamiento: es la manera que tienen los nodos
de intercambiar la información de encaminamiento (probablemente
generada por el algoritmo). Los protocolos serán los encargados de
ocultar la red y comprobar que las condiciones de encaminamiento
impuestas se verifican siempre.
* Decisión de encaminamiento:

Nos centraremos en redes de conmutación de paquetes, tanto en


modo datagrama como en modo circuito virtual:
* Red en modo circuito virtual: Si la red funciona en modo circuito
virtual generalmente se establece una ruta que no cambia durante el
tiempo de vida de ese circuito virtual, ya que esto es lo más sencillo
para preservar el orden de los paquetes. El encaminamiento se
decide por sesión y no se cambia a menos que sea imprescindible, es
decir existen restricciones de cara a no cambiar el encaminamiento
en la sesión (ej. caída de un enlace). Cuando eso ocurre se busca
inmediatamente otra ruta, pero este cambio al tardar en propagarse
por la red, al tardar los nodos en enterarse, se puede manifestar en
los sistemas finales de tres formas:
o no se manifiesta
o se pierde información
o se pierde la sesión.
* Red en modo datagrama: Como en este caso no debe
garantizarse el ordenamiento final de los paquetes, en una red
funcionando en modo datagrama se puede cambiar el criterio de
encaminamiento por cada paquete que se ha de cursar (Esto da
origen a menor numero de problemas).

Métodos de Encaminamiento: lo cual nos valdrá para hacer una


posterior claseficación de los métodos de encaminamiento
atendiendo a la forma en la que los nodos recogen y distribuyen la
información que les llega de la red y a otros factores:
* FIB (Forward Information Base): Es la tabla de encaminamiento
que se consulta para hacer el reenvío de los paquetes generados por
los usuarios (los PDU representan estos paquetes).
* RIB (Routing Information Base): Tabla que almacena las
distancias a los nodos. Es la base de información de encaminamiento
que se consulta para decidir y formar la FIB. La información de la RIB
se consigue mediante interacción con el entorno local de cada nodo
(cada nodo observa sus enlaces) y mediante la recepción de R-PDUs d
e información de control procedentes de otros nodos vecinos que
informan del conocimiento que estos nodos tienen sobre el estado de
la red. A su vez, con la información obtenida por la RIB, ésta manda
PDUs de control para informar del conocimiento del estado de la red
que el nodo tiene a los demás nodos.
* LOCAL: Información del entorno local del nodo. Contiene la
información de lo que el nodo ve (memoria disponible, enlaces
locales, etc.), más la que hay que proporcionarle.
* R-PDU (Routing-PDU): Información de control entre nodos. Son
paquete de control, los cuales mandan otros nodos con información
sobre la red (no son datos). Por ejemplo, se manda información de
que el nodo sigue activo, y también las distancias a otros nodos
(vector de distancias).
* PDU (Protocol Data Unit): Unidad fundamental de intercambio de
información para un nivel determinado (a veces se indica
explícitamente el nivel poniendo N-PDU, o PDU de nivel N), como nivel
de enlace, red, etc. Son llamados también tramas.

5.2.2 Clasificación de los Métodos de Encaminamiento 1.- En función


de donde se decide encaminar:
* Fijado en el origen (Source Routing): son los sistemas finales los
que fijan la ruta que ha de seguir cada paquete. Para ello, cada
paquete lleva un campo que especifica su ruta(campo RI: Routing
Information), y los nodos sólo se dedican a reenviar los paquetes por
esas rutas ya especificadas. Así pues, son los sistemas finales los que
tienen las tablas de encaminamiento y no se hace necesaria la
consulta o existencia de tablas de encaminamiento en los nodos
intermedios. Este tipo de encaminamiento suele ser típico de las
redes de IBM.
* Salto a salto (Hop by Hop): los nodos, sabiendo donde está el
destino, conocen sólo el siguiente salto a realizar.

2.- En función de la adaptabilidad:


* No adaptables (estáticos):
o Estáticos: Las tablas de encaminamiento de los nodos se
configuran de forma manual y permanecen inalterables hasta que no
se vuelve a actuar sobre ellas. La adaptación a cambios es nula.
Tanto la recogida como la distribución de información se realiza por
gestión (se realiza de manera externa a la red), sin ocupar capacidad
de red. El calculo de ruta se realiza off-line (en una maquina
especifica),y las rutas pueden ser las optimas al no estar sometido al
requisito de tiempo real. Este tipo de encaminamiento es el optimo
para topologias en los que solo hay una posibilidad de
encaminamiento (topologia en estrella).
o Q-Estáticos: Este encaminamiento, es igual que el estático
pero en vez de dar una sola ruta fija, se dan además varias
alternativas en caso de que la principal no funcione, de ahí que tenga
una adaptabilidad reducida.

Subredes
Las redes se pueden dividir en subredes más pequeñas para el mayor
aprovechamiento de las mismas, además de contar con esta
flexibilidad, la división en subredes permite que el administrador de la
red brinde contención de broadcast y seguridad de bajo nivel en la
LAN. La división en subredes, además, ofrece seguridad ya que el
acceso a las otras subredes está disponible solamente a través de los
servicios de un Router. Las clases de direcciones IP disponen de 256 a
16,8 millones de Hosts según su clase. El proceso de creación de
subredes comienza pidiendo “prestado” al rango de host la cantidad
de bits necesaria para la cantidad subredes requeridas. Se debe tener
especial cuidado en esta acción de pedir ya que deben quedar como
mínimo dos bits del rango de host. La máxima cantidad de bits
disponibles para este propósito en una clase A es de 22, en una clase
B es de 14 y en una clase C Es de 6.

1.3 Protocolos de Enrutamiento

El Protocolo de información de enrutamiento permite que los routers


determinen cuál es la ruta que se debe usar para enviar los datos.
Esto lo hace mediante un concepto denominado vector-distancia. Se
contabiliza un salto cada vez que los datos atraviesan un router es
decir, pasan por un nuevo número de red, esto se considera
equivalente a un salto. Una ruta que tiene un número de saltos igual
a 4 indica que los datos que se transportan por la ruta deben
atravesar cuatro routers antes de llegar a su destino final en la red. Si
hay múltiples rutas hacia un destino, la ruta con el menor número de
saltos es la ruta seleccionada por el router.
Como el número de saltos es la única métrica de enrutamiento
utilizada por el RIP, no necesariamente selecciona la ruta más rápida
hacia su destino. La métrica es un sistema de medidas que se utiliza
para la toma de decisiones. luego veremos otros protocolos de
enrutamiento que utilizan otras métricas además del número de
saltos, para encontrar la mejor ruta a través de la cual se pueden
transportar datos. Sin embargo, RIP continúa siendo muy popular y se
sigue implementando ampliamente. La principal razón de esto es que
fue uno de los primeros protocolos de enrutamiento que se
desarrollaron.

Otro de los problemas que presenta el uso del RIP es que a veces un
destino puede estar ubicado demasiado lejos como para ser
alcanzable. RIP permite un límite máximo de quince para el número
de saltos a través de los cuales se pueden enviar datos. La red
destino se considera inalcanzable si se encuentra a más de quince
saltos de router. Así que resumiendo, el RIP:
• Es un protocolo de enrutamiento por vector de distancia
• La única medida que utiliza (métrica) es el número de salto
• El número máximo de saltos es de 15
• Se actualiza cada 30 segundos
• No garantiza que la ruta elegida sea la mas rápida
• Genera mucho tráfico con las actualizaciones

1.3.1 El Enrutamiento en Entorno Mixtos de medios de LAN

Descripción de los componentes de enrutamiento: El enrutamiento


determina cómo fluyen los mensajes entre los servidores de la
organización de Microsoft® Exchange y para los usuarios externos a
la organización. Para la entrega de mensajes internos y externos,
Exchange utiliza el enrutamiento con el fin de determinar primero la
ruta más eficiente y, después, la ruta disponible menos costosa. Los
componentes del enrutamiento interno toman esta decisión
basándose en los grupos de enrutamiento y en los conectores que
usted configura, y en los espacios de direcciones y los costos
asociados a cada ruta.

El enrutamiento es responsable de las siguientes funciones:

• Determinar el siguiente salto (el siguiente destino para un mensaje


en ruta hasta su destino final) según la ruta más eficiente.
• Intercambiar información de estado de los vínculos (el estado y la
disponibilidad de los servidores y las conexiones entre los servidores)
dentro y entre los grupos de enrutamiento.

Tipos de componentes de enrutamiento Los componentes del


enrutamiento componen la topología, y las rutas empleadas para
entregar correo interno y externo. El enrutamiento utiliza los
siguientes componentes que usted define dentro de la topología de
enrutamiento:

• Grupos de enrutamiento Conjuntos lógicos de servidores que se


utilizan para controlar el flujo de correo y las referencias a carpetas
públicas. Los grupos de enrutamiento comparten una o varias
conexiones físicas. Dentro de un grupo de enrutamiento, todos los
servidores se comunican y transfieren mensajes directamente entre
sí.

• Conectores Rutas designadas entre los grupos de enrutamiento,


hacia Internet o hacia otro sistema de correo. Cada conector
especifica una ruta unidireccional a otro destino.

• Información de estado de los vínculos Información acerca de grupos


de enrutamiento, conectores y sus configuraciones que el
enrutamiento utiliza para determinar la ruta de entrega más eficiente
para un mensaje.

• Componentes del enrutamiento interno Los componentes del


enrutamiento interno, en particular el motor de enrutamiento, que
proporcionan y actualizan la topología de enrutamiento para los
servidores de Exchange de su organización. Para obtener más
información acerca de los componentes del enrutamiento interno,
consulte Descripción de los componentes internos del transporte.

Descripción de los grupos de enrutamiento

Para obtener más información acerca de la creación de grupos de


enrutamiento y las consideraciones necesarias, consulte Situaciones
de implementación para la conectividad con Internet.

• Los grupos administrativos definen los límites administrativos


lógicos para los servidores de Exchange.

• Los grupos de enrutamiento definen las rutas físicas por las que se
transmiten los mensajes a través de la red.

Sin embargo, la funcionalidad de los grupos de enrutamiento en un


entorno de modo mixto, donde algunos servidores ejecutan Exchange
Server 2003 o Exchange 2000 Server mientras otros ejecutan
Exchange Server 5.5, es distinta de la del modo nativo. En modo
mixto:

• No puede tener un grupo de enrutamiento que abarque varios


grupos administrativos.

• No se pueden mover servidores entre grupos de enrutamiento que


se encuentren en grupos administrativos diferentes.

Descripción de los conectores

Los conectores proporcionan una ruta unidireccional para el flujo de


mensajes hasta un destino específico. Los conectores principales de
Exchange Server 2003 son los siguientes:

• Conectores de grupo de enrutamiento Ofrecen una ruta


unidireccional a través de la cual se enrutan los mensajes desde los
servidores de un grupo de enrutamiento hasta los servidores de otro
grupo de enrutamiento diferente. Los conectores de grupo de
enrutamiento utilizan una conexión del Protocolo simple de
transferencia de correo (SMTP) para permitir la comunicación con los
servidores del grupo de enrutamiento conectado. Los conectores de
grupo de enrutamiento son el método preferido para conectar grupos
de enrutamiento.

• Conectores para SMTP Se utilizan para definir rutas aisladas para el


correo destinado a Internet o a una dirección externa, o a un sistema
de correo distinto de Exchange. No se recomienda ni se prefiere el
uso del conector para SMTP con el fin de conectar grupos de
enrutamiento. Los conectores para SMTP están diseñados para la
entrega de correo externo.

• Conectores para X.400 Están diseñados principalmente para


conectar servidores de Exchange con otros sistemas X.400 o
servidores de Exchange Server 5.5 que no pertenecen a la
organización de Exchange. Así, un servidor de Exchange Server 2003
puede enviar mensajes con el protocolo X.400 a través de este
conector.

Un algoritmo de estado de los vínculos ofrece las siguientes ventajas:


• Cada servidor de Exchange puede seleccionar la ruta óptima de los
mensajes en el origen, en lugar de enviar mensajes por una ruta en la
que un vínculo (o una ruta) no está disponible.

• Los mensajes ya no van y vuelven entre los servidores porque cada


servidor de Exchange tiene información actualizada sobre si hay
disponibles rutas alternativas o redundantes.

• Ya no se producen bucles de mensajes.

Costos y topología de enrutamiento

Si todas las conexiones entre los grupos de enrutamiento están


disponibles, un servidor del grupo de enrutamiento Seattle siempre
enviará un mensaje al grupo de enrutamiento Bruselas enviando el
mensaje primero a través del grupo de enrutamiento Londres. Esta
ruta tiene un costo de 20 y es la ruta con el menor costo disponible.
Pero si el servidor cabeza de puente de Londres no está disponible,
los mensajes cuyo origen sea Seattle y el destino sea Bruselas
viajarán a través del grupo de enrutamiento Tokio, que tiene un costo
mayor de 35.

Cualquier servidor local puede enviar correo por este conector, se


considerará que el conector del grupo de enrutamiento siempre está
en servicio. Para obtener más información acerca de cómo configurar
conectores de grupo de enrutamiento, consulte “Conexión de grupos
de enrutamiento” en Definición de grupos de enrutamiento.

El siguiente diagrama ilustra una empresa con la topología siguiente:

• Un conector para SMTP con un espacio de direcciones *.net y un


costo de 20.

• Un conector para SMTP con un espacio de direcciones *, que


engloba todas las direcciones externas y tiene un costo de 10.

Cómo utiliza Exchange el espacio de direcciones para enrutar correo

En esta topología, cuando se envía correo a un usuario externo cuya


dirección de correo electrónico es tomas@treyresearch.net, el
enrutamiento busca primero un conector cuyo espacio de direcciones
coincida mejor con el destino de treyresearch.net. El conector para
SMTP que tiene el espacio de direcciones *.net es el que mejor
coincide con el destino, por lo que el enrutamiento utiliza este
conector, independientemente de su costo.

El enrutamiento no conmuta por error desde un conector que tiene un


espacio de direcciones específico a un conector que tiene un espacio
de direcciones menos específico. En el caso anterior, si todos los
usuarios pueden emplear ambos conectores y un usuario intenta
enviar correo a un usuario de treyresearch.net, el enrutamiento ve
como su destino el conector que tiene el espacio de direcciones .net.
Si este conector no está en servicio o no está disponible, el
enrutamiento no intentará buscar un conector con un espacio de
direcciones diferente y menos restrictivo como *, ya que lo
considerará otro destino distinto.

1.3.2 Operaciones Basicas Router

Un router (en español: enrutador o encaminador) es un dispositivo


hardware o software de interconexión de redes de computadoras que
opera en la capa tres (nivel de red) del modelo OSI. Este dispositivo
interconecta segmentos de red o redes enteras. Hace pasar paquetes
de datos entre redes tomando como base la información de la capa
de red.

El router toma decisiones lógicas con respecto a la mejor ruta para el


envío de datos a través de una red interconectada y luego dirige los
paquetes hacia el segmento y el puerto de salida adecuados. Sus
decisiones se basan en diversos parámetros. Una de las más
importantes es decidir la dirección de la red hacia la que va destinado
el paquete (En el caso del protocolo IP esta sería la dirección IP).
Otras decisiones son la carga de tráfico de red en las distintas
interfaces de red del router y establecer la velocidad de cada uno de
ellos, dependiendo del protocolo que se utilice.

1.3.3 Rutas Estaticas y Dinamicas

Rutas estáticas: Las rutas estáticas con aquellas que son puestas a
mano o que vienen puestas por defecto y que no tienen ninguna
reacción ante nuevas rutas o caidas de tramos de la red. Son las
habituales en sistemas cliente; o en redes donde solo se sale a
Internet.
Rutas dinámicas: Un router con encaminamiento dinámico; es capaz
de entender la red y pasar las rutas entre routers vecinos. Con esto
quiero decir que es la propia red gracias a los routers con routing
dinámico los que al agregar nuevos nodos o perderse algún enlace es
capaz de poner/quitar la ruta del nodo en cuestión en la tabla de
rutas del resto de la red o de buscar un camino alternativo o más
óptimo en caso que fuese posible.

1.3.4 Ruta por Defecto

La “ruta por defecto” se utiliza sólamente cuando no se puede aplicar


ninguna de las otras rutas existentes

Cuando el sistema local necesita realizar una conexión con una


máquina remota se examina la tabla de rutas para determinar si se
conoce algún camino para llegar al destino. Si la máquina remota
pertenece a una subred que sabemos cómo alcanzar (rutas clonadas)
entonces el sistema comprueba si se puede conectar utilizando dicho
camino.
Si todos los caminos conocidos fallan al sistema le queda una única
opción: la “ruta por defecto”. Esta ruta está constituída por un tipo
especial de pasarela (normalmente el único “router” presente en la
red área local) y siempre posée el “flag” c en el campo de “flags”. En
una LAN, la pasarela es la máquina que posée conectividad con el
resto de las redes (sea a través de un enlace PPP, DSL, cable modem,
T1 u otra interfaz de red.)

Si se configura la ruta por defecto en una máquina que está actuando


como pasarela hacia el mundo exterior la ruta por defecto será el
“router” que se encuentre en posesión del proveedor de servicios de
internet (ISP).

1.3.5 Protocolos Enrutados y de Enrutamiento

PROTOCOLOS ENRUTADOS

Funciones:

1. Incluir cualquier conjunto de protocolos de red que ofrece


información suficiente en su dirección de capa para permitir
que un Router lo envíe al dispositivo siguiente y finalmente a su
destino.
2. Definir el formato y uso de los campos dentro de un paquete.

El Protocolo Internet (IP) y el intercambio de paquetes de


internetworking (IPX) de Novell son ejemplos de protocolos enrutados.
Otros ejemplos son DEC net, Apple Talk, Banyan VINES y Xerox
Network Systems (XNS).

PROTOCOLOS DE ENRUTAMIENTO

Los Routers utilizan los protocolos de enrutamiento para intercambiar


las tablas de enrutamiento y compartir la información de
enrutamiento. En otras palabras, los protocolos de enrutamiento
permiten enrutar protocolos enrutados.
Funciones: - Ofrecer procesos para compartir la información de ruta. -
Permitir que los Routers se comuniquen con otros Routers para
actualizar y mantener las tablas de enrutamiento.

Los protocolos no enrutables no admiten la Capa 3. El protocolo no


enrutable más común es el Net BEUI. Net Beui es un protocolo
pequeño, veloz y eficiente que está limitado a la entrega de tramas
de un segmento.

Los routers guardan la información en una tabla de enrutamiento y la


comparten. Intercambian información acerca de la topología de la red
mediante los protocolos de enrutamiento.

La determinación de la ruta permite que un Router compare la


dirección destino con las rutas disponibles en la tabla de
enrutamiento, y seleccione la mejor ruta. Si no hay información
acerca de una red destino en la tabla de enrutamiento, el router envía
el paquete al Gateway predeterminado (ruta por defecto). Los Routers
conocen las rutas disponibles por medio del enrutamiento estático o
dinámico.

1.3.6 Información Utilizada por Routers para ejecutar sus


funciones basicas

Los protocolos de enrutamiento son aquellos protocolos que utilizan


los routers o encaminadores para comunicarse entre sí y compartir
información que les permita tomar la decisión de cual es la ruta más
adecuada en cada momento para enviar un paquete. Los protocolos
más usados son RIP (v1 y v2), OSPF (v1, v2 y v3), y BGP (v4), que se
encargan de gestionar las rutas de una forma dinámica. aunque no es
estrictamente necesario que un router haga uso de estos protocolos,
pudiéndosele indicar de forma estática las rutas (caminos a seguir)
para las distintas subredes que estén conectadas al dispositivo.

1.3.7 Configuración de Rip

RIP son las siglas de Routing Information Protocol (Protocolo de


información de encaminamiento). Es un protocolo de pasarela interior
o IGP (Internal Gateway Protocol) utilizado por los routers
(enrutadores), aunque también pueden actuar en equipos, para
intercambiar información acerca de redes IP.

Petición: Enviados por algún enrutador recientemente iniciado que


solicita información de los enrutadores vecinos.
Respuesta: mensajes con la actualización de las tablas de
enrutamiento. Existen tres tipos:

Mensajes ordinarios: Se envían cada 30 segundos. Para indicar que


el enlace y la ruta siguen activos.

Mensajes enviados como respuesta a mensajes de petición.


Mensajes enviados cuando cambia algún coste. Sólo se envían las
rutas que han cambiado .

Funcionamiento RIP

RIP utiliza UDP para enviar sus mensajes y el puerto bien conocido
520.

RIP calcula el camino más corto hacia la red de destino usando el


algoritmo del vector de distancias. La distancia o métrica está
determinada por el número de saltos de router hasta alcanzar la red
de destino.

RIP tiene una distancia administrativa de 120 (la distancia


administrativa indica el grado de confiabilidad de un protocolo de
enrutamiento, por ejemplo EIGRP tiene una distancia administrativa
de 90, lo cual indica que a menor valor mejor es el protocolo
utilizado)
RIP no es capaz de detectar rutas circulares, por lo que necesita
limitar el tamaño de la red a 15 saltos. Cuando la métrica de un
destino alcanza el valor de 16, se considera como infinito y el destino
es eliminado de la tabla (inalcanzable).

La métrica de un destino se calcula como la métrica comunicada por


un vecino más la distancia en alcanzar a ese vecino. Teniendo en
cuenta el límite de 15 saltos mencionado anteriormente. Las métricas
se actualizan sólo en el caso de que la métrica anunciada más el
coste en alcanzar sea estrictamente menor a la almacenada. Sólo se
actualizará a una métrica mayor si proviene del enrutador que
anunció esa ruta.

1.4 Arp , Rarp

ARP son las siglas en inglés de Address Resolution Protocol (Protocolo


de resolución de direcciones).

Es un protocolo de nivel de red responsable de encontrar la dirección


hardware (Ethernet MAC) que corresponde a una determinada
dirección IP. Para ello se envía un paquete (ARP request) a la
dirección de multidifusión de la red (broadcast (MAC = ff ff ff ff ff ff))
conteniendo la dirección IP por la que se pregunta, y se espera a que
esa máquina (u otra) responda (ARP reply) con la dirección Ethernet
que le corresponde. Cada máquina mantiene una caché con las
direcciones traducidas para reducir el retardo y la carga. ARP permite
a la dirección de Internet ser independiente de la dirección Ethernet,
pero esto solo funciona si todas las máquinas lo soportan. ARP está
documentado en el RFC (Request For Comments) 826.

El protocolo RARP realiza la operación inversa. En Ethernet, la capa de


enlace trabaja con direcciones físicas. El protocolo ARP se encarga de
traducir las direcciones IP a direcciones MAC (direcciones físicas).Para
realizar ésta conversión, el nivel de enlace utiliza las tablas ARP, cada
interfaz tiene tanto una dirección IP como una dirección física MAC.
Reverse Address Resolution Protocol

RARP son las siglas en inglés de Reverse Address Resolution Protocol


(Protocolo de resolución de direcciones inverso). Es un protocolo
utilizado para resolver la dirección IP de una dirección hardware dada
(como una dirección Ethernet). La principal limitación era que cada
MAC tenía que ser configurada manualmente en un servidor central y
se limitaba sólo a la dirección IP, dejando otros datos como la
máscara de subred, puerta de enlace y demás información que tenían
que ser configurados a mano. Otra desventaja de este protocolo es
que utiliza como dirección destino, evidentemente, una dirección MAC
de difusión para llegar al servidor RARP. Sin embargo, una petición de
ese tipo no es reenviada por el router del segmento de subred local
fuera de la misma, por lo que este protocolo, para su correcto
funcionamiento, requiere de un servidor RARP en cada subred.
Posteriormente el uso de BOOTP lo dejó obsoleto, ya que éste
funciona con paquetes UDP, los cuales se reenvían a través de los
routers (eliminando la necesidad de disponer de un servidor RARP en
cada subred) y, además, BOOTP ya tiene un conjunto de funciones
mayor que permite obtener más información y no sólo la dirección IP.
RARP está descrito en el RFC 903.

1.5 Igrp , Egp

IGRP (Interior Gateway Routing Protocol, o Protocolo de enrutamiento


de gateway interior) es un protocolo patentado y desarrollado por
CISCO que se emplea con el protocolo TCP/IP según el modelo (OSI)
Internet. La versión original del IP fue diseñada y desplegada con
éxito en 1986. Se utiliza comúnmente como IGP pero también se ha
utilizado extensivamente como Exterior Gateway Protocol (EGP) para
el enrutamiento inter-dominio.
IGRP es un protocolo de enrutamiento basado en la tecnología vector-
distancia. Utiliza una métrica compuesta para determinar la mejor
ruta basándose en el ancho de banda, el retardo, la confiabilidad y la
carga del enlace. El concepto es que cada router no necesita saber
todas las relaciones de ruta/enlace para la red entera. Cada router
publica destinos con una distancia correspondiente. Cada router que
recibe la información, ajusta la distancia y la propaga a los routers
vecinos. La información de la distancia en IGRP se manifiesta de
acuerdo a la métrica. Esto permite configurar adecuadamente el
equipo para alcanzar las trayectorias más óptimas.

IGRP manda actualizaciones cada 90 segundos, y utiliza un cierto


número de factores distintos para determinar la métrica. El ancho de
banda es uno de estos factores, y puede ser ajustado según se desee.

IGRP utiliza los siguientes parámetros:


Retraso de Envío: Representa el retraso medio en la red en unidades
de 10 microsegundos.

Ancho de Banda: Representa la velocidad del enlace, dentro del rango


de los 12000 mbps y 10 Gbps. En realidad el valor usado es la inversa
del ancho de banda multiplicado por 107.

Fiabilidad: va de 0 a 255, donde 255 es 100% confiable.

Distancia administrativa (Load): toma valores de 0 a 255, para un


enlace en particular, en este caso el valor máximo (255) es el pero de
los casos.

La fórmula usada para calcular el parámetro de métrica es:

(K1*Ancho de Banda) + (K2*Ancho de Banda)/(256-Distancia) +


(K3*Retraso)*(K5/(Fiabilidad + K4)).
EGP (Exterior Gateway Protocol) es un protocolo estándar. Su status
es recomendado.

EGP es el protocolo utilizado para el intercambio de información de


encaminamiento entre pasarelas exteriores (que no pertenezcan al
mismo Sistema Autónomo AS). Las pasarelas EGP sólo pueden
retransmitir información de accesibilidad para las redes de su AS. La
pasarela debe recoger esta información, habitualmente por medio de
un IGP, usado para intercambiar información entre pasarelas del
mismo AS (ver Figura - La troncal ARPANET).
EGP se basa en el sondeo periódico empleando intercambios de
mensajes Hello/I Hear You, para monitorizar la accesibilidad de los
vecinos y para sondear si hay solicitudes de actualización. EGP
restringe las pasarelas exteriores al permitirles anunciar sólo las
redes de destino accesibles en el AS de la pasarela. De esta forma,
una pasarela exterior que usa EGP pasa información a sus vecinos
EGP pero no anuncia la información de accesibilidad de estos(las
pasarelas son vecinos si intercambian información de
encaminamiento) fuera del AS. Tiene tres características principales:

Unidad 2 Capas superiores del modelo OSI

2.1 Capa Transporte Osi


La capa transporte no es una capa más del modelo OSI. Es la base de
toda la jerarquía de protocolo. La tarea de esta capa es proporcionar
un transporte de datos confiable y económico de la máquina de
origen a la máquina destino, independientemente de la red de redes
física en uno. Sin la capa transporte, el concepto total d los protocolos
en capas tendría poco sentido.

2.1.1 Parámetros para lograr la Calidad Servicio de


Transporte

Parámetros de calidad

La calidad del servicio que ofrece el nivel de transporte viene


determinada por los siguientes parámetros (nótese que algunos de
ellos sólo tienen sentido en el caso de que el servicio sea orientado a
conexión):

Retardo de establecimiento de conexión Tiempo que transcurre entre


una solicitud de conexión de transporte y la confirmación que recibe
el usuario del servicio. Incluye el retardo de procesamiento en la
entidad de transporte remota. Como en todos los parámetros que
miden un retardo, cuanto menor sea, mejor será la calidad del
servicio ofrecido.

Para profundizar un poco en la diferencia entre el nivel de transporte


y el de red, conviene citar algunas de las técnicas que utilizan las
entidades de transporte para mejorar la calidad ofrecida por el
servicio de red.

Una de ellas es la multiplexión en sus dos versiones: establecer varias


conexiones de red para una conexión de transporte que demanda
gran ancho de banda, o bien establecer una sola conexión de red
correspondiente a varias conexiones de transporte, en el caso de que
el coste por conexión sea elevado.

2.1.1.1 Servicios Orientados a Conexion

Servicio Orientado a Conexión: Se modeló basándose en el sistema


telefónico. Para poder conseguir la conexión, se debe tomar el
teléfono, marcar el número deseado y esperar hasta que alguien
conteste, de ser así, se puede decir que la conexión se realizó con
éxito, de lo contrario no hubo conexión. Los distintos niveles de red
pueden ofrecer dos tipos de servicios diferentes a las capas
superiores : uno orientado a conexión y otro sin conexión. Este tipo
de conexion es mejor conocido como el sistema del telefono hot el
cual tiene una capa

2.1.1.2 Servicios Orientados a no Conexion

Las características principales de un servicio de este tipo a nivel de


red son las siguientes:

• No hay establecimiento de ninguna conexión, sólo hay


transferencia de datos.
• Se usan primitivas del tipo Unit.Data.Request y
Unit.Data.Indication , que contienen como parámetros:

1. Direccion del destinatario.

2. Dirección de la fuente.

3. QoS (Parámetro que determina la calidad de servicio).

4. Datos del usuario.

Notas:

• En CO las primitivas de Data.Request no necesitaban dirección


(la red ya tiene
establecido un circuito virtual para la transmisión).
• Cada paquete que se transmite se transporta de manera
independiente con respecto a los paquetes predecesores.
• Las UNITDATA sólo pueden transmitir hasta un máximo de
64512 octetos y han de preservar la integridad de la
información.
• El emisor sólo se encarga de vaciar el paquete en la red,
deseando que todo resulte lo mejor posible.

Servicio no Orientado a Conexión: Se modeló basándose en el sistema


Postal, cada mensaje (Carta) lleva consigo la dirección completa de
destino y cada uno de ellos se encaminan, en formato independiente,
a través del sistema.
2.2 Capa De Sesión Osi

Esta capa ofrece varios servicios que son cruciales para la


comunicación, como son:

• Control de la sesión a establecer entre el emisor y el receptor


(quién transmite, quién escucha y seguimiento de ésta).

• Control de la concurrencia (que dos comunicaciones a la misma


operación crítica no se efectúen al mismo tiempo).

• Mantener puntos de verificación (checkpoints), que sirven para


que, ante una interrupción de transmisión por cualquier causa,
la misma se pueda reanudar desde el último punto de
verificación en lugar de repetirla desde el principio.

Por lo tanto, el servicio provisto por esta capa es la capacidad de


asegurar que, dada una sesión establecida entre dos máquinas, la
misma se pueda efectuar para las operaciones definidas de principio
a fin, reanudándolas en caso de interrupción.

2.2.1 Intercambio de Datos

La característica mas importante de la capa de sesión es el


intercambio de datos. Una sesión, al igual que una conexión de
transporte, sigue un proceso de tres fases: la de establecimiento, la
de utilización y la de liberación. Las primitivas que se le proporcionan
a la capa de presentación, para el establecimiento, utilización y
liberación de sesiones, son muy parecidas a las proporcionadas a la
capa de sesión para el establecimiento, uso y liberación de
conexiones de transporte. En muchos casos, todo lo que la entidad de
sesión tiene que hacer, cuando primitiva es invocada por el usuario
de sesión, es invocar la primitiva de transporte correspondiente para
que se pueda así realizar el trabajo.

2.2.2 Administracion del Dialogo

En principio, todas las conexiones del modelo OSI son dúplex, es


decir, las unidades de datos del protocolo(PDU) se pueden mover en
ambas direcciones simultáneamente sobre la misma conexión.
Aunque puede haber situaciones en las que el software de capas
superiores esta estructurado de tal forma que espera que los usuarios
tomen turno convirtiendo la comunicación en semidúplex. La
administración del dialogo será uno e los servicio de la capa de sesión
y consistirá en mantener un seguimiento de a quien le corresponde el
turno de hablar y de hacerlo cumplir. En el momento en el que se
inicia una sesión se seleccionara el modo de funcionamiento y ya sea
dúplex o semidúplex, la negociación inicial determina quien tendrá
primeramente el testigo de datos porque solo el usuario que posee el
testigo podrás transmitir mientras el otro se mantendrá en silencio.
Cuando termine le pasara el testigo a su interlocutor.

2.2.3 Sincronización Capa Sesión

Sincronización: Este servicio de la capa de sesión se encarga de llevar


a las entidades de vuelta a un estado conocido cuando se produce
algún error o desacuerdo. Es necesario porque la capa de transporte
está diseñada para recuperar los errores de comunicación, pero
pueden suceder errores en niveles superiores, y hay que controlarlos.

La única responsabilidad del nivel de sesión es proporcionar la forma


de poner, a través de la red, una serie de señales numeradas de
sincronización, pues el mantener a salvo el mensaje y reenviarlo es
misión de los niveles por encima del de sesión. Elementos a tener en
cuenta en la sincronización:
• Puntos de sincronización mayores: Se deben confirmar
explícitamente. Son utilizados para que ciertas actividades se
hagan completamente o no se hagan. Es necesario para ponerlo
tener el testigo de sincronización mayor o actividad.

• Puntos de sincronización menores: Son puntos sin asentimiento,


pues sincronizan tareas menos críticas. Es necesario tener el
testigo de sincronización menor.

• Unidades de diálogo: Las delimitadas por los puntos de


sincronización mayor.

2.2.4 Notificacion de Excepciones

Otra característica de la capa de sesión es la correspondiente a un


mecanismo de propósito general para notificar errores inesperados. Si
un usuario tiene algún problema, por cualquier razón, este problema
se puede notificar a su corresponsal utilizando la primitiva S-U-
EXCEPTION-REPORT.request. Algunos datos del usuario se pueden
transferir utilizando esta primitiva. Los datos del usuario,
generalmente, explicaran que es lo que sucedió. La notificación de
excepciones no solamente se aplica a los errores detectados del
usuario.

El proveedor del servicio puede generar una primitiva S-P-EXCEPTION-


REPORT.indication para informarle al usuario sobre los problemas
internos que existen dentro de la capa de sesión, o sobre problemas
que le reporten procedentes de las capas de transporte o inferiores.
Estas notificaciones contienen un campo que describe la naturaleza
de la excepción. La decisión sobre que acción tomar, si hay alguna,
dependerá del usuario.

2.2.5 Llamada Procedimientos Remotos

El RPC (del inglés Remote Procedure Call, Llamada a Procedimiento


Remoto) es un protocolo que permite a un programa de ordenador
ejecutar código en otra máquina remota sin tener que preocuparse
por las comunicaciones entre ambos. El protocolo es un gran avance
sobre los sockets usados hasta el momento. De esta manera el
programador no tenía que estar pendiente de las comunicaciones,
estando éstas encapsuladas dentro de las RPC.

Las RPC son muy utilizadas dentro del paradigma cliente-servidor.


Siendo el cliente el que inicia el proceso solicitando al servidor que
ejecute cierto procedimiento o función y enviando éste de vuelta el
resultado de dicha operación al cliente.

2.3 Capa de presentación

2.3.1 Códigos de Representación de Datos

El código Unicode (del inglés «universal» y «code» - universal y


código o sea código universal o unicódigo) es un estándar industrial
cuyo objetivo es proporcionar el medio por el cual un texto en
cualquier forma e idioma pueda ser codificado para el uso
informático. El establecimiento de Unicode ha involucrado un
ambicioso proyecto para reemplazar los esquemas de codificación de
caracteres existentes, muchos de los cuales están muy limitados en
tamaño y son incompatibles con entornos plurilingües. Unicode se ha
vuelto el más extenso y completo esquema de codificación de
caracteres, siendo el más dominante en la internacionalización y
adaptación local del software informático. El estándar ha sido
implementado en un número considerable de tecnologías recientes,
que incluyen XML, Java y sistemas operativos modernos.

2.3.2 Tecnicas Compresion Datos

Las técnicas de compresión son objeto de otro de los trabajos de la


asignatura, sin embargo están muy relacionadas con los formatos de
audio digital por lo que las trataré de forma muy general y breve.

Las técnicas de compresión son la herramienta fundamental de la que


se dispone para alcanzar el compromiso adecuado entre capacidad
de almacenamiento y de procesamiento requeridas.
Las técnicas de compresión más elaboradas proporcionan una
reducción muy importante de la capacidad de almacenamiento, pero
requieren también de un importante procesado tanto para
compresión como para la descompresión (sobre todo en la
compresión). Las técnicas más simples ofrecen reducciones
moderadas con poco procesamiento. Las características del sistema
digital implicado y la aplicación determinarán el compromiso entre
estos factores y permiten seleccionar las técnicas de compresión
adecuadas. Las técnicas más avanzadas analizan la respuesta del
oído a la señal y simplifican aquellos elementos irrelevantes para la
sensación sonora, consiguiendo tasas de compresión mucho mayores.

2.3.3 Criptografía Capa Presentación

La capa de presentación (Nivel 6 del modelo OSI) provee la


comunicación a nivel de lenguaje entre el usuario y la máquina que
esté empleando para acceder a la red

La capa de presentación realiza ciertas funciones que se necesitan


bastante a menudo como para buscar una solución general para ellas,
más que dejar que cada uno de los usuarios resuelva los problemas.
En particular y, a diferencia de las capas inferiores, que únicamente
están interesadas en el movimiento fiable de bits de un lugar a otro.

Algunas de sus funciones son las siguientes:


Establece una sintaxis y semántica de la información transmitida. Se
define la estructura de los datos a transmitir (v.g. define los campos
de un registro: nombre, dirección, teléfono, etc). Define el código a
usar para representar una cadena de caracteres (ASCII, EBCDIC, etc).

Criptografía: Ciencia que trata del enmascaramiento de la


comunicación de modo que sólo resulte inteligible para la persona
que posee la clave, o método para averiguar el significado oculto,
mediante el criptoanálisis de un texto aparentemente incoherente.

CRIPTOGRAFÍA SIMÉTRICA (CLAVE SECRETA)

Es el sistema de cifrado más antiguo y consiste en que tanto el


emisor como el receptor encriptan y desencriptan la información con
una misma clave k (clave secreta) que ambos comparten. El
funcionamiento es muy sencillo: el emisor cifra el mensaje con la
clave k y se lo envía al receptor. Este último, que conoce dicha clave,
la utiliza para desencriptar la información.

Es importante considerar que para que el sistema sea


razonablemente robusto contra ataques de tipo criptoanálisis, esta
clave k ha de ser mayor de 40 bits, lo cual choca con las restricciones
de exportación de tecnología criptográfica del gobierno americano,
que marca los 40 bits como límite de clave para programas que
utilicen este tipo de tecnología.

Algoritmos típicos que utilizan cifrado simétrico son DES, IDEA, RC5,
etc, El criptosistema de clave secreta más utilizado es el Data
Encryption Standard (DES) desarrollado por IBM y adoptado por las
oficinas gubernamentales estadounidenses para protección de datos
desde 1977.

2.4.1 Configuracion Servicios

IPTABLES

En linux, el filtrado de paquetes se controla a nivel del kernel. Existen


modulos para el kernel que permiten definir un sistema de reglas
para aceptar o rechazar los paquetes o las comunicaciones que pasan
por el sistema. Estos sistemas de reglas conforman lo que se conoce
como firewall o cortafuegos; en otros sistemas los firewall pueden
estar implementados en software y estar desvinculados del sistema
operativo, pero en el caso de linux, el firewall se puede montar a nivel
de kernel y no es necesario instalar un software adicional que para
mas INRI a veces tiene agujeros.

Unidad 3 Técnicas de conmutación

3.1 Conmutacion Circuitos

La comunicación entre un origen y un destino habitualmente pasa por


nodos intermedios que se encargan de encauzar el tráfico. Por
ejemplo, en las llamadas telefónicas los nodos intermedios son las
centralitas telefónicas y en las conexiones a Internet, los routers o
encaminadores. Dependiendo de la utilización de estos nodos
intermedios, se distingue entre conmutación de circuitos, de
mensajes y de paquetes.
En la conmutación de circuitos se establece un camino físico entre el
origen y el destino durante el tiempo que dure la transmisión de
datos. Este camino es exclusivo para los dos extremos de la
comunicación: no se comparte con otros usuarios (ancho de banda
fijo). Si no se transmiten datos o se transmiten pocos se estará
infrautilizando el canal. Las comunicaciones a través de líneas
telefónicas analógicas (RTB) o digitales (RDSI) funcionan mediante
conmutación de circuitos.

Un mensaje que se transmite por conmutación de mensajes va


pasando desde un nodo al siguiente, liberando el tramo anterior en
cada paso para que otros puedan utilizarlo y esperando a que el
siguiente tramo esté libre para transmitirlo. Esto implica que el
camino origen-destino es utilizado de forma simultánea por distintos
mensajes. Sin embargo, éste método no es muy útil en la práctica ya
que los nodos intermedios necesitarían una elevada memoria
temporal para almacenar los mensajes completos. En la vida real
podemos compararlo con el correo postal.

Finalmente, la conmutación de paquetes es la que realmente se


utiliza cuando hablamos de redes. Los mensajes se fragmentan en
paquetes y cada uno de ellos se envía de forma independiente desde
el origen al destino.

3.2 Conmutacion Mensajes


Conmutación de Mensajes. El mensaje es una unidad lógica de datos
de usuario, de datos de control o de ambos que el terminal emisor
envía al receptor. El mensaje consta de los siguientes elementos
llamados campos: • Datos del usuario. Depositados por el interesado.
• Caracteres SYN. (Caracteres de Sincronía). • Campos de dirección.
Indican el destinatario de la información. • Caracteres de control de
comunicación. • Caracteres de control de errores. Además de los
campos citados, el mensaje puede contener una cabecera que ayuda
a la identificación de sus parámetros (dirección de destino, enviante,
canal a usar, etc.). La conmutación de mensajes se basa en el envío
de mensaje que el terminal emisor desea transmitir al terminal
receptor aun nodo o centro de conmutación en el que el mensaje es
almacenado y posteriormente enviado al terminal receptor o a otro
nodo de conmutación intermedio, si es necesario. Este tipo de
conmutación siempre conlleva el almacenamiento y posterior envío
del mensaje lo que origina que sea imposible transmitir el mensaje al
nodo siguiente hasta la completa recepción del mismo en el nodo
precedente.

3.3 Conmutacion Paquetes

La conmutación de paquetes surge intentando optimizar la utilización


de la capacidad de las líneas de transmisión existentes. Para ello seria
necesario disponer de un método de conmutación que proporcionara
la capacidad de transmisión en tiempo real de la conmutación de
circuitos y la capacidad de direccionamineto de la conmutación de
mensajes.

Esta se basa en la división de la información que entrega a la red el


usuario emisor en paquetes del mismo tamaño que generalmente
oscila entre mil y dos mil bits.
Los paquetes poseen una estructura tipificada y, dependiendo del uso
que la red haga de ellos, contienen información de enlace o
información de usuario.

• El campo indicador (Flag) tiene una longitud de ocho Bits y su


misión es la de indicar el comienzo y el final del paquete.

• El campo dirección (Adress) indica cual es el sentido en el que


la información debe progresar dentro de la red. Su longitud es
de ocho Bits.
• El campo de secuencia de verificación de trama (Frame
Checking Secuence) es el encargado de servir como referencia
para comprobar la correcta transmisión del paquete. Su
longitud es de 16 Bits.

• El campo de información posee una longitud indeterminada,


aunque sujeta a unos márgenes superiores, y es el contiene la
información que el usuario emisor desea intercambiar con el
receptor. Además este campo incluye otros tipos de datos que
son necesarios para el proceso global de la comunicación como
el numero del canal lógico que se esta empleando, el numero
de orden dentro del mensaje total, etc.

• La técnica de conmutación de paquetes permite dos formas


características de funcionamiento: datagrama y circuito virtual.

• En el modo de funcionamiento en datagrama, la red recibe los


paquetes y, mediante el análisis e interpretación del campo de
dirección de los mismos, los encamina hacia su destino, sin
importar que lleguen al mismo ordenados o no y sin que en
destino se informe al origen de la recepción de los mismos. El
funcionamiento en datagrama requiere en destino de los
medios adecuados para organizar la información según el orden
inicial que poseía.

• En el modo de funcionamiento de circuito virtual, la red,


mediante el análisis e interpretación de los campos de control y
de secuencia de verificación de trama, averigua cual es la
dirección de entrega y el numero que el paquete posee en el
conjunto global, para, de este modo, entregarlos en destino en
el mismo orden en que fueron entregados en origen.

La conmutación de paquetes es el método de conmutación que se


emplea con mayor profusión hoy día en las redes de datos publicas.
Esta presenta ventajas que soportan su creciente utilización en
transmisión de datos. Entre ellas se citan especialmente la gran
flexibilidad y rentabilidad en las líneas que se logran gracias al
encaminamiento alternativo que proporcionas esta técnica.

3.3.1 Topologia Redes de Paquetes


Estas son las topologías usadas para la distribución de paquetes, al
igual que sus descripciones, ventajas y desventajas.

Topología de bus

La topología de bus es la manera más simple de organizar una red. En


la topología de bus, todos los equipos están conectados a la misma
línea de transmisión mediante un cable, generalmente coaxial. La
palabra “bus” hace referencia a la línea física que une todos los
equipos de la red.

La ventaja de esta topología es su facilidad de implementación y


funcionamiento. Sin embargo, esta topología es altamente vulnerable,
ya que si una de las conexiones es defectuosa, esto afecta a toda la
red.

Topología de estrella
En la topología de estrella, los equipos de la red están conectados a
un hardware denominado concentrador. Es una caja que contiene un
cierto número de sockets a los cuales se pueden conectar los cables
de los equipos. Su función es garantizar la comunicación entre esos
sockets.

Topología en anillo

En una red con topología en anillo, los equipos se comunican por


turnos y se crea un bucle de equipos en el cual cada uno “tiene su
turno para hablar” después del otro.

En realidad, las redes con topología en anillo no están conectadas en


bucles. Están conectadas a un distribuidor (denominado MAU, Unidad
de acceso multiestación) que administra la comunicación entre los
equipos conectados a él, lo que le da tiempo a cada uno para
“hablar”.

Protocolos orientados a conexión y no-conexión

Los protocolos pueden ser orientados a conexión y orientados a no-


conexión. Los orientados a conexión, las entidades correspondientes
mantienen las información del estatus acerca del dialogo que están
manteniendo.
Esta información del estado de la conexión soporta control de error,
secuencia y control de flujo entre las correspondientes entidades. Es
decir, La entidad receptora le avisa a la entidad transmisora si la
información útil llego correctamente, si no es así también le avisa que
vuelva a retransmitir.

El control de error se refiere a una combinación de detección de error


(y corrección) y reconocimiento (acknowledgment). El control de
secuencia se refiere a la habilidad de cada entidad para reconstruir
una serie de mensajes recibidos en el orden apropiado. El control de
flujo se refiere a la habilidad para que ambas partes en un dialogo
eviten el sobreflujo de mensajes entre sí. Fragmentación y
ensamblado

MTU, Maximum Transfer Unit (unidad de transferencia máxima). Es el


tamaño máximo de paquete que se puede dar en una capa de la
arquitectura de protocolos (generalmente la capa de enlace de datos)

Por tanto si algún paquete que viene de una red con un tamaño
mayor que la MTU de la red actual, el gateway entre la primera y la
segunda red debe adaptar el tamaño de dicho paquete a la MTU de la
red actual mediante una fragmentación. La posibilidad de
reensamblado es opcional en el caso en que dicho paquete vuelva a
una red con una MTU mayor que la actual, pero no suele hacerse por
necesitar esta opción de un procesamiento mayor.

Los protocolos orientados a conexión operan en tres fases.

• La primera fase es la fase de configuración de la conexión,


durante la cual las entidades correspondientes establecen la
conexión y negocian los parámetros que definen la conexión.

• La segunda fase es la fase de transferencia de datos, durante la


cual las entidades correspondientes intercambian mensajes
(información útil) bajo el amparo de la conexión.

• Finalmente, la última fase, fase de liberación de la conexión, en


la cual ambas entidades se ponen de acuerdo para terminar la
conexión. Un ejemplo de la vida diaria de un protocolo
orientado a conexión es una llamada telefónica. La parte
originadora (el que llama) deberá primero “marcar” el número
del teléfono usuario (abonado) destino. La infraestructura
telefónica deberá asignar el circuito extremo-extremo, entonces
hace timbrar el teléfono del usuario destino. Al momento que
éste levanta el teléfono se establece la llamada o conexión y
ambos empiezan a conversar. En algún momento, alguno de los
dos cuelga, y la conexión de termina y se libera el circuito.
Entonces se termina la llamada.

Los protocolos orientados a no-conexión difieren bastante a los


orientados a conexión, ya que estos (los de no-conexión) no proveen
capacidad de control de error, secuencia y control de flujo. Los
protocolos orientados a no-conexión, están siempre en la fase de
transferencia de datos, y no les interesa las fases restantes de
configuración y liberación de una conexión.

Los protocolos orientados a no-conexión se emplean en aplicaciones


donde no se requiera mucha precisión. Tal es el caso de la voz,
música o el video. Pero en cambio en aplicaciones donde se requiera
mucha precisión [transacciones electrónicas bancarias, archivos de
datos, comercio electrónico, etc.] se utilizarían los protocolos
orientados a conexión.

ORIENTADOS A BITS y ORIENTADOS A BYTE

En cualquier sesión de comunicación entre dispositivos, códigos de


control son usados para controlar otro dispositivo o proveer
información acerca del estatus de la sesión. Los protocolos orientados
a byte o caracter utilizan bytes completos para representar códigos
de control establecidos tales como los definidos por el código ASCII
(American Standard Code for Information Interchange) o código
EBCDIC (Extended Binary Coded Decimal Interchange Code). En
contraste, los protocolos orientados a bits confian en bits individuales
para códigos de control. Los protocolos orientados a Byte transmiten
los datos como si fueran cadenas de caracteres. El método de
transmisión es asíncrono. Cada caracter es separado de un bit de
inicio y un bit de paro o termino, y no es necesario un mecanismo de
reloj.

BIT oriented protocols

En una transmisión orientada a bit, los datos son transmitidos como


constantes ráfagas de bits. Antes de que la transmisión de datos
empiece, caracteres especiales de sincronía son transmitidos por el
transmisor, así el receptor puede sincronizarse a sí mismo con la
ráfaga de bits. Este patrón de bits es comunmente representado en
una cadena de 8 bits.

SDLC (Synchronous Data Link Control) de IBM es un protocolo


orientado a bits. Su caracter de sincronia (sync) es la cadena de bits
01111110, y esto es seguido por una dirección de 8 bits, un campo de
control y por por los datos (información útil). Una vez que el sistema
receptor recibe esas tramas iniciales, empieza a leer 8 bits a la vez (1
byte) desde la cadena de bits hasta que aparezca un error o una
bandera de término. Los protocolos SDLC y HDLC (High-level Data
Link Control) de IBM son orientados a bit. HDLC es usado
comúnmente en las redes de conmutación de paquetes X.25, SDLC es
un subconjunto de HDLC.

3.3.2 Datagramas y Circuitos Virtuales

El concepto de circuito virtual se refiere a una asociación


bidireccional, a través de la red, entre dos ETD, circuito sobre el cual
se realiza la transmisión de los paquetes.

Al inicio, se requiere una fase de establecimiento de la conexión,


denominado: “llamada virtual” Durante la llamada virtual los ETDs se
preparan para el intercambio de paquetes y la red reserva los
recursos necesarios para el circuito virtual. Los paquetes de datos
contienen sólo el número del circuito virtual para identificar al
destino.

Si la red usa encaminamiento adaptativo, el concepto de circuito


virtual garantiza la secuenciación de los paquetes, a través de un
protocolo fin-a-fin (nodo origen/nodo destino).
El concepto de CV permite a un ETD establecer caminos de
comunicación concurrentes con varios otros ETDs, sobre un único
canal físico de acceso a la red. El CV utiliza al enlace físico sólo
durante la transmisión del paquete.

DATAGRAMAS

Es un paquete autosuficiente (análogo a un telegrama) el cual


contiene información suficiente para ser transportado a destino sin
necesidad de, previamente, establecer un circuito.
No se provee confirmación de recepción por el destinatario, pero
puede existir un aviso de no entrega por parte de la red.

Algunas redes privadas trabajan en base a DATAGRAMAS, pero en


redes públicas, donde existen cargos por paquetes transmitidos, no
existe buena acogida para este tipo de servicios.

Una alternativa al servicio de DATAGRAMA propuesto al CCITT, es la


facilidad de selección rápida o Fast Select, la cual es aplicable en la
llamada virtual ð CVT Fast Select permite transmitir datos en el
campo de datos del paquete de control que establece el circuito
virtual. La respuesta confirma la recepción y termina el CV.

3.3.2.1 Estructura Conmutadores

3.3.2.2 Conmutacion de Paquetes


La conmutación es una técnica que nos sirve para hacer un uso
eficiente de los enlaces físicos en una red de computadoras. Si no
existiese una técnica de conmutación en la comunicación entre dos
nodos, se tendría que enlazar en forma de malla. Una ventaja
adicional de la conmutación de paquetes, (además de la seguridad de
transmisión de datos) es que como se parte en paquetes el mensaje,
éste se está ensamblando de una manera más rápida en el nodo
destino, ya que se están usando varios caminos para transmitir el
mensaje, produciéndose un fenómeno conocido como “transmisión en
paralelo”. Además, si un mensaje tuviese un error en un bit de
información, y estuviésemos usando la conmutación de mensajes,
tendríamos que retransmitir todo el mensaje; mientras que con la
conmutación de paquetes solo hay que retransmitir el paquete con el
bit afectado, lo cual es mucho menos problemático. Lo único
negativo, quizás, en el esquema de la conmutación de paquetes es
que su encabezado es más grande.

Ventajas generales: - Los paquetes forman una cola y se transmiten


lo más rápido posible. - Permiten la conversión en la velocidad de los
datos. - La red puede seguir aceptando datos aunque la transmisión
se hará lenta. - Existe la posibilidad de manejar prioridades(si un
grupo de información es más importante que los otros, será
transmitido antes que dichos otros). Técnicas de Conmutación: Para
la utilización de la Conmutación de Paquetes se han definido dos tipos
de técnicas: los Datagramas y los Circuitos Virtuales. Datagramas:
Considerado el método más sensible. - No tiene fase de
establecimiento de llamada. - El paso de datos es más seguro. - No
todos los paquetes siguen una misma ruta. - Los paquetes pueden
llegar al destino en desorden debido a que su tratamiento es
independiente. - Un paquete se puede destruir en el camino, cuya
recuperación es responsabilidad de la estación de destino.

Circuitos Virtuales: - Son los más usados. - Su funcionamiento es


similar al de redes de conmutación de circuitos. - Previo a la
transmisión se establece la ruta previa a la transmisión de los
paquetes por medio de paquetes de Petición de Llamada (pide una
conexión lógica al destino) y de Llamada Aceptada (en caso de que la
estación destino esté apta para la transmisión envía este tipo de
paquete ); establecida la transmisión, se da el intercambio de datos, y
una vez terminado, se presenta el paquete de Petición de
Liberación(aviso de que la red está disponible, es decir que la
transmisión ha llegado a su fin). - Cada paquete tiene un identificador
de circuito virtual en lugar de la dirección del destino. - Los paquetes
se recibirán en el mismo orden en que fueron enviados.

En síntesis, una red de conmutación de paquetes consiste en una


“malla” de interconexiones facilitadas por los servicios de
telecomunicaciones, a través de la cual los paquetes viajan desde la
fuente hasta el destino.

3.3.3 Encaminamiento Redes de Paquetes


Cuando la red de conmutación de paquetes funciona en modo circuito
virtual, generalmente la función de encaminamiento establece una
ruta que no cambia durante el tiempo de vida de ese circuito virtual.
En este caso el encaminamiento se decide por sesión.

3.3.4 Gestion de Trafico

En telefonía la gestión de tráfico o gestión de red es una actividad de


administración de la red telefónica cuyo objetivo es asegurar que el
mayor número posible de llamadas telefónicas son conectadas a su
destino.

3.3.5 Control de Congestion


La congestión se refiere a la presencia en demasía de paquetes en
una parte de una subred. En casos de extrema congestión, los routers
comienzan a “rechazar” paquetes, disminuyendo de esta forma el
rendimiento del sistema. Las razones de la congestión son muchas,
entre ellas están: • Por ejemplo, si por 4 líneas le llega información a
un router y todas necesitan la misma línea de salida → competencia.
• Insuficiente cantidad de memoria en los routers. Pero añadir más
memoria ayuda hasta cierto punto solamente, ya que si tiene
demasiada memoria, el tiempo para llegar al primero de la cola
puede ser demasiado. • Procesadores lentos en los routers. El
proceso de “analizar” los paquetes es caro, así que procesadores
lentos pueden provocar congestión. A. El control de flujo y el control
de la congestión no son lo mismo: Control de Flujo: se preocupa de
que un emisor rápido no sature a un receptor lento.

Control de Congestión: su función es tratar de evitar que se


sobrecargue la red.

El control de flujo es una más de las técnicas para combatir la


congestión. Se consigue con ella parar a aquellas fuentes que vierten
a la red un tráfico excesivo. Las soluciones para el problema de la
congestión se pueden dividir en dos clases: Open Loop: Tratan de
resolver el problema con un buen diseño. Usan algoritmos para
decidir cuando aceptar más paquetes, cuando descartarlos, etc. Pero
no utilizan el actual estado de la red. Closed Loop: La solución en este
caso se basa en la retroalimentación de la línea. Por lo general tienen
tres partes: 1. Monitorean el sistema para detectar cuándo y dónde
ocurre la congestión. 2. Se pasa esta información hacia donde se
puedan tomar acciones. 3. Se ajustan los parámetros de operación
del sistema para corregir los problemas. Varias medidas del
rendimiento pueden ser usadas para medir la congestión.

Unidad 4 TCP/IP

4.1 Modelo Cliente Servidor


TCP es un protocolo orientado a conexión. No hay relaciones
maestro/esclavo. Las aplicaciones, sin embargo, utilizan un modelo
cliente/servidor en las comunicaciones.

Un servidor es una aplicación que ofrece un servicio a usuarios de


Internet; un cliente es el que pide ese servicio. Una aplicación consta
de una parte de servidor y una de cliente, que se pueden ejecutar en
el mismo o en diferentes sistemas.
Los usuarios invocan la parte cliente de la aplicación, que construye
una solicitud para ese servicio y se la envía al servidor de la
aplicación que usa TCP/IP como transporte.

El servidor es un programa que recibe una solicitud, realiza el servicio


requerido y devuelve los resultados en forma de una respuesta.
Generalmente un servidor puede tratar múltiples peticiones(múltiples
clientes) al mismo tiempo.

4.2 Protocolo de Internet Ip movil

IP Móvil Movilidad de terminales en Internet Originalmente, los


métodos de enrutamiento fueron definidos para redes estáticas, sin
considerar que un terminal o nodo pudiese desplazase de una red o
subred a otra. El enrutamiento toma ventaja del “prefijo de red” que
contiene cada dirección IP para conocer la ubicación física de una
computadora y por defecto, dicha ubicación es fija.
La movilidad de terminales toma relevancia día a día debido al
creciente uso de computadoras portátiles y al deseo de sus usuarios
de mantenerse continuamente conectados a Internet.

El Protocolo IP Móvil define procedimientos por los cuales los


paquetes pueden ser enrutados a un nodo móvil,
independientemente de su ubicación actual y sin cambiar su dirección
IP. Los paquetes destinados a un nodo móvil primeramente son
dirigidos a su red local. Allí, un agente local los intercepta y mediante
un túnel los reenvía a la dirección temporal recientemente informada
por el nodo móvil. En el punto final del túnel un agente foráneo recibe
los paquetes y los entrega al nodo móvil.

Este documento pretende describir el desarrollo actual del protocolo


de Internet diseñado para soportar movilidad de terminales, pudiendo
ser usado como punto de partida válido por todo aquél que desee
iniciarse en el tema. Luego de consultar el nutrido acervo
bibliográfico, se expone en primer lugar, características y
terminología, posteriormente su funcionamiento y evolución. Por
último se comentan problemas a cuestiones del protocolo, y posibles
soluciones.

Tomando fuente, encapsulador, desencapsulador y destino como


nodos independientes. El nodo que encapsula paquetes
(encapsulador) es considerado el punto de entrada al túnel y el nodo
que los desencapsula el punto de salida del túnel. En general, pueden
existir múltiples pares fuente-destino usando el mismo túnel entre
encapsulador-desencapsulador.

“El mecanismo de encapsulamiento por defecto que debe ser


soportado por todos los agentes de movilidad que usen IP Móvil, es IP-
within-IP”.

El TTL del encabezado IP interior no cambia durante el


desencapsulamiento. Si después de este proceso el paquete interno
tiene un TTL=0, el desencapsulador debe descartar al paquete. Si
después del desencapsulamiento, el desencapsulador reenvía el
paquete a una de sus interfaces, decrementa el TTL como en un
reenvío normal.

El encapsulador generalmente usa las opciones IP permitidas para


entregar la carga encapsulada al final del túnel, puede usar también
la fragmentación, a menos que esté seteado el bit de no-
fragmentación

Encapsulado mínimo El encapsulado mínimo es un método por el cual


un paquete puede ser encapsulado (conducido como carga) dentro de
un paquete IP con menos gasto (overhead) que la encapsulación IP-
dentrode-IP, que agrega un segundo encabezado IP a cada paquete
encapsulado. Este método es levemente más complicado dado que la
información de los encabezados, interior y exterior, es combinada
para reconstruir el encabezado IP original y en consecuencia, reduce
el gasto del encabezado.

En el encapsulamiento, el encabezado IP del paquete original es


modificado:

El campo protocolo en el encabezado IP es reemplazado por el


número 55 El campo dirección destino en el encabezado IP es
reemplazado por la dirección IP del punto de salida del túnel. Si el
encapsulador no es la fuente original del paquete, el campo dirección
fuente en el encabezado IP es reemplazado por la dirección IP del
encapsulador. El campo longitud total es incrementado por el tamaño
del encabezado de reenvío mínimo. El campo suma de comprobación
encabezado es recalculado en base a los cambios descriptos. A
diferencia de la encapsulación IP-dentrode-IP, el campo TTL en el
encabezado IP no es modificado durante la encapsulación, si el
encapsulador está reenviando el paquete, éste podría decrementar el
TTL como resultado de un ruteo IP normal. Dado que el TTL original
permanece en el encabezado IP después de la encapsulación, los
datos tomados por el paquete dentro del túnel son visibles, por
ejemplo realizando un “tracerouter”.

Protocolo: copiado del campo protocolo en el encabezado IP original


Dirección fuente original presente (S): si es igual a cero indica que el
campo dirección fuente original no está presente. Si es igual a uno
indica que sí está presente. Reservado: seteado en cero, ignorado
sobre recepción. Suma de comprobación encabezado: suma de
comprobación. Dirección destino original: copiado del campo
dirección destino del encabezado IP original. Dirección fuente original:
copiado del campo dirección fuente del encabezado IP original.
Cuando un paquete es desencapsulado, los campos en el encabezado
de reenvío son restaurados a los del encabezado IP y el encabezado
de reenvío es removido del paquete. Además, al campo longitud total
en el encabezado IP se le resta el tamaño del encabezado de reenvío
mínimo removido y el campo suma de comprobación encabezado es
recalculado en base a los cambios producidos en el encabezado IP a
raíz de la desencapsulación.

4.3 Protocolos de Transporte Udp Tcp

El grupo de protocolos de Internet también maneja un protocolo de


transporte sin conexiones, el UDP (User Data Protocol, protocolo de
datos de usuario). El UDP ofrece a las aplicaciones un mecanismo
para enviar datagramas IP en bruto encapsulados sin tener que
establecer una conexión. Muchas aplicaciones cliente-servidor que
tienen una solicitud y una respuesta usan el UDP en lugar de tomarse
la molestia de establecer y luego liberar una conexión. El UDP se
describe en el RFC 768. Un segmento UDP consiste en una cabecera
de 8 bytes seguida de los datos. La cabecera se muestra a
continuación. Los dos puertos sirven para lo mismo que en el TCP:
para identificar los puntos terminales de las máquinas origen y
destino. El campo de longitud UDP incluye la cabecera de 8 bytes y
los datos. La suma de comprobación UDP incluye la misma
pseudocabecera de formato, la cabecera UDP, y los datos, rellenados
con una cantidad par de bytes de ser necesario. UDP no admite
numeración de los datagramas, factor que, sumado a que tampoco
utiliza señales de confirmación de entrega, hace que la garantía de
que un paquete llegue a su destino sea mucho menor que si se usa
TCP. Esto también origina que los datagramas pueden llegar
duplicados y/o desordenados a su destino. Por estos motivos el
control de envío de datagramas, si existe, debe ser implementado por
las aplicaciones que usan UDP como medio de transporte de datos, al
igual que el reeensamble de los mensajes entrantes. Es por ello un
protocolo del tipo best-effort (máximo esfuerzo), porque hace lo que
puede para transmitir los datagramas hacia la aplicación, pero no
puede garantizar que la aplicación los reciba.

Tcp
Protocolo TCP/IP Una red es una configuración de computadora que
intercambia información. Pueden proceder de una variedad de
fabricantes y es probable que tenga diferencias tanto en hardware
como en software, para posibilitar la comunicación entre estas es
necesario un conjunto de reglas formales para su interacción. A estas
reglas se les denominan protocolos.

Un protocolo es un conjunto de reglas establecidas entre dos


dispositivos para permitir la comunicación entre ambos.

Es un protocolo DARPA que proporciona transmisión fiable de


paquetes de datos sobre redes. El nombre TCP / IP Proviene de dos
protocolos importantes de la familia, el Transmission Contorl Protocol
(TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100
protocolos diferentes definidos en este conjunto.

El TCP / IP es la base del Internet que sirve para enlazar


computadoras que utilizan diferentes sistemas operativos, incluyendo
PC, minicomputadoras y computadoras centrales sobre redes de área
local y área extensa. TCP / IP fue desarrollado y demostrado por
primera vez en 1972 por el departamento de defensa de los Estados
Unidos, ejecutándolo en el ARPANET una red de área extensa del
departamento de

4.4 Protocolos Nivel Aplicacion


El nivel de aplicación es el nivel que los programas más comunes
utilizan para comunicarse a través de una red con otros programas.
Los procesos que acontecen en este nivel son aplicaciones específicas
que pasan los datos al nivel de aplicación en el formato que
internamente use el programa y es codificado de acuerdo con un
protocolo estándar.Algunos programas específicos se considera que
se ejecutan en este nivel. Proporcionan servicios que directamente
trabajan con las aplicaciones de usuario. Estos programas y sus
correspondientes protocolos incluyen a HTTP (Hyper Text Transfer
Protocol), FTP (Transferencia de archivos), SMTP (correo electrónico),
SSH (login remoto seguro), DNS (Resolución de nombres de dominio)
y a muchos otros.Una vez que los datos de la aplicación han sido
codificados en un protocolo estándar del nivel de aplicación son
pasados hacia abajo al siguiente nivel de la pila de protocolos TCP/IP.

En el nivel de transporte, las aplicaciones normalmente hacen uso de


TCP y UDP, y son habitualmente asociados a un número de puerto
bien conocido (well-known port). Los puertos fueron asignados
originalmente por la IANA.

El protocolo de transferencia de hipertexto (HTTP, Hyper Text


Transfer Protocol) es el protocolo usado en cada transacción de la
Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF,
colaboración que culminó en 1999 con la publicación de una serie de
RFC, siendo el más importante de ellos el RFC 2616, que especifica la
versión 1.1. HTTP define la sintaxis y la semántica que utilizan los
elementos software de la arquitectura web (clientes, servidores,
proxies) para comunicarse. Es un protocolo orientado a transacciones
y sigue el esquema petición-respuesta entre un cliente y un servidor.
Al cliente que efectúa la petición (un navegador o un spider) se lo
conoce como “user agent” (agente del usuario). A la información
transmitida se la llama recurso y se la identifica mediante un URL. Los
recursos pueden ser archivos, el resultado de la ejecución de un
programa, una consulta a una base de datos, la traducción
automática de un documento, etc.

HTTP es un protocolo sin estado, es decir, que no guarda ninguna


información sobre conexiones anteriores. El desarrollo de aplicaciones
web necesita frecuentemente mantener estado. Para esto se usan las
cookies, que es información que un servidor puede almacenar en el
sistema cliente. Esto le permite a las aplicaciones web instituir la
noción de “sesión”, y también permite rastrear usuarios ya que las
cookies pueden guardarse en el cliente por tiempo indeterminado.
Transacciones HTTP

Una transacción HTTP está formada por un encabezado seguido,


opcionalmente, por una línea en blanco y algún dato. El encabezado
especificará cosas como la acción requerida del servidor, o el tipo de
dato retornado, o el código de estado.

FTP (sigla en inglés de File Transfer Protocol - Protocolo de


Transferencia de Archivos) en informática, es un protocolo de red
para la transferencia de archivos entre sistemas conectados a una
red TCP (Transmission Control Protocol), basado en la arquitectura
cliente-servidor. Desde un equipo cliente se puede conectar a un
servidor para descargar archivos desde él o para enviarle archivos,
independientemente del sistema operativo utilizado en cada equipo.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de


capas de red TCP/IP al usuario, utilizando normalmente el puerto de
red 20 y el 21. Un problema básico de FTP es que está pensado para
ofrecer la máxima velocidad en la conexión, pero no la máxima
seguridad, ya que todo el intercambio de información, desde el login
y password del usuario en el servidor hasta la transferencia de
cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado,
con lo que un posible atacante puede capturar este tráfico, acceder al
servidor, o apropiarse de los archivos transferidos.

Para solucionar este problema son de gran utilidad aplicaciones como


scp y sftp, incluidas en el paquete SSH, que permiten transferir
archivos pero cifrando todo el tráfico.

Simple Mail Transfer Protocol (SMTP) Protocolo Simple de


Transferencia de Correo, es un protocolo de la capa de aplicación.
Protocolo de red basado en texto utilizado para el intercambio de
mensajes de correo electrónico entre computadoras u otros
dispositivos (PDA’s, teléfonos móviles, etc.). Está definido en el RFC
2821 y es un estándar oficial de Internet.

Resumen simple del funcionamiento del protocolo SMTP

• Cuando un cliente establece una conexión con el servidor SMTP,


espera a que éste envíe un mensaje “220 Service ready” o “421
Service non available”
• Se envía un HELO desde el cliente. Con ello el servidor se identifica.
Esto puede usarse para comprobar si se conectó con el servidor SMTP
correcto.

• El cliente comienza la transacción del correo con la orden MAIL


FROM. Como argumento de esta orden se puede pasar la dirección de
correo al que el servidor notificará cualquier fallo en el envío del
correo (Por ejemplo, MAIL FROM:<fuente@host0>). Luego si el
servidor comprueba si el origen es valido, si es asi el servidor
responde “250 OK”.

• Ya le hemos dicho al servidor que queremos mandar un correo,


ahora hay que comunicarle a quien. La orden para esto es RCPT
TO:<destino@host>. Se pueden mandar tantas órdenes RCPT como
destinatarios del correo queramos. Por cada destinatario, el servidor
contestará “250 OK” o bien “550 No such user here”, si no encuentra
al destinatario.

• Una vez enviados todos los RCPT, el cliente envía una orden DATA
para indicar que a continuación se envían los contenidos del mensaje.
El servidor responde “354 Start mail input, end with
<CRLF>.<CRLF>” Esto indica al cliente como ha de notificar el fin del
mensaje.

• Ahora el cliente envía el cuerpo del mensaje, línea a línea. Una vez
finalizado, se termina con un <CRLF>.<CRLF> (la última línea será
un punto), a lo que el servidor contestará “250 OK”, o un mensaje de
error apropiado.

• Tras el envío, el cliente, si no tiene que enviar más correos, con la


orden QUIT corta la conexión. También puede usar la orden TURN,
con lo que el cliente pasa a ser el servidor, y el servidor se convierte
en cliente. Finalmente, si tiene más mensajes que enviar, repite el
proceso hasta completarlos.

Características

POP3 está diseñado para recibir correo, no para enviarlo; le permite a


los usuarios con conexiones intermitentes ó muy lentas (tales como
las conexiones por módem), descargar su correo electrónico mientras
tienen conexión y revisarlo posteriormente incluso estando
desconectados. Cabe mencionar que la mayoría de los clientes de
correo incluyen la opción de dejar los mensajes en el servidor, de
manera tal que, un cliente que utilice POP3 se conecta, obtiene todos
los mensajes, los almacena en la computadora del usuario como
mensajes nuevos, los elimina del servidor y finalmente se desconecta.
En contraste, el protocolo IMAP permite los modos de operación
conectado y desconectado.

Los clientes de correo electrónico que utilizan IMAP dejan por lo


general los mensajes en el servidor hasta que el usuario los elimina
directamente. Esto y otros factores hacen que la operación de IMAP
permita a múltiples clientes acceder al mismo buzón de correo. La
mayoría de los clientes de correo electrónico soportan POP3 ó IMAP;
sin embargo, solo unos cuantos proveedores de internet ofrecen IMAP
como valor agregado de sus servicios.

4.4.1 Smtp Protocolo

Simple Mail Transfer Protocol (SMTP), o protocolo simple de


transferencia de correo. Protocolo de red basado en texto utilizado
para el intercambio de mensajes de correo electrónico entre
computadoras o distintos dispositivos (PDA’s, teléfonos móviles, etc.).
Está definido en el RFC 2821 y es un estándar oficial de Internet.

Con el tiempo se ha convertido en uno de los protocolos más usados


en internet. Para adaptarse a las nuevas necesidades surgidas del
crecimiento y popularidad de internet se han hecho varias
ampliaciones a este protocolo, como poder enviar texto con formato o
archivos adjuntos.
Funcionamiento [editar]SMTP se basa en el modelo cliente-servidor,
donde un cliente envía un mensaje a uno o varios receptores. La
comunicación entre el cliente y el servidor consiste enteramente en
líneas de texto compuestas por caracteres ASCII. El tamaño máximo
permitido para estas líneas es de 1000 caracteres.

Las respuestas del servidor constan de un código numérico de tres


digitos, seguido de un texto explicativo. El número va dirigido a un
procesado automático de la respuesta por autómata, mientras que el
texto permite que un humano interprete la respuesta. En el protocolo
SMTP todas las órdenes, réplicas o datos son líneas de texto,
delimitadas por el carácter <CRLF>. Todas las réplicas tienen un
código numérico al comienzo de la línea.
En el conjunto de protocolos TCP/IP, el SMTP va por encima del TCP,
usando normalmente el puerto 25 en el servidor para establecer la
conexión.
Resumen simple del funcionamiento del protocolo SMTP
[editar]Cuando un cliente establece una conexión con el servidor
SMTP, espera a que éste envíe un mensaje “220 Service ready” o
“421 Service non available”

4.4.2 Ftp Protocolo

El siguiente modelo representa el diagrama de un servicio FTP.

En el modelo, el intérprete de protocolo (PI) de usuario, inicia la


conexión de control en el puerto 21. Las órdenes FTP estándar las
genera el PI de usuario y se transmiten al proceso servidor a través
de la conexión de control. Las respuestas estándar se envían desde el
PI del servidor al PI de usuario por la conexión de control como
respuesta a las órdenes.

Estas órdenes FTP especifican parámetros para la conexión de datos


(puerto de datos, modo de transferencia, tipo de representación y
estructura) y la naturaleza de la operación sobre el sistema de
archivos (almacenar, recuperar, añadir, borrar, etc.). El proceso de
transferencia de datos (DTP) de usuario u otro proceso en su lugar,
debe esperar a que el servidor inicie la conexión al puerto de datos
especificado (puerto 20 en modo activo o estándar) y transferir los
datos en función de los parámetros que se hayan especificado.

Servidor FTP

Un servidor FTP es un programa especial que se ejecuta en un equipo


servidor normalmente conectado a Internet (aunque puede estar
conectado a otros tipos de redes, LAN, MAN, etc.). Su función es
permitir el intercambio de datos entre diferentes
servidores/ordenadores.

Por lo general, los programas servidores FTP no suelen encontrarse


en los ordenadores personales, por lo que un usuario normalmente
utilizará el FTP para conectarse remotamente a uno y así intercambiar
información con él.

Las aplicaciones más comunes de los servidores FTP suelen ser el


alojamiento web, en el que sus clientes utilizan el servicio para subir
sus páginas web y sus archivos correspondientes; o como servidor de
backup (copia de seguridad) de los archivos importantes que pueda
tener una empresa. Para ello, existen protocolos de comunicación FTP
para que los datos se transmitan cifrados, como el SFTP (Secure File
Transfer Protocol).

Cliente FTP

Cuando un navegador no está equipado con la función FTP, o si se


quiere cargar archivos en un ordenador remoto, se necesitará utilizar
un programa cliente FTP. Un cliente FTP es un programa que se
instala en el ordenador del usuario, y que emplea el protocolo FTP
para conectarse a un servidor FTP y transferir archivos, ya sea para
descargarlos o para subirlos.

Para utilizar un cliente FTP, se necesita conocer el nombre del


archivo, el ordenador en que reside (servidor, en el caso de descarga
de archivos), el ordenador al que se quiere transferir el archivo (en
caso de querer subirlo nosotros al servidor), y la carpeta en la que se
encuentra.
Algunos clientes de FTP básicos en modo consola vienen integrados
en los sistemas operativos, incluyendo Windows, DOS, Linux y Unix.
Sin embargo, hay disponibles clientes con opciones añadidas e
interfaz gráfica. Aunque muchos navegadores tienen ya integrado
FTP, es más confiable a la hora de conectarse con servidores FTP no
anónimos utilizar un programa cliente.

4.4.3 http Protocolo

El Protocolo de Transferencia de Hiper Texto (Hypertext Transfer


Protocol) es un sencillo protocolo cliente-servidor que articula los
intercambios de información entre los clientes Web y los servidores
HTTP. La especificación completa del protocolo HTTP 1/0 está
recogida en el RFC 1945. Fue propuesto por Tim Berners-Lee,
atendiendo a las necesidades de un sistema global de distribución de
información como el World Wide Web.

Cachés de páginas y servidores proxy

Muchos clientes Web utilizan un sistema para reducir el número de


accesos y transferencias de información a través de Internet, y así
agilizar la presentación de documentos previamente visitados. Para
ello, almacenan en el disco del cliente una copia de las últimas
páginas a las que se ha accedido. Este mecanismo, denominado
“caché de páginas”, mantiene la fecha de acceso a un documento y
comprueba, a través de un comando HEAD, la fecha actual de
modificación del mismo. En caso de que se detecte un cambio o
actualización, el cliente accederá, ahora a través de un GET, a
recoger la nueva versión del fichero. En caso contrario, se procederá
a utilizar la copia local.

Un sistema parecido, pero con más funciones es el denominado


“servidor proxy”. Este tipo de servidor, una mezcla entre servidor
HTTP y cliente Web, realiza las funciones de cache de páginas para un
gran número de clientes. Todos los clientes conectados a un proxy
dejan que éste sea el encargado de recoger las URLs solicitadas. De
esta forma, en caso de que varios clientes accedan a la misma
página, el servidor proxy la podrá proporcionar con un único acceso a
la información original.
La principal ventaja de ambos sistemas es la drástica reducción de
conexiones a Internet necesarias, en caso de que los clientes accedan
a un conjunto similar de páginas, como suele ocurrir con mucha
frecuencia. Además, determinadas organizaciones limitan, por
motivos de seguridad, los accesos desde su organización al exterior y
viceversa. Para ello, se dispone de sistemas denominados
“cortafuegos” (firewalls), que son los únicos habilitados para
conectarse con el exterior. En este caso, el uso de un servidor proxy
se vuelve indispensable.

En determinadas situaciones, el almacenamiento de páginas en un


caché o en un proxy puede hacer que se mantengan copias no
actualizadas de la información, como por ejemplo en el caso de
trabajar con documentos generados dinámicamente. Para estas
situaciones, los servidores HTTP pueden informar a los clientes de la
expiración del documento, o de la imposibilidad de ser almacenado
en un caché, utilizando la variable Expires en la respuesta del
servidor.

Magic Cookies

Las ‘galletas mágicas’ son una de las incorporaciones más recientes


al protocolo HTTP, y son parte del nuevo estándar HTTP/1.1. Las
cookies son pequeños ficheros de texto que se intercambian los
clientes y servidores HTPP, para solucionar una de las principales
deficiencias del protocolo: la falta de información de estado entre dos
transacciones. Fueron introducidas por Netscape, y ahora han sido
estandarizadas en el RFC 2109.

Cada intercambio de información con un servidor es completamente


independiente del resto, por lo que las aplicaciones CGI que necesitan
recordar operaciones previas de un usuario (por ejemplo, los
supermercados electrónicos) pueden optar por dos soluciones, que
complican bastante su diseño: almacenar temporalmente en el
sistema del servidor un registro de las operaciones realizadas, con
una determinada política para eliminarlas cuando no son necesarias,
o bien incluir esta información en el código HTML devuelto al cliente,
como campos HIDDEN de un formulario.

Las cookies son una solución más flexible a este problema. La primera
vez que un usuario accede a un determinado documento de un
servidor, éste proporciona una cookie que contiene datos que
relacionarán posteriores operaciones. El cliente almacena la cookie en
su sistema para usarla después. En los futuros accesos a este
servidor, el browser podrá proporcionar la cookie original, que servirá
de nexo entre este acceso y los anteriores. Todo este proceso se
realiza automáticamente, sin intervención del usuario. El siguiente
ejemplo muestra una cookie generada por la revista Rolling Stone.

4.4.4 Nfs Protocolo

El Network File System (Sistema de archivos de red), o NFS, es un


protocolo de nivel de aplicación, según el Modelo OSI. Es utilizado
para sistemas de archivos distribuido en un entorno de red de
computadoras de área local. Posibilita que distintos sistemas
conectados a una misma red accedan a ficheros remotos como si se
tratara de locales. Originalmente fue desarrollado en 1984 por Sun
Microsystems, con el objetivo de que sea independiente de la
máquina, el sistema operativo y el protocolo de transporte, esto fue
posible gracias a que está implementado sobre los protocolos XDR
(presentación) y ONC RPC (sesión) .[1] El protocolo NFS está incluido
por defecto en los Sistemas Operativos UNIX y las distribuciones
GNU/Linux.
Características [editar]El sistema NFS está dividido al menos en dos
partes principales: un servidor y uno o más clientes. Los clientes
acceden de forma remota a los datos que se encuentran almacenados
en el servidor.

Las estaciones de trabajo locales utilizan menos espacio de disco


debido a que los datos se encuentran centralizados en un único lugar
pero pueden ser accedidos y modificados por varios usuarios, de tal
forma que no es necesario replicar la información.

4.4.5 Dns Protocolo


El DNS ( Domain Name System ) o Sistema de Nombres de Dominio
es una base de datos jerárquica y distribuida que almacena
informacion sobre los nombres de dominio de de redes cómo Internet.
También llamamos DNS al protocolo de comunicación entre un cliente
( resolver ) y el servidor DNS.

La función más común de DNS es la traducción de nombres por


direcciones IP, esto nos facilita recordar la dirección de una máquina
haciendo una consulta DNS y nos proporciona un modo de acceso
más fiable ya que por multiples motivos la dirección IP puede variar
manteniendo el mismo nombre de dominio.
El DNS usa el concepto de espacio de nombres distribuido. Los
nombres simbólicos se agrupan en zonas de autoridad, o más
comúnmente, zonas. En cada una de estas zonas, uno o más hosts
tienen la tarea de mantener una base de datos de nombres
simbólicos y direcciones IP y de suministrar la función de servidor
para los clientes que deseen traducir nombres simbólicos a
direcciones IP. Estos servidores de nombres locales se interconectan
lógicamente en una árbol jerárquico de dominios.

Cada zona contiene una parte del árbol o subárbol y los nombres de
esa zona se administran con independencia de los de otras zonas. La
autoridad sobre zonas se delega en los servidores de nombres.
Normalmente, los servidores de nombres que tienen autoridad en
zona tendrán nombres de dominio de la misma, aunque no es
imprescindible. En los puntos en los que un dominio contiene un
subárbol que cae en una zona diferente, se dice que el servidor /
servidores de nombres con autoridad sobre el dominio superior
delegan autoridad al servidor / servidores de nombres con autoridad
sobre los subdominios. Los servidores de nombres también pueden
delegar autoridad en sí mismos; en este caso, el espacio de nombres
sigue dividido en zonas, pero la autoridad para ambas las ejerce el
mismo servidor . La división por zonas se realiza utilizando registros
de recursos guardados en el DNS.

Вам также может понравиться