Академический Документы
Профессиональный Документы
Культура Документы
Hasta ahora en el Paper anterior vimos algo referente a la Arquitectura de Redes (Modelo TCP/IP y
Modelo OSI). En este Paper haremos un resumen de lo tocado anteriormente y entraremos de lleno
a estudiar los Protocolos, que nos servirá para hablar mucho de ataques como: ARP Spoofing, IP
Spoofing, MAC Spoofing, etc. y así poder hacer auditorias en redes Wireless y otras cosas mas que
detallaremos en próximos talleres…
Resumen de lo Anterior.
Modelo TCP/IP:
Modelo OSI:
Provee conectividad de extremo a
extremo especificando como los datos Fue creado por la ISO y se encarga de la
deberían ser formateados, direccionados, conexión entre sistemas abiertos, esto es,
transmitidos, enrutados y recibidos por el sistemas abiertos a la comunicación con
destinatario. otros sistemas. Los principios en los que
basó su creación son, una mayor
Esta arquitectura de capas a menudo es definición de las funciones de cada capa,
comparada con el Modelo OSI de siete evitar agrupar funciones diferentes en la
capas. misma capa y una mayor simplificación en
el funcionamiento del modelo en general.
“Una imagen vale más que mil palabras”, ahora procederemos a estudiar a fondo todo lo
mencionado anteriormente y seguir con el objetivo de este taller que es obtener
conocimientos Avanzados de Redes y Protocolos.
Introducción a Protocolos
Los protocolos son reglas y procedimientos para la comunicación. El término “Protocolo”
se utiliza en distintos contextos.
Por ejemplo, los diplomáticos de un país se ajustan a las reglas del protocolo creadas para
ayudarles a interactuar de forma correcta con los diplomáticos de otros países.
De la misma forma se aplican las reglas del protocolo al entorno informático. Cuando dos
equipos están conectados en red, las reglas y procedimientos técnicos que dictan su
comunicación e interacción se denominan protocolos.
Algunos protocolos sólo trabajan en ciertos niveles OSI. El nivel al que trabaja un
protocolo describe su función. Por ejemplo, un protocolo que trabaje a nivel físico
asegura que los paquetes de datos pasen a la tarjeta de red (NIC) y salgan al cable
de la red.
El Equipo Origen.-
Los protocolos en el equipo de destino constan de la misma serie de pasos, pero en sentido
inverso.
1. Toma los paquetes de datos del cable y los introduce en el equipo a través de la
NIC.
2. Extrae de los paquetes de datos toda la información transmitida eliminando la
información añadida por el equipo origen.
3. Copia los datos de los paquetes en un búfer para reorganizarlos enviarlos a la
aplicación.
Recuerden que los equipos origen y destino necesitan realizar cada paso de la misma forma
para que los datos tengan la misma estructura al recibirse que cuando se enviaron.
Jerarquía de Protocolos del Modelo OSI:
Una jerarquía de protocolos es una combinación de protocolos. Cada nivel de la
Arquitectura de Redes especifica un protocolo diferente para la gestión de una función o de
un subsistema del proceso de comunicación. Cada nivel tiene su propio conjunto de reglas.
Los protocolos definen las reglas para cada nivel en el modelo OSI.
1. Nivel Físico:
La capa física de OSI proporciona los medios de transporte para los bits que
conforman la trama de la capa de Enlace de datos a través de los medios de red.
Esta capa acepta una trama completa desde la capa de Enlace de datos y lo codifica
como una secuencia de señales que se transmiten en los medios locales. Un
dispositivo final o un dispositivo intermedio reciben los bits codificados que
componen una trama.
Identificación de tramas.
Cuando la capa física codifica los bits en señales para un medio específico, también
debe distinguir dónde termina una trama y dónde se inicia la próxima. De lo
contrario, los dispositivos de los medios no reconocerían cuándo se ha recibido
exitosamente una trama. En tal caso, el dispositivo de destino sólo recibiría una
secuencia de señales y no sería capaz de reconstruir la trama correctamente. Como
se describió en el capítulo anterior, indicar el comienzo de la trama es a menudo una
función de la capa de Enlace de datos. Sin embargo, en muchas tecnologías, la capa
física puede agregar sus propias señales para indicar el comienzo y el final de la
trama.
Para habilitar un dispositivo receptor a fin de reconocer de manera clara el límite de
una trama, el dispositivo transmisor agrega señales para designar el comienzo y el
final de una trama. Estas señales representan patrones específicos de bits que sólo
se utilizan para indicar el comienzo y el final de una trama.
Hardware y tecnologías de la Capa física.
Las tecnologías definidas por organizaciones de estandarización
(ISO,IEEE,ANSI,ITU,EIA/TIA,FCC), incluyen cuatro áreas medulares:
Propiedades físicas y eléctricas de medios.
Señales
Conectores
Cables
Las tres funciones esenciales de la capa física son:
Los componentes físicos
Codificación de datos
Señalización
Codificación
La codificación es un método utilizado para convertir un stream de bits de datos en
un código predefinido. Los códigos son grupos de bits utilizados para ofrecer un
patrón predecible que pueda reconocer tanto el emisor como el receptor. La
utilización de patrones predecibles permite distinguir los bits de datos de los bits de
control y ofrece una mejor detección de errores en los medios.
Además de crear códigos para los datos, los métodos de codificación en la capa
física también pueden proporcionar códigos para control, como la identificación del
comienzo y el final de una trama. El host que realiza la transmisión transmitirá el
patrón específico de bits o un código para identificar el comienzo y el final de la
trama.
Señalización
La capa física debe generar las señales inalámbricas, ópticas o eléctricas que
representan el "1" y el "0" en los medios. El método de representación de bits se
denomina método de señalización. Los estándares de capa física deben definir qué
tipo de señal representa un "1" y un "0". Esto puede ser tan sencillo como un
cambio en el nivel de una señal eléctrica, un impulso óptico o un método de
señalización más complejo.
Capacidad para transportar Datos.
Los diferentes medios físicos admiten la transferencia de bits a distintas
velocidades. La transferencia de datos puede medirse de tres formas:
Ancho de banda
Rendimiento
Ancho de banda
La capacidad que posee un medio de transportar datos se describe como el ancho
de banda de los datos sin procesar de los medios. El ancho de banda digital mide la
cantidad de información que puede fluir desde un lugar hacia otro en un período de
tiempo determinado. El ancho de banda generalmente se mide en kilobits por
segundo (kbps) o megabits por segundo (Mbps).
El ancho de banda práctico de una red se determina mediante una combinación de
factores: las propiedades de las tecnologías y los medios físicos elegidos para
señalizar y detectar señales de red.
Unidad de ancho de banda Abreviatura Equivalencia
Bits por segundo Bps 1 bps = unidad fundamental de ancho de
banda
Kilobits por segundo Kbps 1 kbps = 1,000 bps = 103 bps
Megabits por segundo Mbps 1 Mbps = 1,000,000 bps = 108 bps
Gigabits por segundo Gbps 1 Gbps = 1,000,000,000 bps = 109 bps
Terabits por segundo Tbps 1 Tbps = 1,000,000,000,000 bps = 1012 bps
Rendimiento
El rendimiento es la medida de transferencia de bits a través de los medios durante
un período de tiempo determinado. Debido a diferentes factores, el rendimiento
generalmente no coincide con el ancho de banda especificado en las
implementaciones de la capa física, como Ethernet.
Muchos factores influyen en el rendimiento. Entre estos factores se incluye la
cantidad y el tipo de tráfico además de la cantidad de dispositivos de red que se
encuentran en la red que se está midiendo. En una topología multiacceso como
Ethernet, los nodos compiten por el acceso y la utilización de medios. Por lo tanto,
el rendimiento de cada nodo se degrada a medida que aumenta el uso de los
medios.
En una internetwork o una red con múltiples segmentos, el rendimiento no puede
ser más rápido que el enlace más lento de la ruta de origen a destino. Incluso si
todos los segmentos o gran parte de ellos tienen un ancho de banda elevado, sólo
se necesita un segmento en la ruta con un rendimiento inferior para crear un cuello
de botella en el rendimiento de toda la red.
Capacidad de transferencia útil
Se ha creado una tercera medida para evaluar la transferencia de datos utilizables.
Dicha medición se denomina capacidad de transferencia útil. La capacidad de
transferencia útil es la medida de datos utilizables transferidos durante un período
de tiempo determinado. Por lo tanto, es la medida de mayor interés para los
usuarios de la red.
Como se muestra en la figura, la capacidad de transferencia útil mide la
transferencia efectiva de los datos del usuario entre las entidades de la capa de
aplicación, por ejemplo entre el proceso de un servidor Web de origen y un
dispositivo con explorador Web de destino.
A diferencia del rendimiento, que mide la transferencia de bits y no la transferencia
de datos utilizables, la capacidad de transferencia útil considera los bits que
generan la sobrecarga del protocolo. Esta capacidad representa el rendimiento sin
la sobrecarga de tráfico para establecer sesiones, acuses de recibo y
encapsulaciones.
La capa física es la encargada de señalización y los medios de red. Esta capa produce
la representación y agrupación de bits en voltajes, radiofrecuencia e impulsos de
luz.
Cruzado de Ethernet
Consola
La figura muestra la aplicación típica de estos cables, como así también una
comparación de estos tres tipos de cable.
Es el encargado de establecer una línea de comunicación, libre de errores, que pueda ser
utilizada por el nivel de red.
El nivel físico opera con bits aislados, que no tienen significado por sí mismos, sin embargo,
el nivel de enlace opera con bloques fraccionados del mensaje, a lo que se denominan
tramas. Estas tramas están constituidas por parte de la información de los usuarios y por
información adicional que se añade para el encaminamiento de las tramas, recuperación de
errores y otras funciones.
Por lo tanto la capa de enlace de datos se ocupa del direccionamiento físico, de la topología
de la red, del acceso a la red, de la distribución ordenada de tramas y opcionalmente del
control del flujo, de la notificación de errores y de la calidad del servicio (QoS).
Las Direcciones MAC son únicas a nivel mundial, puesto que son escritas directamente, en
forma binaria, en el hardware en su momento de fabricación. Debido a esto, las direcciones
MAC son a veces llamadas burned-in addresses, en inglés.
Si nos fijamos en la definición como cada bloque hexadecimal son 8 dígitos binarios (bits),
tendríamos:
En la mayoría de los casos no es necesario conocer la dirección MAC, ni para montar
una red doméstica, ni para configurar la conexión a internet, usándose esta sólo a
niveles internos de la red. Sin embargo, es posible añadir un control de hardware en
un conmutador o un punto de acceso inalámbrico, para permitir sólo a unas MAC
concretas el acceso a la red. En este caso, deberá saberse la MAC de los dispositivos
para añadirlos a la lista. Dicho medio de seguridad se puede considerar un refuerzo
de otros sistemas de seguridad, ya que aunque teóricamente se trata de una
dirección única y permanente, aunque en todos los sistemas operativos hay
métodos que permiten a las tarjetas de red identificarse con direcciones MAC
distintas de la real.
La MAC opera en la Capa 2 del modelo OSI, encargada de hacer fluir la información
libre de errores entre dos máquinas conectadas directamente. Para ello se generan
tramas, pequeños bloques de información que contienen en su cabecera las
direcciones MAC correspondiente al emisor y receptor de la información.
El MAC es el mecanismo encargado del control de acceso de cada estación al medio. El MAC
puede realizarse de forma distribuida cuando todas las estaciones cooperan para
determinar cuál es y cuándo debe acceder a la red. También se puede realizar de forma
centralizada utilizando un controlador.
Las técnicas de control de acceso al medio pueden ser Síncronas o Asíncronas. Las
Síncronas hacen que la red se comporte como de conmutación de circuitos, lo cual no es
recomendable para LAN y WAN. Las Asíncronas son más aceptables ya que las LAN actúan
de forma impredecible y por tanto no es conveniente el mantenimiento de accesos fijos.
Las asíncronas se subdividen en 3 categorías: rotación circular, reserva y competición.
- Competición: en este caso, todas las estaciones que quieren transmitir compiten para
poder hacerlo (el control de acceso al medio se distribuyen entre todas las estaciones). Son
técnicas sencillas de implementar y eficientes en bajas cargas pero muy ineficientes para
cargas altas (cuando hay muchas estaciones que quieren el acceso y además transmiten
muchos datos).
Básicamente, el método de acceso por contención permite que cualquier usuario empezar a
transmitir en cualquier momento siempre que el camino o medio físico no esté ocupado. En
el método determinístico, cada estación tiene asegurada su oportunidad de transmitir
siguiendo un criterio rotatorio.
Es el método de contención más común, utilizan redes con topología de bus; su señal se
propaga por toda la red y llega a todos los ordenadores. Este sistema de enviar la señal se
conoce como broadcast.
Esto quiere decir que Ethernet censa el medio para saber cuándo puede acceder, e
igualmente detecta cuando sucede una colisión.
Cuando dos estaciones trasmiten al mismo tiempo, hay una COLISION y las estaciones
deben de retrasmitir la señal (o sea volver a intentarlo).
Lo que se hace en el CSMA/CD es censar el medio físico (el cable) y mirar cuando puedo
entrar (o sea cuando puedo transmitir), en pocas palabras esto es el “Carrier Sense”, o sea
mirar si hay una portadora sobre el medio, si no hay portadora puedo trasmitir, pero puede
ocurrir que alguna estación ya halla trasmitido y por retardo en la red algún equipo no se
haya dado cuenta. Si el equipo que no se ha enterado trasmite, existirá una colisión.
Cuando dos estaciones transmiten al mismo tiempo habrá, lógicamente, una colisión. Para
solucionar este problema existen dos técnicas diferentes, que son dos tipos de protocolos
CSMA: uno es llamado CA (Collision Avoidance), Prevención de Colisión y el otro CD
(Collision Detection), Detección de Colisión. La diferencia entre estos dos enfoques se
reduce al envío –o no– de una señal de agradecimiento por parte del nodo receptor:
Este método asegura así que el mensaje se recibe correctamente. Sin embargo, debido a las
dos transmisiones, la del mensaje original y la del reconocimiento del receptor, pierde un
poco de eficiencia. La red Ethernet utiliza este método.
Define la forma en que los datos son transferidos sobre el medio físico, proporcionando
servicio a las capas superiores. La subcapa LLC maneja el control de errores, control del
flujo, entramado, control de diálogo y direccionamiento de la subcapa MAC. El protocolo
LLC más generalizado es IEEE 802.2, que incluye variantes no orientado a conexión y
orientadas a conexión.
- Servicios LLC: el LLC debe controlar el intercambio de datos entre dos usuarios, y para
ello puede establecer una conexión permanente, una conexión cuando se requiera el
intercambio de datos o una mezcla de ambas (sólo se establece conexión permanente
cuando sea necesaria).
Es un servicio que establece una conexión entre las estaciones del enlace, y
que garantiza la entrega de las unidades de datos que fluyen a través de
dicha conexión (servicio confiable). El servicio de conexión le garantiza al
receptor la entrega en secuencia de las unidades de datos y la protección
contra pérdidas y duplicados. Con ese fin dispone de los mecanismos
necesarios para controlar el flujo y corregir los errores.
No establece una conexión previa entre las estaciones, por lo que cada trama
intercambiada es independiente de todas las demás (de las enviadas antes y
después). Cada trama es individualmente autónoma y autosuficiente ante el
receptor. Es un servicio que tiene utilidad cuando el establecimiento de una
conexión implica retrasos que son inaceptables para el funcionamiento del
sistema (control distribuido). El servicio de enlace sin conexión puede ser
con o sin confirmación.
Capacidad del receptor de enviar un mensaje al emisor para indicarle que deje de enviar
momentáneamente datos porque no se puede garantizar la recepción correcta de ellos
(porque hay saturación de buffers).
Una red puede comprometerse a garantizar una serie de parámetros de una conexión o
servicio. El contrato que especifica los parámetros de QoS se denomina Acuerdo de Nivel de
Servicio (SLA: Service Level Agreement). Los parámetros que se pueden garantizar son:
Los tipos de servicio que puede dar una red desde el punto de vista de la QoS son:
- Mejor esfuerzo posible (Best Effort Service): La red no se compromete a nada, pero
intentara que los datos lleguen al otro extremo lo antes posibles.
- Con servicio diferenciado (soft QoS o Differentiated Service): Trata cierto tráfico con
más preferencia que otro, pero no garantiza nada a ninguno de ellos.
- Con servicio garantizado (hard QoS o Guaranteed Service): Se definen unos valores
límite requerido al establecer una conexión extremo a extremo y todos los nodos
de la red se comprometen a garantizarlos, reservando los recursos necesarios.