Вы находитесь на странице: 1из 5

¿Qué es la teoría de colas?

- De acuerdo con lo explicado en el libro, la teoría de colas es “la teoría detrás de lo


que sucede cuando se tiene muchos trabajos, pocos recursos y por consecuente,
largas colas y retrasos”. Para explicarlo mejor, esta teoría consiste en ver el porque
existen filas, o colas, en un sistema, por qué se formaron y como minimizarlas o bien,
desaparecerlas.
- Esta teoría es importante ya que es demasiado útil para distintos negocios o
servicios donde se pueden producir colas, de esta forma minimizarlas sin descuidar
el costo de operación, lo cual representa ventajas competitivas para un negocio o
reducción de tiempo al usar ciertos servicios. Hoy en día como consumidores
estamos acostumbrados a hacer las cosas de forma rápida, por lo que el que se
implemente este tipo de teorías, para disminuir el tiempo de espera, logra generar
satisfacción lo cual representa que el cliente se encuentre satisfecho con el servicio
otorgado.
- Distintas empresas se han percatado que de los servicios que ofrecen, el tiempo de
respuesta o de entrega de servicio es un aspecto altamente valorado por los clientes,
por lo que estas deben dar prioridad a este servicio.

Ejemplo
- Hoy en día, encontramos gran variedad de empresas que ofrecen servicios en la
nube, ya sea para almacenar información o bien, almacenar sus aplicaciones. Es por
eso que la calidad de servicio (Quality of Service) debe ser alta, ya que no solo
puede estar almacenada información importante si no también aplicaciones de
misión crítica. Usando la teoría de colas, las empresas pueden, de manera fácil,
pueden asignar prioridad a ciertos usuarios, además de asegurarse que cada
persona (o cliente) que necesite acceder a la información en caso de ser personal, o
a las aplicaciones en caso de ser clientes, evitando así tiempo de espera para poder
acceder a lo requerido, de igual forma garantizando que el tiempo de respuesta de
QoS sea optimo.
Ejemplo problema #2

En el ejemplo dos se tienen un sistema con dos servidores, donde se tienen 6 trabajos
y en base a la imagen se puede inferir que la probabilidad de empezar en cualquiera de
los servidores es la misma, de igual forma comparten la tasa promedio de 1/3 y se
puede llegar a la conclusión que la disminución de tiempo por cantidad de servicios es
irrelevante ya que el sistema esta hecho tal que al tiempo que un trabajo es procesado
el siguiente comienza inmediatamente.

Ejemplo problema #4

En este ejemplo se tiene una granja de servidores con un solo distribuidor y 3


servidores, cada que entra un trabajo un servidor se encarga de procesarlo, de igual
forma el mismo orden en el cual el trabajo entre y sea procesado será respetado al salir
y dentro de esta granja hay políticas implementadas las cuales controlan el
funcionamiento de la asignación de trabajos a los servidores, las políticas son las
siguientes:
-El trabajo es asignado aleatoriamente
-El trabajo i es asignado al servidor “i” mod “n”, en esta situación n representa el
número de servidores que se tiene.
-El trabajo es asignado al servidor que tenga una cola menos larga de trabajos
pendientes.
-Los trabajos cortos son dirigidos al servidor 1, los medios al 2 y por ultimo las más
largas al 3, en caso de tener más servidores esto se mantendría.
-Cada trabajo va al servidor donde se encuentre el menor trabajo restante en total.
-Los trabajos son enviados a una cola central en la cual son asignados a los
servidores que se encuentren desocupados para el siguiente trabajo.

Diferencias entre redes de espera abiertas y


cerradas.
En las redes de espera o también llamadas colas abierta son aquella las cuales tienen
la particular característica de registrar llegadas externas de clientes y salidas de
clientes, aunado a que el número de clientes para este tipo de redes es restringido.

Con la cual, refiriéndonos a la red de espera cerrada, podemos definir que es aquella
red que tiene un número N de clientes contables en el sistema de los cuales nadie sale
del propio, por lo que solo transitan los diversos turnos del sistema.
Figura 14.2  Diagrama de transición de estado de una red de puesta en
fila abierta constituida por dos sistemas M/M/1 en serie

En la presente se muestra una red de puesta en fila abierta de dos nodos M/M/1 en
serie. En el diagrama de trasición de estado no es reversible: entre dos estados
vecinos solo hay fluo en un sentido y no hay forma de producto.

Figura 14.5 – Modelo máquina – Reparador como redes de puesta en fila


cerradas con dos nodos. Los terminales corresponden a un nodo IS, en razón
que las
operaciones encuentran siempre un terminal en reposo,
mientras que la CPU corresponde a un nodo M/M/1

). Hay S clientes y terminales. El tiempo de activación medio es 1-1 y el tiempo de


servicio medio en la CPU que es 2-1. En la terminología de redes de fila de espera hay
dos nodos: En el nodo 1 están los terminales, es decir un sistema M/G/ (en realidad
es un sistema M/G/S, pero en razón que la cantidad de clientes se limita a S,
corresponde a un sistema M/G/), y el nodo 2 es la CPU, es decir un sistema M/M/1
con intensidad de servicio 2.
Los flujos a los nodos son iguales (1 = 2 = ) y la carga relativa en el nodo 1 y nodo 2
son
1 = /1 y 2 = /2,
respectivamente.

Métricas de desempeño en las redes de espera.


Las redes de espera en métricas de desempeño se clasifican en:

T Tiempo de proceso dentro del sistema, el cual se determina por el tiempo


de llegada hasta la finalización del servicio.
Tq Es el tiempo que un proceso está esperando a ser atendido.
S Tiempo que se tarda el sistema en darle servicio al proceso.
N Numero de procesos dentro de todo el sistema.
Nq Número de procesos que esperan a ser atendidos.
X Tasa de tareas terminadas dentro de todo el sistema.
Xi Tasa de tareas terminadas (tareas/segundo)
P Fracción de tiempo que el sistema está completamente ocupado.
Pi Fracción de tiempo que el servicio

Se consideran las redes abiertas independientes respecto al rendimiento de las tareas


procesadas en un determinado tiempo, por lo que el sistema no puede ofrecer un
rendimiento mayor debido a que su rendimiento esta establecido previamente por su
máximo procesamiento de elementos.

En el caso de las redes cerradas, es contario a la naturaleza de las abiertas, en este


caso Pi al aumentarse habrá un N mayo y la T será menor.

Bibliografía:
A queuing theory model for cloud computing, Jordi Vilaplana, Francesc Solsona, Ivan
Teixidó, Jordi Mateo, Francesc Abella, Josep Rius. Recuperado de:
https://www.researchgate.net/profile/Jordi_Vilaplana/publication/261759640_A_queuing
_theory_model_for_cloud_computing/links/00b7d53846e4d58418000000.pdf

Mor Harchol-Balter. (2013). Performance Modeling and Design of Computer Systems.


Cambridge.

PostigoBoix, M. & GarcíaHaro, J. & Aguilar-Igartua, M. (2001): IMA: technical


foundations, application and performance analysis. Computer Networks, Vol. 35
(2001) 165183.

Вам также может понравиться