Вы находитесь на странице: 1из 115

1

TALLERES DE FLUJO Y TALLERES DE FLUJO FLEXIBLE


(DETERMINISTAS)
Y
TIENDAS DE FLUJO, TIENDAS DE TRABAJO Y ABIERTO TIENDAS

(ESTOCÁSTICAS)

DOCENTE: HERNANDO GARZON SAENZ

PRESENTADO POR: RAFAEL BUELVAS BANQUEZ

EDGAR JAVIER BUELVAS CASTELLAR

CRISTIAN CUADRO ROMERO

JEISON OSPINA CARDONA

LUIS ÁNGEL OLIVARES OSORIO

YULEY ANDREA ROMERO MENDEZ

SECCIÓN: 10

FUNDACIÓN TECNOLÓGICO COMFENALCO

2019
2

TALLERES DE FLUJO Y TALLERES DE FLUJO FLEXIBLE (DETERMINISTAS)

En muchas instalaciones de fabricación y montaje, cada trabajo debe someterse a una serie de

operaciones. A menudo, estas operaciones deben realizarse en todos los trabajos en el mismo

orden, lo que implica que los trabajos deben seguir la misma ruta. Luego se asume que las

máquinas se configuran en serie y el entorno se conoce como una tienda de flujo. Las

capacidades de almacenamiento o almacenamiento entre máquinas sucesivas pueden a veces

ser, para todos los propósitos prácticos, virtualmente ilimitadas. Este suele ser el caso cuando

los productos que se procesan son físicamente pequeños (por ejemplo, placas de circuitos

impresos, circuitos integrados), lo que hace que sea relativamente fácil almacenar grandes

cantidades entre máquinas. Cuando los productos son físicamente grandes (por ejemplo,

televisores, copiadoras), entonces un espacio de almacenamiento entre dos máquinas sucesivas

puede tener una capacidad limitada, lo que puede causar el bloqueo. El bloqueo se produce

cuando el generador está lleno y la máquina en sentido ascendente no tiene permitido liberar un

trabajo en el depósito después de completar su procesamiento. Si este es el caso, entonces el

trabajo debe permanecer en la máquina en sentido ascendente, evitando que un trabajo en la

cola en esa máquina comience su procesamiento. Un entorno de máquina algo más general

consiste en varias etapas en serie con varias máquinas en paralelo en cada etapa. Un trabajo

debe procesarse en cada etapa solo en una de las máquinas. Este entorno de máquina se conoce

como una tienda de flujos flexibles, una tienda de flujos compuestos, una tienda de flujos con

múltiples procesadores o una tienda de flujos híbridos.


3

La mayor parte del material en este capítulo se refiere al objetivo de makepan. El objetivo de

makepan es de considerable interés práctico ya que su minimización es, hasta cierto punto,

equivalente a la maximización de la utilización de las máquinas. Sin embargo, los modelos

tienden a ser de tal complejidad que los resultados son relativamente difíciles de obtener. El

tiempo total de finalización y los objetivos relacionados con la fecha de vencimiento tienden a

ser aún más difíciles.

6.1 TIENDAS DE FLUJO CON ALMACENAMIENTO INTERMEDIO ILIMITADO

Al buscar un horario óptimo para Fm || Cmax, surge la pregunta de si basta simplemente para

determinar una permutación en la que los trabajos atraviesan todo el sistema. Físicamente, es

posible que un trabajo "pase" a otro mientras esperan en la cola una máquina que está ocupada.

Esto implica que las máquinas pueden no funcionar de acuerdo con el principio Primero que

venga primero servido y que la secuencia en la que los trabajos pasan por las máquinas puede

cambiar de una máquina a otra. Cambiar la secuencia de los trabajos en espera en una cola entre

dos máquinas a veces puede resultar en una menor imposición. Sin embargo, se puede mostrar

que siempre existe una programación óptima sin cambios en la secuencia de trabajos entre las

dos primeras máquinas y entre las dos últimas (consulte el Ejercicio 6.11). Esto implica que hay

horarios óptimos para F2 || Cmax y F3 || Cmax que no requieren cambios de secuencia entre

máquinas. Uno puede encontrar ejemplos de talleres de flujo con cuatro máquinas en las que el

programa óptimo requiere un cambio de secuencia de trabajo entre la segunda y la tercera

máquina. Encontrar un horario óptimo cuando se permiten cambios


4

en la secuencia es significativamente más difícil que encontrar un horario óptimo cuando no se

permiten cambios en la secuencia. Las tiendas de flujo que no permiten cambios de secuencia

entre máquinas se denominan tiendas de flujo de permutación. En estas tiendas de flujo, la

misma secuencia o permutación de trabajos se mantiene en todas partes. Los resultados en este

capítulo se limitan principalmente a las tiendas de flujo de permutación. Dado un programa de

permutación j1, ..., jn para un taller de flujo de máquinas M, el tiempo de finalización del

trabajo jk en la máquina se puede calcular fácilmente mediante un conjunto de ecuaciones

recursivas

El valor de makespan bajo un programa de permutación dado también puede calcularse

determinando la ruta crítica en un gráfico dirigido que corresponda.


5

6.1 TIENDAS DE FLUJO CON ALMACENAMIENTO INTERMEDIO ILIMITADO


6

Fig. 6.1 Gráfico dirigido para el cálculo de Makespan en Fm | prmu | Cmax bajo secuencia j1, ...,

jn

Al horario Para una secuencia dada j1, ..., jn, el gráfico dirigido se puede construir de la

siguiente manera: para cada operación, digamos el procesamiento del trabajo jk en la máquina I,

hay un nodo (i, jk) con un peso que es igual a el tiempo de procesamiento del trabajo jk en la

máquina I. El nodo (i, jk), i = 1, ..., m − 1 y k = 1, ..., n − 1, tiene arcos que salen a los nodos (i

+ 1, jk) y (i, jk + 1). Los nodos correspondientes a la máquina M tienen un solo arco de salida,

al igual que los nodos correspondientes al trabajo jn. El nodo (m, jn) no tiene arcos salientes

(consulte la Figura 6.1). El peso total de la ruta del peso máximo desde el nodo (1, j1) hasta el

nodo (m, jn) corresponde a la extensión en el programa de permutación j1, ..., jn.

Ejemplo 6.1.1 (Representación gráfica de Tienda de flujo). Considere 5 trabajos en 4 máquinas

con los tiempos de procesamiento presentados en la siguiente tabla:


7

La gráfica correspondiente y el diagrama de Gantt se muestran en la Figura 6.2. Del gráfico

dirigido se deduce que el makepan es 34. Este makepan está determinado por dos caminos

críticos. || Se puede obtener un resultado interesante al comparar dos talleres de flujo de

permutación de la máquina M con n trabajos. Dejemos que p (1) ij y p (2) ij denoten el tiempo de

procesamiento del trabajo j en la máquina I en la primera y la segunda tienda de flujo,

respectivamente. Asumir
8

Fig. 6.2 Gráfico dirigido, rutas críticas y diagrama de Gantt (las entradas numéricas representan

los tiempos de procesamiento de los trabajos y no los índices de trabajo)

Esto básicamente implica que la primera máquina en la segunda tienda de flujo es idéntica a la

última máquina en la primera tienda de flujo; la segunda máquina en la segunda tienda de flujo es

idéntica a la máquina inmediatamente antes de la última en la primera tienda de flujo, y así

sucesivamente. El siguiente lema se aplica a estas dos tiendas de flujo.

Lema 6.1.2. La secuencia de los trabajos de acuerdo con la permutación j1, ..., jn en la primera

tienda de flujo da como resultado la misma secuencia que la secuencia de los trabajos de

acuerdo con la permutación jn, ..., j1 en la segunda tienda de flujo.

Prueba. Si la primera tienda de flujo bajo la secuencia j1, ..., jn corresponde al diagrama de la

Figura 6.1, entonces la segunda tienda de flujo bajo la secuencia jn, ..., j1 corresponde al mismo

diagrama con todos los arcos invertidos. El peso de la ruta del peso máximo de un nodo de

esquina a otro nodo de esquina no cambia cuando todos los arcos se invierten.
9

El lema 6.1.2 indica el siguiente resultado de reversibilidad: el intervalo de giro no cambia si los

trabajos atraviesan la tienda de flujo en la dirección opuesta en orden inverso.

Ejemplo 6.1.3 (Representaciones gráficas y reversibilidad). Considere la instancia del ejemplo

6.1.1. El dual de esta instancia se muestra en la tabla a continuación.

El gráfico dirigido correspondiente, sus rutas críticas y los diagramas de Gantt se muestran en la

Figura 6.3. Está claro que las rutas críticas están determinadas por el mismo conjunto de tiempos

de procesamiento y que, por lo tanto, makepan también es 34. ||

Considera ahora el F2 || Problema de Cmax: una tienda de flujos con dos máquinas en serie con

almacenamiento ilimitado entre las dos máquinas. Hay n trabajos y el tiempo de procesamiento

del trabajo j en la máquina 1 es p1j y su tiempo de procesamiento en la máquina 2 es p2j. Este

fue uno de los primeros problemas que se analizaron en los primeros días de la Investigación de

Operaciones y condujo a un documento clásico sobre la teoría de la programación por parte de

S.M. Johnson. La regla que minimiza el makepan se conoce comúnmente como la regla de

Johnson.
10

Se puede generar una secuencia óptima de la siguiente manera. Particione los trabajos en dos

conjuntos con el Conjunto I que contiene todos los trabajos con p1j <p 2j y el Conjunto II todos

los trabajos con p1j> p 2j. Los trabajos con p1j = p2j se pueden poner en cualquier conjunto. Los

trabajos en conjunto I van primero y van en orden creciente de p1j (SPT); los trabajos en el

Conjunto II siguen en orden decreciente de p2j (LPT). Los lazos pueden romperse

arbitrariamente. En lo que sigue, se hace referencia a un programa de este tipo como un programa

SPT (1) -LPT (2). Por supuesto, se pueden generar múltiples horarios de esta manera.

Teorema 6.1.4. Cualquier programa SPT (1) -LPT (2) es óptimo para F2 || Cmax.

Prueba. La prueba es por contradicción. Supongamos que otro tipo de horario es óptimo. En este

programa óptimo, debe haber un par de trabajos adyacentes, por ejemplo, trabajo j seguido de

trabajo k, que satisfaga una de las siguientes tres condiciones: (i) el trabajo
11

pertenece al conjunto II y el trabajo k al conjunto I; (ii) los trabajos j y k pertenecen al conjunto I

y p1j> p 1k; (iii) los trabajos j y k pertenecen al conjunto II y p2j <p 2k. Basta con demostrar que,

en cualquiera de estas tres condiciones, el makepan se reduce después de un intercambio por

pares de trabajos j y k. Supongamos que en el original.


12

Fig. 6.3 Gráfico dirigido, rutas críticas y diagrama de Gantt (las entradas numéricas representan

los tiempos de procesamiento de los trabajos y no los índices de trabajo)

Programar el trabajo l precede al trabajo j y el trabajo m sigue al trabajo k. LetCij denota la

finalización del trabajo j en la máquina I según el programa original y deja que C ij denote el

tiempo de finalización del trabajo j en la máquina I después del intercambio por pares.

Intercambiar trabajos j y k claramente no afecta el tiempo de inicio del trabajo m en la máquina

1, ya que su tiempo de inicio en la máquina 1 es igual a C1l + p1j + p1k. Sin embargo, es

interesante saber en qué momento la máquina 2 estará disponible para el trabajo m. Según el

programa original, este es el tiempo de finalización del trabajo k en la máquina 2, es decir, C2k,

y después del intercambio, este es el tiempo de finalización del trabajo j en la máquina 2, es

decir, C'2j. Suficiente para demostrar que C'2j <C2k bajo cualquiera de las tres condiciones

descritas anteriormente.
13

El tiempo de finalización del trabajo k en la máquina 2 según el programa original

Mientras que el tiempo de finalización del trabajo j en la máquina 2 después del intercambio por

pares es
14

Bajo la condición (i) p1j> p 2j y p1k <p 2k. Está claro que los primeros términos dentro de las

expresiones max de C2k y C'2j son idénticos. El segundo término en la última expresión es más

pequeño que el tercero en la primera expresión y el tercer término en la última expresión es más

pequeño que el segundo en la primera expresión. Entonces, bajo la condición (i) C'2j ≤ C2k.

Bajo la condición (ii) p1j <p 2j, p1k <p 2k y p1j> p 1k. Ahora, el segundo y el tercer término en

la última expresión son más pequeños que el segundo término en la primera expresión.

Entonces, bajo la condición (ii) C'2j ≤ C2k también. La condición (iii) se puede mostrar de

manera similar a la segunda condición. En realidad, la condición (iii) se deriva inmediatamente

de la propiedad de reversibilidad de las tiendas de flujo.

Estas programaciones SPT (1) -LPT (2) no son de ninguna manera las únicas programaciones

que son óptimas para F2 || Cmax. La clase de horarios óptimos parece ser difícil de caracterizar

y depende de los datos.

Ejemplo 6.1.5 (múltiples horarios óptimos). Considere un conjunto de trabajos con un trabajo

que tiene un tiempo de procesamiento muy pequeño en la máquina 1 y un tiempo de

procesamiento muy grande en la máquina 2, digamos K, con ≥ ∑ =1 1 . Está claro que, en la

secuencia óptima, este trabajo debe ir primero en el cronograma. Sin embargo, el orden de los

trabajos restantes no afecta la fabricación.


15

Desafortunadamente, la estructura del cronograma SPT (1) -LPT (2) no puede generalizarse

para caracterizar horarios óptimos para tiendas de flujo con más de dos máquinas. Sin embargo,

minimizando la fabricación de objetos en una tienda de flujo de permutación con un número

arbitrario de máquinas, es decir, Fm | prmu | Cmax, se puede formular como un programa entero

mixto (MIP).

Para formular el problema como un MIP, se deben definir varias variables: la variable de

decisión xjk es igual a 1 si la tarea j es la tarea kth en la secuencia y 0 en caso contrario. La

variable auxiliar Iik denota el tiempo de inactividad en la máquina i entre el procesamiento de

los trabajos en la posición kth y (k + 1) la posición th y la variable auxiliar Wik denota el

tiempo de espera del trabajo en la kth posición entre las máquinas i y i + 1. Por supuesto, existe

una fuerte relación entre las variables Wik y las variables Iik. Por ejemplo, si Iik> 0, entonces

Wi − 1, k + 1 tiene que ser cero. Formalmente, esta


16

relación se puede establecer considerando la diferencia entre el momento en que el trabajo en la

posición (k + 1) comienza en la máquina i + 1 y el momento en que el trabajo en la posición kth

completa su procesamiento en la máquina i. Si ∆ denota esta diferencia y si pi (k) denota el

tiempo de procesamiento en la máquina i del trabajo en la posición kth en la secuencia, entonces

(consulte la Figura 6.4)


17

Fig. 6.4 Restricciones en la formulación de programación de enteros.

Tenga en cuenta que la minimización de makepan equivale a minimizar el tiempo total de

inactividad en la última máquina, máquina m. Este tiempo de inactividad es igual a:

El MIP ahora se puede formular de la siguiente manera

Sujeto a
El primer conjunto de restricciones especifica que se debe asignar exactamente un trabajo a la

posición k para cualquier k. El segundo conjunto de restricciones especifica que el trabajo j debe

asignarse exactamente a una posición. El tercer conjunto de restricciones relaciona las variables

de decisión xjk con las restricciones físicas. Estas restricciones físicas imponen las relaciones

necesarias entre las variables de tiempo de inactividad y las variables de tiempo de espera. Por lo

tanto, el problema de minimizar el makepan en una tienda de flujo de permutación de m

máquinas se formula como un MIP. Las únicas variables enteras son las variables de decisión

binarias (0−1) xjk. Las variables de tiempo inactivo y de espera son variables continuas no

negativas.

Ejemplo 6.1.6 (Formulación de programación de enteros mixtos). Considere nuevamente la

instancia en el Ejemplo 6.1.1. Debido a que ahora no se da la secuencia, el subíndice jk en la

tabla del Ejemplo 6.1.1 se reemplaza por el subíndice j y los encabezados j1, j 2, j 3, j 4 y j5 se

reemplazan por 1, 2, 3, 4 , y 5, respectivamente.


Con estos datos el objetivo del MIP es

El primer y segundo conjunto de restricciones del programa contienen 5 restricciones cada una.

El tercer conjunto contiene (5−1) (4−1) = 12 restricciones. Por ejemplo, la restricción

correspondiente a k = 2 yi = 3 es
Fig. 6.5 3-PARTICIÓN se reduce a F3 || Cmax

El hecho de que el problema se pueda formular como un MIP no implica inmediatamente que el

problema sea NP-duro. Podría ser que el MIP tenga una estructura especial que permita un

algoritmo de tiempo polinomial (ver, por ejemplo, la formulación de programación de enteros

para Rm ||∑ ). En este caso, sin embargo, resulta que el problema es difícil.

Teorema 6.1.7. F3 || Cmax es fuertemente NP-duro.

Prueba. Por reducción de 3-PARTICIÓN. Dados los enteros a1, ..., a3t, b, bajo los supuestos

habituales, permita que el número de trabajos n sea igual a 4t + 1 y que


Sea z = (2 t + 1) b. Se puede obtener un intervalo de valor de z si los primeros t + 1 trabajos se

programan de acuerdo con la secuencia 0,1, ..., t. Estos trabajos t + 1 forman un marco, dejando t

espacios en la máquina 2. Los trabajos t +1, ..., t + 3 t deben dividirse en t conjuntos de tres

trabajos cada uno y estos conjuntos t deben programarse en entre los primeros t + 1 trabajos.

Puede obtenerse una vida útil de valor z si y solo si 3 PARTICIÓN tiene una solución (consulte la

Figura 6.5).

Esta prueba de complejidad se aplica a las tiendas de flujo de permutación así como a las

tiendas de flujo que permiten cambios de secuencia en el medio (como se indicó anteriormente,

para la tienda de flujo de tres máquinas se sabe que un programa de permutación es óptimo en

la clase más amplia de programas).

Como fm | prmu | Cmax es uno de los problemas de programación más básicos, ha atraído una

gran atención a lo largo de los años. Se han desarrollado muchas heurísticas para tratar este

problema. Una de las primeras heurísticas desarrolladas para este problema es la heurística de

pendiente. De acuerdo con esta heurística, se calcula un índice de pendiente para cada trabajo.

El índice de pendiente Aj para el trabajo j se define como


Luego, los trabajos se secuencian en orden decreciente del índice de pendiente. El razonamiento

detrás de esta heurística es simple. Del Teorema 6.1.4 ya está claro que los trabajos con

pequeños tiempos de procesamiento en la primera máquina y los grandes tiempos de

procesamiento en la segunda máquina deberían posicionarse más hacia el comienzo de la

secuencia, mientras que los trabajos con grandes tiempos de procesamiento en la primera

máquina y pequeños Los tiempos de procesamiento en la segunda máquina deben posicionarse

más hacia el final de la secuencia. El índice de pendiente es grande si los tiempos de

procesamiento en las máquinas posteriores son grandes en relación con los tiempos de

procesamiento en las máquinas anteriores; el índice de pendiente es pequeño si los tiempos de

procesamiento en las máquinas posteriores son relativamente pequeños en comparación con los

tiempos de procesamiento en las máquinas anteriores.


Ejemplo 6.1.8 (Aplicación de la Heurística de Pendientes). Considere nuevamente la instancia

en los Ejemplos 6.1.1 y 6.1.6. Reemplace el jk por j y el j1, ..., j5 por 1, ..., 5. Los índices de

pendiente son:
Las dos secuencias sugeridas por la heurística son, por lo tanto, 2, 5, 3, 1,4 y 5, 2, 3, 1,4. El

makespan bajo estas dos secuencias es 32. La enumeración completa comprueba que ambas

secuencias son óptimas.

En contraste con el objetivo de makepan, los resultados con respecto al objetivo de tiempo total

de finalización son significativamente más difíciles de obtener. Se puede demostrar que F2 ||∑

ya está fuertemente NP-duro. La prueba de este resultado de complejidad está algo involucrada

y, por lo tanto, no se presenta aquí.

6.2 TIENDAS DE FLUJO CON ALMACENAMIENTO INTERMEDIO LIMITADO

Considere m máquinas en serie con cero almacenamiento intermedio entre máquinas sucesivas.

Cuando una máquina termina con el procesamiento de un trabajo, ese trabajo no puede pasar a

la siguiente máquina si esa máquina está ocupada; el trabajo debe permanecer en la primera

máquina, que por lo tanto no puede iniciar ningún procesamiento de trabajos subsiguientes.

Como se dijo antes, este fenómeno se conoce como bloqueo.

En lo que sigue solo se consideran las tiendas de flujo con cero almacenamientos intermedios,

ya que cualquier tienda de flujo con almacenamientos intermedios positivos (pero finitos) entre

máquinas se puede modelar como una tienda de flujo con cero almacenamientos intermedios.

Esto se deduce del hecho de que un espacio de almacenamiento capaz de contener un trabajo

puede considerarse como una máquina en la que los tiempos de procesamiento de todos los

trabajos son iguales a cero.


El problema de minimizar la fabricación en una tienda de flujo con cero almacenamientos

intermedios se describe en lo que sigue como Fm | bloque Cmax. Deje que Dij denote el tiempo

en que el trabajo j sale de la máquina i. Claramente, Dij ≥C ij. La igualdad se mantiene cuando

el trabajo j no está bloqueado. La hora en que el trabajo j comienza su procesamiento en la

primera máquina se denota por D0j. Las siguientes relaciones recursivas se mantienen bajo la

secuencia j1,..., jn.


Para este modelo, el makespan bajo un programa de permutación dado también se puede calcular

determinando la ruta crítica en un gráfico dirigido. En este gráfico dirigido, el nodo (i, jk) indica

el tiempo de salida del trabajo jk desde la máquina i. En contraste con el gráfico en la Sección 6.1

para tiendas de flujo con almacenamientos intermedios ilimitados, en este gráfico los arcos, en

lugar de los nodos, tienen pesos. Nodo (i, jk), i = 1,

..., m − 1; k = 1,..., n − 1, tiene dos arcos salientes; un arco va al nodo (i + 1, jk) y tiene un peso

o distancia pi + 1, jk, el otro arco va al nodo (i − 1, jk + 1) y tiene un peso cero. El nodo (m, jk)

tiene solo un arco saliente al nodo (m − 1, jk + 1) con peso cero. El nodo (i, jn) tiene solo un

arco de salida al nodo (i + 1, jn) con peso pi + 1, jn. El nodo (m, jn) no tiene arcos salientes

(consulte la Figura 6.6). La Cmax bajo la secuencia j1,..., jn es igual a la longitud del recorrido

de peso máximo desde el nodo (0, j1) al nodo (m, jn).

Ejemplo 6.2.1 (Representación gráfica de tienda de flujo con bloqueo). Considere la instancia

del ejemplo 6.1.1. Suponga que los mismos 5 trabajos con los mismos tiempos de

procesamiento tienen que atravesar las mismas cuatro máquinas. La única diferencia es que

ahora hay cero almacenamientos intermedios entre las máquinas. El gráfico dirigido y el

diagrama de Gantt correspondientes a esta situación se muestran en la Figura 6.7. Ahora solo

hay una ruta crítica que determina la composición de 35.


Fig. 6.6 Gráfico dirigido para el cálculo de la fabricación.
El siguiente lema muestra que la propiedad de reversibilidad se extiende a las tiendas de flujo con

cero almacenamiento intermedio. Considere dos m de talleres de flujo de máquinas con bloqueo y

deje que p (1) ij y p (2) ij denoten los tiempos de procesamiento del trabajo j en la máquina i en la

primera y la segunda tienda de flujo, respectivamente.

Lema 6.2.2. Si

Luego, la secuencia j1,..., jn en la primera tienda de flujo da como resultado la misma pauta

que la secuencia jn,..., j1 en la segunda tienda de flujo.

Prueba. Se puede mostrar que hay una correspondencia uno a uno entre recorridos de igual peso

en los dos gráficos dirigidos correspondientes a las dos tiendas de flujo. Esto implica que los

recorridos con pesos máximos en los dos gráficos dirigidos deben tener el mismo peso total.

Este resultado de reversibilidad es similar al resultado en Lema 6.1.2. En realidad, se puede

argumentar que el resultado en Lema 6.1.2 es un caso especial del resultado en Lema 6.2.2. Los
almacenamientos intermedios ilimitados se pueden considerar como conjuntos de máquinas en

las que todo el procesamiento es igual a cero.

Considerar el F2 | bloque Problema de Cmax con dos máquinas en serie y cero almacenamiento

intermedio en medio. Tenga en cuenta que en esta tienda de flujo, cada vez que un trabajo

comienza su procesamiento en la primera máquina, el trabajo anterior comienza su

procesamiento en la segunda máquina. El tiempo que el trabajo jk pasa en la máquina 1, en

proceso o bloqueado, es por lo tanto máximo (p1, jk, p2, jk − 1). El primer trabajo en la

secuencia gasta solo p1, jk en la máquina 1. Este problema de minimización de makepan es

equivalente a un problema de vendedor ambulante con n + 1 ciudades. Deje que la distancia de

la ciudad j a la ciudad k sea igual a


Fig. 6.7 Gráfico dirigido, ruta crítica y diagrama de Gantt (las entradas numéricas representan los

tiempos de procesamiento de los trabajos y no los índices de trabajo)


La distancia total recorrida es igual a la duración de la tienda de flujo. En realidad, la matriz de

distancia se puede simplificar un poco. En lugar de minimizar el makepan, uno puede minimizar

el tiempo total entre 0 y Cmax que una de las dos máquinas está inactiva o bloqueada. Los dos

objetivos son equivalentes, ya que el doble de makepan es igual a la suma de los tiempos de

procesamiento 2n más la suma de todos los tiempos de inactividad. Minimizar la suma de todos

los tiempos de inactividad es equivalente al siguiente Problema del Vendedor Viajero con n + 1

ciudades:

El tiempo de inactividad en una de las máquinas, cuando el trabajo j comienza en la máquina 2 y

el trabajo k comienza en la máquina 1, es la diferencia entre los tiempos de procesamiento p2j y

p1k. Si p2j es más grande que p1k, la tarea se bloqueará por la diferencia de tiempo en la

máquina 1, de lo contrario la máquina 2 permanecerá inactiva por la diferencia de tiempo. La

matriz de distancia de este problema de vendedor ambulante es idéntica a la que se analiza en la

Sección 4.4. Los valores para b0 y a0 en la Sección 4.4 deben elegirse igual a cero.

El algoritmo para el 1 | sjk | El problema de Cmax con = || − || ahora se puede usar

para F2 | bloque Cmax también, lo que implica que existe un algoritmo O (n2) para F2 | bloque

Cmax.

Ejemplo 6.2.3 (Una tienda de flujo de dos máquinas con bloqueo y el TSP). Considere una

instancia de 4 trabajos con tiempos de procesamiento.


Esto se traduce en un TSP con 5 ciudades. En la notación de la Sección 4.4, esta instancia del

TSP se especifica siguiendo los valores aj y bj.

La aplicación del algoritmo 4.4.5 en esta instancia da como resultado el recorrido 0 → 1 → 4 →

2 → 3 → 0. En realidad, dos horarios son óptimos para la tienda de flujo con bloqueo, a saber,

el horario 1, 4, 2,3 y el calendario 1, 4, 3,2. Estos son diferentes de los horarios


SPT (1) -LPT (2) que son óptimos en el caso de buzos ilimitados. Con los mismos cuatro

trabajos y buzones ilimitados, los siguientes tres horarios son óptimos: 1, 3, 4,2; 1, 2, 3,4 y 1, 3,

2,4.

La versión de tres máquinas de este problema no se puede describir como un problema de un

vendedor ambulante y se sabe que es muy difícil para NP. La prueba, sin embargo, es bastante

complicada y por lo tanto se omite.

Al igual que con las tiendas de flujo con almacenamiento intermedio ilimitado, se ha realizado

una gran cantidad de investigación sobre el desarrollo de heurísticas para minimizar las tiendas

de flujo de makepan con almacenamiento y bloqueo intermedios limitados. Una heurística

popular para Fm | bloque| Cmax es la heurística de ajuste de perfil (PF), que funciona de la

siguiente manera: se selecciona un trabajo para ir primero, posiblemente de acuerdo con algún

esquema, por ejemplo, el trabajo con la menor suma de tiempos de procesamiento. Este trabajo,

digamos que el trabajo j1, no encuentra ningún bloqueo y continúa sin problemas de una

máquina a la siguiente, generando un perfil. El perfil está determinado por su salida de la

máquina i. Si job j1 corresponde a job k, entonces


Para determinar qué trabajo debe ir en segundo lugar, se prueban todos los trabajos restantes

que aún no se han programado. Para cada trabajo candidato, se realiza un cálculo para

determinar la cantidad de tiempo que las máquinas están inactivas y la cantidad de tiempo que

el trabajo está bloqueado en una máquina. Las épocas de salida de un candidato para la segunda

posición, por ejemplo, trabajo j2, se pueden calcular de forma recursiva:

El tiempo perdido en la máquina i, es decir, el tiempo en que la máquina está inactiva o

bloqueada, es Di, j2 −Di, j1 −pi, j2. La suma de estos tiempos inactivos y bloqueados en todas las

m máquinas se calcula. El candidato con el menor total se selecciona como segundo trabajo.

Después de seleccionar el trabajo que mejor se adapta al trabajo para la segunda posición, se

calcula el nuevo perfil, es decir, los tiempos de salida de este segundo trabajo desde las

máquinas m, y el procedimiento se repite. De los trabajos restantes se selecciona nuevamente el

mejor trabajo de ajuste, y así sucesivamente.

En esta descripción, la buena calidad del ajuste de un trabajo en particular se midió por el

tiempo total desperdiciado en todas las máquinas m. Cada máquina fue considerada
igualmente importante. Es intuitivo que el tiempo perdido en una máquina de cuello de botella

es peor que el tiempo perdido en una máquina que no tiene mucho procesamiento que hacer.

Cuando se mide la cantidad total de tiempo perdido, puede ser apropiado multiplicar cada uno

de estos períodos de tiempo inactivos en una máquina dada por un factor que es proporcional al

grado de congestión en esa máquina. Cuanto mayor sea el grado de congestión en una máquina

en particular, mayor será el peso. Una medida para el grado de congestión de una máquina que

es fácil de calcular es simplemente la cantidad total de el procesamiento debe realizarse en

todos los trabajos en la máquina en cuestión. Los experimentos han demostrado que una versión

ponderada de la heurística PF funciona bastante bien.

Ejemplo 6.2.4 (Aplicación de la heurística PF). Consideremos de nuevo 5 puestos de trabajo y 4

máquinas. Los tiempos de procesamiento de los cinco trabajos se encuentran en las tablas de los

Ejemplos 6.1.1 y 6.1.6. Supongamos que hay cero almacenamientos entre las máquinas

sucesivas.

Tome como primer trabajo el trabajo con el menor tiempo de procesamiento total, es decir, el

trabajo 3. Aplique la heurística PF no ponderada. Cada uno de los cuatro trabajos restantes debe

ser probado. Si el trabajo 1 o el trabajo 2 quedaran en segundo lugar, el tiempo total de

inactividad de las cuatro máquinas sería 11; si el trabajo 4 fuera segundo, el tiempo total de

inactividad de las cuatro máquinas sería 15 y si el trabajo 5 fuera segundo, el tiempo total de

inactividad sería 3. Está claro que el trabajo 5 es la mejor opción. Continuando de esta manera,

la heurística PF da como resultado la secuencia 3, 5, 1, 2,4 con un makepan igual a 32. A partir

del hecho de que este makespan es igual al mínimo de makepan en el caso de almacenamiento

intermedio ilimitado, se deduce que La secuencia 3,5,1,2,4 también es óptima en el caso de


almacenamiento intermedio cero. Para estudiar el efecto de la selección del primer trabajo,

considere la aplicación de la heurística PF después de seleccionar el trabajo con el mayor

tiempo de procesamiento total como el trabajo inicial. Entonces el trabajo 2 va primero. La

aplicación de la heurística PF no ponderada conduce a la secuencia 2, 1, 3, 5,4 con makespan

35. Esta secuencia claramente no es óptima.

Considere ahora una tienda de flujo con cero almacenamiento intermedio que sigue diferentes

procedimientos operativos. Un trabajo, cuando pasa por el sistema, no puede esperar en ninguna

máquina. Es decir, siempre que haya completado su procesamiento en una máquina, la siguiente

máquina debe estar inactiva, de modo que el trabajo no tenga que esperar. En contraste con el

caso de bloqueo en el que los trabajos son empujados por la línea hacia arriba por las máquinas

que han completado su procesamiento, los trabajos en este caso en realidad son tirados por la

línea hacia abajo por las máquinas que se han quedado inactivas. Esta restricción se conoce

como la restricción de no espera y se minimiza el intervalo de tiempo en dicha tienda de flujo

como Fm | nwt Problema de la Cmax. Es fácil ver que F2 | bloque |Cmax es equivalente a F2 |

nwt Cmax. Sin embargo, cuando hay más de dos máquinas en serie, los dos problemas son

diferentes. El Fm | nwt Problema de Cmax, a diferencia de la Fm | bloque El problema de

Cmax, todavía se puede formular como un problema de vendedor ambulante. Las distancias

interurbanas son
Para j, k = 0,..., n. Cuando hay más de dos máquinas en serie, se sabe que este problema del

vendedor ambulante es fuertemente NP-duro.

6.3 TIENDAS DE FLUJO PROPORCIONAL CON ALMACENAMIENTO

INTERMEDIO ILIMITADO Y LIMITADO

Desde Fm | prmu | La Cmáx es fuertemente NP-dura. Es interesante estudiar casos especiales

que tengan buenas propiedades estructurales.

Un caso especial importante de la tienda de flujo de permutación con almacenamiento

intermedio ilimitado es la llamada tienda de flujo de permutación proporcional con

almacenamiento intermedio ilimitado. En este taller de flujo, los tiempos de procesamiento del

trabajo j en cada una de las m máquinas son iguales a pj, es decir, p1j = p2j = ··· = pmj

pj. La minimización de la envergadura en una tienda de flujo de permutación proporcional se

denota por Fm | prmu, pij = pj | Cmax. Para una tienda de flujo proporcional, ahora se puede

definir una secuencia llamada SPTLPT. Un conjunto de n trabajos se puede dividir en dos

subconjuntos; los trabajos en un subconjunto van primero según SPT y los trabajos restantes
siguen según LPT. Así que una secuencia j1,..., jn es SPT-LPT si y solo si hay un trabajo jk tal

que

And

Del teorema 6.1.4 se deduce que cuando m = 2, cualquier secuencia SPT-LPT debe ser óptima.

Como se puede esperar, estas no son las únicas secuencias que son óptimas, ya que esta tienda

de flujo tiene una estructura muy especial.

Teorema 6.3.1. Para fm | prmu, pij = pj | Cmax, el makespan es igual a


Y es independiente del horario.

Prueba. La prueba es dejada como un ejercicio.

Se puede demostrar que los programas de permutación también son óptimos en la clase más

amplia de programas que permiten que los trabajos se pasen unos a otros mientras se espera una

máquina, es decir, Fm | pij = pj | Cmax (ver Ejercicio 6.17). El resultado


establecido en el teorema anterior implica que, en un aspecto, la tienda de flujo de datos

proporcional es similar a la de una sola máquina: la división de la fabricación no depende de la

secuencia. En realidad, hay muchas más similitudes entre la tienda de flujos proporcionales y la

única máquina. Los siguientes resultados, que son todas las extensiones directas de sus

homólogos de una sola máquina, ilustran este hecho.

La regla SPT es óptima para 1||∑ así como para FM | prmu, pij = pj |∑

El algoritmo que genera un horario óptimo para 1|| ∑ también genera un horario óptimo para |

,=|∑ .

El algoritmo que genera un horario óptimo para 1 || hmax también genera un horario óptimo

para Fm | prmu, pij = pj | hmax

El algoritmo de programación dinámica pseudo-polinomial para 1 ||∑ También se puede aplicar

a| ,=|∑.

Los criterios de eliminación que se mantienen para 1 || ∑ también mantener para | ,=|∑

No todos los resultados que se mantienen para la máquina solo se mantienen para la tienda de

flujo proporcional. Por ejemplo, el WSPT no necesariamente minimiza el tiempo total de

finalización ponderado en una tienda de flujo proporcional. Los contraejemplos se pueden

encontrar fácilmente.
Sin embargo, | = | ∑ Todavía se puede resolver en tiempo polinomial. Para describir el

algoritmo que minimiza el tiempo total de finalización ponderado, se necesitan algunos

resultados preliminares. El primer resultado preliminar implica una regla de dominancia.

Lema 6.3.2. Si para los trabajos j y k tanto wj / pj ≥ wk / pk como pj ≤ pk, existe una secuencia

óptima en la que el trabajo j precede al trabajo k.

Prueba. La prueba es dejada como un ejercicio.

Se requiere alguna terminología adicional para describir el algoritmo que minimiza el tiempo de

finalización ponderado total. En una secuencia de permutación arbitraria 1,..., n trabajo j se

conoce como trabajo nuevo-max si y solo si pj> max (p1,..., p j−1). Cualquier secuencia dada

1,..., n puede particionarse en función de sus nuevos trabajos max. Supongamos que hay r new-

max jobs en la secuencia 1,..., n, digamos jobs j1,..., jr. Jobj1 es el primer trabajo en la

secuencia, es decir, el trabajo 1. La secuencia ahora se puede dividir en r segmentos 1,..., r, con

el segmento que consta de nuevo trabajo max-j y todos los trabajos programados entre trabajos

nuevos-max j y j +1. El último segmento, segmento r, consta del último trabajo nuevo-máximo,

trabajo jr, y todos los trabajos que siguen a este trabajo nuevo-máximo hasta e incluyendo el

último trabajo en la secuencia.

Lema 6.3.3. En cualquier secuencia óptima, todos los trabajos en cualquier segmento dado,

incluido el trabajo nuevo-max que inicia ese segmento, se programan en orden decreciente de

wj / pj.
Prueba. Se puede demostrar fácilmente que todos los trabajos dentro de un segmento se

procesan en cada máquina, uno tras otro, sin ningún tiempo de inactividad de la máquina entre

su procesamiento. El hecho de que los trabajos dentro de un segmento se


programen en orden decreciente de wj / pj puede mostrarse fácilmente a través de un argumento

de intercambio de pares adyacente directo.

Los resultados presentados en los dos lemas anteriores implican que la secuencia óptima tiene la

estructura que se muestra en la Figura 6.8.

Fig. 6.8 Estructura de un horario óptimo.


Para describir el algoritmo que minimiza el tiempo de finalización ponderado total, vuelva a

indexar los trabajos primero de manera que w1 / p1 ≥ w2 / p2 ≥ ··· ≥wn / pn, es decir, estén

indexados de acuerdo con el WSPT. El algoritmo pasa por n iteraciones. En la iteración k, el

algoritmo comienza con una secuencia parcial Sk-1 que contiene los trabajos 1,..., k-1 en un

cierto orden; el algoritmo luego extiende esta secuencia parcial tomando el trabajo k e

insertándolo en la secuencia parcial en esa posición que causa el menor aumento en la función

objetivo. Más formalmente, el algoritmo se puede describir de la siguiente manera:

ALGORITMO 6.3.4 (MINIMIZACIÓN DEL TIEMPO DE FINALIZACIÓN PONDERADO

TOTAL).
Paso 1.

Deje que S1 conste del trabajo 1. Establezca k = 2.

Paso 2.

Genere la secuencia parcial Sk tomando la secuencia parcial Sk-1 e insertando el trabajo k de

manera que se minimice el aumento de la función objetivo.

Si hay varias posibilidades, elija una en la que se inserte el trabajo k más reciente.

Establecer k = k +1.

Paso 3.

Si k ≤ n, vaya al paso 2.

Si k = n +1, entonces STOP; la secuencia óptima es sn

El algoritmo anterior que genera el programa óptimo se denomina primero como el Tiempo de

procesamiento más corto ponderado con el algoritmo de Inserción de costo mínimo (WSPT-

MCI). Tenga en cuenta que debido a Lema 6.3.2, el trabajo k no se puede insertar antes de

cualquier trabajo que tenga un tiempo de procesamiento inferior a pk. Además, de Lema 6.3.3

se deduce que el trabajo k debe insertarse justo antes de un nuevo trabajo max.
Teorema 6.3.5. El algoritmo WSPT-MCI genera un horario óptimo para | ,=|∑ .

Prueba. El resultado se puede mostrar de forma inductiva demostrando que existe un programa

óptimo en el que los trabajos 1, ..., kappear en el mismo orden en que aparecen en la secuencia

Sk. Esta declaración se mantiene claramente para k = 1. Dejemos que S

denote un horario óptimo en el que los trabajos 1,..., k − 1 aparecen en el mismo orden en que

aparecen en la secuencia Sk − 1 y eso también está de acuerdo con Lemas 6.3 .2 y 6.3.3. Basta

con mostrar que la secuencia óptima S ∗ se puede modificar sin aumentar el valor de la función

objetivo de modo que el orden de procesamiento de los trabajos 1,..., k coincida con el orden en

Sk y satisfaga los lemas 6.3.2 y 6.3.3 también. La prueba se basa en un análisis caso por caso.

Debe hacerse una distinción entre el Características de las posibles posiciones de inserción para

el trabajo k. Suponiendo que Sk no está de acuerdo con S ∗ con respecto al orden de los trabajos

1,..., k, considere los siguientes tres casos:

el trabajo k es un trabajo nuevo-max en Sk;

el trabajo k no es un trabajo nuevo-max en Sk y precede a un trabajo en el conjunto {1,..., k −

1} en S ∗ que sigue en Sk;

El trabajo k no es un trabajo nuevo-max en Sk y sigue un trabajo en el conjunto {1,..., k − 1} en

S ∗ que precede en Sk;


Para probar la parte (i), se puede proceder de la siguiente manera. Si el trabajo k es un nuevo

trabajo máximo en Sk, entonces todos los trabajos que preceden al trabajo k en Sk tienen un

tiempo de procesamiento menor y, debido a Lema 6.3.2, todos los trabajos que
siguen al trabajo k tienen un tiempo de procesamiento más largo. Como S ∗ satisface el Lema

6.3.2, el trabajo k no precede a ningún trabajo en S ∗ con un menor tiempo de procesamiento

que también está presente en Sk. Lo que queda por mostrar es que en S ∗, el trabajo k precede a

los trabajos en Sk − 1 con un tiempo de procesamiento mayor, o que S ∗ se puede modificar de

esa manera sin aumentar el valor de la función objetivo. Esto puede ser mostrado por la

contradicción; la contradicción implica algunos argumentos de intercambio de secuencias

adyacentes que se dejan al lector.

Para probar las partes (ii) y (iii), se puede proceder de la siguiente manera. Si el trabajo k no es

un trabajo nuevo-max, entonces debe insertarse en Sk-1 como el último trabajo en un segmento

que pertenece a un trabajo nuevo-max. Luego queda por demostrar que, si es necesario, el

horario óptimo S ∗ se puede cambiar sin aumentar el objetivo, de modo que el trabajo k ocupe

la misma posición en relación con los trabajos que se encuentran en Sk. Dependiendo de la

posición del trabajo k en S ∗, se debe hacer una distinción entre los casos (ii) y (iii). En el caso

(ii) se supone que el trabajo k está programado antes del trabajo en S ∗ y en el caso (iii) se

supone que el trabajo k está programado después del trabajo en S ∗. Nuevamente, en ambos

casos se debe demostrar que la modificación de S

de una manera en que el trabajo k termina en la misma posición en relación con los otros

trabajos que están en Sk no cambia el valor de la función objetivo. De nuevo, esto se puede

mostrar a través de los argumentos de intercambio de secuencias adyacentes que se dejan al

lector.
Se puede demostrar fácilmente que el algoritmo WSPT-MCI se ejecuta en tiempo O ( 2) Se

puede demostrar fácilmente que el algoritmo WSPT-MCI se ejecuta en tiempo O (n2). También

se puede mostrar que la secuencia de permutación generada por WSPT-MCI permanece óptima

incluso cuando el programa óptimo no tiene que ser una secuencia de permutación.

El modelo de la tienda de flujo de permutación proporcional puede generalizarse para incluir

máquinas con diferentes velocidades. Si la velocidad de la máquina i es vi, entonces el tiempo

que el trabajo j pasa en la máquina i es pij = pj / vi. La máquina con la

más pequeña se llama máquina de cuello de botella. El makepan ya no es horario independiente.

Teorema 6.3.6. Si en una tienda de flujo de permutación proporcional con diferentes

velocidades, la primera (última) máquina es el cuello de botella, entonces LPT (SPT) minimiza

la interferencia.

Prueba. De la propiedad de reversibilidad se deduce inmediatamente que es suficiente para

probar solo uno de los dos resultados declarados en el teorema. Aquí solo se muestra el caso

donde la última máquina es el cuello de botella.

Considere primero el subclase especial con


Es decir, la última máquina es el cuello de botella y la primera máquina requiere los segundos

tiempos de procesamiento más largos para cada uno de la n trabajos. Es fácil ver que en una

tienda de flujo de este tipo, la ruta crítica solo gira a la derecha en la


máquina m y, por lo tanto, solo baja una vez en algún trabajo jk en la secuencia j1,..., jn. Por lo

tanto, la ruta crítica comienza en la máquina 1 yendo hacia la derecha, baja en el trabajo jk y

baja hasta la máquina m antes de girar nuevamente a la derecha. Que SPT es óptimo se puede

mostrar a través de un argumento de intercambio de pares adyacentes estándar. Considere un

horario que no es SPT. Hay dos trabajos adyacentes de los cuales el primero es más largo que el

segundo. El intercambio de estos dos trabajos afecta a la división de efectos si, y solo si, uno de

los dos trabajos es el trabajo a través del cual la ruta crítica va de la máquina 1 a la m. Se puede

mostrar que un intercambio reduce el makepan y que SPT minimiza el makepan.

Para completar la prueba para el caso general, llame a la máquina h un cuello de botella

intermedio si vh <min (v1,..., vh − 1). Puede haber varios cuellos de botella intermedios en la

tienda de flujo proporcional. Los argumentos presentados anteriormente para el caso con el

único cuello de botella intermedio que es la máquina 1 se extienden al caso general con

múltiples cuellos de botella intermedios. La ruta crítica ahora solo gira a la derecha en las

máquinas con cuellos de botella intermedios. Esta estructura se puede explotar de nuevo con un

argumento de intercambio de pares adyacentes que muestra que SPT minimiza el intervalo de

tiempo.

Considere ahora el caso proporcionado de la tienda de flujo con almacenamiento intermedio

limitado, es decir, Fm | bloque, pij = pj | Cmax.

Teorema 6.3.7. Un horario es óptimo para Fm | bloque, pij = pj | Cmax si y solo si es un horario

SPT-LPT.
Prueba. El makepan tiene que satisfacer la desigualdad.

Como el R.H.S. es la elección óptima cuando existen buzos ilimitados entre dos máquinas

sucesivas. Claramente, el makepan con limitados o sin regulador tiene que ser al menos tan

grande. Basta con demostrar que el makepan bajo cualquier programa SPT-LPT es igual al límite

inferior, mientras que el makepan bajo cualquier programa que no sea SPT-LPT es estrictamente

mayor que el límite inferior.

Se puede mostrar fácilmente que makepan bajo cualquier programa SPT-LPT es igual al límite

inferior. En la parte SPT de la programación, los trabajos nunca se bloquean. En otras palabras,

cada trabajo en esta primera parte del cronograma, una vez iniciado en la primera máquina,

continúa a través del sistema sin detenerse. Si en la programación SPT-LPT j1,..., jn trabajo jk

es el trabajo con el tiempo de procesamiento más largo, entonces el trabajo jk sale del sistema

en
Los trabajos en la parte LPT de la secuencia, por supuesto, experimentan el bloqueo a medida

que los trabajos más cortos siguen trabajos más largos. Sin embargo, está claro que ahora, en

esta parte del programa, una máquina nunca tiene que esperar un trabajo. Cada vez que una

máquina completa el procesamiento de un trabajo desde la parte LPT del programa, el siguiente

trabajo está listo para comenzar (ya que los trabajos más cortos siguen a trabajos más largos).

Entonces, después de que el trabajo jk haya completado su procesamiento en la máquina m, la

máquina m permanece continuamente ocupada hasta que haya completado todos los trabajos

restantes. El makespan bajo un programa SPT-LPT es, por lo tanto, igual al makespan bajo un

programa SPT-LPT en el caso de buzos ilimitados. Por lo tanto, los horarios de SPT-LPT tienen

que ser óptimos.

Que las programaciones SPT-LPT son las únicas programaciones óptimas que se pueden

mostrar por contradicción. Supongamos que otro programa, que no es SPT-LPT, también es

óptimo. Nuevamente, el trabajo con el tiempo de procesamiento más largo, el trabajo jk,

contribuye m veces su procesamiento a la división. Sin embargo, debe haber algún trabajo, por

ejemplo, trabajo jh, (no el trabajo más largo) que se coloca entre dos trabajos que son más

largos. Si el trabajo jh aparece en el programa anterior al trabajo jk, permanece en la máquina 1

durante un período de tiempo mayor que su tiempo de procesamiento, ya que está bloqueado

por el trabajo anterior en la máquina 2. Por lo tanto, su contribución a makepan es estrictamente

mayor que su tiempo de procesamiento, lo que hace que el makepan sea estrictamente más

grande que el límite inferior. Si el trabajo jh aparece en el programa después del trabajo jk, los

trabajos que siguen al trabajo jk en la máquina m no se procesan uno tras otro sin que haya

tiempos de inactividad intermedios. Después del trabajo jh, hay un tiempo de inactividad en la
máquina m, ya que el siguiente trabajo tiene un tiempo de procesamiento que es estrictamente

mayor que el tiempo de procesamiento del trabajo jh.

Se puede demostrar fácilmente que SPT también es óptimo para | , = |∑

6.4 TIENDAS DE FLUJO FLEXIBLE CON ALMACENAMIENTO INTERMEDIO

ILIMITADO

La tienda de fluido flexible es un entorno de máquina con c etapas en serie; en la etapa l, l =

1,..., c, hay ml máquinas idénticas en paralelo. Hay un almacenamiento intermedio ilimitado

entre dos etapas sucesivas. El entorno de la máquina en el primer ejemplo de la Sección 1.1

constituye una tienda de fluido flexible. El trabajo j, j = 1,..., n, debe procesarse en cada etapa

en una máquina, cualquiera lo hará. Los tiempos de procesamiento del trabajo j en las distintas

etapas son p1j, p2j,..., pcj. La minimización de la vida útil y el tiempo total de finalización se

denominan, respectivamente, FFc || Cmax y FFc ||∑ . El entorno de máquina paralelo y la tienda

de flujo con almacenamientos intermedios ilimitados son casos especiales de este entorno de

máquina. Como este entorno es bastante complejo, solo el caso especial con tiempos de

procesamiento proporcionales, es decir, p1j = p2j = ··· = pcj = pj, se consideran aquí.

Considere FFc | pij = pj | Cmax. Uno esperaría que la heurística LPT se desempeñe bien en el

caso no preventivo y que la heurística LRPT tenga un buen desempeño en el caso preventivo.

Por supuesto, la regla de LPT no puede


garantizar un horario óptimo; Una sola etapa (un entorno de máquina paralelo) ya es NP-hard.

El peor comportamiento de la regla LPT cuando se aplica a múltiples etapas en serie puede ser

peor que cuando se aplica a una sola etapa.

Ejemplo 6.4.1 (Minimizando Makespan en una tienda de flujo flexible). Considere dos etapas

con dos máquinas en paralelo en la primera etapa y una sola máquina en la segunda etapa. Hay

dos trabajos con p1 = p2 = 100 y cien trabajos con p3 = p4 = ··· = p102 = 1. Está claro que para

minimizar el tiempo de ejecución, un trabajo largo debe ir al tiempo cero en la máquina 1 y Se

deben procesar 100 trabajos cortos en la máquina 2 entre el tiempo 0 y el tiempo 100. Según

este cronograma, el tiempo de ejecución es de 301. Bajo el cronograma de LPT, el intervalo de

tiempo es de 400.

En una configuración preventiva, la regla LRPT es óptima para una sola etapa. Cuando hay

múltiples etapas, esto ya no es cierto. El programa LRPT tiene la desventaja de que, en la

primera etapa, todos los trabajos se terminan muy tarde, dejando las máquinas en la segunda

etapa inactivas durante mucho tiempo. Considere ahora el problema de la tienda de flujo

flexible proporcional FFc | pij = p j ∑ . Se sabe que la regla SPT es óptima para una sola etapa y

para cualquier número de etapas con una sola máquina en cada etapa. Considere ahora la

restricción adicional donde cada etapa tiene al menos tantas máquinas como la etapa anterior (se

dice que la tienda de flujo es divergente).

Teorema 6.4.2. La regla SPT es óptima para FFc | pij = pj ∑ Si cada etapa tiene al menos tantas

máquinas como la etapa anterior.


Prueba. El teorema 5.3.1 implica que SPT minimiza el tiempo total de finalización cuando la

tienda de flexible consiste en una sola etapa. Está claro que SPT no solo minimiza el tiempo de

finalización total en este caso, sino también la suma de los tiempos de inicio (la única diferencia

entre la suma de los tiempos de finalización y la suma de los tiempos de inicio es la suma de los

tiempos de procesamiento, que es independiente del horario). En una tienda de flujo flexible

proporcional con c etapas, el tiempo de finalización del trabajo j en la última etapa se produce

en las primeras unidades de tiempo de cpj después de su hora de inicio en la primera etapa.

Considere ahora una tienda de fluido flexible con la misma cantidad de máquinas en cada etapa,

digamos m. Es claro que, en SPT, cada trabajo, cuando se completa en una etapa, no tiene que

esperar para procesarse en la siguiente etapa. Inmediatamente después de completarse en una

etapa, puede comenzar su procesamiento en la siguiente etapa (ya que todas las tareas anteriores

tienen tiempos de procesamiento más pequeños que la tarea actual). Por lo tanto, bajo SPT, la

suma de los tiempos de finalización es igual a la suma de los tiempos de inicio en la primera

etapa más ∑ =1 . Como SPT minimiza la suma de la partida.


Los tiempos en la primera etapa y el trabajo j deben permanecer como mínimo unidades de

tiempo cpj en el sistema, SPT debe ser óptimo.

Es fácil verificar que la regla SPT no siempre conduce a un programa óptimo para las tiendas de

flexibles de forma arbitraria. Un contraejemplo con solo dos etapas se puede encontrar

fácilmente

DISCUSIÓN 6.5

Este capítulo tiene un énfasis en el objetivo de makepan. En la mayoría de los entornos de

máquinas, el makepan suele ser el objetivo más fácil En el entorno de la tienda de flujos,

makepan ya es difícil cuando hay tres o más máquinas en serie. Otros objetivos tienden a ser

aún más difíciles. En cualquier caso, se han realizado algunas investigaciones en tiendas de

flujo con el objetivo de tiempo total de finalización. Minimizar el tiempo total de finalización

en una tienda de flujo de dos máquinas, es decir, F2 || ∑ . Ya está fuertemente NP-duro. Se han

propuesto varias formulaciones de programación de enteros para este problema y se han

desarrollado varios enfoques de enlace y ramificación. Aun así, solo los casos con 50 trabajos se

pueden resolver en un tiempo razonable. Evidentemente, minimizar el tiempo total de

finalización en una tienda de flujo proporcional es muy fácil y puede resolverse a través de la

regla SPT y minimizar el tiempo total de finalización ponderado en una tienda de flujo

proporcional también se puede resolver en tiempo polinomial.


Los talleres de flujo con funciones objetivas relacionadas con la fecha de vencimiento han

recibido muy poca atención en la literatura. Por otro lado, las tiendas de flujos más

complicadas, por ejemplo, las células robóticas, han recibido una considerable atención.

EJERCICIOS (COMPUTACIONAL)

6.1. Considere F4 | prmu | Cmax con los siguientes 5 trabajos bajo la secuencia dada

j1,..., j5.
Encuentre la ruta crítica y calcule el makespan bajo la secuencia dada.

6.2. Escribir la formulación de programación entera de F4 | prmu | Cmax con el conjunto de

trabajos en el ejercicio 6.1.

6.3. Aplique la heurística de pendiente al conjunto de trabajos en el ejercicio 6.1. ¿Son las

secuencias generadas realmente óptimas?


6.4. Considere F4 | bloque |Cmax con 5 trabajos y el mismo conjunto de tiempos de

procesamiento que en el Ejercicio 6.1. Supongamos que no hay ningún intermediario entre dos

máquinas sucesivas. Aplique la heurística de ajuste de perfil para determinar una secuencia para

este problema. Tome el trabajo j1 como el primer trabajo. Si hay vínculos considera todas las

posibilidades. ¿Es (cualquiera de) la secuencia (s) generada óptima?

6.5. Considere F4 | prmu | Cmax con los siguientes trabajos.

¿Se puede reducir este problema a un problema similar con un número menor de máquinas y la

misma secuencia óptima?

Determine si el teorema 6.1.4 se puede aplicar al problema reducido.

Encuentra la secuencia óptima.


6.6. Aplique el algoritmo 3.3.1 para encontrar un programa óptimo para la tienda de flujo

proporcional F3 | pij = pj ∑ con los siguientes trabajos

6.7. Encuentre el programa óptimo para la instancia de la tienda de flujo proporcional F2 | pij =

pj | hmax con los siguientes trabajos.

6.8. Aplique una variante del algoritmo 3.4.4 para encontrar un programa óptimo para la instancia

de la tienda de flujo proporcional F2 | pij = pj |∑ Con los siguientes 5 trabajos.


6.9. Considere F2 | bloque Cmax con cero almacenamiento intermedio y 4 trabajos.

Aplique el algoritmo 4.4.5 para encontrar la secuencia óptima.

Encuentre la secuencia óptima cuando hay un almacenamiento intermedio ilimitado.

6.10. Encuentre el horario óptimo para una tienda de flexible proporcional FF2 | pij = pj |∑ con

tres máquinas en la primera etapa y una máquina en la segunda etapa. Hay 5 puestos de trabajo.

Determine si SPT es óptimo.


EJERCICIOS (TEORÍA)

6.11. Considera el problema Fm || Cmax. Supongamos que la programación permite que un

trabajo pase a otro mientras esperan el procesamiento en una máquina.

Demuestre que siempre existe un programa óptimo que no requiere cambios de secuencia entre

las máquinas 1 y 2 y entre las máquinas m − 1 y m. (Sugerencia: por contradicción. Suponga

que el programa óptimo requiere un cambio de secuencia entre las máquinas 1 y 2. Modifique el

programa de tal manera que no haya cambios en la secuencia y que makepan permanezca igual.)

Encuentra una instancia de F4 || La Cmax donde un cambio de secuencia entre las máquinas 2 y

3 da como resultado un margen de referencia menor que en el caso en el que no se permiten

cambios de secuencia.

6.12. Considerar fm | prmu | Cmax. Dejar

Para i = 2,..., m − 1. Además, vamos


Y

Muestre que la secuencia 1,2,..., n, es decir, SPT (1) -LPT (m), es óptima

6.13. Considerar fm | prmu | Cmax donde pij = ai + bj, es decir, el tiempo de procesamiento del

trabajo j en la máquina i consiste en un componente que depende del trabajo y un componente

que depende de la máquina. Encuentre la secuencia óptima cuando a1 ≤ a2 ≤ ··· ≤am y

demuestre su resultado.

6.14. Considerar fm | prmu | Cmax. Letpij = aj + ibj con bj> −aj / m.

Encuentre la secuencia óptima.

¿La heurística de pendiente conduce a un horario óptimo?

6.15. Considere F2 || Cmax.


Muestre que la heurística de pendiente para dos máquinas se reduce a la secuenciación de los

trabajos en orden decreciente de p2j −p1j.

Muestre que la heurística de pendiente no es necesariamente óptima para dos máquinas.

Mostrar que secuenciar los trabajos en orden decreciente de p2j / p1j tampoco es

necesariamente óptima.

6.16. Considere F3 || Cmax. Asumir

Demuestre que la secuencia óptima es la misma que la secuencia óptima para F2 || Cmax con

tiempos de procesamiento p'ij donde p '1j = p1j + p2j y p'2j = p2j + p3j. 6.17. Demuestre que en

el problema de la tienda de flujo proporcional Fm | pij = pj | Cmax una secuencia de

permutación es óptima en la clase de programaciones que permiten cambios de secuencia en el

medio.
6.18. Demuestre que si está en una secuencia para F2 || Cmax dos trabajos adyacentes j y k

satisfacen la condición

Entonces la secuencia minimiza el makepan. (Tenga en cuenta que esta es una condición de

suficiencia y no una condición necesaria para la optimalidad).

6.19. Mostrar que para Fm | prmu | Cmax el makespan bajo una secuencia de permutación

arbitraria no puede ser más de mil veces el makepan bajo la secuencia óptima. Demuestre cómo

este peor caso puede realmente alcanzarse.

6.20. Considere una tienda de flujo proporcional con dos objetivos, a saber, el tiempo total de

finalización y el retraso máximo, es decir, Fm | pij = pj | ∑ + .Desarrollar un algoritmo de

tiempo polinomial para este problema. (Pista: Parametrizar en la tardanza máxima. Supongamos

que la tardanza máxima es z; Luego considere las nuevas fechas de vencimiento de dj + z, que

básicamente son plazos difíciles. Comience con la regla SPT y modifique cuando sea

necesario.)
6.21. Considere una tienda de flujo proporcional con n trabajos. Supongamos que no hay dos

trabajos con tiempos de procesamiento iguales. Determine la cantidad de horarios SPT-LPT

diferentes.

6.22. Probar lema 6.3.2.

6.23. Proporcionar una prueba rigurosa de la parte (i) del teorema 6.3.5. 6.24. Demuestre que el

algoritmo WSPT-MCI para Fm | prmu, pij = pj | ∑ se reduce a la regla SPT cuando el número de

máquinas m es suficientemente grande.

6.25. Considere el siguiente híbrido entre FM | prmu | Cmax y Fm | bloque | Cmax. Entre

algunas máquinas no hay almacenamiento intermedio y entre otras máquinas hay un

almacenamiento intermedio infinito. Supongamos que se da una secuencia de trabajo. Da una

descripción de la gráfica a través de la cual se puede calcular la longitud de la extensión.


COMENTARIOS Y REFERENCIAS

La solución para el F2 || El problema de Cmax se presenta en el famoso artículo de S.M.

Johnson (1954). La formulación de programación entera de Fm || La Cmax se debe a Wagner

(1959) y la prueba de dureza NP para F3 || Cmax es de Garey, Johnson y Sethi


(1976). La heurística de pendiente para las tiendas de flujo de permutación se debe a Palmer

(1965). Se han desarrollado muchas otras heurísticas para Fm || Cmáx; Véase, por ejemplo,

Campbell, Dudek y Smith (1970), Gupta (1972), Baker (1975), Dannenbring (1977), Nawaz,

Enscore y Ham (1983), Widmer y Hertz (1989) y Taillard (1990). ). Para los resultados de

complejidad con respecto a varios tipos de funciones objetivas, ver González y Sahni (1978b) y

Du y Leung (1993a, b). Para una investigación más centrada sobre la tienda de flujo de dos

máquinas con el objetivo de tiempo de finalización total, consulte Van de Velde (1990), Della

Croce, Narayan y Tadei (1996), Della Croce, Ghirardi y Tadei (2002), Akkan y Karabati (2004),

y Hoogeveen, van Norden y van de Velde

(2006). La tienda de flujos con almacenamiento intermedio limitado Fm | bloque Cmax es

estudiado en detalle por Levner (1969), Reddi y Ramamoorthy (1972) y Pinedo (1982). El

resultado de reversibilidad en Lema 6.2.2 se debe a Muth (1979). La heurística de ajuste de

perfiles es de McCormick, Pinedo, Shenker y Wolf (1989). Wismer (1972) establece el vínculo

entre Fm | nwt Cmax y el problema del vendedor ambulante. Sahni y Cho (1979a),

Papadimitriou y Kannelakis (1980) y R¨ock (1984) obtienen resultados de complejidad para Fm

| nwt Cmax. Goyal y Sriskandarajah (1988) presentan una revisión de los resultados de

complejidad y algoritmos de aproximación para FM | nwt γ. Para una visión general de los

modelos en las clases Fm || γ, Fm | bloque γ y Fm | nwt γ, ver Hall y Sriskandarajah (1996). Para

los resultados con respecto a las tiendas de flujo proporcionadas, ver Ow (1985), Pinedo (1982,

1985) y Shakhlevich, Hoogeveen y Pinedo (1998). Una definición de horarios SPTLPT aparece

en Pinedo (1982). El algoritmo de tiempo polinomial para el objetivo de tiempo de finalización

ponderado total se debe a Shakhlevich, Hoogeveen y Pinedo (1998). El teorema 6.3.6 es de Eck

y Pinedo (1988). Para una visión general de Fm || Modelos de Cmax con estructuras especiales
(incluido el caso proporcional) que pueden resolverse fácilmente, ver Monma y Rinnooy Kan

(1983); su marco incluye también los resultados obtenidos anteriormente por Smith, Panwalkar

y Dudek (1975, 1976) y Szwarc (1971, 1973, 1978). Hou y Hoogeveen (2003) muestran que la

minimización de makepan en una tienda de flujo proporcional con diferentes velocidades, es

decir, F3 | pij = pj / vi | Cmax es NP-Hard en el sentido ordinario. Choi, Leung y Pinedo (2011)

muestran que la minimización de la separación en un taller de flujo proporcional con cada

máquina requiere un tiempo de configuración dependiente de la máquina, es decir, Fm | pij = si

+ pj | Cmax se puede resolver en tiempo polinomial. El teorema 6.4.2 es de Eck y Pinedo

(1988). Para los resultados de makepan respecto a las tiendas de flexible, vea Sriskandarajah y

Sethi (1989). Yang, Kreipl y Pinedo (2000) presentan las heurísticas para la tienda de fluido

flexible con la tardanza total ponderada como objetivo. Para obtener más información sobre

cuestiones relacionadas con las tiendas de flexibles, consulte Hodgson y McDonald (1981a, b,

c). Dawande, Geismar, Sethi y Sriskandarajah (2007) presentan una amplia visión general de

una de las áreas de aplicación más importantes de las tiendas de fl ujo, a saber, las células

robóticas.
TIENDAS DE FLUJO, TIENDAS DE TRABAJO Y ABIERTO TIENDAS

(ESTOCÁSTICAS)

Los resultados para los talleres de flujo estocástico, los talleres y las tiendas abiertas son algo

Menos extensas que las de sus contrapartes deterministas.

Este capítulo se enfoca primero en las políticas de listas estáticas no preventivas, es decir,

permutación Horarios, para talleres de flujo estocástico. Los horarios óptimos de permutación.

a menudo siguen siendo óptimos en la clase de políticas dinámicas no preventivas, así como en

la clase de políticas dinámicas preventivas. Para tiendas abiertas y tiendas de trabajo, Solo las

clases de políticas dinámicas no preventivas y dinámicas preventivas. Se consideran las

políticas.

Los resultados obtenidos para los talleres de flujo estocástico y los talleres son algo Similar a

los obtenidos para talleres de flujo determinista y talleres. Estocástico Las tiendas abiertas son,

sin embargo, muy diferentes de sus contrapartes deterministas. La primera sección trata sobre

los talleres de flujo estocástico con intermedios ilimitados Almacenamiento y trabajos no

sujetos a bloqueo. La segunda sección trata del estocástico. talleres de flujo con cero

almacenamientos intermedios; Los trabajos están sujetos a bloqueo. La tercera sección se centra

en los talleres de trabajo estocástico y la última sección repasa Tiendas abiertas estocásticas.

13.1 Talleres de flujo estocástico con intermedios ilimitados

Almacenamiento
Considere dos máquinas en serie con almacenamiento ilimitado entre las máquinas y sin

bloqueo. Hay n trabajos. El tiempo de procesamiento del trabajo j en la máquina 1 es X1J,

distribuido exponencialmente con tasa λj. El tiempo de procesamiento del trabajo j en la

máquina 2 es X2J, distribuida exponencialmente con una tasa μj. El objetivo es encontrar. la

política de lista estática no preferente o la programación de permutación que minimiza la

esperada makepan E (Cmáx). Tenga en cuenta que este problema es una contrapartida

estocástica del problema determinista F2 || Cmax. El problema determinista de dos máquinas

tiene un muy simple. solución. Resulta que la versión estocástica con procesamiento

exponencial Times también tiene una solución muy elegante.

Teorema 13.1.1.

La secuenciación de los trabajos en orden decreciente de λj - μj minimiza el makepan esperado

en la clase de políticas de listas estáticas no preventivas, en la clase de políticas dinámicas no

preventivas, y en la clase de preventivas Políticas dinámicas.

Prueba. La prueba de optimalidad en la clase de políticas de listas estáticas no preventivas es en

cierto sentido similar a la prueba de optimalidad en el caso determinista. Es por contradicción.

Supongamos que otra secuencia es óptima. Bajo esta secuencia, hay deben ser dos trabajos

adyacentes, digamos trabajo j seguido de trabajo k, de manera que λj - μj < λk − μk. Basta con

demostrar que un intercambio por pares de estos dos trabajos se reduce el madepan esperado.

Supongamos que el trabajo l precede al trabajo j y deja que C1l (C2l) denote el tiempo de

finalización (aleatorio) del trabajo l en la máquina 1 (2). Sea Dl = C2l - C1l.


Realice un intercambio de pares adyacente en los trabajos j y k. Dejemos C1k y C2k denotar los

tiempos de finalización del trabajo k en las dos máquinas debajo del original, Supuestamente

óptimo, secuenciar y dejar que C' 1j y C'2j denota los tiempos de finalización del trabajo j bajo

el horario obtenido después del intercambio por pares.

Dejar m denota el trabajo siguiente al trabajo k. Claramente, el intercambio por pares no afecta

la hora de inicio del trabajo m en la máquina 1 ya que esta hora de inicio es igual a C1k =C'1j =

C1l + X1j + X1k. Considerar las variables aleatorias

Dk = C2k − C1k

D_j = C_2j− C_1j

Claramente, C1k + Dk es el momento en que la máquina 2 está disponible para el trabajo m

bajo el horario original, mientras que C1k + D'j es el tiempo correspondiente después de la

Intercambio por parejas. Primero se muestra que la variable aleatoria D'j es estocásticamente

Más pequeña que la variable aleatoria Dk. Si Dt X1j + X1k, entonces claramente Dk = D'j. El

caso Dt X1j + X1k es un poco más complicado. Ahora

13.1 Talleres de flujo estocástico con almacenamiento intermedio ilimitado

P(Dk > t | Dl ≤ X1j + X1k) =


Esta expresión se puede explicar de la siguiente manera. Si Dl ≤ X1j + X1k, entonces, siempre

que

el trabajo j comienza en la máquina 2, el trabajo k se está iniciando o aún se está procesando en

la máquina 1. El primer término en el R.H.S. corresponde al evento donde el tiempo de

procesamiento del trabajo j en la máquina 2 finaliza antes del tiempo de procesamiento del

trabajo k en la máquina 1, lo que sucede con la probabilidad μj / (μj + λk). El segundo término

corresponde al evento en el que el trabajo j finaliza en la máquina 2 después de que el trabajo k

finaliza la máquina 1; En este caso, la distribución de Dk es una circunvolución de un

exponencial.

con tasa μj y una exponencial con tasa μk.

Una expresión para P (D_ j> t | Dl ≤ X1j + X1k) se puede obtener intercambiando los

subíndices j con los subíndices k. Ahora

P(D' j > t | Dl ≤ X1j + X1k) − P(Dk > t | Dl ≤ X1j + X1k)

Entonces, D'j es estocásticamente más pequeño que Dk. Se puede mostrar fácilmente, a través

de un análisis sencillo de la trayectoria de la muestra (es decir, fijación de los tiempos de

procesamiento del trabajo m y de todos los trabajos que siguen al trabajo m), eso si la

realización de D'j es más pequeño que la realización de Dk, entonces el makepan real después
del intercambio es menor igual o igual a la extensión real bajo la secuencia original antes del

intercambio. Entonces, dado que D' j es estocásticamente más pequeño que Dk, el esperado

makepan se reduce por el intercambio. Esto completa la prueba de optimalidad.

En la clase de políticas de listas estáticas no preventivas (es decir, permutación). Que la regla

también es óptima en la clase de políticas dinámicas no preventivas. Se puede argumentar de la

siguiente manera. Está claro que la secuencia en la máquina 2 no importar. Esto se debe a que la

máquina de tiempo 2 permanece ocupada procesando disponibles trabajos es simplemente la

suma de sus tiempos de procesamiento y el orden en que este Lo que pasa no afecta al makepan.

Considerar las decisiones que tienen que ser Hecho cada vez que la máquina 1 es liberada. La

última decisión a tomar se produce en ese momento en el que solo quedan dos trabajos por

procesar en la máquina 1. A partir del argumento de intercambio de pares descrito

anteriormente, Inmediatamente se deduce que el trabajo con el valor λj - μj más alto tiene que ir

primero. Supongamos que quedan tres trabajos por procesar en la máquina 1. Del argumento

anterior se deduce que los dos últimos de estos tres tienen que ser procesado en orden

decreciente de λj - μj. Si el primero de los tres no es el que tiene el valor más alto de λj −μj, un

intercambio por pares entre el primer y el segundo reduce el makepan esperado. Así que los

últimos tres trabajos tienen que

secuenciar en orden decreciente de λj - μj. Continuando de esta manera es muestra que la

secuenciación de los trabajos en orden decreciente de λj −μj es óptima en el Clase de políticas

dinámicas no preventivas.

13. Tiendas de flujo, tiendas de trabajo y tiendas abiertas (estocástico)


Dinámica Las políticas se pueden mostrar de la siguiente manera. Se muestra arriba que en la

clase de políticas dinámicas no preferentes la regla óptima es ordenar los trabajos en

disminución orden de λj - μj. Supongamos que durante el procesamiento de un trabajo en la

máquina 1 Se considera una preferencia. La situación en este momento es esencialmente nula.

diferente de la situación en el momento en que se inició el trabajo (porque de la propiedad sin

memoria de la distribución exponencial). Entonces, cada vez que un Se contempla la

preferencia, la decisión óptima es mantener el trabajo actual en la máquina. Por lo tanto, la

política de permutación también es óptima en la clase de Políticas dinámicas preventivas.

A partir de la declaración del teorema, parece que el número de óptimos horarios en el caso

exponencial es a menudo más pequeño que el número de óptimos Horarios en el caso

determinista.

Ejemplo 13.1.2 (Comparación entre el procesamiento exponencial y determinista Veces).

Considere n trabajos con tiempos de procesamiento distribuidos exponencialmente. Un trabajo

tiene un tiempo de procesamiento cero en la máquina 1 y un tiempo de procesamiento con una

media muy grande en la máquina 2. Supongamos que esta media es mayor que la suma de los

tiempos de procesamiento esperados de los n - 1 trabajos restantes en la máquina 1. De acuerdo

con el teorema 13.1.1, estos n-1 trabajos restantes aún deben ordenarse en orden decreciente de

λj - μj para que la secuencia tenga un mínimo esperado makepan.

Si todos los tiempos de procesamiento fueran deterministas con los tiempos de procesamiento

que fueron igual a la media de los tiempos de procesamiento exponencial, entonces no tendría

importa en qué orden se secuenciaron los trabajos n - 1 jons fueron secuenciados.


Aunque a primera vista el teorema 13.1.1 no parece ser muy similar Según el teorema 6.1.4, el

programa óptimo con tiempos de procesamiento exponenciales es Algo similar al horario

óptimo con tiempos de procesamiento determinísticos. Si el trabajo k sigue al trabajo j en la

secuencia óptima con tiempos de procesamiento exponenciales, Entonces

λj − μj ≥ λk – μk

λj + μk ≥ λk + μj

el cual, con tiempos de procesamiento exponenciales, es equivalente a

E(min(X1j,X2k)) ≤ E(min(X1k,X2j))

(Ver Ejercicio 9.13). Esta condición de adyacencia es bastante similar a la condición para el

trabajo k seguir el trabajo j en un entorno determinístico, a saber

min(p1j, p2k) ≤ min(p1k, p2j).

13.1 Talleres de flujo estocástico con almacenamiento intermedio ilimitado

Hay otra similitud entre los ajustes exponenciales y deterministas. Considerar el caso donde los

tiempos de procesamiento del trabajo j en ambas máquinas son i.i.d. Distribuido

exponencialmente con la misma velocidad, λj, para cada j. De acuerdo con el teorema todas las

secuencias deben tener el mismo makepan esperado. Este resultado es similar al de la tienda de

flujo proporcional determinista, donde todas Las secuencias también tienen el mismo makespan.

La parte restante de esta sección se centra en m flujo de permutación de la máquina tiendas Para
estas tiendas de flujo solo la clase de políticas de listas estáticas no preventivas es de interés, ya

que el orden de los trabajos, una vez determinado, no está permitido cambio.

Considere una tienda de flujo de permutación de m máquinas donde los tiempos de

procesamiento de trabajo j en las m máquinas son i.i.d. Según la distribución Fj con media 1 /

λj. Para una tienda de este tipo es fácil obtener un límite inferior para E (Cmax).

Lemma 13.1.3. Para cualquier secuencia

E(Cmax) ≥ + (m − 1) max(

Prueba. El tiempo esperado que toma el trabajo con el procesamiento esperado más largo el

tiempo para recorrer la tienda de flujo es, al menos, m — max (1 / λ1, ..., 1 /λ n). Este más largo

el trabajo comienza en la máquina 1 en un momento que es igual a la suma de los tiempos de

procesamiento

En la primera máquina de los trabajos que la preceden. Después de completar el trabajo más

largo su procesamiento en la última máquina, esta máquina permanece ocupada durante un

tiempo que

es al menos tan larga como la suma de los tiempos de procesamiento en la última máquina de la

trabajos que le suceden. El lema sigue así. Una clase de secuencias juega un papel importante en

la permutación estocástica. tiendas de flujo. Una secuencia j1,. . . , jn se llama una secuencia

SEPT-LEPT, si hay un trabajo jk en la secuencia tal que


y

Tanto la secuencia SEPT como la secuencia LEPT son ejemplos de SEPT-LEPT secuencias.

Teorema 13.1.4. Si If F1 ≤a.s. F2 ≤a.s. · · · ≤a.s. Fn, entonces

(i) cualquier secuencia SEPT-LEPT minimiza el intervalo de fabricación esperado en la clase de

políticas de listas estáticas no preferentes y

E(Cmax) ≥ + (m − 1)

13 Tiendas de flujo, tiendas de trabajo y tiendas abiertas (estocástico))

(ii) la secuencia SEPT minimiza el tiempo total de finalización esperado en la clase de políticas

de listas estáticas no preferentes

Prueba. (i) La primera parte del teorema se deduce de la observación de que los trabajos en el

segmento SEPT de la secuencia nunca tienen que esperar por una máquina Mientras pasan por

el sistema. Esto incluye el trabajo más largo, es decir, el último Trabajo del segmento SEPT de

la secuencia. Los puestos de trabajo en el segmento LEPT. de la secuencia (excluyendo el


primero, es decir, el trabajo más largo) tiene que esperar cada máquina; es decir, completan su

procesamiento en una máquina antes de la siguiente uno queda disponible. Las máquinas nunca

tienen que esperar por un trabajo. Los makepan es, por lo tanto, igual al límite inferior

establecido en el Lema 13.1.3.

(ii) La segunda parte se deduce del hecho de que la secuencia SEPT es una De las secuencias

que minimizan el makepan esperado. Para minimizar el tiempo de finalización esperado del

trabajo en la posición k en la secuencia, los k trabajos más pequeños tienen que ir primero y

estos k trabajos deben ser secuenciados De acuerdo con una secuencia que minimiza el tiempo

de finalización esperado de este kth trabajo Entonces, estos k trabajos más pequeños se pueden

secuenciar de acuerdo con cualquier SEPTIEMBRE secuencia que incluye SEPT. Esto es cierto

para cualquier k. Está claro que bajo SEPT el tiempo de finalización esperado del trabajo en

cada una de las n posiciones

En la secuencia se minimiza. SEPT por lo tanto minimiza el total esperado Tiempo de

finalización. El valor real del tiempo total de finalización esperado es fácil computar.

Es fácil encontrar ejemplos con F1 ≤a.s. F2 ≤a.s. · · · ≤a.s. Fn, donde las secuencias que no son

SEPT-LEPT también son óptimos. (En el teorema 6.3.1 era demostrado que cuando F1, F2,. . . ,

Fn son deterministas todas las secuencias son optimas.) Sin embargo, a diferencia de los talleres

de flujo proporcional determinista, al procesar Los tiempos son estocásticos y F1 ≤a.s. F2 ≤a.s. ·

· · ≤a.s. Fn no todas las secuencias son optimo

Ejemplo 13.1.5 (Optimalidad de SEPT-LEPT y otras secuencias). Considerar un

Taller de flujo con 2 máquinas y 3 trabajos. El trabajo 1 tiene un tiempo de procesamiento

determinístico. de 11 unidades de tiempo. El trabajo 2 tiene un tiempo de procesamiento

determinista de 10 unidades de tiempo. El tiempo de procesamiento del trabajo 3 es cero con


probabilidad 0.5 y 10 con probabilidad 0.5. Se puede verificar fácilmente que solo las

secuencias SEPT-LEPT minimizan las esperadas makepan Si el tiempo de procesamiento del

trabajo 1 se cambia de 11 a 20, entonces todas Las secuencias tienen el mismo makepan

esperado.

El modelo en el teorema 13.1.4 asume que los tiempos de procesamiento del trabajo j en Las m

máquinas se obtienen mediante m sorteos independientes de la misma distribución. Fj. Si los m

tiempos de procesamiento del trabajo j son todos iguales al mismo aleatoria variable tomada de

la distribución Fj, entonces el modelo se asemeja al determinista Flujo proporcional tienda aún

más estrechamente. Así que en este caso

X1j = X2j = ・ ・ ・ = Xmj = Xj .

Es fácil ver que, en este caso, al igual que en el caso de un determinista proporcional tienda de

flujo, el makespan es independiente de la secuencia de trabajo (no particular Se debe imponer

una forma de dominación estocástica en las distribuciones n para esto para ser verdad).

Considere el caso donde los tiempos de procesamiento del trabajo j en cada uno de los m las

máquinas son iguales a la misma variable aleatoria Xj de la distribución Fj y asumir

F1 ≤cx F2 ≤cx ・ ・ ・ ≤cx Fn.

Las expectativas de los n tiempos de procesamiento son, por lo tanto, todas iguales, pero las

variaciones pueden ser diferentes. Que el objetivo a minimizar sea el total esperado. tiempo de
finalización . Este problema lleva a la aplicación de la llamada primera regla de

varianza más pequeña (SV), que selecciona, siempre que la máquina Se libera 1, entre los

trabajos restantes el que tiene la varianza más pequeña.

Teorema 13.1.6. La regla de SV minimiza el tiempo total de finalización esperado en la clase de

políticas de listas estáticas no preventivas.

Prueba. La prueba es por contradicción. Supongamos que otra secuencia es óptima. En esta

secuencia supuestamente óptima tiene que haber un trabajo j seguido de un trabajo k tal que Xj

≥cx Xk. Supongamos que el trabajo h precede al trabajo j y el trabajo l sigue al trabajo k. Deje

que Cih indique el tiempo de finalización del trabajo h en la máquina i. Deje que A denote la

suma de los tiempos de procesamiento de todos los trabajos anteriores e incluidos el trabajo h

en La secuencia y deja que B denote el tiempo máximo de procesamiento entre los trabajos.

trabajo anterior e incluido h. Entonces

C1h=A

Cih=a+(i-1)B

Realizar un intercambio entre los trabajos j y k no afecta al perfil Job l encuentra al entrar en el

sistema. Así que un intercambio no afecta los tiempos de finalización del trabajo l o los trabajos

que siguen al trabajo l en la secuencia. El intercambio por pares solo afecta la suma de los

tiempos de finalización esperados de trabajos j y k. El tiempo de finalización del trabajo k antes

del intercambio es igual a El tiempo de finalización del trabajo j después del intercambio. Para
analizar el efecto. del intercambio por pares es suficiente para comparar el tiempo de

finalización del trabajo j antes del intercambio con el tiempo de finalización del trabajo k

después del intercambio.

Deje que Cij denote el tiempo de finalización del trabajo j antes del intercambio y Cik el

Tiempo de finalización del trabajo k después del intercambio. Claramente,

Cmj = A + Xj + (m − 1) max(B,Xj)

C'mk = A + Xk + (m − 1) max(B,Xk).

El tiempo de finalización esperado del trabajo k después del intercambio por pares es menor que

el tiempo de finalización esperado del trabajo j antes del intercambio si

13.2 Talleres de flujo estocástico con bloqueo

Considere la contraparte estocástica de F2 | bloque Cmax con el procesamiento el tiempo del

trabajo j en la máquina 1 (2) es una variable aleatoria X1j (X2j) de Distribución F1j (F2j). Hay
cero almacenamiento intermedio entre los dos maquinas El objetivo es minimizar el

rendimiento esperado en la clase. de las políticas de listas estáticas no preventivas.

Cuando un trabajo comienza su procesamiento en la máquina 1, el trabajo anterior en la

secuencia comienza su procesamiento en la máquina 2. Si el trabajo j sigue al trabajo k en la

secuencia, entonces el tiempo esperado que el trabajo j permanece en la máquina 1, ya sea

procesándose o siendo bloqueado, es E (max (X1j, X2k)). Si el trabajo j es el primer trabajo en

la secuencia, luego el trabajo j solo pasa una cantidad de tiempo E (X1j) en la máquina 1

mientras La máquina 2 permanece inactiva. Si el trabajo j es el último trabajo en la secuencia,

entonces se gasta una cantidad esperada de tiempo E (X2j) en la máquina 2 mientras la máquina

1 permanece inactiva. De la misma manera que el determinista F2 | bloque El problema de

Cmax es equivalente. Para un problema determinista de vendedor ambulante, este modelo

estocástico es equivalente. A un problema determinista vendedor ambulante. Sin embargo, el

eficiente algoritmo descrito en la Sección 4.4, que es aplicable a la determinista F2 | bloque

Problema de Cmax, no es aplicable a la versión estocástica de la modelo. La matriz de distancia

del Problema del Vendedor Viajero está determinada. como sigue:

d0k = E(X1k)

dj0 = E(X2j)

djk = E(max(X2j,X1k))

Está claro que se puede calcular un valor para djk, pero que este valor ahora no es una función

simple de dos parámetros como en las Secciones 4.4 y 6.2. sin embargo, el El problema del
vendedor que viaja descrito anteriormente se puede simplificar un poco. El problema es

equivalente a un problema de vendedor ambulante con una distancia más simple. Matriz en la

que debe maximizarse la distancia total. La matriz de distancia es modificada restando la suma

esperada de los tiempos de procesamiento 2n del Distancias y multiplicando las partes restantes

por −1.

d0k = 0

dj0 = 0

djk = E(min(X2j,X1k))

Ejemplo 13.2.1 (Flow Shop con bloqueo y tiempos de procesamiento exponencial). Considere

el caso donde F1j se distribuye exponencialmente con la tasa λj y F2j Se distribuye

exponencialmente con la tasa μj. La distancia

djk = E(min(X2j,X1k)) =

Aunque este determinista problema del vendedor ambulante (en el que el total la distancia debe

ser maximizada) todavía tiene una estructura bastante agradable, se ha mostrado que no se

puede resolver en tiempo polinomial.


Es de interés estudiar casos especiales del problema, con estructura adicional, con el fin de

obtener más información. Considere el caso donde F1j = F2j = Fj. Las variables aleatorias X1j y

X2j son dibujos independientes de la distribución Fj. Este modelo es algo similar a la tienda de

flujo proporcional determinista. modelo ya que las distribuciones de los tiempos de

procesamiento de cualquier trabajo dado en los dos Las máquinas son idénticas. Sin embargo,

las realizaciones reales de los dos procesos Los tiempos no son necesariamente idénticos.

Teorema 13.2.2. Si F1 ≤st F2 ≤st ・ ・ ・ ≤st Fn entonces las secuencias 1, 3, 5,. . . , n,. . . , 6,

4, 2 y 2, 4, 6,. . . , n,. . . , 5, 3, 1 minimiza la fabricación esperada en la clase de políticas de

listas estáticas no preventivas. Prueba. Considera la secuencia

j1, . . . , jk−1, jk, jk+1, . . . , jl−1, jl, jl+1, . . . , jn.

Divide la secuencia en tres subsecuencias, la primera es j1,. . . , jk − 1, el segundo jk,. . . , jl, y el

tercero jl + 1,. . . jn Construye una nueva secuencia invirtiendo La segunda subsecuencia. La

nueva secuencia es

j1, . . . , jk−1, jl, jl−1, . . . , jk+1, jk, jl+1, . . . , jn.

Si E (Cmax) denota la variación esperada de la secuencia original y E (C'max) la variación

esperada de la nueva secuencia, luego

E(Cmax) − E(C'max) = E(max(X2,jk−1,X1,jk )) + E(max(X2,jl,X1,jl+1))

−E(max(X2,jk−1,X1,jl )) − E(max(X2,jk,X1,jl+1))
= −E(min(X2,jk−1,X1,jk )) − E(min(X2,jl,X1,jl+1))

+E(min(X2,jk−1,X1,jl )) + E(min(X2,jk,X1,jl+1))

Así que el tiempo de espera esperado de la segunda secuencia es menor que el esperado

makespan de la primera secuencia si

Tenga en cuenta que el makespan bajo una secuencia arbitraria no cambia si se agregan dos

trabajos, ambos con cero tiempos de procesamiento en las dos máquinas, uno Primero

programado y el otro último. El tiempo de procesamiento de las distribuciones de estos. dos

trabajos son estocásticamente menores que la distribución de cualquiera de los otros n trabajos.

Así que en la prueba se puede suponer que hay dos adicionales trabajos con cero tiempos de

procesamiento y que uno de estos trabajos va primero y el el otro va al último. A continuación,

estos dos trabajos se denominan trabajos 0 y 0.

Considere cuatro distribuciones de tiempo de procesamiento Fj ≥st Fk ≥st Fp ≥st Fq. Puede

ser fácilmente verificado que

La parte restante de la prueba se basa en un argumento de contradicción. Un arbitrario La

secuencia que no está de acuerdo con el teorema se puede mejorar a través de una serie de
reversiones de subsecuencias sucesivas hasta que una secuencia del teorema es adquirido.

Considera una secuencia

0, j1, . . . , jk, 1, jk+1, . . . , jl, 2, jl+1, . . . , jn−2, 0_,

donde j1,. . . , jn − 2 es una permutación de 3, 4,. . . , n. De las desigualdades anteriores. se

deduce que una reversión de subsecuencia da como resultado la secuencia

0, 1, jk, . . . , j1, jk+1, . . . , jl, 2, jl+1, . . . , jn−2, 0'

con una menor envergadura esperada. El makepan se puede reducir aún más a través de una

segunda inversión de subsecuencia que resulta en

0, 1, jk, . . . , j1, jk+1, . . . , jl, jn−2, . . . , jl+1, 2, 0'.

Procediendo de esta manera, se puede demostrar fácilmente que cualquier secuencia puede ser

mejorado a través de una serie de reversiones de subsecuencias hasta que una de las secuencias

En el teorema se obtiene.

Claramente, 1, 3, 5,. . . , n,. . . , 6, 4, 2 es una secuencia SEPT-LEPT. Que tal La secuencia es

óptima si se hubiera esperado. Los trabajos cortos deben ser programados al comienzo de la

secuencia, solo para asegurarse de que la máquina 2 no permanecer inactivo durante demasiado

tiempo, mientras que los trabajos cortos también deben programarse para el Fin de la secuencia

para evitar que la máquina 2 esté ocupada durante mucho tiempo. después de que la máquina 1
haya completado todo su procesamiento. Tenga en cuenta que las secuencias óptimas son

ligeramente diferentes cuando n es par o impar. Si n es incluso la secuencia óptima es 1, 3, 5,. . .

, n - 1, n, n - 2,. . . , 6, 4, 2, y si n es impar, la secuencia óptima es 1, 3, 5,. . . , n - 2, n, n - 1,. . . ,

6, 4, 2. El teorema 13.2.2 da así una indicación del impacto de los medios de la Procesamiento

de tiempos en la secuencia óptima. Generalizando el resultado del teorema. 13.2.2 a más de dos

máquinas es imposible. Se pueden encontrar contraejemplos. Considere ahora el mismo modelo

con F1j = F2j = Fj, j = 1,. . . , n, pero Con los medios de las distribuciones F1, F2,. . . , Fn

siendo idéntico e igual a 1. Sin embargo, las variaciones de las distribuciones ahora son

diferentes. Asumir que las distribuciones tienen funciones de densidad de probabilidad

simétricas y que F1 ≥sv F2 ≥sv ・ ・ ・ ≥sv Fn. Esto implica que todas las variables aleatorias

se encuentran entre 0 y 2. Para el modelo de dos máquinas sin búferes intermedios, lo siguiente

el teorema sostiene.

Teorema 13.2.3. Si F1 ≥sv F2 ≥sv ・ ・ ・ ≥sv Fn entonces las secuencias 1, 3, 5,. . . , n,. . . , 6,

4, 2 y 2, 4, 6,. . . , n,. . . , 5, 3, 1 minimizan el makepan esperado en la clase de políticas de listas

estáticas no preventivas. Prueba. Primero se muestra que cualquier secuencia puede

transformarse en una mejor secuencia. (con un makepan esperado más pequeño) de la forma 1,

j1,. . . , jn − 2, 2, donde j1,. . . , jn − 2 es una permutación de trabajos 3,. . . , n. Comparar

secuencia

j1, . . . , jk, 1, jk+1, . . . , jl, 2, jl+1, . . . , jn−2

con secuencia

1, jk, . . . , j1, jk+1, . . . , jl, 2, jl+1, . . . , jn−2.


Restando la extensión de la segunda secuencia de la de los primeros rendimientos:

E(max(X1,Xjk+1)) − E(max(Xj1,Xjk+1))

= E(min(Xj1,Xjk+1)) − E(min(X1,Xjk+1))

Por lo tanto, es mejor programar el trabajo 1 primero. Un argumento similar muestra que el

trabajo 2 tiene que ser el último programado.

El siguiente paso es mostrar que cualquier secuencia puede transformarse en un secuencia de la

forma 1, 3, j1,. . . , jn − 3, 2 con una menor envergadura esperada. Comparar secuencia

1, j1, . . . , jk, 3, jk+1, . . . , jn−3, 2

Con secuencia

1, 3, jk, . . . , j1, jk+1, . . . , jn−3, 2.

El tiempo de espera esperado de la primera secuencia menos el tiempo de espera esperado de

la segunda secuencia es

E(max(X1,Xj1 )) + E(max(X3,Xjk+1))
− E(max(X1,X3)) − E(max(Xj1,Xjk+1 ))

= E(min(X1,X3)) + E(min(Xj1,Xjk+1))

− E(min(X1,Xj1 )) − E(min(X3,Xjk+1))

Así que la secuencia óptima tiene que ser de la forma 1, 3, j1, . . ., jn−3, 2. Proceder De esta

manera, la optimalidad de las dos secuencias expuestas en el teorema puede Se verificará

fácilmente. Este resultado básicamente indica que la secuencia óptima pone trabajos con

mayores variaciones más hacia el principio y el final de la secuencia, y trabajos con Varianzas

más pequeñas más hacia la mitad de la secuencia. Tal secuencia podría ser referido como una

secuencia LV-SV.

No está claro si resultados similares se mantienen cuando hay más de dos Máquinas en serie.

Resultados para problemas con más máquinas son extremadamente

Difícil de conseguir, ya que la complejidad del problema aumenta considerablemente. Al pasar

de dos a tres máquinas. Sin embargo, algunas propiedades se pueden mostrar para m máquinas

en serie con bloqueo, es decir, Fm | bloque Cmax. Supongamos que F1j = F2j = · · · = Fmj = Fj

con media 1 / λj y que X1j,. . . , Xmj son independientes.

Teorema 13.2.4. Si F1 ≤a.s. F2 ≤a.s. · · · ≤a.s. Fn, entonces una secuencia minimiza el makepan

esperado si y solo si es una secuencia SEPT-LEPT.


Prueba. Como la prueba de este teorema es sencilla, solo un breve resumen es dado. La prueba

es similar a la prueba del teorema 6.3.7 y consta de dos partes. En la primera parte se muestra

que cada secuencia SEPT-LEPT alcanza el límite inferior del Lema 13.1.3 y en la segunda parte

se muestra que cualquier La secuencia que no es SEPT-LEPT conduce a un makepan que es

estrictamente más grande que el límite inferior.

13.3 Talleres de trabajo estocástico

Considere ahora el taller de dos máquinas con trabajo j que tiene un tiempo de procesamiento

en la máquina 1 que se distribuye exponencialmente con una tasa λj y un procesamiento el

tiempo en la máquina 2 que se distribuye exponencialmente con la tasa μj. Algunos de los

trabajos deben procesarse primero en la máquina 1 y luego en la máquina 2, mientras que Los

trabajos restantes deben procesarse primero en la máquina 2 y luego en la máquina 1. Deje que

J1,2 denote el primer conjunto de trabajos y J2,1 el segundo conjunto de trabajos. Minimizando

El makepan esperado resulta ser una extensión fácil de la máquina doble Modelo de tienda de

flujo con tiempos de procesamiento exponenciales.

Teorema 13.3.1. La siguiente política no preventiva minimiza lo esperado makepan en las clases

de políticas dinámicas no preventivas y preventivas políticas dinámicas: cuando se libera la

máquina 1, el decisor selecciona desde J1,2 el trabajo con la mayor λj − μj; Si todos los trabajos

de J1,2 ya han completado su procesando en la máquina 1, el decisor puede tomar cualquier

trabajo de J2,1 que

ya ha completado su procesamiento en la máquina 2. Cuando se libera la máquina 2 el decisor

selecciona a partir de J2,1 el trabajo con el mayor μj - λj; si todos los trabajos a partir de J2,1 ya
han completado su procesamiento en la máquina 2 el tomador de decisiones puede tomar

cualquier trabajo de J1,2 que ya haya completado su procesamiento en máquina 1.

Prueba. La prueba consta de dos partes. Primero, se muestra que los trabajos de J2,1 tienen una

prioridad más baja en la máquina 1 que los trabajos de J1,2 y los trabajos de J1,2 tienen una

prioridad más baja en la máquina 2 que en los trabajos de J2,1. Después de eso, se muestra que

los trabajos de J1,2 se ordenan en la máquina 1 en orden decreciente de λj −μj y trabajos desde

J2,1 en la máquina 2 en orden decreciente de μj - λj. Para mostrar la primera parte, condición en

una realización de todo el procesamiento 2n veces. El argumento es por contradicción.

Supongamos que un horario óptimo pone en un punto en el tiempo un trabajo desde J2,1 en la

máquina 1 en lugar de un trabajo desde J1,2.

Considere el último trabajo de J2,1 procesado en la máquina 1 antes de un trabajo de J1,2.

Realice el siguiente cambio en el cronograma: retire este trabajo de J2,1 y posponga su

procesamiento hasta el último trabajo de J1,2 ha sido completado. Después de este cambiar

todos los trabajos desde J1,2 se completan anteriormente en la máquina 1 y están disponibles

anteriormente en la máquina 2. Esto implica que la máquina 1 terminará con todo su

procesamiento Al mismo tiempo que lo hizo antes del intercambio. Sin embargo, la máquina 2

Puede terminar con todo su procesamiento antes que antes del intercambio porque ahora los

trabajos de J1,2 están disponibles anteriormente en la máquina 2. Esto completa el Primera

parte de la prueba del teorema. Para probar la segunda parte proceda de la siguiente manera.

Primero, considere J1,2. En para mostrar que los trabajos de J1,2 deben programarse en orden

decreciente de λj - μj, condicione primero los tiempos de procesamiento de todos los trabajos en

J2,1 en Ambas máquinas. Los trabajos de J2,1 tienen una prioridad más alta en la máquina 2 y

una prioridad más baja en la máquina 1. Suponga que dos trabajos adyacentes de J1,2 no son
programado en orden decreciente de λj - μj. Realizando un intercambio por pares en De la

misma manera que en el teorema 13.1.1, se obtiene una menor envergadura esperada. Esta

muestra que los trabajos de J1,2 deben programarse en la máquina 1 en disminución orden de λj

- μj. Un argumento similar muestra que los trabajos de J2,1 tienen que ser programado en la

máquina 2 en orden decreciente de μj - λj.

El resultado descrito en el teorema 13.3.1 es similar al resultado descrito en Sección 7.1 con

respecto a J2 || Cmax. En la programación determinista de la investigación. en el más general

Jm || El problema de Cmax se ha centrado en heurísticas y enumerativas. procedimientos Los

talleres de trabajo estocásticos con más de dos máquinas no han ecibió tanta atención en la

literatura.

13.4 Tiendas abiertas estocásticas

Considere una tienda abierta de dos máquinas donde el tiempo de procesamiento del trabajo j en

la máquina 1 es la variable aleatoria X1j, distribuida según F1j, y en la máquina 2 la variable

aleatoria X2j, distribuida según F2j. El objetivo es para minimizar el makepan esperado. Como

antes, la distribución exponencial es considerado primero En este caso, sin embargo, no se sabe

cuál es la política óptima es cuando F1j es exponencial con tasa λj y F2j exponencial con tasa

μj. Eso Parece que la política óptima puede no tener una estructura simple e incluso puede

Depende de los valores de los λ's y μ's. Sin embargo, el caso especial con λj = μj puede ser

analizado En contraste con los resultados obtenidos para el flujo estocástico. tiendas la política

óptima ahora no puede considerarse como una secuencia de permutación, sino más bien como

una política que prescribe una acción determinada que depende del estado del sistema.
Teorema 13.4.1. La siguiente política minimiza la fabricación esperada en la clase de políticas

dinámicas preferentes, así como en la clase de no preventivo políticas dinámicas: cada vez que

se libera una máquina, el programador selecciona de los trabajos que aún no se han procesado

en ninguna de las dos máquinas, El trabajo con el mayor tiempo de procesamiento esperado. Si

no hay tales trabajos restantes el decisor puede tomar cualquier trabajo que solo necesite ser

procesado en la máquina recién liberada. Las preferencias no se producen.

Prueba. Al igual que en el caso determinista, las dos máquinas están continuamente ocupadas.

con la posible excepción de a lo sumo un solo período de inactividad en a lo sumo uno máquina.

El período de inactividad puede ser un período de inactividad de Tipo I o inactivo período de

Tipo II (ver Figura 8.1). En el caso de que no haya período de inactividad en absoluto o un

período de inactividad del Tipo II, makespan es igual al máximo de las cargas de trabajo en las

dos máquinas, es decir,

En el caso de un período de inactividad de Tipo I, el makespan es estrictamente mayor que el

R.H.S. de la expresión anterior. De hecho, en este caso el makepan es


Donde I1 es la duración del período de inactividad e I2 es el makespan menos el Carga de

trabajo en la máquina que no experimentó un período de inactividad. Está claro que El primer

término de la R.H.S. de la expresión anterior no depende de la política utilizada. Para probar el

teorema es suficiente demostrar que lo descrito La política minimiza el valor esperado del

segundo término en el R.H.S., es decir, E (min (I1, I2)). Este término depende claramente de la

política utilizada.

Para obtener más información sobre este segundo término, considere lo siguiente: Supongamos

que el trabajo j es el trabajo que causa el período de inactividad, es decir, el trabajo j es el

Último trabajo para ser completado. Dado que el trabajo j causa un período de inactividad de

Tipo I

se deduce del ejercicio 9.13 que

E(min(I1, I2)) =

Si q'j denota la probabilidad de que el trabajo j cause un período de inactividad de Tipo II bajo

política π', entonces

E(Cmax(π')) = E(max(

donde

E(H') =
De la teoría de la programación dinámica (ver Apéndice B), se deduce que en Para probar la

optimalidad de la política establecida en el teorema, diga la política , es suficiente para

demostrar que el uso de π* desde cualquier momento t hacia adelante da como resultado un

menor improvisación esperada que actuando de manera diferente en el momento t y usando π ∗

de la siguiente momento de decisión en adelante. Dos tipos de acciones en el tiempo t violarían

π ∗. Primero, es posible comenzar un trabajo que no es el más largo entre los trabajos aún no

procesado en ninguna de las máquinas; segundo, es posible comenzar un trabajo que Ya se ha

procesado en la otra máquina mientras todavía hay trabajos en El sistema que aún no ha

recibido procesamiento en ninguna de las máquinas. En la parte restante de la prueba, se utiliza

la siguiente notación: set J1

representa el conjunto de trabajos que, en el momento t, aún no han completado su primer

procesamiento, mientras que el conjunto J2 representa el conjunto de trabajos que en el

momento t aún no se han Comenzó con su segundo procesamiento. Claramente, el conjunto J2

incluye el conjunto J1, J1 ⊂ J2. Caso 1. Dejar π' denota la política que, en el momento t, pone el

trabajo k en la máquina liberado, con k ∈ J1 y k no es el trabajo más grande en J1, y eso se

revierte a π ∗ desde el siguiente momento de decisión. Deja que el trabajo 0 sea el trabajo que

está siendo Procesado, en el momento t, en la máquina ocupada. Vamos a j (r ∗j) denota la

probabilidad ese trabajo j es el último trabajo en completar su primer procesamiento según la

política π' (π ∗) y por lo tanto, ser un candidato para causar un período de inactividad.

Supongamos que se procesa este trabajo j en la máquina 1. Para que el trabajo j cause un

período de inactividad de Tipo I, debe durar más que todos


aquellos trabajos que todavía tienen que recibir su segundo procesamiento en la máquina 2, y

luego, después de que el trabajo j completa su procesamiento en la máquina 1 y comienza su

procesamiento en la máquina 2, tiene que superar todos los trabajos que aún tienen que recibir

su

segundo procesamiento en la máquina 1. Así que

donde

Tenga en cuenta que las expresiones para j indica que j no dependas en la máquina

en la que el trabajo l, l ∈ {J2 ∠’j}, recibe su segundo procesamiento: trabajo de procesamiento

l la segunda vez en la misma máquina donde se procesó la primera vez, resulta en valores para

j que son los mismos que cuando el trabajo l es procesado la segunda vez en la máquina

no fue procesado la primera vez. Para mostrar que E (H*) E (H') es suficiente para demostrar
que Supongamos que la secuencia en la que los trabajos en J1 comienzan con su primer

procesamiento bajo € es 0, k, 1, 2,. . . , k â'’ 1, k + 1,. . . dónde

Tenga en cuenta que si λa ≤ λb, entonces

La realización de un intercambio por pares en esta secuencia da como resultado 0, 1, k, 2,. . . , k

- 1, k + 1,. . . . Deje que esta nueva secuencia corresponda a la política π “. Ahora Lemma

12.1.1 se puede utilizar donde π' (π “) corresponde a la secuencia X0, X2, X1,. . . , Xn (X0, X1,

X2, ..., Xn) y ( ) corresponde al rj (qj) en el Lema 12.1.1. Usando el Lema 12.1.1 y las

desigualdades anteriores, se establece que E (H “) ≤ E (H'). Procediendo de esta manera, en

cada paso se realiza un intercambio por pares. se realiza entre el trabajo k y el trabajo que le

sigue inmediatamente, la secuencia 1, 2,. . . , k − 1, k, k + 1,. . . es obtenido. En cada paso se

muestra que el esperado makepan disminuye. Caso 2. Dejar π' En este caso, denote la política

que instruye al programador. en el momento t para iniciar el trabajo l con tasa λl, l ∈ {J2 - J1} y

adoptar la política π ∗ A partir del próximo momento de decisión. Es decir, el trabajo l comienza

en el momento t con su segundo procesamiento mientras todavía hay trabajos en J1 que no se


han completado su primer procesamiento todavía. Vamos j, j ∈ J1, en este caso denota la

probabilidad de que

trabajo j bajo π' completa su primer procesamiento después de que todos los trabajos en J1

hayan finalizado su primer procesamiento y después del trabajo l ha completado su segundo

procesamiento. Dejar r' l denota la probabilidad de que el trabajo l bajo π' completa su segundo

tratamiento Después de que todos los trabajos en J1 han completado su primer procesamiento.

Asume que cuando utilizando π ∗ desde t hacia adelante, el programador puede, después de

haber iniciado todos los trabajos en J1, Elija el trabajo l como el primer trabajo en someterse a

su segundo procesamiento y puede hacer esto en la máquina que está disponible primero (en el

caso 1 quedó claro que La probabilidad de que el trabajo j, j' = l, causando un período de

inactividad de Tipo I no depende de la máquina en la que se procesa el trabajo la segunda vez).

Sea r ∗ ahora denota la probabilidad de que la tarea j complete su primer procesamiento después

de las tareas J1 - j completa su primer procesamiento y después del trabajo l completa su

segundo procesamiento. Sea r ∗ l denota la probabilidad de que el trabajo l complete su segundo

procesamiento después de todos los trabajos En J1 hemos completado su primer tratamiento.

Así que

para todos j en J1 y
para todos j en J1. Otra vez

Para mostrar que E (H*) E (H') es suficiente para demostrar que

De Lemma 12.1.1 se deduce que y . Entonces sigue que E (H*) ≤ E (H').

Esto completa la demostración del teorema. Parece ser muy difícil generalizar este resultado

para incluir una clase más grande de distribuciones. Ejemplo 13.4.2 (Tienda abierta con tiempos

de procesamiento que son mezclas de Exponenciales). Deje que el tiempo de procesamiento del

trabajo j en la máquina i, i = 1, 2, sea una mezcla de una exponencial con tasa λj y cero con

probabilidades de mezcla arbitrarias. La política óptima es procesar en el momento 0 todos los

trabajos por un período muy corto Período de tiempo en ambas máquinas solo para verificar si

sus tiempos de procesamiento En las dos máquinas son cero o positivo. Después de la

naturaleza de todo el procesamiento. Se han determinado los tiempos, el problema se reduce al

escenario cubierto por Teorema 13.4.1.


El teorema 13.4.1 establece que los trabajos que aún deben ser procesados en ambos Las

máquinas tienen prioridad sobre los trabajos que solo necesitan procesamiento en una máquina.

En En cierto sentido, la política descrita en el teorema 13.4.1 es similar a la regla del LAPT

introducido en la Sección 8.1 para el O2 determinista || Problema de la Cmax. Del Teorema

13.4.1 se deduce que el problema es manejable también si el procesamiento El tiempo de

trabajo j en la máquina 1, así como en la máquina 2, se distribuye exponencialmente con tasa 1.

La política que minimiza la expectativa de fabricación siempre. da prioridad a los trabajos que

aún no se han procesado en ninguna de las máquinas. Esta regla particular no requiere ninguna

preferencia. En la literatura, este La regla se ha referido en este escenario como el más largo

esperado esperado. Primera regla de tiempo de procesamiento (LERPT). En realidad, si en el

caso de dos máquinas todos los tiempos de procesamiento son exponenciales con significa 1 y si

se permiten las preferencias, entonces el tiempo total de finalización esperado También se puede

analizar. Este modelo es una contrapartida exponencial del O2 | pij = 1, prmp Cj. El tiempo total

de finalización esperado claramente requiere una diferente política. Una política particular en la

clase de políticas dinámicas preventivas es atractiva: considere la política que prescribe el

programador para procesar, siempre que posible, en cada una de las máquinas un trabajo que ya

ha sido procesado en la otra máquina Esta política puede requerir que el programador a veces

interrumpa el procesamiento de un trabajo y comenzar con el procesamiento de un trabajo que

solo tiene Completó su operación en la otra máquina. En lo que sigue esta política es referido

como el Tiempo de procesamiento restante más corto esperado primero (SERPT) política.
Teorema 13.4.3. La política preventiva de SERPT minimiza el total esperado tiempo de

finalización en una tienda abierta de dos máquinas en la clase de dinámica preventiva las

políticas.

Prueba. Sea Aij, i = 1, 2, j = 1,. . . , n, denota el tiempo que j trabajos han completado sus

requisitos de procesamiento en la máquina i. Se produce un período de inactividad en la

máquina 2 si y solo si

A1,n−1 ≤ A2,n−1 ≤ A1,n

y un período de inactividad en la máquina 1 ocurre si y solo si

A2,n−1 ≤ A1,n−1 ≤ A2,n.

Dejemos j1, j2,. . . , jn denota la secuencia en la que los trabajos abandonan el sistema, es decir,

el trabajo j1 es el primero en completar ambas operaciones, el trabajo j2 el segundo, y así en.

Bajo la política SERPT

Cjk = max(A1,k,A2,k) = max k= 1, . . . , n − 1

Esto implica que la época del tiempo de finalización del trabajo kth, k = 1,. . . , n − 1, es una

variable aleatoria que es el máximo de dos variables aleatorias independientes, ambas con

distribuciones de Erlang (k, λ). La distribución de la última finalización del trabajo, El


makespan, es diferente. Está claro que bajo la política preventiva SERPT la suma de los tiempos

de finalización esperados de los primeros n - 1 trabajos que dejan el El sistema está minimizado.

No es inmediatamente obvio que el SERPT minimiza la suma de todos los n tiempos de

finalización. Dejar

B = max(A1,n−1,A2,n−1).

La variable aleatoria B es independiente de la política. En el momento B, cada máquina tiene a

lo más un trabajo más para completar. Ahora se puede hacer una distinción entre Dos casos.

Primero, considere el caso en el que, en B, un trabajo debe completarse solo en Una de las dos

máquinas. En este caso, ni la probabilidad de este evento. ocurriendo ni el costo de espera

incurrido por el último trabajo que deja el sistema (en max (A1, n, A2, n)) depende de la

política. Desde SERPT minimiza lo esperado suma de los tiempos de finalización de los

primeros n - 1 trabajos para abandonar el sistema, como sigue ese SERPT minimiza la suma

esperada de los tiempos de finalización de todos los n trabajos.

En segundo lugar, considere el caso en el que, en el momento B, aún queda un trabajo por

procesar

En ambas máquinas. O bien (i) queda un trabajo que necesita ser procesado en ambas máquinas

o (ii) quedan dos trabajos, cada uno de los cuales requiere procesamiento en una máquina (Una

máquina diferente para cada uno). Bajo (i) la suma esperada de la terminación El tiempo de los

últimos dos trabajos que dejan el sistema es E (B) + E (B + 2), mientras que bajo (ii) es E (B) +
1 + E (B) + 1. En ambos subcasos, la suma esperada de Los tiempos de finalización de los dos

últimos trabajos son los mismos. Como SERPT minimiza

la suma esperada de los tiempos de finalización de los primeros n - 2 trabajos que dejan el

sistema, se deduce que SERPT minimiza la suma esperada de la finalización tiempos de todos

los n trabajos.

Desafortunadamente, no se han publicado resultados en la literatura sobre estocásticos. Tiendas

abiertas con más de 2 máquinas

13.5 Discusion

Entre los modelos discutidos en este capítulo, los talleres de flujo estocástico tienden a ser lo

más fácil Los talleres estocásticos y las tiendas abiertas estocásticas tienden a ser

considerablemente más duro Las tiendas de flujo estocástico que son las más manejables suelen

ser las contrapartes.

de flujo de permutación determinista tiendas y proporcional determinista tiendas de flujo. La

relación natural entre las tiendas de flujo estocástico y el tándem. las colas también pueden

proporcionar información estructural adicional en los talleres de flujo estocástico (basado en

resultados conocidos en la teoría de colas). Una dirección que también puede conducir Para

nuevos resultados en el futuro se encuentra en el ámbito de los análisis asintóticos. Por ejemplo,

lo que sucede con una función objetiva, por ejemplo, , cuando el

¿El número de trabajos (o el número de máquinas) va a ?


Ejercicios (computacional)

13.1. Considere una tienda de flujo de dos máquinas con almacenamiento intermedio ilimitado

y tres trabajos. Cada trabajo tiene un tiempo de procesamiento distribuido exponencialmente

con media 1 en ambas máquinas (la secuencia de trabajo es, por lo tanto, irrelevante). Los Seis

tiempos de procesamiento son i.i.d. Calcule el tiempo de espera esperado y el total. tiempo de

finalización esperado.

13.2. Considere la posibilidad de una tienda de flujo de permutación de máquina sin bloqueo.

Los tiempos de procesamiento del trabajo j en las máquinas m son idénticos e iguales a la

variable aleatoria Xj de una distribución exponencial con media 1. La aleatoria variables X1,. . .

, Xn son i.i.d. Determine la expectativa de fabricación y el total Tiempo de finalización

esperado en función de m y n.

13.3. Compara la tolerancia esperada obtenida en el ejercicio 13.1 con la esperada makespan

obtenido en el ejercicio 13.2 para m = 2 y n = 3. Determine cuáles Uno es más grande y da una

explicación.

13.4. Considere un taller de flujo de dos máquinas con cero almacenamiento intermedio y

Bloqueo y n puestos de trabajo. El tiempo de procesamiento del trabajo j en la máquina i es Xij,

exponencialmente distribuido con media 1. Los tiempos de procesamiento 2n son i.i.d. Calcular

El tiempo de espera esperado y el tiempo total de finalización esperado como una función de n.
Ejercicios

13.5. Considere un taller de flujo de dos máquinas con cero almacenamientos intermedios y

Bloqueo y n puestos de trabajo. El tiempo de procesamiento del trabajo j en cada uno de los

dos. máquinas es igual a la variable aleatoria Xj de una distribución exponencial con media 1.

Las variables X1,. . . , Xn son i.i.d. Volver a calcular lo esperado makepan y el tiempo total de

finalización esperado. Compara los resultados con Los resultados obtenidos en el ejercicio 13.4.

13.6. Considere la tienda abierta de dos máquinas y n trabajos. Los tiempos de procesamiento

Xij son todos i.i.d. exponencial con media 1. Supongamos que la política en Teorema Se sigue

13.3.1, es decir, trabajos que aún necesitan procesamiento en ambas máquinas Tiene prioridad

sobre los trabajos que solo necesitan procesamiento en una de las máquinas.

Demuestre que

(b) Demuestre que la probabilidad del trabajo jth que comienza su primer procesamiento

causando un período de inactividad de tipo I es


(c) Demuestre que el makepan esperado es igual a

13.7. Considere el mismo escenario que en el ejercicio 13.1 con dos máquinas y tres trabajos,

Sin embargo, ahora todos los tiempos de procesamiento son i.i.d. Según la distribución EME.

con media 1. Calcule el tiempo de espera esperado y el total esperado completar el tiempo y

comparar el resultado con los resultados del ejercicio 13.1.

13.8. Considere el mismo escenario que en el ejercicio 13.2 con m máquinas y n trabajos. Sin

embargo, ahora X1,. . . , Xn son i.i.d. Según la distribución EME con media 1. Calcule el

tiempo de espera esperado y la terminación total esperada El tiempo en función de m y n.

Compara los resultados obtenidos con los resultados. de los ejercicios 13.2 y 13.7.

13.9. Considere un taller de dos máquinas y tres trabajos. Los trabajos 1 y 2 tienen que ser

procesado primero en la máquina 1 y luego en la máquina 2. El trabajo 3 debe procesarse

primero en la máquina 2 y luego en la máquina 1. Calcule el makepan esperado bajo el supuesto

de que se está siguiendo la política óptima.

13.10. Considere la siguiente tienda abierta proporcional de dos máquinas. El procesamiento El

tiempo de trabajo j en las dos máquinas es igual al mismo azar. variable Xj que se distribuye
exponencialmente con la media 1. Supongamos que la tienda abierta de dos máquinas está

siendo operada bajo la dinámica no preventiva Política que siempre da prioridad a un trabajo

que aún no ha recibido procesamiento. en la otra máquina. Calcule la fabricación esperada con

dos trabajos y con tres trabajos

Ejercicios (Teoría)

13.11. Considere la contraparte estocástica de F2 | bloque Cmax que es equivalente a un TSP

determinista con una matriz de distancia que debe minimizarse. Verifique si esta matriz de

distancia satisface la desigualdad del triángulo (es decir, djk + dkl ≥ djl para todos los j, k y l).

13.12. Considere un taller de flujo de maquina con cero almacenamientos intermedios Entre

máquinas y n trabajos. Los tiempos de procesamiento de n - 1 trabajos en cada uno. una de las

máquinas M son 1. Job n tiene tiempo de procesamiento Xin en la máquina i y las variables

aleatorias X1n, X2n,. . . , Xmn son i.i.d. de distribución Fn con significa 1

Demostrar que la secuencia que minimice los pone makespan esperados El trabajo estocástico

ya sea primero o último.

Demostrar que la secuencia que pone el trabajo estocástico minimiza el último tiempo total de

finalización esperado.

13.13. Considere el taller de flujo de dos máquinas con cero almacenamientos intermedio Entre

las dos máquinas. De n − 2 trabajos los tiempos de procesamiento son deterministas 1 en cada

una de las 2 máquinas. De los dos trabajos restantes, los cuatro procesadores. los tiempos son
i.i.d. de una distribución arbitraria F con media 1. Demuestre que en Para minimizar el

rendimiento esperado, uno de los trabajos estocásticos debe irse. Primero y el otro último.

13.14. Considere una contraparte estocástica de FM | pij = pj | Cmax. El procesamiento El

tiempo de trabajo j en cada una de las máquinas m es Xj de la distribución F con media 1.

Encuentre un límite superior e inferior para el makepan esperado cuando F es ICR.

Encuentre un límite superior e inferior para el makepan esperado cuando F es DCR.

13.15. Considere una contraparte estocástica de F2 | bloque Cmax. El procesamiento tiempo de

trabajo j en la máquina i es Xij de distribución F con media 1. La 2n Los tiempos de

procesamiento son independientes.

Encuentre un límite superior e inferior para el makepan esperado cuando F es ICR.

Encuentre un límite superior e inferior para el makepan esperado cuando F es DCR.

13.16. Considere una tienda abierta de dos máquinas con n trabajos. Los tiempos de

procesamiento

del trabajo j en las máquinas 1 y 2 son iguales a Xj de la distribución F. El azar variables X1,. . .

, Xn son i.i.d. Demuestre que para minimizar el esperado. makepan el programador, cada vez

que se libera una máquina, tiene que seleccionar un trabajo que Aún no se ha procesado en la

otra máquina.
13.17. Considere la posibilidad de un taller de flujo de permutación de máquina con intermedio

finito Almacenaje y bloqueo. Los tiempos de procesamiento del trabajo j en las m máquinas son

X1j, X2j,. . . , Xmj que son i.i.d. De la distribución FJ. Asumir que

F1 ≤a.s. F2 ≤a.s. ・ ・ ・ ≤a.s. Fn.

Demuestre que SEPT minimiza el tiempo total de finalización esperado.

13.18. Considerar contrapartes estocásticas de los siguientes cinco deterministas problemas:

(i) F2 | block | Cmax,

(ii) F2 || Cmax,

(iii) O2 || Cmax,

(iv) J2 || Cmax,

(v) P2 | chains | Cmax

Los problemas (i), (ii), (iii) y (iv) tienen n trabajos. El problema (iv) tiene k trabajos que Debe

procesarse primero en la máquina 1 y luego en la máquina 2 y n - k trabajos que deben

procesarse primero en la máquina 2 y luego en la máquina 1. Problema (v) Tiene 2n puestos de

trabajo en n cadenas de 2 puestos de trabajo cada uno. Todos los tiempos de procesamiento son

i.i.d. exponencial con media 1. Compara los cinco problemas con respecto a la fabricación

esperada y el tiempo total de finalización previsto en la política óptima.


13.19. Considere una tienda de flujo proporcional de dos máquinas con n trabajos. Si X1j = X2j

= Dj (determinista) el makespan es independiente de la secuencia. Si X1j y X2j son i.i.d.

exponencial con tasa λj, entonces el makepan esperado es una secuencia Independiente también.

Considere ahora una tienda de flujo proporcional con X1j y X2j i.i.d. Erlang (2, λj) con cada

una de las dos fases distribuidas según un exponencial con tasa λj, j = 1,. . . , n. Mostrar a través

de un ejemplo que lo esperado makepan depende de la secuencia.

13.20. Considere dos máquinas en serie con un almacenamiento intermedio de tamaño b en

Entre las dos máquinas. Los tiempos de procesamiento son proporcionales. Muestra esa El

makespan está disminuyendo convexo en el tamaño del búfer b. 13.21. Considere una

contraparte estocástica de FM || Cmax con máquinas que tienen diferentes velocidades, digamos

v1,. . . vm Estas velocidades son fijas (deterministas).

El trabajo j requiere una cantidad de trabajo Yj, distribuida de acuerdo con Fj, en cada Una de

las máquinas m. La cantidad de tiempo que tarda la máquina en procesarse. el trabajo j es igual

a Xij = Yj / vi. Demuestre que si v1 ≥ v2 ≥ ・ ・ ・ ≥ vn (v1 ≤ v2 ≤ ・ ・ ・ ≤ vn) y F1 ≤lr F2

≤lr ・ ・ ・ ≤lr Fn, el SEPT (LEPT) La secuencia minimiza el makepan esperado. En otras

palabras, muestra que si la tienda de flujo está desacelerando (acelerando) la secuencia SEPT

(LEPT) es optimo

Comentarios y referencias
El resultado declarado en el teorema 13.1.1 tiene una historia muy larga. Las primeras

publicaciones

con respecto a este resultado son de Talwar (1967), Bagga (1970), y Cunningham y Dutta

(1973). Un excelente artículo sobre este problema es de Ku. y Niu (1986). La prueba del

Teorema 13.1.1, como se presenta aquí, se debe a Weiss (1982). Se introdujeron las secuencias

SEPT-LEPT para talleres de flujo y analizadas por Pinedo (1982) y las secuencias SV fueron

estudiadas por Pinedo y Wie (1986). Para tiendas de flujo estocástico con fechas de

vencimiento, vea Lee y Lin (1991). Para modelos donde los tiempos de procesamiento de

cualquier trabajo dado en las máquinas m son igual a la misma variable aleatoria, ver Pinedo

(1985). Un análisis del impacto. de aleatoriedad de los tiempos de procesamiento en el makepan

esperado y en el total El tiempo de finalización esperado se presenta en Pinedo y Weber (1984).

Escarcha y Adiri (1985) obtienen resultados para talleres de flujo con tres máquinas. Boxma y

Forst (1986) obtiene resultados con respecto al número ponderado esperado de trabajos tardíos.

Se basa el material en la sección de talleres de flujo estocástico con bloqueo. Sobre todo en el

papel de Pinedo (1982). Para más resultados sobre el flujo estocástico. tiendas con bloqueo, ver

Pinedo y Weber (1984), Foley y Suresh (1984a, b, 1986), Suresh, Foley y Dickey (1985), y

Kijima, Makimoto y Shirakawa. (1990). Kalczynski y Kamburowski (2005) muestran que la

contraparte estocástica de F2 | bloque Cmax con tiempos de procesamiento distribuidos

exponencialmente (que es equivalente a un problema de vendedor ambulante determinista) no

se puede resolver En tiempo polinomial. El análisis del taller de trabajo de dos máquinas es del

papel. por Pinedo (1981b). La política óptima para minimizar el makepan esperado en dos

máquinas Las tiendas abiertas se deben a Pinedo y Ross (1982). El resultado con respecto a la

minimización del tiempo total de finalización esperado en tiendas abiertas de dos máquinas Es

del papel de Pinedo (1984).

Вам также может понравиться