Академический Документы
Профессиональный Документы
Культура Документы
Docente :
Lic Vargas antezana Ademar Marcelo
Estudiante :
Maraza Ignacio Nora
Materia:
Investigacion Operativa 1
Semestre:
II/2019
SOLUCIONES ESPECIALES O ANORMALES
Los problemas no lineales se caracterizan por tener relaciones no lineales; es decir, no existe una
relación directa y proporcional entre las variables que intervienen. Los problemas de programación no
lineal, también son llamados curvilíneos, ya que el área que delimita las soluciones factibles en un
gráfico se presenta en forma de curva.
La función objetivo en la programación no lineal, puede ser cóncavo o convexo. Es cóncavo cuando se
trata de maximizar utilidades, contribuciones. Es convexo cuando trata de minimizar recursos, costos,
entre otros. Los problemas que contienen restricciones lineales, se resuelven de una forma más sencilla
que los problemas con restricciones no lineales.
Optimizaciòn no Restringida
Los problemas de optimización no restringida no tienen restricciones, por lo que la función objetivo es
sencillamente
Maximizar f(x)
sobre todos los valores x= (x1, x2,…,xn). Según el repaso del apéndice 3, la condición necesaria para que
una solución específica x = x* sea óptima cuando f(x) es una función diferenciable es
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de x* se reduce a
resolver el sistema de las necuaciones obtenidas al establecer las n derivadas parciales iguales a cero.
Por desgracia, cuando se trata de funciones no lineales f (x), estas ecuaciones suelen ser no
lineales también, en cuyo caso es poco probable que se pueda obtener una solución analítica
simultánea. ¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen procedimientos
algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos
procedimientos también tienen un papel importante en la solución de varios tipos de problemas con
restricciones, que se describirán en seguida. La razón es que muchos algoritmos para
problemas restringidos están construidos de forma que se adaptan a versiones no restringidas del
problema en una parte de cada iteración.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición necesaria (y tal vez)
suficiente anterior cambia ligeramente a
para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución óptima de un
problema con una sola variable es x = 0 aun cuando la derivada ahí es negativa y no cero. Como este
ejemplo tiene una función cóncava para maximizar sujeta a una restricción de no negatividad, el que su
derivada sea menor o igual a 0 en # = 0, es una condición necesaria y suficiente para que x= 0 sea
óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene restricciones funcionales
es un caso especial (m = 0) de la siguiente clase de problemas.
De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero ahora la
función objetivo /(x) debe ser cuadrática.Entonces, la única diferencia entre éstos y un problema de
programación lineal es que algunos términos de la función objetivo incluyen el cuadrado de una
variable o el producto de dos variables.
Programación Convexa
La programación convexa abarca una amplia clase de problemas, entre ellos como casos especiales,
están todos los tipos anteriores cuando /(x) es cóncava. Las suposiciones son
1. f(x) es cóncava.
2. Cada una de las g(x) es convexa.
Programaciòn Separable
La programación separable es un caso especial de programación convexa, en donde la suposición
adicional es
Todas las funciones f(x) y g(x) son funciones separables.
Una función separable es una función en la que cada término incluye una sola variable, por lo que la
función se puede separar en una suma de funciones de variables individuales. Por ejemplo, si f(x) es
una función separable, se puede expresar como
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento,
se puede verificar que la función considerada en la figura 13.7 también es una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema
de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y,
entonces, se puede aplicar el eficiente método símplex.
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo razonamiento,
se puede verificar que la función considerada en la figura 13.7 también es una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cualquier problema
de programación separable se puede aproximar muy de cerca mediante uno de programación lineal y,
entonces, se puede aplicar el eficiente método símplex.
Programación no Convexa
La programación no convexa incluye todos los problemas de programación no lineal que
no satisfacen las suposiciones de programación convexa. En este caso, aun cuando se tenga éxito en
encontrar un máximo local, no hay garantía de que sea también un máximo global. Por lo tanto, no se
tiene un algoritmo que garantice encontrar una solución óptima para todos estos problemas; pero sí
existen algunos algoritmos bastante adecuados para encontrar máximos locales, en especial cuando las
formas de las funciones no lineales no se desvían demasiado de aquellas que se supusieron para
programación convexa. En la sección 13.10 se presenta uno de estos algoritmos.
Ciertos tipos específicos de problemas de programación no convexa se pueden resolver sin mucha
dificultad mediante métodos especiales. Dos de ellos, de gran importancia, se presentarán más
adelante.
Programación Geométrica
Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas veces la función
objetivo y las funciones de restricción toman la forma
Cuando se puede hacer, el enfoque más directo para resolver un problema de programación fraccional
es transformarlo en un problema equivalente de algún tipo estándar que disponga de un
procedimiento eficiente. Para ilustrar esto, suponga que f(x) es de la forma de programación fraccional
lineal
donde c y d son vectores renglón, x es un vector columna y c0 y dQ son escalares. También suponga que
las funciones de restricción g¡ (x)son lineales, es decir, las restricciones en forma matricial son Ax <
b y x > 0.
Con algunas suposiciones débiles adicionales, el problema se puede transformar en un problema
equivalente de programación lineal si se establece que se puede resolver con el método símplex. En
términos generales, se puede usar el mismo tipo de transformación para convertir un problema de
programación fraccional con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema equivalente
de programación convexa.
DIFERENCIAS ENTRE PROGRAMACIÓN LINEAL Y PROGRAMACIÓN NO LINEAL
El supuesto de la proporcionalidad de la programación lineal no siempre es adecuado para representar
de buena forma situaciones de naturaleza real que requieren de un modelo de optimización como
apoyo para el proceso de toma de decisiones. Cabe señalar que un modelo de programación no lineal
es aquel donde la función objetivo y/o las restricciones son funciones no lineales de las variables de
decisión. En este sentido la programación no lineal permite enfrentar una serie de aplicaciones
prácticas que requieren una representación a través de funciones no lineales. Algunos casos
característicos de la programación no lineal son los problemas de minimización de distancia, economías
o deseconomías de escala, carteras de inversión, ajuste de curva, entre otros. En general cuando
formulamos un modelo de optimización no lineal esperamos que éste sea más representativo de una
situación real en comparación a un modelo lineal, sin embargo, a la vez asumimos que es probable que
la complejidad de la resolución aumente. Por ello quien formule un modelo debe equilibrar la
representatividad del mismo con la dificultad de la resolución. A continuación presentaremos dos
modelos de optimización que comparten las mismas restricciones (que asumiremos por simplicidad
que son funciones lineales) y se diferencian por la naturaleza de la función objetivo (lineal y no lineal,
respectivamente). Estos ejemplos nos ayudarán a explicar algunas diferencias entre la programación
lineal y programación no lineal:
La Programación Cuadrática juega un papel muy relevante en la teoría de optimización lineal y no lineal
pues guarda una relación muy estrecha con la Programación Lineal y es un paso intermedio esencial
para resolver eficazmente problemas generales de Programación No Lineal.
(x 1 - 2)² + (x 2 - 2)² = a²
Y tenemos una circunferencia de radio a y centro en (2, 2). Por lo tanto, para obtener el mínimo de z
necesitamos calcular el mínimo valor de a que cumple las restricciones. Gráficamente tenemos la
situación de la figura y en ella vemos que el valor mínimo de a que verifica las restricciones es el de la
perpendicular desde el punto (2, 2) a la recta dada por:
Las condiciones necesarias que deben satisfacer los óptimos de problemas de optimización no lineal
con restricciones de desigualdad fueron publicadas por primera vez (1939) en la tesis de Maestría de
William Karush (1917-1997) (en aquél entonces estudiante de matemáticas de la Universidad de
Chicago) , aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert
W. Tucker en 1951. Las condiciones de Karush-Kuhn-Tucker (KKT) son una generalización del método
de los multiplicadores de Lagrange para restricciones de desigualdad.
En la condición necesaria anterior, el multiplicador dual puede ser igual a cero. Este caso se
denomina degenerado o anormal. La condición necesaria no tiene en cuenta las propiedades de la
función sino la geometría de las restricciones.Existen una serie de condiciones de regularidad que
aseguran que la solución no es degenerada (es decir ).
1. Estas incluyen:Cualificación de la restricción de independencia lineal (CRIL): los
gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de
igualdad son linealmente independientes en .
2. Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las
restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son
linealmente independientes positivos en .
3. Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las
restricciones activas de desigualdad y los gradientes de las restricciones de igualdad, el rango
en el entorno de es constante.
4. Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para
cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones
de igualdad, si es linealmente dependiente positivo en entonces es linealmente
dependiente positivo en el entorno de . ( es linealmente dependiente
positivo si existe distintos de cero tal
que )
5. Condición de Slater: para un problema únicamente con restricciones de desigualdad,
existe un punto tal que para todo
Condiciones Suficientes
Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque CRMF no es equivalente a CRRC. En
la práctica, se prefiere cualificación de restricciones más débiles ya que proporcionan condiciones de
optimalidad más fuertes.