Вы находитесь на странице: 1из 217

MÉTODOS NUMÉRICOS.

Métodos numéricos: Son técnicas mediante las cuales es posible formular


problemas de tal forma que sean resueltas con operaciones aritméticas, Aunque
hay muchos tipos de métodos numéricos todos comparten una característica
común, llevan cabo un buen número de tediosos cálculos aritméticos.
Unidad 1 Introducción.

1.1 Problemas matemáticos y sus soluciones.

Un modelo matemático puede definirse como una formulación o una ecuación que
expresa las características, esenciales de un sistema físico o proceso en términos
matemáticos.

Vd = f (vi, p , f ) (1)

Vd = Variable dependiente que refleja el comportamiento o estado del sistema.

Vi = Variables independientes como tiempo o espacio a través de las cuales el


comportamiento del sistema será determinado.

P = Parámetros , son reflejos de las propiedades o la composición del sistema.

f = Funciones de fuerza, son influencias externas sobre el sistema.

De la segunda Ley de Newton:

F = ma ; reordenando

a = ______ ( 2 )

Características de este modelo matemático.

1.- Describe un proceso o sistema natural en términos matemáticos.

2.- Representa una simplificación de la realidad.

3.- Conduce a resultados predecibles.

Otros modelos matemáticos de fenómenos físicos pueden ser mucho más


complejos.
De nuevo si usamos la segunda Ley de Newton para determinar la velocidad final
o terminal de un cuerpo, tenemos un expresión de aceleración como la razón de
cambio de la velocidad con respecto al tiempo:

dv = _____ ( 3 )

dt m

Para un cuerpo que cae, la fuerza total es:

F = FD + Fu ( 4 )

FD = La atracción hacia abajo debido a la fuerza de la gravedad.

Fu = Fuerza hacia arriba debida a la resistencia del aire,

En donde:

FD = mg

Fu = -cu

c = coeficiente de resistencia o arrastre

Como la fuerza total , es la diferencia entre las fuerzas hacia abajo y las fuerzas
hacia arriba, tenemos:

dv = mg - cu ( 7 )

dt m

dv = g - c/m (v) ( 8 )

dt

Esta ecuación es un modelo matemático que relaciona la aceleración de un


cuerpo que cae con las fuerzas que actúan sobre él.

Se trata de una ecuación diferencial o ecuaciones diferenciales.

Si las ecuaciones son más complejas, se requiere de técnicas avanzadas para


obtener una solución analítica exacta o aproximada.
Si el objeto está en reposo, v = o y t = 0 , y usando las teorías de cálculo,
obtenemos:

v(t) = gm/c ( 1 - e-(c/m)t ) ( 9 )

Que es la solución analítica o exacta,

v(t) = variable dependiente

t = es la variable independiente

c,m = parámetros

g = función de la fuerza

Ejemplo

Un paracaidista, con una masa de 68.1 kgs salta de un globo aerostático fijo. Con
la ayuda de la ecuación ( 9 ), calcule la velocidad antes de abrir el paracaídas,
coeficiente de resistencia = 12 kg/seg.

Datos:

m = 68.1

c = 12.5

g = 9.8 m/s

v(t) = gm/c ( 1 - e-(c/m)t )

t,s v, m/s

0 0

2 16.42

4 27.76

6 35.63

8 41.05
10 44.87

12 47.48

53.39

53.39 1 - e -(0.1835)t

Cuando los métodos numéricos - modelos matemáticos - no pueden resolverse


con exactitud, se requiere de una solución numérica que se aproxima a la solución
exacta.

Los métodos numéricos son aquellos en los que se formula el problema


matemático para que se pueda resolver mediante operaciones aritméticas.

Para la segunda Ley de Newton, al aproximar a la razón del cambio de la


velocidad con respecto al tiempo, tenemos:

dv = v = v ( ti + 1 ) - v ( ti ) ( 10 )

dt t ti + 1 - ti

Diferencias finitas divididas

v ( ti ) = es la velocidad en el tiempo inicial ti

v ( ti + 1 ) = es la velocidad después de un tiempo mas tarde:

ti + 1
Sustituyendo la ec. ( 10 ) en la ec. ( 8 ):

v ( ti + 1 ) - v ( ti ) = g - c/m v ( ti )

ti + 1 - ti

Reordenando:

V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti ) ( 11 )

A cualquier tiempo

Nuevo valor = viejo valor + pendiente x tamaño del paso.

Ejemplo 1.2

Resolver el ejemplo anterior mediante una solución numérica para calcular la


velocidad. Emplear un tamaño del paso de 2 segundos.

Datos:

m = 68.1 kg

c = 12.5 kg/s

g = 9.8 m/s

V ( ti + 1 ) = v ( ti ) + g - c/m v( ti ) ( ti + 1 - ti )
V1 = V0 + g - c/m V0 ( ti + 1 - ti ) ; t1 = 2 seg

V1 = 0 + 9.8 - 12.5/68.1 (0) (2-0) = 19.6 m/s

t2 = 4s, v2 = ?

V2 = 19.6 + 9.8 - 12.5/68.1 (19.6) (4-2) = 32 m/s

Sustituyendo:

V3 = V2 + g - c/m V2 (t3 - t2)

V3= 32 + 9 .8 - 12.5/68.1 (32) (2) = 39.85 m/s

Entonces V3= 39.85 m/s

Sustituyendo:

V4 = 39.85 + 9 .8 - 12.5/68.1 (39.85) (2) = 44.82 m/s

V5 = 44.82 + 9 .8 - 12.5/68.1 (44.82) (2) = 47.96 m/s

V6 = 47.96 + 9 .8 - 12.5/68.1 (47.96) (2) = 49.95 m/s

t,s SN SA

0 0 0

2 19.6 16.42

4 32 27.76

6 39.85 35.63

8 44.82 41.05

10 48.01 44.87

12 49.05 47.48

53.39 53.39
1.2 Importancia de los métodos numéricos.

El análisis numérico trata de diseñar métodos para aproximar de una manera


eficiente las soluciones de problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a
problemas complejos utilizando sólo las operaciones más simples de la aritmética.
Se requiere de una secuencia de operaciones algebraicas y lógicas que producen
la aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos
matemáticos en:
·Cálculo de derivadas
·Integrales
·Ecuaciones diferenciales
·Operaciones con matrices
·Interpolaciones
·Ajuste de curvas
·Polinomios

Los métodos numéricos se aplican en áreas como:


Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica,
Ingeniería eléctrica, etc...
1.3 Tipos de errores.

a) Definición de error.

Los errores numéricos se generan con el uso de aproximaciones para representar


las operaciones y cantidades matemáticas. Esto incluye errores de truncamiento
que resultan de representar aproximadamente un procedimiento matemático
exacto, y los errores de redondeo, que resultan de presentar aproximadamente
números exactos. Para los tipos de errores, la relación entre el resultado exacto o
verdadero y el aproximado está dado por:

Valor verdadero = valor aproximado + error (Ec.1)

Reordenando la ecuación Ec.1, se encuentra que el error numérico es igual a la


diferencia entre el valor verdadero y el valor aproximado esto es :

Ev = valor verdadero – valor aproximado

Donde Ev se usa para redondear el valor exacto del error. Se incluye el subíndice
v para dar a entender que se trata del “verdadero” error.
Un defecto es que muchas veces no se toma en consideración el orden de
magnitud del valor que se está probando. Por ejemplo, un error de un centímetro
es mucho más significativo si se está midiendo un remache que un puente. Una
manera de medir las magnitudes de las cantidades que se están evaluando es
normalizar el error respecto al valor verdadero, como en:
Error relativo fraccional = error / valor verdadero

Donde:
Error = valor verdadero – valor aproximado.
El error relativo también se puede multiplicar por el 100% para expresarlo como Ev
= (error verdadero/ valor verdadero ) 100;Donde Ev denota el error relativo
porcentual. El subíndice v significa la normalización del error al valor verdadero .
Para los métodos numéricos el valor verdadero únicamente se conocerá cuando
se habla de funciones que se pueden resolver analíticamente. Sin embargo, en
aplicaciones reales, no se conoce la respuesta verdadera. En estos casos,
normalizar el error es una alternativa usando la mejor estimación posible del valor
verdadero, esto es a la aproximación misma, como:

Ea = (error aproximado/ valor aproximado)100

Donde el subíndice a significa que el error está normalizado a un valor


aproximado.
Uno de los retos a que se enfrentas los métodos numéricos es el de determinar
estimaciones del error en ausencia de conocimiento de los valores verdaderos. El
error se calcula como la diferencia entre la aproximación previa y la actual. Por lo
tanto, el error relativo porcentual está dado por Ea =abs( ((aproximación actual
aproximación previa )/ aproximación actual) 100) Si se cumple la relación anterior ,
entonces se considera que el resultado obtenido esta dentro del nivel aceptable,es
decir, aun error previamente fijado
(Es):
Abs(Ea) <>

b) Error por redondeo.


Se originan al realizar los cálculos que todo método numérico o analítico requieren
y son debidos a la imposibilidad de tomar todas las cifras que resultan de
operaciones aritméticas como los productos y los cocientes, teniendo que retener
en cada operación el número de cifras que permita el instrumento de cálculo que
se esté utilizando.

Existen dos tipos de errores de redondeo:

Error de redondeo inferior: Se desprecian los dígitos que no se pueden


conservar dentro de la memoria correspondiente.
Error de redondeo superior: Este caso tiene dos alternativas según el signo del
número en partícula

Para números positivos, el último dígito que se puede conservar en la localización


de memoria incrementa en una unidad si el primer dígito despreciado es mayor o
igual a 5.

Para números negativos, el último dígito que se puede conservar en la localización


de la memoria se reduce en una unidad si el primer dígito despreciado es mayor o
igual a 5.
Los errores de redondeo se deben a que las computadoras solo guardan un
numero finito de cifras significativas durante un calculo. Las computadoras realizan
esta función de maneras diferentes; esta técnica de retener solo los primeros siete
términos se llamó “truncamiento” en el ambiente de computación. De preferencia
se llamara de corte, para distinguirlo de los errores de truncamiento. Un corte
ignora los términos restantes de la representación decimal completa.

La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los


errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos
razones del por qué pueden resultar críticos en algunos métodos numéricos:

1) Ciertos métodos requieren cantidades extremadamente grandes para obtener


una respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los
cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque
un error de redondeo individual puede ser muy pequeño, el efecto de acumulación
en el transcurso de la gran cantidad de cálculos puede ser significativo.

2) El efecto de redondeo puede ser exagerado cuando se llevan a cabo


operaciones algebraicas que emplean números muy pequeños y muy grandes al
mismo tiempo. Ya que este caso se presenta en muchos métodos numéricos, el
error de redondeo puede resultar de mucha importancia.
c) Error por truncamiento.
Existen muchos procesos que requieren la ejecución de un numero infinito de
instrucciones para hallar la solución exacta de un determinado problema. Puesto
que es totalmente imposible realizar infinitas instrucciones, el proceso debe
truncarse. En consecuencia, no se halla la solución exacta que se pretendía
encontrar, sino una aproximación a la misma. Al error producido por la finalización
prematura de un proceso se le denomina error de truncamiento. Un ejemplo del
error generado por este tipo de acciones es el desarrollo en serie de Taylo r. Este
es independiente de la manera de realizar los cálculos. Solo depende del método
numérico empleado.
Los errores de truncamiento son aquellos que resultan al usar una aproximación
en lugar de un procedimiento matemático exacto.
Estos tipos de errores son evaluados con una formulación matemática: la serie de
Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en términos
de la función y de sus derivadas en una vecindad del punto Xi.
Siendo el termino final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par a un
polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como
las exponenciales o senoidales, no se obtiene una estimación exacta mediante un
número finito de términos. Cada una de los términos adicionales contribuye al
mejoramiento de la aproximación, aunque sea un poco.
d) Error numérico total.
Se entiende como la suma de los errores de redondeo y truncamiento introducidos
en el cálculo. Mientras más cálculos se tengan que realizar para obtener un
resultado, el error de redondeo se irá incrementando.

Pero por otro lado, el error de truncamiento se puede minimizar al incluir más
términos en la ecuación, disminuir el paso o proseguir la iteración (o sea mayor
número de cálculos y seguramente mayor error de redondeo).
La única forma de minimizar los errores de redondeo es la de incrementar el
número de cifras significativas de la computadora.

Repr

Representación grafica de las ventajas y desventajas entre errores de redondeo y


truncamiento que en ocasiones influyen en el curso de un método numérico. El
punto óptimo muestra donde el error de redondeo comienza a negar los beneficios
dados por la reducción del tamaño de paso.

e) Errores humanos.
Son los errores por negligencia o equivocación. Las computadoras pueden dar
números erróneos por su funcionamiento. Actualmente las computadoras son muy
exactas y el error es atribuido a los hombres. Se pueden evitar con un buen
conocimiento de los principios fundamentales y con la posesión de métodos y el
diseño de la solución del problema. Los errores humanos por negligencia son
prácticamente inevitables pero se pueden minimizar.

ERRORES POR EQUIVOCACIÓN

En los primeros años de la computación los resultados numéricos erróneos fueron


atribuidos algunas veces al mal funcionamiento de la computadora misma. Hoy dia
esta fuente de error es muy improbable y la mayor parte de las equivocaciones se
atribuye a errores humanos.
Las equivocaciones ocurren a cualquier nivel del proceso de modelación
matemática y pueden contribuir con todas las otras componentes del error. Las
equivocaciones, por lo general se pasan por alto en la discusión del método
numérico. Esto sin duda prueba el hecho de que los errores de torpeza son, hasta
cierto punto inevitables.

ERRORES DE FORMULACIÓN

Los errores de formulación o de modelamiento degeneran en lo que se podría


considerar como un modelo matemático incompleto, ya que si se esta usando un
modelo deficiente, ningún método numérico generara los resultados adecuados.
Unidad 2 Solución de Ecuaciones Algebraicas.
2.1 Teoría de un método iterativo.

En matemática computacional, un método iterativo trata de resolver un problema


(como una ecuación o un sistema de ecuaciones)
mediante aproximaciones sucesivas a la solución, empezando desde una
estimación inicial. Esta aproximación contrasta con los métodos directos, que
tratan de resolver el problema de una sola vez (como resolver un sistema de
ecuacionesAx=b encontrando la inversa de la matriz A). Los métodos iterativos
son útiles para resolver problemas que involucran un número grande de variables
(a veces del orden de millones), donde los métodos directos tendrían un coste
prohibitivo incluso con la potencia del mejor computador disponible.

En el caso de un sistema lineal de ecuaciones, las dos clases principales de


métodos iterativos son los métodos iterativos estacionarios y los más generales
métodos del subespacio de Krylov

Métodos iterativos estacionarios

Los métodos iterativos estacionarios resuelven un sistema lineal con


un operador que se aproxima al original; y basándose en la medida de error (el
residuo), desde una ecuación de corrección para la que se repite este proceso.
Mientras que estos métodos son sencillos de derivar, implementar y analizar, la
convergencia normalmente sólo está garantizada para una clase limitada de
matrices.

Métodos del subespacio de Krylov

Los métodos del subespacio de Krylov forman una base ortogonal de la secuencia
de potencias de la matriz por el residuo inicial (la secuencia de Krylov). Las
aproximaciones a la solución se forman minimizando el residuo en el subespacio
formado. El método prototípico de esta clase es el método de gradiente
conjugado. Otros métodos son el método del residuo mínimo generalizado y
el método del gradiente biconjugado.
Convergencia

Dado que estos métodos forman una base, el método converge en N iteraciones,
donde N es el tamaño del sistema. Sin embargo, en la presencia de errores de
redondeo esta afirmación no se sostiene; además, en la práctica N puede ser muy
grande, y el proceso iterativo alcanza una precisión suficiente mucho antes. El
análisis de estos métodos es difícil, dependiendo de lo complicada que sea la
función del espectro del operador.

Precondicionantes

El operador aproximativo que aparece en los métodos iterativos estacionarios


puede incorporarse también en los métodos del subespacio de Krylov, donde se
pasan de ser transformaciones del operador original a un operador mejor
condicionado. La construcción de precondicionadores es un área de investigación
muy extensa.
2.2 Raíz de una ecuación.

Decimos que la solución o raíz de una ecuación es el valor que satisface a la


ecuación, es decir, la convierte en una proposición cierta.

2.2.1 Fundamento matemático.

1.- Si en la ecuación 2x + 5 = 19 sustituimos x por 7

Obtenemos:

2(7) + 5 = 19

4 + 5 = 19 Proposición Cierta

Por lo tanto x = 7 es una solución o raíz de la ecuación

2x + 5 = 19

2.- Si en la ecuación 7x - 5 = 16 sustituimos x por 3

Obtenemos:

7(3) - 5 = 16

21 - 5 = 16 Proposición Cierta

Por lo tanto x = 3 es una solución o raíz de la ecuación

7x - 5 = 16

2.3 Métodos de intervalo.

Los métodos de los intervalos utilizán una propiedad muy importante, consistente
en el hecho del cambio de signo de una función en inmediaciones de una raíz.
Se llaman métodos de los intervalos porque se necesitan como mínimo dos
valores que forman un intervalo que encierra la raíz.

f(x)

+ f(x)
+ f(x)

d e f
x
a c b
- f(x)
- f(x)

Gráfica 2.1

En la gráfica 2.1 se observa como la función cambia de +f(x) a - f(x), cuando


pasa por la raíz c .Esto ocurre porque f (c)= 0 y necesariamente la función pasa
del cuadrante positivo al negativo de x. En algunos casos , que se verán más
adelante esto no ocurre así, por ahora se asumirá como se ha mostrado. Los
métodos abiertos utilizan estos cambios de signo para poder ubicar el la raíz
(punto c), pero es necesario entonce establecer un intervalo (como el [a,b]).

De igual manera sucede cuando la función pasa por el punto e, el cambio ocurre
de -f(x) a + f(x), para hallar la raíz el método necesita un intervalo como el [d,f].

Los métodos de Intervalos que se verán en la cátedra son:

a. Método Gráfico

b. Método de Bisección

c. Método de Interpolación Lineal

2.3.1 Método de bisección.

El método de bisección es un algoritmo de búsqueda de raíces que trabaja


dividiendo el intervalo a la mitad y seleccionando el subintervalo que tiene la raíz.
Este método, que se utiliza para resolver ecuaciones de una variable, está basado
en el “Teorema de los Valores Intermedios” (TVM), en el cual se establece que
toda función continua f, en un intervalo cerrado [a,b], toma todos los valores que
se hallan entre f(a) y f(b), de tal forma que la ecuación f(x)=0 tiene una sola raíz
que verifica f(a).f(b)<0.

Dicho en cristiano, que si dicha función viaja del punto a al punto b, ha de pasar
por m, que es cuando la función se hace cero. Ése es el punto que buscamos.

Nota: Como veis f(a) es negativo, por tanto el producto dará negativo, eso nos
asegura que existe al menos un valor de la función que es cero.
Una vez entendido lo anterior, veamos en detalle en qué consiste el método de la
bisección:
En pocas palabras, consiste en ir dividiendo la función que hemos visto arriba en
subintervalos, y hallar los puntos medios de cada uno de ellos (m), quedándonos
una cosa así:
Pero veámoslo por pasos cual receta de cocina:

1) Elegimos dos valores iniciales a1 y b1, de tal forma que la función cambie de
signo:

2) Realizamos la primera aproximación a la raíz, mediante la fórmula del punto


medio:

Nota: usamos los puntos, no las funciones!! Es decir, lo que está dentro del
paréntesis, NO pongáis aquí el resultado de sustituir en la función.

3) Ahora determinamos en que subintervalo se encuentra la raíz:


Si f(a1)f(m1) <0, entonces la raíz está en el subintervalo [a1,m1] y b1=m1
si f(a1)f(m1)>0, entonces la raíz está en el subintervalo [b1, m1] y a1=m1
Si f(a1)f(m1)=0, entonces aquí se encuentra la raíz
Resumido, hasta aquí, es ir hallando mitades sucesivamente hasta llegar al
intervalo que nos de igual a cero.

4) Calculamos una nueva aproximación a la raíz.

5) Evaluamos el valor relativo aproximado:

Entonces, si:

Si no cumple la condición, simplemente volvemos al paso 3.

Ejemplo:
Aproximar la raíz:

Hallar en que intervalo está la raíz con un error más pequeño que media decima

Lo que nos piden es que hallemos una solución para esa ecuación, y que el error
que podamos tener de cálculo sea menor a 0.5. Procedemos paso a paso:

1) Comprobamos si es continua y vemos si cambia de signo para dos valores x1 y


x2:
f es continua en el intervalo (0,+∞). Ahora debemos buscar dos valores tales que:
f(x1).f(x2)<0
x1=1-> f(x1)= 0,3679
x2=1->f(x2)= -0,5578
*Nota: Los valores elegidos son aleatorios, podéis usar otros distintos de 1 y 2,
siempre que f(x) cambie de signo.
2) x3=(x1+x2)/2=1,5 –>∈<0,5, ya que |1-1,5|=0,5 y |2-1,5|=0,5

3) Momento de empezar a escoger subintervalos, escogemos el x1=1 que ya


teníamos y el x3=1,5:

a) f(x3)= -0,1823
f(x1)= 0,3679

Ya que |1,5-1,25|=0,25 y |1-1,25|=0,25


Como vemos el error es cada vez más pequeño, pero podemos hacerlo todavía
mejor, pues todavía no está cercano a cero. Seguimos haciendo subintervalos.
b) f(x4)=0.0634
x4=1,25 ; f(x4)=0,0634
x3=1,5; f(x3)= -0,1823

c) f(x5)= -0,0656
x4=1,25; f(x4)= 0,0634
x5=1,375; f(x5)= -0.0656

d) f(x6)= -0,0028
x4=1,25; f(x4)= 0,0634
x6=1,3125; f(x6)= -0.028
f(x7)=0,0299
Finalmente obtenemos que 1,28125 ± 0,03125 es una raíz de f(x).

Resumen
Como se ve ha sido muy simple, tomamos dos valores de referencia, x1 y x2,
hemos ido hallando la media de esos dos puntos y tomando un nuevo intervalo
desde esa media, lo que conseguimos haciendo esto es “encoger” el intervalo
donde se esconde la solución, haciéndolo cada vez más pequeño, y por tanto,
más preciso para hallar nuestra raíz.

2.3.2 Método de falsa posición.

El método de regula falsi (regla del falso) o falsa posición es un método


iterativo de resolución numérica de ecuaciones no lineales. El método combina
el método de bisección y el método de la secante.

Aun cuando la bisección es una técnica perfectamente válida para determinar


raíces, su método de aproximación por "fuerza bruta" es relativamente ineficiente.
La falsa posición es una alternativa basada en una visualización gráfica.

Un inconveneiente del método de bisección es que al dividir el intervalo


de x1 a xu en mitades iguales, no se toman en cuenta las magnitudes
de f(x1) y f(xu). Por ejemplo, si f(x1)está mucho más cercana a cero que f(xu), es
lógico que la raíz se encuentre más cerca de x1 que de xu. Un método alternaticvo
que aprovecha esta visualización gráfica consiste en unir f(x1) y f(xu) con una
línea recta. La intersección de esta línea con el eje de las x representa un mejor
aproximación de la raíz. El hecho de que se reemplace la curva por una línea recta
de una "falsa posición" de la raíz; de aquí el nombre de método de la falsa
posición, o en latín, regula falsi. También se le conoce como método de
interpolación lineal.
Fórmula

Usando triángulos semejantes, la intersección de la línea recta con el eje de las x


se estima mediante:

Multiplicando en cruz la ecuación anterior obtenemos:

Agrupando términos y reordenando:

Dividiendo entre

Esta es una de las formas del método de la falsa posición. Esta puede ponerse en
una forma alternativa al separa los términos:

Sumando y restando xu en el lado derecho:


Agrupando términos se obtiene:

O:

Esta es la fórmula de la falsa posición. El valor de xr calculado con la ecuación


reemplazará, después, a cualquiera de los dos valores iniciales, xl o xu, y da un
valor de la función con el mismo signo de f(xr). De esta manera, los valores xl y xu
siempre encierran la verdadera raíz. El proceso se repite hasta que la
aproximación a la raíz sea adecuada.

Algoritmo

Paso 1: Elija valores iniciales inferior, xi, y superior xu, que encierran la raíz, de
forma tal que la funciòn cambie de signo en el intervalo. Esto se verifica
comprobando que f(xl) f(xu) <0.

Paso 2: Una aproximación de la raíz xr se determina mediante:

Paso 3: Realice las siguientes evaluaciones para determinar en qué subintervalo


está la raíz:

a) Si f(xl)f(xr) < 0, entonces la raíz se encuentra dentro del subintervalo inferior o


izquierdo. Por lo tanto, haga xu = xr y vuelva al paso 2.

b) Si f(xl)f(xr) > 0, entonces la raíz se encuentra dentro del subintervalo superior o


derecho. Por lo tanto, haga xl = xr y vuelva al paso 2.
c) Si f(xl)f(xr) = 0, la raíz es igual a xr; termina el cálculo.

Ejemplo

Usar el método de la regla falsa para aproximar la raíz de ,

comenzando en el intervalo y hasta que .

Solución
Este es el mismo ejemplo 1 del método de la bisección. Así pues, ya sabemos

que es contínua en el intervalo dado y que toma signos opuestos en los


extremos de dicho intervalo. Por lo tanto podemos aplicar el método de la regla
falsa.

Calculamos la primera aproximación:

Puesto que solamente tenemos una aproximación, debemos seguir con el


proceso.

Así pues,
evaluamos

Y hacemos nuestra tabla de signos:

De donde vemos que la raíz se encuentra en el intervalo .


Con este nuevo intervalo, calculamos la nueva aproximación:
En este momento, podemos calcular el primer error aproximado:

Puesto que no se cumple el objetivo seguimos con el proceso.

Evaluamos , y hacemos la tabla de


signos:

De donde vemos que la raíz se encuentra en el intervalo , con el


cual, podemos calcular la nueva aproximación:

Y el error aproximado:

Como se ha cumplido el objetivo, concluímos que la aproximación buscada es:

Observe la rapidez con la cual converge el método de la regla falsa a la raíz, a


diferencia de la lentitud del método de la bisección.
2.4 Métodos de punto fijo.

El método del punto fijo es un método iterativo que permite resolver sistemas de
ecuaciones no necesariamente lineales. En particular se puede utilizar para

determinar raíces de una función de la forma , siempre y cuando se cumplan


los criterios de convergencia.

El método de iteración de punto fijo, también denominado método de aproximación

sucesiva, requiere volver a escribir la ecuación en la forma .

Llamemos a la raíz de . Supongamos que existe y es conocida la función tal


que:

del dominio.

Entonces:

Tenemos, pues, a como punto fijo de .

Procedimiento

El procedimiento empieza con una estimación o conjetura inicial de , que es


mejorada por iteración hasta alcanzar la convergencia. Para que converja, la

derivada debe ser menor que 1 en magnitud (al menos para los valores x
que se encuentran durante las iteraciones). La convergencia será establecida
mediante el requisito de que el cambio en de una iteración a la siguiente no sea
mayor en magnitud que alguna pequeña cantidad €.

Algoritmo

1. Se ubica la ráiz de analizando la gráfica.

2. Se obtiene un despeje de la función.


3. Obtenemos de su derivada .

4. Resolviendo la desigualdad -1 ≤ ≤ 1 obtenemos el rango de valores en los


cuales esta el punto fijo llamado R.

5. Con R buscamos la raíz en , es decir haciendo iteración de las


operaciones.

Ejemplo.

Sea una función, encuentre la raíz.

Ubicamos la ráiz analizando la gráfica.

Obtenemos :

Después obtenemos la derivada de la función:

Entonces resolvemos las desigualdades:

La solución es:
La solución es:

O visto de otra manera, vemos que en la grafica de la derivada existen valores


entre -1 y 1:

Ya que se tienen los valores del rango R, encontramos la raíz haciendo la iteración
de las operaciones:

En la tabla se puede ver el valor que en este caso se uso de R, la iteración

consiste en usar ese valor en para obtener los siguientes valores


haciendo la misma operación usando el valor anterior.
Después de un número considerable de iteraciones obtenemos la raíz
en .

2.4.1 Método de las aproximaciones sucesivas.

Un esquema iterativo en Métodos Numéricos es una técnica fundamental que


consiste en repetir un proceso aritmético o algebraico hasta que se obtenga un
resultado

En esta definición se aplica el proceso de iteración que consiste en sustituir


repetidamente en una expresión (o fórmula) el valor previamente obtenido.

En este método se requiere de una regla, formula o sub función g(x), con la que

se calculan los términos sucesivos junto con un valor de partida esto produce

una sucesión de valores { } obtenida mediante el proceso

iterativo .

La sucesión se aplica al siguiente patrón.


En una sucesión interminable de números, se dice que el esquema iterativo
converge si los números tienden a un límite,

El método de aproximaciones sucesivas, es el procedimiento que permite obtener


una aproximación a la solución de una ecuación mediante la iteración de un punto
fijo.

El método de aproximaciones sucesivas consiste en generar funciones


convergentes bajo un esquema iterativo partiendo de la función original, lo cual se
soporta con el siguiente teorema:

Teorema de convergencia

La raíz de cualquier sub función extraída de una función f(x) obtenida por una
iteración convergente,

Es también una raíz de f(x).

Ejemplo de aplicación del teorema

Sea f(x) =5senx - 3x, la sub función sen(x) tiene como raíz x=0, la cual resulta ser
también la raíz de la función f(x).

Ejemplo:

Sea f(x)= - 0.9534461720 y se tiene que

{0.04655382800, – 0.002216747499, 0.0001056833004, -5.038199445 ,

2.401003499 , -1.149973172 , 5.001856068 ,

-9.974187602 }

Es decir que la raíz exacta se obtiene hasta el noveno valor.


Puntos fijos

Definición:

Un punto fijo de una función g(x) es un número real que P, P=g (P)

Ejemplo: un punto fijo de la función g(x) =7sen (2x)-4x es cero porque 0=7sen(0)-
4(0)

Geométricamente hablando los puntos fijos de una función g(x) son los puntos de
intersección de la curva y=g(x) con la recta y=x

Iteración de puntos fijos

Definición:

Una iteración de punto fijo es un esquema iterativo de la forma para


n=0, 1…

Ejemplo:

Sea la iteración convergente

Calculando los 10 primeros términos:


La sucesión converge los cual da:

Lo que se ha obtenido es una aproximación de punto fijo de la función f(x)=

El método de aproximaciones sucesivas como iteración de un punto fijo

2.4.2 Método de la secante.

El método de la secante es un método para encontrar los ceros de una función de


forma iterativa.

Es una variación del método de Newton-Raphson donde en vez de calcular la


derivada de la función en el punto de estudio, teniendo en mente la definición de
derivada, se aproxima la pendiente a la recta que une la función evaluada en el
punto de estudio y en el punto de la iteración anterior. Este método es de especial
interés cuando el coste computacional de derivar la función de estudio y evaluarla
es demasiado elevado, por lo que el método de Newton no resulta atractivo.

En otras palabras, el método de la secante es un algoritmo de la raíz de


investigación que utiliza una serie de raíces de las líneas secantes para aproximar
mejor la raíz de una función f. El método de la secante se puede considerar como
una aproximación en diferencias finitas del método de Newton-Raphson. Sin
embargo, este método fue desarrollado independientemente de este último.

El método se define por la relación de recurrencia:

Como se puede ver, este método necesitará dos aproximaciones iniciales de la


raíz para poder inducir una pendiente inicial.

Derivación del método.


El método se basa en obtener la ecuación de la recta que pasa por los puntos
(xn−1, f(xn−1)) y (xn, f(xn)). A dicha recta se le llama secante por cortar la gráfica de la
función. En la imagen de arriba a la derecha se toman los puntos iniciales x0 y x1,
se construye una línea por los puntos (x0, f(x0)) y (x1, f(x1)). En forma punto-
pendiente, esta línea tiene la ecuación mostrada anteriormente. Posteriormente se
escoge como siguiente elemento de la relación de recurrencia, xn+1, la intersección
de la recta secante con el eje de abscisas obteniendo la fórmula, y un nuevo valor.
Seguimos este proceso, hasta llegar a un nivel suficientemente alto de precisión
(una diferencia lo suficientemente pequeñas entre xn y xn-1).

Convergencia.

El orden de convergencia de este método, en un punto cercano a la solución, es


donde

Es el número áureo, por lo que se trata de una convergencia superlineal inferior a


la del método de Newton-Raphson. En caso de que la aproximación inicial sea
demasiado lejana o la raíz no sea simple, este método no asegura la convergencia
y tiene un comportamiento similar al de Newton-Raphson.

Comparación con otros métodos.

El método de bisección necesita de muchas iteraciones comparado con el método


de la secante, ya que el proceso que éste sigue es mucho más preciso que el de
bisección, el cual solo divide por mitades sucesivamente hasta dar con un valor
aproximado al real y por consecuente conlleva un número significativamente
mayor de iteraciones.

El método de la regla falsa utiliza la misma fórmula que el método de la secante.


Sin embargo, no se aplica la fórmula en xn−1 y xn, como el método de la secante,
pero en xn y en la última iteración xk tal que f(xk) y f(xn) tiene un signo diferente.
Esto significa que el método de regla falsa siempre converge.
La fórmula de recurrencia del método de la secante se puede derivar de la fórmula
para el método de Newton-Raphson:

Y utilizando la aproximación de diferencias finitas:

Si comparamos el método de Newton-Raphson con el método de la secante,


vemos que el método de Newton-Raphson converge más rápido (para 2 en contra
α ≈ 1,6). Sin embargo, el método de Newton-Raphson requiere la evaluación de
ambos f y su derivada en cada paso, mientras que el método de la secante sólo
requiere la evaluación de f. Por lo tanto, el método de la secante puede muy bien
ser más rápido en la práctica.

Ejemplo.

Utilice el método de la secante para encontrar una raíz real de la ecuación


polinomial: F(x)=x3+2x2+10x-20=0.

Utilizando la ecuación:

Obtenemos:

Y mediante x0=0 y x1=1 se calcula x2

Los valores posteriores son los siguientes:


Ahi tenemos el resultado, cuando ≤

Comprobando el resultado graficando la función utilizando software obtenemos:

Si bien no se converge a la raíz tan rápido como resolviéndolo utilizando el método


Newton-Raphson, la velocidad de convergencia no es tan lenta como
resolviéndolo por el método de punto fijo; entonces se tiene para este ejemplo una
velocidad de convergencia intermedia.
2.4.3 Método de Newton-Raphson.

Este método, el cual es un método iterativo, es uno de los más usados y efectivos.
A diferencia de los métodos anteriores, el método de Newton-Raphson no trabaja
sobre un intervalo sino que basa su fórmula en un proceso iterativo.

Supongamos que tenemos la aproximación a la raíz de ,

Trazamos la recta tangente a la curva en el punto ; ésta cruza al eje

en un punto que será nuestra siguiente aproximación a la raíz .

Para calcular el punto , calculamos primero la ecuación de la recta tangente. Sabemos


que tiene pendiente

Y por lo tanto la ecuación de la recta tangente es:

Hacemos :

Y despejamos :
Que es la fómula iterativa de Newton-Raphson para calcular la siguiente
aproximación:

, si

Note que el método de Newton-Raphson no trabaja con intervalos donde nos


asegure que encontraremos la raíz, y de hecho no tenemos ninguna garantía de
que nos aproximaremos a dicha raíz. Desde luego, existen ejemplos donde este
método no converge a la raíz, en cuyo caso se dice que el método diverge. Sin
embargo, en los casos donde si converge a la raíz lo hace con una rapidez
impresionante, por lo cual es uno de los métodos preferidos por excelencia.

También observe que en el caso de que , el método no se puede aplicar.


De hecho, vemos geométricamente que esto significa que la recta tangente es
horizontal y por lo tanto no intersecta al eje en ningún punto, a menos que

coincida con éste, en cuyo caso mismo es una raíz de !

Ejemplo 1

Usar el método de Newton-Raphson, para aproximar la raíz de ,

comenzando con y hasta que .

Solución
En este caso, tenemos que

De aquí tenemos que:


Comenzamos con y obtenemos:

En este caso, el error aproximado es,

Continuamos el proceso hasta reducir el error aproximado hasta donde se pidió.


Resumimos los resultados en la siguiente tabla:

Aprox. a la raíz Error aprox.


1
1.268941421 21.19%
1.309108403 3.06%
1.309799389 0.052%

De lo cual concluimos que , la cual es correcta en todos sus


dígitos.
La misma idea puede aplicarse para crear algoritmos que aproximen raíces n-
ésimas de números reales positivos.

Observe que cuando el método de Newton-Raphson converge a la raíz, lo hace de


una forma muy rápida y de hecho, observamos que el error aproximado disminuye
a pasos agigantados en cada paso del proceso. Aunque no es nuestro objetivo
establecer formalmente las cotas para los errores en cada uno de los métodos que
hemos estudiado, cabe mencionar que si existen estas cotas que miden con
mayor precisión la rapidez ó lentitud del método en estudio.

2.5 Otros métodos.

MÉTODO DE STEFFENSEN.
El método de Steffensen (por Johan Frederik Steffensen) es un algoritmo
para obtener los ceros de una función. El método de Steffensen se puede
considerar como una combinación delmétodo de punto fijo y del método de Aitken.
Como el método de Aitken esencialmente acelera la convergencia de otro método,
se puede definir este método como el método de punto fijo acelerado.

El método de Steffensen tiene en cuenta la observación anterior y se construye


combinando el método iterativo del punto fijo y el método de Aitken, de manera
que solamente se considera una sucesión de la siguiente forma:

, , ,^ , , ,^ , , ,^ , ...

O sea, cada dos iteraciones del punto fijo normal obtiene otro punto a partir de la
fórmula:

De esta forma se acelera la convergencia, llegando a obtener una convergencia


cuasi-cuadrática, y algunas veces cuadrática, con lo que este método puede llegar
a competir con el método de Newton.

Ejemplo

Obtener una raíz de la función f(x) = x - cos x por la iteración del punto fijo y

aplicando el método de Steffensen, si tomamos g(x) = cos x = 0 y error<0.01.

=0 = g(0) = 1

= g(1) = 0.5403
= g(0.685) = 0.7744 = g(0.7744) = 0.7148

= g(0.7384) = 0.7395

Como | - | = 0.0007 < 0.01 la solución aproximada es = 0.7393.

NOTA.- La iteración de punto fijo es efectiva cuando converge cuadráticamente,


como en el método de Newton. En general la iteración de punto fijo, converge sólo
linealmente; por tanto no ofrece competencia real al método de la secante o de
regula falsi modificada. Aún con extrapolación repetida, como en la iteración de
Steffensen, la convergencia es a lo sumo cuadrática. Como una etapa de la
iteración de Steffensen cuesta dos evaluaciones de la función de iteración g(x), la
iteración de Steffensen es comparable, por tanto, con el método de Newton.

PROCESO DE AITKEN.

El proceso de Aitken consiste en construir una sucesión {^xn} al mismo tiempo que

se construye la sucesión { } obtenida por la iteración de punto fijo para n =


0,1,2,... (Ralston).

Esta sucesión converge más rápidamente que la { }. Para calcular la sucesión


{^xn} nos servimos del proceso de aceleración:

Ejemplo

Obtener una raíz de la función f(x) = x - cos x por la iteración del punto fijo y

aplicando el método de Aitken, tomar g(x) = cos x, = 0 y error < 0.01.


= g(0) = 1 = g(1) = 0.5403 = g(0.5403) = 0.8576

= g(0.8576) = 0.6543 = g(0.6543) = 0.7935 = g(0.7935) = 0.7014

= g(0.7014) = 0.7640 = g(0.7640) = 0.7221 = g(0.7221) = 0.7504

= g(0.7504) = 0.7314 = g(0.7314) = 0.7442 = g(0.7442) = 0.7356

Como | - | = |0.7356 - 0.7442| = 0.0086 < 0.01 tenemos que la solución

aproximada por la iteración del punto fijo es: = 0.7356

Veamos la tabla obtenida para los distintos valores intermedios obtenidos en el proceso de Aitken.

D =1

D = -0.4597 = -0.4597 ^ = 0.685

D = 0.3173 = -0.6902 ^ = 0.7278

D = -0.2033 = -0.6407 ^ = 0.7336

D = 0.1392 = -0.6847 ^ = 0.7368

Como |^ -^ | = | 0.7336 – 0.7278| = 0.0058 < 0.01

La solución aproximada por Aitken es = 0.7336

Método de la Müller.

Este método utilizado para encontrar raíces de ecuaciones con raíces múltiples, y
consiste en obtener los coeficientes de la parábola que pasa por tres puntos
elegidos. Dichos coeficientes son sustituidos en la formula cuadrática para obtener
el valor donde la parábola intersecta al eje X; es decir, la raíz estimada. La
aproximación se puede facilitar, si se escribe la ecuación de la parábola en una
forma conveniente.

Una de las mayores ventajas de este método, es que al trabajar con la formula
cuadrática es posible localizar tanto raíces reales, como raíces complejas.

El método de la secante obtiene raíces de una función estimando una proyección


de una línea recta en el eje de las x, a través de los valores de la función. El
método de Müller, trabaja de manera similar, pero en lugar de hacer la proyección
de una recta utilizando dos puntos, requiere de tres puntos para calcular una
parábola.

Para esto necesitaremos de tres puntos [x0, f(x0)], [x1, f(x1)] y [x2, f(x2)]. La
aproximación la podemos escribir como:
f2(x) = A(x – x2)2 + B(x – x2) + C

Los coeficientes de la parábola los calculamos resolviendo el siguiente sistema de


ecuaciones.
f2(x0) = A(x0 – x2)2 + B(x0 – x2) + C
f2(x1) = A(x1 – x2)2 + B(x1 – x2) + C
f2(x2) = A(x2 – x2)2 + B(x2 – x2) + C

De la última ecuación podemos ver que el calor de C = f2(x2). Sustituyendo los


valores de C en las otras dos ecuaciones tenemos
f2(x0)- f2(x2) = A(x0 – x2)2 + B(x0 – x2)
f2(x1) - f2(x2) = A(x1 – x2)2 + B(x1 – x2)
Si definimos
h 0 = x 1 - x0
h 1 = x2 – x1
d0 = [f(x1) – f(x0)]/[x1 – x0]
d1 = [f(x2) – f(x1)]/[x2 –x1]

Sustituyendo en las ecuaciones tenemos


-(d0* h0 + d1* h1)= A(h1 + h0 )2 - B(h1 + h0 )
-d1* h1 = A(h1)2 - Bh1
La solución de este sistema de ecuaciones es:
A = (d1 – d0)/(h1 + h0)
B = Ah1 + d1
C = f(x2)

Ahora para calcular la raíz del polinomio de segundo grado, podemos aplicar la
formula general. Sin embargo, debido al error potencial de redondeo, usaremos
una formulación alternativa.

Ejemplo.
Use el método de Müller con los valores iniciales de 4.5, 5.5 y 5 para determinar la
raíz de la ecuación f(x) = x3 – 13x – 12.

x0 x1 x2 f(x0) f(x1) f(x2) x3


4.50000 5.50000 5.00000 20.62500 82.87500 48.00000 3.97649
5.50000 5.00000 3.97649 82.87500 48.00000 -0.81633 4.00105
5.00000 3.97649 4.00105 48.00000 -0.81633 0.03678 4.00000
3.97649 4.00105 4.00000 -0.81633 0.03678 0.00002 4.00000

Unidad 3 Solución de Sistemas de Ecuaciones Algebraicas Lineales y No Lineales.

3.1 Algebra matricial. 

En muchos análisis se supone que las variables que intervienen están


relacionadas mediante un conjunto de ecuaciones lineales. El álgebra
matricial proporciona una notación concisa y clara para la formulación y resolución
de tales problemas, muchos de los cuales serían casi imposibles de plantear con
la notación algebraica ordinaria.
En este tema, se definen los vectores y las matrices, así como las operaciones
correspondientes. Se consideran tipos especiales de matrices, la transpuesta de
una matriz, las matrices subdivididas y el determinante de una matriz. También se
tratan y aplican a la resolución de ecuaciones lineales simultáneas, la
dependencia lineal de un conjunto de vectores, y el rango y la inversa de una
matriz. Así mismo, se define e ilustra la diferenciación vectorial.
 
3.1.1 Teoría de los sistemas lineales.
 
En matemáticas y en algebra lineal, un sistema de ecuaciones lineales, también
conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un
conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo.

DEFINCIÓN DE UNA MATRÍZ.


Una matriz es una disposición (o “arreglo”) rectangular de números en la forma
 

Las letras representan números reales, que son los elementos de la matriz.

Nótese que designa al elemento en la i-ésima fila y la j-ésima columna de la

matriz A; la matriz A se denota también a veces por ( ) o por { }. Una matriz


que tiene m filas y n columnas se dice que es una matriz m x n (“m por n”), o bien,
una matriz de orden m x n. Si m = n, se expresa que la matriz es cuadrada.
Cuando han de realizarse varias operaciones en matrices, su orden suele

denotarse mediante subíndices, por ejemplo, , o bien, .


EJEMPLO
 
Se dice que dos matrices del mismo orden son iguales solamente si todos sus
elementos correspondientes son también iguales, es decir, si las matrices son
idénticas. Observemos que, por definición, las matrices que son de diferente orden
no pueden ser iguales.
 
EJEMPLO

Si

DEFINICIÓN DE VECTOR (EN ÁLGEBRA MATRICIAL)


Una matriz que consta de una sola columna, es decir, una matriz m x l se conoce
como vector columna, y se expresa como

Las letras son números reales: los componentes del vector; es el i-ésimo
componente del vector u. Un vector columna que tiene m filas se dice que es un
vector de m componentes, o que es m-dimensional.
Análogamente, una matriz que contiene una sola fila, es decir, una matriz 1 x n, se
dice que es un vector fila y se expresa como

v= v=

Las letras son números reales: los componentes del vector; es el j-ésimo
componente del vector v. Un vector fila con n columnas se dice que es un vector
de n componentes, o que es n-dimensional.
EJEMPLO
Es una matriz 2 x 1, o sea, un vector columna de 2 dimensiones (o
bidimensional)

Es una matriz 5 x 1, o sea, un vector columna de 5 dimensiones (o


pentadimensional)

Es una matriz 1 x 3, o sea, un vector fila de 3 dimensiones (o


tridimensional)

Es una matriz 1 x 4, o sea, un vector fila de 4 dimensiones (o


tetradimensional)

Dos vectores fila que tienen el mismo número de columnas, o dos vectores
columna que tienen el mismo número de filas, se dice que son iguales solamente
si todos los elementos correspondientes son también iguales, es decir, si los
vectores son idénticos.

EJEMPLO

u= v= w= x=

u = w, pero u ≠ v, u ≠ x, y v ≠ w, v ≠ x, y w ≠ x.

NOTA: Con frecuencia es útil considerar a una matriz como compuesta de una
serie de vectores fila o de vectores columna; por ejemplo, la matriz
se puede considerar constituida por los dos vectores

columna

O bien. compuesta de los tres vectores fila

3.2 Métodos de solución en sistemas de ecuaciones lineales.


3.2.1 Eliminación Gaussiana.

Este método se aplica para resolver sistemas lineales de la forma:


El método de eliminación Gaussiana (simple), consiste en escalonar la matriz
aumentada del sistema:

Para obtener un sistema equivalente :

a'ij aij
Donde la notación se usa simplemente para denotar que el elemento
cambió. Se despejan las incógnitas comenzando con la última ecuación y hacia
arriba. Por esta razón, muchas veces se dice que el método de
eliminación Gaussiana consiste en la eliminación hacia adelante y sustitución
hacia atrás.

Ejemplo:

1. Resolver el siguiente sistema de ecuaciones:

Usando el método de eliminación Gaussiana (simple).

Solución. Escalonamos la matriz aumentada del sistema:


Y dividiendo el segundo renglón entre –3, tenemos la matriz equivalente:

Por lo tanto, el sistema equivale a:

De la última ecuación tenemos x3  10 ; sustituímos este valor en la ecuación de


arriba para obtener x2  18 ; sustituímos estos valores en la ecuación de arriba
para obtener x1  7 .

Por lo tanto, la solución del sistema es:

Resolver:

Usando eliminación Gaussiana (simple).

Solución. Escalonando la matriz aumentada del sistema:


Por lo tanto, el sistema equivale a:

x3  2
De la ecuación ( 3 ) obtenemos ; sustituímos arriba para obtener x2  4 ;

sustituímos arriba para obtener x1  4 .

Por lo tanto la solución del sistema es:

El método de eliminación Gaussiana (simple) puede presentar un problema


cuando uno de los elementos que se usan para hacer ceros, es cero.

Por ejemplo, supóngase que en algún paso del proceso de hacer ceros tenemos la siguiente
matriz:

Es claro que el elemento a22  0 no puede usarse para hacer ceros!

Este problema se puede resolver fácilmente intercambiando los renglones 2 y 3.


De hecho, el resultado que obtenemos es la matriz escalonada:
Sin embargo, el problema puede presentarse también si el elemento aquel es muy
cercano a cero.

Ejemplo: Resolver el siguiente sistema, usando eliminación Gaussiana (simple)

Solución. Usando eliminación Gaussiana (simple) obtenemos:

Que nos da el sistema equivalente:

2
x2 
De donde, 3 ; sustituímos arriba y obtenemos:

El resultado cambia drásticamente de acuerdo al número de cifras significativas


que se usen. Resumimos los resultados en la siguiente tabla:

# (*)
Cifras Error relativo
Significativas porcentual

3 0.667 -33 10,000 %

4 0.0067 -3 1,000 %

5 0.00067 0 100 %

0.00006
6 .3 10 %
7

0.66666
7 0.33 1%
67

1
x1 
Para calcular este error se tomó el valor verdadero de 3.

Ahora resolvemos el mismo sistema pero intercambiando los renglones 1 y 2

Lo cual nos da el sistema equivalente:

2
x2 
De donde obtenemos 3 ; sustituyendo arriba nos da:

Nuevamente tomamos distintas cifras significativas y resumimos los resultados en


la siguiente tabla:

# (*)
Cifras Error Relativo
Significativas Porcentual
3 0.667 0.333 0.1 %
4 0.6667 0.3333 0.01 %
5 0.66667 0.33333 0.001 %
6 0.666667 0.333333 0.0001 %
7 0.6666667 0.3333333 0.00001 %

En este último caso, vemos que el error relativo porcentual no varía drásticamente
como en la solución anterior.

Así, vemos que los elementos que son cercanos a cero, son elementos malos
para hacer ceros. En general, para evitar este problema se elige como elemento
para hacer ceros (el cual recibe el nombre de elemento pivotal o simplemente
pivote) como el elemento mayor en valor absoluto de entre todos los candidatos.

A este procedimiento se le llama pivoteo parcial y aplicado a la eliminación


Gaussiana, nos dá el llamado método de eliminación Gaussiana con pivoteo
(parcial).

Podemos resumir el pivoteo (parcial) como sigue:

 Para elegir el elemento pivote en la primer columna se escoge el elemento


mayor (con valor absoluto) de toda la primer columna.
 Para elegir el elemento pivote en la segunda columna, se escoge el
elemento mayor (con valor absoluto ) de toda la segunda columna

exceptuando el elemento a12 .

 Para la tercer columna se exceptúan los elementos a13 y a23 , etc.

En un diagrama matricial, tenemos que los elementos pivotes de cada columna se escogen de
entre los siguientes:
Ejemplo 1:

Usar eliminación Gaussiana con pivoteo para resolver el siguiente sistema:

Solución. Escribimos la matriz aumentada del sistema:

Para escoger el primer elemento pivote en la columna 1, tomamos el elemento


mayor con valor absoluto entre -1 , -2 y -0.2 , el cual obviamente es el -2 ; por
lo tanto intercambiamos el renglón 1 y 2 (éste es el primer pivoteo realizado):

Y procedemos a hacer ceros debajo del pivote. Para ello, multiplicamos el

1
renglón 1 por 2 y se lo sumamos al renglón 2. También, multiplicamos el

 0 .2
renglón 1 por 2 y lo sumamos al renglón 3. Esto nos da la matriz:

Olvidándonos del renglón 1 y de la columna 1, procedemos a escoger el pivote


de la columna 2, pero unicamente entre 0.5 y 1.25 , el cual obviamente resulta
ser 1.25. Por lo tanto intercambiamos los renglones 2 y 3 (éste es el segundo
pivoteo realizado):

Y procedemos a hacer ceros debajo del elemento pivote. Para ello multiplicamos

 .05
el renglón 2 por 1.25 y lo sumamos al renglón 3 para obtener:

La cual es una matriz escalonada. El sistema equivalente es:

Y con la sustitución hacia arriba, obtenemos la solución del sistema:

3.2.2 Matriz inversa.

El producto de una matriz por su inversa es igual a la matriz


identidad.

A · A -1 = A -1 · A = I
Se puede calcular la matriz inversa por dos métodos:

1º. Cálculo de la matriz inversa pòr determinantes

Ejemplo

1. Calculamos el determinante de la matriz, en el caso que el


determinante sea nulo la matriz no tendrá inversa.

2. Hallamos la matriz adjunta, que es aquella en la que cada


elemento se sustituye por su adjunto.
3. Calculamos la traspuesta de la matriz adjunta.

4. La matriz inversa es igual al inverso del valor de su determinante


por la matriz traspuesta de la adjunta.

2. Cálculo de la matriz inversa por el método de Gauss

Sea A una matriz cuadrada de orden n. Para calcular la matriz inversa


de A, que denotaremos como A -1 , seguiremos los siguientes pasos:

1º Construir una matriz del tipo M = (A | I), es decir, A está en la mitad


izquierda de M y la matriz identidad I en la derecha.

Consideremos una matriz 3x3 arbitraria


La ampliamos con la matriz identidad de orden 3.

2º Utilizando el método Gauss vamos a transformar la mitad izquierda,


A, en la matriz identidad, que ahora está a la derecha, y la matriz que
resulte en el lado derecho será la matriz inversa: A -1 .

F2 - F1

F3 + F2

F2 - F3

F1 + F2

(-1) F 2
La matriz inversa es:

Propiedades de la matriz inversa

(A · B) - 1 = B - 1 · A - 1

(A - 1 ) - 1 = A

(k · A) - 1 = k - 1 · A - 1

(A t ) - 1 = (A -1
)t

3.2.2 Gauss-Jordan.
Este método, que constituye una variación del método de eliminación de Gauss,
permite resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos
significativos en las operaciones aritméticas de la computadora. Este
procedimiento se distingue del método Gaussiano en que cuando se elimina una
incógnita, se elimina de todas las ecuaciones restantes, es decir, las que preceden
a la ecuación pivote así como de las que la siguen.

El método se ilustra mejor con un ejemplo. Resolvamos el siguiente conjunto de


ecuaciones

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500

0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3

0.3 X1 - 0.2 X2 + 10 X3 = 71.4000

Primero expresemos los coeficientes y el vector de términos independientes como


una matriz aumentada.

Se normaliza el primer renglón dividiendo entre 3 para obtener:

El término X1 se puede eliminar del segundo renglón restando 0.1 veces el


primero del segundo renglón. De una manera similar, restando 0.3 veces el
primero del tercer renglón se elimina el término con X1 del tercer renglón.
En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:

Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:

El tercer renglón se normaliza dividiendolo entre 10.010:

Finalmente, los términos con X3 se pueden reducir de la primera y segunda


ecuación para obtener:
Nótese que no se necesita sustitución hacia atrás para obtener la solución.

Las ventajas y desventajas de la eliminación gaussiana se aplican también al


método de Gauss-Jordan.

Aunque los métodos de Gauss-Jordan y de eliminación de Gauss pueden parecer


casi idénticos, el primero requiere aproximadamente 50% menos operaciones. Por
lo tanto, la eliminación gaussiana es el mé todo simple por excelencia en la
obtención de soluciones exactas a las ecuaciones lineales simultáneas. Una de las
principales razones para incluir el método de Gauss-Jordan, es la de proporcionar
un método directo para obtener la matriz inversa.

3.2.3 Regla de Cramer.

Dado un Sistema de Ecuaciones Lineales con dos incógnitas encontrar su


solución.
Como se dijo con anterioridad en el tema de Matrices un Sistema se Ecuaciones
Lineales se puede resolver por cualquiera de los métodos de Simultaneas como
son el Método Eliminación por Suma y Resta el de Sustitución el de Igualación ó el
de Graficas ahora lo resolveremos por la Regla de Cramer

Como se vio anteriormente la solución de un sistema de dos Ecuaciones con dos


Incógnitas esta dada por:

Solución que puede ser escrita con relación de Determinantes como

Y en forma simplificada:

en donde

Es el delta del Sistema y está formado por los Coeficientes,

Es el delta “x” y esta formado por las Constantes (en la columna de


“x”) y por los Coeficientes de “y” y
Que es el delta “y” y está formado por los Coeficientes de “x” y por
las Constantes (en la columna de “y”)

La Regla de Cramer se puede generalizar para resolver Sistemas de Ecuaciones


Lineales de n ecuaciones con n incógnitas, quedando escrita de la forma
siguiente.

Dónde:

Representa cualquiera de las n incógnitas

Es el determinante de los coeficientes de las incógnitas con las ecuaciones


ordenadas del sistema de ecuaciones.

Es el determinante que se forma cuando se sustituye los términos

constantes sobre la columna de la incógnita en

Ejemplo 1.

Resolver el Sistemas de Ecuaciones Lineales dado usando la Regla de Cramer.

Solución:

Realizaremos cuatro pasos en la solución de un Sistema de Ecuaciones Lineales


que son las siguientes:
Se calcula el delta del Sistema (Ds) formado por los Coeficientes del sistema de
ecuaciones lineales. (por cualquier método)

Conclusión: como hay solución única.

Calculamos ahora las deltas: y quedando formados como sigue:

Observen como los términos constantes ocupan la columna de la incógnita a


calcular. (marcada con asterisco) quedando:

Los cálculos se dejan como ejercicio al estudiante.

Se calculan las incógnitas x, y y z usando la regla Cramer.


Se comprueba la solución por sustitución en cualquiera de las ecuaciones dadas.

Ejemplo 2. Resolver el sistema de ecuaciones dado.

Solución. Igual que en el ejemplo anterior se Calcula por cualquier


método

Como entonces hay solución única


Calculamos las deltas y

Nuevamente estos cálculos se suprimen para que sea ejercicio para el estudiante.

Calculamos los valores de las variables


usando la regla Cramer.
Comprobamos la solución por sustitución en cualquier ecuación

Como sé podrá observar si se resuelven sistemas de ecuaciones de orden


superior el proceso se vuelve tedioso, y genera la fatiga mental si se hace a mano,
por lo que es recomendable el uso de la Computadora para dichos Sistemas de
Ecuaciones Lineales ( MAT-LAB ).

3.2.5 Métodos iterativos.

En matemática computacional, un método iterativo trata de resolver un problema


(como una ecuación o un sistema de ecuaciones) mediante aproximaciones
sucesivas a la solución, empezando desde una estimación inicial. Esta
aproximación contrasta con los métodos directos, que tratan de resolver el
problema de una sola vez (como resolver un sistema de
ecuaciones Ax=b encontrando la inversa de la matriz A). Los métodos iterativos
son útiles para resolver problemas que involucran un número grande de variables
(a veces del orden de millones), donde los métodos directos tendrían un coste
prohibitivo incluso con la potencia del mejor computador disponible.
3.2.5.1 Jacobi

Con el método de Jacobi aproxima la solución del siguiente sistema de ecuaciones


lineales, con 5 iteraciones y determina la cantidad de cifras significativas exactas

de la quinta iteración. Utiliza como iteración inicial .

Nota: Para los cálculos utiliza hasta 4 cifras después del punto decimal.

Solución

Primeramente notamos que la matriz de coeficientes del sistema sí es


diagonalmente dominante. Por lo tanto, podemos emplear la fórmula recursiva del
método de Jacobi, obteniendo:

Para la primera iteración consideraremos , de donde:


Para la segunda iteración utilizamos los valores de la primera iteración:

Similarmente para las otras tres iteraciones resulta la tabla de aproximaciones:

Iteración
0 0.0000 0.0000 0.0000
1 2.0000 0.6000 2.0000
2 1.4250 1.0000 2.2800
3 1.3050 0.9705 2.0850
4 1.3574 0.9390 2.0669
5 1.3659 0.9424 2.0837

Los errores relativos para cada variable son:

De esta forma se puede asegurar que la aproximación para , y en la


quinta iteración sólo tienen dos cifras significativas exacta.

3.2.5.3 Gauss-Seidel.
Es un método iterativo, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:

Ax= b

Ejemplo

Resuelva el siguiente sistema de ecuaciones lineales usando el método iterativo


de Gauss – Seidel

4x1 + 10x2 + 8x3 = 142

2x1 + 6x2 + 7x3 = 89.5

9x1 + 2x2 + 3x3= 56.5

Paso 1.

Ordenar los renglones para que pueda ser resuelto.

9x1 + 2x2 + 3x3= 56.5

4x1 + 10x2 + 8x3 = 142

2x1 + 6x2 + 7x3 = 89.5

Paso 2.

Determinar si puede ser resuelta por este método, determinando si es


predominantemente dominante en su diagonal.

Paso 3.

Despejar las variables.

X1 = -2x2/9 – 3x3/9 + 56.5/9 = -0.2222x2 – 0.3333x3 + 6.2778


X2 = -4x1/10 – 8x3/10 +142/10 = - 0.4 – 0.8x3 + 14.2

X3 = - 2x1/7 – 6x2/7 + 89.5/7 = - 0.2857x1 – 0.8571x2 + 12.7857

Paso 4.

Se les asigna un valor inicial de 0 x0 = [0, 0, 0, 0]

Paso 5
Se substituye esta solución temporal en las ecuaciones para obtener las nuevas
x’s., pero solo cuando no se cuente con la anterior

Iteración 1
X1 = - 0.2222(0) – 0.3333(0) + 6.2778 = 6.2778

X2 = - 0.4(6.2778) – 0.8(0) + 14.2 = 11.6888

X3 = - 0.2857(6.2778) – 0.8571(11.6888) + 12.7857 = 0.9736

Se sustituye en alguna ecuación y se observa si el resultado ya es adecuado:

4(6.2778) + 10(11.6888) + 8(0.9736) =

25.1112 + 116.888 + 7.7888 = 149.788 <> 142

error = abs(142 – 149.788) = 7.788

Pero si 1% = 1.42 entonces error = 7.78 = 5.48%

Aun el error es muy grande. Se repite el paso 5, pero tomado los valores
obtenidos en la ecuación anterior

Iteración 2
X1 = - 0.2222(11.6888) – 0.3333(0.9736) + 6.2778 = 3.356

X2 = - 0.4(3.356) – 0.8(0.9736) + 14.2 = 12.0787

X3 = - 0.2857(3.356) – 0.8571(12.0787) + 12.7857 = 1.4742


Se evalúa en una ecuación en este caso en la ecuación 1

4(3.356) + 120.787 + 8(1.4742)= 146.0046 <> 142

Si 1% = 1.42

error = abs(142 – 146.0046) = 4.0046

entonces error = 2.82%

Iteración 3.

X1 = - 0.2222(12.0787) – 0.3333(1.4742) + 6.2778 = 5.0407

X2 = - 0.4(5.0407) – 0.8(1.4742) + 14.2 = 11.0043

X3 = - 0.2857(5.0407) – 0.8571(11.0043) + 12.7857 = 1.9137

Se sustituye

4(5.0407) + 110.043 + 8(1.9137)= 145.51, diferencia 3.51609

error = 2.47%

Iteración 4.

X1 = - 0.2222(11.0043) – 0.3333(1.9137) + 6.2778 = 3.1948

X2 = - 0.4(3.1948) – 0.8(1.913) + 14.2 = 11.3916

X3 = - 0.2857(3.1948) – 0.8571(11.3916) + 12.7857 = 2.1092

Se sustituye

4(3.1948) + 113.916 + 8(2.1092)= 143.5688, diferencia 1.5688

error = 1.10%

Iteración 5.

X1 = - 0.2222(11.3916) – 0.3333(2.1092) + 6.2778 = 3.0435


X2 = - 0.4(3.0435) – 0.8(2.1092) + 14.2 = 11.2952

X3 = - 0.2857(3.0435) – 0.8571(11.2952) + 12.7857 = 2.2350

Se sustituye

4(3.0435) + 112.952 + 8(2.235)= 143.006, diferencia 1.006

error = 0.7%

3.3 Teoría de sistemas de ecuaciones no lineales.

Un sistema de ecuaciones es no lineal, cuando al menos una de sus


ecuaciones no es de primer grado.

La resolución de estos sistemas se suele hacer por el método de


sustitución, para ello seguiremos los siguientes pasos:

1º Se despeja una incógnita en una de las ecuaciones,


preferentemente en la de primer grado.

y= 7 −x

2º Se sustituye el valor de la incógnita despejada en la otra ecuación.


x 2 + (7 − x) 2 = 25

3º Se resuelve la ecuación resultante.

x 2 + 49 − 14x + x 2 = 25

2x 2 − 14x + 24 = 0

x 2 − 7x + 12 = 0

4º Cada uno de los valores obtenidos se sustituye en la otra ecuación ,


se obtienen así los valores correspondientes de la otra incógnita.

x= 3 y= 7 −3 y =4

x= 4 y= 7 −4 y =3
3.4 Métodos de solución.

3.4.1 Iterativo secuencial.

Es el método que resuelve sistemas de ecuaciones no lineales, que consiste en ir


calculando aproximaciones a la solución del problema.

Ejemplo:

a)

f1(x1.x2)=x12+x22-4=0

f2(x1.x2)=x2-x12=0

b)

f1(x1x2)=10(x2-x12)=0

f1(x1x2)=1-x1=0

c)
f(x1,x2x3)= x1x2x3-10x13+x2=0

f(x1,x2x3)= x1+2x2x3+sen(x2)-15=0

f(x1,x2x3)= x22-5x1x3-3x33+3=0

Encontrar el sistema de ecuaciones no lineales

f1(x,y)= x2-10x+y2+8=0

f2(x,y)= xy2+x-10y+8=0

Solución:

Despejar x Despejar y

x= x2+y2+8 y= xy2+x+8

10 10

Con la notación de la ecuación

xk+1=(xk)2+(yk)2+8 yk+1=xk(yk)2+(yk)2+8

10 10

con los valores iniciales x0=0, y0=0, se inicia el proceso iterativo

Primera iteración.

x1=02+02+8/10=0.8 y1=0(0)2+0+8/10=0.8

Segunda iteración

x2=(0.8)2+(0.8)2+8/10 = 0.928 y2= 0.8(0.8)2+0.8+8/10= 0.9312

Al continuar este método, se muestra la siguiente sucesión de vectores.

k xx yk

0 0.00000 0.00000

1 0.80000 0.80000
2 0.92800 0.93120

3 0.97283 0.97327

4 0.98937 0.98944

5 0.99578 0.99579

6 0.99832 0.99832

7 0.99933 0.99933

8 0.99973 0.99973

9 0.99989 0.99989

10 0.99996 0.99996

11 0.99998 0.99998

12 0.99999 0.99999

13 1.00000 1.00000

3.4.2 Newton.

El método numérico de Newton es una aplicación del cálculo diferencial que se


utiliza para hallar los ceros de una función derivable de enésimo grado con la
precisión deseada. Los procedimientos para hallar las raíces o ceros de funciones
lineales o cuadráticas a partir de los coeficientes de la ecuación son sencillos y
exactos. Aunque existen fórmulas para hallar las raíces de ecuaciones de tercer y
cuarto grado, dichas formulas son muy complicadas y nada prácticas. Un teorema,
atribuido a Abel, establece que no es posible encontrar una fórmula general, en
términos de los coeficientes de la ecuación, que permita hallar los ceros exactos
de una función polinomial de grado cinco o mayor. Esto significa que, en general,
sólo se pueden hallar aproximaciones para los ceros de funciones de grado mayor
que cuatro aplicando métodos numéricos.

Descripción del Método de Newton:


Procedimiento

Utilice el método de Newton para calcular la raíz real de la ecuación que se indica
(con cuatro cifras decimales).

Soluciones.
3.4.3 Otros métodos mejorados.

Método de Bairstow.
El método de Bairstow es un método iterativo, basado en el método de Müller y
de Newton Raphson. Dado un polinonio fn(x) se encuentran dos factores, un
polinomio cuadrático f2(x) = x2 – rx – s y fn-2(x). El procedimiento general para el
método de Bairstow es:

1. Dado fn(x) y r0 y s0
2. Utilizando el método de NR calculamos f2(x) = x2 – r0x – s0 y fn-2(x), tal que,
el residuo de fn(x)/ f2(x) sea igual a cero.
3. Se determinan la raíces f2(x), utilizando la formula general.
4. Se calcula fn-2(x)= fn(x)/ f2(x).
5. Hacemos fn(x)= fn-2(x)
6. Si el grado del polinomio es mayor que tres regresamos al paso 2
7. Si no terminamos

La principal diferencia de este método, respecto a otros, es que permite calcular


todas las raíces de un polinomio (reales e imaginarias).
Para calcular la división de polinomios, hacemos uso de la división sintética. Así
dado
fn(x) = anxn + an-1xn-1 + … + a2x2 + a1x + a0
Al dividir entre f2(x) = x2 – rx – s, tenemos como resultado el siguiente polinomio
fn-2(x) = bnxn-2 + bn-1xn-3 + … + b3x + b2
Con un residuo R = b1(x-r) + b0, el residuo será cero solo si b1 y b0 lo son.
Los términos b, los calculamos utilizamos división sintética, la cual puede
resolverse utilizando la siguiente relación de recurrencia

bn = an
bn-1 = an-1 + rbn
bi = ai + rbi+1 + sbi+2

Una manera de determinar los valores de r y s que hacen cero el residuo es


utilizar el Método de Newton-Raphson. Para ello necesitamos una aproximación
lineal de b1 y b0 respecto a r y s la cual calculamos utilizando la serie de Taylor

Donde los valores de r y s están dados y calculamos los incrementos dr y ds que


hacen a b1(r+dr, s+ds) y b0(r+dr, s+dr) igual a cero. El sistema de ecuaciones
que tenemos que resolver es:
Bairstow muestra que las derivadas parciales pueden obtener haciendo un
procedimiento similar a la división sintética, así

cn = bn

cn-1 = bn-1 + rcn

ci = bi + rci+1 + sci+2

Donde

Sustituyendo término

Ejemplo 1

Dado el polinomio f5(x) = x5 - 3.5x4 + 2.75x3 + 2.125x2 - 3.875x + 1.25, determinar


los valores de r y s que hacen el resido igual a cero. Considere r0 = -1 y s0 = 2.

Solución.

Iteración 1.

La división sintética con el polinomio f2(x) = x2 -x + 2.0 da como resultado

f3(x) = x3 - 4.5x2 + 9.25x - 16.125 Residuo = {30.75, -61.75}

Aplicando el método de Newton tenemos


-43.875 16.75 dr -30.75

108.125 -43.875 ds 61.75

De donde
r1 = -1.0 + 2.7636812508572213 =1.7636812508572213
s1 = 2.0 + 5.403374022767796 =7.403374022767796

Iteración 2.

La división sintética con el polinomio f2(x) = x2 -1.7636812508572213x -


7.403374022767796 da como resultado

f3(x)=x3 - 1.7363187491427787x2 + 7.091061199392814x - 1.776754563401905

Residuo = {51.75640698828836, 105.68578319650365}

Aplicando el método de Newton tenemos

27.628006 14.542693 dr -51.75640

208.148405 27.62800 ds -105.68578

De donde

r2 = 1.7636812508572213 - 0.04728019113442016 = 1.7164010597228012


s2 = 7.403374022767796 - 3.469106187802152 = 3.934267834965644

Iteración 3.
La división sintética con el polinomio f2(x)= x2 - 1.7164010597228012x -
3.934267834965644 da como resultado

f3(x)=x3 -1.7835989402771988x2 +3.622896723753395x + 1.3261878347051992

Residuo = {12.654716254544885, 28.1881465309956}


Aplicando el método de Newton tenemos
13.83497 7.44182 dr -12.65471

65.679212 13.83497 ds -28.18814

De donde

r3 = 1.7164010597228012 - 0.11666951305731528 = 1.599731546665486


s3 = 3.934267834965644 - 1.4835870659929915 = 2.4506807689726524
En resumen
k r s Residuo

0 -1 2 30.75 -61.75

1 1.76368 7.403374 51.756406 105.68578

2 1.71640 3.93426 12.65471 28.18814

3 1.599731 2.450680 2.89958 8.15467

4 1.33354 2.18666 0.760122 2.522228

5 1.11826 2.11302 0.271940 0.607688

6 1.02705 2.02317 0.04313 0.11185

7 1.00165 2.00153 0.00277 0.00634

8 1.00000 2.00000 1.13930E-5 2.67534E-5

La solución es:

f3(x) = x3 - 2.53x2 + 2.25x - 0.625 y f2(x) = x2 - x - 2

Las raíces de f2(x) = x2 - x - 2, son

x1 = 2

x2 = -1

Si repetimos el ejemplo pero ahora considerando el polinomio f3(x) = x3 - 2.53x2 +


2.25x - 0.625 , podemos calcular el total de las raíces del polinomio original.

Ejemplo 2

Dado el polinomio f5(x) = x5 - 3.5x4 + 2.75x3 + 2.125x2 - 3.875x + 1.25, determinar


las raíces de este polinomio. Considere r0 = -1 y s0 = -1.

Paso 1.

f5(x) = x5 - 3.5x4 + 2.75x3 + 2.125x2 - 3.875x + 1.25

f5(x) =( x3 - 4x2 + 5.25x - 2.5)*( x2 +0.5x - 0.5)


Las raíces de x2 +0.5x - 0.5=0 son

x1 = 0.5

x2 =-1.0

Paso 2.
f3(x) = x3 - 4x2 + 5.25x - 2.5

f3(x) =(x - 2)*(x2 - 2x +1.25)

Las raíces de x2 - 2x +1.25=0 son

x3 = 1.0 + j0.5

x4 =-1.0 - j0.5

Paso 3

f1(x) =(x - 2)

La raíz de este polinomio es

x5 = 2;

Todas la raíces de f5(x) son x = [0.5, 1.0, (1.0 + j0.5), (1 - j0.5), 2]

Unidad 4 Ajuste de Funciones.

4.1 Fundamentos de estadística.

La Estadística es una ciencia formal que estudia la recolección, análisis e


interpretación de datos de una muestra representativa, ya sea para ayudar en
la toma de decisiones o para explicar condiciones regulares o irregulares de algún
fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin
embargo, la estadística es más que eso, es decir, es el vehículo que permite llevar
a cabo el proceso relacionado con la investigación científica.

Es transversal a una amplia variedad de disciplinas, desde la física hasta


las ciencias sociales, desde las ciencias de la saludhasta el control de calidad. Se
usa para la toma de decisiones en áreas de negocios o
instituciones gubernamentales.

La estadística se divide en dos grandes áreas:

Estadística descriptiva: Se dedica a la descripción, visualización y resumen de


datos originados a partir de los fenómenos de estudio. Los datos pueden ser
resumidos numérica o gráficamente. Ejemplos básicos de parámetros
estadísticos son: lamedia y la desviación estándar. Algunos ejemplos gráficos
son: histograma, pirámide poblacional, gráfico circular, entre otros.

Estadística inferencial: Se dedica a la generación de los modelos, inferencias y


predicciones asociadas a los fenómenos en cuestión teniendo en cuenta
la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y
extraer inferencias acerca de la población bajo estudio. Estas inferencias pueden
tomar la forma de respuestas a preguntas si/no (prueba de hipótesis),
estimaciones de unas características numéricas (estimación), pronósticos de
futuras observaciones, descripciones de asociación (correlación) o modelamiento
de relaciones entre variables (análisis de regresión). Otras técnicas
de modelamiento incluyen anova, series de tiempo y minería de datos.

Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay


también una disciplina llamada estadística matemática, la que se refiere a las
bases teóricas de la materia. La palabra «estadísticas» también se refiere al
resultado de aplicar un algoritmo estadístico a un conjunto de datos, como
en estadísticas económicas, estadísticas criminales, entre otros

4.1.1 Conjunto de mediciones experiementales.

Un objetivo común para un proyecto de investigación estadística es investigar la


causalidad, y en particular extraer una conclusión en el efecto que algunos
cambios en los valores de predictores o variables independientes tienen sobre una
respuesta o variables dependientes. Hay dos grandes tipos de estudios
estadísticos para estudiar causalidad: estudios experimentales y observacionales.
En ambos tipos de estudios, el efecto de las diferencias de una variable
independiente (o variables) en el comportamiento de una variable dependiente es
observado. La diferencia entre los dos tipos es la forma en que el estudio es
conducido. Cada uno de ellos puede ser muy efectivo.

Un estudio experimental implica tomar mediciones del sistema bajo estudio,


manipular el sistema y luego tomar mediciones adicionales usando el mismo
procedimiento para determinar si la manipulación ha modificado los valores de las
mediciones. En contraste, un estudio observacional no necesita manipulación
experimental. Por el contrario, los datos son recogidos y las correlaciones entre
predictores y la respuesta son investigadas.

Un ejemplo de un estudio experimental es el famoso experimento de Hawthorne el


cual pretendía probar cambios en el ambiente de trabajo en la planta Hawthorne
de la Western Electric Company. Los investigadores estaban interesados en si al
incrementar la iluminación en un ambiente de trabajo, la producción de los
trabajadores aumentaba. Los investigadores primero midieron la productividad de
la planta y luego modificaron la iluminación en un área de la planta para ver si
cambios en la iluminación afectarían la productividad. La productividad mejoró
bajo todas las condiciones experimentales. Sin embargo, el estudio fue muy
criticado por errores en los procedimientos experimentales, específicamente la
falta de un grupo control y seguimiento.

Un ejemplo de un estudio observacional es un estudio que explora la correlación


entre fumar y el cáncer de pulmón. Este tipo de estudio normalmente usa una
encuesta para recoger observaciones acerca del área de interés y luego produce
un análisis estadístico. En este caso, los investigadores recogerían observaciones
de fumadores y no fumadores y luego mirarían los casos de cáncer de pulmón en
ambos grupos.

Los pasos básicos para un experimento son:


 Planeamiento estadístico de la investigación, lo cual incluye encontrar
fuentes de información, selección de material disponible en el área y
consideraciones éticas para la investigación y el método propuesto. Se
plantea un problema de estudio,
 Diseñar el experimento concentrándose en el modelo y la interacción entre
variables independientes y dependientes. Se realiza un muestreo
consistente en la recolección de datos referentes al fenómeno o variable
que deseamos estudiar. Se propone un modelo de probabilidad, cuyos
parámetros se estiman mediante estadísticos a partir de los datos de
muestreo. Sin embargo, se mantiene lo que se denominan «hipótesis
sostenidas» (que no son sometidas a comprobación). Se valida el modelo
comparándolo con lo que sucede en la realidad. Se utiliza métodos
estadísticos conocidos como test de hipótesis o prueba de significación.

 Se producen estadísticas descriptivas.

 Inferencia estadística. Se llega a un consenso acerca de qué dicen las


observaciones acerca del mundo que observamos.

 Se utiliza el modelo validado para tomar decisiones o predecir


acontecimientos futuros. Se produce un reporte final con los resultados del
estudio.

Niveles de medición

Hay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro


tipos de niveles de medición (nominal, ordinal, intervalo y razón) tienen diferentes
grados de uso en la investigación estadística. Las medidas de razón, en donde un
valor cero y distancias entre diferentes mediciones son definidas, dan la mayor
flexibilidad en métodos estadísticos que pueden ser usados para analizar los
datos. Las medidas de intervalo tienen distancias interpretables entre mediciones,
pero un valor cero sin significado (como las mediciones de coeficiente intelectual o
temperatura en grados Celsius). Las medidas ordinales tienen imprecisas
diferencias entre valores consecutivos, pero un orden interpretable para sus
valores. Las medidas nominales no tienen ningún rango interpretable entre sus
valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se


trata de agrupar objetos en clases. La escala ordinal, por su parte, recurre a la
propiedad de «orden» de los números. La escala de intervalos iguales está
caracterizada por una unidad de medida común y constante. Es importante
destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no
refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta
escala, además de poseer las características de la escala ordinal, permite
determinar la magnitud de los intervalos (distancia) entre todos los elementos de la
escala. La escala de coeficientes o Razones es el nivel de medida más elevado y
se diferencia de las escalas de intervalos iguales únicamente por poseer un punto
cero propio como origen; es decir que el valor cero de esta escala significa
ausencia de la magnitud que estamos midiendo. Si se observa una carencia total
de propiedad, se dispone de una unidad de medida para el efecto. A iguales
diferencias entre los números asignados corresponden iguales diferencias en el
grado de atributo presente en el objeto de estudio.

Técnicas de análisis estadístico

Algunos tests y procedimientos para investigación de observaciones bien


conocidos son:

 Prueba t de Student
 Prueba de χ²

 Análisis de varianza (ANOVA)


 U de Mann-Whitney

 Análisis de regresión

 Correlación

 Iconografía de las correlaciones

 Frecuencia estadística

 Análisis de frecuencia acumulada

 Prueba de la diferencia menos significante de Fisher

 Coeficiente de correlación producto momento de Pearson

 Coeficiente de correlación de rangos de Spearman

 Análisis factorial exploratorio

 Análisis factorial confirmatorio

La estadística es una herramienta básica en negocios y producción. Es usada


para entender la variabilidad de sistemas de medición, control de procesos (como
en control estadístico de procesos o SPC (CEP)), para compilar datos y para
tomar decisiones. En estas aplicaciones es una herramienta clave, y
probablemente la única herramienta disponible.

4.1.2 Media y desviación estándar.


La media aritmética (y) de una muestra, se define como la suma de los datos
individuales (yi) dividida entre el número de puntos ( n ).

La desviación estándar ( s ) es una medida del espaciamiento de los datos


individuales, respecto, a la media:

St = = ( yi - y )2 = es la suma total de los cuadrados de los residuos entre los


datos y la media.

La varianza (S2 ) es la desviación estándar al cuadrado:

S2 = ( yi - y )2 = St (4.3)

n-1 n-1

Otra manera de calcular la desviación estándar es:

S2 = yi - (yi)2 / n (4.4)

n -1

Coeficiente de variación (c.v.) es la razón de la desviación estándar a la media:

c.v. = S/y (100)%

Que es similar al ERP, es decir, es la razón del error de medición (s) , a un


estimado del valor real ( y ).

Ejemplo 4.1. Calcule la media, la desviación estándar y la varianza para los datos
siguientes que representan las mediciones del coeficiente de expansión térmica
para acero estructural:

( x106 pulg/pulg °F )
6.495 6.595 6.615 6.635 6.485 6.555

6.665 6.505 6.435 6.625 6.715 6.655

6.775 6.625 6.715 6.575 6.655 6.605

6.565 6.515 6.555 6.395 6.775 6.685

y = 6.6008

S2 = 0.009316

S = 0.096519

Una manera de representar la distribución de datos alrededor de la media es


mediante un histograma, ya que éste proporciona una representación visual
simple de la distribución.

Para los datos del ejemplo tenemos:

límite
i yi (yi-y) frecuencia inferior límite superior

1 6.395 0.042025 1 6.36 6.4

2 6.435 0.027225 1 6.4 6.44

3 6.485 0.013225

4 6.495 0.010025 4 6.48 6.52

5 6.505 0.009025

6 6.515 0.007225

7 6.555 0.002025 2 6.52 6.56

8 6.555 0.002025

9 6.565 0.001225

10 6.757 0.000025 3 6.56 6.6


11 6.595 0.000225

12 6.605 0.000625

13 6.615 0.000625

14 6.625 0.001225 5 6.6 6.69

15 6.625 0.003025

16 6.635 0.003025

17 6.655 0.003025

18 6.655 0.007225 3 6.64 6.68

19 6.655 0.003025

20 6.685 0.013225 3 6.68 6.72

21 6.715 0.013225

22 6.715 0.013225

23 6.755 0.024025 1 6.72 6.76

24 6.775 0.003625 1 6.76 6.8

4.2 Interpolación.
En numerosos fenómenos de la naturaleza observamos una cierta regularidad en
la forma de producirse, esto nos permite sacar conclusiones de la marcha de un
fenómeno en situaciones que no hemos medido directamente.
La interpolación consiste en hallar un dato dentro de un intervalo en el que
conocemos los valores en los extremos.
El problema general de la interpolación se nos presenta cuando nos dan una
función de la cual solo conocemos una serie de puntos de la misma:
(xo, yo), (x1, y1),........., (xn, yn)
4.2.1 Polinomios de interpolación con diferencias divididas de Newton.

Las diferencias divididas finitas de Newton, se define de la siguiente manera:

f ( xi )  f ( x j )
f [ xi , x j ] 
xi  x j

f [ xi , x j ]  f [ x j , xk ]
f [ xi , x j , xk ] 
xi  xk

f [ xn ,, x1 ]  f [ xn 1 ,, x0 ]
f [ xn , xn 1 ,, x1 , x0 ] 
xn  x0

A manera de ejemplo citemos el siguiente caso específico :

f [ x3 , x2 , x1 ]  f [ x2 , x1 , x0 ]
f [ x3 , x2 , x1 , x0 ] 
x3  x0

Donde a su vez:

f [ x3 , x2 ]  f [ x2 , x1 ]
f [ x3 , x2 , x1 ] 
x3  x1

Y
f [ x2 , x1 ]  f [ x1 , x0 ]
f [ x2 , x1 , x0 ] 
x2  x01

Y donde a su vez:

f ( x3 )  f ( x2 )
f [ x3 , x2 ] 
x3  x2

Etc.

Podemos ahora definir nuestro primer tipo de polinomio de interpolación.

POLINOMIO DE INTERPOLACIÓN DE NEWTON CON DIFERENCIAS


DIVIDIDAS.

Dados n  1 datos:

El polinomio de interpolación de Newton se define de la siguiente manera:

f  x   b0  b1  x  x0   b2  x  x0  x  x1     bn  x  x0  x  x1   x  xn 1 

Donde:

b0  f  x0 

b1  f [ x1 , x0 ]

b2  f  x2 , x1 , x0 


bn  f  xn ,, x0 

Para calcular los coeficientes b0 , b1 ,, bn , es conveniente construir una tabla de


diferencias divididas como la siguiente:
Obsérvese que los coeficientes del polinomio de interpolación de Newton, se
encuentran en la parte superior de la tabla de diferencias divididas.

Ejemplo 1. Calcular la tabla de diferencias divididas finitas con los siguientes


datos:

Y utilizar la información de dicha tabla, para construir el polinomio de interpolación


de Newton.

Solución.

Procedemos como sigue:

Por lo tanto el polinomio de interpolación de Newton es:

f ( x)  4  2( x  2)  0.25( x  2)( x  1)  0.3( x  2)( x  1)( x  2)


Ejemplo 2. Calcular la tabla de diferencias divididas finitas con los siguientes
datos:

Y usar la información en la tabla, para construir el polinomio de interpolación de


Newton.

Solución. Procedemos como sigue:

Por lo tanto el polinomio de interpolación de Newton nos queda:

f ( x)  5  3( x  3)  1.66667( x  3)( x  2)  0.20238( x  3)( x  2)( x)

Antes de ver el siguiente tipo de polinomio de interpolación, veamos como el


imponer la restricción del grado mínimo, implica la unicidad del polinomio de
interpolación.

TEOREMA.

x0 , x1 ,, xn
Si son números reales distintos, entonces para valores arbitrarios

y0 , y1 ,, yn existe un polinomio único f n  x  , de a lo más grado n, y tal que:

f n  xi   yi para toda i  0,1,2,, n


DEMOSTRACIÓN.

En realidad, no probaremos formalmente la existencia de un polinomio de


interpolación, aunque informalmente aceptamos que dada cualquier tabla de
datos, el polinomio de Newton siempre existe.

Probemos la unicidad del polinomio de interpolación.

 
Supongamos que g n x es otro polinomio de interpolación de a lo más grado n,

     
Sea hn x  f n x  g n x

 hn  xi   f n  xi   g n  xi   yi  yi  0 para todo i  0,1,2, n

hn  x  tiene n  1 raíces distintas, y es un polinomio de grado a lo


Por lo tanto,

 
más n, esto solamente es posible si hn x  0 .

 fn  x  gn  x

Que es lo que queríamos probar.

Sin embargo, aunque el polinomio de interpolación es único, pueden existir


diversas formas de encontrarlo. Una, es mediante el polinomio de Newton, otra
mediante el polinomio de Lagrange.

4.2.1.1 Interpolación lineal.

La fórmula más simple de interpolación es la de conectar dos puntos con una linea
recta. Este método, llamado Interpolación Lineal, se muestra en la figura siguiente .
Usando triángulos semejantes, se tiene:

(
2
)

Que se puede reordenar como:

(
3
)

La cuál es la fórmula de interpolación lineal. La notación f1(X) indica que se trata


de un polinomio de interpolación de primer orden. Nótese que además de
representar la pendiente de la línea que conecta los dos puntos, el término [ f(X1)
- f(X2) ] / (X1 - X2) es una aproximación de diferencias divididas finitas a la primera
derivada. En general, entre mas pequeño sea el intervalo entre los puntos, más
exacta será la aproximación.
EJEMPLO.

Calcúlese el logaritmo natural de 2 (ln 2) usando interpolación lineal.

Primero, llévese a cabo los cálculos interpolando entre ln 1 = 0 y ln 6 =


1.7917595.

Después repítase el procedimiento, pero usando un intervalo más pequeño desde


ln 1 a ln 4 = 1.3862944.

Nótese que el valor real de ln 2 = 0. 69314718

SOLUCIÓN:

Evaluando la fórmula de interpolación lineal (3) de X = 1 a X = 6 da:

La cual representa un error porcentual de e% = 48.3 %. Usando el intervalo más


pequeño desde X = 1 a X = 4 da:

Por lo contrario, usando el intervalo más pequeño reduce el error relativo


porcentual a e% = 33.3%.
4.2.1.2 Interpolación cuadrática.

El error en el ejemplo anterior se debe a que se aproxima a una curva mediante


una linea recta. Por consiguiente, una estrategia que mejora la aproximación es la
de introducir cierta curvatura en a linea que conecta a los puntos. Si se dispone de
tres puntos lo anterior se puede llevar a cabo con un polinomio de segundo orden
(llamado tambien polinomio cuadrático o parábola). Una manera conveniente para este
caso es:

(
4
)

Nótese que aunque la ecuación (4) parezca diferente de la ecuación general de un


polinomio (1), las dos ecuaciones son equivalentes.

Esto se puede demostrar si se multiplican los términos de la ecuación (4) y obtener:

(
5
)

O, agrupar términos:

(
6
)

En donde:

(
7
)
De esta manera, las ecuaciones (1) y (4) son fórmulas alternativas equivalentes
del único polinomio de segundo grado que une a los tres puntos.

Se puede usar un procedimiento simple para determinar los valores de los


coeficientes. Para b0, se usa la ecuación (4) con X = X0, y se obtiene

(
b0 = f(X0) 8
)

Sustituyendo la ecuación (8) en la ecuación (4) y evaluando en X = X1 se obtiene:

(
9
)

Y por último, las ecuaciones (8) y (9) se sustituyen en la ecuación (4), y se evalua
ésta en X = X2 y se obtiene:

(1
0)

Nótese que, al igual que en el caso de interpolación lineal, b1 aún representa la


pendiente de la línea que une los puntos X0 y X1. Por lo tanto, los primeros dos
términos de la ecuación (4) son equivalentes a la interpolación de X0 a X1, como
se especificó anteriormente en la ecuación (3). El último término, b2(X-X0)(X-X1),
introduce la curvatura de segundo orden en la fórmula.

Ejemplo

Ajústese el polinomio de segundo orden a los tres puntos usados en el ejemplo


anterior
f (X0) = 0.0000
X0 = 1
000
f (X1) = 1.3862
X1 = 4
944
f (X2) = 1.7917
X2 = 6
595

Úsese el polinomio para evaluar ln 2

SOLUCIÓN:

Aplicando la ecuación (8) da:

b0 = 0

La ecuación (9) genera:

Y la ecuación (10) da:

Sustituyendo estos valores en la ecuación (4) se obtiene la fórmula cuadrática:

f 2 ( X ) = 0 + 0.4620981 (X - 1) - 0.05187312 (X - 1) (X - 4)

Que se evalúa en X = 2 y se obtiene

f 2 ( 2 ) = 0.5658443
Lo que representa un error porcentual del e% = 18.4%. Por lo tanto, mejora la
interpolación comparada con los resultados obtenidos al usar una línea recta.

4.2.2 Polinomios de interpolación de Lagrange.

El polinomio de interpolación de Lagrange, simplemente es una reformulación del polinomio de


Newton que evita los cálculos de las diferencias divididas. Este se puede representar
concretamente como:

(
1
)

En donde:

(
2
)

En donde denota el "producto de".

Por ejemplo, la versión lineal (n = 1) es:

(
3
)

Y la versión de segundo orden es:


(
4
)

Al igual que en el método de Newton, la versión de Lagrange tiene un error


aproximado dado por:

(
5
)

La ecuación (1) se deriva directemente del polinomio de Newton. Sin embargo, la


razon fundamental de la formulación de Lagrange se puede comprender
directamente notando que cada término Li(X) será 1 en X=Xi y 0 en todos los
demas puntos.

Por lo tanto, cada producto Li(X) f(Xi) toma un valor de f(Xi) en el punto Xi. Por
consiguiente la sumatoria de todos los productos, dada por la ecuación (1) es el
único polinomio de n-ésimo orden que pasa exactamente por los n+1 puntos.

Ejemplo

Úsese un polinomio de interpolación de Lagrange de primer y segundo orden para


evaluar ln 2 en base a los datos:

i X f(X)
0 1.0 0.000 0000
1 4.0 1.386 2944
2 6.0 1.791 7595

Solución:

El polinomio de primer orden es:


Y, por lo tanto, la aproximación en X = 2 es

De manera similar, el polinomio de segundo orden se desarrolla como:

Como se expresaba, ambos resultados son similares a los que se obtuvieron


previamente usando la interpolación polinomial de Newton.

4.3 Regresión de mínimos cuadrados.

El procedimiento mas objetivos para ajustar una recta a un conjunto de datos


presentados en un diagrama de dispersión se conoce como "el método de los
mínimos cuadrados". La recta resultante presenta dos características importantes:

1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta


de ajuste

∑ (Y ー - Y) = 0.

2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra


recta daría

Una suma menor de las desviaciones elevadas al cuadrado ∑ (Y ー - Y)² → 0


(mínima).

El procedimiento consiste entonces en minimizar los resid uos al cuadrado Ci²

Re emplazando nos queda


La obtención de los valores de a y b que minimizan esta función es un problema
que se puede resolver recurriendo a la derivación parcial de la función en términos
de a y b: llamemos G a la función que se va a minimizar:

Tomemos las derivadas parciales de G respecto de a y b que son las incógnitas y


las igualamos a cero; de esta forma se obtienen dos ecuaciones llamadas
ecuaciones normales del modelo que pueden ser resueltas por cualquier método
ya sea igualación o matrices para obtener los valores de a y b.

Derivamos parcialmente la ecuación respecto de a

Primera ecuación normal

Derivamos parcialmente la ecuación respecto de b


Segunda ecuación normal

Los valores de a y b se obtienen resolviendo el sistema de ecuaciones resultante.

Veamos el siguiente ejemplo:

En un estudio económico se desea saber la relación entre el nivel de instrucción


de las personas y el ingreso.

EJEMPLO 1

Se toma una muestra aleatoria de 8 ciudades de una región geográfica de 13


departamentos y se determina por los datos del censo el porcentaje de graduados
en educación superior y la mediana del ingreso de cada ciudad, los resultados son
los siguientes:

CIUDAD : 1 2 3 4 5 6 7 8

% de (X)

Graduados : 7.2 6.7 17.0 12.5 6.3 23.9 6.0 10.2

Ingreso (Y)

Mediana : 4.2 4.9 7.0 6.2 3.8 7.6 4.4 5.4 (0000)

Tenemos las ecuaciones normales

∑y = na + b∑x
∑xy = a∑x + b∑x²

Debemos encontrar los términos de las ecuaciones

∑y, ∑x, ∑xy, ∑ x² Por tanto procedemos de la siguiente forma:

Y X XY X²

4.2 7.2 30.24 51.84

4.9 6.7 32.83 44.89

7.0 17.0 119.00 289.00

6.2 12.5 77.50 156.25

3.8 6.3 23.94 39.69

7.6 23.9 181.64 571.21

4.4 6.0 26.40 36.00

5.4 10.2 55.08 104.04

43.5 89.8 546.63 1292.92

Sustituyendo en las ecuaciones los resultados obtenidos tenemos: 43.50 = 8a +


89.8b

546.63 = 89.8a + 1292.92b

multiplicamos la primera ecuación por (-89.8) y la segunda por (8) así:

43.50 = 8a + 89.8b (-89.8) 546.63 = 89.8a + 1292.92b (8)

-3906.30 = -718.4a - 8064.04b 4373.04 = 718.4a + 10343.36b

466.74 = -0- 2279.32b


Este valor de b lo reemplazamos en cualquiera de las ecuaciones para obtener a
así:

Reemplazando b = 0.20477 en la primera ecuación normal

43.5 = 8a + 89.8 (0.20477) 43.5 = 8a + 18.3880 43.5 - 18.3880 = 8a 25.1120 = 8a

Tenemos entonces que los coeficientes de regresión son : a = 3.139 y b =


0.20477. Por tanto la ecuación de regresión nos queda:

Significa entonces que por cada incremento en una unidad en X el valor de se


aumenta en 0.20477

Esta ecuación permite estimar el valor de para cualquier valor de X, por ejemplo:
Una ciudad que tiene un porcentaje de graduados a nivel superior del 28% la
mediana de ingreso para la ciudad será:

Los valores a y b también se pueden obtener de la siguiente forma: partiendo de


las ecuaciones normales tenemos:
Si dividimos todos los términos de la ecuación (1) entre n nos queda:

Tenemos entonces que el primer termino es el segundo termino es la incógnita

a y el tercer termino es la incógnita b multiplicada por por tanto nos queda:

entonces

Reemplazando a en la ecuación (2) tenemos


a = 5.4375 – 0.20477 (11.2250) = 5.4375 – 2.2985 = 3.139

Se debe tener presente la diferencia entre el valor de obtenido con la ecuación

de regresión y el valor de Y observado. Mientras es una estimación y su bondad


en la estimación depende de lo estrecha que sea la relación entre las dos
variables que se estudian; Y ー es el valor efectivo, verdadero obtenido mediante la
observación del investigador. En el ejemplo Y ー es el valor mediano del ingreso
que obtuvo el investigador

Utilizando todos los ingresos observados en cada ciudad y es el valor estimado


con base en el modelo lineal utilizado para obtener la ecuación de regresión

Los valores estimados y observados pueden no ser iguales por ejemplo la primera
ciudad tiene un ingreso mediano observado de Y ー = 4.2 al reemplazar en la
ecuación el porcentaje

De graduados obtenemos un estimado de

Gráficamente lo anterior se puede mostrar así:


Claramente se observa en la gráfica que hay una diferencia entre el valor efectivo
de Y ー y el valor estimado; esta diferencia se conoce como error en la estimación,
este error se puede medir. A continuación se verá el procedimiento

4.3.1 Regresión lineal.

El ejemplo más simple de aproximación por mínimos cuadrados es ajustar una


línea recta a un conjunto de observaciones definidas por puntos:

La expresión matemática para la línea recta es:


y  a o  a 1x  e

ao y a1 son coeficientes que representan la intersección con el eje “y” y la


pendiente, respectivamente.

e= es el error, o diferencia, entre el modelo y las observaciones, el cual se


representa al reordenar la ecuación(17.1) como
e  y - a o - a 1x
Datos con un error significativo

Ajuste polinomial oscilando mas allá del rango de los datos

El error o residuo “e” es la discrepancia entre el valor verdadero de “y” y el valor


aproximado “a0 + a1x”, el cual predijo la ecuación lineal.

Si se minimiza la suma de los errores residuales de todos los datos disponibles se


tiene una mejor línea de ajuste, es decir,

∑ ei = ∑ (yi – a0 – a1xi); las sumas van de i=1 hasta n=número de puntos


Resultados más satisfactorios mediante el ajuste por mínimos cuadrados
Una mejor aproximación es minimizar la suma de los valores absolutos

∑ |ei| = ∑ | yi – a0 – a1xi |; para i=1 a n

Los dos criterios anteriores, sin embargo, no son adecuados pues no dan un
“único” mejor ajuste.

Un mejor criterio es el “minimax”, en donde la línea de ajuste se elige para que se


minimice la máxima distancia a la que se encuentra un punto de la línea. Esta
técnica tiene el inconveniente de que da excesiva influencia a puntos fuera del
conjunto (un solo punto con un gran error). Minimax es una técnica adecuada para
ajustar una función simple a una complicada. Consiste en minimizar la suma de
los cuadrados de los residuos entre la “y” medida y la calculada con el modelo
lineal

Sr = ∑ ei2 = ∑ (yi,medida-yi,modelo)2 = ∑ (yi – a0 – a1xi)2 , para i=1 a n

Ajuste de una línea recta por mínimos cuadrados

Para determinar los valores de ao y a1 , se deriva con respecto a cada uno


de los coeficientes:

S r
 2 ( yi  a0  a1 xi ) 0   yi   a0   a1 xi
ao
S r 0   yi xi   a0 xi   a1 xi2
 2  ( yi  a0  a1 xi ) xi 
a1

Al igualar las derivadas a cero dará como resultado un Sr mínimo

Ahora y expresamos las ecuaciones como un conjunto de dos ecuaciones


lineales simultáneas ( con 2 incógnitas):

 y  na    x a
i o i 1

 y x    x  a    x a
i i i 0
2
i 1

a1 =( n∑xiyi -∑xi∑yi) / (n∑xi2 – (∑xi)2)

a0 = prom(y) – a1prom(x); prom = promedio

Ejemplo:

Ajuste a una línea recta los valores “x” y “y” en las primeras columnas de la tabla

Tabla. Cálculos para el análisis de error en el ajuste lineal.


Cuantificación del error en la regresión lineal.

Suma de Cuadrados:

Esto se puede interpretar por medio del principio de la máxima probabilidad y se


determina como sigue:

St es la magnitud del error residual asociado con la variable dependiente antes de


la regresión.
Sr : Suma de los cuadrados.

Suma Inexplicable de los cuadrados: St- Sr

Con esto obtenemos:

Planteamiento del problema. Calcule la desviación estándar total, el error estándar


del estimado el coeficiente de correlación para los datos del ejemplo anterior.

Solución. Las sumatorias se realizan y se presentan en la tabla

Y el error estándar del estimado es

Como, el modelo de regresion lineal es adecuado. La mejora se puede cuantificar


mediante

Los resultados indican que el modelo lineal explico el 86.8% de la incertidumbre


original.
4.3.3 Regresión polinomial.

Consiste en otra alternativa, para ajustar polinomios a los datos. Necesitamos


ajustar a un polinomio de segundo grado ó cuadrático.

y  a0  a1 x  a2 x 2  e

La suma de los cuadrados de los residuos es:


n
Sr   ( yi  a0  a1 xi  a2 xi ) 2
2

i 1

Derivamos Sr con respecto a a0:


 2 ( yi  a0  a1 x1  a2 xi )
2

Luego con respecto a a1:


 2 xi ( yi  a0  a1 x1  a2 xi )
2

Por último con respecto a a2:

 2 xi ( yi  a0  a1 xi  a2 xi )
2 2

Igualamos a 0, y reordenamos:

(n) a 0  ( xi )a1  ( xi ) a 2   y i
2

( xi )a 0  ( xi )a1  ( xi )a 2   xi y i
2 3

( xi )a0  ( xi )a1  ( xi )a2   xi yi


2 3 4 2

Tenemos un sistemas de ecuaciones, con 3 incógnitas (a 0,a1,a2), entonces se


puede extender un polinomio de m-ésimo grado como sigue:
y  a0  a1 x  a2 x 2  ......am x m  e

El error estándar se calcula de la siguiente manera:


sr
sy / x 
n  ( m  1)

A continuación, se propone un ejercicio para facilitar la compresión de la regresión


polinomial
Ejercicio

Ajustar a un polinomio de segundo grado los datos dados en las dos primeras
columnas de la siguiente tabla.

Donde:

m2
n6 x i  15

y i  152.6

x i
2
 55

x
3
i  255

x i
4
 979

x y i i  585.6

x
2
i yi  2488.8


x  2.5

y  25.433

6a0  15a1  55a3  152.6


Entonces, las ecuaciones lineales simultáneas son:

15a0  55a1  225a3  585.6


55a0  225a1  979a3  2488.8
Resolviendo el sistema por eliminación de Gauss tenemos:

a0=2.47857

a1=2.35929

a2=1.86071

Y por lo tanto tenemos la ecuación de la forma:

y  2.47857  2.35929 x  1.86071x 2

El error estándar es:

3.74657
sy / x   1.12
63

El coeficiente de determinación es:

2: Coeficiente de determinación
r2 
2513.39  3.74657
En un ajuste
2513.perfecto
39
 0.99851 r
St=0 y r2=r=1,significa que la línea explica el 100% de la
r : Coeficiente de correlación
variabilidad de los datos r2=r=0, Sr= St el ajuste no representa alguna mejora. Una
r  0.99925
representación alternativa para r que es mas conveniente para implementarse en
una computadora es

n xi yi    xi   yi 
r
n xi2    xi  n  yi    yi 
2 2 2

4.3.4 Regresión lineal multiple.

Dispone de una ecuación con dos variables independientes adicionales:


Se puede ampliar para cualquier número "m" de variables independientes:

Para poder resolver y obtener y en una ecuación de regresión múltiple


el cálculo se presenta muy tediosa porque se tiene atender 3 ecuaciones que se
generan por el método de mínimo de cuadrados:

Para poder resolver se puede utilizar programas informáticos como AD+, SPSS y
Minitab y Excel.

El error estándar de la regresión múltiple


Es una medida de dispersión la estimación se hace más precisa conforme el grado
de dispersión alrededor del plano de regresión se hace mas pequeño.
Para medirla se utiliza la fórmula:

Y : Valores observados en la muestra

: Valores estimados a partir a partir de la ecuación de regresión


n : Número de datos
m : Número de variables independientes

El coeficiente de determinación múltiple

Mide la tasa porcentual de los cambios de Y que pueden ser explicados por

, y simultáneamente.

APLICACION DE REGRESION MULTIPLE


Mediante el siguiente problema podremos ilustrar la aplicación de Regresión
Multiple:
En la Facultad de Ingeniería de Sistemas y Computo de la Universidad "Inca
Garcilaso de la Vega" se quiere entender los factores de aprendizaje de
los alumnos que cursan la asignatura de PHP, para lo cual se escoge al azar
una muestra de 15 alumnos y ellos registran notas promedios en las asignaturas
de Algoritmos, Base de Datos y Programación como se muestran en el siguiente cuadro.

Alumno PHP Algoritmos Base de Datos Programación

1 13 15 15 13

2 13 14 13 12

3 13 16 13 14

4 15 20 14 16

5 16 18 18 17

6 15 16 17 15

7 12 13 15 11

8 13 16 14 15

9 13 15 14 13

10 13 14 13 10
11 11 12 12 10

12 14 16 11 14

13 15 17 16 15

14 15 19 14 16

15 15 13 15 10
Lo que buscamos es construir un modelo para determinar la dependencia que
exista de aprendizaje reflejada en las notas de la asignatura de PHP, conociendo
las notas de las asignaturas Algoritmos, Base de Datos y Programación.
Se presentara la siguiente ecuación a resolver:

Utilizando las fórmulas de las ecuaciones normales a los datos obtendremos los
coeficientes de regresión o utilizando Regresión de Análisis de datos, en la Hoja
de Cálculo de Excel podemos calcular también los coeficientes de regresión:

Por lo tanto podemos construir la ecuación de regresión que buscamos:

El Error Estándar de Regresión Múltiple


Mediante esta medida de dispersión se hace más preciso el grado de dispersión
alrededor del plano de regresión, se hace más pequeño.
Para calcularla se utiliza la formula siguiente:
En los resultados de Excel se llama error típico y para explicar la relación del
aprendizaje de PHP que se viene desarrollando es de 0.861
El coeficiente de determinación múltiple (r2)
Utilizaremos para determinar la tasa porcentual de Y para ser explicados las
variables múltiples, utilizando la si siguiente formula:

Unidad 5 Diferenciación e Integración Numérica.


5.1 Derivación numérica.

Derivación numérica es una técnica de análisis numérico para producir una


estimación del derivado de a función matemática o función subprograma usando
valores de la función y quizás del otro conocimiento sobre la función.

Una valoración simple del dos-punto es computar la cuesta de un próximo línea


secante a través de los puntos (x,f (x)) y (x+h,f (x+h)). Elegir un número
pequeño h, h representa un cambio pequeño adentro x, y puede ser positivo o
negativa. La cuesta de esta línea es

Esta expresión es Neutonio's cociente de la diferencia.

La cuesta de esta línea secante diferencia de la cuesta de la línea de la tangente


por una cantidad a la cual sea aproximadamente proporcional h. Como h los
acercamientos ponen a cero, la cuesta de la línea secante acercamientos la
cuesta de la línea de la tangente. Por lo tanto, el verdad derivado de f en x es el
límite del valor del cociente de la diferencia mientras que las líneas secantes
consiguen cada vez más cerca de ser una línea de la tangente:

Desde inmediatamente el sustituir 0 para h resultados adentro división por cero.

Una valoración simple del tres-punto es computar la cuesta de una línea secante
próxima a través de los puntos (x-h,f (x-h)) y (x+h,f (x+h)). La cuesta de esta línea
es

Más generalmente, la valoración del tres-punto utiliza la línea secante a través de


los puntos (x − h1,f(x − h1)) y(x + h2,f(x + h2)). La cuesta de esta línea es

La cuesta de estas líneas secantes diferencia de la cuesta de la línea de la


tangente por una cantidad a la cual sea aproximadamente proporcional h2 de
modo que la valoración del tres-punto sea una aproximación más exacta a la línea
de la tangente que la valoración del dos-punto cuando h es pequeño.

A la ecuación 1 se le conoce con el nombre especial en el análisis numérico, se le


llama diferencias divididas finitas.

Se puede representar generalmente como:

O
Donde al diferencial se le conoce como la primera diferencia hacia adelante y a h
se le llama tamaño del paso, esto es, la longitud del intervalo sobre el cual se hace
la aproximación.

Se le llama diferencia " hacia adelante " ya que usa los datos(i) e (i+1) para
estimar la derivada.

Al termino completo (o sea, la diferencial entre h ) se le conoce como primera


diferencia dividida finita.

Esta diferencia dividida hacia adelante no es sino una de tantas que se pueden
desarrollar mediante la serie de Taylor para la aproximación de derivadas
numéricas.

Por ejemplo, las aproximaciones a primeras derivadas, utilizando las diferencias


hacia atrás o las diferencias centrales se pueden desarrollar de una manera
similar a la de la ecuación 2.

Las primeras usan a, mientras x con sub-indice i+1 que las segundas usan
información igualmente espaciada alrededor del punto donde esta estimada la
derivada.

Las aproximaciones más exactas de la primera derivada se pueden desarrollar


incluyendo en la serie de Taylor términos de orden más alto.

Finalmente, todas las versiones anteriores se pueden desarrollar para derivadas


de segundo orden, tercer orden y órdenes superiores. Las siguientes secciones
analizan brevemente estos casos, ilustrando como se deriva cada una de ellos.

APROXIMACION A LA PRIMERA DERIVADA CON DIFERENCIAS HACIA ATRÁS.


La serie de Taylor se puede expandir hacia atrás para calcular un valor anterior
sobre el valor actual, dada por:

Truncando la ecuación después de la primera derivada y ordenando los términos


se obtiene:

Donde los errores es 0 (h) y el diferencial indica la primer diferencia dividida hacia
atrás.

APROXIMACIONES A LA PRIMER DERIVADA CON DIFERENCIAS


CENTRALES.

Una tercera forma de aproximar la primera derivada es restar la ecuación 4 de la


expansión en serie de Taylor hacia adelante:

Para obtener

Que se puede resolver para


O

La ecuación es una representación de las diferencias centrales (o centradas ) de


la primera derivada.

Nótese que el error de truncamiento es del orden de en contraste con las


diferencias divididas hacia adelante y hacia atrás, las cuales fueron de orden h.

Por lo tanto, el análisis de la serie de Taylor ha llevado a la información práctica de


que la diferencia central es la representación más exacta de la derivada.

Por ejemplo, si se parte el tamaño del paso a la mitad usando diferencias hacia
atrás o hacia adelante, el error se reducirá aproximadamente a la mitad, mientras
que para diferencias centrales, el error se reduce a la cuarta parte.

APROXIMACIONES A DERIVADAS DE ORDEN MÁS ALTO USANDO


DIFERENCIAS FINITAS.

Junta a la primera derivada, la expansión de la serie de Taylor se puede usar para


una estimación numérica de las derivadas de orden superior.

Para hacerlo, se escribe una expansión en la serie de Taylor hacia adelante para
en términos de de la siguiente forma:
La ecuación 8 se puede multiplicar por 2 y restarse de la ecuación 10
para obtener:

Que se puede resolver para

A esta relación se le llama diferencias divididas finitas hacia adelante de segundo


orden. Se pueden usar procedimientos similares para obtener las versiones hacia
atrás y centrales.

Las aproximaciones a tercer orden de las diferencias divididas hacia adelante,


hacia atrás y centrales también pueden obtenerse ( véase en fórmulas mas
adelante ). En todos los casos, las diferencias centradas dan una mejor
aproximación.

FORMULAS DE EXACTITUD PARA DIFERENCIAS DE ORDEN SUPERIOR

Todas las estimaciones anteriores truncaron las estimaciones dadas por la serie
de Taylor después de algunos términos.

Las fórmulas de mas exactitud se pueden desarrollar incluyendo términos


adicionales. Por ejemplo, la expansión hacia adelante (Ecuación 6) se puede
resolver para:
En contraste con la ecuación 2, se puede retener el término de segundo orden
sustituyendo la ecuación 12 en la ecuación 13 para obtener:

Agrupando términos

Nótese que la inclusión del termino con segunda derivada ha dado una exactitud .

Se pueden desarrollar versiones mejoradas similares para diferencias hacia atrás


y centrales así como para las aproximaciones de derivadas de orden superior.

GRAFICAS DE APROXIMACIONES CON DIFERENCIAS DIVIDIDAS FINITAS


DE LA PRIMERA DERIVADA.

El azul es de aproximación y el verde de la derivada verdadera

HACIA ADELANTE
.HACIA ATRAS
.CENTRALES

FORMULAS DE DIFERENCIAS DIVIDIDAS FINITAS HACIA ATRÁS. SE


PRESENTAN DOS VERSIONES PARA CADA DERIVADA. LA SEGUNDA
FORMA INCLUYE MAS TERMINOS DE LA SERIE DE TAYLOR Y, POR LO
TANTO ES MAS EXACTA
.FORMULAS DE DIFERENCIAS DIVIDIDAS FINITAS HACIA ADELANTE.

SE PRESENTAN DOS VERSIONES PARA CADA DERIVADA. LA


SEGUNDAFORMA INCLUYE MAS TERMINOS DE LA SERIE DE TAYLOR Y,
POR LO TANTO ES MAS EXACTA.
FORMULAS DE DIFERENCIAS FINITAS CENTRALES. SE PRESENTAN DOS
VERSIONES PARA CADA DERIVADA. LA SEGUNDA FORMA INCLUYE MAS
TERMINOS DE LA SERIE DE TAYLOR POR LO TANTO ES MAS EXACTA.
MÉTODO DE LA SECANTE POR MEDIO DE DIFERENCIA DIVIDIDA.

Un problema fuerte en al implementación del método de Newton-Raphson es el de


la evaluación de la derivada.

Aunque esto no es un inconveniente para los polinomios y para muchas otras


funciones, existen algunas de estas cuyas derivadas pueden ser extremadamente
difíciles de evaluar.

En estos casos, la derivada se puede aproximar mediante una diferencia dividida,


como se muestra en la siguiente figura:

Diferencias finitas.

Sólo se consideran normalmente tres formas: la anterior, la posterior y la central.


Una diferencia progresiva, adelantada o posterior es una expresión de la forma

Dependiendo de la aplicación, el espaciado h se mantiene constante o se toma el


limite h → 0.
Una diferencia regresiva, atrasada o anterior

Finalmente, la diferencia central es la media de las diferencias anteriores y


posteriores.

Relación con las derivadas

La derivación de la función f en un punto x está definida por el límite

Si h tiene un valor fijado no nulo, en lugar de aproximarse a cero, el término de la


derecha es

Por lo tanto, la diferencia anterior dividida por h aproxima a la derivada


cuando h es pequeño. El error de esta aproximación puede derivarse del teorema
de Taylor. Asumiendo que f es continuamente diferenciable, el error es

La misma fórmula es válida en la diferencia posterior:


Sin embargo, la diferencia central lleva a una aproximación más ajustada. Su error
es proporcional al cuadrado del espaciado (si f es dos veces continuamente
diferenciable).

Cálculo de diferencias finitas

La diferencia anterior puede considerarse un operador diferencial que hace


corresponder la función f con Δf. El teorema de Taylor puede expresarse por la
fórmula

Donde D denota el operador derivada, que hace corresponder f con su derivada.


Formalmente, invirtiendo la exponencial

Esta fórmula sigue siendo válida en el sentido de que ambos operadores dan el
mismo resultado cuando se aplican a un polinomio. Incluso para funciones
analíticas, las series de la derecha no convergen con seguridad, sino que puede
tratarse de una serie asintótica. Sin embargo, pueden emplearse para obtener
aproximaciones más precisas de la derivada. Por ejemplo, Los dos primeros
términos de la serie llevan a:

El error de la aproximación es del orden de h2.


Las fórmulas análogas para los operadores posterior y central son

Derivadas de órdenes mayores

De forma análoga se pueden obtener aproximaciones en diferencias finitas para


derivadas de orden mayor y operadores diferenciales. Por ejemplo usando la
fórmula de la diferencia central mostrada anteriormente con un espaciado de h / 2
para:

Aplicando la fórmula de diferencia central a la derivada de en x, obtenemos la


aproximación de la diferencia central de la segunda derivada de f:

Métodos de diferencias finitas

Otro aspecto importante es que las diferencias finitas aproximan cocientes


diferenciales a medida que h se acerca a cero. Así que se pueden usar diferencias
finitas para aproximar derivadas. Esta técnica se emplea a menudo en análisis
numérico, especialmente en ecuaciones diferenciales numéricas ordinarias,
ecuaciones en diferencias y ecuación en derivadas parciales. Los métodos
resultantes reciben el nombre de métodos de diferencias finitas.
Las aplicaciones habituales de los métodos de diferencias finitas son en los
campos de la computación y áreas de la ingeniería como ingeniería térmica o
mecánica de fluidos.

Formula de tres puntos


Supongamos que solo tenemos tres datos igualmente espaciados,es

decir, con . Aplicando la fórmula

anterior con tres puntos, para respectivamente, obtenemos las


tres siguientes fórmulas (llamadas de "tres puntos")

Planteamiento inverso

En primer lugar es necesario demostrar la existencia de ligamiento entre los tres


loci analizados. Suponiendo que se trata de un cruzamiento prueba entre un
triheterocigoto (AaBbCc) y un homocigoto recesivo (aabbcc) los pasos que es
necesario realizar para demostrar la existencia de ligamiento son los siguientes:

a) Comprobar mediante un c2 que el locus A,a segrega correctamente: ½ A ½ a.


b) Comprobar mediante un c2 que el locus B,b segrega correctamente: ½ B ½ b.
c) Comprobar mediante un c2 que el locus C,c segrega correctamente: ½ C ½ c.
d) Comprobar mediante un c2 que la segregación combinada de los loci A,a y B,b
no se ajusta a la esperada en caso de independencia (¼ AB, ¼ Ab, ¼ aB, ¼ ab).
e) Comprobar mediante un c2 que la segregación combinada de los loci A,a y C,c
no se ajusta a la esperada en caso de independencia (¼ AC, ¼ Ac, ¼ aC, ¼ ac).
f) Comprobar mediante un c2 que la segregación combinada de los loci B,b y C,c
no se ajusta a la esperada en caso de independencia (¼ BC, ¼ Bc, ¼ bC, ¼ bc).
g) Comprobar que la segregación combinada de los tres loci A,a ; B,b y C,c no se
ajusta a la esperada en caso de independencia (1/8 ABC, 1/8 ABc, 1/8 AbC,
1/8 aBC, 1/8 Abc, 1/8 aBc, 1/8 abC y 1/8 abc).

Una vez demostrada la existencia de ligamiento entre los tres loci, el objetivo del
problema de los tres puntos es deducir a partir de los datos de una descendencia:

1. El orden relativo de los tres loci, es decir, determinar el locus que ocupa la
posición central.
2. Calcular los valores de la fracción de recombinación (r1 y r2) entre el locus
central y cada uno de los extremos, y entre los dos loci extremos (r).

3. Calcular el valor del coeficiente de coincidencia (c) y de la interferencia (I)


entre los tres loci.

Para ello, vamos a suponer que estamos analizando la descendencia de un


cruzamiento prueba entre un individuo triheterocigoto (AaBbCc) en fase de
acoplamiento (ABC/abc) y un homocigoto recesivo (aabbcc).

Nuestro primer objetivo será averiguar el orden de estos tres loci sobre el mismo
cromosoma, es decir, determinar cual es el locus que ocupa la posición central.
Esta cuestión puede ser resuelta de dos formas distintas:
1. En un cruzamiento prueba como el indicado (AaBbCc x aabbcc),
suponiendo

Que los tres loci están en fase de acoplamiento (ABC/abc) y que el locus central
es el B,b; se esperan ocho clases de descendientes. Las dos clases más
frecuentes serán las procedentes de gametos parentales formados cuando no se
da sobrecruzamiento entre los loci analizados: ABC y abc. Las dos clases menos
frecuentes serán las dobles recombinantes, procedentes de gametos originados
cuando se da sobrecruzamiento entre el locus A,a y el locus B,b y también entre el
locus B,b y el locus C,c: AbC y aBc. Aquel locus cuyo intercambio de alelos en las
clases dobles recombinantes reconstituye las clases parentales será el central. En
el caso que nos ocupa, el único locus que cumple esta condición es el B,b.
b) La otra forma de determinar el locus central consiste en calcular las distancias
genéticas entre los tres loci considerados. La distancia genética es el valor de la
fracción de recombinación en tanto por cien. La distancia mayor corresponderá a
los dos loci extremos. En este caso, la mayor distancia genética correspondería a
la encontrada entre los loci A,a y C,c. Por tanto, el locus central sería el B,b.

Es importante destacar que para determinar el locus central y calcular las


fracciones de recombinación y distancias genéticas es necesario analizar los tres
loci en los mismos descendientes. Podría darse el caso (normalmente bastante
frecuente) de que no se haya podido determinar el fenotipo de algunos individuos
para alguno de los tres loci estudiados. Por ejemplo, en un individuo AB- se habría
determinado su fenotipo A para el locus A,a, su fenotipo B para el locus B,b y no
se habría podido averiguar su constitución genética en el locus C,c. En otro
individuo de la descendencia puede ser otro locus diferente el que no se haya
podido analizar.

Para determinar el orden es necesario emplear descendientes en los que haya


sido posible determinar el fenotipo en los tres loci estudiados.

Posteriormente, calculamos los valores de la fracción de recombinación.


Fracción de recombinación entre A,a y B,b; r1:

Fracción de recombinación entre B,b y C,c; r2:

Fracción de recombinación entre A,a y C,c; r:

Teniendo en cuenta que el locus central es el B,b, el mayor valor de la fracción de


recombinación corresponderá a r.

Por último, calculamos el coeficiente de coincidencia (c) que se define como la


frecuencia de los dobles sobrecruzamientos observados frente a los dobles
sobrecruzamientos esperados.
El coeficiente de coincidencia (c) nos permite saber si se da interferencia
cromosómica (I), es decir, si el hecho de que se de un sobrecruzamiento en una
determinada región (por ejemplo entre el locus A,a y el B,b) favorece o impide el
que se den más sobrecruzamientos en una región próxima a la anterior (por
ejemplo entre el locus B,b y el C,c).

La interferencia (I) se define como I = 1 - c, pudiendo ser positiva cuando c es


menor que uno y negativa cuando c es mayor que 1. Cuando c es igual a 1 (igual
cantidad de dobles sobrecruzamientos observados y esperados) se dice que no
hay interferencia.

Planteamiento directo

En el planteamiento directo sabemos que tres loci están ligados, conocemos las
frecuencias de recombinación y (r1, r2 y r), el valor del coeficiente de coincidencia
(c) y la interferencia (I). A partir de estos datos, lo que se pretende es calcular las
frecuencias de los gametos que produce un triheterocigoto (AaBbCc) y, por
consiguiente, las frecuencias de los 8 fenotipos distintos de la descendencia
obtenida en un cruzamiento prueba (AaBbCc x aabbcc).

En el siguiente esquema se indican los ocho tipos de gametos que produce un


triheterocigoto en fase de acoplamiento (ABC/abc), así como las frecuencias de
los ocho tipos de individuos de la descendencia (ocho fenotipos).
En el esquema anterior hemos visto los 8 tipos de gametos que produce el
parental triheterocigoto en fase de acoplamiento, hemos clasificado los gametos
en base a si se da sobrecruzamiento sólo en la región I (entre A,a y B,b), sólo en
la región II (entre B,b y C,c), en ambas zonas I y II (uno entre A,a y B,b y el otro
entre B,b y C,c) y cuando no se da ningún sobrecruzamiento.

La suma de las frecuencias de los 8 tipos de gametos debe ser la unidad: 2y + 2z


+ 2t + 2x = 1 (total gametos).

El valor del coeficiente de coincidencia (c) es:


El valor de la fracción de recombinación en la región I se calcularía como:

El valor de la fracción de recombinación en la región II se obtendría de la siguiente


forma:

Teniendo en cuenta que conocemos el valor del coeficiente de coincidencia (c); el


valor de la fracción de recombinación en la región I (r1), y el valor de la fracción de
recombinación en la región II (r2). Lo mejor es despejar el valor de la frecuencia “t”
(gameto doble recombinante) en la fórmula del coeficiente de coincidencia:

Una vez conocido el valor de "t", podemos averiguar el valor de la frecuencia "y"
despejando en la siguiente fórmula:

Finalmente, sólo necesitamos conocer el valor de la frecuencia “x”, frecuencia que


tendríamos despejando en la siguiente ecuación:
Teniendo en cuenta que se trata de un cruzamiento prueba y que, por tanto, los
fenotipos de la descendencia coinciden con los gametos producidos por el
individuo triheterocigoto, las frecuencias de los diferentes tipos de gametos
indicados coincidirían con las de los 8 fenotipos distintos obtenidos en el
cruzamiento.

Formula de cinco puntos

De manera análoga, si tenemos cinco datos igualmente espaciados,

con ,
se puede obtener la fórmula de cinco puntos.

Fórmula para la segunda derivada

Con las mismas hipótesis, se puede deducir una fórmula de tres puntos para la
segunda derivada

EJEMPLO. Consideremos la siguiente tabla de datos

0.00 1.00
0.01 1.010050167
0.02 1.02020134
0.03 1.030454534
0.04 1.040810774
0.05 1.051271096
0.06 1.061836547
0.07 1.072508181
0.08 1.083287068
0.09 1.094174284
Estimar y .

SOLUCIÓN. Para estimar se puede usar la fórmula de cinco puntos

mientras que para estimar podemos usar una fórmula de tres puntos,

para ser exactos, la fórmula apropiada es la fórmula para .

Estimación de con la fórmula de cinco puntos.

Seleccionamos cinco puntos de tal manera que,

0.00 1
0.01 1.010050167
0.02 1.02020134
0.03 1.030454534
0.04 1.040810774
0.05 1.051271096
0.06 1.061836547
0.07 1.072508181
0.08 1.083287068
0.09 1.094174284

Ahora aplicamos la fórmula, como

Como se esperaba ya que


Estimación de con la fórmula de tres puntos para estimar .
Seleccionamos tres puntos de tal manera que,

0.00 1.00
0.01 1.010050167
0.02 1.02020134
0.03 1.030454534
0.04 1.040810774
0.05 1.051271096
0.06 1.061836547
0.07 1.072508181
0.08 1.083287068
0.09 1.094174284

Ahora aplicamos la fórmula, como

Como se esperaba. Observe que la precisión no es tan buena como la obtenida


con la fórmula de cinco puntos.
5.2 Integración numérica.

En análisis numérico la integración numérica constituye una amplia gama de


algoritmos para calcular el valor numérico de una integral definida y, por extensión,
el término se usa a veces para describir algoritmos numéricos para resolver
ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a
cuadratura) es más o menos sinónimo de integración numérica, especialmente si
se aplica a integrales de una dimensión a pesar de que para el caso de dos o más
dimensiones (integral multiple) también se utiliza.
El problema básico considerado por la integración numérica es calcular una
solución aproximada a la integral definida:

1213

Este problema también puede ser enunciado como un problema de valor inicial
para una ecuación diferencial ordinaria, como sigue:

12345

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados


para ecuaciones diferenciales ordinarias, como el método de Runga-Kutta pueden
ser aplicados al problema reformulado. En este artículo se discuten métodos
desarrollados específicamente para el problema formulado como una integral
definida.
Razones para la integración numérica.
Hay varias razones para llevar a cabo la integración numérica. La principal puede
ser la imposibilidad de realizar la integración de forma analítica. Es decir,
integrales que requerirían de un gran conocimiento y manejo de matemática
avanzada pueden ser resueltas de una manera más sencilla mediante métodos
numéricos. Incluso existen funciones integrables pero cuya primitiva no puede ser
calculada, siendo la integración numérica de vital importancia. La solución
analítica de una integral nos arrojaría una solución exacta, mientras que la
solución numérica nos daría una solución aproximada. El error de la aproximación,
que depende del método que se utilice y de qué tan fino sea, puede llegar a ser
tan pequeño que es posible obtener un resultado idéntico a la solución analítica en
las primeras cifras decimales.

5.2.1 Método del trapecio.

La regla del trapecio es la primera de las formulas cerradas de integración de


Newton Cotes. Corresponde al caso donde el polinomio de la ecuación es de
primer grado:

Una línea recta se puede representar como:

El área bajo esta línea recta es una aproximación de la integral de ƒ(×) entre los
limites ɑ y b:

El resultado de la integración es:


Que se denomina regla del trapecio.

Obtención de la regla del trapecio

Antes de la integración, la ecuación se puede expresar como:

Agrupando los últimos 2 términos:

La cual puede integrarse entre x= ɑ y x =b para obtener:

Este resultado se evalúa para dar:

Ahora como b² ‐ ɑ² = (b ‐ ɑ) (b + ɑ).


Multiplicando y agrupando términos se tiene:

Que es la fórmula para la regla del trapecio.

Geométricamente, la regla del trapecio es equivalente a aproximar el área del


trapecio bajo la línea recta que une ƒ (ɑ) y ƒ (b). Recuerde que la formula para
calcular el area de un trapezoide es la altura por el promedio de las bases. En
nuestro caso, el concepto es el mismo, pero el trapezoide esta sobre su lado. Por
lo tanto, la integral aproximada se representa como:

Error de la regla del trapecio

Cuando empleamos la integral bajo un segmento de línea recta para aproximar la


integral bajo una curva, obviamente se tiene un error que puede ser importante.
Una estimación al error de truncamiento local para una sola aplicación de la regla
del trapecio es:

Donde ᵹ está en algún lugar en el intervalo de ɑ a b. La ecuación indica que si la


función sujeta a integración es lineal, la regla del trapecio será exacta. De otra
manera, para funciones con derivadas de segundo orden y de orden superior (es
decir, con curvatura), puede ocurrir algún error.
Ejemplo

1. Aplicación simple de la regla del trapecio.

*Planteamiento del problema.

Con la ecuación integre numéricamente

Desde a=0 hasta b=0.8, recuerde de la sección PT6.2 que el valor exacto de la
integral se puede determinar en forma analítica y es 1.640533.
SOLUCION: al evaluar la función en los limites
f(0)=0.2
f(0.8)=0.232
sustituyendo la ecuación se tiene que

La cual representa un error de

Que corresponde a un error relativo porcentual de Ɛ1=89.5%. En situaciones


reales, tal vez no conozcamos previamente el valor verdadero. Por lo tanto, se
requiere una estimación del error aproximado.

Problema del método de los trapecios(MetTrape)

Integrar numéricamente la función erf(x) para x=0,34 utilizando su definición. Se


busca tener un error inferior a la tercera cifra decimal.
Utilizando el método de los trapecios, se tiene:

Solución:
Es interesante constatar, desde el punto de vista numérico, la evolución de la
precisión con respecto al tiempo de cálculo (tiempo en segundos para un IBM 50,
10 MHz con coprocesador matemático):

Influencia del número de intervalos en el método de los trapecios.

Resultado Tiempo(s)
# de divisiones
64 0.369362921747236 0,05
128 0.369364127446088 0,11
256 0.369364428870065 0,17
512 0.369364504226013 0,33
1024 0.369364523064997 0,71
2048 0.369364527774743 1,48
4096 0.369364528952180 2,91
8192 0.369364529246539 5,77
16384 0.369364529320128 11,58
32768 0.369364529338524 23,18
65536 0.369364529343126 46,36
131072 0.369364529344273 92,55
262144 0.369364529344566 184,88
524288 0.369364529344642 369,71
1048576 0.369364529344647 741,16
2097152 0.369364529344678 1478,32

5.2.2 Método de Simpson.

Además de aplicar la regla del trapecio con una segmentación mas fina, otra forma
de obtener una estimación más exacta de una integral consiste en usar polinomios
de grado superior para unir los puntos. Por ejemplo, si hay otro punto a la mitad
entre ƒ (ɑ) y ƒ (b), los tres puntos se pueden unir con una parábola. Si hay dos
puntos igualmente espaciados entre ƒ (ɑ) y ƒ (b), los cuatro puntos se pueden unir
mediante un polinomio de tercer grado. Las formulas que resultan de tomar las
integrales bajo esos polinomios se conocen como reglas de Simpson .

REGLA DE SIMPSON

La regla se Simpson ⅓ resulta cuando un polinomio de interpolación de segundo


grado se sustituye en la ecuación:

Si se designan ɑ y b como xₒ y x₂ , y ƒ₂ (x) se representan por un polinomio de


Lagrange de segundo grado, la integral se transforma en:

Después de la integración y de las manipulaciones algebraicas se obtiene la


siguiente formula:

donde, en este caso, h=(b - ɑ)/2. Esta ecuación se conoce como regla de Simpson
1/3, y es la segunda fórmula de integración cerrada de Newton-Cotes. La
especificación “1/3” se origina del hecho de que h está dividida en 3 en la
ecuación.

OBTENCIÓN Y ESTIMACIÓN DEL ERROR DE LA REGLA DE SIMPSON 1/3

Como se hizo en el cuadro 21.2 para la regla del trapecio, la regla de Simpson 1/3
se obtiene al integrar el polinomio de interpolación de Newton-Gregory hacia
adelante:
Observe que se escribió el polinomio hasta el término de cuarto grado, en lugar de
hasta el de tercer grado como se esperaría. La razón de esto se vería un poco
después. Advierta también que los limites de integración van de xₒ a x₂. Por lo
tanto, cuando se realizan las sustituciones para simplificar.
La integral es de

Y evaluando en los limites se obtiene:

Observe el resultado significativo de que el coeficiente de la tercera diferencia


dividida es cero. Debido a que ∆ƒ(xₒ)= ƒ(x₁)- ƒ(xₒ) y ∆²ƒ(xₒ) = ƒ(x₂)- 2ƒ(x₁)+ƒ(xₒ),
la ecuación (C21.3.1) se reescribe como

Así, el primer termino es la regla de Simpson 1/3 y el segundo es el error de


truncamiento. Puesto que se suprime la tercera diferencia dividida, se obtiene el
resultado significativo de que la formula tiene una precisión de tercer orden.
Como se esperaba. Observe que la precisión no es tan buena como la obtenida
con la fórmula de cinco puntos.

Ejercicio de Regla del Trapecio y Simpson

En los ejercicios 1 a 3, use (a) la Regla del Trapecio y (b) la Regla de Simpson,
con el valor de n indicado para estimar las integrales definidas. Aplique valores
aproximados de f (xk) que tengan una precisión de cuatro decimales y redondee
las respuestas a dos decimales.

Ninguna de las integrales definidas de los ejercicios 4 a 6 puede ser evaluada


exactamente en términos de funciones elementales. Utilice la Regla de Simpson,
con el valor de n que se indica, para determinar un valor aproximado de la integral
definida dada. Exprese el resultado con tres cifras decimales.
LA REGLA DE SIMPSON 1/3 DE APLICACIÓN MULTIPLE.

Así como en la regla del trapecio, la regla de Simpson se mejora al dividir el


intervalo de integración en varios segmentos de un mismo tamaño

La integral total se puede representar como

Al sustituir la regla de Simpson 1/3 en cada integral se obtiene

5.2.3 Integración de Romberg.

INTEGRACIÓN DE ROMBERG

La integración de romberg es una técnica diseñada para obtener integrales


numéricas de funciones de manera eficiente, que se basa en aplicaciones
sucesivas de la regla del trapecio. Sin embargo, a través de las manipulaciones
matemáticas, se alcanzan mejores resultados con menos trabajo.

EL ALGORITMO DE INTEGRACIÓN DE ROMBERG.

Observe que los coeficientes en cada una de las ecuaciones de extrapolación


suman 1. De esta manera, representan factores de ponderación que, conforme
aumenta la exactitud, dan un peso relativamente mayor a la mejor estimación de la
integral. Estas formulaciones se expresan en una forma general muy adecuada
para la implementación en computadora:

Donde 1ʲ+1k-1 eIjk-1 = las integrales más y menos exactas, respectivamente; e


Ijk=Ia integral mejorada. El subíndicek significa el nivel de la integración
donde k=1 corresponde a la estimación original con la regla del

trapecio, k=2corresponde a 0(h⁴), k=3 a 0(h⁶) y asi sucesivamente. El subíndice j


se usa para distinguir entre las estimaciones mas (j+1) i meno (j) exactas. Por
ejemplo, con k=2 y j =1, la ecuación (22.8) se convierte en

Que es equivalente a la ecuación

La forma general representada por la ecuación se atribuye a Romberg, y su


aplicación sistemática para evaluar integrales se denomina integración de
Romberg. La figura 22.3 es una representación grafica de la sucesión y
estimaciones de la integral generadas usando este procedimiento. Cada matriz
corresponde a una sola iteración.

La primera columna contiene las evaluaciones de la regla del trapecio, designadas


por I j,1 , donde j=1 indica una aplicación con un solo segmento (el tamaño de
paso es b-a) , j=2 corresponde a una aplicación con dos segmentos [el tamaño de
paso es (b-a)/2], j=3 corresponde a una aplicación de cuatro segmentos [el
tamaño de paso es (b-a)/4], y así sucesivamente. Las otras columnas de la matriz
se generan mediante la aplicación sistemática de la ecuación para obtener
sucesivamente mejores estimaciones de la integral.

Si TN.1es el valor calculado de la integral (en donde 2N corresponde al número de


intervalos los de 1 es el orden del polinomio de interpolación usado):

Usado para el cálculo numérico la formula de los trapecios. T0, 1 seria el primer
estimado; es decir, usando directamente las formulas de los trapecios;

T1,1 seria el estimado para dos intervalos idénticos de ancho (b-a)/2:

Simplificado,

En general:

La formula de extrapolación de Richardson puede ser utilizada para cada par de


secuencia T0,1,…..TN,1. Por ejemplo:
En general,

La secuencia del método de Romberg que explicada, puede ser presentada en


forma tabular como se inicia a continuación:

Construcción de la tabla de Romberg

i/j 1 2 3 4 5 6 7
0 T0,1 T0,2 T0,3 T0,4 T0,5 T0,6 T0,7
1 T1,1 T1,2 T1,3 T1,4 T1,5 T1,6
2 T2,1 T2,2 T2,3 T2,4 T2,5
3 T3,1 T3,2 T3,3 T3,4
4 T4,1 T4,2 T4,3
5 T5,1 T5,2
6 T6,1

Método de Romberg(MetRombe)
Se trata de resolver el mismo ejercicio propuesto en el ejercicio anterior, pero
utilizando ahora el método de Romberg. Es importante señalar que el
procedimiento de calculo, todos los resultados I2n=corresponden exactamente a
la primera fila de la tabla de Romberg. Los valores subsiguientes se obtienen de
las formulas de extrapolación de Richardson:

Tabla de Romberg

1 2 3 4 5
i/j
0 0,362707725 0,369382672 0,3693364500 0,3693364529 0,3693364529
1 0,367713935 0,369365636 0,3693364529 0,3693364529
2 0,368995271 0,369364598 0,3693364529
3 0,3369261626 0,3693364534
4 0,369338807

Se presenta a continuación una tabla comparativa donde se puede apreciar el efecto del
espaciamiento en el valor de la derivada. Se observa que el error disminuye a medida que el
espaciamiento es menor.

Formula h=0,2 h=0,1 h=0,05 h=0,01


5-11 % Error 70,6242 64,56585 61,7676 59,6324
16,3 8,44626 4,29861 0,87193
5-12 % Error 60,20052 59,38365 59,1802 59,11516
1,80741 0,4567 0,4567 0,00458
5-13 % Error 56,40523 58,50749 58,50749 59,10679
4,799587 1,033979 0,242665 0,009268
5-14 % Error 59,09497 59,11136 59,11238 59,11245
0,029578 0,001837 0,000115 1,81 E-07

Formula de extrapolación de Richardson, con un espaciamiento inicial de 0,2 y


tomando espaciamientos medios sucesivos.
% Error = 0,0018%

B. Halle el valor de la integral

El valor reportado por las calculadoras es de 98,4276846 (utilizando el método de


Romberg). Para todos los métodos se utilizan n=6, por lo que H=(3-0)/6=0.5

1. Trapecios:

I= [f(0)+2f(0,5)+2f(1)+ 2f(1,5)+ 2f(2)+ 2f(2,5)+ f(3)]

I=104,6479952
% Error = 6,319 %

1. Simpson 1/3

I= [f(0)+4f(0,5)+2f(1)+ 4f(1,5)+ 2f(2)+ 4f(2,5)+ f(3)]

I= 98,64418613

% Error = 0,219 %

1. Simpson 3/8

I= [f(0)+3f(0,5)+3f(1)+ 2f(1,5)+ 3f(2)+ 3f(2,5)+ f(3)]


I= 98,89111022

% Error = 0,471 %

1. Romberg con extrapolación de Richardson:

Resolviendo de igual manera para los demás y aplicando la formula de extrapolación de


Richardson, se obtiene:


271,1547485
150,7030748 110,5525169
112,2683938 99,45683347 98,71712124
101,9404118 98,49775113 98,43381231 …
99,3092397 98,43216136 98,42778871 …
98,64828042 98,42796597 98,42769628 … 98,42768319

% Error = 1,43x10-6 c/c

5.2.4 Método aleatorio.

En matemáticas, y más concretamente en análisis numérico, se conocen


como métodos de Montecarlo a una serie de métodos de integración numérica que
se basan en la utilización de números aleatorios.

Es decir, los métodos de integración de Montecarlo son algoritmos para encontrar


una evaluación aproximada de una integral definida, normalmente de integrales
múltiples. Los algoritmos deterministas de integración numérica, para aproximar la
integral, evalúan la función en un conjunto de puntos correspondientes a una
parrilla regular o en un conjunto de puntos predefinidos. En cambio, los métodos
de Montecarlo eligen de forma aleatoria los puntos en los que se evaluará la
función. La integración de Montecarlo forma parte de una familia de algoritmos
llamados genéricamente métodos de Montecarlo. Estos algoritmos utilizan
números aleatorios para resolver diferentes tipos de problemas matemáticos y
reciben su nombre debido al casino de Montecarlo

Algoritmo.

Sea la integral definida en un intervalo de , siendo una


función de mucha dificultad para integrar; se hace el siguiente cambio de

variable , y se sustituye en la función a integrar

definida quedando una función a integral definida en un intervalo

de la forma , con .

Luego se generan las variables aleatorias , de veces se quiera por medio de


la siguiente fórmula (generador congruencial de números pseudo-

aleatorios): donde es la semilla, es el

incremento, es el multiplicativo y es el módulo; con . Estos valores se


toman al azar y se van obteniendo los , las veces que se requiera.

Cuando tengamos los se comienza a generar los por esta

fórmula , donde inicialmente , es decir , , así


sucesivamente. Los números obtenidos son números aleatorios en un intervalo
[0,1], que se van a sustituir en la fórmula

siguiente:

Mientras más grande sea , más exacta es la aproximación. Es decir:

Ejemplo.

A través de un ejemplo se ilustrará el método. El proceso consiste en calcular el


área encerrada por una línea cerrada cualquiera que está incluida en un cuadrado
de lado unitario (y área unitaria).

Al generar puntos al azar (mediante dos números aleatorios) se calcula la fracción


que se establece entre la cantidad de puntos que caen dentro del área asociada a
la curva y la cantidad total de puntos (o puntos en el cuadrado).

Supongamos que el área a calcular es un cuarto de círculo, de radio unitario, que


está dentro de un cuadrado de lado unitario. La fracción será:

(Área del círculo) (Área del cuadrado unitário )=(Puntos en

el de círculo) (Puntos en el cuadrado)

Para generar los puntos utilizamos dos sucesiones de números aleatorios y


. Si queremos saber si un punto pertenece al cuarto de círculo, establecemos, a
partir de la relación pitagórica, la condición de pertenencia:
Si se verifica la relación anterior, el punto pertenece al cuarto de círculo (y al
cuadrado). De lo contrario pertenecerá sólo al cuadrado.

Para el caso de una simulación con 25 pares de números aleatorios, es decir, para

25 puntos generados, nos dará una fracción tal como , mientras que el
área buscada será:

La precisión del método se mejora utilizando una gran cantidad de simulaciones,


siendo el error del orden del 0,001 cuando se emplean unos 15.000 puntos
simulados.
5.3 Integración múltiple.

Las integrales múltiples se utilizan a menudo en la ingeniería. Por ejemplo, una


ecuación general para calcular el promedio de una función bidimensional puede
escribirse como sigue:

Al numerador se le llama integral doble.

Las técnicas estudiadas en este capítulo (y en el siguiente) se utilizan para


evaluar integrales múltiples. Un ejemplo sencillo seria obtener la integral doble de
una función sobre un área rectangular.

Recuerde del cálculo de dichas integrales se pueden calcular como integrales


iteradas.
Primero se evalúa la integral en una de las dimensiones y el resultado de esta
primera integración se incorpora en la segunda integración.

Una integral numérica doble estará basada en la misma idea. Primero se aplican
métodos, como la regla de Simpson o del trapecio para segmentos múltiples, a la
primera dimensión manteniendo constante los valores de la segunda dimensión. El
procedimiento se ilustra en el ejemplo siguiente.

EJEMPLO
Planteamiento del problema: suponga que la temperatura en una placa rectangular
se describe mediante la siguiente función:

Si la placa tiene 8m de largo (dimensión x) y 6m de ancho (dimensión y), calcule la


temperatura promedio.

SOLUCION:

Primero se usara la regla del trapecio con dos segmentos en cada dimensión.

Observe que un promedio simple de estos valores es 47.33. La función también se


evalúa analíticamente, cuyo resultado seria 58.66667.

Para realizar numéricamente la misma evaluación se emplea primero la regla del


trapecio a lo largo de la dimensión x con cada uno de los valores de y. Estos
valores se integran después a lo largo de la dimensión y para dar como resultado
final 2688. Dividiendo este entre el área se obtiene la temperatura promedio: 2668/
(6×8)=56.
También podemos emplear la regla de Simpson 1/3 de la misma manera con un
solo segmento. Esta integral da como resultado de 2816 y un promedio de
58.66667, que es exacto. ¿Por qué pasa esto? Recuerde que la regla de Simpson
1/3 dio resultados perfectos con polinomios cúbicos. Como el término del grado
mayor en la función es de segundo grado, en el presente caso se obtiene el
mismo resultado exacto.

Para funciones algebraicas de grado superior, así como funciones trascendentes,


será necesario emplear segmentos múltiples para obtener estimaciones exactas
de la integral.

Estas con frecuencia proporcionan mejores recursos para la integración numérica


de integrales múltiples.

Unidad 6 Solución de Ecuaciones Diferenciales.

6.1 Fundamentos matemáticos.

Se llama ecuación diferencial a aquella ecuación que contiene derivadas. Si la


ecuación solo tiene una sola variable independiente recibe el nombre de
ecuaciones diferenciales Ordinarias (EDO). Si la ecuación contiene más de una
variable independiente, apareciendo así sus derivadas Parciales, recibe el nombre
de ecuaciones diferenciales en derivadas parciales.

Se llama orden de una ecuación diferencial al orden de la mayor derivada que


aparezca en ella.

Se llama grado de una ecuación diferencial al grado de la derivada de mayor


orden que aparezca en ella.

Se llama solución general de una ecuación diferencial a toda relación entre las
variables, libres de derivadas, que satisface dicha ecuación diferencial. Por lo
común, la solución general de una ecuación diferencial de
orden n tiene n constante. Integrar o resolver una ecuación diferencial es hallar su
solución general.

Se llama solución particular de una ecuación diferencial a aquella solución que se


obtienen a partir de la solución general, dando valores a las constantes.

Una ecuación diferencial es una ecuación en la que intervienen derivadas de una


o más funciones desconocidas. Dependiendo del número de variables
independientes respecto de las que se deriva, las ecuaciones diferenciales se
dividen en:

Ecuaciones diferenciales ordinarias: Aquellas que contienen derivadas respecto


a una sola variable independiente.

Ecuaciones en derivadas parciales: Aquellas que contienen derivadas respecto


a dos o más variables.

Solución general: Una solución de tipo genérico, expresada con una o más
constantes. La solución general es un haz de curvas. Tiene un orden de infinitud
de acuerdo a su cantidad de constantes (una constante corresponde a una familia
simplemente infinita, dos constantes a una familia doblemente infinita, etc). En
caso de que la ecuación sea lineal, la solución general se logra como combinación
lineal de las soluciones (tantas como el orden de la ecuación) de la ecuación
homogénea (que resulta de hacer el término no dependiente de Y(x) ni de sus
derivadas igual a 0) más una solución particular de la ecuación completa.

Solución particular: Si fijando cualquier punto P(Xo,Yo) por donde debe pasar
necesariamente la solución de la ecuación diferencial, existe un único valor de C, y
por lo tanto de la curva integral que satisface la ecuación, éste recibirá el nombre
de solución particular de la ecuación en el punto P(Xo,Yo), que recibe el nombre
de condición inicial. Es un caso particular de la solución general, en donde la
constante (o constantes) recibe un valor específico.
Solución singular: Una función que verifica la ecuación, pero que no se obtiene
particularizando la solución general.

Aplicaciones de las ecuaciones diferenciales:

Presentar el estudio de los conceptos de derivadas, integrales y ecuaciones


diferenciales de una manera entendible desde el punto de vista operativo en un
90% es decir, de resolución de problemas clásicos tratados en la mayoría de las
universidades de México y posiblemente de Latinoamérica. El curso sólo tendrá
algunas cuestiones teóricas porque quiero suplir la necesidad de Aprender a
Resolver Problemas De Aplicaciones. Aplicación explícita, en el que uno plantea
una ecuación en términos matemáticos indicando y=a·x + b, no sé, pero en la vida
cotidiana estamos rodeados de aplicación de ecuaciones lineales.

Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n


incógnitas de la forma:

Donde aij son los coeficientes, xi las incógnitas y bi son los términos
independientes.

Representación matricial

El anterior sistema se puede expresar en forma matricial, usando el producto de


matrices de la forma:
De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden
m x n se denomina matriz de coeficientes.

También usaremos la matriz ampliada, que representaremos por A', que es la


matriz de coeficientes a la cual le hemos añadido la columna del término
independiente:

6.2 Métodos de un paso.

6.2.1 Método Euler y Euler mejorado.

Una de las técnicas más simples para aproximar soluciones de una ecuación
diferencial es el método de Euler, o de las rectas tangentes.
La primera derivada proporciona una estimación directa de la pendiente en

Donde es la ecuación diferencial evaluada en y . Tal estimacion


podra sustituirse ne la ecuación:
Esta fórmula es conocida como el método de Euler (o de Euler-Cauchy o de punto
medio). Se predice un nuevo valor de <y> por medio de la pendiente (igual a la
primera derivada en el valor original de x) que habrá de extrapolarse en la forma
lineal sobre el tamaño de paso h.

Análisis de error para el método de Euler.

La solución numérica de los EDO involucra dos tipos de error:

1.- Errores de truncamiento, o discretizacion, causados por la naturaleza de las


técnicas empleadas para aproximar los valores de y.

2.- Errores de redondeo, que son el resultado del número limite de cifras
significativas que puede retener una computadora.

Los errores de truncamiento se componen de dos partes. La primera es un error


de truncamiento local que resulta de una aplicación del método en cuestión sobre
un paso sencillo. La segunda es un error de truncamiento propagado que resulta
de las aproximaciones producidas durante los pasos previos. La suma de los dos
es el total, o error de truncamiento global.

Se puede obtener cierto conocimiento acerca de la magnitud y propiedades del


error de truncamiento al derivar el método de Euler directamente de la expansión
de la serie de Taylor. Para ello, observe que la ecuación diferencial sujeta a
integración será de la forma general:

Donde y y son las variables independiente y dependiente,


respectivamente. Si la solución tiene derivadas continuas, puede representarse
por una expansión de la serie de Taylor con respecto a los valores de inicio
cómo:
Donde termino remanente, definido como:

Donde E esta en algún lugar en el intervalo de a . Es posible desarrollar


una forma alternativa al sustituir la ecuación en las ecuaciones para obtener:

Donde especifica que el error de funcionamiento local es proporcional al


tamaño de paso elevado a la potencia esima.

Al comparar las ecuaciones puede verse que el método de Euler corresponde a la


serie de Taylor hasta e incluyendo el termino . Además, la comparación
indica que ocurre un error de truncamiento porque aproximamos la solución
verdadera mediante un numero finito de términos de la serie de Taylor. De esta
forma truncamos, o dejamos fuera, una parte de la solución verdadera. Al restar la
ecuación se tiene:

Donde Et = error de truncamiento local verdadero. Para h lo suficientemente


pequeña, los errores en los términos de la ecuación disminuyen con frecuencia en
tanto aumenta el orden y el resultado a menudo es representado como:

Ejemplo.

Enunciado del problema. Use el método de Euler para integrar numéricamente la


ecuación:

Desde hasta con un tamaño de paso 0.5. La condición inicial en


es . Recuerde que la solución exacta la da la ecuación:

Solución. Se puede usar la ecuación para implementar el método de Euler:

Donde y la pendiente estimada en es

Por tanto,
La solución real en es

Tabla 1. Comparación de los valores verdadero y aproximado de la integral de


, con la condición inicial de que en .
Los valores aproximados se calcularon mediante el método de Euler común
tamaño de paso de 0.5. El error local se refiere al error incurrido sobre un solo
paso. Se calcula con una expansión de la serie de Taylor. El error global es la
discrepancia total debida a los pasos anteriores así como a los actuales.
Así, el error es

O, expresada como error relativo porcentual . Para el segundo


paso,

La solución real en es 3.0 y, por lo tanto, el error relativo porcentual es


de El cálculo se repite y los resultados se compilan en la tabla y la figura
anteriores. Observe que aunque el cálculo captura la tendencia general de la
solución verdadera, el error es considerable. Como se analiza en la siguiente
sección, este error se puede reducir al usar un tamaño de paso más pequeño.
El ejemplo anterior usa un polinomio simple para la ecuación diferencial con el fin
de facilitar el siguiente análisis de error. De esta forma:

Obviamente, un caso más general involucra varios EDO que dependen de ambos,
x e y.
6.2.2 Método de Runge-Kutta.

En la sección anterior se estableció que el método de Euler para resolver la ecuación


diferencial de primer orden

(
Y' = f(X, Y) 7
)

Con la condición inicial

(
Y(X0) = Y0 8
)

Consiste en aplicar repetidamente la fórmula de recurrencia

(
Yn+1 = Yn + h f(Xn, Yn) donde n = 1, 2, 3, ... 9
)

Para determinar la solución de la ecuación diferencial en

X = X1, X2, X3, ...

Sustituyendo la función f(X,Y) dada en (7), en (9), se tiene que

Yn+1 = Yn + h Y'n (1
0)

Expresión que indica que el método de Euler consiste gráficamente, en ir de un


valor Yn conocido de la solución de la ecuación diferencial (7) en un punto, al
siguiente por medio de la tangente T1 a la curva integral Y = Y(X) en el mismo
punto de la solución conocida, como se muestra en la siguiente figura.

De este planteamiento gráfico puede verse que una mejor aproximación a la


solución de la ecuación diferencial se obtendría si en vez de ir por la tangente T1
para determinar la solución en el siguiente Punto Pivote, se utiliza una secante con
pendiente igual al promedio de pendientes de la curva integral en los puntos
coordenados (Xn, Yn), (Xn+1, Yn+1) en donde Xn+1 y Yn+1 pueden estimarse con
el procedimiento normal de Euler, como se muestra en la siguiente gráfica:
Con lo anterior se obtendría un método mejorado de Euler con error del orden de
definido por la expresión

(1
1)

En donde f(Xn+1, Yn+1) es el valor de la función f(X, Y) para:

X = Xn+1

Y = Yn + h f(Xn, Yn)

Observando las expresiones para resolver la ecuación diferencial, puede decirse que ambas
consisten en aplicar la fórmula de recurrencia

(1
2)

En donde

(1
3)

En el método de Euler y
(1
4)

En lo que

(1
Y' = f(X, Y)
5)

En el método de Euler Mejorado.

Como se ve, estos métodos tienen los siguientes puntos en común:

Son métodos de un paso; para determinar Yn+1 se necesita conocer únicamente


los valores de Xn y Yn del punto anterior.

No requieren evaluar ninguna derivada, sino únicamente valores de la función f(X,


Y).

Estas características dan origen a una gran variedad de métodos conocidos como
de Runge-Kutta. La diferencia entre ellos cosiste en la forma como se define la

función que aparece en la expresión (12).

La ventaja de los métodos de Runge-Kutta con respecto al uso de la serie de


Taylor, que es también un método de un paso, está expresado en el punto (2)
anterior; es decir, los métodos de Runge-Kutta requieren sólo de la función f(X, Y)
y de ninguna derivada, mientras que la serie de Taylor sí requiere de la evaluación
de derivadas. Esto hace que, en la práctica, la aplicación de los métodos de
Runge-Kutta sean más simples que el uso de la serie de Taylor.

Un método de Runge-Kutta para resolver ecuaciones diferenciales ordinarias de

primer orden con error del orden de , de uso tan frecuente que en la literatura
sobre métodos numéricos se le llama simplemente el Método de Runge-Kutta, se
dará a conocer sin demostrar y consiste en aplicar la ecuación de recurrencia (12)

en donde la función está dada por la expresión:

(1
6)

En el cual

(1
7)

La ecuación (16) se obtiene haciendo un promedio de las cuatro pendientes, k1,


k2, k3 y k4 a la curva integral, en forma semejante a como se procedió con las
pendientes de las tangentes T1 y T2 que dieron lugar a (11)

EJEMPLO

Resolver

Aplicando el método de Runge-Kutta.

SOLUCIÓN

De la condición inicial del problema se tiene que X = 0, y Y = 1; además, h = 0.1.


Sustituyendo estos valores en (17) se obtiene:
Llevando estos valores a (16) y el resultante a (12) se obtiene que para X = 0.1 la
solución del problema es

Los valores de las ki para este punto obtenido de la solución, son:

Luego

Continuando de la misma forma se obtiene la solución que se muestra en la siguiente tabla:


X Y k1 k2 k3 k4

0.0 1.0000 0.5000 0.5516 0.5544 0.6127

0.1 1.0554 0.6126 0.6782 0.6823 0.7575

0.2 1.1236 0.7575 0.8431 0.8494 0.9494

0.3 1.2085 0.9492 1.0647 1.0745 1.2121

0.4 1.3158 1.2119 1.3735 1.3896 1.5872

0.5 1.4545 1.5868 1.8234 1.8517 2.1509

6.3 Método de pasos múltiples.

Los métodos de un paso descritos en las secciones anteriores utilizan información


en un solo punto xi para predecir un valor de la variable dependiente yi+1 en un
punto futuro xi+1. Procedimientos alternativos, llamados métodos multipaso, se
basan en el conocimiento de que una vez empezado el cálculo, se tiene
información valiosa de los puntos anteriores y esta a nuestra disposición. La
curvatura de las líneas que conectan esos valores previos proporciona información
con respecto a la trayectoria de la solución. Los métodos multipaso que
exploraremos aprovechan esta información para resolver las EDO. Antes de
describir las versiones de orden superior, presentaremos un método simple de
segundo orden que sirve para demostrar las características generales de los
procedimientos multipaso.
El método de Heun de no autoinicio

Recordemos que el procedimiento de Heun usa el método de Euler como un


predictor:
Y la regla trapezoidal como un corrector:

ec.1

Así, el predictor y el corrector tienen errores de truncamiento local de


y , respectivamente. Esto sugiere que el predictor es el enlace debil en el
método, pues tiene el error más grande. Esta debilidad es significativa debido a
que la eficiencia del paso corrector iterativo depende de la exactitud de la
predicción inicial. En consecuencia, una forma para mejorar el método de Heun es
mediante el desarrollo de un predictor que tenga un error local de . Esto se
puede cumplir al usar el método de Euler y la pendiente en , y una información
extra del punto anterior como en:

ec.2

Observe la ecuación ec. 2 alcanza ) a expensas de emplear un tamaño de


paso mas grande, 2h. Además, observe que la ecuación ec. 1 no es de autoinicio,
ya que involucra un valor previo de la variable dependiente yi-1. Tal valor podria no
estar disponible en un problema común de valor inicial. A causa de ello, las
ecuaciones 26.11 y 26.12 son llamadas método de Heun de no autoinició.
Como se ilustra en la figura 26.4, la derivada estimada de la ecuación 26.12 se
localiza ahora en el punto medio mas que al inicio del intervalo sobre el cual se
hace la predicción. Como se demostrara después, esta ubicación centrada mejora
el error del predictor a Sin embargo, antes de proceder a una deducción
formal del método de Heun de no autoinicio, resumiremos el método y lo
expresaremos usando una nomenclatura ligeramente modificada:
Predictor:

Corrector:

Donde los superíndices se agregaron para denotar que el corrector se aplica


iterativamente de j=1 a m para obtener soluciones refinadas. Observe
que son los resultados finales de las iteraciones del
corrector en los pasos de tiempo anteriores. Las iteraciones son terminadas en
cualquier paso de tiempo con base en el criterio de paro:

ec. 3

Cuando es menor que una tolerancia de error Es preestablecida, se terminan


las iteraciones. En este punto

Ejemplo

Use el método de Heun de no autoinicio para realizar los mismos cálculos igual
que en el ejemplo 25.5 mediante el método de Heun. Es decir,

integrar de usando un tamaño de paso de 1. Como


en el ejemplo 25.5, la condición inicial en . Sin embargo, como aquí
tratamos con un método de multipaso, requerimos la información adicional de
que .

Solución: El predictor se usa para extrapolar linealmente de


El corrector es entonces usado para calcular el valor:

La cual representa un error relativo porcentual de -5.73%. Este error es algo mas
pequeño que el valor de -8.18% incurrido en el Heun de autoinicio.
Ahora, la ecuación del predictor se puede aplicar de manera iterativa para mejorar
la solución:

Que representa un Et de -1.92%. Puede determinarse un estimado de error


aproximado usando la ecuación ec. 3:

La ecuación se puede aplicar de manera iterativa hasta que Ea esté por debajo de
un valor pre especificado de Es. Como fue el caso con el método de Heun, las
iteraciones convergen sobre un valor de 6.360865. Sin embargo, como el valor del
predictor inicial es más exacto, el método de multipaso converge una razón algo
más rápida.
Para el segundo paso, el predictor es:

Que es superior a la predicción de 12.08260 que fue calculada con el método de


Heun original. El primer corrector da 15.76693 e iteraciones subsecuentes
convergen sobre el mismo resultado como se obtuvo con el método de Heun de
autoinicio: 15.30224. Como con el paso anterior, la razón de convergencia del
corrector ha sido mejorada debido a la mejor predicción inicial.
Deducción y análisis del error de las formulas del predictor-corrector. Ya
empleamos conceptos gráficos para deducir el Heun de no autoinicio. Ahora
mostraremos como las mismas ecuaciones se pueden deducir matemáticamente.
Esta deducción es en particular interesante porque vincula las ideas del ajuste de
curva, de la integración numéricas y de las EDO. El ejercicio también es útil
porque proporciona un procedimiento simple para desarrollar métodos de
multipaso de orden superior y estima sus errores.

La deducción se basa en resolver la EDO general:

Esta ecuación se puede resolver al multiplicar ambos lados por integrando


entre los límites :

El lado izquierdo se puede integrar y evaluar mediante el teorema fundamental:

ec. 4
La ecuación representa una solución a la EDO si la integral puede ser evaluada.
Es decir, proporciona un medio para calcular un nuevo valor de la variable
dependiente con base en un valor previo de y la ecuación diferencial.
Las formulas de integración numérica proporcionan una manera de hacer esta
evaluación. Por ejemplo, la regla trapezoidal se puede usar para evaluar la
integral, como en:

ec. 5

Donde es el tamaño de paso. Al sustituir la ecuación ec.5 en la


ecuación ec.4 se tiene:

La cual es la ecuación corrector para el método de Heun. Como esta se basa en la


regla trapezoidal, el error de truncamiento puede tomarse directamente de la tabla
2:

ec.6

Un procedimiento similar puede ser usado para deducir al predictor. Para este
caso, los límites de integración van de :
Que se puede integrar y re arreglar para obtener:

ec.7

Ahora, más que usar la formula cerrada de la tabla 2, la primera formula en


integración abierta de Newton-Cotes se puede usar para evaluar la integral como
en:

ec. 8

La cual es llamada método de punto medio. Sustituyendo la ecuación ec. 8 en la


ecuación ec.7 se obtiene:

ec.9

El cual es el predictor para el Heun de no autoinicio. Como con el corrector, el


error de truncamiento local se puede tomar directamente:

ec.10

Donde el subíndice p designa que este es el error dele predictor.


Así, el predictor y el corrector para el método de Heun de no autoinicio tiene
errores de truncamiento del mismo orden. Además de actualizar la exactitud del
predictor, este hecho tiene beneficios adicionales relacionados con el análisis del
error, como se elaborara en la siguiente sección.

Estimación de errores: Si el predictor y el corrector de un método multipaso son


del mismo orden, el error de truncamiento local puede estimarse durante el curso
de un cálculo. Esto es una tremenda ventaja, ya que establece un criterio para el
ajuste del tamaño de paso.

El error de truncamiento local para el predictor se estima con la ecuación ec.9.


Dicho error estimado se puede combinar con el estimado de del paso predictor
para dar:

ec.11

Mediante un procedimiento similar, el error estimado para el corrector se puede


combinar con el resultado del corrector para dar:

La ecuación ec.10 puede ser restada de la ecuación ec.11 para dar:

Donde E esta ahora entre y . Ahora, si se divide la ecuación entre 5 y se


rearregla el resultado se tiene:

ec.12

Observe que el lado derecho de las ecuaciones ec. 6 y ec.12 son idénticos, con la
excepción del argumento de la tercera derivada. Si no hay una variación
apreciable sobre el intervalo en cuestión, podemos suponer que el lado derecho
son iguales y, por tanto, los lados izquierdos deberían ser equivalentes, como en:
ec.13

Así, llegamos a una relación que puede ser usada para estimar el error de
truncamiento por paso con base en dos cantidades, que son de rutina
subproductos del cálculo.

Solución. En =1, el predictor de 5.607005 y el corrector da 6.360865. Estos


valores se pueden sustituir en la ecuación ec.13 para dar:

La cual se compara bien con el error exacto:

En =2, el predictor da 13.44346 y la trayectoria da 15.30224, la cual se usa


para calcular:

Que también se compara favorablemente con el error


exacto,
6.4 Sistema de ecuaciones diferenciales ordinarias.

Muchos problemas prácticos de ingeniería y ciencia requieren la solución de un


sistema de ecuaciones diferenciales ordinarias simultáneas más que una sola
ecuación. Tales sistemas pueden representarse por lo general como:

La solución de tal sistema requiere que se conozcan las n condiciones iniciales en


el valor inicial de x.

Método de Euler.

Los métodos analizados anteriormente para simples ecuaciones pueden


extenderse al sistema que se mostro antes. Aplicaciones en la ingeniería pueden
involucrar miles de ecuaciones simultáneas. En este caso, el procedimiento para
resolver un sistema de ecuaciones simplemente involucra aplicar la técnica de un
paso para cada ecuación en cada paso antes de proceder con el siguiente. Esto
se ilustra mejor con el siguiente ejemplo para el método de Euler simple.

Ejemplo

Resolución de sistemas de EDO mediante el método de Euler


Enunciado: Resuelva el siguiente conjunto de ecuaciones diferenciales usando el
método de Euler, suponiendo que , y . Integre para con un
tamaño de paso de 0.5.
Solución: Se implemente el método de Euler para cada variable.

Observe que, se usa en la segunda ecuación más que la


calculada con la primera ecuación. Al proceder de manera similar se tiene:

Nota.- Los métodos usados para las resoluciones de estos sistemas de


ecuaciones son los utilizados en las secciones anteriores, por tanto
pasaremos a ajustar el tamaño del paso directamente, claro está después
de haber resuelto el sistema mediante uno de los métodos vistos
anteriormente
Control de tamaño de paso.

Ahora que desarrollamos formas para estimar el error de truncamiento local, se


puede usar para ajustar el tamaño de paso. En general, la estrategia es
incrementar el tamaño de paso si el error es demasiado pequeño y disminuirlo si
es muy grande. Press y Cols. (1992) han sugerido el siguiente criterio para cumplir
con lo anterior:
Donde h-actual y h-nuevo = tamaño de paso actual y nuevo, ∆actual= exactitud
actual calculada, ∆nuevo= exactitud deseada, y a= exponente constante que es
igual a 0.2 cuando aumenta el tamaño de paso y 0.25 disminuye el tamaño de
paso.

El parámetro clave en la ecuación 25.47 es obviamente ∆nuevo ya que es su


vehículo para especificar la exactitud deseada. Una manera para realizarlo sería
relacionar ∆ nuevo con un nivel relativo de error. Aunque esto funciona bien solo
cuando ocurren valores positivos, puede causar problemas para soluciones que
pasan por cero. Por ejemplo, usted podría estar simulando una función oscilatoria
que repetidamente pasa por cero, pero está limitada por valores máximos
absolutos. Para tal caso, podría necesitar estos valores máximos para figurar en la
exactitud deseada.

Una manera más general de manejar esos casos es determinar ∆ nuevo como:

Donde E=nivel de tolerancia global. Su elección de y-escala determinara entonces


como se ha escalado el error. Por ejemplo, si y-escala = y, la exactitud será
manejada en términos del error relativo fraccional. Si usted trata ahora con un
caso donde desee errores relativos constantes a un limite máximo preestablecido,
existe ya una y-escala igual a ese límite. Un truco sugerido por Press y cols. Para
obtener los errores relativos constantes excepto aquellos que cruzan muy cerca de
cero, es:
Unidad 7 Ecuaciones Diferenciales Parciales.

7.1 Clasificación de ecuaciones.

Una ecuación de 2 orden en derivadas parciales lineal, homogénea, con


coeficientes constantes tiene la forma (supuesto dos variables indepenientes):

donde

a,h,b,f,g,c son constantes. Por comparación con una cónica

se puede decir que estas ecuaciones se clasifican en elípticas, parabólicas e


hiperbólicas de igual modo que las cónicas.

Esto es, si

>0

la ecuación es elíptica;

=0
la ecuación es parabólica;

<0

la ecuación es hiperbólica

Según esto, las clásicas ecuaciones de difusión, de ondas y de Laplace


pertenecen a los tipos

Ecuación de difusión: parabólica

Ecuación de onda: hiperbólica

Ecuación de Laplace: elíptica

Nota: Esta clasificación sigue siendo válida incluso cuando los coeficientes de la
ecuación a, b, h, f, g, c so funciones variables de x e y. En estos casos la ecuación
puede cambiar de tipo al pasar de un cuadrante a otro. Por ejemplo la ecuación

Es elíptica en la región > 0, parabólica a lo largo de las rectas = 0, e

hiperbólica en la región < 0.

Una ecuación de 2 orden en derivadas parciales lineal, homogénea, con


coeficientes constantes tiene la forma (supuesto dos variables indepenientes):

Donde

a,h,b,f,g,c son constantes. Por comparación con una cónica


Se puede decir que estas ecuaciones se clasifican en elípticas, parabólicas e
hiperbólicas de igual modo que las cónicas.

Esto es, si

>0

La ecuación es elíptica;

=0

La ecuación es parabólica;

<0

La ecuación es hiperbólica

Según esto, las clásicas ecuaciones de difusión, de ondas y de Laplace


pertenecen a los tipos

Ecuación de difusión: parabólica

Ecuación de onda: hiperbólica

Ecuación de Laplace: elíptica

Nota: Esta clasificación sigue siendo válida incluso cuando los coeficientes de la
ecuación a, b, h, f, g, c so funciones variables de x e y. En estos casos la ecuación
puede cambiar de tipo al pasar de un cuadrante a otro. Por ejemplo la ecuación
Es elíptica en la región > 0, parabólica a lo largo de las rectas = 0, e

hiperbólica en la región < 0.

7.2 Método de diferencias finitas.

El Método de Diferencias Finitas es un método de carácter general que permite la


resolución aproximada de ecuaciones diferenciales en derivadas parciales
definidas en recintos finitos. Es de una gran sencillez conceptual y constituye un
procedimiento muy adecuado para la resolución de una ecuación bidimensional
como la que hemos planteado.
El primer paso para la aplicación del método consiste en discretizar el recinto del
plano en el que se quiere resolver la ecuación con una malla, por conveniencia
cuadrada. Los puntos de la malla están separados una distancia h en ambas
direcciones x e y.
Podemos desarrollar T(x,y) en serie de Taylor alrededor de un punto:

(11
)

(1
2)
Sumando miembro a miembro, agrupando, despreciando los términos o(h3) y
despejando el término de la derivada segunda resulta:

(13)
De forma similar se obtiene la expresión equivalente:

(14)
Pero de la ecuación de Laplace:

(15)

Por lo tanto:

Lo que significa que el valor de la temperatura en un punto se puede escribir como la


media de las temperaturas de los 4 puntos vecinos.

7.2.1 Ecuaciones parciales parabólicas.

Son ejemplos de este tipo de ecuación los fenómenos transitorios de transmisión


de calor en sólidos, o de difusión molecular.

La forma más simple (unidimensional) del problema sería:

  2
  S  x, t 
t  x2
     
der  x, t 

Se estudiarán a continuación los esquemas típicamente aplicados a esta tipo de


EDP.

Euler hacia adelante (explícito):

  xi , t n1     xi , t n 
 der  xi , t n 
t

Nota: Se indica con un círculo negro los valores incógnita, y con un círculo blanco
los ya conocidos.
Euler hacia atrás (implícito):

  xi , t n 1     xi , t n 
 der  xi , t n 1 
t

Crank-Nicholson (implícito)

 
Discretiza en x i , t n  12 ; es de segundo orden en t

  xi , t n 1     xi , t n  1
  der  x i , t n 1   der xi , t n  
t 2
En cualquiera de los esquemas, debe justificarse la convergencia. Como ello es
dificultoso, se intenta justificar la estabilidad.

Para ello se puede aplicar el criterio de Von Neumann. El mismo es aplicable a


ecuaciones lineales con  ; el dominio debe ser no acotado, x =cte. y que los
coeficientes de la EDP sean también constantes.

En estas hipótesis, si la condición inicial es combinación lineal de otras funciones,


la solución de la EDP será a su vez combinación lineal de soluciones.

Una descomposición apropiada es la de series de Fourier (en variable compleja)

1
P.ej  1   ei   2 e2 i  .....   m emi   1
1 z

Cada sumando de la serie está formado por un Nº real que multiplica a las
funciones base (denominadas "modos" o "armónicos")

N m
  xi , t n   i n    E m n  e
ji
N

m 1

m
ji
Así, para el m-ésimo armónico   E mn  e
n N
j 1
i

Para que el esquema sea estable, todos y cada uno de los modos debe

 n 1
permanecer acotado en el tiempo, o sea, llamando G  Em  n
Em
 n 1
Em 
se tiene que G  1   m
E m n  N

G es llamado factor de amplificación, y es en general, un número complejo. G


depende de x , t ,  , etc.

Así, por ejemplo, para el esquema de Euler hacia adelante.


Se analiza la ecuación homogénea,
 i n 1   i n  in1  2 i n    in1
 pues se estudia la perturbación a
t x 2
la solución

i n   E m n  e j i 

E n 1

 E  n   e j i


E  n
e j  i 1 
 
2 e
j i
 e j  i 1 
; 
dividiendo por
E  n  e j i
m
t x 2 t
 
 2 sen 2  
2
 n 1    
E m  1   t e  j  2  e j  G  1  2  t  cos  1
 
 n
Em x 2 x 2

En este caso, G es real, y cumple

    t  t
G  1  2  2  sen 2    1 4 1
 2  x x 2
2

 t  t  t 1
1 4  1  24  
x 2 x 2 x 2 2

Se observa que, aún tendiendo a cero, no cualquier combinación de t , x es


admisible; el esquema converge sólo si se cumple la condición.

El criterio de Von Neumann no es una CN ó CS. Se podría decir, a los fines


prácticos, que se usa como CN y S, pero hay casos que no la cumplen y sin
embargo son convergentes (y no es CS por los efectos de no linealidad, etc. no
considerados).

Para el caso de Euler hacia atrás

 i n 1   i n 
t


 2  in11  2 i n 1   in11
x

Nuevamente, se estudia un único armónico

E n 1
 E  n   j i
e 


E  n 1 e j  i 1   2e j i   e j  i 1   ;
t x 2

E  n  e j i
Si de divide entre resulta:
t

E  n 1  t E  n 1 E  n 1   t 


 1  2 cos   1  1  2 x 2  cos  1   1
E  n x 2 E  n  E  n  

1
G   1  
 t
1 2  cos  1 es incondicionalmente estable.
x 2
      
0

Se puede ver que, para Crank-Nicholson,

 t
1 2
1  cos 
G x  1 
 t
1 1  cos 
x 2

En general, G es un número complejo.