Академический Документы
Профессиональный Документы
Культура Документы
En la parte dos, determinamos el valor de x que satisface una única ecuación, f(x) = 0. Ahora, nos
ocuparemos de determinar los valores x1, x2, …, en que en forma simultánea satisfacen un sistema de
ecuaciones.
Tales sistemas pueden ser lineales o no lineales. En la parte tres, trataremos con ecuaciones algebraicas
lineales, que tienen la forma general.
donde las “a” son los coeficientes constantes, las b son los términos independientes constantes y n es el
número de ecuaciones. Todas las demás ecuaciones son no lineales.
Un conjunto horizontal de elementos se llama un renglón (o fila); y uno vertical, columna. El primer
subíndice i siempre designa el número del renglón en el cual está el elemento. El segundo subíndice j
designa la columna. Por ejemplo, el elemento a23 está en el renglón 2 y la columna 3. La matriz en la
figura PT3.2 tiene n renglones y m columnas, y se dice que tiene una dimensión (o tamaño) de n por m
(o n × m). Ésta se conoce como una matriz n por m. A las matrices con dimensión renglón n = 1, tales
como
[B] = [b1 b2 ··· bm]
se les conoce como vectores renglón.
Las matrices con dimensión columna m = 1, como
se conocen como vectores columna. Para simplificar, se elimina el segundo subíndice. Como en el caso
del vector renglón, en ocasiones se desea emplear una notación breve especial para distinguir una
matriz columna de otros tipos de matrices. Una forma para realizarlo consiste en emplear paréntesis de
llave, así {C}. A las matrices en las que n = m se les llama matrices cuadradas. Por ejemplo, una matriz
de 4 por 4 es
A la diagonal que contiene los elementos a11, a22, a33, a44 se le llama diagonal principal de la matriz.
REGLAS DE OPERACIONES CON MATRICES
Igualdad de matrices
Dos matrices n por m son iguales si, y sólo si, cada elemento en la primera matriz es igual a cada
elemento en la segunda matriz; es decir, [A] = [B] si aij = bij para todo i y j.
La suma de dos matrices, por ejemplo, [A] y [B], se obtiene al sumar los términos correspondientes de
cada matriz. Los elementos de la matriz resultante [C] son:
cij = aij + bij
para i = 1, 2, …, n y j = 1, 2, …, m. De manera similar, la resta de dos matrices, por ejemplo, [E]
menos [F], se obtiene al restar los términos correspondientes así:
dij = eij – fij
para i = 1, 2, …, n y j = 1, 2, …, m. De las definiciones anteriores se concluye directamente que la
suma y la resta sólo pueden realizarse entre matrices que tengan las mismas dimensiones.
La suma es conmutativa:
[A] + [B] = [B] + [A]
La suma también es asociativa; es decir,
([A] + [B]) + [C] = [A] + ([B] + [C])
Se analizan las ecuaciones algebraicas lineales simultáneas que en general se representan como
Donde las a son los coeficientes constantes y las b son los términos independientes constantes. La
técnica que se describe en este capítulo se conoce como la eliminación de Gauss, ya que implica una
combinación de ecuaciones para eliminar las incógnitas. Aunque éste es uno de los métodos más
antiguos para resolver ecuaciones lineales simultáneas, continúa siendo uno de los algoritmos de mayor
importancia, y es la base para resolver ecuaciones lineales en muchos paquetes de software populares.
SOLUCIONES
Metodo Grafico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas cartesianas con
un eje que corresponda a x1 y el otro a x2. Debido a que, en estos sistemas lineales, cada
ecuación se relaciona con una línea recta, lo cual se ilustra fácilmente mediante las ecuaciones
generales
De esta manera, las ecuaciones ahora están en la forma de líneas rectas; es decir, x2 =
(pendiente) x1 + intersección. Tales líneas se grafican en coordenadas cartesianas con x2 como
la ordenada y x1 como la abscisa. Los valores de x1 y x2 en la intersección de las líneas
representa la solución.
Ejemplo Chapra Cannale:
DETERMINANTES Y REGLA DE CRAMER
La regla de Cramer es otra técnica de solución adecuada para un sistema pequeño de ecuaciones. Antes
de hacer una descripción de tal método, se mencionará en forma breve el concepto de determinante que
se utiliza en la regla de Cramer. Además, el determinante tiene relevancia en la evaluación del mal
condicionamiento de una matriz.
Determinantes. El determinante se puede ilustrar para un sistema de tres ecuaciones simultáneas:
El determinante D de este sistema se forma, a partir de los coeficientes del sistema, de la siguiente
manera:
Aunque el determinante D y la matriz de coeficientes [A] se componen de los mismos elementos, son
conceptos matemáticos completamente diferentes. Por esto, para distinguirlos visualmente se emplean
corchetes para encerrar la matriz y líneas rectas verticales para el determinante. En contraste con una
matriz, el determinante es un simple número. Por ejemplo, el valor del determinante de segundo orden
se calcula como
En el caso del determinante de tercer orden [ecuación (9.2)], el determinante, que es un simple valor
numérico, se calcula así
La estrategia básica consiste en multiplicar las ecuaciones por constantes, de tal forma que se elimine
una de las incógnitas cuando se combinen las dos ecuaciones. El resultado es una sola ecuación en la
que se puede despejar la incógnita restante. Este valor se sustituye en cualquiera de las ecuaciones
originales para calcular la otra variable.
Restando la ecuación (9.8) de la (9.9) se elimina el término x1 de las ecuaciones para obtener
Despejando x2
Observe que las ecuaciones (9.10) y (9.11) se relacionan directamente con la regla de Cramer, que
establece
EJEMPLO DEL CHAPRA CANNALE
ELIMINACION DE GAUSS SIMPLE
Se utilizó la eliminación de incógnitas para resolver un par de ecuaciones simultáneas. El
procedimiento consistió en dos pasos:
1. Las ecuaciones se manipularon para eliminar una de las incógnitas de las ecuaciones. El resultado de
este paso de eliminación fue el de una sola ecuación con una incógnita.
2. En consecuencia, esta ecuación se pudo resolver directamente y el resultado sustituirse atrás en una
de las ecuaciones originales para encontrar la incógnita restante.
Esta técnica básica puede extenderse a sistemas grandes de ecuaciones desarrollando un esquema
sistemático o algorítmico para eliminar incógnitas y sustituir hacia atrás. La eliminación de Gauss es el
más básico de dichos esquemas. Esta sección presenta las técnicas sistemáticas para la eliminación
hacia adelante y la sustitución hacia atrás que la eliminación gaussiana comprende. Aunque tales
técnicas son muy adecuadas para utilizarlas en computadoras, se requiere de algunas modificaciones
para obtener un algoritmo confiable. En particular, el programa debe evitar la división entre cero. Al
método siguiente se le llama eliminación gaussiana “simple”, ya que no evita este problema.
El método está ideado para resolver un sistema general de n ecuaciones:
Como en el caso de dos ecuaciones, la técnica para resolver n ecuaciones consiste en dos fases: la
eliminación de las incógnitas y su solución mediante sustitución hacia atrás.
ELIMINACION HACIA DELANTE DE INCOGNITAS
La primera fase consiste en reducir el conjunto de ecuaciones a un sistema triangular superior
(figura 9.3). El paso inicial será eliminar la primera incógnita, x1, desde la segunda hasta la n-
ésima ecuación. Para ello, se multiplica la ecuación (9.12a) por a21/a11 para obtener
donde el superíndice prima indica que los elementos han cambiado sus valores originales.
El procedimiento se repite después con las ecuaciones restantes. Por ejemplo, la ecuación (9.12a) se
puede multiplicar por a31/a11 y el resultado se resta de la tercera ecuación. Se repite el procedimiento
con las ecuaciones restantes y da como resultado el siguiente sistema modificado:
En los pasos anteriores, la ecuación (9.12a) se llama la ecuación pivote, y a11 se denomina el
coeficiente o elemento pivote. Observe que el proceso de multiplicación del primer renglón por
a21/a11 es equivalente a dividirla entre a11 y multiplicarla por a21. Algunas veces la operación de
división es referida a la normalización. Se hace esta distinción porque un elemento pivote cero llega a
interferir con la normalización al causar una división entre cero. Más adelante se regresará a este punto
importante, una vez que se complete la descripción de la eliminación de Gauss simple. Ahora se repite
el procedimiento antes descrito para eliminar la segunda incógnita en las ecuaciones (9.14c) hasta
(9.14d). Para realizar esto, multiplique la ecuación (9.14b) por a′32/a′22 y reste el resultado de la
ecuación (9.14c). Se realiza la eliminación en forma similar en las ecuaciones restantes para obtener
GAUSS-JORDAN
El método de Gauss-Jordán es una variación de la eliminación de Gauss. La principal diferencia
consiste en que cuando una incógnita se elimina en el método de Gauss-Jordán, ésta es eliminada de
todas las otras ecuaciones, no sólo de las subsecuentes. Además, todos los renglones se normalizan al
dividirlos entre su elemento pivote. De esta forma, el paso de eliminación genera una matriz identidad
en vez de una triangular (figura 9.9). En consecuencia, no es necesario usar la sustitución hacia atrás
para obtener la solución.
Aunque la técnica de Gauss-Jordán y la eliminación de Gauss podrían parecer casi idénticas, la primera
requiere más trabajo. Con el empleo de un enfoque similar al de la sección 9.2.1, se determina que el
número de flas que se involucra en la técnica de Gauss-Jordán simple es
Así, la técnica de Gauss-Jordán involucra aproximadamente 50 por ciento más operaciones que la
eliminación de Gauss [compárese con la ecuación (9.23)]. Por tanto, la eliminación de Gauss es el
método de eliminación sencilla que se prefiere para obtener las soluciones de ecuaciones algebraicas
lineales. Sin embargo, una de las razones principales por las que se ha introducido la técnica de Gauss-
Jordán, es que aún se utiliza tanto en la ingeniería como en ciertos algoritmos numéricos.
MATRIZ INVERSA
En el estudio de las operaciones con matrices (sección PT3.2.2), vimos que si una matriz [A] es
cuadrada, existe otra matriz [A]–1, conocida como la inversa de [A], para la cual [ecuación (PT3.3)]
Ahora se enfocará el análisis hacia el modo en que la matriz inversa se calcula numéricamente.
Después se explorará cómo se utiliza para el diseño en ingeniería.
CALCULO DE LA INVERSA
La inversa se puede calcular en forma de columna por columna, generando soluciones con
vectores unitarios como las constantes del lado derecho. Por ejemplo, si las constantes del lado
derecho de la ecuación tienen un número 1 en la primera posición, y ceros en las otras,
GAUSS-SEIDEL
Los métodos iterativos constituyen una alternativa a los métodos de eliminación descritos hasta ahora,
para aproximar la solución. Tales métodos son similares a las técnicas que se desarrollaron en el
capítulo 6 para obtener las raíces de una sola ecuación. Aquellos métodos consistían en suponer un
valor y luego usar un método sistemático para obtener una aproximación mejorada de la raíz. Como
esta parte del libro trata con un problema similar (obtener los valores que simultáneamente satisfagan
un conjunto de ecuaciones). Entonces se esperaría que tales métodos aproximados fuesen útiles en este
contexto.
El método de Gauss-Seidel es el método iterativo más comúnmente usado. Suponga que se da un
sistema de n ecuaciones:
[A]{X} = {B}
Suponga que se limita a un conjunto de ecuaciones de 3 × 3. Si los elementos de la diagonal no son
todos cero, la primera ecuación se puede resolver para x1, la segunda para x2 y la tercera para x3, para
obtener
se puede empezar el proceso de solución al escoger valores iniciales para las x. Una forma simple para
obtener los valores iniciales es suponer que todos son cero. Estos ceros se sustituyen en la ecuación
(11.5a), la cual se utiliza para calcular un nuevo valor x1 = b1/a11. Después, se sustituye este nuevo
valor de x1 junto con el valor previo cero de x3 en la ecuación (11.5b) y se calcula el nuevo valor de
x2. Este proceso se repite con la ecuación (11.5c) para calcular un nuevo valor de x3. Después se
regresa a la primera ecuación y se repite todo el procedimiento hasta que la solución converja suficiente
1 una matriz denuda positiva es aquella para la cual el producto {X}T[A]{X} es mayor que cero, para
todo vector {X} distinto de cero.
temente cerca a los valores verdaderos. La convergencia se verifica usando el criterio [recuerde la
ecuación (3.5)]
para todas las i, donde j y j – 1 son las iteraciones actuales y previas, respectivamente.
INTERLOPACION
Con frecuencia se encontrará con que tiene que estimar valores intermedios entre datos definidos por
puntos. El método más común que se usa para este propósito es la interpolación polinomial. Recuerde
que la formula general para un polinomio de n-eximo grado es
f(x)=a0+a1x+a2x2+…….anxn
Dados n+1 puntos, hay uno y solo un polinomio de grado n que pasa a través de todos los puntos. Por
ejemplo, hay solo una línea recta (es decir, un polinomio de primer grado) que une dos puntos. De
manera similar, únicamente una parábola une un conjunto de tres puntos. La interpolación polinimial
consiste en determiar el polinomio único de n-esimo grado que se ajuste a n+1 puntos. Este polinomio
entonces,proporciona una formula para calcular valores intermedios.
Interpolación lineal
La forma más simple de interpolación consiste en unir dos puntos con una línea recta. Dicha técnica,
llamada interpolación lineal, se ilustra de manera gráfica en la figura 18.2. Utilizando triángulos
semejantes,
reordenándose se tiene
que es una fórmula de interpolación lineal. La notación fl (x) designa que éste es un polinomio de
interpolación de primer grado. Observe que además de representar la pendiente de la línea que une los
puntos, el término (f(xl) — f(xO)l/(x1 — xO) es una aproximación en diferencia dividida finita a la
primer derivada.
Interpolación cuadrática
En el ejemplo el error resulta de nuestra aproximación a una curva mediante una línea recta. En
consecuencia, una estrategia para mejorar la estimación consiste en introducir alguna curvatura a la
línea que une los puntos. Si se tienen tres puntos como datos, éstos pueden ajustarse en un polinomio
de segundo grado (también conocido como polinomio cuadrático o parábola). Una forma
particularmente conveniente para ello es
El análisis anterior puede generalizarse para ajustar un polinomio de n-ésimo grado a n + 1 datos. El
polinomio de n-ésimo grado es
Como se hizo antes con las interpolaciones lineales y cuadráticas, los puntos asociados con datos se
utilizan para evaluar los coeficientes bO, bl….bn polinomio de n-ésimo grado se requieren n + 1
puntos: [x0), f(xO)],[XI , f(x1)] Usamos estos datos y las siguientes ecuaciones para evaluar los
coeficientes:
donde las evaluaciones de la función colocadas entre paréntesis son diferencias divididas finitas. Por
ejemplo, la primera diferencia dividida finita en forma general se representa como
POLINOMIOS DE INTERPOLACIÓN DE LAGRANGE
Observe que, como en el método de Newton, la forma de Lagrange tiene un error estimado de
De este modo, si se tiene un punto adicional en x = xn+l , se puede obtener un error estimado. Sin
embargo, como no se emplean las diferencias divididas finitas como parte del algoritmo de Lagrange,
esto se hace rara vez. Las ecuaciones (18.20) y (18.21) se programan de manera muy simple para
implementarse en una computadora. La figura 18.11 muestra el seudocódigo que sirve para tal
propósito.
En resumen, en los casos donde se desconoce el grado del polinomio, el método de Newton tiene
ventajas debido a la comprensión que proporciona respecto al comporta- miento de las fórmulas de
diferente grado. Además, el estimado del error representado por la ecuación se agrega usualmente en el
cálculo del polinomio de Newton debido a que el estimado emplea una diferencia finita. De esta
manera, para cálculos exploratorios, a menudo se prefiere el método de Newton.