Академический Документы
Профессиональный Документы
Культура Документы
3 1
3 − 2 4 − 2 3 é a sua transposta.
Por exemplo: Se A = ⇒ A’ =
1 3 7
4 7
A notação (aji) indica que o elemento da i-ésima linha e j-ésima coluna de A é encon-
trado na j-ésima linha e i-ésima coluna de A’. Se A é nxp então A’ é pxn.
A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22,
…, app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A é forma-
da pelos elementos 3, 10 e 9.
Se a matriz nAn contém zeros em todas as posições fora da diagonal ela é uma
matriz diagonal, como por exemplo,
8 0 0 0
0 −3 0 0
D=
0 0 0 0
0 0 0 4
que também pode ser denotada como
D = diag(8, –3, 0, 4)
Nós usamos a notação diag(A) para indicar a matriz diagonal com os mesmos ele-
mentos da diagonal de A, como por exemplo,
3 2 6 3 0 0
A = 2 10 − 7 ⇒ diag(A) = 0 10 0
6 − 7 9 0 0 9
Uma matriz diagonal com o número 1 em cada posição da sua diagonal é cha-
mada de matriz identidade e é denotada por I, como por exemplo,
1 0 0
I(3) = diag(1, 1, 1) = 0 1 0
0 0 1
que é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos
da j-ésima coluna de B. Assim, nós multiplicamos todas as linhas de A por todas as
colunas de B. Se A é (nxm) e B é (mxp) então C = AB é (nxp). Por exemplo,
1 4
2 1 3 2 6
A(2x3) = e B(3x2) =
4 6 5
3 8
Então
(2)(1) + (1)(2) + (3)(3) (2)(4) + (1)(6) + (3)(8) 13 38
2AB2 = 2C2 = =
(4)(1) + (6)(2) + (5)(3) (4)(4) + (6)(6) + (5)(8) 31 92
18 25 23
3BA3 = 3D3 = 28 38 36
38 51 49
Se A é nxm e B é mxp, onde n ≠ p, então o produto AB é definido, mas BA não
é definido. Se A é nxp e B é pxn, então AB é nxn e BA é pxp. Neste caso, certamen-
te, AB ≠ BA, como ilustrado no exemplo anterior. Se A e B são nxn então AB e BA
têm o mesmo tamanho, mas, em geral:
AB ≠ BA (2.12)
A matriz identidade I(n) é o elemento neutro da multiplicação de matrizes. Isto
quer dizer que, se A é n x n então AI = IA = A.
A multiplicação de matrizes não é comutativa e algumas manipulações familia-
res com números reais não podem ser feitas com matrizes. Entretanto, a multiplicação
de matrizes é distributiva em relação à soma ou subtração:
Usando (2.13) e (2.14) nós podemos expandir produtos como (A – B)(C – D):
(A – B)(C – D) = (A – B)C – (A – B)D
= AC – BC – AD + BD (2.15)
Desde que b’c é uma soma de produtos (um escalar!) tem-se que b’c = c’b:
b’c = b1c1 + b2c2 + … + bpcp
c’b = c1b1 + c2b2 + … + cpbp
⇒ b’c = c’b (2.16)
Assim, b’b é uma soma de quadrados e bb’ é uma matriz quadrada e simétrica.
Material elaborado pelo Prof. César Gonçalves de Lima
10
A raiz quadrada da soma de quadrados dos elementos de um vetor bpx1 é igual à
distância da origem ao ponto b e é referida como norma euclidiana, ou comprimento
do vetor b:
p
comprimento de b = || b || = b' b = ∑ bi2 (2.20)
i =1
Se j é um vetor nx1 de 1’s como definido em (2.6), então por (2.18) e (2.19),
nós temos que:
1 1 L 1
1 1 L 1
j’j = n, jj’ = = J(nxn) (2.21)
M M O M
1 1 L 1
onde Jnxn é uma matriz quadrada de 1’s como ilustrada em (2.7), Se a é um vetor nx1
e A é uma matriz nxp, então
n
a’j = j’a = ∑ ai (2.22)
i =1
∑ j a1 j
[∑i ai1 ∑i ai 2 ∑ a
j 2j
j’A = L ∑i aip ] e Aj =
M
(2.23)
∑ j anj
Assim, a’j = j’a é a soma dos elementos em a, j’A contem as somas das colunas de A
e Aj contem as somas das linhas de A. Note que em a’j, o vetor j é nx1; em j’A, o
vetor j é nx1 e em Aj, o vetor j é px1.
2
1 − 2 3 4 5
Exemplo: Seja a matriz A = 5 1 6 4 e o vetor a = então:
1
2 5 4 0
8
1 − 2 3 4
i) j'A = [1 1 1] 5 1 6 4 = [8 4 13 8] (totais das colunas de A)
2 5 4 0
1
1 − 2 3 4 6
1
ii) Aj = 5 1 6 4 = 16 (totais das linhas de A)
1
2 5 4 0 11
1
Material elaborado pelo Prof. César Gonçalves de Lima
11
1 2
1 5
iii) a’j = [2 5 1 8] = j’a = [1 1 1 1] = 16 (total dos elementos de a)
1 1
1 8
Para ilustrar os passos dessa prova, vamos usar as matrizes A2x3 e B3x2:
b11 b12
a a a13 b
AB = 11 12 b
a21 a22 a23 21 22
b31 b32
2 1 1
= y’ I − J + J y = y’ I − J y
n n n
Então, a variância pode ser calculada por:
s2 =
1 n
∑ ( yi − y )2 = 1 y' I − 1 J y
n − 1 i =1 n −1 n
Qualquer matriz A pode ser multiplicada pela sua transposta para formar A’A
ou AA’. Algumas propriedades desses produtos são dadas no próximo Teorema.
Teorema 2.2C. Seja A uma matriz nxp. Então A’A e AA’ têm as seguintes proprie-
dades:
(i) A’A é pxp e é obtida como produto das colunas de A.
(ii) AA’ é nxn e é obtida como produto das linhas de A.
(iii) Ambas as matrizes A’A e AA’ são simétricas.
(iv) Se A’A = Φ então A = Φ.
Material elaborado pelo Prof. César Gonçalves de Lima
14
Seja A uma matriz quadrada n x n e D = diag(d1, d2, … , dn). No produto DA, a
i-ésima linha de A é multiplicada por di e em AD, a j-ésima coluna de A é multipli-
cada por dj. Por exemplo, se n = 3, nós temos:
d1 0 0 a11 a12 a13 d1a11 d1a12 d1a13
DA = 0 d2 0 a21 a22 a23 = d a d 2 a22 d 2 a23 (2.29)
2 21
0 0 d 3 a31 a32 a33 d 3a31 d 3a32 d 3a33
Vale notar que DA ≠ AD. Entretanto, no caso especial onde a matriz diagonal é
a matriz identidade, (2.29) e (2.30) temos:
IA = AI = A (2.32)
10 11 15 0 0 0
A⊕C= ≠Φ (Perceba que A+C = Φ)
0 0 0 − 10 − 11 − 15
1 2 1 2
− 1 − 2 3 4
0 0 − 1 − 2
A⊗y= y⊗A=
3 4 − 3 − 4
− 3 − 4 0 0
0 0 0 0
Em relação à sua segunda potência, uma matriz quadrada A, será chamada de:
(i) idempotente, se A 2 = A.
(ii) nilpotente, se A 2 = Φ.
(iii) unipotente, se A 2 = I.
Por (2.28) e (2.29), as colunas do produto AB são combinações lineares das co-
lunas de A. Os coeficientes para a j-ésima coluna de AB são os elementos da j-ésima
coluna de B.
O produto de um vetor linha por uma matriz, a’B, pode ser expresso como uma
combinação linear das linhas de B, na qual os coeficientes são os elementos de a’:
b1t
t
b
a’B = [a1, a2, …, an] 2 = a1 b1t + a2 b t2 + … + an b tn (2.38)
M
t
b n
Por (2.27) e (2.38), as linhas do produto AB são combinações lineares das linhas de
B. Os coeficientes da i-ésima linha de AB são os elementos da i-ésima linha de A.
Finalmente, notamos que se uma matriz A é particionada como A = [A1, A2], então:
A1t
A’ = [A1, A2]’ = t (2.39)
A 2
Pode-se mostrar que o número de colunas l.i. de qualquer matriz é igual ao número de
linhas l.i. dessa matriz.
Se a matriz A tem um único elemento diferente de zero, com todos os demais
elementos iguais a zero, então rank(A) = 1. O vetor 0 e a matriz Φ têm posto zero.
Se a matriz retangular A(nxp) de posto p, onde p < n, então A tem o maior posto
possível e é dito ter posto coluna completo.
Em geral, o maior posto possível de uma matriz A(nxp) é o min(n, p). Assim, em
uma matriz retangular, as linhas, as colunas ou ambas são linearmente dependentes.
Nós ilustramos esse fato no próximo exemplo.
Nem sempre é fácil perceber que uma linha (ou coluna) é uma combinação li-
near de outras linhas (ou colunas). Nesses casos pode ser difícil “calcular” o posto de
uma matriz. Entretanto, se conseguirmos obter a forma escalonada canônica (f.e.c.)
da matriz, o seu posto corresponderá ao número de linhas (ou colunas) que tenham o
número 1 como líder. A obtenção da f.e.c. de uma matriz é feita através de operações
elementares em suas linhas (ou colunas).
Teorema: Uma matriz A é equivalente por linhas a uma matriz B se B pode ser obti-
da de A aplicando-se uma seqüência de operações elementares sobre as suas linhas.
Definição: Dizemos que uma matriz A(nxm) está na sua forma escalonada canônica ou
reduzida se ocorrer simultaneamente que:
(a) o primeiro elemento não nulo de cada linha não nula é o número 1 (pivô);
(b) toda coluna que tem um pivô, tem todos os outros elementos nulos;
(c) o pivô da linha i +1 ocorre à direita do pivô da linha i (i = 1, 2, …, n–1).
(d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das
linhas não nulas.
Teorema. Dada uma matriz real A(nxp) é sempre possível obtermos a sua forma esca-
lonada canônica (f.e.c.) através de operações elementares.
1 0 7 / 6
Então a f.e.c. de A é a matriz e o rank(A) = 2.
0 1 − 11 / 12
Definição: Dizemos que uma matriz quadrada está na forma de Hermite (Graybill
1969, p.120) se satisfaz as seguintes condições:
(a) é uma matriz triangular superior;
Definição: Dizemos que uma matriz quadrada está na forma de Echelon (Graybill,
1969, p.286) se ela satisfaz as condições de uma forma de Hermite e apresenta as
linhas de zeros abaixo das linhas que não são nulas.
Teorema 2.4A.
(i) Se as matrizes A e B são conformes, então rank(AB) ≤ rank(A) e rank(AB) ≤
rank(B).
(ii) A multiplicação por uma matriz não-singular (ver Seção 2.5) não altera o posto
da matriz, isto é, se B e C são não-singulares⇒ rank(AB) = rank(CA) = rank(A).
(iii) Para qualquer matriz A, rank(A’A) = rank(AA’) = rank(A’) = rank(A).
Então
4 7 1 0 1 0 3 / 5 − 7 / 10 –1 0.6 − 0.7
2 6 0 1 ~ … ~ 0 1 − 1 / 5 ⇒A = − 0.2
2 / 5 0.4
Importante: Se a matriz B é singular ou retangular, ela não pode ser cancelada nos
dois lados da igualdade AB = CB.
Teorema 2.5A. Se A é não singular, então A’ é não singular e a sua inversa pode ser
encontrada como:
–1 –1
(A’) = (A )’ (2.48)
1 1
Exemplo. A variância definida como s2 = y' I − J y = y’Ay é uma
n −1 n
forma quadrática e a sua matriz núcleo é simétrica:
1 1 1 1 −1 −1
1 − n − L −
n n
n(n − 1)
L
n(n − 1)
n
1 −
1
1
1− L
−
1 −1 1
L
−1
A= n n n = n(n − 1) n n(n − 1)
n −1
M M M M M M
−1 −
1 1 − 1
L 1 −
−1
L
1
n n n n(n − 1) n(n − 1) n
Teorema 2.6A.
(i) Se A é positiva definida, então todos os elementos aii da sua diagonal são posi-
tivos.
(ii) Se A é positiva semidefinida, então todos aii ≥ 0.
(Ver prova na página 23 do livro do Rencher)
Corolário 1. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp) de posto
k ≤ p. Então a matriz BAB’ é positiva definida.
Corolário 2. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp). Se k > p
ou se rank(B) = r, onde r < k e r < p, então a matriz BAB’ é positiva semidefinida.
2
Note que se B é uma matriz quadrada, a matriz B = BB não é necessariamente
positiva semidefinida. Por exemplo, seja a matriz:
1 − 2
B=
1 − 2
Então:
− 1 2 2 − 4
B2 = , B’B = − 4
− 1 2 8
Neste caso, B2 não é positiva semidefinida, mas B’B é positiva semidefinida, porque
2
y’B’By = 2(y1 – 2y2) ≥ 0.
–1
Teorema 2.6E. Se A é positiva definida, então A é positiva definida.
Prova: Pelo Teorema 2.6C, A = P’P, onde P é não singular. Pelos Teoremas 2.5A e
–1 –1 –1 –1 –1 –1
2.5B, A = (P’P) = P (P’) = P (P )’, que é positiva definida pelo Teore-
ma 2.6C.
4
x2
3
0
0 1 2 3 4 5
x1
A Figura 2.1 mostra as três linhas que representam as três equações do sistema.
Note que as três linhas cruzam no ponto de coordenadas (2, 1), que é a solução única
do sistema de três equações.
4
x2
3
0
0 1 2 x1 3 4 5
Toda matriz (quadrada ou retangular) tem uma inversa condicional. Isso é ga-
rantido mesmo para vetores. Por exemplo:
1 então x1− = [1, 0, 0, 0] é uma inversa generalizada de x que
2
x= satisfaz (2.57). Outros exemplos são x −2 = [0, 1/2, 0, 0], x 3− = [0,
3 0, 1/3, 0] e x −4 = [0, 0, 0, 1/4]. Para cada x i− , nós temos que:
4 x xi− x = x 1 = x, i = 1, 2, 3.
Nessa ilustração, x é um vetor coluna e x i− é um vetor linha. Esse modelo é generali-
zado no seguinte teorema.
–
Teorema 2.8A. Se A é nxp então qualquer inversa generalizada A é pxn.
1 1 0
1 1 0
Exemplo. Calcular uma inversa generalizada (condicional) de X =
1 0 1
1 0 1
Usando o algoritmo de Searle (e lembrando que o posto da matriz X é 2), escolhemos
convenientemente:
1 0 –1 1 0 –1 1 0
C= ⇒ C = 0 1 ⇒ (C )’ = 0 1
0 1
0 0 0
0 0 0 0 0
1 0 0 1 0 0 é uma inversa condicional de X
⇒ ⇒ X– =
0 0 1
0 0 1 0
0 0 0
Vale lembrar que escolhendo outras matrizes C e usando o algoritmo, podemos en-
contrar outras inversas condicionais de X.
–
Teorema 2.8C. Seja A (nxp) de posto r, seja A uma inversa generalizada de A e
–
seja (A’A) uma inversa generalizada de A’A. Então:
(i) posto(A’A) = posto(AA’) = posto(A) = r.
Material elaborado pelo Prof. César Gonçalves de Lima
35
– – –
(ii) (A’) é uma inversa generalizada de A’; isto é (A’) = (A )’.
– –
(iii) A = A(A’A) A’A e A’ = A’A(A’A) A’.
– – –
(iv) (A’A) A’ é uma inversa generalizada de A, isto é, A = (A’A) A’.
– –
(v) A(A’A) A’ é simétrica, rank[A(A’A) A’] = r e é invariante à escolha de
– – –
(A’A) ; isto é, A(A’A) A’ permanece a mesma, para qualquer (A’A) .
Definição: Dada a matriz A(nxp) então toda matriz A mq (pxn) que satisfaz as duas
condições seguintes, é uma inversa de mínimos quadrados da matriz A:
mq
(a) AA A = A
mq
(b) AA é uma matriz simétrica
mq –
Teorema. Toda matriz do tipo A = (A’A) A’ é uma inversa de mínimos qua-
–
drados de A [qualquer que seja a inversa condicional (A’A) ].
1 1 0
1 1 0
Exemplo. Obter uma inversa de mínimos quadrados de X =
1 0 1
1 0 1
4 2 2
2 0
Primeiramente calculamos X’X = 2 2 0 . Escolhendo C = 0 2 e usando o al-
2 0 2
goritmo de Searle, obtemos:
0 0 0
(X’X) = 0 0,5 0
–
0 0 0,5
+
Definição: Dada a matriz A (nxp) de posto r, então a matriz A (pxn), de posto r, que
satisfaz às quatro condições seguintes, é definida como a inversa generalizada de
Moore-Penrose da matriz A:
+
(a) AA A = A
+ + +
(b) A AA = A
+
(c) A A é simétrica
+
(d) A A é simétrica
+
Teorema 2. Para cada matriz A (nxp) existe sempre uma e só uma matriz A que
satisfaz as condições de Moore-Penrose.
–
Teorema 2.8D. Se o sistema de equações Ax = c é consistente e se A é uma inversa
–
generalizada de A, então x = A c é uma solução.
Ver prova na pág.32 do livro do Rencher.
–
Vale lembrar mais uma vez que diferentes escolhas de A , resultarão em diferentes
soluções para Ax = c.
Uma condição necessária e suficiente para que o sistema Ax = c seja consistente pode
ser dado em termos de uma inversa generalizada (ver Graybill 1976, p.36).
Observe que o Teorema 2.8F fornece uma alternativa ao Teorema 2.7A para decidir
se um sistema de equações é consistente.
2.9. DETERMINANTES
O determinante de uma matriz A (nxn) é uma função escalar de A definida como a
soma algébrica de todos os seus n! possíveis produtos elementares. Denota-se geral-
mente por
n!
δ(A) = | A | = det(A) = ∑ pi
i =1
• Cada produto elementar é do tipo pi = a1_ a2_ a3_ … an_ em que, nos espaços
(índices) são colocados os números de alguma permutação simples do conjunto
{1, 2, …, n}.
• Em cada produto pi existe um e um só elemento de cada linha e coluna.
• Cada produto elementar recebe o sinal + ou –, conforme o número de inversões
envolvidas em pi seja par ou ímpar, respectivamente.
Essa definição não é muito útil para calcular o determinante de uma matriz, exceto
para o caso de matrizes 2x2 ou 3x3. Para matrizes maiores, existem programas espe-
cíficos (proc iml do SAS, Mapple e MathCad por exemplo) para calcular os deter-
minantes.
Teorema 2.9A.
n
(i) Se D = diag(d1, d2, …, dn) então det(D) = ∏ di
i =1
Note a analogia de (2.70) e (2.71) com o caso do determinante de uma matriz A, 2x2:
det(A) = a11 a22 – a21 a12 = a11 (a22 – a21 a12/ a11) = a22 (a11 – a12 a21/ a22)
Corolário 1.
|AB| = |BA| (2.77)
Corolário 2.
2 2
|A | = |A| (2.77)
4 − 1
Exemplo. Sejam os vetores a = e b = . Então a’b = 0 ⇒ cos(θ) = 0 ⇒ o ân-
2 2
gulo formado entre eles é de 90º, ou seja, os vetores a e b são perpendiculares.
Se a’a = 1, dizemos que o vetor a está normalizado. Um vetor b pode ser nor-
malizado dividindo-o pelo seu comprimento (ou norma), b' b . Assim
b
c= (2.81)
b' b
está normalizado, porque c’c = 1.
∑i=1 aii
n
tr(A) =
8 4 2
Por exemplo, se A = 2 − 3 6 ⇒ tr(A) = 8 + (–3) + 9 = 14.
3 5 9
Teorema 2.11A.
(i) Se A e B são (nxn) então
tr(A ± B) = tr(A) ± tr( B) (2.85)
(ii) Se A é (nxp) e B é (pxn), então
tr(AB) = tr(BA) (2.86)
Note que em (2.86) n pode ser menor, igual ou maior que p
(iii) Se A é (nxp)
p
tr(A’A) = ∑ a tj a j (2.87)
j =1
5. Os resultados em (2.96) 2 (2.99) podem ser usados para obter autovalores e autove-
tores de um polinômio em A. Por exemplo, se λ é um autovalor de A, então
3 2 3 2
(A + 4A – 3A + 5I)x = A x + 4A x – 3Ax + 5x
3 2
= λ x + 4λ x – 3λx + 5x
3 2
= (λ + 4λ – 3λ + 5)x
3 2 3 2
Assim, λ + 4λ – 3λ + 5 é um autovalor de A + 4A – 3A + 5I, e x é o autovetor
correspondente.
Para certas matrizes, a propriedade (5) pode ser estendida para séries infinitas.
Por exemplo, se λ é um autovalor de A, então por (2.97), 1 – λ é um autovalor de
I – A. Se I – A é não-singular, então, por (2.100), 1/(1 – λ) é um autovalor de
–1
(I – A) . Se –1 < λ < 1, então 1/(1 – λ) pode ser representado pela série (de Fourier)
1 2 3
=1+λ+λ +λ +…
1− λ
Correspondentemente, se todos os autovalores de A satisfazem –1 < λ < 1, então
–1 2 3
(I – A) = I + A + A + A + … (2.101)
2.12.3. Produtos
Similar ao comentário feito após a apresentação de (2.97), os autovalores de AB não
são produtos da forma λAλB. Entretanto, os autovalores de AB são os mesmos de BA.
Teorema 2.12D. Se A é uma matriz simétrica com autovalores λ1, λ2, …,λn e autove-
tores normalizados x1, x2, …,xn então A pode ser expressa como
A = CDC’ (2.102)
n
= ∑ λ i x i x ti (2.103)
i =1
onde D = diag(λ1, λ2, …,λn) e C é a matriz ortonormal C = [x1, x2, …,xn]. O resultado
mostrado em (2.102) ou (2.103) é chamado de decomposição espectral de A.
Ver prova nas pág. 46-47.
Teorema 2.12E. Se A é uma matriz com autovalores λ1, λ2, …,λn então
n
(i) det(A) = | A | = ∏ λi (2.106)
i =1
n
(ii) tr(A) = ∑ λi (2.107
i =1
Teorema 2.12F. Se A é uma matriz com autovalores λ1, λ2, …,λn então
(i) Se A é positiva definida então λi > 0 para i = 1, 2, …, n
(ii) Se A é positiva semidefinida então λi ≥ 0 para i = 1, 2, …, n. O número de
autovalores λi para os quais λi > 0 é igual ao posto de A.
Teorema A.5.2 Seja A uma matriz real e simétrica, n x n, e D = diag(λ1, λ2, ...,λn) é a
matriz diagonal que exibe as raízes características de A. Então:
a) λi > 0, ∀i ⇔ A é positiva definida.
b) λi ≥ 0, ∀i, ∃ λi = 0 ⇔ A é positiva semi-definida.
c) λi < 0, ∀i ⇔ A é negativa definida.
d) λi ≤ 0, ∀i, ∃ λi = 0 ⇔ A é negativa semi-definida.
e) λi muda de sinal ⇔ A é não definida.
Teorema 2.13E. Se A é uma matriz nxn idempotente, P é uma matriz nxn não
singular e C é uma matriz nxn ortogonal, então:
(i) I – A é idempotente.
(ii) A(I – A) = 0 e (I – A)A = 0
-1
(iii) P AP é idempotente
(iv) C’AC é idempotente (se A é simétrica, C’AC é uma matriz simétrica e idempo-
tente).
–
Teorema 2.13F. Seja A uma matriz nxp de posto r, seja A qualquer inversa genera-
– – –
lizada de A e seja (A’A) uma inversa generalizada de A’A. Então A A, AA e
–
A(A’A) A’ são todas idempotentes.
Teorema 2.13G. Supondo que a matriz simétrica A nxn possa ser escrita como A =
∑i=1 A i para algum k, onde cada Ai é uma matriz simétrica nxn. Então, quaisquer
k
Teorema 2.14A. Seja u = a’x = x’a , onde a’ = [a1, a2, …, ap] é um vetor de constan-
tes. Então
∂u ∂ (a' x) ∂ (x' a)
= = =a (2.111)
∂x ∂x ∂x
(Ver prova na pág. 51 do livro do Rencher).
Teorema 2.14B. Seja u = x’Ax, onde A é uma matriz simétrica de constantes. Então
∂u ∂ (x' Ax)
= = 2Ax (2.112)
∂x ∂x
(Ver prova nas pág. 51-52 do livro do Rencher).
EXERCÍCIOS
Ver exercícios das páginas 52-61 do livro texto.
2 − 4 5
− 4 5
E = 0 1 4 e F=
3 2 3
2 1
1) Se as operações forem possíveis, calcule:
1 2
(a) C + E (b) AB e BA (c) D– F
3 5
a + b c + d 4 6
4) Se = , calcule os valores de a, b, c e d.
c − d a − b 10 2
4 2 2 x1 20
9) Seja o sistema escrito na forma matricial Ax = b, ou 2 2 0 x2 = 12 .
2 0 2 x3 8
(a) Encontre uma inversa generalizada simétrica de A.
(b) Encontre uma inversa generalizada não simétrica de A.
–
(c) Encontre duas soluções do sistema x = A b utilizando as inversas calculadas
nos itens anteriores e indique qual delas tem o menor comprimento.
–
(d) Mostre que a matriz AA é idempotente.
(
SQRes= y’ I − X(X' X )− X' y. )
(f) Construir um quadro de ANOVA, sabendo que o número de graus de liberdade
associados a uma SQ é igual ao posto da matriz núcleo da forma quadrática
correspondente.
(g) Confira os resultados da ANOVA usando, por exemplo, o proc glm do SAS.