Вы находитесь на странице: 1из 30

CAPTULO 1

Sistemas de Equaes Lineares com Coecientes


Reais
1. Introduo
Um conjunto de m equaes na forma
(1.1)
n

i=1
a
ik
x
k
= b
i
, i = 1, . . . , m
chamado sistema () com n incgnitas, tambm representado pelo produto de
matrizes:
() : A
mn
X
n1
= B
m1
, onde
A = (a
ij
)
i=1,...,m
j=1,...,n
, B = (b
i1
)
i=1,...,m
, X = (x
i1
)
i=1,...,n
O conjunto de solues de () ser dado por [] = X
n1
[ AX = B, i.e.,
X satisfaz todas as equaes de (1.1).
Afirmao. [] = [

], onde (

) obtido de () atravs de um nmero


nito de operaes elementares do tipo (1),(2) e (3), que consistem em:
(1) Trocar a ordem de duas linhas de ().
(2) Multiplicar uma linha de () por um escalar
1
k, k ,= 0.
(3) Substituir a i-sima linha pela soma da i-sima com a j-sima linha de ().
Demonstrao. Para provar (1), basta vericar que, aplicada a operao
(1), as equaes do sistema (

) a serem satisfeitas so as mesma de (), o que


trivialmente implica o mesmo conjunto soluo.
Para provar (2), seja a i-sima linha de () multiplicada por k, k ,= 0,
k
n

j=1
a
ij
= kb
i
Como k escalar no-nulo, a i-sima linha de (

) igual i-sima linha de ().


Assim, (

) = (), o que implica [

] = [].
Finalmente, para provar (3),
(a) Seja X
0
tal que satisfaa ().
Obtendo (

) por (3), temos que todas as equaes de (

), exceto a i-sima,
permanecem inalteradas, sendo portanto satisfeitas por X
0
.
Para que X
0
satisfaa tambm a i-sima equao de (

), necessrio que para


X = X
0
verique-se
n

k=1
(a
ik
+ a
jk
)x
k
= (b
i
+ b
j
) =
n

k=1
a
ik
x
k
+
n

k=1
a
jk
x
k
= b
i
+ b
j
1
Por escalar, entenda-se qualquer nmero real
1
2 1. SISTEMAS DE EQUAES LINEARES COM COEFICIENTES REAIS
Ou seja, X
0
deve satisfazer a i- e j-sima linha de (), o que verdade por
hiptese.
Portanto, X
0
satisfaz (

) = [] [

].
(b) Seja Y
0
tal que satisfaa (

). Logo, pela operao (3), todas as equaes de


(), exceto a i-sima, so iguais s de (

), sendo portanto satisfeitas por Y


0
.
Como Y
0
satisfaz i-sima equao de (

) e j-sima equao de (), ento


Y
0
satisfaz diferena entre as duas,
n

k=1
(a
ik
+ a
jk
)x
k

n

k=1
a
jk
x
k
= (b
i
+ b
j
) b
j
=
n

k=1
a
ik
x
k
= b
i
Ou seja, Y
0
satisfaz tambm i-sima equao de (). Portanto, todas as
equaes de () so satisfeitas por Y
0
= [

] [].
Com isso, conclumos que [] = [

]
2. Mtodo de Soluo do Sistema por Escalonamento
Como acabamos de vericar na seo anterior, cada vez que aplicamos qualquer
uma das operaes (1),(2) e (3) em (), obtemos um sistema (

) com a mesma
soluo. Dizemos portanto que () e (

) so equivalentes. Assim, se aplicamos


essas operaes elementares de forma sistemtica, chegaremos a um sistema equiv-
alente ao inicial que poder ser resolvido por inspeo. Este consite no chamado
Mtodo de Soluo do Sistema por Escalonamento da Matriz Aumentada
2
, onde a
matriz aumentada D
mn
de () dada por
(2.1) D
mn+1
=
_
_
_
(a
ij
)
i=1,...,m
j=1,...,n
(b
ij
)
i=1,...,m
j=n+1
Apresentaremos a seguir exemplos prticos de aplio do mtodo.
Exemplo 1.1. Consideremos o seguinte sistema linear:
(2.2)
_
_
1 2 40
2 4 18
1 3 5
_
_
_
_
x
y
z
_
_
=
_
_
68
38
7
_
_
A matriz aumentada associada a tal sistema
(2.3)
_
_
1 2 40 68
2 4 18 38
1 3 5 7
_
_
Primeiramente, devemos obter 1 como entrada em a
11
, o que pode ser feito atravs
da operao (1) ou (2). Optamos por aplicar (1),
_
_
1 3 5 7
2 4 18 38
1 2 40 68
_
_
O prximo passo zerar as demais entradas da primeira coluna.
Para tanto, podemos segundo a operao (2) multiplicar a linha 2 por (
1
2
) e
2
tambm conhecido como Mtodo de Gauss-Jordan
2. MTODO DE SOLUO DO SISTEMA POR ESCALONAMENTO 3
somar a ela a linha 1 1 pela operao (3)

_
_
1 3 5 7
1 2 9 19
1 2 40 68
_
_

_
_
1 3 5 7
0 1 4 12
1 2 40 68
_
_
Somando a linha 1 linha 3

_
_
1 3 5 7
0 1 4 12
0 5 35 75
_
_
Repetindo o procedimento, devemos obter a
22
= 1 e zerar a entrada em a
32
. Como
j temos a
22
= 1, basta multiplicar a ltima linha por (
1
5
) e somar a linha 2 a ela.

_
_
1 3 5 7
0 1 4 12
0 1 7 15
_
_

_
_
1 3 5 7
0 1 4 12
0 0 3 3
_
_
E por m, multiplicando a linha 3 por (
1
3
)

_
_
1 3 5 7
0 1 4 12
0 0 1 1
_
_
Esta a forma escalonada da matriz (2.3).
Assim, o sistema (2.2) reduz-se
_
_
1 3 5
0 1 4
0 0 1
_
_
_
_
x
y
z
_
_
=
_
_
7
12
1
_
_
cuja soluo
x = 60 y = 16 z = 1
Nesse caso, temos a seguinte interpretao geomtrica: cada equao deste
sistema representa um hiperplano 2-dimensionais em R
3
. Temos portanto trs
hiperplanos que interseccionam-se exatamente no ponto (60, 16, 1).
Exemplo 1.2. Dado o sistema ():
(2.4)
_
_
_
_
4 4 68 16
6 48 276 30
1 1 3 2
3 3 9 6
_
_
_
_
_
_
x
y
w
_
_
=
_
_
_
_
28
96
9
27
_
_
_
_
Pelo mtodo de escalonamento:
4 1. SISTEMAS DE EQUAES LINEARES COM COEFICIENTES REAIS
_
_
_
_
4 4 68 16 28
6 48 276 30 96
1 1 3 2 9
3 3 9 6 27
_
_
_
_

_
_
_
_
1 1 3 2 9
6 48 276 30 96
4 4 68 16 28
3 3 9 6 27
_
_
_
_

_
_
_
_
1 1 3 2 9
1 8 46 5 16
1 1 17 4 7
1 1 3 2 9
_
_
_
_

_
_
1 1 3 2 9
0 7 49 7 7
0 0 0 0 0
_
_

_
_
_
_
1 1 3 2 9
0 1 7 1 1
0 1 7 1 1
0 0 0 0 0
_
_
_
_

_
_
_
_
1 1 3 2 9
0 1 7 1 1
0 0 0 0 0
0 0 0 0 0
_
_
_
_
Assim, nosso sistema () acaba reduzido a
(2.5)
_
x+y 3z + 2w = 9
y + 7z w = 1
Resolvendo o sistema (2.5) em funo dos parmetros livres e R, temos
como soluo
(x, y, z, w) = (8 + 10 3, 1 7 + , , ) (2.6)
que pode ser reescrito como
(x, y, z, w) = (8, 1, 0, 0) + (10, 7, 1, 0) + (3, 1, 0, 1) (2.7)
Podemos interpretar geometricamente o sistema, com cada equao represen-
tando um hiperplano 3-dimensionais em R
4
, sendo que os hiperplanos dados pela
terceira e quarta equaes de (2.4) coincidem. A interseco desses quatro hiper-
planos resulta num subespao am 2-dimensionais, parametrizado em (2.6).
3. Sistemas Homogneos Associados
A todo sistema linear () em R
n
, podemos associar um sistema linear homog-
neo (
0
), dado por
(3.1) (
0
) : AX = 0
Denimos como uma transformao linear
3
(X) := AX
cujo espao nulo (kernel) um subespao linear de R
n
dado por
ker := X R
n
[ (X) = 0
Concluimos portanto que o espao soluo [
0
] ser justamente o kernel de .
Podemos determinar o espao soluo [] a partir do kernel de .
(3.2) [] = ker +X
B
= [
0
] +X
B
onde [
0
] a soluo de (3.1) e X
B
uma soluo particular de ().
3
A ser estudado detalhadamente em lgebra Linear
4. EXERCCIOS 5
No exemplo 1.2, o sistema homogneo associado seria
_
_
_
_
4 4 68 16
6 48 276 30
1 1 3 2
3 3 9 6
_
_
_
_
_
_
x
y
w
_
_
=

0
O espao soluo desse sistema seria o subespao 2-dimensionais de R
4
,
parametrizado por
ker = (x, y, z, w) = (10, 7, 1, 0) + (3, 1, 0, 1), , R
Uma possvel soluo particular para o sistema no-homogneo (2.4) seria o
ponto (x, y, z, w) = (12, 4, 1, 2). Assim, por (3.2), obteramos como soluo para
(2.4) o mesmo subespao parametrizado em (2.6),
[] = (x, y, z, w) = (12, 4, 1, 2) + (10, 7, 1, 0) + (3, 1, 0, 1), , R
4. Exerccios
(1) Determinar a e b para que o sistema abaixo seja possvel e determinado :
_

_
3x 7y = a
x + y = b
5x + 3y = 5a + 2b
x + 2y = a + b 1
(2) Determinar o valor de k para que o sistema
_
x + 2y + kz = 1
2x + ky + 8z = 3
tenha :
(a) soluo nica;
(b) nenhuma soluo;
(c) mais de uma soluo.
(3) Resolver, por escalonamento, os seguintes sistemas, expressar as solues
em termos de geradores e interpretar geometricamente os resultados obti-
dos :
(a)
_
4x + 3y z + t = 0
x y + 2z t = 0
(b)
_
_
_
x + 5y + 4z 13w = 3
3x y + 2z + 5w = 2
2x + 2y + 3z 4w = 1
(c)
_
_
_
x y + 2z t = 0
3x + y + 3z + t = 0
x y z 5t = 0
(4) Dado o sistema
_
_
_
3x + 3y 2z t = 2
5x + 2y + z 2t = 1
2x y + 3z t = 1
(a) Determine a soluo do sistema homogneo associado.
(b) Determine a soluo do sistema dado.
(c) Expresse a soluo anterior em termos de geradores.
6 1. SISTEMAS DE EQUAES LINEARES COM COEFICIENTES REAIS
(5) Resolva o sistema
_
2
u
+
3
v
= 8
1
u

1
v
= 1
(6) Discuta os seguintes sistemas
(a)
_
_
_
x + z = 4
y + z = 5
ax + z = 4
(b)
_

_
x + z + w = 0
x + ky + k
2
w = 1
x + (k + 1)z + w = 1
x + z + kw = 2
(c)
_
x + my (m + 1)z = 1
mx + 4y + (m1)z = 3
(d)
_
_
_
2x + 4y + 3z = 9
6x + 7z = 13
4x + 2y + az = b
(7) Qual a condio necessria e suciente para que a soluo do sistema
linear
_
x 4y = a
6x + ky = b
seja um par de nmeros inteiros, quaisquer que sejam a e b inteiros ?
(8) Sabendo que o sistema
_
_
_
x + y + z = 1
mx + 2y + 3z = 7
m
2
x + 4y + 9z = 1
admite uma nica soluo, podemos concluir que m pode assumir
todos os valores do intervalo real :
(a) [0,1] (b) [1,2] (c) [2,3] (d) [3,4] (e) [0,4]
(9) Seja
_
_
a 0 b 2
a a 4 4
0 a 2 b
_
_
a matriz ampliada de um sistema linear. Para que valores de a e b o
sistema admite :
(a) soluo nica
(b) soluo com um parmetro
(c) soluo com dois parmetros
(d) nenhuma soluo
(10) Discuta a soluo do sistema
_
_
_
3x + 5y + 12z w = 3
x + y + 4z w = 6
2y + 2z + w = 5
Acrescente a equao 2z +kw = 9 a este sistema e encontre um valor
de k que o torne impossvel.
4. EXERCCIOS 7
(11) Determine os valores de a, b e c que faam com que o graco do polinmio
p(x) = ax
2
+ bx + c passe pelos pontos (1, 2), (1, 6), (2, 3).
(12) Dados f(x) = ax
2
+ bx + c e g(x) = 2ax + b, determine os valore de a, b
e c para que f passe pelos pontos (1, 0), (2, 9) e que 2 seja raiz de g.
(13) Determinar os polinmios reais q(x) do segundo grau que vericam a iden-
tidade q(x) = q(1 x)x R.
(14) Considere as matrizes reais: A =
_
3 1
1 1
_
e B =
_
x
y
_
,=
_
0
0
_
.
Determine valores reais para k, x e y tais que AB = kB.
(15) Repita o exerccio anterior para as matrizes
_
2 1
1 2
_
,
_
11 12
12 4
_
e
_
1 1
1 1
_
Este exerccio merece algum comentrio. Cada valor obtido para o
escalar k chamado um autovalor da matriz A, e cada soluo B corre-
spondente chamada de autovetor de A associado ao autovalor k. Voc
seria capaz de interpretar geomtricamente a situao com a qual estamos
lidando ?
(16) Encontre os autovalores e os autovetores das seguintes matrizes :
_
_
5 0 1
1 1 0
7 1 0
_
_
,
_
_
4 2 0
1 1 0
0 1 2
_
_
,
_
_
3 0 4
0 3 5
0 0 1
_
_
(17) Considere os seguintes sistemas lineares abaixo, onde os coecientes tomam
valores no corpo dos complexos (C).
_
2x + (1 + i)y + w = 0
3y 2iz + 5w = 0
_ _
1 +
i
2
_
x + 8y iz w = 0
2
3
x
1
2
y + z + 7w = 0
O segundo sistema pode ser obtido a partir do primeiro atravs de
operaes elementares ?
(18) Encontre todas as solues do sistema
_
(1 i)x iy = 0
2x + (1 i)y = 0
(19) Considere o sistema de equaes AX = 0, onde A =
_
a b
c d
_
uma
matriz com coecientes complexos. Mostre que :
(a) Se ad bc ,= 0, o sistema AX = 0 possui apenas a soluo trivial
x = y = 0.
(b) Se ad bc = 0 e alguma entrada de A no nula, ento existe uma
solo (x
0
, y
0
) tal que (x, y) soluo se, e somente se, existe um
escalar complexo k tal que x = kx
0
e y = ky
0
.
(20) Encontre duas matrizes 2 2 distintas tais que A
2
= 0 mas A ,= 0.
(21) Sejam A, B matrizes tais que AB = I, onde I a matriz identidade da
ordem necessria. Mostre que BA = I. Isto vlido para matrizes de
quaisquer ordens ?
(22) Seja
_
C
11
C
12
C
21
C
22
_
uma matriz 22. Mostre que existem matrizes 22 tais que C = ABBA
se, e somente se, C
11
+ C
22
= 0.
8 1. SISTEMAS DE EQUAES LINEARES COM COEFICIENTES REAIS
(23) Mostre que a matriz
_
_
_
_
_
1
1
2

1
n
1
2
1
3

1
n+1
.
.
.
.
.
.
.
.
.
.
.
.
1
n
1
n+1

1
2n1
_
_
_
_
_
inversvel.
CAPTULO 2
Vetores
1. Denio algbrica
A seguir, deniremos axiomaticamente um espao vetorial real (R
n
).
Definio 2.1. Um espao vetorial real R
n
estabelecido pela seguinte estru-
tura:
(1) O conjunto de todas as n-uplas X = (x
1
, . . . , x
n
), com x
1
, . . . , x
n
R.
(2) Duas operaes, denominadas Soma e Multiplicao por escalar, denidas
de forma a possuirem as seguintes propriedades.
Sejam X = (x
1
, . . . , x
n
), Y = (y
1
, . . . , y
n
), Z = (z
1
, . . . , z
n
) R
n
e r, s R.
Propriedades da Soma
(S1) X +Y = Y +X
(S2) (X +Y ) +Z = X + (Y +Z)
(S3) Existe um nico elemento O tal que O +X = X
(S4) Para cada elemento X existe um nico elemento X tal que
X + (X) = 0.
Propriedades da Multiplicao por escalar
(M1) r(X +Y ) = rX + rY
(M2) 1 X = X
(M3) r s(X) = r(s X)
(M4) (r + s)X = rX + sX
Assim, denimos as duas operaes como
(A) A soma X +Y dada por
X +Y = (x
1
+ y
1
, . . . , x
n
+ y
n
)
e portanto tambm pertence a R
n
.
(B) A multiplicao por escalar rX dada por
rX = (rx
1
, . . . , rx
n
)
e portanto tambm pertence a R
n
.
2. Denio Geomtrica
A noo mais primria que temos de vetor aquela de carter puramente
geomtrico, amplamente usada na Fsica para representar foras, velocidades, mo-
mentos, etc. Isso nos motiva a formular uma denio geomtrica para vetores,
restrita a

R
2
e

R
3
.
1
Definio 2.2. A uma classe de equivalncia de segmentos de reta orientados
chamamos de vetor v. Portanto, todas as setas com mesma magnitude, direo e
sentido constituem uma mesma classe de equivalncia e so representadas por um
vetor v.
1
Espao euclidiano bi e tridimensional, respectivamente.
9
10 2. VETORES
Para um vetor v em

R
2
ou

R
3
denimos geometricamente as operaes de soma
e multiplicao por escalar (Fig.1), que tm como consequncia o mesmo elenco de
propriedades dadas em (A) e (B), agora, porm, derivadas a partir da geometria
conforme exemplicado nas Fig.2 e Fig.3.
-
v + w
*
v
U
w
v + w:
3
3
rv
v
r v:
Figura 1. Soma e Multiplicao por escalar em

R
2
1
x
1
x
j
y
j
y
-
x + y = y + x
Figura 2. Propriedade Comutativa, pela soma dos lados do par-
alelogramo em

R
2
.
-
x + y
3
x
U
y
-
rx + ry
3
rx
U
ry
r(x + y) = rx + ry
Figura 3. Propriedade Distributiva, por semelhana de tringu-
los em

R
2
.
3. A equivalncia entre denao algbrica e denio geomtrica
Por ora, nos restringiremos a

R
2
. Todos os resultados aqui derivados podem
ser analogamente estendidos a

R
3
.
Demonstraremos a seguir que todo vetor v

R
2
pode ser unicamente determi-
nado por uma dupla (a, b).
Demonstrao. Em

R
2
, xamos um ponto 0 do plano (origem). Em 0,
xamos um par ordenado de vetores no-colineares e
1
, e
2
.
3. A EQUIVALNCIA ENTRE DEFINAO ALGBRICA E DEFINIO GEOMTRICA 11
-
e
1

e
2
-

3
ae
1
be
2
v
Figura 4. Representao nica de v, por soma de vetores
Pela Fig.4, vemos que todo v

R
2
pode ser representado de maneira nica
atravs da soma de vetores
v = ae
1
+ be
2
, a, b R
pois se houvesse uma segunda representao
v = a

e
1
+ b

e
2
, a

, b

R
ento

0 = (a a

)e
1
+ (b b

)e
2
(a a

)e
1
= (b b

)e
2
=
_
(1) e
1
e e
2
so colineares ou
(2) a = a

e b = b

Por hiptese, e
1
e e
2
no so colineares, o que invalida (1). Resta-nos (2), que
implica unicidade de coordenadas para v.
Assim, podemos representar unicamente v por
(3.1) v (a, b)

Teorema 2.1. Se v (a, b) e w (c, d) ento


v + w = (a + c, b + d)
Para demonstrao, vide Fig.5.
-
6
*
v

v + w
a
b
a + c
b + d
Figura 5. Teorema 2.1
12 2. VETORES
Teorema 2.2. Se v (a, b) e r escalar,
rv = (ra, rb)
Para demonstrao, vide Fig.6.
-
e
1

e
2
-

*
ae
1
be
2
v
-

*
(ra)e
1
(rb)e
2
rv
Figura 6. Teorema 2.2
De maneira anloga, dado um par (a, b) R
2
(sempre com e
1
, e
2
e 0 xos
em

R
2
) temos
R
2
(a, b) v

R
2
tal que v = ae
1
+ be
2
com as propriedades
(a) (a
1
, b
1
) + (a
2
, b
2
) v
1
+v
2
(b) (a, b) v
Portanto, o ponto 0 (que agora tambm pode ser identicado por

0) e o par
ordenado e
1
, e
2
xados nos permitem uma identicao entre R
2
e

R
2
, que re-
speita soma e multiplicao por escalar, e, consequentemente, suas respectivas pro-
priedades (seo 1).
Exemplo 2.1. Num plano cartesiano, dados os pontos A = (a
1
, a
2
) e B =
(b
1
, b
2
), determinaremos a seguir qual o vetor c que vai de A a B.
No plano xy, tomamos como ponto

0 a origem do plano e como e
1
, e
2
os
vetores unitrios sobre os eixos x e y,

i = (1, 0) e

j = (0, 1).
O ponto A = (a
1
, a
2
) deste plano pode ser identicado atravs do vetor a, que
vai da origem ao ponto A. Da mesma forma, o ponto B = (b
1
, b
2
) tambm pode ser
identicado atravs do vetor

b, indo da origem ao ponto B. Dessa forma, c pode
ser facilmente encontrado atravs da soma de vetores

b +(1)a. Pelos teoremas 2.1


e 2.2, teremos c (b
1
a
1
, b
2
a
2
).
Analogamente, em R
3
, dados os pontos A = (a
1
, a
2
, a
3
) e B = (b
1
, b
2
, b
3
),
teremos que o vetor

AB que vai do ponto A ao ponto B

AB (b
1
a
1
, b
2

a
2
, b
3
a
3
).
Exemplo 2.2. Exemplicaremos a seguir como a escolha de e
1
, e
2
afeta a
identicao entre R
2
e

R
2
.
Dado o vetor v, tomamos e
1
, e
2
=

i,

j e a origem

0. Podemos descrever o
vetor v como v (9, 7) (dado).
Tomaremos agora os vetores e

1
, e

2
= (1, 2), (5, 3) (em relao origem e
a e
1
, e
2
, estabelecidos inicialmente). Mantendo a origem e usando este novo par
ordenado de vetores, a descrio de v ser alterada para v (6, 1).
Aqui torna-se evidente a importncia do par e
1
, e
2
ser ordenado: se ao in-
vs de e

1
, e

2
= (1, 2), (5, 3) tivssemos tomado e

1
, e

2
= (5, 3), (1, 2), a
descrio de v seria alterada para v (1, 6). Portanto, a ordenao adotada no
4. EXERCCIOS 13
conjunto de n vetores linearmente independentes interefere na descrio vetorial
por meio de n-uplas.
4. Exerccios
Wexler, C., Analytic Geometry A vector approach. Grupos de Exerccios
2-1, 2-2 e 2-3.
CAPTULO 3
Independncia Linear em R
n
1. Introduo
Vimos no captulo anterior que um vetor v em R
2
pode ser representado a
partir de e
1
, e
2
no-colineares, atravs da combinao linear v = ae
1
+ be
2
.
Em R
n
, interessa-nos saber quantos vetores e
i
podemos encontrar, tais que
nenhum deles possa ser expresso como uma combinao linear dos demais vetores
e
i
. Dizemos nesse caso que e
i
= e
1
, . . . , e
k
so linearmente independentes.
Definio 3.1. Dados v
i
= v
1
, . . . , v
k
R
n
, dizemos que tais vetores so
linearmente independentes quando
(1.1)
k

i=1

i
v
i
=

0 se e somente se
1
= . . . =
k
= 0
Se o conjunto de vetores v
i
no linearmente independente, dizemos que
ento linearmente dependente.
A denio nos arma portanto que o vetor

0 possui uma representao nica
que a trivial atravs da combinao linear dos vetores em v
i
.
Na prtica, o conceito de independncia linear implica que, xados v
1
, . . . , v
k
linearmente independentes, ento qualquer u R
n
ou representado de forma nica
por combinao linear de v
i
ou no existe b
i
, i = 1, . . . , k tal que u =

k
i=1
b
i
v
i
.
Demonstrao. Seja u tal que possa ser representado por uma combinao
linear de v
i
,
u =
k

i=1
c
i
v
i
Suponhamos que esta representao no nica. Ento,
u =
k

i=1
c
i
v
i
=
k

i=1
c

i
v
i
k

i=1
c
i
v
i

k

i=1
c

i
v
i
= 0
k

i=1
(c
i
c

i
)v
i
= 0
Seja a
i
= c
i
c

i
,
k

i=1
a
i
v
i
= 0
Mas, por hiptese, v
i
linearmente independente. Ento, para todo i,
a
i
= 0 = c
i
= c

i
15
16 3. INDEPENDNCIA LINEAR EM R
n
A representao portanto nica.
Note que se v
i
for linearmente dependente, teremos pela denio que para

1
v
1
+ . . . +
j
v
j
+ . . . +
k
v
k
existe pelo menos um
j
,= 0. Ento,

j
v
j
=
1
v
1
+ . . . +
k
v
k
(1.2)
v
j
=

1

j
v
1
+ . . . +

k

j
v
k
(1.3)
O fato de v
i
ser linearmente dependente permite que elementos do conjunto
possam ser escritos como combinao linear dos demais, o que acaba tendo como
consequncia representaes de u no nicas.
Exemplo 3.1. Tomemos k vetores v
i
em R
n
. Com eles, construimos a matriz
L, cuja i-sima coluna determinada por v
i
.
(1.4) L =
_
v
1
v
2
. . . v
k
_
Logo, qualqer dependncia linear entre v
1
, . . . , v
n
implicar dependncia linear
entre as respectivas colunas de L.
Discutir a independncia linear de v
i
corresponde a resolver o sistema
(1.5) LX = 0
onde X = (x
i1
)
i=1,...,k
so os escalares da combinao linear que determinar 0.
Para (1.5) podemos ter
(1) Soluo nica X = 0. As colunas de L sero linearmente independentes.
(2) Se a soluo de X no for nica, o vetor 0 no ter representao nica
em v
i
e portanto, as colunas no sero linearmente independentes. Con-
forme visto no Captulo 1, tal soluo ser um subespao em R
n
com d
parmetros livres e, como se trata de um sistema homogneo, esse sube-
spao ser o kernel de (X) = LX. Veremos na prxima seo que,
nesse caso, dentre os k vetores em v
i
, teremos apenas (n d) vetores
linearmente independentes.
Exemplo 3.2. Em R
n
, dados k vetores v
i
, plausvel perguntar-nos acerca
do nmero mximo de vetores linearmente independentes que podemos encontrar
em tal espao. Provaremos a seguir que, escolhendo adequadamente, teremos no
mximo n vetores linearmente independentes em R
n
.
Tomando os k vetores em R
n
, seja k > n. A matriz M cujas linhas so
v
1
, . . . , v
k

M =
_
_
_
_
_
v
1
v
2
.
.
.
v
k
_
_
_
_
_
=
_
_
_
_
_
v
11
v
12
. . . v
1n
v
21
v
22
. . . v
2n
.
.
.
.
.
.
.
.
.
.
.
.
v
k1
v
k2
. . . v
kn
_
_
_
_
_
Podemos escalonar M. Porm, a forma escalonada da matriz nos obrigar a ter, no
mximo, n linhas linearmente independentes, pois o escalonamento mais completo
1. INTRODUO 17
que se pode obter de M
M

=
_
_
_
_
_
_
_
_
_
_
_
_
1 v

12
. . . v

1n
0 1 . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . v

nn
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0
_
_
_
_
_
_
_
_
_
_
_
_
Embora as linhas de M

contenham vetores

v

i
diferentes dos v
i
iniciais, a
quantidade de vetores linearmente independentes em v
i
e

i
a mesma: no
escalonamento, os vetores em v
i
foram submetidos s trs operaes elementares
do Captulo 1, que nada mais fazem do que realizar combinaes lineares entre
os vetores-linhas. Mas, sabemos de (1.3) que vetores linearmente dependentes so
expressos como combinaes lineares dos vetores linearmente independentes. O
escalonamento procede-se de forma a eliminar somente esses vetores linearmente
dependentes da matriz M. Sabemos, tambm do Captulo 1, que essa perda de
linhas no acarreta perda de informao alguma para o sistema, uma vez que o
escalonamento preserva a soluo do sistema. Portanto, vemos que as linhas linear-
mente independentes descrevem de forma completa o espao soluo do sistema e
as linhas linearmente dependentes, sendo apenas combinaes lineares dos demais,
so redundantes e portanto, desnecessrias a descrio completa do espao soluo.
Portanto, o nmero mximo de vetores linearmente independentes em M o
mesmo que em M

, ou seja, n.
Teorema 3.1. Chamamos de posto linha o nmero de linhas linearmente in-
dependentes de uma matriz e de posto coluna o nmero de colunas linearmente
independentes. Em qualquer matriz o posto linha igual ao posto coluna.
Demonstrao. Do resultado anterior, sabemos que que dentre os k vetores
em v
i
, podemos ter no mximo n vetores linearmente independentes. Se tivermos
exatamente n vetores linearmente independentes, a prova do teorema decorre dire-
tamente. possvel ainda que tenhamos j < n vetores linearmente independentes.
Nesse caso, aps o escalonamento da matriz M, teramos
M

=
_
_
_
1 v

12
. . . v

1n
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . v

jn
_
_
_
Se tomarmos a transposta (M

)
t
,
(M

)
t
=
_
_
_
_
_
1 . . . 0
v

12
. . . 0
.
.
.
.
.
.
.
.
.
v

1n
. . . v

jn
_
_
_
_
_
Agora, pelo escalonamento (1.6) de (M

)
t
, teremos, com um raciocnio anlogo
ao utilizado no Exemplo 3.2, no mximo j linhas linearmente independentes (ou
seja, em M

, no mximo j colunas so linearmente independentes.)


(1.6) (M
t
)

=
_
_
_
_
_
1 . . . 0
0 . . . 0
.
.
.
.
.
.
.
.
.
v

1j
. . . v

jj
_
_
_
_
_
18 3. INDEPENDNCIA LINEAR EM R
n
Porm, teremos agora necessariamente o nmero mximo j de linhas linear-
mente independentes: se fosse possvel ter i < j linhas linearmente independentes
em (M
t
)

, poderamos realizar uma nova transposio na matriz, obtendo (M

)
t
,
na qual haveria uma contradio. Essa nova matriz teria i < j colunas linearmente
independentes e j linhas, que sabemos linearmente independentes, de M

. No
entanto, efetuando o escalonamento de (M

)
t
, teremos que s possvel ter no
mximo i linhas linearmente independentes, o que portanto falso, por hiptese.
Assim, no podemos ter i < j linhas linearmente independentes em (M
t
)

. Logo,
o posto linha da matriz igual ao seu posto coluna.
2. Geradores e Bases de um Espao Vetorial
Em R
n
, dizemos que um certo conjunto de vetores S = v
1
, . . . , v
k
gera um
subespao vetorial L(S) se todo vetor

l L(S) puder ser representado por uma
combinao linear do tipo
(2.1)

l =
k

i=1

i
v
i
, onde os
i
so escalares quaisquer.
Exemplo 3.3. Consideremos o vetor v = (1, 2) em R
2
. Podemos multiplic-lo
por um parmetro livre
1
e assim, ele gerar a reta (x, y) = (
1
, 2
1
), de coeciente
angular = 2 passando pela origem. Da mesma forma, o vetor o vetor v = (2, 4),
quando multiplicado pelo parmetro livre
2
gerar a mesma reta.
Sabendo da seo anterior que todo vetor linearmente dependente pode ser
descrito como combinao linear de vetores lineamente independentes, podemos
armar que um conjunto gerador S composto por vetores linearmente independentes
o menor conjunto gerador do subspao L(S). Ou seja: a forma mais econmica
de se gerar o subespao atravs de geradores linearmente independentes. Essa
concluso nos leva a denio de base de um espao.
Definio 3.2. Dizemos que v
1
, . . . , v
k
so uma base do espao vetorial V se
eles forem linearmente independentes e gerarem V ou seja, se qualquer vetor de V
puder ser expresso como uma combinao linear da base. Chamamos de dimenso
o nmero k de vetores linearmente independentes necessrios para gerar o espao.
importante notar que as bases de um espao vetorial no so nicas: por
exemplo, em R
3
, quaisquer trs vetores linearmente independentes nos fornecem
uma base para tal espao. Da mesma forma, quaisquer n vetores linearmente inde-
pendentes em R
n
determinam uma possvel base para tal espao. Assim, podemos
armar que cada base nos fornece um sistema de coordenadas, as quais so deter-
minadas pelos escalares
i
. Um exemplo claro disso est dado no exemplo 2.2 do
captulo anterior.
Frequentemente, utilizamos como base de R
n
o conjunto de vetores
(1, 0, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, 0, 0, . . . , 1), que formam uma base ortonor-
mal (cada vetor da base ortogonal a todos os demais e a norma de cada um
deles unitria). Veremos que a preferncia por essa base deve-se ao fato de
que a deteminao das coordenadas de qualquer vetor do espao com respeito a
essa base torna-se imediata. Em particular, em R
3
representamos essa base por

i,

j,

k = (1, 0, 0), (0, 1, 0), (0, 0, 1).


Exemplo 3.4. Do exemplo 3.1, sabemos que se o conjunto de vetores v
i
em
L for linearmente dependente, a soluo ser um subespao de dimenso d, ou seja,
dim(ker ) = d ,= 0. Mostraremos agora que v
i
possui (nd) vetores linearmente
independentes.
3. EXERCCIOS 19
Inicialmente, temos a matriz L cujas colunas so os vetores em R
n
que quer-
emos vericar, e que portanto, tem n linhas. No sistema L

escalonado, sabemos
que as linhas da matriz que so linearmente dependentes sero eliminadas. A
cada linha que eliminada, podemos atribuir um parmetro livre ao subespao
soluo do sistema homogneo (kernel). Portanto, dim(ker ) = d corresponder
ao nmero de linhas linearmente dependentes de L

. Logo, restaro no sistema


(n d) linhas, linearmente independentes. Ou seja, posto linha = (n d). Como
posto linha = posto coluna, teremos (nd) colunas linearmente independentes em
L

, sendo portanto esse o nmero de vetores linearmente independentes em v


i
.
3. Exerccios
(1) Encontre em cada caso os escalares x e y tais que x(

j) +y(

i +

j) seja
igual a
(a)

i
(b)

j
(c) 3

i 5

j
(d) 7

i + 5

j
(2) Se A = (2, 1, 1), B = (1, 2, 1) e C = (2, 11, 7) so trs vetores em
R
3
, encontre escalares x e y tais que C = xA+ yB.
(3) Prove que o Exerccio 3 no tem soluo se C for substitudo por (2, 11, 7).
Por que isso ocorre?
(4) Sejam A e B dois vetores no-nulos em R
n
. Prove que
(a) Se A e B so paralelos, A e B so linearmente dependentes.
(b) Se A e B so no-paralelos, A e B so linearmente independentes.
(5) Sejam A = (1, 1, 1, 0), B = (0, 1, 1, 1) e C = (1, 1, 0, 0) vetores de R
4
.
(a) Detemine se A, B, C so linearmente independentes ou dependentes.
(b) Exiba um vetor D tal que A, B, C, D sejam linearmente depen-
dentes.
(c) Exiba um vetor E tal que A, B, C, E sejam linearmente indepen-
dentes.
(d) Usando o vetor E determinado no item anterior, expresse
X = (1, 2, 3, 4) como combinao linear de A, B, C, E.
(6) Prove que um conjunto S de trs vetores em R
3
uma base de R
3
se e
somente se o espao L(S) por ele gerado contiver os trs vetores

i,

j,

k.
(7) Enuncie e prove a generalizao do item anterior para R
n
.
(8) Considere os seguintes conjuntos de vetores em R
3
:
S = (1, 1, 1), (0, 1, 2), (1, 0, 1)
T = (2, 1, 0), (2, 0, 2)
U = (1, 2, 3), (1, 3, 5)
(a) Prove que L(T) L(S).
(b) Determine todas as relaes de incluso vlidas entre os conjuntos
L(S), L(T) e L(U).
CAPTULO 4
Produto Escalar
1. Denio
Em R
n
, podemos denir o produto interno entre dois vetores X e Y como
qualquer operao X, Y ) que possua as seguintes propriedades.
Sejam X, Y, Z R
n
, c R escalar.
(P1) X, Y ) = Y, X)
(P2) X, Y +Z) = X, Y ) +X, Z)
(P3) c X, Y ) = (cX), Y ) = X, (cY ))
(P4) X, Y ) > 0, se X ,= 0
(P5) X, Y ) = 0 se X = 0
Um produto interno de especial interesse em geometria analtica o chamado
produto escalar, tambm representado por X Y .
Definio 4.1. Sejam X, Y R
n
.
(1.1) X Y =
n

i=1
x
i
y
i
Por essa denio, pode-se facilmente vericar que o produto escalar obedece
s propriedades mecionadas.
Teorema 4.1. A Desigualdade de Schwarz dada por
(1.2) X, Y )
2
X, X) Y, Y )
onde a igualdade vale se e somente se X for paralelo a Y .
Demonstrao. A desigualdade pode ser demonstrada atravs das cinco pro-
priedades do produto interno. Portanto, (1.2) vale para qualquer produto interno,
no se limitando apenas ao produto escalar.
Seja X = AB, para qualquer R. Por (P4) e (P5),
X, X) 0
Podemos reescrever isso como
X, X) = AB, AB)
P2
= A, A) +A, B) +B, A) +B, B)
P3
= A, A) A, B) B, A) +
2
B, B)
P1
= A, A) 2A, B) +
2
B, B) 0
Reescrevendo como uma inequao do tipo ax
2
+ bx + c 0
(1.3) B, B)
2
2 A, B) +A, A) 0
Para que a desigualdade acima seja satisfeita para todo , a imagem em (1.3)
deve encontrar-se acima do eixo x. Uma vez que B, B) 0, B, basta portanto
que veriquemos
= b
2
4ac = 4 A, B)
2
4 A, A) B, B) 0
21
22 4. PRODUTO ESCALAR
A, B)
2
A, A) B, B)
Note que o sinal de igualdade vale apenas quando X, X) = 0, ou seja, quando
AB = 0. Isso implica A = B, ou seja, os vetores A e B devem ser paralelos.

Nas prximas sees, utilizaremos a denio de produto escalar para gener-


alizar em R
n
alguns conceitos que so, por enquanto, puramente geomtricos e
restritos a R
2
e R
3
.
2. Algumas consequncias do produto escalar
A seguir, apresentaremos as denies de norma e ngulo em termos de produto
escalar.
A denio de norma decorre das propriedades P4 e P5 do produto escalar, ou
seja, do fato desta operao ser positiva denida.
Definio 4.2. Seja X R
n
. Sua norma |X| ser dada por
(2.1) |X| = X, X)
1/2
Assim, pela denio (1.1) de produto escalar, temos
(2.2) |X| =
_
n

i=1
x
2
i
_
1/2
A denio 1.1 corresponde ao comprimento de um vetor em R
n
. Utilizando a
geometria do ensino mdio, para n = 2, 3 podemos aplicar o Teorema de Pitgoras
nas componentes do vetor para obter seu comprimento, que resultar no mesmo
valor obtido com 1.1.
Com (2.2), a Desigualdade de Schwarz (1.2) pode tambm ser expressa por
meio de normas,
[ X, Y ) [ |X| |Y |
Com esse formato da desigualdade,considerando que a norma de qualquer vetor
sempre positiva, efetuamos a seguinte manipulao,
[ X, Y ) [
|X| |Y |
1
1
X, Y )
|X| |Y |
1
A funo de x e y na desigualdade acima apresenta a mesma propriedade da
funo cosseno. Com base nisso, denimos de forma generalizada o ngulo entre
dois vetores em R
n
.
Definio 4.3. Dados X e Y em R
n
,
(2.3) cos (X, Y ) :=
X, Y )
|X| |Y |
Notamos que essa denio tambm concorda com a noo geomtrica usual de
ngulo em R
2
e R
3
. Basta aplicar a Lei dos Cossenos nos vetores X = (x
1
, x
2
, x
3
)
e Y = (y
1
, y
2
, y
3
) posicionados na origem 0 para se vericar (2.3).
Ainda tomando X, Y R
n
, por (2.1), podemos escrever
|X +Y |
2
= (X +Y ), (X +Y ))
= X, X)
2
+ 2 X, Y ) +Y , Y )
2
2. ALGUMAS CONSEQUNCIAS DO PRODUTO ESCALAR 23
Em termos de normas, teremos
(2.4) |X +Y |
2
= |X|
2
|Y |
2
+ 2 X, Y )
Se X perpendicular a Y em R
2
, pelo Teorema de Pitgoras,(2.4) se reduziria

|X +Y |
2
= |X|
2
|Y |
2
o que implica
2 X, Y ) = 0 = X, Y ) = 0, se XY
Essa noo de ortogonalidade em R
2
nos sugere uma denio geral para or-
togonalidade entre dois vetores em R
n
.
Definio 4.4. Dois vetores X, Y R
n
so ortogonais se
(2.5) X, Y ) = 0
A projeo ortogonal (pr
v

u ) de vetor u sobre a reta denida por v (Fig.1)
dada, em mdulo, por
|pr
v

u | = |u| cos
que por (2.3) se reduz a
|pr
v

u | =
u, v)
|v|
Como a projeo tem a mesma direo de v, tomamos o vetor unitrio
1 v
v
para
determinar a direo do vetor pr
v

u .
(2.6) pr
v

u =
u, v)
|v|
2
v
-
3
s
-
pr
v

u v
u
re
v

u
Figura 1. Projeo e Reexo do vetor u
A partir da projeo, podemos facilmente determinar o vetor re
v

u obtido a
partir da reexo ortogonal de u em torno de v, o qual obtido mantendo a mesma
componente de u na direo v e invertendo o sentido das demais componentes e.g.
1
Todo vetor com norma valendo uma unidade
24 4. PRODUTO ESCALAR
re
(1,0)
(1, 1) = (1, 1). Basta observar que re
v

u determinado atravs da soma


vetorial
u + re
v

u = 2 pr
v

u
re
v

u = 2 pr
v

u u
= 2
u, v)
|v|
2
v u
3. Aplicaes
Uma vez estabelecidos o pduto interno e a condio de ortogonalidade, podemos
agora denir o que um hiperplano (n 1)-dimensionais em R
n
.
Definio 4.5. Todo ponto X que satiszer
(3.1)
_
X P,

N
_
= 0
pertence ao hiperplano que normal (ortogonal) ao vetor

N e contm o ponto
P.
Assim, todos os vetores X P ortogonais a

N pertencero ao hiperplano .
Exemplo 4.1. Dados P
1
= (r, s) e

N
1
= (a, b) em R
2
, teremos, por (3.1)
X (r, s), (a, b)) = 0
(x r)a + (y s)b = 0
ax + by (ra + sb) = 0
que a equao de uma reta em R
2
(Fig.??).
Exemplo 4.2. Da mesma forma, dados P
2
= (r, s, t) e

N
2
= (a, b, c) em R
3
,
teremos
X (r, s, t), (a, b, c)) = 0 = ax + by + cz (ar + bs + ct) = 0
que a equao de um plano em R
3
.
Uma outra aplicao importante de projees est no clculo de distncias em
R
n
.
4. Exerccios
Wexler, C., Analytic Geometry A vector approach. Grupo de Exerccios
2-4.
CAPTULO 5
Hiperplanos em R
n
1. Introduo
Sabemos que, em R
2
, uma equao do tipo ax
1
+ bx
2
= c representa uma reta
(hiperplano 1-dimensional) em R
2
. Da mesma forma, em R
3
, a equao ax
1
+
bx
2
+ cx
3
= d representa um plano (hiperplano 2-dimensionais) em R
3
. Analoga-
mente,em R
n
, uma equao do tipo a
1
x
1
+. . . +a
n
x
n
= 0 representa um hiperplano
(n 1)-dimensionais em R
n
.
Definio 5.1. A equao
(1.1) F(x
1
, . . . , x
n
) = 0
representa o lugar geomtrico L = X R
n
[F(x
1
, . . . , x
n
) = 0 Todas e apenas as
coordenadas de X L satisfazem (1.1).
Note que a recproca dessa armao no vale: podemos ter equaes diferentes
com o mesmo conjunto L (e.g. basta multiplicar (1.1) por um escalar no-nulo:
teremos duas equaes diferentes com a mesma soluo).
2. Equaes Paramtricas
Podemos tambm descrever hiperplanos em R
n
por meio da sua respectiva
equao paramtrica, em termos de geradores, como foi descrito anteriormente nos
exemplos 1.1 e 1.2.
Exemplo 5.1. Obteremos a equao paramtrica da reta dada em R
2
(2.1) ax + by = c
Podemos atribuir a y o parmetro livre R. Escrevendo x em funo do
parmetro livre tambm,
_
x
y
_
=
_
b
a
+ c

_
Reescrevendo em termo de geradores, obtemos a seguinte representao paramtrica
(2.2)
_
x
y
_
=
_
c
0
_
+
_
b/a
1
_
Portanto decorre diretamente de (2.2) que a reta (2.1) passa pelo ponto (c, 0)
e tem (
b
a
, 1) como vetor diretor (gerador). Os pontos da reta consistem nas combi-
naes lineares desse nico vetor linearmente independente que no caso, reduzem-
se simplesmente a uma multiplicao por escalar.
Exemplo 5.2. Obteremos a equao paramtrica do plano dado em R
3
(2.3) ax + by + cz = d
Podemos atribuir a y e a z R os parmetros livres e , de forma que x dever
ser escrito em funo desses dois parmetros.
_
_
x
y
z
_
_
=
_
_
d b c

_
_
25
26 5. HIPERPLANOS EM R
n
A equao paramtrica ser
(2.4)
_
_
x
y
z
_
_
=
_
_
d
0
0
_
_
+
_
_
b
1
0
_
_
+
_
_
c
0
1
_
_
Por (2.4), podemos armar que esse plano corta o eixo x no ponto x = d.
Neste ponto, podem ser posicionados os vetores (b, 1, 0) e (c, 0, 1), linearmente
independentes. Por meio de combinaes lineares desses dois vetores (dadas pleos
escalares e ) estaremos parametrizando todos os pontos do plano, assim gerando
o lugar geomtrico dado em (2.3).
importante notar que essa atribuio de parmetros arbitrria: poderamos
igualmente atribuir parmetros e a x e z, por exemplo, obtendo uma repre-
sentao paramtrica (2.4) diferente, mas que no entanto descreve exatamente o
mesmo lugar geomtrico.
Exemplo 5.3. Em R
3
, dado o sistema de equaes linearmente independentes
(2.5)
_
a
1
x+b
1
y + c
1
z = d
1
a
2
x+b
2
y + c
2
z = d
2
Podemos armar que tal sistema nos fornece o lugar geomtrico de uma reta
em R
3
.
Por escalonamento, obtemos o sistema equivalente
(2.6)
_
x + b

1
y + c

1
z = d

1
y + c

2
z = d

2
Atribuindo a z o parmetro livre R, temos
_
_
x
y
z
_
_
=
_
_
d

1
b

1
d

2
+ (c

2
b

1
c

1
)
d

2
c

_
_
Que resulta na equao paramtrica de uma reta
(2.7)
_
_
x
y
z
_
_
=
_
_
d

1
b

1
d

2
d

2
0
_
_
+
_
_
c

2
b

1
c

1
c

2
1
_
_
Para parametrizar a reta (2.5) em R
3
, adotamos o mesmo procedimento dos ex-
emplos anteriores: posicionamos o vetor (c

2
b

1
c

1
, c

2
, 1) no ponto (d

1
b

1
d

2
, d

2
, 0),
obtendo os pontos da reta por meio de combinaes lineares desse nico vetor.
Seguindo essa linha de raciocnio, podemos fazer a seguinte generalizao: a
parametrizao de um subespao am k-dimensionais em R
n
ser dada por
(2.8) X = P
0
+
1
v
1
+ . . . +
k
v
k
onde os vetores v
i
, i = 1, . . . , k so linearmente independentes. Como nos ex-
emplos anteriores, a idia xar no ponto P
0
esses k vetores, cujas combinaes
lineares dadas pelos parmetros
1
, . . . ,
k
localizaro todos os pontos desse sube-
spao am.
O nmero de parmetros livres k nos informar os graus de liberdade do sube-
spao am: nos exemplos 5.1 e 5.3, vemos que a reta possui um nico parmetro
livre, e portanto, um grau de liberdade, o qual diz respeito ao fato de que, se cam-
inharmos sobre uma reta, haver uma nica direo linearmente independente a
ser seguida.
Estendendo essa generalizao para as equaes de lugar geomtrico (1.1),
temos que
3. DISTNCIAS 27
uma equao linearmente independente representa um hiperplano (n1)-
dimensionais em R
n
.
um sistema de duas equaes linearmente independentes representa um
subespao am (n 2)-dimensionais em R
n
.
um sistema de trs equaes linearmente independentes representa um
subespao am (n 3)-dimensionais em R
n
.
.
.
.
um sistema de n equaes linearmente independentes representa um sube-
spao am 0-dimensional em R
n
, ou seja, um ponto.
Vemos que cada equao acrescentada acarreta a perda de um grau de liberdade
no hiperplano, at que no reste mais grau de liberdade algum (ponto).
3. Distncias
Faremos agora uma generalizao em R
n
do seguinte problema: dado um
subespao am r-dimensionais e um ponto Q, encontrar o ponto P
X
no subespao
am que mais prximo ao ponto Q dado. Seja
(3.1) P
0
+ t
1
w
1
+ . . . + t
r
w
r
a equao paramtrica deste subespao am r-dimensionais em R
n
, com
w
i
, w
j
) =
ij
, onde
ij
_

ij
= 0, se i ,= j

ij
= 1, se i = j
Nesse caso, dizemos que w
i
forma uma base ortonormal do subespao. Em l-
gebra Linear, veremos que qualquer conjunto de vetores pode ser ortonormalizado
atravs do Processo de Gram-Schimdt. Essse processo leva a eliminao de qual-
quer eventual dependncia linear existente no conjunto de vetores iniciais, atravs
da reduo do nmero de vetores no conjunto nal.
Dado Q R
n
, calcularemos o ponto P
X
em (3.1) mais prximo de Q. Para
tanto, notamos primeiramente que os pontos Q e P
X
determinam a distncia re-
alizada do ponto Q ao subespao am dado. Assim, o ponto P
X
determinado
atravs da projeo ortogonal do ponto Q no subespao am (3.1). Portanto, P
X
deve ser tal que o vetor P
X
Q seja ortogonal a todos os vetores da base w
i
.
Como P
X
pertence a (3.1), podemos escrever esse conceito geomtrico da seguinte
forma
(3.2)
_
Q(P
0
+
r

i=1
t
i
w
i
), w
j
_
= 0, j = 1, . . . , r
Essa equao nos permitir determinar os valores dos parmetro t
j
, xando
assim o ponto P
X
no subespao am.
28 5. HIPERPLANOS EM R
n
_
Q(P
0
+
r

i=1
t
i
w
i
), w
j
_
= 0
QP
0
, w
j
) +
_
r

i=1
t
i
w
i
, w
j
_
= 0
QP
0
, w
j
) +
r

i=1
t
i
w
i
, w
j
) = 0
QP
0
, w
j
) + t
j
= 0
t
j
= P
0
Q, w
j
)
Temos assim os r parmetros livres t
1
, . . . , t
r
que determinam o ponto P
X
. De
acordo com (3.1), tal ponto ser dado por
(3.3) P
X
= P
0
+
r

i=1
P Q, w
i
) w
i
4. Exerccios
Wexler, C., Analytic Geometry A vector approach. Grupo de Exerccios
2-6.
CAPTULO 6
Produto Vetorial
1. Denio
Vimos nos captulos anteriores que os vetores ortogonais a um conjunto de
vetores dado desempenham um papel importante no estudo de hiperplanos. Assim,
o produto vetorial uma operao denida em R
3
de grande interesse em Geometria
Analtica: sua peculiaridade est no fato de que submetendo dois vetores A e B a
essa operao, obteremos como resultado um terceiro vetor A B ortogonal aos
dois vetores iniciais, e portanto, normal ao plano gerado por A e B, conforme
mostraremos neste captulo.
Definio 6.1. Sejam A = (a
1
, a
2
, a
3
), B = (b
1
, b
2
, b
3
) C = (c
1
, c
2
, c
3
) e c
escalar.
: R
3
R
3
R
3
AB := det
_
_

i

j

k
a
1
a
2
a
3
b
1
b
2
b
3
_
_
= (a
2
b
3
a
3
b
2
)

i + (a
3
b
1
+ a
1
b
3
)

j + (a
1
b
2
a
2
b
1
)

k
(1.1)
Da denio 1.1 decorrem as seguintes propriedades.
(P1) Linearidade com respeito a A:
(A
1
+A
2
) B = A
1
B +A
2
B
(A
1
+A
2
) B = A
1
B +A
2
B
(P2) Anti-simetria: AB = B A Linearidade com respeito a B.
(P3) Produto Misto: A, (B C)) = (AB), C) = det
_
_
a
1
a
2
a
3
b
1
b
2
b
3
c
1
c
2
c
3
_
_
(P4) |AB|
2
= |A|
2
|B|
2
A, B)
2
(Identidade de Lagrange)
(P5) |AB| = |A| |B| sin , onde o ngulo entre os dois vetores.
Demonstrao. Provaremos apenas a propriedade (P5). As demais decorrem
trivialmente da denio.
De P4, temos
|AB|
2
= |A|
2
|B|
2
A, B)
2
= |A|
2
|B|
2
(|A| |B| cos )
2
= |A| |B| (1 cos
2
)
= |A| |B| (sin
2
)
29
30 6. PRODUTO VETORIAL
mas como 0 , temos sempre sin 0. Consequentemente,
|AB| = |A| |B| sin

Corolrio 6.1.
(1) |AB| corresponde rea do paralelogramo cujos lados so formados
pelos vetores A e B.
(2) A e B no-nulos e paralelos em R
3
AB = 0
(3) A e B no-nulos e no-paralelos (AB)A e (AB)B
(4) | (AB), C) | corresponde ao volume do paralelepedo formado pelo ve-
tores A, B, C.
Demonstrao. (1) e (2) decorrem trivialmente de (7). Provaremos (3) e
(4). Para provar (3), basta vercar que (AB) A = 0 e (AB) B = 0, o que
implica ortogonalidade do vetor AB com respeito a A e B.
Para provar (4), vemos na gura acima
| (AB), C) | = |C| |AB| cos
= h |AB|

Exemplo 6.1. Pela denio 6.1, mostre que (AB) C uma combinao
linear dos vetores A e B. Indique qual a combinao linear, em funo de A, B
e C.
Exemplo 6.2. Dizemos que (AB) C e A(BC) so produtos triplos
de A, B e C. Prove que (A B) C ,= A (B C), ou seja, o produto triplo
vetorial no associativo.
Qual a combinao linear de vetores dada por A (B C), em funo de
A, B e C?
1
1
A(BC) = (B A)C(C A)B

Вам также может понравиться