Академический Документы
Профессиональный Документы
Культура Документы
xm
Somadora
{ u → Saída Linear
y → Saída de Ativação
Arquitetura do Perceptron.
{
T
( ){
m
W=[ w1 w 2 ⋯ wm ]
y= f (u)= f ∑ w j x j = 1, u≥θ
0, u< θ
→ T
j=1
X=[ x 1 x 2 ⋯ x m ]
( ){
m
y= f (u)= f ∑wjxj = 1, u≥θ
j=1 0, u< θ
Superfície
de Decisão
w 1 x1 + w 2 x 2+ ⋯+ w m x m=θ → w1 x 1+ w2 x 2+ ⋯+ w m x m−θ =0
xm
Somadora
{u → Saída Linear
y → Saída de Ativação
( ){
m
y= f (u)= f ∑wjxj = 1, u≥0
j=0 0, u< 0
}
T
W=[ w0 =θ w1 w2 ⋯ wm ] Vetores
T
X=[−1 x 1 x2 ⋯ xm ] Aumentados
W(k + 1)=W( k )+ Δ W( k )
{
→ Taxa de Aprendizado (Constante Positiva )
Δ W ( k )=η e X( k ) → → Erro =Saída Desejada ( d ) −Saída Obtida ( y)
→ Padrão de Entrada
( )
m
y= f (u)= f ∑wjxj
j=0
= f ( W⋅X)= f (∥W∥∥X∥cos (α ))= 1, u≥0
0, u< 0 {
W⋅X=∥W∥∥X∥cos (α ) ∥W∥≥0
∥X∥≥0
o
→
o
{
(α é o menor ângulo entre W e X : 0 ≤α ≤180 )
W
↓ α
{
o
u=0 e y=1 se cos( α )=0 → α =90
u> 0 e y=1 se cos( α )> 0 → α < 90o X
u< 0 e y=0 se cos( α )< 0 → α > 90 o
W W W Novo W
α α α
X X X
Δ W=η X Δ W=η e X
W α W α W α W Novo
X X X
{
→ Taxa de Aprendizado (Constante Positiva )
Δ W ( k )=η e X( k ) → → Erro =Saída Desejada ( d ) −Saída Obtida ( y)
→ Padrão de Entrada
Δ W=−η X Δ W=η e X
W W W Novo W
α α α
X X X
Δ W=−η X Δ W=η e X
W α W α W α W Novo
X X X
x 2=−
( ) ( )
w1
w2
x 1+
1
w2
θ
(0,1.5)
(0,1) (1,1)
{
w1 =1.5
x 2=−
w1
w2( ) ( )
x 1+
1
w2
θ → x 2 =−
2( )
1.5
x 1+ 1.5 → w 2=2
θ =3
(0,1) (1,1)
(0,0.5)
{
w1=0.5
x 2=−
w1
w2 ( ) ( )
x 1+
1
w2
θ → x 2 =−
0.5
0.5( )
x 1+ 0.5 → w2 =0.5
θ =0.25
1
2
X
0 .5
-0 .5
-0 . 5 0 0 .5 1 1 .5
X
1
2 .5
2
E rr o Q u a d rá t ic o
1 .5
0 .5
0
0 5 10 15 20 25 30
É poca
1
2
X
0 .5
-0 .5
-0 .5 0 0 .5 1 1 .5
X
1
2 .5
2
E rr o Q u a d rá t ic o
1 .5
0 .5
0
1 2 3 4 5 6 7 8 9
É poca
(0,1.5)
(0,1) (1,1)
(0,0.5)
4
2
X
2 3 4 5 6 7
X
1
30
25
Erro zero!
E r ro P e r c e n t u a l
20
15
10
0
0 5 10 15 20 25 30 35 40 45 50
É poca
4
2
X
0 1 2 3 4 5 6 7 8
X
1
22
Erro diferente de zero,
20
mas minimizado!
18
16
E r ro P e r c e n t u a l
14
12 Oscilação do erro em
10 torno de um valor
8
mínimo!
6
4
0 10 20 30 40 50 60 70 80 90 100
É poca
8 C la s s e 1
C la s s e 2
7 R e t a d e S e p a ra ç ã o
Reta de separação
6 privilegiando a classe 2!
5
2
4
X
0 .9
0 .8
Erro oscilando, com
tendência aparen-
E rr o P e rc e n t u a l
0 .7
temente indefinida!
0 .6
0 .5
0 .4
0 5 10 15 20 25 30 35 40 45 50
É poca
Algoritmo [ y ] = YPerceptron (X ,W )
{ X ∈ ℝ m×1 ; W ∈ ℝ(m+ 1)×1 }
X ← InserePolarizacao( X )
y =(W⋅X ) ≥ 0
fim algoritmo