Академический Документы
Профессиональный Документы
Культура Документы
Algoritmos genéticos
El Perceptrón
Descenso por gradiente y «regla delta»
Redes multicapa
Retropropagación
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 1
UPM
Ontogénesis
⇒ Modelos neurocibernéticos
Filogénesis
⇒ Modelos evolucionistas
«Al fin y al cabo, no hay tantas técnicas informáticas que hayan
demostrado su valor a lo largo de 3.000 millones de años de
pruebas de campo» (Forsyth, 1986)
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 2
UPM
La evolución como modelo
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 5
UPM
Reglas padres:
[A1=valor11][A2=valor12] → [R=R1]
[A1=valor21][A2=valor22] → [R=R2]
Codificación: Aplicación:
Reglas hijas:
[A1=valor11][A2=valor22] → [R=R3]
[A1=valor21][A2=valor12] → [R=R4]
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 6
UPM
Sistema GABIL (DeJong et al., 1993)
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 8
UPM
GABIL: algoritmo
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 9
UPM
e
1
e s=1 si ( ∑ ej ≥ U) y ( ∑ i k = 0)
n
i
1 U
e, i, s binarias
i U (umbral) entero
m
El modelo simula:
Sinapsis excitadoras e inhibidoras
Umbral de excitación
Sumación espacial
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 10
UPM
Neuronas formales y lógica de proposiciones
x x x
1 1 1
x 3 x ·x ·x x 2 x ·x ·x x 1 x +x +x
2 1 2 3 2 1 2 3 2 1 2 3
x3 x3 x3
x1
1 x1 1
x
x x ·x ·x 2
1 1 x ·x ·x x 1 1 x ·x +x ·x
1 2 3 2 1 2 3 1 2 1 2
x x1
2 x3 1
x
x 2
3
McCulloch, W. and Pitts, W. (1943): A logical calculus of the ideas immanent in nervous activity.
Bulletin of Mathematical Biophysics, 7:115 - 133.
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 11
UPM
wn
xn
wn
xn
while (!
ond_term) {
for (e=0; e<nEj; e++)
for (i=0; i<=n; i++) {
dw[i℄ = k*(r[e℄-s[e℄)*x[i℄[e℄;
w[i℄ = w[i℄ + dw[i℄;
}
}
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 13
UPM
x
1
x
2
x
n
algoritmo de
aprendizaje
extraccion de caracteristicas (features)
Condición de convergencia:
separabilidad lineal en el espacio (x1, x2, . . . xn)
Minsky y Papert (1969)
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 14
UPM
Descenso (o ascenso) por gradiente: principio
∆~w = −K · ∇E
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 15
UPM
1
E(~w) = ∑(re − se)2;
h i
∂E ∂E
∇E = ∂w0 . . . ∂wn ; ∆~w = −K · ∇E
2 e
Como se = ~
w ·~xe,
∂E 1 ∂
= ∑ (re − se)2 = − ∑(re − se) · xie
∂wi 2 e ∂wi e
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 16
UPM
Descenso por gradiente: algoritmo
while (!
ond_term) {
for (i=0; i<=n; i++) dw[i℄ = 0;
for (e=0; e<nEj; e++)
for (i=0; i<=n; i++)
dw[i℄ = dw[i℄ + k*(r[e℄-s[e℄)*x[i℄[e℄;
for (i=0; i<=n; i++)
w[i℄ = w[i℄ + dw[i℄;
}
x[i℄[e℄ es xie: valor de la entrada i para el ejemplo e
Comparar con el algoritmo del Perceptron
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 17
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 18
UPM
Diferencias entre Perceptron, Gradiente y Regla Delta
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 19
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 20
UPM
La separabilidad en las redes multicapa según Minsky
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 21
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 22
UPM
El entrenamiento de redes multicapa
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 23
UPM
x
nj
ds
Con esta función sigmoidal (o logística), dy
= s(y) · (1 − s(y))
∂E ∂E j∂y ∂E
∂wi j
= ∂y j
· ∂w ij
= ∂y j
· xi j
Si se conoce r j para un ejemplo e,
∂Ee ∂s
∂y j
= ∂y∂ j ( 21 (r j − s j)2) = −(r j − s j) ∂y jj = −(r j − s j ) · s j · (1 − s j )
∆wi j = K · δ j · xi j , con δ j = (r j − s j ) · s j · (1 − s j )
Pero r j sólo se conoce en la capa de salida
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 24
UPM
Notación para redes multicapa
1
Regla delta: Ee(~
w) = ∑
2 l
(rle − sle)2
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 25
UPM
δ j = − ∂E e
∂y j
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 28
UPM
Algoritmo de retropropagación: atrás
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 29
UPM
head
heed had
hid 2000
head
F2 (Hz)
hid
F
1
hud
heard
1000
F who’d hod
2
hood
hawed
500
who’d
0 500 1000 1400
F1 (Hz)
hood
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 30
UPM
Software para redes neuronales
http://www-ra.informatik.uni-tuebingen.de/SNNS/
JavaNNS
Sucesor de SNNS, multiplataforma
http://www-ra.informatik.uni-tuebingen.de/
software/JavaNNS/wel
ome_e.html
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genéticos y redes neuronales transp. 31
UPM