Академический Документы
Профессиональный Документы
Культура Документы
j =1
jl
X
l
) = f (
0l
+ X
T
l
) (1)
En t erminos matriciales, lo anterior puede escribirse como:
f (U) = f (
0
+X) (2)
donde U = (U
1
, . . . ,U
s
)
T
,
0
= (
01
, . . . ,
0s
) y
B = (
1
, . . . ,
s
) es una matriz de (s r ) pesos sin apticos.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 5 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Funci on de activaci on
Sea X = (X
1
, . . . ,X
r
)
T
un vector aleatorio de r entradas.
La funci on de activaci on de la l - esima neurona f (U
l
) es
calculada como la combinaci on lineal entre las entradas X
j
y los pesos sin apticos
jl
m as una constante (bias)
0l
.
f (U
l
) = f (
0l
+
r
j =1
jl
X
l
) = f (
0l
+ X
T
l
) (1)
En t erminos matriciales, lo anterior puede escribirse como:
f (U) = f (
0
+X) (2)
donde U = (U
1
, . . . ,U
s
)
T
,
0
= (
01
, . . . ,
0s
) y
B = (
1
, . . . ,
s
) es una matriz de (s r ) pesos sin apticos.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 5 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Funci on de activaci on
Sea X = (X
1
, . . . ,X
r
)
T
un vector aleatorio de r entradas.
La funci on de activaci on de la l - esima neurona f (U
l
) es
calculada como la combinaci on lineal entre las entradas X
j
y los pesos sin apticos
jl
m as una constante (bias)
0l
.
f (U
l
) = f (
0l
+
r
j =1
jl
X
l
) = f (
0l
+ X
T
l
) (1)
En t erminos matriciales, lo anterior puede escribirse como:
f (U) = f (
0
+X) (2)
donde U = (U
1
, . . . ,U
s
)
T
,
0
= (
01
, . . . ,
0s
) y
B = (
1
, . . . ,
s
) es una matriz de (s r ) pesos sin apticos.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 5 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Feedforward Single-Layer Networks
Figure: Ejemplo: Rosenblatts single-layer perceptron
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 6 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Funci on de activaci on
La versi on generalizada de una unidad simple de
procesamiento puede escribirse como:
f (
0
+ X
T
), (3)
donde f () es una funci on de activaci on.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 7 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Funci on de activaci on
Nombre Funci on Valores
Identity x
Hard-limiter sign(x) {1, + 1}
Threshold I[x 0] {0,1}
Logistic (sigmoid) (1 + e
x
)
1
(0,1)
Hyperbolic tangent (sigmoid)
(e
x
e
x
)
(e
x
+e
x
)
(1, + 1)
Table: Funciones de activaci on usuales
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 8 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Funci on de activaci on
Figure: Funci on logstica f (x) =
1
1+e
1
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 9 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
MLP es una t ecnica estadstica multivariada nolineal que
mapea las variables de entrada X = (X
1
, . . . ,X
r
)
T
a las
variables de salida Y = (Y
1
, . . . ,Y
s
)
T
.
Entre las capas de entra y salida se encuentran las
variables ocultas dispuestas en una o m as capas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 10 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
MLP es una t ecnica estadstica multivariada nolineal que
mapea las variables de entrada X = (X
1
, . . . ,X
r
)
T
a las
variables de salida Y = (Y
1
, . . . ,Y
s
)
T
.
Entre las capas de entra y salida se encuentran las
variables ocultas dispuestas en una o m as capas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 10 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
La red MLP puede representarse por:
Un conjunto {X
1
, . . . ,X
r
} de r entradas.
La matriz
ij
representa las conecciones entre la capa de
entrada y oculta.
La matriz
jk
representa las conecciones entre la capa
oculta y de salida.
Un conjunto {Y
1
, . . . ,Y
s
} de s salidas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 11 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
La red MLP puede representarse por:
Un conjunto {X
1
, . . . ,X
r
} de r entradas.
La matriz
ij
representa las conecciones entre la capa de
entrada y oculta.
La matriz
jk
representa las conecciones entre la capa
oculta y de salida.
Un conjunto {Y
1
, . . . ,Y
s
} de s salidas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 11 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
La red MLP puede representarse por:
Un conjunto {X
1
, . . . ,X
r
} de r entradas.
La matriz
ij
representa las conecciones entre la capa de
entrada y oculta.
La matriz
jk
representa las conecciones entre la capa
oculta y de salida.
Un conjunto {Y
1
, . . . ,Y
s
} de s salidas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 11 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
La red MLP puede representarse por:
Un conjunto {X
1
, . . . ,X
r
} de r entradas.
La matriz
ij
representa las conecciones entre la capa de
entrada y oculta.
La matriz
jk
representa las conecciones entre la capa
oculta y de salida.
Un conjunto {Y
1
, . . . ,Y
s
} de s salidas.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 11 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
La estimaci on de la k- esima neurona k {1, . . . ,s} de la capa
de salida se expresa como:
Y
k
=
k
(X) +
K
, (4)
donde la respuesta de la red en la k- esima neurona de salida
corresponde a:
k
(X) = g
k
0k
+
t
j =1
jk
f
i
0j
+
r
m=1
mj
X
m
, (5)
donde f y g son funciones de activaci on.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 12 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
En la pr actica, se seleccionan las siguientes funciones de
activaci on:
La funci on f es usualmente continua nolineales (logstica,
tanh,etc).
La funci on g es usualmente lineal en contexto de regresi on
y nolineal en clasicaci on.
El error
k
se asume como Gauseano de media cero y
varianza
2
k
.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 13 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Multilayer Perceptrons (MLP)
Si se considera la funci on de activaci on g como lineal y todas
las funciones de activacion son una sigmoidal , entonces, la
red se convierte en un single-layer perceptron donde
Y = (X) +, donde
k
(X) =
0
+
t
j =1
0j
+
r
m=1
mj
X
m
. (6)
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 14 / 15
Presentaci on del curso
Introducci on a las redes neuronales
Referencias
Neural Networks for Pattern Recognition. Christopher
Bishop. Oxford University Press, 1999.
Pattern Recognition and Machine Learning Information
Science and Statistics.Christopher Bishop. Springer, 2007.
Modern Multivariate Statistical Techniques: Regression,
Classication and Manifold Learning. Alan Julian Izenman.
Springer, 2008.
INF1915 INTRODUCCI ON A LAS REDES NEURONALES 15 / 15