Академический Документы
Профессиональный Документы
Культура Документы
Redes Neuronales
Artificiales y RNAs
Avanzadas
𝑦𝑖 = 𝑓 𝑤𝑖𝑗 𝑥𝑗 − 𝜃𝑗
𝑗=1
Donde:
1
Clasificación de patrones y espacio de entradas.
y
La respuesta a las cuatro posibles entradas se muestra en la
tabla:
𝑥1 𝑥2 Activación Salida
0 0 0 0
0 1 1 0
1 0 1 0
1 1 2 1
y
Efecto de modificar el bias:
𝑥1 𝑤1
𝑎 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝜃
Σ 1 𝑠𝑖 𝑎 ≥ 𝜃
𝑠=𝑓 𝑎 =
0 𝑠𝑖 𝑎 < 𝜃
𝑥2 𝑤2
𝜃
𝑥1 𝑥2 𝑎 𝑠
0 0 0.0 0
1 0 1.0 1 Ahora la neurona
0 1 1.0 1 opera de manera
1 1 2.0 1 diferente…!
Nótese como la TLU permite clasificar las entradas en dos
clases, dependiendo del valor de 𝑦.
En el caso 𝑛-dimensional el EP
(0,0) (1,0)
será 𝑛-dimensional.
Nótese como la TLU permite clasificar las entradas en dos
clases, dependiendo del valor de 𝑦.
En el caso 𝑛-dimensional el EP
(0,0) (1,0)
será 𝑛-dimensional.
Para 𝑛 > 3 el PA no puede ser dibujado.
.
𝑤1 𝜃
Al dividir ambos lados por 𝑤2 𝑥2 = − 𝑥1 +
𝑤2 𝑤2
Separación lineal entre clases:
𝑤1 𝜃
Al dividir ambos lados por 𝑤2 𝑥2 = − 𝑥1 +
𝑤2 𝑤2
Con 𝑎 y 𝑏 constantes.
(0,0)
(1,0)
Nótese como las cuatro clases
aparecen separadas en dos
(0,1) clases por esta recta, según la
(1,1)
tabla.
(0,0)
(1,0)
Activación Salida
0 0 0 0
0 1 1 0
1 0 1 0
1 1 2 1
Nótese que un sinnúmero de líneas pudieron haber sido
usadas para separar los patrones, sin embargo la resultante
fue del hecho de la selección de los pesos y el umbral.
(0,1) (1,1)
(0,0)
(1,0)
En el caso de una TLU de tres entradas la separación se da
por un plano de separación.
𝑤1 𝜃
𝑥2 = − 𝑥1 +
𝑤2 𝑤2
Para 𝑥 = (0 1):
𝑤𝑥 + 𝑏 =
( 1 2 ∙ (0 1)) + 0 = (1 ∗ 0) + (2 ∗ 1) + 0 = 2 > 0
Para 𝑥 = −1 0 :
𝑤𝑥 + 𝑏 =
((1 2) ∙ (−1 0)) + 0 = (1 ∗ −1) + (2 ∗ 0) + 0 = −1 < 0
.
𝑏 determina la posición del híper-plano sobre el espacio:
Vectores:
Vectores:
Vector simple:
En n dimensiones:
Suma vectorial y multiplicación escalar.
En términos de componentes:
Suma vectorial.
𝐰=𝐮+𝐯
w u
En términos de componentes:
En 𝑛 dimensiones:
Substracción vectorial:
𝑢 − 𝑣 = 𝑢 + (−1)𝑣
Longitud de un vector:
En el caso 2-D:
En n dimensiones:
Comparación entre vectores.
Notar que: 𝐯 ∙ 𝐰 = 𝐰 ∙ 𝐯
Si v=w:
Luego, entonces:
Si se asume que w y θ son constantes, la proyección 𝑣𝑤
es constante y en 2D, x DEBE llegar exactamente a la
perpendicular al vector de pesos, como se muestra:
w
Región A
Región B
Cuando , 𝑦 = 1.
w
REGIÓN A
x
𝑦 = 1.
Supongamos que entonces la proyección de x
w
x
REGIÓN B, 𝑦 = 0.
NOTA:
Los resultados son
generales y son
independientes de
entradas a la TLU.
Resumen:
La activación de una TLU viene dada como el producto interno
del vector de pesos y el vector de entrada:
Resumen:
La activación de una TLU viene dada como el producto interno
del vector de pesos y el vector de entrada:
La relación define un híper-plano en el espacio de
patrones que es perpendicular al vector de pesos.
Resumen:
La activación de una TLU viene dada como el producto interno
del vector de pesos y el vector de entrada:
La relación define un híper-plano en el espacio de
patrones que es perpendicular al vector de pesos.
A un lado de este hiper-plano yacen todos los patrones que
son clasificados por la TLU como “1”, mientras que todos los
patrones que yacen al otro lado del hiper-plano son
clasificados como “0”.
Resumen:
La activación de una TLU viene dada como el producto interno
del vector de pesos y el vector de entrada:
La relación define un híper-plano en el espacio de
patrones que es perpendicular al vector de pesos.
A un lado de este hiper-plano yacen todos los patrones que
son clasificados por la TLU como “1”, mientras que todos los
patrones que yacen al otro lado del hiper-plano son
clasificados como “0”.
El hiper-plano es la superficie de decisión de la TLU. Ya que
esta superficie es una versión 𝑛-dimensional de una línea
recta, la TLU es un clasificador lineal.
Resumen:
La activación de una TLU viene dada como el producto interno
del vector de pesos y el vector de entrada:
La relación define un híper-plano en el espacio de
patrones que es perpendicular al vector de pesos.
A un lado de este hiper-plano yacen todos los patrones que
son clasificados por la TLU como “1”, mientras que todos los
patrones que yacen al otro lado del hiper-plano son
clasificados como “0”.
El hiper-plano es la superficie de decisión de la TLU. Ya que
esta superficie es una versión 𝑛-dimensional de una línea
recta, la TLU es un clasificador lineal.
A B AND OR
0 0 0 0
0 1 0 1
1 0 0 1
1 1 1 1
𝑥0 1
1
-1
-1
𝑥1 1
1
Solución ideal mediante tres neuronas TLU:
𝑥0 1
1
-1
-1
𝑥1 1
1
Solución ideal mediante tres neuronas TLU:
𝑥0 1
1
-1
-1
𝑥1 1
1
Solución ideal mediante tres neuronas TLU:
𝑥0 1
1
-1
-1
𝑥1 1
1
00 0000000011111111
01 0000111100001111
10 0011001100110011
11 0101010101010101
XOR NXOR
N O T A:
medio ambiente
RNA
La reglas perceptrón, y
La regla delta.
Recordatorio:
Derivada.
Derivadas parciales.
Regla de la cadena.
Pendiente de una línea:
∆𝑦 𝑦2 − 𝑦1
𝑚= =
∆𝑥 𝑥2 − 𝑥1
(6,8)
∆𝑦
8−3
𝑚= =1
(1,3) ∆𝑥 6−1
Una línea puede tener diferentes pendientes:
Una línea recta se puede poner en la forma de intersección:
𝑦 = 𝑚𝑥 + 𝑏
𝑚 la pendiente y
Ejemplo: 𝑦 = 2𝑥 + 3
Derivada:
𝑑𝑦
=𝑚
𝑑𝑥
Para derivar la ecuación, consideremos la siguiente figura:
(𝑥, 𝑦)
(𝑥 + ∆𝑥, 𝑦 + ∆𝑥)
∆𝑦
(𝑥, 𝑦) ∆𝑥
La pendiente de esta secante se acerca a la pendiente en
(𝑥, 𝑦), pero no es el valor exacto.
𝑓 𝑥 + ℎ − 𝑓(𝑥)
𝑚=
𝑥+ℎ −𝑥
𝑓 𝑥 + ℎ − 𝑓(𝑥)
𝑓´ 𝑥 = lim
ℎ→0 𝑥+ℎ −𝑥
𝑓 𝑥 + ℎ − 𝑓(𝑥)
𝑓´ 𝑥 = lim
ℎ→0 ℎ
Aplicación al ejemplo: 𝑓 𝑥 = 𝑥 2
𝑥+ℎ 2 − 𝑥 2
𝑓´ 𝑥 = lim
ℎ→0 ℎ
Al expandir:
𝑥 2 + 2𝑥ℎ + ℎ2 − 𝑥 2
𝑓´ 𝑥 = lim
ℎ→0 ℎ
2𝑥ℎ + ℎ2
𝑓´ 𝑥 = lim = lim 2𝑥 + ℎ
ℎ→0 ℎ ℎ→0
Resultado final de la derivada:
𝑓´ 𝑥 = 2𝑥
D ( expression (x^2,¨x¨)
Tutorial sobre R:
http://www.heatonresearch.com/wiki/Brief_R_Tutorial
Derivadas parciales:
𝜕𝑓
𝑓´𝑧 , 𝑓𝑧 , 𝜕𝑧 𝑓,
𝜕𝑧
𝜕𝑓
es la más usada.
𝜕𝑧
Ejemplo:
𝑧 = 𝑓 𝑥, 𝑦 = 𝑥 2 + 𝑥𝑦 + 𝑦 2
𝜕𝑧
= 2𝑥 + 𝑦
𝜕𝑥
Entonces: 𝑓´ 𝑥 = 𝑛𝑥 𝑛−1
Ejemplo en Java:
System.out.println ( Math.pow(3,2) );
Ejemplo matemático:
𝑓 ∘ 𝑔 (5)
𝑓 ∘ 𝑔 ´ 𝑡 = 𝑓´ 𝑔(𝑡) 𝑔´ 𝑡
Adaptación
de
parámetros Error
Tipos de algoritmos de entrenamiento:
Correctivo
Supervisado
Con refuerzo
Entrenamiento
No-supervisado