Вы находитесь на странице: 1из 27

Introducción

INTELIGENCIA ARTIFICIAL
Algunas Ramas que componen la
Inteligencia Artificial
Redes Neuronales Artificiales
Lógica Difusa
Algoritmos Genéticos

Cada una de ellas consta de características especiales, así como de una función específica
Las computadoras fueron creadas por el hombre
específicamente para las tareas que podemos denominar de
alto nivel, como el razonamiento o el cálculo, que pueden ser
fácilmente resolubles mediante el procesamiento de símbolos;
en este tipo de tareas nuestro cerebro no es excesivamente
diestro, y actúa en clara desventaja frente a la electrónica.

Sin embargo, en tareas de procesamiento de bajo nivel, como


las de reconocimiento de patrones, percepción, control, etc, las
computadoras se desenvuelven todavía torpemente, pues en
origen no fueron creados para ello
Características de la IA convencional y de
los ANS
Las redes neuronales emulan el hardware del cerebro para reproducir algunas de sus
capacidades asociadas a la inteligencia, especialmente a la que denominamos de bajo nivel,
relacionada con el reconocimiento de patrones, percepción, etc.
Los sistemas basados en lógica borrosa, sin embargo, puede decirse que se orienta en otra
dirección, en la de emular la parte más software del cerebro, tratando de reproducir las
capacidades de más alto nivel, especialmente la de razonamiento aproximado.
En el mundo real las cualidades no aparecen perfectamente definidas, no son 0 o 1, sino que
resultan más bien imprecisas, borrosas (por ejemplo, la habitación está templada), por lo que
puede resultar interesante introducir una lógica que trate de manejar estos conceptos
imprecisos
Lotfi Zadeh propuso y desarrolló en Estados Unidos la denominada Lógica Borrosa (Fuzzy Logic)
durante los años 70´s.
Fue en Japón desde los años 70´s donde fue muy bien recibido y se viene aplicando Lógica
Borrosa en el desarrollo de múltiples y variadas aplicaciones. Ejemplo: control de aíre
acondicionado, pilotaje automático de trenes metropolitanos, etc.
A consecuencia del éxito de los Japoneses en los 80’s se vienen realizando importantes
esfuerzos de investigación en desarrollo en lógica borrosa tanto en Norteamérica como en
Europa.
En definitiva, la lógica borrosa razona a partir de estos términos lingüísticos borrosos, haciendo
uso de sentencias del tipo SI/ENTONCES, como por ejemplo, SI temperatura=fría ENTONCES
enciende calefacción o SI presión = muy alta ENTONCES abrir la válvula.
De esta manera, la lógica borrosa permite incorporar de una manera relativamente sencilla y
directa el conocimiento de un experto.
Redes Neuronales
Artificiales
Red Neuronal Natural
 Está compuesta por el cuerpo de la célula (soma) y
dos tipos de ramificaciones: el axón y las dendritas.
 La Neurona reciba las señales (impulsos) de otras
neuronas a través de sus dendritas y transmite
señales generadas por el cuerpo de la célula a
través del axón
 Las señales que se utilizan son de dos tipos:
eléctricas y químicas.
 La señal generada por la neurona y transportada a
lo largo del axón es un impulso eléctrico, mientras
que las señales que se transmiten entre los
terminales axónicos de una neurona y las dendritas
de la otra es de origen químico.
Similitudes
Para establecer una similitud directa entre la actividad sináptica y la analogía con las redes
neuronales artificiales podemos considerar que las señales que llegan a la sinapsis son las
entradas a la neurona.
Estas son ponderadas (atenuadas a simplificadas) a través de un parámetro denominado peso,
asociado a la sinapsis correspondiente. Estas señales de entrada pueden excitar a las neuronas
(sinapsis con peso positivo) o inhibirla (peso negativo).
El efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor que el umbral de la
neurona, entonces la neurona se activa (da salida).
Esta es una situación de todo o nada; cada neurona se activa o no se activa
Estructura de Un Sistema Neuronal
Artificial
Modelo General de Neurona Artificial
 Conjunto de entradas, 𝑥𝑗 𝑡
 Pesos sinápticos de la neurona 𝑖, 𝑤𝑖𝑗 que representa la
intensidad de interacción entre cada neurona presináptica
𝑗 y la neurona postsináptica 𝑖.
 Regla de propagación 𝜎(𝑤𝑖𝑗 , 𝑥𝑗 (𝑡)), que proporciona el
valor del potencial postsináptico ℎ𝑖 𝑡 = 𝜎(𝑤𝑖𝑗 , 𝑥𝑗 (𝑡)) de
la neurona 𝑖 en función de sus pesos y sus entradas
 Función de activación 𝑓𝑖 𝑎𝑖 𝑡 − 1 , ℎ𝑖 (𝑡) , que proporciona el estado de activación actual 𝑎𝑖 𝑡 = 𝑓𝑖 (𝑎𝑖 (𝑡 −
Regla de propagación
Permite obtener, a partir de las entradas y los pesos, el valor del potencial postsináptico ℎ𝑖 de la
neurona
ℎ𝑖 𝑡 = 𝜎(𝑤𝑖𝑗 , 𝑥𝑗 (𝑡))
La función más habitual de éste tipo lineal, y se basa en la suma ponderada de las entradas con
los pesos sinápticos
ℎ𝑖 𝑡 = ෍ 𝑤𝑖𝑗 𝑥𝑗
𝑗

Que formalmente también puede interpretarse como el producto escalar de los vectores de
entrada y pesos
ℎ𝑖 𝑡 = ෍ 𝑤𝑖𝑗 𝑥𝑗 = 𝒘𝑻𝒊 . 𝒙
𝑗
Regla de propagación
Una regla de tipo no lineal, de uso más limitado, es la siguiente:
ℎ𝑖 𝑡 = ෍ 𝑤𝑖𝑗1𝑗2…𝑗𝑝 𝑥𝑗1𝑗2… 𝑥𝑗𝑝
𝑗1𝑗2…𝑗𝑝

Que implica una multiplicación de tipo multiplicativo entre las entradas de la neurona. El uso de ésta
última regla de propagación determina que una neurona se denomine de orden superior o neurona
sigma-pi.
Otra regla de propagación habitual, especialmente en los modelos de ANS basados en el cálculo de
distancias entre vectores (como RBF, mapas de kohonen o LVQ) es la distancia euclídea
ℎ𝑖2 𝑡 = ෍(𝑥𝑗 − 𝑤𝑖𝑗 )2
𝑗

Que representa la distancia (al cuadrado) existente entre el vector de entrada y el de pesos. Por lo
tanto, este tipo de reglas opera de manera diferente a las anteriormente comentadas.
Se pueden utilizar también otros tipos de distancias, como la de manhatan o la de Mahalanobis.
Función de activación o
función de transferencia
Proporciona el estado de activación actual 𝑎𝑖 𝑡 a partir del potencial postsináptico ℎ𝑖 𝑡 y del
propio estado de activación anterior 𝑎𝑖 𝑡 − 1
𝑎𝑖 𝑡 = 𝑓𝑖 𝑎𝑖 𝑡 − 1 , ℎ𝑖 (𝑡)

Sin embargo en muchos modelos de ANS se considera que el estado actual de la neurona no
depende de su estado anterior, sino únicamente del actual.
𝑎𝑖 𝑡 = 𝑓𝑖 ℎ𝑖 (𝑡)
La forma 𝑦 = 𝑓(𝑥) de las funciones de
activación más empleadas
 Designamos en 𝑥 el potencial postsináptico y con 𝑦 el
estado de activación.
 La más simple de todas es la función identidad,
empleada, por ejemplo, en la Adalina.
 Otro caso también muy simple es la función escalón,
empleada en el Perceptron Simple y en la red de
Hopfield discreta, así como en la neurona clásica de
McCulloch-Pitts.
 En ocasiones los algoritmos de aprendizaje requieren
que la función de activación cumpla la condición de
ser derivable. La más empleada en este sentido son
las funciones de tipo sigmoideo, como la del BP.
 Otra función clásica es la gaussiana, que se utiliza
junto con reglas de propagación que involucran el
cálculo de cuadrados de distancia (por ejemplo, la
euclídea) entre los vectores de entradas y pesos
Funciones de
transición o
activación
Función de Salida
Proporciona la salida global de la neurona 𝑦𝑖 (𝑡) en función de su estado de activación actual
𝑎𝑖 (𝑡).
Muy frecuentemente la función de salida es simplemente la identidad 𝐹 𝑥 = 𝑥, de modo que
el estado de activación de la neurona se considera como la propia salida.
𝑦𝑖 𝑡 = 𝐹𝑖 𝑎𝑖 𝑡 = 𝑎𝑖 (𝑡)
Esto ocurre en los modelos más comunes, como el MLP o la adalina.
La función de salida puede ser de tipo escalón, lo que supone que la neurona no se dispara
hasta que la neurona supere un cierto umbral
Modelo estándar de Neurona Artificial
 El modelo expuesto hasta ahora resulta muy general. En la
practica se utiliza uno mas simples, que denominaremos
neurona estándar.
 Constituye un caso particular del modelo PDP, considerando
que la regla de propagación es la suma ponderada y que la
función de salida es la identidad. De esta forma la neurona
estándar consiste de:
 Un conjunto de entradas 𝑥𝑗 (𝑡) y pesos sinápticos 𝑤𝑖𝑗
 Una regla de propagación ℎ𝑖 𝑡 = 𝜎 𝑤𝑖𝑗 , 𝑥𝑗 𝑡 ; ℎ𝑖 𝑡 =
σ 𝑤𝑖𝑗 𝑥𝑗 es la más común
 Una función de activación 𝑦𝑖 𝑡 = 𝑓𝑖 (ℎ𝑖 (𝑡)), que representa
simultáneamente la salida de la neurona y su estado de
activación.
Modelo estándar de Neuronal Artificial
Con frecuencia se añade al conjunto de pesos de la neurona un parámetro adicional 𝜃𝑖 que se denomina umbral,
que se resta del potencial postsináptico por lo que el argumento de activación queda
෍ 𝑤𝑖𝑗 𝑥𝑗 − 𝜃𝑖
𝑗

En conclusión el modelo, el modelo de neurona que denominaremos estándar queda


𝑦𝑖 𝑡 = 𝑓𝑖 (෍ 𝑤𝑖𝑗 𝑥𝑗 − 𝜃𝑖 )
𝑗

Ahora bien, si hacemos que los índices 𝑖 y 𝑗 comiencen en 0, podemos definir 𝑤𝑖0 ≡ 𝜃𝑖 y 𝑥0 ≡ −1 (constante),
con lo que el potencial postsináptico (potencial local, o de membrana) se obtiene realizando la suma desde 𝑗 = 0
𝑛

𝑦𝑖 𝑡 = 𝑓𝑖 (෍ 𝑤𝑖𝑗 𝑥𝑗 )
𝑗=0
Neurona todo-nada
(dispositivo de umbral)
Si en el modelo de neurona estándar consideramos que las entradas son digitales, por ejemplo
𝑥𝑖 = {0,1}, y la función de activación es la escalón 𝐻(. ) (denominada también Heaviside),
definida entre 0 y 1, se tiene
𝑦𝑖 (𝑡) = 𝐻(෍ 𝑤𝑖𝑗 𝑥𝑗 − 𝜃𝑖 )
𝑗

Como 𝐻 𝑥 = 1 cuando 𝑥 ≥ 0, y 𝐻 𝑥 = 0 cuando 𝑥 < 0, se tiene


1, 𝑠𝑖 ෍ 𝑤𝑖𝑗 𝑥𝑗 ≥ 𝜃𝑖
𝑦𝑖 =
0, 𝑠𝑖 ෍ 𝑤𝑖𝑗 𝑥𝑗 < 𝜃𝑖

Este es el modelo de neurona del perceptrón original


Ejemplo
Si consideramos la neurona del perceptrón, y dada la configuración de pesos de la sig. Figura, se
tiene:

𝑦 = 𝐻 𝑤1 𝑥1 + 𝑤2 𝑥2 − 𝜃 = 𝐻(−2𝑥1 − 2𝑥2 + 3)
Si se dan valores binarios a 𝑥1 𝑦 𝑥2 , se puede construir fácilmente la llamada tabla de verdad de
ésta neurona y comprobar que implementa la función lógica NAND.
Neurona continua sigmoidea
Si en el esquema de neurona estándar consideramos que las entradas pueden ser tanto digitales
como continuas (analógicas), y las salidas exclusivamente continuas, puede emplearse como
función de activación una sigmoidea (cuya gráfica tiene forma de letra “S” inclinada y aplastada),
que es una función continua y diferenciable en cierto intervalo, por ejemplo, en el [−1, +1] o en
el [0, +1] dependiendo de la función concreta que elijamos.
Las dos funciones habituales de este tipo son las siguientes:
1
𝑦=𝑓 𝑥 = , con 𝑦 ∈ 0,1
1+𝑒 −𝑥
𝑒 𝑥 −𝑒 −𝑥
𝑦=𝑓 𝑥 = , con 𝑦 ∈ −1,1
𝑒 𝑥 +𝑒 −𝑥

Este modelo de neurona es el utilizado en el perceptrón multicapa


Arquitecturas de Redes Neuronales
Se denomina arquitectura a la topología, estructura o patrón de conexionado de una red
neuronal. En un ANS los nodos se conectan por medio de sinapsis
Se distinguen tres tipos de capas

 Capa de entrada: está compuesta por neuronas que


reciben datos o señales procedentes del entorno
(sensores).
 Capa de salida: Es aquella cuyas neuronas proporcionan
la respuesta de la red neuronal (actuadores).
 Capa oculta: No tiene conexión directa con el entorno,
es decir, no se conecta ni a sensores ni actuadores.
Tipos de conexiones
 Redes unidireccionales (feedforward)
 Redes recurrentes (feedback)
Redes Neuronales Supervisadas

Вам также может понравиться