Вы находитесь на странице: 1из 15

INTRODUCCION

En estos ltimos aos el desarrollo de mltiples investigaciones orientadas a disear


sistemas inteligentes, que puedan, en cierta medida emular la capacidad humana de
razonar ha generado una metodologa nueva, las redes neuronales artificiales, cuya
capacidad de amoldarse a muchos problemas reales, la hace una de las tcnicas con
gran aplicabilidad prctica.
Las redes neuronales tienen su comienzo a finales del siglo XIX con el cientfico
Ramon Y kajhal que trabajo en la estructura de la neurona y en las conexiones de la
misma.
En 1982
T. Kohonen present un modelo de red denominada mapas-autoorganizados o SOM, este tipo de red neuronal artificial posee un tipo de aprendizaje
no supervisado competitivo, es decir, las neuronas compiten unas con otras con el fin
de llevar a cabo una tarea dada con el propsito que cuando se presente un patrn de
entrada a la red slo una de las neuronas de salida se active. Por tanto queda
finalmente una como neurona vencedora anulando el resto, que son forzadas a sus
valores de respuesta mnimo.
El objetivo de este presente trabajo es demostrar las bondades de este modelo SOM,
su actuacin como clasificadores encontrando patrones en los datos de entrada y
clasificndolos en grupos segn estos patrones (Clustering).

1. ASPECTOS GENERALES
1.1 LA NEURONA.
Emil Heinrich Du Bois-Reymond, en 1849 con la ayuda de un galvanmetro (medidor
de tensiones) detect las imperceptibles descargas elctricas provocadas al contraer
los msculos del brazo.

La clula nerviosa se denomina neurona, que es la unidad funcional del sistema


nervioso. El tamao y forma de las neuronas es variable, pero con las mismas
subdivisiones. El cuerpo de la neurona, o Soma contiene el ncleo. Se encarga de
todas las actividades metablicas de la neurona y recibe la informacin de otras
neuronas vecinas a travs de las conexiones sinpticas.
Qu es una sinapsis? Es el proceso esencial en la comunicacin neuronal y
constituye el lenguaje bsico del sistema nervioso.
Las dendritas son las prolongaciones ramificadas que salen del cuerpo de una
neurona y por las que recibe los impulsos nerviosos de otras neuronas a travs de la
sinapsis. Por su parte el Axn es la salida de la neurona y se utiliza para enviar los
impulsos o seales a otras clulas nerviosas. Cuando el Axn est cerca de sus
clulas destino se divide en muchas ramificaciones que forman sinapsis con el soma o
axones de otras clulas. Esta unin puede ser inhibidora o excitadora segn el
transmisor que las libere.

1.2 LA NEURONA DESDE EL PUNTO DE VISTA COMPUTACIONAL


Las neuronas son procesadoras de informacin; est conformada por las dendritas,
que son el canal de entrada de la informacin, el soma, que es el rgano de cmputo y
el axn, su canal de salida.
Entre los tipo de neuronas que existen se encuentran las interneuronas, cuyo axn
enva la informacin a otras neuronas; las neuronas motoras, en cuyo caso se enva
directamente la informacin al musculo y las receptoras que reciben la informacin del
exterior.
En el cerebro existe tanto una organizacin horizontal (en capas) as como una vertical
(columnas de neuronas); tambin se aprecia la existencia de grupos neuronales (redes
neuronales), los cuales constituyen unidades especializadas en determinadas tareas.
La unin entre dos neuronas es la sinapsis, y en base a esto existen las neuronas
presinpticas (envan seales) y las postsinpticas (reciben seales).
Cada neurona recibe impulsos procedentes de otras neuronas (inputs) a travs de las
dendritas que estn conectada a las salidas de otras neuronas por las sinapsis, estas
alterna la efectividad con la que la seal es transmitida a travs de un parmetro, el

peso. El aprendizaje resulta de la modificacin de estos pesos, que unido al


procesamiento de la informacin de la neurona, determinan el mecanismo bsico de la
memoria. El Soma de la neurona recibe todos estos inputs, y emite una seal de salida
(output), esta salida se transmite a travs del axn desde donde se propaga mediante
diferencias de potencial a las dendritas de otras neuronas.

1.3 REDES NEURONALES


1.3.1 REDES NEURONALES BIOLGICOS
Son el principal elemento del Sistema Nervioso, est compuesto por un gran nmero
de neuronas, entre neuronas de entrada (censores) que estn conectadas a una
compleja red (neuronas ocultas) las cuales, a su vez, estn conectadas a las neuronas
de salida que controlan por ejemplo los msculos. Los sensores pueden ser las
seales de odo, ojos, etc. Las respuestas de las neuronas de salida activan los
msculos correspondientes.
1.3.2 REDES NEURONALES ARTIFICIALES.
Las neuronas artificiales (ANN) imitan su funcionamiento a aquellas que se encuentran
en el mbito biolgico. Son aptas para resolver problemas que no poseen un algoritmo
claramente definido para transformar una entrada en una salida; resolver problemas
relacionados con el reconocimiento de formas o patrones, prediccin, codificacin,
clasificacin, control y optimizacin. Estas soluciones son expresadas no como una
secuencia de pasos, sino como la evolucin de unos sistemas de computacin
inspirados en el cerebro humano, y atribuyndole cierta inteligencia (combinacin de
una gran cantidad de elementos simples de procesos-neuronas-interconectadas).

VENTAJAS QUE NOS OFRECEN LAS REDES NEURONALES ARTIFICALES.


a) APRENDIZAJE ADAPTATIVO.
La capacidad de aprendizaje adaptativo es una de las caractersticas
ms atractivas de las redes neuronales. Consiste en que aprenden a
llevar a cabo ciertas tareas mediante un entrenamiento con ejemplos
ilustrativos.
Como las redes neuronales pueden aprender a diferenciar patrones
mediante ejemplos y entrenamientos, no es necesario elaborar
modelos a priori, es decir, estas redes son sistemas dinmicos
autoadaptativos. Son adaptables debido a la capacidad de autoajuste
de los elementos procesales (neuronas) que componen el sistema.
Son dinmicos debido a que son capaces de estar constantemente
cambiando para adaptarse a las nuevas condiciones.
b) AUTO-ORGANIZACIN.
Las redes neuronales emplean su capacidad de aprendizaje
adaptativos para autoorganizar la informacin que recibe durante el
aprendizaje y/o la operacin. Mientras que el aprendizaje es la
modificacin de cada elemento procesal, la autoorganizacin consiste

en la modificacin de la red neuronal completa para llevar a cabo un


objetivo especfico.
Cuando las redes neuronales se usan para reconocer ciertas clases
de patrones, ellas autoorganizan la informacin usada. Por ejemplo, la
red llamada backpropagation, crear su propia representacin
caracterstica, mediante el cual puede reconocer ciertos patrones.
Esta autoorganizacin provoca la generalizacin: facultad de las redes
neuronales de responder apropiadamente cuando se les presenta
datos o situaciones a las que no haba sido expuesta anteriormente. El
sistema puede generalizar la entrada para obtener una respuesta.
Esta caracterstica es muy importante cuando se tiene que solucionar
problemas en los cuales la informacin de entrada no es muy clara;
adems permite que el sistema d una solucin, incluso cuando la
informacin de entrada est especificada de forma incompleta.
1.4. LOS MODELOS NEURONALES.
En estos modelos cada neurona realiza una funcin matemtica, se agrupan en capas
constituyendo una red neuronal. Una red neuronal. Una red neuronal est
confeccionada y entrenada para llevar a cabo una labor especfica.
1.5 ALGORITMOS NEURONALES.
Los modelos neuronales utilizan varios algoritmos de estimacin, aprendizaje o
entrenamiento para encontrar los valores de los parmetros del modelo, que en el
contexto de las redes neuronales se denominan pesos sinpticos. El entrenamiento se
realiza mediante patrones-ejemplo, siendo dos los tipos de aprendizaje: supervisado y
no supervisado.
a) El aprendizaje supervisado.
Este tipo de aprendizaje se caracteriza porque el proceso de aprendizaje se
realiza mediante un entrenamiento controlado por un agente externo
(supervisor, maestro) que determina la respuesta que debera generar la red a
partir de una entrada determinada. El supervisor controla la salida de la red y
en caso de que esta no coincida con la deseada se proceder a modificar los
pesos de las conexiones, con el fin de conseguir que la salida obtenida se
aproxime a la deseada.
b) El aprendizaje no supervisado.
En este tipo de aprendizaje solo debemos de suministrar a la red los datos de
entrada para que extraiga los rasgos caractersticos esenciales. En
terminologa estadstica equivale a los modelos en los que slo hay vectores de
variables independientes y buscan el agrupamiento de los patrones de entrada:
anlisis de conglomerados o cluster, escalas multidimensionales, etc.

2. TIPOS DE REDES NEURONALES


Todas las diferentes configuraciones y algoritmos diseados para las redes neuronales
artificiales estn inspirados en el sistema neuronal del cerebro. Sin embargo, a pesar
de tener esta inspiracin, no significa necesariamente los sistemas neuronales
busquen emular al cerebro, una de las razones que no lo hagan es que el
conocimiento que se tiene del cerebro hoy en da es bastante simple y reducido. De
hecho los encargados del diseo de las redes neuronales artificiales buscan otras
reas, muchas veces diferentes a la biologa y prueban nuevas estructuras, es as que
surgen diferentes tipos de redes neuronales como: Perceptron, Adaline,
Backpropagation, Aprendizaje asociativo, Redes competitivas, Redes recurrentes, etc.
REDES COMPETITIVAS
En las redes con aprendizaje competitivo, suele decirse que las neuronas compiten
unas con otras con el fin de llevar a cabo una tarea dada. Con este tipo de aprendizaje
se pretende que cuando se presente a la red cierta informacin de entrada, slo una
de las neuronas de salida de la red, o una por cierto grupo de neuronas, se active
(alcance su valor de respuesta mximo). Por tanto las neuronas compiten para
activarse quedando finalmente una, o una por grupo, como neurona vencedora y el
resto quedan anuladas y siendo forzadas a tomar sus valores de respuesta mnimos.
El objetivo de este aprendizaje es categorizar (clusterizar) los datos que se introducen
en la red, de esta forma las informaciones similares son clasificadas formando parte de
la misma categora y por tanto deben activar la misma neurona de salida.
Este tipo de redes ha sido utilizado para explicar la formacin de mapas topolgicos
que ocurren en muchos sistemas sensoriales humanos, como la visin, audicin, tacto
y olfato.
Red de Kohonen:
Hechos:
1) En el cerebro hay neuronas que se organizan en muchas zonas, de forma que las
informaciones captadas del entorno (a travs de los rganos sensoriales) se
representan internamente en forma de mapas bidimensionales. Ejemplo:

En el sistema visual se han detectado mapas del espacio visual en zonas del
crtex (capa externa del cerebro)
En el sistema auditivo se detecta una organizacin segn la frecuencia a la que
cada neurona alcanza mayor repuesta

2) Aunque en gran medida esta organizacin neuronal est predeterminada


genticamente, es probable que parte de ella se origine mediante el aprendizaje, esto
sugiere que el cerebro podra poseer la capacidad inherente de formar mapas
topolgicos de las informaciones recibidas del exterior.
3) Tambin se ha observado que la influencia que una neurona ejerce sobre las dems
esta en funcin de la distancia entre ellas, siendo muy pequea cuando estn muy
alejadas.

A partir de estos 3 hechos,Tuevo Kohonen present en 1982 un modelo de red


neuronal con capacidad para formar mapas de caractersticas de manera similar a
como ocurre en el cerebro.
3. LOS MAPAS AUTO-ORGANIZADOS DE KOHONEN (SOM)
La red auto-organizada debe descubrir rasgos comunes, regularidades, correlaciones
o categoras en los datos de entrada, e incorporarlos a su estructura interna de
conexiones.
Se dice, por tanto, que las neuronas deben auto-organizarse en funcin de los
estmulos (datos) procedentes del exterior. Se dice que se encuentran auto-organizada
ya que debe descubrir rasgos comunes o categoras de los datos de entrada.
En este aprendizaje competitivo se pretende que cuando se presente a la red un
patrn de entrada, solo una de las neuronas de salida (o grupo de vecinas) se active,
por tanto las neuronas competirn por activarse, quedando una como vencedora.
Objetivo:
Categorizar los datos que se introducen en la red. Se clasifican valores similares en la
misma categora y por tanto deben ser capaces de activar la misma neurona.
Ideas intuitivas sobre el algoritmo del SOM
El SOM es un tipo de algoritmo para clasificar observaciones.
Se elige un gran nmero de clusters y se colocan en forma de una red
bidimensional.
La idea es que los representantes de cada grupo (o pesos, segn la notacin de
Kohonen) estn correlacionados espacialmente, de modo que los puntos ms
prximos en la rejilla sean ms parecidos entre s que los que estn muy separados.
Kohonen afirma: Yo slo quera un algoritmo que asigne eficazmente patrones
similares
Fundamentos biolgicos
A partir de los 3 hechos observados, el modelo de red auto-organizado presentado por
Kohonen pretende mimetizar de forma simplificada la capacidad del cerebro de formar
mapas topolgicos a partir de las seales recibidas del exterior.
Ventajas del SOM
La principal razn de la aceptacin que ha tenido el SOM es su capacidad de
presentar, de manera automtica, un mapa en el cual se puede observar una
descripcin intuitiva de la similitud entre los datos; el despliegue bidimensional nos
permite exhibir la informacin contenida en los datos de manera ordenada y resaltando
las relaciones de similitud.

Arquitectura del SOM


Un modelo SOM est compuesto por dos capas de neuronas:

La capa de entrada (formada por N neuronas, una por cada variable de


entrada) se encarga de recibir y transmitir a la capa de salida la informacin
que viene del exterior
La capa de salida (formada por M neuronas) es la encargada de procesar la
informacin y formar el mapa de rasgos.

Normalmente, las neuronas de la capa de salida se organizan en forma de mapa


bidimensional como se muestra en la figura:

La informacin se propaga desde la capa de entrada hacia la capa de salida (capa de


competicin). Cada neurona de entrada i est conectada con cada una de las
neuronas de salida j mediante un peso wji.
Funcionamiento del modelo
Se recibe un vector de entrada y se propaga por las conexiones hasta llegar a la capa
de competicin, dicha propagacin se hace de tal modo que cada clula de la capa de
competencia produce una salida, que es el resultado de comparar su entrada (comn
para todas) con los valores de los pesos de las conexiones de dichas clulas mediante
una funcin distancia mnima.
Todas las salidas de la capa de competicin son comparadas entre s, para
seleccionar aquella que produzca una salida ms pequea, a dicha clula se le
etiqueta con el nombre de la clula ganadora de la entrada correspondiente.
Asimismo al interior de la competicin las clulas estn conectadas, de manera que la
red ganadora (la que genera el ncleo de actividad alrededor de la clula) produce una
salida menor (es decir, cuya distancia respecto a la entrada es menor)

4. METODOLOGIA
4.1) CANGREJOS
Descripcin de la data
Se tiene una data de 200 ejemplares de cangrejo, donde cada ejemplar muestra 8
caracteristicas que son: cdigo de especie (azul o naranja), cdigo de sexo, anchura
frontal del lbulo, anchura trasera, longitud del caparazn, anchura del caparazn y
profundidad Los cangrejos son de dos posibles sexos y dos especies:
Masculino Blue B
Femenino blue b
Masculino naranja O
Femenino naranja o
A partir de esta matriz de datos, se trata de comprobar si un modelo SOM es capaz de
agrupar en el mapa los dos tipos de cangrejo diferencindolo de sexo masculino y
femenino, proporcionndole nicamente los datos con cuatro de las 8 caractersticas
citadas. Por tanto, las categoras deberan ser creadas de forma no supervisada por la
propia red a travs de las correlaciones descubiertas entre los datos de entrada,
puesto que no se proporciona la categora de pertenencia del ejemplar.
Entonces la nueva data ser conformada por el logaritmo de las cuatro caractersticas
que son:
lcrabs <- log(crabs[, 4:8])
En donde estas cuatro caractersticas son:
FL=tamao de lobulo frontal
RW=anchura trasera
CL=longitud del caparazn
CW=ancho del caparazn
BD=profundidad del cuerpo
Se usa la topologa de tipo hexagonal puesto que en una red SOM con malla
hexagonal logra mejores resultados para clasificacin.
Interpretacin
Se determina las neuronas de salida, en una malla bidimensional de tipo hexagonal,
que representan ejemplares con caractersticas agrupadas, como se establece 48
neuronas, estas van mezclando las 4 caractersticas y de acuerdo a esto agrupar los
200 cangrejos, en los cuatro grupos.

4.2) VINOS:
Descripcin de la data
Se estudia el conjunto de datos wine que contiene observaciones sobre 177 vinos
italianos procedentes de tres cosecheros (Nebbiolo, Barbera y Grignolino) y 13
variables, que contienen las cantidades de varios componentes que se encuentran en
cada uno de los tres tipos de vinos , as como algunas variables espectroscpicos, por
ejemplo: concentraciones de alcohol, flavonoides, cido mlico, entre otras.
Con esta matriz de datos se hace el aprendizaje del modelo para agrupar los 177
vinos italianos segn sus trece caractersticas en torno al cosechero del que es
proveniente. Por tanto, las categoras deberan ser creadas de forma no supervisada
por la propia red a travs de las correlaciones descubiertas entre los datos de entrada,
puesto que no se proporciona la categora de pertenencia del ejemplar. Se utiliza como
criterio de similitud, la distancia eucldea en la etapa de entrenamiento.
Y utilizando el algoritmo del mapa auto-organizado de Kohonen, se determina las
neuronas de salida que representan ejemplares con caractersticas agrupadas, como
se establece 20 neuronas, estas van mezclando las 13 caractersticas y de acuerdo a
esto agrupar los 177 vinos de acuerdo a los cosecheros.
Interpretacin:
El objeto de utilizar el algoritmo auto-organizado de Kohonen es para clasificar en este
caso los 177 vinos con respecto a patrones de los datos de entrada (caractersticas de
los vinos) y clasificarlos en grupos segn estos patrones. Y con esto la dimensin
inicial se reduce y por lo mismo permite una mejor presentacin visual de las
relaciones entre los vinos y sus caractersticas de acuerdo a la cosecha de
procedencia.

5. CONCLUSIONES

6. REFERENCIAS BIBLIOGRFICAS.
6.1. Redes neuronales, Autor: Samuel Tiburcio Parra, Universidad Politecnica de
Queretaro
6.2. Redes de Neuronas Artificiales, Autor: Isasi, Galvan
6.3. Neural Networks and Intellect: Using Model-Based Concepts, Autor: Leonid I.
Perlovsky, Universidad de Oxford
ANEXOS

Anexo 01: cdigo del ejemplo de los cangrejos:


#ejemplo de los cangrejos
library(class)
library(MASS)
help(crabs)
# Cargo los datos
data(crabs, package = "MASS")
# Se toman logaritmos
lcrabs <- log(crabs[, 4:8])
## lcrabs, matriz de entrada
## para suavizar datos extraigo el logaritmo de las cuatro columnas que voy usar
## como caracteristicas FL=tamao de lobulo frontal, RW=anchura trasera,
CL=longitud del caparazon, CW=ancho del caparazon y BD=profundidad del cuerpo
# Cuatro tipos de Cangrejos (2 colores X 2 Sexos)
# creo una data
crabs.grp <- factor(c("B", "b", "O", "o")[rep(1:4, rep(50,4))])
# Tipo de Zona de vecindad
gr <- somgrid(topo = "hexagonal")
## gr es la red de representante o matriz de salida
# Calculo la red som
crabs.som <- batchSOM(lcrabs, gr, c(4, 4, 2, 2, 1, 1, 1, 0, 0))
## batchSOM son una forma cruda de escalamiento multidimensional
# Graficando la red SOM
plot(crabs.som)
# Matriz de prueba
bins <- as.numeric(knn1(crabs.som$code, lcrabs, 0:47))
## knn1, clasifica al vecino ms cercano para el grupo de prueba de conjunto de
entrenamiento en donde a el ms
## cercano se determina a partir de la distancia euclidiana
## crabs.som$code conjunto de entrenamiento
## matriz caso de prueba lcrabs
## Factor de la verdadera clasificacin de conjunto de entrenamiento 0:47
# Representacion de la red
plot(crabs.som$grid)
symbols(crabs.som$grid$pts[, 1], crabs.som$grid$pts[, 2],

circles = rep(0.4, 48), inches = FALSE, add = TRUE)


text(crabs.som$grid$pts[bins, ] + rnorm(400, 0, 0.1),
as.character(crabs.grp))
## si add es TRUE , se aaden los smbolos a un grfico existente , de lo contrario se
crea una nueva trama
Anexo 02: Graficos del ejemplo de los graficos

RED SOM
plot(crabs.som)

Matriz de prueba
plot(bins)

Representacion de la red

Anexo 03: Codigo vinos:


library(kohonen)
# Cargando la data
data(wines)

# Estableciendo una semilla aleatoria


set.seed(7)
# Escalando las variables (homogenizacin)
wines.sc <- scale(wines)
## al proceso de restar la media y dividir entre su desviacin tpica a una
## variable X. De este modo se obtiene una nueva variable z = (X - x)/s ,
## de media 0 y desviacin estndar sz = 1, que se denomina variable tipificada.
## Esta nueva variable carece de unidades y permite hacer comparables dos
medidas
## que en un principio no lo son, por aludir a conceptos diferentes.
# Aplicanco el algoritmo del SOM
wine.som <- som(data = wines.sc, grid = somgrid(5, 4, "hexagonal"))
## estableciendo los patrones de entrada, y salida de 20 neuronas, de topologia
hexagonal
# Funcion para obtener los nombres de un objeto*?
names(wine.som)
# Distancia promedio de las celulas(de entrada y salida) mas cercanas
summary(wine.som)
# Clasificacin mediante el algoritmo de SOM los 177 vinos(patrones de entrada)
# en las 20 neuronas de salida
wine.som$unit.classif
# Poniendo la data de prueba
wine.som$codes
# Graficamos los datos de las neurones de salida
plot(wine.som, main = "Datos de Vinos")
#En el llamado SOM supervisado existe tambin hay una variable dependiente para
#comparar los resultados (categrica o continua)
library(kohonen)
# Cargando la data
data(wines)
# Estableciendo una semilla aleatoria
set.seed(7)
# Utilizamos el comando xyf
kohmap <- xyf(scale(wines), classvec2classmat(wine.classes),
grid = somgrid(5, 5, "hexagonal"))
## este comando es una versin supervisada de los mapas auto-organizados
## para el mapeo de espectros o patrones de alta dimensin a 2D. El nombre
## significa X-Y SOM fusionados. Genera un vector para cada objeto, se crea
## mediante la concatenacin de X e Y, y un SOM est entrenado en la forma
## habitual, con una excepcin: la distancia de un objeto a una unidad es la
## suma de las distancias separadas para X y Y espacios. La prediccin se
## hace slo con el X-espacio. Para Y continuo, se utiliza la distancia
## euclidiana; para categrica Y la distancia Tanimoto.

# Graficando
par(mfrow=c(2,2))
plot(kohmap, type="codes", main=c("Distribuci\{o}n de variables",
"Clases de C\{o}digos"))
plot(kohmap, type="counts")
plot(kohmap, type="mapping",labels=wine.classes, col=wine.classes+1,
main="Mapa de clases")
Anexo 04: Grficos del ejemplo de los vinos

Вам также может понравиться