Академический Документы
Профессиональный Документы
Культура Документы
GRADO
APRENDIZAJEAUTOMTICO
2PARTE|PLANDETRABAJOYORIENTACIONESPARASUDESARROLLO
20162017
EnriqueJ.CarmonaSurez, JosR.lvarezSnchez
GRADOENINGENIERAINFORMTICA
APRENDIZAJE AUTOMTICO
Captulo 1 (completo)
Captulo 2 (completo)
Captulo 3 (completo)
Captulo 4 (no es objeto de estudio)
Captulo 5 (slo seccin 5.3)
Captulo 6 (completo)
GUA DE ESTUDIO
El equipo docente pondr a disposicin de los alumnos, en el curso virtual de la asignatura, ejercicios y
actividades de autoevaluacin sobre cada bloque. La realizacin de estos ejercicios/actividades es voluntaria
y no repercute en la evaluacin final de la asignatura. La finalidad de todo este material es la de servir de
complemento al estudio de la asignatura.
SEMANA
P LA N D E T RA BA JO
Estudio y realizacin de actividades de Parte I
10-11
12
Tema 2
R1
72
Tema 3
24
Tema 4
16
Tema 5
Tema 6
Tema 7
Tema 8
10
24
Tema 9
12
Tema 10
12
10
12
13
R4, R5 y R6
R4, R6 y R7
R4, R5 y R6
R4, R6 y R7
R4, R5 y R6
Tema 11
14
RE S U LTAD OS DE
A PR E ND IZ AJE
10
Tema 1
2-8
HORA S DE
T RA BA JO
12
12
R4, R5, R6 y R7
En la tabla 1, se presenta una planificacin semanal orientativa del trabajo que debera realizar el alumno
para abordar de una forma adecuada el estudio de la asignatura. En dicha tabla se muestran diferentes
acrnimos relacionados con los resultados de aprendizaje alcanzados tras cada plan parcial de trabajo.
Dichas siglas se corresponden con las definiciones de resultados de aprendizaje realizadas en la Gua de
APRENDIZAJE AUTOMTICO
estudio (Parte I), y conservan tambin la misma notacin utilizada en la memoria de verificacin del ttulo
para describir los resultados de aprendizaje relacionados con la materia a la que pertenece esta asignatura
(Sistemas Inteligentes).
Objetivos
El principal objetivo de este tema es presentar una introduccin al aprendizaje automtico.
Breve Introduccin
Antes de estudiar una disciplina, resulta importante conocer cules son las motivaciones por las que se
considera til el estudio y utilizacin de las tcnicas pertenecientes a dicha disciplina. Aqu, las motivaciones
que hacen interesante el estudio del aprendizaje automtico se presentarn desde distintos puntos de vista:
tcnico (desarrolladores de software), comercial (tendencias del mercado) y cientfico.
Para poder definir qu es el aprendizaje automtico es preciso conocer antes el concepto genrico de
Aprendizaje. Son varias las definiciones existentes en la literatura relacionada con el tema. Sin embargo,
dado que no se conocen, con la profundidad suficiente, los mecanismos que controlan el aprendizaje
humano, la mayora de las definiciones existentes se centran ms en la funcionalidad del aprendizaje que en
los procesos internos asociados a dicha capacidad. Por tanto, el alumno debera familiarizarse con estas
definiciones, para poder inferir el conjunto de caractersticas relacionadas con la capacidad de aprender y, de
esta forma, ser capaz de valorar si un sistema dado posee o no alguna aptitud para aprender.
GUA DE ESTUDIO
existe una
perspectiva
perspectiva
perspectiva
Como en cualquier otra rama del saber, tambin en el aprendizaje automtico existen multitud de
circunstancias a lo largo de la historia que han conducido a la situacin actual del campo. Por tanto, el
alumno debera conocer las diferentes etapas de esta evolucin histrica, as como las tendencias y
relaciones con otras disciplinas, en especial con la inteligencia artificial, que han marcado y caracterizado
cada una de dichas etapas.
Orientaciones para el estudio
Dado el carcter introductorio de este tema, ser suficiente realizar una lectura atenta de los contenidos
relacionados con dicho tema.
Actividades recomendadas
Dado el carcter introductorio de este tema, no se propone la realizacin de actividades.
Tema 2. Fundamentos en Aprendizaje Automtico
Este tema ser estudiado a partir del captulo 2 del texto base y abarca los siguientes aspectos:
Objetivos
El objetivo bsico de este tema es presentar una serie de conceptos y procedimientos bsicos en
aprendizaje automtico que son comunes a todas las tcnicas que se estudiarn en la asignatura.
Breve introduccin
En primer lugar se realizar una formalizacin del concepto del aprendizaje en trminos de tarea,
definiendo as cules son sus objetivos, sus entradas y salidas, y los diferentes componentes y relaciones
entre ellos. A continuacin, se analizarn los principales elementos y conceptos bsicos utilizados en los
sistemas de aprendizaje. La descripcin se centrar en introducir dichos conceptos de forma genrica de
modo que puedan ser particularizados, posteriormente, a lo largo de los restantes temas de la asignatura.
Seguidamente, se describirn y analizarn las etapas bsicas relacionadas con el diseo de cualquier
experimento de aprendizaje:
APRENDIZAJE AUTOMTICO
GUA DE ESTUDIO
Objetivos
El principal objetivo de esta parte del temario es presentar y describir un conjunto de tcnicas pertenecientes
a una categora de aprendizaje conocida con el nombre de aprendizaje supervisado. Este tipo de
paradigma abarca un conjunto de tcnicas que permiten inducir un modelo a partir de un conjunto de datos o
ejemplos de entrenamiento. Cada ejemplo de entrenamiento consiste en un conjunto de pares de objetos
atributo-valor ms un atributo adicional que representa la clase o salida de dicho ejemplo. La salida del
modelo aprendido puede ser un concepto (problemas de aprendizaje de conceptos), una etiqueta de clase
(problemas de clasificacin) o un valor numrico (problemas de regresin). El objetivo ltimo del aprendizaje
supervisado es el de crear un modelo capaz de predecir el valor correspondiente a cualquier ejemplo de
entrada no visto, es decir, que no haya sido utilizado en el conjunto de entrenamiento.
Temas 3. Aprendizaje de Conceptos y de Reglas
Este tema ser estudiado a partir del captulo 3 y la seccin 5.3 del texto base e incluye los siguientes
aspectos:
Objetivos
El principal objetivo de este tema es presentar un conjunto de tcnicas de aprendizaje relacionadas con el
aprendizaje de conceptos. Tradicionalmente, se ha denominado concepto objetivo a aquel concepto que
puede ser expresado mediante un conjunto de caractersticas. Por tanto, el principal objetivo de las tcnicas
de aprendizaje que se describirn en este tema es encontrar, a partir de un conjunto de ejemplos y
contraejemplos expresados en trminos de un conjunto de caractersticas, una descripcin del concepto a
aprender que explique todos los ejemplos positivos y que excluya todos los negativos
(contraejemplos). La descripcin final del concepto aprendido (modelo) vendr expresada en forma de regla
o conjunto de reglas. La diferencia principal entre las tcnicas que aqu se presentan radica en la
expresividad utilizada para formular tanto los ejemplos positivos y negativos como el conjunto de reglas
aprendido. As, en el caso del Espacio de Versiones y AQ dicha expresividad vendr limitada por la de la
propia lgica de proposiciones (reglas y ejemplos descritos en trminos de atributo-valor). En cambio, en el
caso de la programacin lgica inductiva (ILP, del ingls Inductive Logic Programming), el grado de
expresividad del modelo aprendido ser mayor al venir formulado en trminos de lgica de predicados
(reglas y ejemplos descritos en trminos de predicados y relaciones).
APRENDIZAJE AUTOMTICO
Breve introduccin
Partiendo de la idea del problema de aprendizaje como un problema de bsqueda, la estrategia del Espacio
de Versiones (EV) es obtener un grupo reducido de hiptesis que permita explicar adecuadamente todos los
ejemplos, tanto positivos como negativos. Los ejemplos son procesados de uno en uno, de tal forma, que en
cada iteracin, se reduce el grupo de hiptesis que explican, no slo el ejemplo considerado en la iteracin,
sino tambin todos los procesados hasta el momento. Si el conjunto de ejemplos est bien diseado, existir
un momento en el que el tamao del conjunto de hiptesis se reducir a una nica hiptesis. Se dice
entonces que el algoritmo converge y que la hiptesis resultante representa el concepto aprendido.
De otro lado, no hay que olvidar que uno de los primeros intentos de programar mecanismo de aprendizaje
en mquinas fue debido a Michalski en los setenta. El resultado fue la creacin de una metodologa
denominada estrella de la que se han derivado numerosas variantes. Todos los posibles algoritmos que se
pueden generar a partir del mtodo estrella sern presentados en el presente tema con el nombre genrico
de algoritmo AQ.
Podra decirse que si las dos tcnicas anteriores permiten la aplicacin de tcnicas de aprendizaje inductivo
sobre la lgica proposicional, la programacin lgica inductiva (PLI) permite la aplicacin de tcnicas de
aprendizaje inductivo sobre la lgica de predicados de primer orden. Por tanto, dado que este tipo de
tcnicas permite recibir como entradas descripciones en lgica de predicados, no slo acepta ejemplos
descritos en esa representacin, sino tambin incluye una teora del dominio. Con esto se consigue cubrir las
deficiencias de los mtodos inductivos y deductivos, utilizando ideas de ambos. As, por una parte, los
mtodos de aprendizaje inductivo no utilizan conocimiento del dominio y, por otra parte, los mtodos
deductivos no son capaces de generalizar ms all de la descripcin del dominio disponible y de un ejemplo
de entrenamiento. Por tanto, podra decirse que la PLI realiza una induccin ayudada por el conocimiento del
dominio. La programacin lgica inductiva tiene su origen en los aos setenta, en los primeros sistemas que
aprendan conceptos expresados de forma relacional. Desde entonces ha sido mucho el trabajo realizado en
esta rea. Aqu se estudiar el algoritmo FOIL por ser uno de los ms representativos.
Una de las desventajas de los tres tipos de algoritmos bsicos presentados en este tema es que no son
tolerantes al ruido en las entradas (existencia de ejemplos mal etiquetados), lo que supone una
caracterstica bastante restrictiva para ser aplicados en problemas del mundo real donde, normalmente, las
entradas contienen ruido. Existen, no obstante, versiones de todos ellos que permiten soslayar este
problema. Sin embargo, su estudio est fuera del alcance de este curso.
Orientaciones para el estudio
Para el estudio del algoritmo de Espacio de Versiones, se recomienda focalizar en los siguientes
aspectos:
(1) En primer lugar, es crucial entender los conceptos de conjunto de hiptesis mximamente
generales (G) y conjunto de hiptesis mximamente especficas (S). Esto es as porque la
hiptesis de dichos conjuntos son las que delimitarn el espacio de versiones, es decir, el espacio
global de hiptesis consistentes con los ejemplos de entrenamiento. Es decir, el espacio de
versiones estar formado por todas las hiptesis de los conjuntos G y S, y por todas aquellas que,
simultneamente, son ms especficas que G y ms generales que S. El caso ideal es aquel en el
que G=S y, entonces, se dice que existe una nica hiptesis capaz de explicar todos los ejemplos.
(2) Es preciso resaltar tambin que, aunque el algoritmo hace uso de dos procedimientos bsicos,
especializar-g y generalizar-s, implementados de forma secuencial, el orden en que se aplican es
diferente en funcin de si el ejemplo que se est procesando es positivo o negativo.
GUA DE ESTUDIO
(3) Las variantes del algoritmo, descritas en pp. 128-133 del texto base, no sern objeto de examen.
Se recomienda slo una lectura atenta.
Por otro lado, para el estudio del algoritmo AQ, se recomienda focalizar en los siguientes aspectos:
(1) Es importante comprender los conceptos de funcin LEF, selector, complejo y recubrimiento.
(2) En relacin al funcionamiento del algoritmo, es importante tener en cuenta que se basa en la
realizacin de dos bsquedas anidadas. En la ms externa, denominada mtodo estrella, se busca
un conjunto de reglas que clasifiquen correctamente a todos los ejemplos. En la ms interna, por
cada ejemplo positivo, se busca una regla que describa a dicho ejemplo y no descrina a ninguno
negativo. Precisamente, en cmo se realiza esta segunda bsqueda es en lo que difieren,
fundamentalmente, los diferentes variantes de este algoritmo.
(3) Las variantes del algoritmo, descritas en pp. 149-153 del texto base, no sern objeto de examen.
Se recomienda slo una lectura atenta.
Finalmente, para el estudio del algoritmo FOIL, se recomienda focalizar en los siguientes aspectos:
(1) La salida del algoritmo es un conjunto de reglas y stas vienen expresadas en forma de reglas de
Horn. Por tanto, el alumno deber familiarizarse con este tipo de formato.
(2) El procedimiento clave en la dinmica del algoritmo es el denominado literal-mximaganancia. Se encarga de elegir el mejor literal para aadir al cuerpo de la clusula. De todos los
posibles literales que se pueden formar con los predicados del dominio, este procedimiento
selecciona uno en cada iteracin, de acuerdo a un criterio de mxima ganancia, parecido al que se
ver ms adelante para el algoritmo ID3. Es muy importante que el alumno entienda cada uno de las
variables y funciones que aparecen en la frmula de la ganancia, G(L), y que sea capaz de evaluar
cada una de ellas para, de esta forma, poder evaluar correctamente el valor de la ganancia y poder
as elegir el literal que determine una mayor ganancia.
(3) Igualmente es muy importante entender y saber aplicar las reglas que permiten generar los
distintos tipos de literales que se pueden formar (pp. 257-258).
Actividades recomendadas
Se recomienda la realizacin de las siguientes actividades:
(1) El alumno debera analizar con detenimiento los ejemplos ilustrativos del texto base, dedicado al
estudio del espacio de versiones, el algoritmo AQ y algoritmo FOIL. Seguidamente, debera
intentar abordar por su cuenta cada uno de ellos, es decir, sin ayuda de la solucin. De cara al
examen, la formulacin y resolucin de un caso prctico relacionado con estos algoritmos podra ser
muy similar a lo planteado en el texto base. Dado que, de forma progresiva, se ir incorporando
nuevo material al curso virtual, el alumno puede chequear si existen otros ejercicios resueltos
relacionados con este algoritmo.
(2) Finalmente, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
APRENDIZAJE AUTOMTICO
10
GUA DE ESTUDIO
11
APRENDIZAJE AUTOMTICO
forma progresiva, se ir incorporando nuevo material al curso virtual, el alumno puede chequear si
existen otros ejercicios resueltos relacionados con este algoritmo.
(2) Finalmente, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
Tema 5. Aprendizaje basado en Instancias
Este tema ser estudiado a partir de la seccin 6.3 del texto base y abarca los siguientes aspectos:
Algoritmo k-NN (Seccin 6.3)
Objetivos
El objetivo de este tema es presentar tcnicas que permiten realizar tareas de clasificacin a partir de un
conjunto de ejemplos de entrada, sin necesidad de crear un modelo como, por ejemplo, s hacen las tcnicas
que se han presentado hasta ahora. Concretamente, se estidiar el algoritmo ms representativo de este tipo
de tcnicas, el algoritmo de los k vecinos ms cercanos (k-nn, del ingls k-nearest neighbors)
Breve introduccin
De forma genrica, las tcnicas aqu presentadas reciben el nombre de tcnicas de aprendizaje basadas
en instancias (IBL, del ingls Instance Based Learning) o tcnicas de aprendizaje vago (del ingls, lazy
learning). Esta ltima denominacin hace referencia a que, precisamente, este tipo de tcnicas implican muy
poco esfuerzo computacional a la hora de aprender, reflejado en el hecho de que no generan modelos de
aprendizaje a partir de los ejemplos. Simplemente, se limitan a almacenar dichos ejemplos de tal forma que,
a la hora de clasificar un ejemplo no visto, el algoritmo utiliza como entrada todos los ejemplos almacenados.
Orientaciones para el estudio
Dado que el algoritmo k-nn, a la hora de clasificar un ejemplo no visto, utiliza todo el conjunto de ejemplos
como entrada y no dispone de modelo aprendido, el alumno debe incidir principalmente en el apartado
dedicado a la Utilizacin de lo aprendido. Es aqu donde reside la esencia de la operativa del algoritmo.
Actividades recomendadas
Se recomienda la realizacin de las siguientes actividades:
(1) El alumno debera analizar con detenimiento el ejemplo ilustrativo, dedicado al algoritmo k-nn,
presentado en la coleccin de problemas resueltos del curso virtual. Seguidamente, debera intentar
abordarlo por su cuenta, es decir, sin ayuda de la solucin. De cara al examen, la formulacin y
resolucin de un caso prctico relacionado con este algoritmo podra ser muy similar a la aqu
planteada. Dado que, de forma progresiva, se ir incorporando nuevo material al curso virtual, el
alumno puede chequear si existen otros ejercicios resueltos relacionados con este algoritmo.
(2) Tambin, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
12
GUA DE ESTUDIO
13
APRENDIZAJE AUTOMTICO
(2) Tambin, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
Tema 7. Redes de Neuronas Artificiales (RNA)
Este tema ser estudiado a partir de la seccin 9.1 del texto base y abarca los siguientes aspectos:
Aprendizaje de RNAs por retro-propagacin del error (Seccin 9.1)
Objetivos
El objetivo principal de este tema es introducir las denominadas redes neuronales artificiales, un nuevo
paradigma de aprendizaje supervisado inspirado en la forma en que funciona el sistema nervioso de los
animales. Bsicamente, una red neuronal consiste en una red de elementos de proceso interconectados,
denominadas neuronas, que permiten aprender la informacin subyacente en un conjunto de ejemplos de
entrenamiento. Dicha informacin es almacenada de forma implcita en la topologa de la red y en los pesos
asociados a cada conexin. Aunque existen diferentes tipos de redes neuronales, aqu nos centraremos en
el perceptrn multicapa y su algoritmo de aprendizaje estrella, denominado mtodo de retropropagacin
del error o en ingls backpropagation.
Breve introduccin
Los primeros modelos de redes neuronales datan de 1943 por los neurlogos McCulloch y Pitts. Aos ms
tarde, en 1949, Donald Hebb desarroll sus ideas sobre el aprendizaje neuronal, quedando reflejado en la
"regla de Hebb". En 1958, Rosemblatt desarroll el perceptrn simple, y en 1960, Widrow y Hoff
desarrollaron el ADALINE. En los aos siguientes, se redujo la investigacin, debido a la falta de modelos de
aprendizaje y el estudio de Minsky y Papert sobre las limitaciones del perceptrn. Sin embargo, en los aos
80, volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en especial, al algoritmo de
aprendizaje de retropropagacin ideado por Rumelhart y McLellan en 1986 que fue aplicado en el desarrollo
de los perceptrones multicapa.
Las caractersticas de las RNA las hacen bastante apropiadas para aplicaciones en las que no se dispone a
priori de un modelo identificable que pueda ser programado, pero se dispone de un conjunto bsico de
ejemplos de entrada. Asimismo, son altamente robustas tanto al ruido como a la disfuncin de elementos
concretos y son fcilmente paralelizables. Por el contrario, los modelos generados (la propia red) son
difcilmente interpretables.
Orientaciones para el estudio
Para el estudio de este tema, se recomienda focalizar en los siguientes aspectos:
(1) En primer lugar, el alumno debe ser consciente que el mtodo de aprendizaje de
retropropagacin del error no es aplicable a cualquier topologa de RNA sino que slo es
aplicable a un determinado tipo de redes (perceptrn multicapa) que se estudian en este tema. As,
existir siempre una capa de entrada, otra de salida y una o ms capas ocultas. Adems, las salidas
de la neurona de una determinada capa, slo pueden conectarse a las entradas de neuronas
situadas en una capa inmediatamente posterior, es decir, no se permitirn conexiones entre
neuronas de una misma capa, ni entre neuronas de una capa y las de una capa anterior, ni entre
neuronas de capas no consecutivas.
14
GUA DE ESTUDIO
(2) Para entender, tanto el mecanismo de propagacin de la informacin de entrada hasta la salida
como el mecanismo de aprendizaje de retropropagacin, es muy importante que el alumno
comprenda y se familiarice con la notacin empleada.
(3) Es importante resear que una red neuronal es un excelente aproximador de funciones no
lineales. En el caso que se sospeche que la funcin a aproximar sea lineal, existen un gran nmero
de mtodos estadsticos que permiten resolver este tipo de problemas, como los denominados
mtodos de regresin lineal, y que, por tanto, no requeriran explcitamente el uso de una RNA.
(4) Para facilitar la deduccin de las frmulas que permiten el clculo de la actualizacin del error,
jk, el alumno tiene que partir de la idea de que lo que se quiere minimizar es el error dado por la
ecuacin (9.6) del texto base. Bastar entonces derivar dicha expresin y el resultado igualarlo a
cero. Este proceso se complica un poco debido a que la salida de cada neurona no es simplemente
la suma ponderada de cada una de sus entradas, sino que esta suma ponderada se aplica,
finalmente, a una funcin no lineal, denominada funcin de activacin, constituyendo este valor la
salida de la neurona. Sin embargo, eligiendo convenientemente esta funcin, se puede an
simplificar el clculo de la derivada. Por ltimo, hay que tener en cuenta tambin que el clculo de
dicha derivada se simplifica para las clulas que estn en la capa de salida porque el error obtenido
por dichas neuronas es calculable directamente al ser conocido el valor deseado de salida. Sin
embargo, para las neuronas de las capas ocultas, no se dispone del valor deseado, es decir, el error
ha de ser calculado mediante la propagacin hacia atrs de de los valores de los incrementos en
cada neurona de cada capa.
Actividades recomendadas
Se recomienda la realizacin de las siguientes actividades:
(1) El alumno debera analizar con detenimiento el ejemplo ilustrativo del texto base. Dado que, de
forma progresiva, se ir incorporando nuevo material al curso virtual, el alumno puede chequear si
existen otros ejercicios resueltos relacionados con este algoritmo.
(2) Se propone al alumno que resuelva el mismo problema del ejemplo ilustrativo del texto base
utilizando la herramienta Weka (ver Seccin 3 de esta gua).
(3) Tambin, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
Tema 8. Mquinas de Vectores Soporte
Este tema ser estudiado a partir de un tutorial disponible en el curso virtual y abarca los siguientes
aspectos:
Mquinas de Vectores Soporte: Clasificacin binaria y regresin (Tutorial descargable desde el curso
virtual)
Objetivos
Este tema presentar una nueva tcnica de aprendizaje supervisado, denominada mquinas de vectores
soporte (SVM, del ingls Support Vector Machines). Sin embargo, tiene slo carcter introductorio y, por
tanto, slo constituye una primera aproximacin a este paradigma de aprendizaje.
15
APRENDIZAJE AUTOMTICO
Breve introduccin
Las mquinas de vectores soporte fueron introducidas por Vapnik a mediados de los 90. Los mtodos
basados en este paradigma permiten resolver tanto tareas de clasificacin como de regresin. Dentro de la
tarea de clasificacin, las SVMs pertenecen a la categora de los clasificadores lineales, puesto que
inducen separadores lineales o hiperplanos, ya sea en el espacio original de los ejemplos de entrada, si
stos son separables o cuasi-separables (ruido), o en un espacio transformado (espacio de
caractersticas), si los ejemplos no son separables linealmente en el espacio original. La bsqueda del
hiperplano de separacin en estos espacios transformados se har de forma implcita utilizando las
denominadas funciones kernel.
Orientaciones para el estudio
Para el estudio de este tema, se recomienda focalizar en los siguientes aspectos:
(1) En primer lugar, hay que sealar que, aunque las SVMs se disearon inicialmente para resolver
problemas de clasificacin binaria, en la actualidad se han extendido a tareas de multiclasificacin,
regresin, agrupamiento e, incluso, se empiezan aplicar a problemas que requieren de salidas ms
complejas y estructuradas, como puede ser un grafo o un rbol. No obstante, en el estudio de este
tema nos centraremos en la aplicacin de las SVM a problemas de clasificacin binaria y de
regresin.
(2) Mientras todos los mtodos de aprendizaje vistos hasta ahora se centran en minimizar los errores
cometidos por el modelo generado a partir de los ejemplos de entrenamiento (error emprico), el
sesgo inductivo asociado a las SVMs radica en la minimizacin del denominado riesgo estructural.
La idea es seleccionar un hiperplano de separacin que equidista de los ejemplos ms cercanos de
cada clase para, de esta forma, conseguir lo que se denomina un margen mximo a cada lado del
hiperplano. Adems, a la hora de definir el hiperplano, slo se consideran los ejemplos de
entrenamiento de cada clase que caen justo en la frontera de dichos mrgenes. Estos ejemplos
reciben el nombre de vectores soporte.
(3) Las denominadas funciones kernel juegan un papel importante en la operativa de las SVM y, por
tanto, el alumno deber poner un especial inters en el estudio de este tipo de funciones.
(4) Desde un punto de vista algortmico, el problema de optimizacin del margen geomtrico
representa un problema de optimizacin cuadrtico con restricciones lineales que puede ser
resuelto mediante tcnicas estndar de programacin cuadrtica. Dado que el estudio de este tipo
de tcnicas queda fuera del alcance de este temario, el principal objetivo de este tema radica en que
el alumno estudie y comprenda cmo se formaliza el problema abordado por las SVMs (ya sea de
clasificacin o de regresin) hasta llegar a transformarlo, finalmente, en un problema de optimizacin
cuadrtico.
Actividades recomendadas
Existe un nmero importante de repositorios web y paquetes software de libre distribucin dedicados a la
implementacin de SVMs y muchas de sus variantes. As, por ejemplo, la librera LIBSVM es un paquete
software pensado para resolver problemas de clasificacin y regresin mediante mquinas de vectores
soporte. En su pgina web (http://www.csie.ntu.edu.tw/~cjlin/libsvm/) dispone de un applet para implementar
sencillos problemas de clasificacin y de regresin en dos dimensiones. Se recomienda al alumno el uso de
este applet como primera toma de contacto en el uso de las SVM.
16
GUA DE ESTUDIO
17
APRENDIZAJE AUTOMTICO
Para el estudio del algoritmo k-medias, se recomienda focalizar en los siguientes aspectos:
(1) Es importante sealar que este algoritmo es dependiente de los centroides iniciales, normalmente
elegidos de forma aleatoria. Una mala eleccin de dichos centroides puede provocar la no
convergencia del algoritmo.
(2) Tambin es dependiente de los rangos de variacin de los dominios de definicin de cada uno de los
atributos de los ejemplos. Por ello, antes de usar el algoritmo, se requiere una fase de preprocesamiento para normalizar todos los atributos.
(3) Finalmente, puede ocurrir que, aunque se desconozca el valor de clase de cada ejemplo, se
conozca el nmero de clases que representa al conjunto de ejemplos. Sin embargo, en la
mayora de las ocasiones esta informacin no es conocida. Dado que el nmero de clases es un
parmetro de entrada al algoritmo, en aquellos casos en los que esta informacin sea desconocida,
supondr un conjunto de pruebas de ensayo y error para determinar el mejor valor.
Actividades recomendadas
Se recomienda la realizacin de las siguientes actividades:
(1) El alumno debera analizar con detenimiento los ejemplos ilustrativos del texto base, dedicados a la
Estrategia Aglomerativa y al algoritmo k-medias. Seguidamente, debera intentar abordarlos por
su cuenta, es decir, sin ayuda de la solucin. De cara al examen, la formulacin y resolucin de un
caso prctico relacionado con estos algoritmos podra ser muy similar a los planteados en el texto
base. Dado que, de forma progresiva, se ir incorporando nuevo material al curso virtual, el alumno
puede chequear si existen otros ejercicios resueltos relacionados con este algoritmo.
(2) Tambin, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
Tema 10. Mapas Auto-organizados
Este tema ser estudiado a partir de la seccin 9.2 del texto base y abarca los siguientes aspectos:
Redes Neuronales auto-organizadas (Seccin 9.2)
Objetivos
En la Parte II, se presentaron las redes neuronales artificiales (RNAs) como uno de los paradigmas del
aprendizaje supervisado. Sin embargo, el principal objetivo de este tema es mostrar que existen
determinados tipo de RNAs que pueden utilizarse para realizar aprendizaje no supervisado. Son las
denominadas redes neuronales auto-organizadas.
Breve introduccin
Tal vez los modelos ms caractersticos de redes no supervisadas sean los de Kohonen, llamadas as en
honor al cientfico finlands que las cre, siendo tambin los ms utilizados en casos prcticos. El objetivo de
una RNA auto-organizada es descubrir por s sola caractersticas, regularidades, correlaciones, o categoras
en los ejemplos de entrada, y mostrarlas de forma codificada en la salida. Es por esto que se dice que la red
muestra cierto grado de auto-organizacin, y reciben este nombre.
UNIVERSIDAD NACIONAL DE EDUCACIN A DISTANCIA
18
GUA DE ESTUDIO
19
APRENDIZAJE AUTOMTICO
20
GUA DE ESTUDIO
(2) Tambin, el alumno interesado podra ampliar conocimientos, consultando algunas de las
referencias bibliogrficas que aparecen en el texto base y que estn relacionadas con los contenidos
de este tema.
3.- ORIENTACIONES
ACTIVIDADES
PARA
LA
REALIZACIN
DEL
PLAN
DE
En esta seccin de la Gua se describen los diferentes tipos de actividades propuestas en esta asignatura.
Bsicamente, se puede hablar de dos tipos de actividades: actividades recomendadas y actividades
evaluables.
3.1 Actividades recomendadas
A lo largo de la seccin 2, y para cada uno de los temas que componen el temario de la asignatura, se ha
propuesto al alumno una serie de actividades, orientadas bsicamente a trabajar los aspectos prcticos
relacionados con cada tema. La caracterstica comn de todas estas actividades es que no son obligatorias
ni evaluables, es decir, se deja su realizacin a criterio del alumno. De esta forma, el alumno podr trabajar
aquellos aspectos que considere ms oportunos en funcin del tiempo disponible y de las dificultades que
haya podido tener en el estudio de cada tema.
3.2 Actividades evaluables (PECs)
En esta seccin se proponen dos actividades evaluables y que corresponden a lo que, normalmente, se
denominan pruebas de evaluacin continua (PEC). La particularidad de estas actividades es que no son
obligatorias pero s son evaluables, y su calificacin repercute en la nota final de la asignatura. As, la
calificacin de estas dos actividades representar un 10% de la nota final de la asignatura. La calificacin del
examen representar el 90% restante. Esto significa que aquel alumno que decida no realizarlas, seguir
teniendo la opcin de presentarse al examen y, por tanto, de poder aprobar la asignatura. No obstante, la
calificacin de la nota final de la asignatura de un alumno que no hay realizado las PECs vendr dada slo y
exclusivamente por la nota de examen y, por consiguiente, nunca podr ser superior a 9.
La realizacin de las prcticas no implica la asistencia del alumno al Centro Asociado, su entrega se har a
travs del curso virtual y sern corregidas por los profesores tutores. Por tanto, todo el proceso podr ser
realizado desde casa, necesitando tan slo para ello de un ordenador y del software Weka (Waikato
Environment for Knowledge Analysis), descargable desde el siguiente link:
http://www.cs.waikato.ac.nz/ml/weka/
Weka es una plataforma de software que implementa una gran cantidad de algoritmos de aprendizaje
automtico y de minera de datos, est codificada en Java y ha sido desarrollada en la Universidad de
Waikato (Nueva Zelanda). Weka es un software libre distribuido bajo licencia GNU-GPL. En el citado link,
adems de poder descargar este software, el alumno tendr acceso a otros recursos, tales como
documentacin, FAQs y conjuntos de ejemplo de entrenamiento, entre otras cosas. El alumno tambin
dispondr en el curso virtual de la asignatura de un tutorial de Weka (escrito en castellano).
Las dos actividades propuestas correspondern a alguno de los contenidos de los dos partes ms extensas
de la asignatura, Parte II y III, y cada una de ellas consistir en el diseo de distintos experimentos de
aprendizaje. As, la primera actividad estar relacionada con tcnicas de aprendizaje supervisado y la
21
APRENDIZAJE AUTOMTICO
segunda con tcnicas de aprendizaje no supervisado. Los guiones que describen los objetivos de cada
prctica, el (los) problema-s a resolver, as como las orientaciones para su realizacin se podrn descargar
desde el curso virtual de la asignatura. No obstante, a continuacin se mostrar informacin de carcter
general de cada una de ellas.
22
GUA DE ESTUDIO
4.- GLOSARIO
A continuacin se ofrece una serie de enlaces que el alumno puede consultar como glosario de trminos
relacionado con los contenidos de la asignatura:
- The Machine Learning Dictionary:
http://www.cse.unsw.edu.au/~billw/mldict.html.
- Special Issue on Applications of Machine Learning and the Knowledge Discovery Process:
http://robotics.stanford.edu/~ronnyk/glossary.html.
23