Вы находитесь на странице: 1из 37

SEP

DGIT

PROYECTO:

NOMBRE DE LA MATERIA: NOMBRE DEL DOCENTE: INTEGRANTES DEL EQUIPO:

SEMESTRE Y GRUPO: CARRERA:

FECHA DE ENTREGA:

Instituto Tecnolgico de Tuxtepec


INDICE Justificacin ............................................................................ 1 1. Fundamentos ...................................................................... 2
1.1 Introduccin a las redes neuronales artificiales. 1.2. Redes neuronales artificiales. 1.3. Estructura de una red neuronal artificial. 2.5. Algoritmo Back Propagation. 2. Modelos de redes neuronales (modelo Kohonen) ................... ......... 13 2.1. Origenes. 2.2. Modelo Kohonen. 2.3. Modelo Perceptrn. 2.4. Modelo Adaline/Madaline. 3. La bibliometra ....................................................................................... 23 3.1. Definicin. 3.2. Los mapas auto-organizados. 4. Viscovery SOMine ....................................................................... ......... 26 4.1. Origen. 4.2. Funciomaniento. 4.3. Aplicaciones. 5. Conclusin. ............................................................................................ 32 6. Referencias.... 33

Instituto Tecnolgico de Tuxtepec


INDICE DE IMAGENES
Fig. 1 Esquema de una neurona. ................................................................. 6 Fig. 2 Esquema de una RNA de dos capas de neuronas intermedias. ........ 7 Fig. 3. Esquema de una RNA del tipo alimentacin directa (feed forward). 8 Fig.4 Partes de una neurona ........................................................................ 14 Fig. 5 Neurona artificial ................................................................................ 17 Fig. 6. Funcionamiento del Viscovery SOMine............................................. 27 Fig. 7. Posicin tecnolgica de las instituciones segn las citaciones. ........ 29 Fig. 8. Mapa de Amrica Latina y el Caribe ................................................. 31

Instituto Tecnolgico de Tuxtepec


JUSTIFICACION
Las redes neuronales artificiales (RNA) son aplicadas en diversos mbitos de la actividad humana. Una de sus aplicaciones es como herramienta de anlisis de informacin, especficamente dentro de la Bibliometra. En este trabajo se hace una introduccin sobre las particularidades de las RNA, especficamente las basadas en el modelo Kohonen (Mapas auto-organizativos). Se exponen los elementos que la integran y se vincula su principio de funcionamiento con la Bibliometra. Se utiliza y caracteriza un software llamado ViscoverySOMine que retoma, para su funcionamiento, el concepto y los algoritmos de los mapas autoorganizativos. Se ejemplifica la utilidad de las RNA, dentro de la Bibliometra, a travs de casos prcticos.

Instituto Tecnolgico de Tuxtepec


1. FUNDAMENTOS.
1.1 INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES Las tcnicas computacionales, desde sus inicios, marcaron un paradigma en la creacin. Sus aplicaciones, hoy da, van desde la industria de los juegos hasta las cadenas de produccin de varias empresas. Para ello se han desarrollado mltiples tcnicas como las relacionadas con la inteligencia artificial. Las ms conocidas son la lgica difusa (aprendizaje inductivo), algoritmos genticos y redes neuronales. En la dcada de los 50, existan grandes aspiraciones respecto a las investigaciones relacionadas con la inteligencia artificial, sobre todo con aquellas que tenan como objeto principal las redes neuronales artificiales (RNA). Los trabajos Principles of neurodynamic y The perceptron: A probabilistic model for information storage and organization in the brain, desarrollados por Rosenblatt 1, abren nuevas perspectivas sobre la temtica. Sin embargo, las teoras desarrolladas durante este perodo son arruinadas por Minsky y Papert 2, pues ambos publican una obra titulada Perceptrons esta lnea (Kornilov, 1997). Unos veinte aos despus, en la dcada de los 70, resurgen estas teoras y se despierta el inters en sus aplicaciones. Actualmente las redes neuronales se emplean en diferentes campos, estos se agrupan segn varios criterios. Uno de ellos es el propuesto por Deboeck (Deboech, 1996), quien los agrupa en: -Modelacin financiera y econmica. Perfiles de mercado y clientes. Aplicaciones mdicas. donde se hace una crtica al modelo neural y se trata de plasmar lo estriles que eran las investigaciones en

Instituto Tecnolgico de Tuxtepec


Gerencia del conocimiento y descubrimiento de datos. -Optimizacin de procesos industriales y control de calidad. Investigacin cientfica. El objetivo del presente trabajo es utilizar la base terica de las redes neuronales artificiales como una herramienta prctica que permita realizar anlisis exploratorios de datos o minera de datos vinculados con los indicadores bibliomtricos. Para el logro de este objetivo se utiliza y caracteriza un software llamado Viscovery SOMine (Eudatic Software Gmbh) que retoma, para su funcionamiento, el concepto y los algoritmos de los mapas auto-organizativos.

Instituto Tecnolgico de Tuxtepec


1.2. REDES NEURONALES ARTIFICIALES Una red neuronal, segn Freman y Skapura (J.A, 1993), es un sistema de procesadores paralelos conectados entre s en forma de grafo dirigido. Esquemticamente cada elemento de procesamiento (neuronas) de la red se representa como un nodo. Estas conexiones establecen una estructura jerrquica que tratando de emular la fisiologa del cerebro busca nuevos modelos de procesamiento para solucionar problemas concretos del mundo real. Lo importante en el desarrollo de la tcnica de las RNA es su til comportamiento al aprender, reconocer y aplicar relaciones entre objetos y tramas de objetos propios del mundo real. En este sentido, se utilizan las RNA como una herramienta que podr utilizarse para resolver problemas difciles. La posibilidad de resolver problemas difciles es dable gracias a los principios de las redes neuronales, los cinco ms importantes son citados por Hilera y Martnez (Hilera Gonzalez & Martinez Henandez, 1995). Estos son enunciados a continuacin: -Aprendizaje adaptativo: Esta es quizs la caracterstica ms importante de las redes neuronales, pueden comportarse en funcin de un entrenamiento con una serie de ejemplos ilustrativos. De esta forma, no es necesario elaborar un modelo a priori, ni establecer funciones probabilsticas. Una red neuronal artificial es adaptativa porque puede modificarse constantemente con el fin de adaptarse a nuevas condiciones de trabajo. -Autoorganizacin: Mientras que el aprendizaje es un proceso donde se modifica la informacin interna de la red neuronal artificial, la autoorganizacin consiste en la modificacin de la red completa con el fin de llevar a cabo un objetivo especfico. Autoorganizacin significa generalizacin, de esta forma una red puede responder a datos o situaciones que no ha experimentado antes, pero que puede inferir sobre la base de su entrenamiento. Esta caracterstica es muy til sobre todo cuando la informacin de entrada es poco clara o se encuentra incompleta.

Instituto Tecnolgico de Tuxtepec


-Tolerancia a fallos: En la computacin tradicional la prdida de un fragmento pequeo de informacin puede acarrear comnmente la inutilizacin del sistema. Las redes neuronales artificiales poseen una alta capacidad de tolerancia a fallos. Se entiende por ello que las redes pueden reconocer patrones de informacin con ruido, distorsin o incompletos, pero que, adems, pueden seguir trabajando aunque se destruya parte de la red (con cierta degradacin). La explicacin de este fenmeno se encuentra en que mientras la computacin tradicional almacena la informacin en espacios nicos, localizados y direccionales, las redes neuronales lo hacen de forma distribuida y con un alto grado de redundancia. -Operacin en tiempo real: Las redes neuronales artificiales, de todos los mtodos existentes, son las ms indicadas para el reconocimiento de patrones en tiempo real, debido a que trabajan en paralelo actualizando todas sus instancias simultneamente. Es importante destacar que esta caracterstica solo se aprecia cuando se implementan redes con hardware especialmente diseados para el procesamiento paralelo. -Fcil insercin en la tecnologa existente: Es relativamente sencillo obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilita la integracin modular en los sistemas existentes. Al profundizar en los principios de las RNA y observar continuamente el trmino neurona no es de extraar que se piense por analoga en el cerebro humano, este hecho quizs se deba a que las RNA estn basadas en la inspiracin biolgica. El hombre posee cerca de 10 000 000 000 de neuronas masivamente interconectadas, la neurona es una clula especializada que puede propagar una seal electroqumica. Las neuronas tienen una estructura ramificada de entrada (las dendritas) y una estructura ramificada de salida (los axones). Los axones de una clula se conectan con las dendritas de otra, por va de la sinapsis la neurona se activa y excita una seal electroqumica a lo largo del axn. Esta seal transfiere la sinapsis a otras neuronas, las que a su vez pueden excitase. Las neuronas se excitan slo s la seal total recibida en el cuerpo de las clulas, por conducto de las dendritas, es superior a cierto nivel (umbral de excitacin) (T., 1997).

Instituto Tecnolgico de Tuxtepec


Las redes neuronales artificiales tratan de imitar este principio de funcionamiento cerebral. 1.3 ESTRUTURA DE UNA RED NEURONAL ARTIFICIAL Las redes neuronales artificiales estn formadas por una gran cantidad de neuronas, estas no suelen denominarse neuronas artificiales sino nodos o unidades de salida. Un nodo o neurona cuenta con una cantidad variable de entradas que provienen del exterior (X1, X2,......, Xm). A su vez dispone de una sola salida (Xj) que transmitir la informacin al exterior o hacia otras neuronas. Cada Xj o seal de salida tiene asociada una magnitud llamada peso este se calcular en funcin de las entradas, por lo cual cada una de ellas es afectada por un determinado peso (Wjo...Wjq+m) (Sotolongo, Suarez, & Guzman). Los pesos corresponden a la intensidad de los enlaces sinpticos entre neuronas y varan libremente en funcin del tiempo y en cada una de las neuronas que forman parte de la red. (Fig. 1).

Fig. 1 Esquema de una neurona. El proceso de aprendizaje consiste en hallar los pesos que codifican los conocimientos. Una regla de aprendizaje hace variar el valor de los pesos de una

Instituto Tecnolgico de Tuxtepec


red hasta que estos adoptan un valor constante, cuando esto ocurre se dice que la red ya "ha aprendido" (Neural Networks). Al conectar varias neuronas de un determinado modo, se consigue una red. Existen variaciones de topologas, que se clasifican segn tres criterios: 1) Nmero de niveles o capas. 2) Nmero de neuronas por nivel. 3) Formas de conexin. El diseo de una u otra tipologa depende del problema a solucionar por ejemplo para elaborar un programa de filtro digital en una computadora, se debe emplear un algoritmo en que todas las capas estn uniformemente interconectadas, o sea que todos lo nodos de una capa estn conectados con los nodos de otra capa. En la Figura 2 se muestra la arquitectura de una RNA clsica con variables de entrada, dos capas de neuronas intermedias y una capa de salida. Todas ellas conectadas entre s.

Fig. 2 Esquema de una RNA de dos capas de neuronas intermedias. Otro algoritmo de RNA es el que aparece en la Figura 3, en este ejemplo las neuronas se organizan en una tipologa de capas diferentes. Solo incluye una capa neuronal oculta, este algoritmo es muy elemental y es muy utilizado a nivel acadmico para la construccin y prueba de diferentes tipos de modelos de red.

Instituto Tecnolgico de Tuxtepec

Fig. 3. Esquema de una RNA del tipo alimentacin directa (feed forward). Topologa con una capa de neuronas intermedias Existen cuatro aspectos que caracterizan una red neuronal: su topologa, el mecanismo de aprendizaje, tipo de asociacin realizada entre la informacin de entrada y salida, y la forma de representacin de estas informaciones. Redes Mono capa: Se establecen conexiones laterales, cruzadas o auto recurrentes entre las neuronas que pertenecen a la nica capa que constituye la red. Se utilizan en tareas relacionadas con lo que se conoce como auto asociacin; por ejemplo, para generar informaciones de entrada que se presentan a las redes incompletas o distorsionadas. Redes Multicapa: Son aquellas que disponen de conjuntos de neuronas agrupadas en varios niveles o capas. Una forma de distinguir la capa a la que pertenece la neurona, consiste en fijarse en el origen de las seales que recibe a la entrada y el destino de la seal de salida. Segn el tipo de conexin, como se vio previamente, se distinguen las redes feed forward, y las redes feed forward/feed back. Topologa de las Redes Neuronales. La arquitectura de las redes neuronales consiste en la organizacin y disposicin de las neuronas formando capas ms o

Instituto Tecnolgico de Tuxtepec


menos alejadas de la entrada y salida de la red. En este sentido, los parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas por capa, el grado de conectividad y el tipo de conexiones entre neuronas. Mecanismo de Aprendizaje. El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacin de entrada. Los cambios que se producen durante el proceso de aprendizaje se reducen a la destruccin, modificacin y creacin de conexiones entre las neuronas, la creacin de una nueva conexin implica que el peso de la misma pasa a tener un valor distinto de cero, una conexin se destruye cuando su peso pasa a ser cero. Se puede afirmar que el proceso de aprendizaje ha finalizado (la red ha aprendido) cuando los valores de los pesos permanecen estables (dwij / dt = 0). Un criterio para diferenciar las reglas de aprendizaje se basa en considerar si la red puede aprender durante su funcionamiento habitual, o si el aprendizaje supone la desconexin de la red. Otro criterio suele considerar dos tipos de reglas de aprendizaje: las de aprendizaje supervisado y las correspondientes a un aprendizaje no supervisado, estas reglas dan pie a una de las clasificaciones que se realizan de las RNA: Redes neuronales con aprendizaje supervisado y redes neuronales con aprendizaje no supervisado. La diferencia fundamental entre ambos tipos estriba en la existencia o no de un agente externo (supervisor) que controle el aprendizaje de la red. Redes con Aprendizaje Supervisado. El proceso de aprendizaje se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro) que determina la respuesta que debera generar la red a partir de una entrada determinada. El supervisor comprueba la salida de la red y en el caso de que sta no coincida con la deseada, se proceder a modificar los pesos de las conexiones, con el fin de conseguir que la salida se aproxime a la deseada. Se consideran tres formas de llevar a cabo este tipo de aprendizaje:

Instituto Tecnolgico de Tuxtepec


Aprendizaje por correccin de error: Consiste en ajustar los pesos en funcin de la diferencia entre los valores deseados y los obtenidos en la salida de la red; es decir, en funcin del error. Aprendizaje por refuerzo: Se basa en la idea de no indicar durante el entrenamiento exactamente la salida que se desea que proporcione la red ante una determinada entrada. La funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida obtenida en la red se ajusta a la deseada (xito=+1 o fracaso=-1), y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades. Aprendizaje estocstico: Este tipo de aprendizaje consiste bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad. Redes con Aprendizaje No Supervisado. Estas redes no requieren influencia externa para ajustar los pesos de las conexiones entre neuronas. La red no recibe ninguna informacin por parte del entorno que le indique si la salida generada es o no correcta, as que existen varias posibilidades en cuanto a la interpretacin de la salida de estas redes. En algunos casos, la salida representa el grado de familiaridad o similitud entre la informacin que se le est presentando en la entrada y las informaciones que se le han mostrado en el pasado. En otro caso podra realizar una codificacin de los datos de entrada, generando a la salida una versin codificada de la entrada, con menos bits, pero manteniendo la informacin relevante de los datos, o algunas redes con aprendizaje no supervisado lo que realizan es un mapeo de caractersticas, obtenindose en las neuronas de salida una disposicin geomtrica que representa un topogrfico de las caractersticas de los datos de entrada, de tal forma que si se presentan a la red informaciones similares, siempre sean afectadas neuronas de salidas prximas entre s, en la misma zona del mapa.. En general en este tipo de aprendizaje se suelen considerar dos tipos:

10

Instituto Tecnolgico de Tuxtepec


Aprendizaje Hebbiano: Consiste bsicamente en el ajuste de los pesos de las conexiones de acuerdo con la correlacin, as si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin. Por el contrario cuando un es activa y la otra pasiva (negativa), se produce un debilitamiento de la conexin. Aprendizaje competitivo y cooperativo: Las neuronas compiten (y cooperan) unas con otras con el fin de llevar a cabo una tarea dada. Con este tipo de aprendizaje se pretende que cuando se presente a la red cierta informacin de entrada, solo una de las neuronas de salida se active (alcance su valor de respuesta mximo). Por tanto las neuronas compiten por activarse, quedando finalmente una, o una por grupo, como neurona vencedora. Estos dos mecanismos dan lugar a dos tipos de redes neuronales: las redes hetero asociativas y las auto asociativas. Una red hetero asociativa podra considerarse aquella que computa cierta funcin, que en la mayora de los casos no podr expresarse analticamente, entre un conjunto de entradas y un conjunto de salidas, correspondiendo a cada posible entrada una determinada salida. Existen redes hetero asociativas con conexiones feed forward, feed forward/feed back y redes con conexiones laterales. Tambin existen redes hetero asociativas multidimensionales y su aprendizaje puede ser supervisado o no supervisado. Por otra parte, una red auto asociativa es una red cuya principal misin es reconstruir una determinada informacin de entrada que se presenta incompleta o distorsionada (le asocia el dato almacenado ms parecido). Pueden implementarse con una sola capa, existen conexiones laterales o tambin auto recurrentes, habitualmente son de aprendizaje no supervisado. Tipo de Asociacin entre las Informaciones de Entrada y Salida. Las RNA son sistemas que almacenan cierta informacin aprendida; est informacin se registra de forma distribuida en los pesos asociados a las conexiones entre neuronas de entrada y salida. Existen dos formas primarias de realizar esa asociacin de entrada/salida. Una primera sera la denominada hetero asociacin, que se refiere

11

Instituto Tecnolgico de Tuxtepec


al caso en el que la red aprende parejas de datos [(A 1, B1), (A2, B2) (An, Bn)], de tal forma que cuando se presente cierta informacin de entrada A i, deber responder generndola correspondiente salida Bi. La segunda se conoce como auto asociacin, donde la red aprende ciertas informaciones A 1, A2An, de tal forma que cuando se le presenta una informacin de entrada realizar una auto correlacin, respondiendo con uno de los datos almacenados, el ms parecido al de la entrada. Representacin de la Infamacin de Entrada y Salida Las redes neuronales pueden tambin clasificarse en funcin de la forma en que se representan las informaciones de entrada y las respuestas o datos de salida. As un gran nmero de redes, tanto los datos de entrada como de salida son de naturaleza analgica, cuando esto ocurre, las funciones de activacin de las neuronas sern tambin continuas, del tipo lineal o sigmoidal. Otras redes slo admiten valores discretos o binarios a su entrada, generando tambin unas respuestas en la salida de tipo binario. En este caso, las funciones de activacin de las neuronas son de tipo escaln. Existe tambin un tipo de redes hbridas en las que las informaciones de entrada pueden ser valores continuos, aunque las salidas de la red son discretas. Existe una gran variedad de modelos de redes neuronales estos dependen del objetivo para el cual fueron diseados y del problema prctico que solucionan. Hoy en da, su xito depende en, gran medida, del valor comercial que logren alcanzar sus aplicaciones. En dependencia de ello unos sern ms populares que otros, entre los ms conocidos estn el Adaline/Madaline (utilizado en el diseo y realizacin de filtros, para llevar a cabo la eliminacin del ruido en seales portadoras de informacin, modems, etc.), el back propagation (utilizado en el proyecto de la mquina de escribir neural fontica) y el modelo de los mapas autoorganizados (Self-Organizing Map, SOM). Este ltimo es conocido como modelo de Kohonen por ser este su creador, un anlisis ms detallado de este modelo aparece en el tema siguiente.

12

Instituto Tecnolgico de Tuxtepec


2. MODELOS DE REDES NEURONALES ARTIFICIALES.
2.1 ORGENES
Conseguir, disear y construir mquinas capaces de realizar procesos con cierta inteligencia ha sido uno de los principales objetivos y preocupaciones de los cientficos a lo largo de la historia. Sin embargo a pesar de disponer de herramientas y de lenguajes de programacin diseados para el desarrollo de mquinas inteligentes, existe un problema de fondo que limita los resultados: estas mquinas se implementan sobre ordenadores basados en la filosofa de Von Neumann, y se apoyan en una descripcin secuencial del proceso de tratamiento de la informacin. Las primeras explicaciones tericas sobre el cerebro y el pensamiento fueron dadas por algunos filsofos griegos, como Platn y Aristteles, quienes fueron apoyados despus por Descartes y filsofos empiristas. Alan Turing, en 1936, fue el primero en estudiar el cerebro como una forma de ver el mundo de la computacin, pero quienes primero concibieron algunos fundamentos de la computacin neuronal fueron Warren McCulloch y Walter Pitts, despus otras teoras iniciales fueron expuestas por Donald Hebb. Pero solo hasta 1957 Frank Rosenblatt comenz el desarrollo del Perceptrn, la red neuronal ms antigua de la que me encargar posteriormente. Ms adelante apareci el modelo ADALINE, desarrollado por Bernard Widrow y Marcial Hoff. Stephen Grossberg realiz Avalancha en 1967, hasta 1982 el crecimiento se fren pero surgieron luego investigaciones sobre redes como la de Marvin Minsky y Seymour Papert, despus James Anderson desarrollo el Asociador Lineal, en Japn Kunihiko Fukushimika y Teuvo Kohonen que se centraron en redes

13

Instituto Tecnolgico de Tuxtepec


neuronales para el reconocimiento de patrones; en USA John Hopfield tambin realiz importantes investigaciones.

Fig.4 Partes de una neurona Desde 1985 comenzaron a consolidarse los congresos ms importantes como Neuronal Networks for Computing, la Neural Information Processing Systems , entre algunas otras. Actualmente, son numerosos los trabajos que se realizan y publican. Revistas como Neural Networks, Transactions on Neural Networks, entre otros, son las encargadas de la publicacin de los ltimos avances. El Departamento de Defensa de los Estados Unidos, la Sociedad Europea de Redes Neuronales son algunos de los ejemplos del resurgir de la investigacin sobre redes neuronales.

14

Instituto Tecnolgico de Tuxtepec


2.2. MODELO KOHONEN
T. Kohonen present en 1982 un sistema con un comportamiento semejante al del cerebro. Se trataba de un modelo de red neuronal con capacidad para formar mapas de caractersticas de manera similar a como ocurre en el cerebro. En ste hay neuronas que se organizan en muchas zonas, de forma que las informaciones captadas del entorno a travs de los rganos sensoriales se representan internamente en forma de mapas bidimensionales. Este modelo tiene dos variantes, denominadas LVQ (Learning Vector

Quantization) y TPM (Topology-Preserving Map). Ambas forman mapas topolgicos para establecer caractersticas comunes entre las informaciones de entrada. Este modelo surge ante la curiosidad de Teuvo Kohonen, quien interesado en comprender la clasificacin natural que hace el cerebro en cuanto a su funcionalidad, ide el algoritmo SOM. Una definicin simplificada sobre los mapas topolgicos podra ser que, en una correspondencia que respecte la topologa, las unidades que se encuentran fsicamente prximas entre s van a responder a clase de vectores de entrada que, anlogamente, se encuentren cerca unos de otros. Los vectores de entrada de muchas dimensiones son representados sobre el mapa bidimensional, de tal manera que se mantenga el orden natural de los vectores de entrada (Deboech, 1996) (J.A, 1993) (T., 1997). Estos mapas presentan la caracterstica de organizar la informacin de entrada, de entre un gran volumen de datos, clasificndola automticamente, esto permitir visualizar relaciones importantes entre datos. Este modelo es muy til para establecer relaciones desconocidas previamente Este modelo de RNA es del tipo aprendizaje autoorganizado que como se explic con anterioridad es un proceso donde las neuronas aprenden mediante la autoorganizacin. Durante el proceso de aprendizaje, al ingresar un dato solo una neurona que tenga una actividad positiva dentro de la vecindad ser activada en la capa de salida.

15

Instituto Tecnolgico de Tuxtepec


La arquitectura SOM se ha extendido a infinidad de aplicaciones, es por ello que este algoritmo y sus modelos se han automatizado para dar vida a varios software como son el Viscovery SOMine y el WEBSOM (Honkela, 1996). Ambos son utilizados en el anlisis y filtrado de informacin, el Viscovery ha sido validado tanto en estudios de mercado como anlisis financiero o proyecciones urbansticas. Actualmente est incursionando en el tratamiento de a informacin usando herramientas diseadas por la bibliometra. (Sotolongo, Suarez, & Guzman) (G, Suarez, & Guzman)

2.3. MODELO PERCEPTRN


En 1943, Warren McCulloc y Walter Pitts originaron el primer modelo de operacin neuronal, el cual fu mejorado en sus aspectos biolgicos por Donald Hebb en 1948. En 1962 Bernard Widrow propuso la regla de aprendizaje Widrow-Hoff, y Frank Rosenblatt desarroll una prueba de convergencia, y defini el rango de problemas para los que su algoritmo aseguraba una solucin. El propuso los 'Perceptrons' como herramienta computacional. En la siguiente figura se representa una neurona "artificial", que intenta modelar el comportamiento de la neurona biolgica. Aqu el cuerpo de la neurona se representa como un sumador lineal de los estmulos externos zj, seguida de una funcin no lineal yj = f(zj). La funcin f(zj) es llamada la funcin de activacin, y es la funcin que utiliza la suma de estmulos para determinar la actividad de salida de la neurona.

16

Instituto Tecnolgico de Tuxtepec

Fig. 5 Neurona artificial Este modelo se conoce como perceptrn de McCulloch-Pitts, y es la base de la mayor parte de las arquitecturas de las RNA que se interconectan entre s. Las neuronas emplean funciones de activacin diferentes segn la aplicacin, algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sinptica se representa por factores de peso de interconexin wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitacin) o negativos (inhibicin). Los pesos junto con las funciones f (z) dictan la operacin de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinpsis) que se aplica a los estmulos de la neurona. En un perceptrn, cada entrada es multiplicada por el peso W correspondiente, y los resultados son sumados, siendo evaluados contra el valor de umbral, si el resultado es mayor al mismo, el perceptrn se activa. El perceptrn es capaz tan slo de resolver funciones definidas por un hiperplano (objeto de dimensin N-1 contenida en un espacio de dimensin N). Que corte un

17

Instituto Tecnolgico de Tuxtepec


espacio de dimensin N. Un ejemplo de una funcin que no puede ser resuelta es el operador lgico XOR. Una explicacin mas sencilla de un hiperplano sera, hablando en un plano de dos dimensiones, una lnea que separa a los elementos existentes en dos grupos. El perceptrn slo puede resolver una funcin, si todos los posibles resultados del problema pueden separarse de sta forma (en dos secciones) es decir, que no se combinen entre s. El entrenamiento de un perceptrn es por medio de la regla de aprendizaje delta: Para cada peso W se realiza un ajuste dW segn la regla: dW = LR ( T - Y ) X Donde LR es la razn de aprendizaje, T el valor deseado, Y el valor obtenido, y X la entrada aplicada al perceptrn

2.4. MODELO ADALINE/MADALINE


En 1959, Bernard Widrow y Marcian Hoff de la universidad de Stanford desarrollaron un modelo llamado ADALINE y MADALINE. ADALINE proviene de ADAptive LINear Element y MADALINE de Multiple ADAptive LINear Element (Many Adalines). ADALINE fue desarrollado para el reconocimiento de patrones binarios, por ejemplo predecir el siguiente bit en una lnea telefnica. En la figura 1 podemos observar la representacin de una ADALINE y su analoga con una Neurona. ADALINE funciona tomando la suma de los pesos de las entradas y produce una salida con 0 o 1 dependiendo si pasa o no un umbral, esto haciendo analoga al funcionamiento de una neurona que se dispara si la actividad total procedente de las conexiones con las otras neuronas sobrepasa un nivel. Varias ADALINE pueden ser organizadas en capas de tal manera que se obtengan grandes arquitecturas formando una red MADALINE la cual produce funciones ms complicadas.

18

Instituto Tecnolgico de Tuxtepec


MADALINE fue la primera red neuronal aplicada a un problema real, se uso como un filtro para eliminar el eco en las lneas telefnicas. ADALINE que por sus siglas en ingls significa ADAptive LINear Element es un dispositivo que consta de un solo elemento de procesamiento, por lo que tcnicamente no es una red. Sin embargo es un elemento muy importante, ya que de l se derivan redes ms complejas. Una ADALINE consiste de un ALC (Adaptive Linear Combiner) y un cuantizador (funcin bipolar de salida). Se alimenta con un vector de entrada (valores observados) y con una entrada constante igual a 1 denominada sesgo (bias). Posteriormente se efecta una suma ponderada de los valores de entrada con sus pesos asociados; si el resultado es positivo, la salida del ADALINE es 1, en caso contrario es 0 (o -1). En consecuencia ADALINE slo resuelve adecuadamente problemas binarios linealmente separables. El entrenamiento del ADALINE est basado en la regla LMS (Least Mean Square) que busca minimizar el error cuadrtico medio por medio de la regla delta. Dado un vector de entrada (x0,..., xn) donde x0 =1, el correspondiente valor de pesos (w0,..., wn) y el valor deseado de salida d, el error cuadrtico es el
n E d (t ) Wi (t ) X i (t ) i 1 2

siguiente:

El objetivo del mtodo es minimizar dicho error mediante la modificacin del vector de pesos (w0,..., wn) sumndole un mnimo en la direccin del gradiente negativo, es decir, lo ms rpidamente posible. El procedimiento de derivacin se presenta a continuacin:

19

Instituto Tecnolgico de Tuxtepec


n E d (t ) 2d (t ) Wi (t )X i (t ) Wk (t )X k (t ) i 1 k 1
2 n n E 2 d (t ) Wk (t )X k (t ) X i (t ) Wi k 1 2

Por lo que el error local ser reducido ms rpidamente si se ajustan los pesos de acuerdo a la regla delta:

n W1 (t 1) d (t ) Wk (t ) X k (t ) X i (t ) k 1 El algoritmo de entrenamiento se presenta a continuacin:

1. Inicializar pesos (w1,..., wn) y threshold (w0) 2. Presentar vector de entrada (x1,...,xn) y la salida deseada d(t) 3. Calcular la salida

n y (t ) Fh wi (t ) * xi (t ) i 0
donde Fh(a) = 1 s a>0 y = -1 s a<=0 4. Adaptar los pesos
n wi (t 1) wi (t ) * d (t ) wk (t ) * xk (t ) * xi (t ) k 0

Donde 0 < i < n y 5. Repetir los pasos 2 a 4 hasta que las salidas reales y las deseadas sean iguales para todos los vectores del conjunto de entrenamiento Siguiendo este mtodo se garantiza que, para un conjunto de entrenamiento adecuado, despus de un nmero finito de iteraciones el error se reduce a niveles

20

Instituto Tecnolgico de Tuxtepec


aceptables. El nmero de iteraciones necesarias y el nivel de error deseado dependen de cada problema particular. MADALINE (Multiple ADAptive LINear Element). Fue una de las primeras redes neuronales multicapa entrenable con mltiples elementos adaptivos. Esta estructura fue diseada despus de ADALINE, para ir ms all de la solucin de problemas linealmente separables. Consta de una capa de ADALINES y una funcin de mayora cuya respuesta binaria depende de las respuestas de las ADALINES. El algoritmo de entrenamiento es el siguiente. 1. Inicializar pesos (w1,..., wn) y threshold (w0) 2. Presentar vector de entrada (x1,...,xn) y la salida deseada dk(t) 3. Calcular la salida

n yk (t ) Fh wki (t ) * xi (t ) i 0

Donde Fh(a) = 1 si a>0 y = -1 si a<=0 yk(t) es la salida del Adaline k

4. Determinar la salida del Madaline M (t)=Fmayora (yk (t)) 5. Determinar el error y actualizar los pesos Si M (t) = salida deseada no se actualizan de otro modo, los elementos Adaline compiten y se actualiza el ganador, es decir al ADALINE con salida errnea mas
n wci (t 1) wci (t ) * d (t ) wcl (t ) * xl (t ) * xi (t ) l 0 cercana a cero en su salida original (y).

Donde 0 < i < n y

C representa al Adaline ganador

21

Instituto Tecnolgico de Tuxtepec


6. Repetir los pasos 2 a 5 hasta que las salidas reales y las deseadas sean iguales para todos los vectores del conjunto de entrenamiento Ntese que se utiliza la misma regla delta que en el entrenamiento de ADELINES, ya que los pesos modificados corresponden a estas ltimas. El inconveniente de la MADALINE es que el proceso de entrenamiento es muy lento pues se modifican una sola ADALINE en cada iteracin

2.5. ALGORITMO BACK PROPAGATION


La propagacin hacia atrs de errores o retropropagacin (del ingls backpropagation) es un algoritmo de aprendizaje supervisado que se usa para entrenar redes neuronales artificiales. El algoritmo consiste en minimizar un error (comnmente cuadrtico) por medio de descenso de gradiente, por lo que la parte esencial del algoritmo es clculo de las derivadas parciales de dicho error con respecto a los parmetros de la red neuronal. Los algoritmos en Aprendizaje Automtico pueden ser clasificados en dos categoras: supervisados y no supervisados. Los algoritmos en aprendizaje supervisado son usados para construir "modelos" que generalmente predicen ciertos valores deseados. Para ello, los algoritmos supervisados requieren que se especifiquen los valores de salida (output) u objetivo (target) que se asocian a ciertos valores de entrada (input). Ejemplos de objetivos pueden ser valores que indican xito/fallo, venta/noventa, prdida/ganancia, o bien ciertos atributos multi-clase como cierta gama de colores o las letras del alfabeto. El conocer los valores de salida deseados permite determinar la calidad de la aproximacin del modelo obtenido por el algoritmo. La especificacin de los valores entrada/salida se realiza con un conjunto consistente en pares de vectores con entradas reales de la forma (x,t) conocido como conjunto de entrenamiento o conjunto de ejemplos. Los algoritmos de aprendizaje generalmente calculan los parmetros w de una funcin N(x;W) que permiten aproximar los valores de salida en el conjunto de entrenamiento.

22

Instituto Tecnolgico de Tuxtepec


3. LA BIBLIOMETRA.
3.1. DEFINICIN
La bibliometra es una parte de la cienciometra que aplica mtodos matemticos y estadsticos a toda la literatura de carcter cientfico y a los autores que la producen, con el objetivo de estudiar y analizar la actividad cientfica. Para ello se ayuda de leyes bibliomtricas, basadas en el comportamiento estadstico regular que a lo largo del tiempo han mostrado los diferentes elementos que forman parte de la Ciencia. Los instrumentos utilizados para medir los aspectos de este fenmeno social son los indicadores bibliomtricos, medidas que proporcionan informacin sobre los resultados de la actividad cientfica en cualquiera de sus manifestaciones. Derek J. de Solla Price constat que el crecimiento de la informacin cientfica se produce a un ritmo muy superior respecto de otros fenmenos sociales, pero muy similar a otros fenmenos observables en contextos naturales, como los procesos biolgicos. Dicho crecimiento es tal, que cada 10-15 aos la informacin existente se duplica con un crecimiento exponencial, aunque esto depende en gran medida del rea de conocimiento de la que se trate. A su vez, propuso varias etapas: una fase de crecimiento exponencial propiamente dicha, en la que la tasa de crecimiento es proporcional al tamao de la muestra, y una fase de crecimiento lineal, en la que la tasa de crecimiento es constante o independiente del tamao del sistema. Las etapas son las siguientes: Fase 1: precursores Fase 2: crecimiento exponencial Fase 3: crecimiento lineal Fase 4: colapso del campo cientfico Sin embargo, no solo la literatura cientfica crece de forma exponencial, sino tambin el nmero de investigadores, por lo que la primera conclusin que obtuvo 23

Instituto Tecnolgico de Tuxtepec


Price del crecimiento exponencial fue la contemporaneidad de la ciencia, expresin que refleja el fenmeno que consiste en que el nmero de cientficos en la actualidad constituyen casi el total de todos los que han existido en el pasado ms los actuales, siendo el nmero de cientficos del pasado una proporcin casi irrelevante frente a este nmero actual. No obstante, un crecimiento exponencial no puede mantenerse hasta el infinito, es decir, ha de existir un lmite llamado techo o lmite de saturacin; admitido este lmite, Price postul que el crecimiento de la ciencia tiene forma de curva logstica.

3.2. LOS MAPAS AUTO-ORGANIZATIVOS


La Bibliometra es una disciplina que estudia los aspectos cuantitativos de la informacin registrada, para ello se han creado una serie de modelos estadsticos que aportan datos numricos sobre el comportamiento de la actividad cientfica. Tambin se han adaptado modelos de otras disciplinas para facilitar los anlisis y representar los resultados desarrollados a partir de la Bibliometra. Los mapas auto-organizados (SOM) o modelo de Kohonen (basado en las RNA) es una de estas herramientas. En los estudios mtricos la aplicacin de las redes neuronales, y especficamente los SOM, estn asociados en lo fundamental con la clasificacin de informacin, o sea, la formacin de cluster y su representacin en mapas bidimensionales de conceptos y ms especficamente con el descubrimiento de informacin (data mining). Este ltimo vinculado con la recuperacin de la informacin con "ruido" e incompleta o con el tratamiento de informacin que incluye diferentes tipos de datos (nmeros, texto, registros estructurados, etc.). Los SOM facilitan que el conocimiento tcito se haga explcito, a partir de la extraccin no-trivial (a partir de los datos) de conocimientos implcitos potencialmente tiles desconocidos previamente. Se podrn encontrar patrones o estructuras en el conocimiento tcito. Las investigaciones bibliomtricas, a travs de la utilizacin de las redes neuronales, incursionan en: 24

Instituto Tecnolgico de Tuxtepec


La seleccin de variables, Clasificacin de informacin o formacin de cluster, Regresin, Relaciones entre variables, Cambios y desviaciones, Representacin de las variables. Lo anterior se puede ejemplificar a partir de algunas aplicaciones prcticas relacionadas con la evaluacin de pginas web (Kaski, 1996) y trabajos relacionados con la clasificacin de revistas en un determinado campo temtico (T., 1997). Se conocen, adems, investigaciones relacionadas con la minera de textos (text mining) sobre todo aplicado a la asociacin de palabras o co-word. En todos estos ejemplos se utiliza como variante de las RNA el modelo de los mapas auto- organizativos (self-organizing map, SOM). En un anlisis, realizado por los autores sobre el tema, se examinaron cerca de 56 documentos sobre redes neuronales aplicadas al anlisis de informacin, con ello se constato que la mayora utilizaban el modelo SOM como herramienta de estudio. (campanario, 1995) (Honkela, 1996) (Kaski, 1996) (Xavier Polanco, 1997) (Swan sun, 1997). Un ejemplo de SOM podra ser. el estudio de una temtica determinada, para este caso en un mapa cada documento (artculo de revista, podra ser una patente, una tesis, etc.) va a ocupar un lugar en el espacio, en funcin de su contenido temtico. Cada rea del mapa va a reflejar un contenido especfico y los tpicos van variando levemente a lo largo del mismo. Las diferentes tonalidades indican la densidad de documentos, cuanto ms oscura ms documentos se encuentran. Este uso frecuente de los SOM quizs se deba a lo amigable de la interfaz de los mapas para los usuarios finales y a la diversidad de sus utilidades prcticas, estas representaciones son vlidas para poder identificar, adems de los desarrollos temticos antes mencionados, relaciones entres reas temticas y publicaciones, alianzas estratgicas y caractersticas de la cooperacin. Permite, tambin,

25

Instituto Tecnolgico de Tuxtepec


visualizar los avances tecnolgicos que tienen lugar en un perodo, conocer la evolucin de una tecnologa a travs del tiempo e identificar campos emergentes.

4. VISCOVERY SOMINE.
4.1. ORIGEN
El sistema de software Viscovery SOMine, desarrollado por la compaa austriaca de software Eudaptics, es una herramienta para el anlisis avanzado y el monitoreo de conjuntos de datos numricos; su motor principal es una variante del algoritmo Batch Map presentado en la seccin. Este sistema provee de medios poderosos para analizar conjuntos de datos con una estructura compleja, sin necesidad de contar con algn tipo de informacin estadstica a priori. El usuario es guiado durante el proceso de entrenamiento por un ambiente de ventanas bien denidas. Una vez computados los mapas, la representacin de informacin puede ser sistemticamente transformada de tal forma que se pueden utilizar distintas tcnicas de visualizacin y de clustering. Adems el sistema permite que alguna informacin numrica pueda ser solicitada por el usuario en cualquier momento. A continuacin se desglosan las capacidades del sistema durante las etapas del proceso KDD; comenzando por el pre procesamiento hasta llegar a la exploracin de los mapas y el descubrimiento de conocimiento.

4.2. FUNCIOMANIENTO
En el capitulo anterior se mencion al Viscovery SOMine como un software que ha automatizado el modelo SOM. Este sistema es utilizado por un equipo de trabajo del Instituto Finlay para elaborar mapas cientfico-tecnolgicos.

26

Instituto Tecnolgico de Tuxtepec

<<A<

Fig. 6. Funcionamiento del Viscovery SOMine. El punto de partida, para el uso de esta herramienta, es la entrada de un conjunto de datos numricos (datos multivariables, variables, nodos). Estos datos necesitan ser pre-procesados con el objetivo de organizarlos en forma de matrices. Los datos son convertidos hasta obtener una informacin visual en forma de mapa, para ello se aplica un nmero de tcnicas de evaluacin como coeficientes de correlacin entre variables o factores discriminantes (Eudatic Software Gmbh) (G, Suarez, & Guzman) (Sotolongo, Suarez, & Guzman). Los mapas sern amigables a la vista del usuario final, en ellos se identificarn dependencias entre parmetros, cluster y grficos que facilitarn diferentes predicciones o el proceso de monitoreo. El primer paso en la aplicacin del Viscovery es la seleccin de la fuente de datos. Esta fuente puede estar en formato texto (*.txt) o Microsoft Excel Workbook (*.xls), en cualquiera de los dos casos, el archivo debe ser una tabla de datos numricos en la que se especifique el nombre de cada componente.

27

Instituto Tecnolgico de Tuxtepec


Una vez seleccionada la fuente de datos, el sistema despliega un sumario de componentes. En esta ventana se puede determinar cuales componentes sern usadas durante el proceso de entrenamiento para la creacin del mapa. En ella se especifican los siguientes parmetros: Componente: especifica el nombre de la componente. Mnimo: especifica el valor mnimo de la componente en el conjunto de datos. Mximo: especifica el valor mximo de la componente en el conjunto de datos. Media: especifica el valor promedio de la componente en el conjunto de datos. Desviacin Estndar: especifica la desviacin estndar del conjunto de datos en la componente. Valores faltantes: es el nmero de datos que no tienen especificado su valor en la componente. Prioridad: este es un parmetro que determina la importancia de esta componente. Escalamiento: especifica el mtodo de escalamiento aplicado en la componente. Los posibles mtodos son: Varianza, Rango y Ligado. Transformacin: especifica el tipo de transformacin aplicado a la componente. Los posibles tipos son: Ninguna, Sigmoidal y Logartmica. Tanto el factor de prioridad, como el mtodo de escalamiento y el tipo de transformaciones, pueden ser establecidos y modificados en el mdulo de preprocesamiento.

4.3. APLICACIONES
Se estima que a pesar de las limitaciones tcnicas, las redes neuronales aplicadas a la Bibliometra constituyen un campo de investigacin muy prometedor. Un ejemplo es presentado a continuacin. La disciplina multidisciplinar de las redes neuronales es aplicada en esta seccin, donde se asume a la produccin de los documentos de patentes como indicador de la capacidad de desarrollo industrial. El objetivo es identificar posibles competidores, alianzas estratgicas, dependencia tecnolgica, etc. Se escogi para el primer ejemplo la representacin de la situacin tecnolgica de la Neisseria meningitidis (Entre las bacterias causantes de la meningitis 28

Instituto Tecnolgico de Tuxtepec


cerebroespinal, la Neisseria meningitidis es el agente causal ms frecuentemente encontrado. La enfermedad se presenta en todo el mundo y se manifiesta de forma endmica o epidmica). Las diferentes instituciones en la primera hoja de sus patentes hacen referencias a otras patentes, a partir de estos datos se puede inferir el impacto que produce una tecnologa o institucin en otra. Con el objetivo de determinar la dependencia tecnolgica entre instituciones, se realiz un anlisis de citas, estas formaron los cluster que aparecen en la figura 7.

Fig. 7. Posicin tecnolgica de las instituciones segn las citaciones.

El mapa tecnolgico presentado en la figura anterior representa a tres cluster: cluster 1 formado solamente por la Merck & Co., un cluster 2 formado nicamente por el National Res. Council of Canada y el cluster 3 que incluye al resto de las instituciones. Este ltimo grupo est formado por una gran cantidad de

29

Instituto Tecnolgico de Tuxtepec


instituciones que tienen igual estrategia de citacin, sobre todo las representadas con colores ms claros y sin lmites de separacin. Se presupone que estas firmas se basan para su desarrollo en su propia base tecnolgica, puescitan poco a otras instituciones. El cluster 2 evidencia un alto nivel de autocitacin, cuando esto sucede, algunos investigadores (Ashton, 1997) en el tema sealan que probablemente esta institucin tenga un nicho de proteccin cerrada sobre un espacio tecnolgico. Puede estar ocurriendo que exista una patente importante, la cual se ha rodeado de invenciones mejoradas. El cluster formado por la Merck & Co. indica un mayor nivel de citacin, esto presupone una estrategia balanceada: absorbe tecnologa externa y produce tecnologa propia. La cercana de los cluster tambin es una evidencia sobre las instituciones que tienen estrategias parecidas a la de otras. La Rockefeller University hace frontera con el cluster que incluye a North American Vaccine, y el National Res. Council de Canada; estas instituciones forman un colegio tecnolgico invisible que basa sus desarrollos en la misma innovacin tecnolgica. Otro ejemplo Otra aplicacin se presenta en un campo diferente del conocimiento: la agricultura. En este ejemplo no solo se tom como elemento de entrada la produccin documental de determinados pases, tambin se consideraron otros tipos de variables como "gastos en I+D" en cada uno de los pases analizados, "personal dedicado a actividades de I+D", etc.

30

Instituto Tecnolgico de Tuxtepec

Fig. 8. Mapa de Amrica Latina y el Caribe (pases seleccionados) de acuerdo con la actividad en ciencia agrcola. En la figura 8 se presenta un mapa auto-organizado sobre la actividad en ciencia agrcola en Amrica Latina y el Caribe (se seleccionaron algunos pases segn los datos disponibles). Con ello se pretende lograr una representacin de la regin, teniendo en cuenta los indicadores de insumo y de resultados ms significativos. En la figura aparecen, en dos dimensiones, 22 pases. La semejanza de los pases, considerando de forma simultnea los 20 indicadores, se expresa mediante la cercana de estos en el mapa. Los 22 pases se agrupan (auto organizan) en 3 clusters o grupos: El cluster C1, que aparece en la esquina inferior izquierda, es seguido por una banda de 4 pases correspondientes al cluster C2 (Cuba, Colombia, Chile y Venezuela) y otro cluster (C3) con el resto de los pases. En el mbito regional e internacional hay un grupo de pases formado por Brasil, Mxico y Argentina que tiene una investigacin en la temtica con mayor solidez y con parecidos niveles de desarrollo. Esto coincide con los pases que presentan mayor nivel regional en el desarrollo agrcola.

31

Instituto Tecnolgico de Tuxtepec


5. CONCLUSIONES.
Ante los ejemplos expuestos, se hace evidente que las redes neuronales artificiales, especficamente las basadas en el modelo Kohonen, pueden ser aplicadas como una herramienta de anlisis con mltiples propsitos. Existen experiencias prcticas sobre estudios de mercado, anlisis financieros, lneas de procesos industriales, control de la calidad y sistemas de vigilancia tecnolgica. Existen anlisis macro-econmicos, por ejemplo, para representar datos coleccionados durante un perodo de 20 aos sobre un pas determinado, el Viscovery SOMine genera un mapa en el cual se representan el conjunto de los datos. Los cluster representan, entre otros resultados, las diferentes fases econmicas durante ese perodo de tiempo. El vnculo de la Bibltiometra con las redes neuronales se muestra muy fructfero. Esta herramienta de anlisis debe ser estudiada no solo por la Bibliometra, sino tambin por otras disciplinas, las cuales pueden potenciar con ella su propio desarrollo.

32

Instituto Tecnolgico de Tuxtepec


6. REFERENCIAS
1. Battelle Memorial Institute. Keeping abreast of science and technology: technical for business. Ashton, B., Klavans, R.A. Ohio: Battelle Memorial Institute, 1997, 557 p. 2. Campanario, J.M. Using neural networks to study networks of scientific journals. Scientometrics. 33(1):23-40, 1995. 3. Deboeck, Guido J. Pattern recognition and prediction with self-organizing maps and ork /AIabtext.html supporting software review: visualization through viscovery. 4. Eudaptics Software Gmbh. Viscovery for CRM-applications (Viscovery White Paper) [en lnea]. <<http://www.eudatic.com>>. [Consulta: diciembre de 1999]. 5. Freeman, J.A.; Skapura, DM. Redes Neuronales. Algoritmos, aplicaciones y tcnicas de propagacin. Mxico: Addison-Wesley. 1993; 306 p. 6. Hilera Gonzlez, J.; Martnez Hernndez, V. Redes neuronales artificiales: fundamentos, modelos y aplicaciones. Madrid, RA-MA, 1995. 389 p. 7. Honkela, T. y otros. Newsgroup exploration with WEBSOM method and browsing interface. Espoo. Helsinki, University of Technology, Laboratories of Computer and Information Science. 1996. (Technical Report, A32). 8. Kaski, S. y otros. Creating an order in digital libraries with selft-organizing map. In: Proceeding of World Congress on Neural Networks, WCNN'96. Mahwah, NJ, INNS Press, 1996. 1996, pp. 814-817. 9. Kohonen, T. Self-Organizing-Maps. Springer, Berlin, Second edition.1997, 362 p. 10. Kornilov, A.R. Intelligent technologies new opportunities for modern industry. Information Technology. 1997; 3(6):1-14. 11. Neurofisiologa, Enciclopedia Microsoft(R) Encarta(R) 99. (c) 19931998Microsoft Corporation. 12. Polanco, Xavier; Francois, C., Keim, JF. Artificial neural network technology for theclassification and cartography of scientific and technical information. In: Periz, B.,Egghe, L. Procceding Sixth International Conference of the International Society

33

Instituto Tecnolgico de Tuxtepec


for Scientometrics and Informetrics; Jerusalem, Israel, 1997. Universidad Hebrew of Jerusalem, 1997, pp. 319-330. 13. Sotolongo, G; Surez, CA; Guzmn, MV. Modular Bibliometrics Information System with Propietary Software (MOBIS-ProSoft): a versatile approach to bibliometric research tools. Library and Information Science Electronic Journal (LIBRES). 14. Sotolongo, G; Surez, CA; Guzmn, MV. Modular Bibliometrics Information System with Propietary Software: In: Macas-Chapula, C. (Ed.). In: Proceedings of the Seventh International Society for Sciento metrics and Informetrics. Universidad de Colima, Mxico. 15. StatSoft, Inc. Neural Networks. Statistica for Windows [Computer program manual]. Tulsa, Oklahoma: Stat Soft, Inc. 16. Swanson, D. R. y N. R. Smal heiser. An interactive system for finding complementary literatures: a stimulus to scientific discovery. Artificial Intelligence. 91(3):183-203, 1997. Jerusalem,

34

Вам также может понравиться