Вы находитесь на странице: 1из 14

ANALISIS INTELIGENCIA ARTIFICIAL

“REDES NEURONALES ARTIFICIALES E INTELIGENCIA ARTIFICIAL”

PRESENTADO POR:

MOISES OVALLE CAMARGO

DOCENTE:

TONY JIMENEZ

UNIVERSIDAD POPULAR DEL CESAR

FACULTAD DE INGENIERIAS Y TECNOLOGIAS

INGENIERIA DE SISTEMAS

VALLEDUPAR-CESAR
1 Redes Neuronales e Inteligencia Artificial
2 TITULO ................................................................................................................... 3
3 OBJETIVOS ............................................................................................................ 4
4 MAPA CONCEPTUAL .......................................................................................... 5
5 ACONTECIMIENTOS HISTÓRICOS DE LAS REDES NEURONALES
ARTIFICIALES ............................................................................................................. 8
5.1 Métodos más Usados en las Redes Neuronales ................................................. 9
5.2 Acontecimientos Históricos De La Inteligencia Artificial (I.A) ..................... 11
6 GRANDES AVANCES DE LA INTELIGENCIA ARTIFICIAL .................... 12
7 CONCLUSIONES ................................................................................................. 14
2 TITULO

“REDES NEURONALES ARTIFICIALES E INTELIGENCIA ARTIFICIAL”


3 OBJETIVOS

 Realizar un mapa conceptual donde se integre esta información sobre


las redes.
 Realizar un documento donde se consoliden la información de los
acontecimientos históricos de las redes neuronales artificiales desde su
aparición hasta nuestros días, así como los desarrollos más importantes
donde han intervenido.
 Realizar un documento donde se consoliden información diversa de la
inteligencia artificial desde su aparición hasta nuestros días, donde se
tenga en cuenta historia, antecedentes, bases teóricas, desarrollos e
innovaciones tecnológicas.
4 MAPA CONCEPTUAL

Nombre de la Tipo de Año de Desarrollador Tipo de Datos Tipo de Red Función de Algoritmo de entrenamiento
red neuronal aprendizaje Creación activación

Modelo Supervisado 1943 Warren McCulloch y binaria unicapa Sigmoideal


Neuronal de Walter Harry Pitts. (activación lineal)
McCulloch-
Pitts
Perceptron Supervisado 1958 Frank Rosenblank binaria unicapa escalón(hard Regla delta (regla de
unicapa limiter) aprendizaje Hebb)
Perceptron Supervisado 1969 M. Minsky & S. Papert binaria multicapa hard limited / Regla Delta /
multi capa Sigmoidea Backpropagation
(tangente
hiperbolica
sigmoid)
La adaline Supervisada 1960 Bernard Widrow & binaria multicapa Sigmoideal regla delta
Marcian Hoff (activacion lineal) LMS(Least Mean Square )
Kohonen No supervisado 1982 T.Kohonen binaria / real multicapa Sigmoidea Selforganization (auto
Feature Map (sigmoid) orgatizacion)
Hopfield No supervisado 1982 John Hopfield binaria unicapa Sinusoidal Regla Delta / simulated
(signum) / hard annealing
limiter
Backpropagati Supervisado 1986 G.Hinton , E.Rumelhart & binaria multicapa Sigmoidea backpropagation
on net R. Williams (sigmoid)
5 ACONTECIMIENTOS HISTÓRICOS DE LAS REDES NEURONALES

ARTIFICIALES

Los principales acontecimientos históricos relacionados con las redes


neuronales son:

 Walter Pitts y Warren McCulloch intentaron explicar en 1943 el


funcionamiento del cerebro humano, por medio de una red de células
conectadas entre sí que podían ejecutar operaciones lógicas.

 En 1949, el fisiólogo Donald Hebb expuso en su libro The Organization


of Behavior la conocida regla de aprendizaje. Su trabajo tenía que ver
con la conductividad de la sinapsis, es decir, con las conexiones entre
neuronas.

 En 1951, Marvin Minsky y Dean Edmons montaron la primera máquina


de redes neuronales, compuesta básicamente de 300 tubos de vacío y
un piloto automático de un bombardero B-24 (en desuso). Llamaron a su
creación “Snarc”, se trataba nada menos que de una red de 40 neuronas
artificiales que imitaban el cerebro de una rata.

 En 1957, Frank Rosenblatt presentó al Perceptrón, una red neuronal con


aprendizaje supervisado cuya regla de aprendizaje era una regla
planteada por Hebb.

 En 1969 Marvin Minsky y Seymour Papert escribieron un libro llamado


Perceptrons, en donde definían a estos como caminos sin salida.

 En los años 60 se propusieron otros 2 modelos también supervisados,


basados en el Perceptrón de Rosenblatt denominados Adaline y
Madaline. En estos, la adaptación de los pesos se realiza teniendo en
cuenta el error, calculando como la diferencia entre la salida deseada y
la dada por la red, al igual que en el Perceptrón. Sin embargo, la regla
de aprendizaje empleada es distinta.
 En los 70 las redes neuronales artificiales surgen con la técnica de
aprendizaje de propagación hacia atrás o Backpropagation.

 En 1977, James Anderson desarrolló un modelo lineal, llamado


asociador lineal, que consistía en unos elementos integradores lineales
(neuronas) que sumaban sus entradas.

 En 1982 John Hopfield presentó un trabajo sobre redes neuronales en la


Academia Nacional de las Ciencias, en el cual describe con claridad y
rigor matemático una red a la que ha dado su nombre, que viene a ser
una variación del Asociador Lineal. En este mismo año la compañía
Fujitsu comenzó el desarrollo de computadores pensantes para
aplicaciones relacionadas con la Robótica.

 En 1985, el Instituto Americano de Física comenzó la “Annual Networks


for Computing”.

 En 1987 la IEEE celebró su primera conferencia internacional sobre


redes neuronales. En este mismo año se formó la International Neural
Network Society (INNS) bajo la iniciativa y dirección de Grossberg en
USA, Kohonen en Finlandia y Amari en Japón.

 En 1988, resultó la unión de la IEEE y la INNS que produjo la


“International Joint Conference on Neural Networks” que realizó 430
artículos de los cuales 63 estaban enfocados a una aplicación.

5.1 Métodos más Usados en las Redes Neuronales

Las redes neuronales pueden utilizarse en un gran número y variedad de


aplicaciones, tanto comerciales como militares.
Se pueden desarrollar redes neuronales en un periodo de tiempo razonable,
con la capacidad de realizar tareas concretas mejor que otras tecnologías.
Cuando se implementan mediante hardware (redes neuronales en chips VLSI),
presentan una alta tolerancia a fallos del sistema y proporcionan un alto grado
de paralelismo en el procesamiento de datos. Esto posibilita la inserción de
redes neuronales de bajo coste en sistemas existentes y recientemente
desarrollados.

Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene
una aplicación particular más apropiada. Algunas aplicaciones comerciales son:

Biología
 Aprender más acerca del cerebro y otros sistemas.
 Obtención de modelos de la retina.

Empresa:
 Evaluación de probabilidad de formaciones geológicas y petrolíferas.
 Identificación de candidatos para posiciones específicas.
 Explotación de bases de datos.
 Optimización de plazas y horarios en líneas de vuelo.
 Optimización del flujo del tránsito controlando convenientemente la
temporización de los semáforos.
 Reconocimiento de caracteres escritos.
 Modelado de sistemas para automatización y control.
Medio ambiente:
 Analizar tendencias y patrones.
 Previsión del tiempo.
Finanzas:
 Previsión de la evolución de los precios.
 Valoración del riesgo de los créditos.
 Identificación de falsificaciones.
 Interpretación de firmas.
Manufacturación:
 Robots automatizados y sistemas de control (visión artificial y sensores
de presión, temperatura, gas, etc.).
 Control de producción en líneas de procesos.
 Inspección de la calidad.
Medicina:
 Analizadores del habla para ayudar en la audición de sordos profundos.
 Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos
(electrocardiograma, encefalogramas, análisis sanguíneo, etc.).
 Monitorización en cirugías.
 Predicción de reacciones adversas en los medicamentos.
 Entendimiento de la causa de los ataques cardíacos.
Militares:
 Clasificación de las señales de radar.
 Creación de armas inteligentes.
 Optimización del uso de recursos escasos.
 Reconocimiento y seguimiento en el tiro al blanco.
5.2 Acontecimientos Históricos De La Inteligencia Artificial (I.A)

En 1943, Warren McCulloch y Walter Pitts, presentaron su modelo de neuronas


artificiales, el cual se considera el primer trabajo del campo, aun cuando
todavía no existía el término. Los primeros avances importantes comenzaron a
principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la
ciencia ha pasado por diversas situaciones.

En 1955, Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer


lenguaje de programación orientado a la resolución de problemas, el IPL-11.
Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar
teoremas matemáticos.

En 1956, John McCarthy, Marvin Minsky y Claude Shannon, en la Conferencia


de Dartmouth fue inventado el término inteligencia artificial, un congreso en el
que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron,
lo que provocó el abandono casi total de las investigaciones durante quince
años.

En 1957, Newell y Simon, continúan su trabajo con el desarrollo del General


Problem Solver (GPS). GPS era un sistema orientado a la resolución de
problemas.

En 1958, John McCarthy, desarrolla en el Instituto de Tecnología de


Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP fue
el primer lenguaje para procesamiento simbólico.

En 1959, Rosenblatt, introduce el Perceptrón.

A finales de los 50 y comienzos de la década del 60, Robert K. Lindsay,


desarrolla “Sad Sam”, un programa para la lectura de oraciones en inglés y la
inferencia de conclusiones a partir de su interpretación.

En 1963, Quillian, desarrolla las redes semánticas como modelo de


representación del conocimiento.

En 1964, Bertrand Raphael, construye el sistema SIR (Semantic Information


Retrieval) el cual era capaz de inferir conocimiento basado en información que
se le suministra. Bobrow desarrolla STUDENT.

En 1965, Buchanan, Feigenbaum y Lederberg, crean los primeros Sistema


Experto, por ejemplo "DENDRAL", que asistía a químicos en estructuras
químicas complejas euclidianas, MACSYMA, que asistía a ingenieros y
científicos en la solución de ecuaciones matemáticas complejas.

Entre los años 1968-1970, Terry Winograd, desarrolló el sistema SHRDLU,


que permitía interrogar y dar órdenes a un robot que se movía dentro de un
mundo de bloques.
En 1968, Minsky, publica Semantic Information Processing.

En 1968, Seymour Papert, Danny Bobrow y Wally Feurzeig, desarrollan el


lenguaje de programación LOGO.

En 1969, Alan Kay, desarrolla el lenguaje Smalltalk en Xerox PARC y se


publica en 1980.

En 1973, Alain Colmenauer y su equipo de investigación, en la Universidad de


Aix-Marseille crean PROLOG (del francésPROgrammation en LOGique) un
lenguaje de programación ampliamente utilizado en IA.

En 1973, Shank y Abelson, desarrollan los guiones, o scripts, pilares de


muchas técnicas actuales en Inteligencia Artificial y la informática en general.

En 1974, Edward Shortliffe, escribe su tesis con MYCIN, uno de los Sistemas
Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento
de infecciones en la sangre.

En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como


MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc.
Algunos permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS.

En 1981, Kazuhiro Fuchi, anuncia el proyecto japonés de la quinta generación


de computadoras.

En 1986, McClelland y Rumelhart, Publican Parallel Distributed Processing


(Redes Neuronales).

En 1988, Se establecen los lenguajes Orientados a Objetos.

En 1996, IBM, Crea la computadora autónoma Deep Blue, esta le gana al


campeón mundial de ajedrez Gary Kasparov el año 1997.

En el año 2009, Ya hay en desarrollo sistemas inteligentes terapéuticos que


permiten detectar emociones para poder interactuar con niños autistas.

En el año 2011, IBM, Desarrolló una supercomputadora llamada Watson, la


cual ganó una ronda de tres juegos seguidos de Jeopardy, venciendo a sus dos
máximos campeones, y ganando un premio de 1 millón de dólares que IBM
luego donó a obras de caridad

6 GRANDES AVANCES DE LA INTELIGENCIA ARTIFICIAL

DEEP BLUE
IBM en su afán de demostrar la capacidad de sus sistemas en 1996 crea un
"supercomputador" denominado DEEP BLUE (azul profundo) capaz de desafiar
a una de las grandes mentes del mundo del ajedrez el Sr. Gary Kasparov, este
"supercomputador" tenía procesadores diseñados especialmente para evaluar
jugadas de ajedrez. Contaba con datos relativos a más de 4.000 movimientos y
las partidas de 700.000 grandes maestros de ajedrez. Sus procesadores eran
capaces de calcular 200 millones de posiciones por segundo.

ASIMO

ASIMO Advanced Step Innovative Mobility (Paso Avanzado en Movilidad


Innovadora), Es un robot humanoide (Androide) creado en el año 1980 por la
empresa Honda uno de los símbolos de la apuesta de la compañía por la
investigación y el desarrollo de la Inteligencia Artificial. (Androide es la
denominación que se le da a un robot u organismo sintético antropomorfo que,
además de imitar la apariencia humana, imita algunos aspectos de su conducta
de manera autónoma).

CURIOSITY

Curiosity, del inglés 'curiosidad', es una misión espacial que incluye un vehículo
del tipo rover, de exploración marciana dirigida por la NASA. Aterrizó en Marte
exitosamente en el cráter Gale el 6 de agosto de 2012, aproximadamente a las
05:31 UTC enviando sus primeras imágenes a la Tierra.
La misión se centra en situar sobre la superficie marciana un vehículo
explorador. Este vehículo lleva instrumentos científicos más avanzados que los
de las otras misiones anteriores dirigidas a Marte, algunos de ellos
proporcionados por la comunidad internacional. En el transcurso de su misión
tomará docenas de muestras de suelo y polvo rocoso marciano para su
análisis. La duración prevista de la misión es de 1 año marciano (1,88 años
terrestres). Investigará la capacidad pasada y presente de Marte para alojar
vida.

MANO ROBÓTICA / REDES NEURONALES

La sustitución de extremidades perdidas es uno de los grandes sueños de la


robótica y la medicina moderna. En tan solo 100 años se ha pasado de utilizar
madera y ganchos, a manos y piernas funcionales que se pueden mover con el
pensamiento. Y ahora, también hay una mano robótica cuyos sensores
transmiten lo que perciben al cerebro del paciente.
El desarrollo ocurrió en Italia, donde se realizará el primer implante este año. El
dispositivo consiste enteramente en una mano robótica que se conecta
mediante electrodos a los nervios del brazo, y que posee sensibilidad en todos
los dedos, la palma y la muñeca, otorgando comunicación de dos vías entre el
cerebro y la mano.

La otra -espectacular- característica de la mano, es que la persona podrá


moverla con el pensamiento como si se tratara de una mano real. Esto se
consiguió desde principios del 2012, pero el más reciente modelo posee mayor
sensibilidad a movimientos delicados.
Por supuesto, aún faltan pasos importantes para que exista una mano robótica
comparable a la humana, sin embargo, lo que ocurrirá este año, será un
enorme avance en la tecnología médica, algo que solo existía en la ciencia
ficción.

7 CONCLUSIONES

 Como podemos observar, las redes neuronales tienen mucho que


ganar con el mundo de la informática. Su capacidad para aprender, hace
que sean extremadamente flexibles y adaptables a un sin número de
aplicaciones, convirtiéndolas en una herramienta potente. Las redes
neuronales también son adecuadas para los sistemas en tiempo real,
por las características de su arquitectura en paralelo, permitiendo así
ejecutar cálculos a una gran velocidad y a sus tiempos de respuesta.
Contribuyen también a otras áreas de investigación tales como la
neurología y la psicología que se utilizan regularmente para modelar
partes de los organismos vivos y para investigar igualmente los
mecanismos del cerebro. Esperemos que más avances se pueden lograr
con las redes Neuronales.

 En los últimos años se han logrado avances importantes en IA.


Reconocidas empresas siguen invirtiendo en el desarrollo de nuevas y
potentes tecnologías, como por ejemplo Google, quienes pretenden
incorporar semántica en las búsquedas que se realizan con su producto.
En la actualidad existen una idea generalizada que la IA se desarrollará
a una velocidad exponencial, logrando e incluso superando a la
capacidad del cerebro humano. Esperamos que estas tecnologías sean
utilizadas con fines benéficos para la sociedad y no sea una herramienta
más de destrucción.