Вы находитесь на странице: 1из 25

Ao de la Consolidacin del Mar de Grau

Universidad Nacional San Luis Gonzaga de Ica


Facultad de Ingeniera de Sistemas

Terminologa Informtica Extranjera


III

Inteligencia Artificial

Mag. Mnica Gabriela Salcedo


Hernndez

III Ciclo S2

Caquiamarca Evanan .Yohan Percy


Chacaltana Fajardo .Cristian Jeancarlo
Romero Lovera .Junior Alberto
INTELIGENCIA ARTIFICIAL

Es una de las ramas de las ciencias de la computacin que ms inters ha despertado en


la actualidad, debido a su enorme campo de aplicacin. La bsqueda de mecanismos
que nos ayuden a comprender la inteligencia y realizar modelos y simulaciones de estos,
es algo que ha motivado a muchos cientficos a elegir esta rea de investigacin.
El origen inmediato del concepto y de los criterios de desarrollo de la IA se remonta
a la intuicin del genio matemtico ingls Alan Turing y el apelativo Inteligencia
Artificial se debe a McCarthy quien organizo una conferencia en el Darmouth College
( Estados Unidos) para discutir la posibilidad de construir mquinas inteligentes; a
esta reunin asistieron cientficos investigadores de conocida reputacin en el rea de
las ciencias computacionales como: Marvin Minsky, Nathaniel Rochester, Claude
Shannon, Herbert Simon y Allen Newell. Como resultado de esta reunin, se
establecieron los primeros lineamientos de la hoy conocida como Inteligencia
Artificizal; aunque anteriormente ya existian algunos trabajos relacionados.
Desde su origen, la IA tuvo que lidiar con el conflicto de que no exista una definicin
clara y nica de inteligencia; as es que no es de sorprender que an en la actualidad,
no exista una definicin nica de ella. As como la Psicologa ha identificado diferentes
tipos de inteligencia humana (emocional, interpersonal, musical, lingstica,
quinestsica, espacial, etc.), las distintas definiciones de la inteligencia artificial hacen
nfasis en diferentes aspectos; aunque existen similitudes entre ellas. A continuacin se
presentan algunas de las definiciones iniciales de esta rea.

Estudio de la computacin que observa que una maquina sea capaz de percibir,
razonar y actuar (Winston, 1992).

Ciencia de la obtencin de mquinas que logren hacer cosas que requeriran


inteligencia si las hiciesen los humanos (Minsky, 1968).

Nuevo esfuerzo excitante que logre que la computadora piense... mquinas con
mentes, en el sentido completo y literal (Haugeland, 1985).

Rama de la ciencia computacional preocupada por la automatizacin de la


conducta inteligente (Luger and Stubblefield, 1993).
Maquina Inteligente es la que realiza el proceso de analizar, organizar, y convertir
los datos en conocimiento, donde el conocimiento del sistema es informacin
estructurada adquirida y aplicada para reducir la ignorancia o la incertidumbre
sobre una tarea espesifica a realizar por esta (Pajares y Santos, 2006).

Originalmente la Inteligencia Artificial se construy en base a conocimientos y teoras


existentes en otras reas del conocimiento. Algunas de las principales fuentes de
inspiracin y conocimientos que nutrieron a esta rea son las ciencias de la
computacin, la filosofa, la lingstica, las matemticas y la psicologa. Cada una de
estas ciencias contribuy no solamente con los conocimientos desarrollados en ellas,
sino con sus herramientas y experiencias tambin; contribuyendo as a la gestacin y
desarrollo de esta nueva rea del conocimiento.
Los filsofos como Scrates, Platn, Aristteles, Leibniz desde el ao 400 aC, sentaron
las bases para la inteligencia artificial al concebir a la mente como una mquina que
funciona a partir del conocimiento codificado en un lenguaje interno y al considerar
que el pensamiento serva para determinar cul era la accin correcta que haba que
emprender. Por ejemplo, Aristteles quien es considerado como el primero (300aC) en
describir de forma estructurada la forma como el ser humano produce conclusiones
racionales a partir de un grupo de premisas; contribuy con un conjunto de reglas
conocidas como silogismos que actualmente son la base de uno de los enfoques de la
Inteligencia Artificial.
Sin embargo, la filosofa no es la nica ciencia que ha heredado sus frutos a esta rea;
pues otras contribuciones no menos importantes son las siguientes:
Las matemticas proveyeron las herramientas para manipular las aseveraciones de
certeza lgica as como aquellas en las que existe incertidumbre de tipo probabilista; el
clculo por su lado, brid las herramientas que nos permiten la modelacin de
diferentes tipos de fenmenos y fueron tambin las matemticas, quienes prepararon
el terreno para el manejo del razonamiento con algoritmos.
La Psicologa ha reforzado la idea de que los humanos y otros animales pueden ser
considerados como mquinas para el procesamiento de informacin, psiclogos como
Piaget y Craik definieron teoras como el conductismo psicologa cognitiva.
Las Ciencias de la Computacin -comenz muy poco antes que la Inteligencia Artificial
misma. Las teoras de la IA encuentran un medio para su implementacin de artefactos
y modelado cognitivo a travs de las computadoras. Los programas de inteligencia
artificial por general son extensos y no funcionaran sin los grandes avances de
velocidad y memoria aportados por la industria de cmputo.
La Lingstica se desarroll en paralelo con la IA y sirve de base para la representacin
del conocimiento (Chomsky). La lingstica moderna naci casi a la par que la
Inteligencia Artificial y ambas reas han ido madurando juntas; al grado que existe un
rea hbrida conocida como lingstica computacional o procesamiento del lenguaje
natural. Los lingistas han demostrado que el problema del entendimiento del lenguaje
es mucho ms complicado de lo que se haba supuesto en 1957.
La economa, como una rea experta en la toma de decisiones, debido que stas
implican la prdida o ganancia del rendimiento; brind a la IA una serie de teoras
(Teora de la decisin que combina la Teora de la Probabilidad y la Teora de la
utilidad; Teora de juegos para pequeas economas; Procesos de decisin de Markov
para procesos secuenciales; entre otras) que la posibilitaron para la toma de buenas
decisiones.
Finalmente, la Neurociencia, ha contribuido a la IA con los conocimientos recabados
hasta la fecha sobre la forma como el cerebro procesa la informacin.
HISTORIA
Desde tiempos inmemoriales, el hombre ha buscado la materializacin del deseo de
crear seres semejantes a l; pasando por la creacin de artefactos con aspecto,
movimientos y hasta comportamiento similar al que presentamos los seres humanos.
El ruso Isaac Asimov (1920-1992), escritor e historiador, narraba sobre objetos y
situaciones que en su tiempo eran ciencia-ficcin; sin embargo, con el paso del tiempo,
muchas de ellas se han ido volviendo realidad. Asimov, en su libro Runaround
describi lo que el da de hoy son las tres leyes de la robtica. Su obra literaria serviria
como motivacin para que los cientficos e ingenieros trataran de hacerla realidad.
En los aos 50 cuando se logra realizar un sistema que tuvo cierto xito, se llam el
Perceptrn de Rossenblatt. Este era un sistema visual de reconocimiento de patrones
en el cual se aunaron esfuerzos para que se pudieran resolver una gama amplia de
problemas, pero estas energas se diluyeron enseguida.
Aproximadamente en ese tiempo, el matematico ingls Alan Turing (1912-1954)
propuso una prueba con la finalidad de demostrar la existencia de inteligencia en un
dispositivo no biolgico. Esta prueba conocida como test de Turing se fundamenta
en la hiptesis de que si una mquina se comporta en todos aspectos como inteligente,
entonces debe ser inteligente (Alan Turing, 1950). Como consecuencia de esta prueba,
muchos de los esfuerzos de los investigadores en ese tiempo, se enfocaron en la
redaccin de sistemas de inteligencia artificial lingsticos, lo que marc el nacimiento
de los conocidos como chatbots (robots de pltica). A pesar de que ya se haban
realizado investigacin sobre el diseo y las capacidades de las entidades no biolgicas,
el trabajo de Alan Turing de 1950, concentr el inters de la comunidad cientfica en
el desarrollo de las mquinas inteligentes. Dos de las contribuciones ms importantes
de Alan Turing son el diseo de la primera computadoracapaz de jugar al ajedrez y el
establecimiento de la naturaleza simblica de la computacin (ITAM, 1987).
Posteriormente, en 1957 Alan Newell y Herbert Simon, que trabajaban en la
demostracin de teoremas y el ajedrez por ordenador logran crear un programa llamado
GPS (General Problem Solver). Este era un sistema donde el usuario defina un entorno
en funcin de una serie de objetos y los operadores que se podan aplicar sobre ellos.
Este programa fue redactado mediante el uso de IPL (Information Processing Languaje)
y es considerado como el primer programa en el que se separ la informacin
relacionada con el problema de la estrategia empleada para darle solucin. El GPS se
bas en el trabajo previamente desarrollado de sus autores sobre mquinas lgicas y
aunque fue capaz de resolver problemas como el de Las Torres de Hanoi; no pudo
resolver problemas ni del mundo real, ni mdicos ni tomar decisiones importantes.
El GPS manejaba reglas heursticas que la conducan hasta el destino deseado mediante
el mtodo del ensayo y el error (Newell y Simon ,1961). Varios aos ms tarde; en los
aos 70, un equipo de investigadores dirigido por Edward Feigenbaum comenzara a
elaborar un proyecto para resolver problemas de la vida cotidiana (problemas ms
concretos); dando origen a lo que se conocera como los sistemas expertos.
En 1958 McCarthy desarroll un lenguaje de programacin simbolica cuando estaba
trabajando en el MIT; dicho lenguaje es utlilizado an en la actualidad y es conocido
como LISP. El nombre LISP deriva de LISt Processing (Procesamiento de LIStas). Las
listas encadenadas son una de las estructuras de datos importantes del Lisp.
En el ao 1965 Joseph Weizenbaum construyo el primer programa interactivo el cual
consistia en que un usuario podia sostener una conversacin en ingles con una
computadora utilizando una comunicacin por escrito, este sistema fue denominado
ELIZA.
El primer sistema experto fue el denominado Dendral, un intrprete de espectrograma
de masa construido en 1967, pero el ms influyente resultara ser el Mycin de 1974. El
Mycin era capaz de diagnosticar trastornos en la sangre y recetar la correspondiente
medicacin, todo un logro en aquella poca que incluso fueron utilizados en hospitales
(como el Puff, variante de Mycin de uso comn en el Pacific Medical Center de San
Francisco, EEUU)
Ya en los aos 80, se desarrollaron lenguajes especiales para utilizar con la Inteligencia
Artificial, tales como el LISP o el PROLOG. Es en esta poca cuando se desarrollan
sistemas expertos ms refinados, como por ejemplo el EURISKO. Este programa
perfecciona su propio cuerpo de reglas heursticas automticamente, por induccin.
Tambin podemos destacar la importante intervencin de Arthur Samuel, que
desarrollo un programa de juego de damas capaz de aprender de su propia experiencia;
Selfridge, que estudiaba el reconocimiento visual por computadora.
A partir de este grupo inicial, se formaron dos grandes escuelas de I.A.: Newell y
Simon lideraron el equipo de la Universidad de Carnegie-Mellon, proponindose
desarrollar modelos de comportamiento humano con aparatos cuya estructura se
pareciese lo ms posible a la del cerebro (lo que deriv en la postura conexionista y
en las redes neuronales artificiales).
McCarthy y Minsky formaron otro equipo en el Instituto Tecnolgico de Massachusett
(MIT), centrndose ms en que los productos del procesamiento tengan el carcter de
inteligente, sin preocuparse por que el funcionamiento o la estructura de los
componentes sean parecidas a los del ser humano.
Ambos enfoques sin embargo, persiguen los mismos objetivos prioritarios de la I.A.:
entender la inteligencia natural humana, y usar mquinas inteligentes para adquirir
conocimientos y resolver problemas considerados como intelectualmente difciles.
La historia de la IA ha sido testigo de ciclos de xito, injustificado optimismo y la
consecuente desaparicin de entusiasmo y apoyos financieros. Tambin han habido
ciclos caracterizados por la introduccin de nuevos y creativos enfoques y de un
sistemtico perfeccionamiento de los mejores. Por sus implicaciones con reas como la
medicina, psicloga, biologa, tica y filosofa entre otras, esta rama del conocimiento
ha tenido que lidiar con fuertes grupos oponentes y crticas desde sus orgenes; sin
embargo, siempre existi un grupo de personas interesadas en el rea lo que permitio
que se consolidara como un area del conocimiento de gran interes para la investigacin
cientfica.
EL TEST DE TURING
La prueba de Turing (Alan Turing ,1950) intenta ofrecer una definicin de Inteligencia
Artificial que se pueda evaluar. Para que un ser o mquina se considere inteligente debe
lograr engaar a un evaluador de que este ser o mquina se trata de un humano
evaluando todas las actividades de tipo cognoscitivo que puede realizar el ser humano.

Si el dilogo que ocurra y el nmero de errores en la solucin dada se acerca al nmero


de errores ocurridos en la comunicacin con un ser humano, se podr estimar - segn
Turing- que estamos ante una mquina inteligente.
Hoy por hoy, el trabajo que entraa programar una computadora para pasar la prueba
es considerable. La computadora debera se capaz de lo siguiente:
1. Procesar un lenguaje natural: Para as poder establecer comunicacin satisfactoria,
sea en espaol, ingls o en cualquier otro idioma humano.
2. Representar el conocimiento: Para guardar toda la informacin que se le haya dado
antes o durante el interrogatorio. Utilizacin de Base de Datos para receptar preguntas
y luego almacenarlas.
3. Razonar automticamente: Utiliza la informacin guardada al responder preguntas
y obtener nuevas conclusiones o tomar decisiones.
4. Autoaprendizaje de la mquina: Con el propsito de adaptarse a nuevas
circunstancias. El autoaprendizaje conlleva a la autoevaluacin.

Para aprobar la prueba total de Turing, es necesario que la computadora est dotada
de:
1. Vista: Capacidad de percibir el objeto que se encuentra en frente suyo.
2. Robtica: Capacidad para mover el objeto que ha sido percibido.
APLICACIONES Y HERRAMIENTAS DERIVADAS DE LA
INTELIGENCIA ARTIFICIAL
A lo largo de la historia de la Inteligencia Artificial sean ido desarrollando diferentes
herramientas y aplicaciones entre las que podemos mencionar las siguientes:
Lenguajes Programacin: Un lenguaje de programacin es un lenguaje artificial
empleado para dictar instrucciones a una computadora, y aunque es factible
hacer uso de cualquier lenguaje computacional para la produccin de
herramientas de inteligencia artificial; se han desarrollado herramientas cuyo
propsito especfico es el desarrollo de sistemas dotados con Inteligencia
Artificial.

AMBIENTES DE DESARROLLO
Debido al enorme xito que tuvieron los sistemas expertos en la dcada de los 80 s,
empezaron a surgir desarrollos conocidos como shells. En computacin, una Shell es
una pieza de software que provee una interfaz para los usuarios.
Un sistema experto posee entre sus componentes las dos herramientas siguientes:
1. Base de conocimientos.- El conocimiento relacionado con un problema o fenmeno
se codifica segn una notacin especfica que incluye reglas, predicados, redes
semnticas y objetos.
2. Motor de inferencia.- Es el mecanismo que combina los hechos y las preguntas
particulares, utilizando la base de conocimiento, seleccionando los datos y pasos
apropiados para presentar los resultados
En el entorno de los sistemas expertos, una Shell es una herramienta diseada para
facilitar su desarrollo e implementacin. En otros trminos, una Shell es un sistema
experto que posee una base de conocimientos vaca, pero acompaada de las
herramientas necesarias para proveer la base de conocimiento sobre el dominio del
discurso de una aplicacin especfica. Una Shell provee tambin al ingeniero del
conocimiento (encargado de recabar la base de conocimientos) de una herramienta que
trae integrado algn mecanismo de representacin del conocimiento, un mecanismo
de inferencia, elementos que faciliten la explicacin del procedimiento o decisin
tomados por el sistema experto (componente explicativo) e incluso, algunas veces,
proveen una interfaz de usuario.
El uso de estos ambientes de desarrollo, permiten el desarrollo de sistemas expertos
eficientes incluso cuando no se domine algn lenguaje de programacin; razn por la
que se ha popularizado su uso para la produccin de sistemas expertos en todos los
dominios del conocimiento.
Algunos ambientes de desarrollo para la construccin de sistemas expertos
independientes del dominio o shells clsicos son:
EMYCIN o Essential Mycin: Esta Shell fue construida en la Universidad de Stanford
como resultado del desarrollo del sistema experto MYCIN que realizaba el diagnstico
de enfermedades infecciosas de la sangre. El sistema EMYCIN fue la base para la
construccin de muchos otros sistemas expertos, tales como el PUFF (que diagnostica
enfermedades pulmonares) y el SACON (que trabaja con ingeniera estructural).

OPS5- OPS83: Estas Shell fueron desarrolladas en C. C es el lenguaje que debe ser
empleado para la insercin de las reglas base y junto con el uso del encadenamiento
hacia adelante, la posibilidad de insertar las reglas en un lenguaje como el C son sus
principales aportaciones. Este sistema esta basado en el algoritmo propietario RETE II.
El algoritmo RETE es de reconocida eficacia para la comparacin de hechos con los
patrones de las reglas y la determinacin de cuales de ellas satisfacen sus condiciones.

ESDE/VM (Expert System Development Environment): Esta es una herramienta


comercial creada por IBM para sus sistemas operativos VM y MVS. Esta herramienta
que incluye facilidades grficas y acceso a bases de datos fue creada para su uso con
mainframes. Esta herramienta usa reglas para representar el conocimiento del tipo IF x
THEN y AND z. La principal ventaja de este tipo de representacin es su facilidad para
modificarlas y el hecho de que las reglas son un esquema muy semejante al modelo con
el que los seres humanos razonamos o planteamos la solucin a un problema.
KEE (Knowledge Engineering Environment): Esta herramienta de la casa comercial
IntelliCorp combina el uso de la programacin orientada a objetos y el uso de reglas
como herramientas de representacin del conocimiento. Debido a la mezcla de tcnicas,
esta Shell es conocida como una herramienta hbrida. El tipo b{asico de representacin
de KEE esta basada en marcos con jerarquas multipadre y varios mecanismos de
herencias, que permiten transferir los atributos de los marcos a travs de la jerarqua (
Filman, 1992). Esta herramienta tambin puede codificar el conocimiento mediante
LISP. KEE fue desarrollado mediante Common Lisp y usa reglas del tipo IF antecedente
THEN consecuente.
S1: Esta herramienta para el desarrollo de sistemas expertos basada en reglas, provee
toda clase de facilidades para la introduccin del conocimiento tanto por parte del
ingeniero como del experto sobre un cierto dominio. Este sistema incluye ya el uso del
idioma ingls, de manera que traduce automticamente fragmentos de texto que se
asocien con la base de conocimientos. Este sistema adems, muestra dinmicamente
sus lneas de razonamiento alternativas, conclusiones y reglas heursticas consideradas.
EXSYS: Considerado por largo tiempo como el lder para el desarrollo de sistemas
expertos, es el resultado de ms de 28 aos de mejora y refinamiento. Esta herramienta
posee tambin elementos para la produccin de sistemas expertos interactivos en la
web. Exsys usa reglas del tipo IF/THEN que son resueltas con mecanismos de
encadenamiento hacia adelante o hacia a tras de acuerdo al problema que se pretende
resolver. En este sistema es factible que las reglas posean mltiples hechos en la parte
del IF mediante el uso de conectores lgicos, mientras que la parte del THEN solamente
presenta un componente. En este sistema las reglas se agrupan en una estructura
arbrea que permite su mejor administracin y comprensin.
Naturalmente existe una enorme lista de herramientas que no han sido comentadas,
entre las que se pueden mencionar: MED1, NEXPERT OBJECT, GURU, HUGIN
SYSTEM, ICARUS, entre otros.
ARTIFICIAL INTELLIGENCE

It is a branch of computer science that has aroused more interest today, because of its
enormous scope. The search for mechanisms that help us understand the intelligence
and make models and simulations of these, is something that has led many scientists to
choose this area of research.
The immediate origin of the concept and development criteria of "IA" dates back to the
intuition of mathematical genius Englishman Alan Turing and the nickname "Artificial
Intelligence" is due to McCarthy who organized a conference at Dartmouth College
(USA) to discuss the possibility of building "smart" machines; this meeting was attended
by scientific researchers of known reputation in the area of computer science as Marvin
Minsky, Nathaniel Rochester, Claude Shannon, Herbert Simon and Allen Newell. As
a result of this meeting, the first guidelines now known as Intelligence Artificizal settled;
although previously there were already some related work.
Since its inception, the IA had to deal with the conflict that there was no clear and
unique definition of intelligence; so it is not surprising that even today, there is no
single definition of it. Just as psychology has identified different types of human
intelligence (emotional, interpersonal, musical, linguistic, kinesthetic, spatial, etc.), the
different definitions of artificial intelligence emphasize different aspects; although there
are similarities between them. Below are some of the initial definition of this area.

Study of computing noting that a machine is able to perceive, reason and act
(Winston, 1992).

Science obtaining achieve machines do things that would require intelligence if


humans should do (Minsky, 1968).

New exciting effort to achieve the computer think ... machines with minds, in
the full and literal sense (Haugeland, 1985).

The branch of computer science concerned with the automation of intelligent


behavior (Luger and Stubblefield, 1993).
Machine Intelligence is what makes the process of analyzing, organizing, and
turn data into knowledge, where knowledge of the system is acquired structured
information and applied to reduce ignorance or uncertainty on a espesifica task
to be performed by this (Pajares and Santos, 2006).

Artificial Intelligence originally was built based on existing knowledge and theories in
other areas of knowledge. Some of the main sources of inspiration and knowledge
nurtured this area are computer science, philosophy, linguistics, mathematics and
psychology. Each of these sciences contributed not only with the knowledge developed
in them, but with their tools and experiences as well; thus contributing to the creation
and development of this new area of knowledge.
Philosophers like Socrates, Plato, Aristotle, Leibniz since 400 BC, laid the foundation
for the artificial intelligence to conceive of the mind as a machine operating from
encoded in an internal language knowledge and considering that thought served to
determine what the right action had to be taken. For example, Aristotle who is
considered as the first (300AC) in a structured way to describe how humans produce
rational conclusions from a group of premises; He contributed a set of rules known as
syllogisms that are now the basis of one of the approaches of Artificial Intelligence.
However, philosophy is not the only science that has inherited its fruits to this area;
because other equally important contributions are:
Mathematics provided the tools to manipulate statements of logical certainty as well as
those in which there is uncertainty of probabilistic type; calculating meanwhile, hybrid
tools that allow us modeling of different types of phenomena and were also
mathematics, who paved the way for management reasoning algorithms.
Psychology has reinforced the idea that humans and other animals can be considered
as machines for processing information, psychologists such as Piaget and Craik defined
as behaviorism theories - cognitive psychology.
Computer Sciences began shortly before the same Artificial Intelligence. AI theories are
a means for implementation of artifacts and cognitive modeling through computers.
Artificial intelligence programs generally are extensive and would not work without the
great advances in speed and memory provided by the computer industry.
Linguistics was developed in parallel with the IA and serves as a basis for knowledge
representation (Chomsky). Modern linguistics was born almost at the same AI and both
areas have matured together; to the extent that there is a known as computational
linguistics and natural language processing hybrid area. Linguists have shown that the
problem of understanding the language is much more complicated than had been
assumed in 1957.
The economy, as an expert area in making decisions because they involve the loss or
gain of performance; He gave AI a number of theories (Decision theory, which
combines probability theory and utility theory, game theory - for small economies;
Processes Markov decision - for sequential processes, among others) they made it
possible for making "good decisions".
Finally, Neuroscience, has contributed to the IA with the knowledge gathered to date
on how the brain processes information.
HISTORY
Since time immemorial, man has sought the realization of the desire to create beings
like him; through the creation of artifacts with appearance, movements and even
presented similar behavior to humans.

Russian Isaac Asimov (1920-1992), writer and historian, chronicled on objects and
situations in his time were science fiction; however, with the passage of time, many of
them have been coming true. Asimov, in his book Runaround described what today are
the three laws of robotics. His literary work would serve as motivation for scientists and
engineers try to make it a reality.

In the 50s when it is made, a system that had some success, was called Perceptron
Rossenblatt. This was a visual pattern recognition system in which efforts that could
resolve a range of problems came together, but these energies were diluted immediately.
Around this time, the English mathematician Alan Turing (1912-1954) proposed a test
in order to prove the existence of "intelligence" in a non-biological device. This test is
known as the "Turing test" is based on the assumption that if a machine behaves in
every respect as intelligent, then must be intelligent (Alan Turing, 1950). As a result of
this test, many of the efforts of researchers at the time, they focused on the drafting of
linguistic artificial intelligence systems, which marked the birth of so-called "chatbots"
(robots talk). Although they had already done research on the design and capabilities
of non-biological entities, the work of Alan Turing in 1950, he focused the interest of
the scientific community in the development of "intelligent machines". Two of the most
important contributions of Alan Turing are the design of the first computadoracapaz
to play chess and the establishment of the symbolic nature of computing (ITAM, 1987).
Later, in 1957 Alan Newell and Herbert Simon, who worked in proving theorems and
computer chess manage to create a program called GPS (General Problem Solver). This
was a system where the user defined an environment based on a series of objects and
operators could be applied on them. This program was written by using IPL
(Information Processing Language) and is considered as the first program in which
information related to the problem of the strategy used to give solution was separated.
The GPS was based on the work previously developed by the authors on logical
machines and although it was able to solve problems such as "Towers of Hanoi"; He
could not resolve problems or the real world, doctors or make important decisions.
The GPS driving heuristic rules that led to the desired destination by the method of
trial and error (Newell and Simon, 1961). Several years later; in the 70s, a team of
researchers led by Edward Feigenbaum begin drafting a project to solve problems of
daily life (more specific problems); giving rise to what is known as expert systems.

In 1958 McCarthy developed a symbolic programming language while working at MIT;


this language is still utlilizado today and is known as LISP. The name LISP derives from
"List Processing" (list processing). Linked lists are one of the important data structures
of Lisp.
In 1965 Joseph Weizenbaum built the first interactive program which was that a user
could hold a conversation in English with a computer using a written communication,
this system was called ELIZA.

The first expert system was the Dendral called a mass spectrogram interpreter built in
1967, but the most influential prove to be the Mycin of 1974. The Mycin was able to
diagnose blood disorders and prescribe the appropriate medication, an achievement in
that time that were even used in hospitals (such as Puff, Mycin variant commonly used
in the Pacific Medical Center in San Francisco, USA)
Already in the 80s, special languages were developed for use with Artificial, such as LISP
or PROLOG Intelligence. It is at this time when more sophisticated expert systems are
developed, such as EURISKO. This program perfects its own body of heuristic rules
automatically, by induction.
We can also highlight the important intervention of Arthur Samuel, who developed a
program playing checkers able to learn from their own experience; Selfridge, who was
studying computer visual recognition.
From this initial group, two major "schools" of IA were formed: Newell and Simon led
the team at the University of Carnegie-Mellon, intending to develop models of human
behavior with apparatus whose structure resembled as possible to the brain (which led
to the position "connectionist" and artificial "neural networks").
McCarthy and Minsky formed another team at the Technological Institute of
Massachusetts (MIT), focusing more on the products the processing can be
characterized as intelligent, without worrying about the performance or structure of the
components are similar to those of humans.
Both approaches, however, pursue the same priority objectives of the A.I .: "understand
human natural intelligence, and use intelligent machines to acquire knowledge and
solve problems considered intellectually challenging".
The history of AI has witnessed cycles of success, unjustified optimism and the
consequent disappearance of enthusiasm and financial support. There have also been
cycles characterized by the introduction of new and creative approaches and
systematically refining the best. For its implications areas such as medicine, psicloga,
biology, ethics and philosophy among others, this branch of knowledge has had to deal
with strong opponents and critics groups since its inception; however, there was always
a group of people interested in the area which allowed its consolidation as an area of
knowledge of great interest for scientific research.
TURING TEST
Turing test (Alan Turing, 1950) attempts to provide a definition of artificial intelligence
that can be assessed. For a being or machine is considered intelligent fool must achieve
an evaluator that this being or machine is a human evaluating all activities of cognitive
type that can make humans.

If dialogue occurs and the number of errors in the given solution approaches the
number of errors occurring in communication with a human being, it can be
estimated - according Turing that this is a "smart" machine.
Today, the work involves programming a computer to pass the test is considerable.
The computer should be capable of the following:
1. Processing natural language: in order to establish successful communication, either
in Spanish, English or any other human language.
2. Representing knowledge: To save all the information that has been given before or
during interrogation. Using Database to both receive questions and then store them.
3. Argue automatically: Use the information saved to answer questions and obtain
new conclusions or making decisions.
4. Self-teaching machine: In order to adapt to new circumstances. Self-learning leads
to self-evaluation.

To pass the full Turing test, it is necessary that the computer is equipped with:
1. View: Ability to perceive the object is in front of you.
2. Robotics: Ability to move the object has been perceived.
APPLICATIONS AND DERIVATIVE ARTIFICIAL
INTELLIGENCE TOOLS
Throughout the history of artificial intelligence are gone developing different tools
and applications among which we mention the following:
Programming Languages: A programming language is an artificial language used to
issue instructions to a computer, and although it is feasible to use any computer
language tools for the production of artificial intelligence; tools have been developed
whose specific purpose is the development of artificial intelligence systems equipped
with.

DEVELOPMENT ENVIRONMENTS
Due to the enormous success they had expert systems in the early 80 's, they began to
emerge developments known as shells. In computing, one Shell is a piece of software
that provides an interface for users.
An expert system has among its members the following two tools:
1. Base conocimientos.- knowledge related to a problem or phenomenon is coded
according to a specific notation that includes rules, predicates, semantic networks and
objects.
2. Inference Engine is the mechanism that combines the facts and particular
questions, using the knowledge base, data and selecting appropriate steps to present
the results
In the environment expert systems, Shell is a tool designed to facilitate their
development and implementation. In other words, a Shell is an "expert system" that
has an empty knowledge base, but accompanied by the necessary tools to provide the
basis of knowledge about the domain of discourse of a specific application. A Shell
also provides the knowledge engineer (responsible for collecting the knowledge base)
of a tool that brings integrated some mechanism for knowledge representation, a
mechanism of inference, elements that facilitate the explanation of the procedure or
decision taken by the expert system ( explanatory) component and even sometimes
provide a user interface.
The use of these development environments, enabling the development of efficient
expert systems even when some programming language is not mastered; reason has
popularized its use for the production of expert systems in all domains of knowledge.
Some development environments for building expert systems independent domain or
shells classics are:
EMYCIN or Essential Mycin: This Shell was built at Stanford University as a result of
the development of expert system MYCIN performing diagnosis of infectious diseases
of the blood. The EMYCIN system was the basis for the construction of many other
experts, such as PUFF (diagnosing lung diseases) and SACON (working with
structural engineering) systems.

OPS5- OPS83: These Shell were developed in C. C is the language that should be
used for insertion of the basic rules and with the use of forward chaining, the
possibility of inserting the rules in a language like C is its main contributions. This
system is based on the proprietary algorithm RETE II. The RETE algorithm is known
to be effective for comparing patterns made with rules and determining which of
them meet their conditions.

ESDE / VM (Expert System Development Environment): This is a trading tool


created by IBM VM and MVS for their operating systems. This tool includes graphical
facilities and access to databases was created for use with mainframes. This tool uses
rules to represent the knowledge of the type and AND THEN IF x z. The main
advantage of this type of representation is its ability to modify and the fact that the
rules are a very similar pattern to the model with which we reason humans or propose
a solution to a problem.
KEE (Knowledge Engineering Environment): This tool IntelliCorp marketing firm
combines the use of object-oriented and use rules as tools of knowledge
representation programming. Because the mixture of techniques, this is known as
Shell a hybrid tool. The type b {ASICO KEE representation is based on frames with
multipadre hierarchies and various mechanisms of inheritance, that transfer attributes
frames through the hierarchy (Kilman, 1992). This tool can also encode knowledge
through LISP. KEE was developed by Common Lisp and uses rules such IF
antecedent THEN consequent.
S1: This tool for the development of rule-based expert systems, provides every facility
for the introduction of knowledge from both the engineer and expert on a certain
domain. This system already includes the use of English language, so that
automatically translates text fragments that are associated with the knowledge base.
This system also shows dynamically alternative lines of reasoning, conclusions and
heuristic rules considered.
EXSYS: Considered long as the leader for the development of expert systems is the
result of over 28 years of improvement and refinement. This tool also has elements
for the production of interactive expert systems on the web. EXSYS uses rules of IF /
THEN type that are resolved by chaining mechanisms or forward to after according to
the problem to be solved. In this system it is likely to possess multiple rules made in
the part of the IF using logical connectors, while only presents THEN part of a
component. In this system the rules are grouped in a tree structure that allows better
management and understanding.
Naturally there is a huge list of tools that have not been discussed, among which
include: MED1, NexPert OBJECT, GURU, HUGIN SYSTEM, ICARUS, among
others.
BIBLIOGRAFA
Herken, R. The Universal Turing Machine. Segunda Edicin.
https://es.wikipedia.org/wiki/Test_de_Turing
http://www.turing.org.uk/turing/Turing.html
Rolston W. D. Principios de Inteligencia Artificial y Sistemas Expertos. Editorial Mc-
Graw Hill.

Вам также может понравиться