Академический Документы
Профессиональный Документы
Культура Документы
ANTECEDENTES
Desde distintos ángulos se ha estudiado el conocimiento humano durante milenios. Tal
vez los diálogos de Platón sean los primeros esfuerzos sistemáticos por analizar esa
maravillosa función de nuestro cerebro que se enuncia tan sencillamente: conocer la
realidad.
Pero después del sencillo enunciado, las preguntas saltan por todas partes: ¿Qué es
conocer? ¿Qué es la realidad? ¿Cómo sabemos que sí conocemos la realidad y no somos
más bien víctimas de una ilusión?
La filosofía, y en particular la epistemología, ha continuado debatiendo estos temas,
que desembocan en la conformación de la actual ciencia cognitiva. Podríamos
describirla como la disciplina que pretende acercarse a esas mismas preguntas sobre el
conocimiento humano elaboradas por la filosofía y la epistemología, con todas las
herramientas que la psicología, la antropología, la lingüística, la neurología y la
informática han ido acumulando durante el último siglo.
Describamos brevemente estas cinco corrientes científicas que están aportando los
materiales para la nueva síntesis cognitiva alrededor de las preguntas filosóficas sobre
el conocimiento.
Tal vez la corriente principal que desemboca en la actual ciencia cognitiva es la de la
psicología. Al empezar a hacerse evidentes las limitaciones del programa del Análisis
Experimental de la Conducta y de la tecnología educativa propuesta por esa escuela,
los psicólogos empezaron a revaluar las líneas de investigación que habían sido
descalificadas como "poco científicas" por los seguidores de Watson y Skinner. La
psicología de la "Gestalt" de Wertheimer, Köhler y Koffka en Alemania y Austria; la
psicología genética de Jean Piaget en Suiza y Francia; la escuela de Vygotsky en la
Unión Soviética, y las propuestas de Jerome Bruner en los Estados Unidos, volvieron a
cobrar actualidad entre los psicólogos que trataban de acercarse al problema del
conocimiento humano.
Tanto en la filosofía como en la psicología empezó a hacerse evidente la necesidad de
analizar con más cuidado el lenguaje; la filosofía analítica, la socio-lingüística y la
psicolingüística empezaron a desarrollarse aceleradamente, a medida que la lingüística
se enriquecía con las contribuciones de Wittgenstein, de Saussure, Bloomfield y Noham
Chomsky. Hoy es pues la lingüística una herramienta indispensable en la ciencia
cognitiva.
Los fracasos de los intentos de extender los resultados de las investigaciones
psicológicas hechas en Suiza, Francia o los Estados Unidos a otras culturas, empezaron
a cuestionar las mediciones psicométricas de los cocientes de inteligencia y de las
etapas de desarrollo del pensamiento formal. La antropología entró de lleno a la
palestra del debate cognitivo, contribuyendo con el análisis de los modos de pensar,
los tipos de saberes, los procesos educativos y las especificidades de la comunicación
de las distintas culturas, y develando las cargas y sesgos culturales de las pruebas de
inteligencia que se creían "objetivas".
La neurología se desarrolló también rápidamente, precisando el alcance y las
limitaciones de las teorías de las localizaciones cerebrales, analizando el
comportamiento de los ganglios neurales de moluscos e insectos, y de los cerebros de
ranas, monos y gatos. Alexander Luria en la Unión Soviética correlacionó
cuidadosamente las lesiones cerebrales con los retrocesos en el desempeño aritmético
de sus pacientes, introduciendo así una especie de microscopio que captaba en reversa
las etapas de la construcción de conocimientos matemáticos. Sin estas y otras muchas
contribuciones de la neurología, sería impensable la ciencia cognitiva actual.
Paralelamente se estaban desarrollando en los Estados Unidos, impulsadas sobre todo
por científicos como Norbert Wiener y John von Neumann, recientemente emigrados
de Europa, la nueva disciplina que posteriormente se llamó "cibernética" y la teoría de
la información, que iniciaron Shannon y Weaver en la década de los cuarenta;
disciplinas que entraron a formar parte de lo que hoy es la informática. Estas
disciplinas empezaron a intentar explicaciones del funcionamiento del cerebro desde
los modelos sugeridos por los progresos en la construcción de computadores, en ese
tiempo llamados significativamente "cerebros electrónicos". Se conforma así el
llamado "hexágono de la ciencia cognitiva" con los aportes de estas seis disciplinas: la
filosofía, la psicología, la antropología, la lingüística, la informática y la neurología.[1]
El aporte inicial específico de la informática a la ciencia cognitiva fue aquello que
Jerome Bruner llamó "una de las más avasalladoras metáforas" de la década de los
cincuenta: la de la computación electrónica como modelo del procesamiento de la
información en el cerebro.
George Miller, el autor del "mágico número siete" como límite superior de los
receptáculos de memoria de trabajo en el cerebro humano, señaló la importancia de la
simulación por computador de los procesos cognitivos humanos como una de las
piezas claves de la ciencia cognitiva.
Muy significativamente, el libro póstumo de John von Neumann se llamó "El
Computador y el Cerebro". Pero él mismo había enunciado esa metáfora desde el
simposio de la Fundación Hixon sobre mecanismos cerebrales en el comportamiento,
celebrado en el Instituto Tecnológico de California "Caltech" en septiembre de 1948;
simposio que se considera como el precursor del desarrollo de la ciencia cognitiva en la
postguerra.
Podríamos decir pues que la metáfora del cerebro como computador lleva casi
cincuenta años de existencia, desde el tiempo en que los primeros computadores
electrónicos con centenares de tubos de vacío hacían pesadamente los cómputos
balísticos para el ejército norteamericano hasta el día de hoy en que un "chip" de
tercera generación, con un volumen de apenas un centímetro cúbico, hace el mismo
trabajo que uno de esos monstruos antediluvianos de la primera generación, con sus
muchos metros cúbicos de volumen, y además lo hace mil veces más rápido.
DESARROLLO DE LA ANALOGÍA
La metáfora del ordenador consiste en considerar la mente como si fuera un
ordenador: un sistema que recibe, almacena y procesa información. Se supone que
todas nuestras actividades mentales son consecuencia de la sucesiva acción de una
serie de reglas (semejantes a las instrucciones de un programa informático) sobre
contenidos informativos (representaciones), contenidos equivalentes a los datos que
procesa el ordenador. La tarea de la psicología sería descubrir las reglas o
procedimientos que en cada caso están a la base de nuestra cognición: la percepción, la
memoria, el razonamiento... En cierto modo como si se buscara el auténtico software
de la mente. Esta metáfora ha sido muy utilizada por la psicología cognitiva como guía
en sus investigaciones sobre la mente y la conducta, y supone una concepción
extremadamente racionalista del psiquismo humano, acercando este enfoque a otras
áreas del conocimiento como la Inteligencia Artificial. [2]
El paradigma cognitivo en psicología se apoya en la llamada 'metáfora del ordenador',
según la cual la mente humana y la computadora son sistemas de procesamiento
funcionalmente equivalentes, siendo ambos ejemplos de una abstracción inventada
por Turing en 1937, la "máquina universal", una máquina que podía pensar como el
hombre, y que podía, por tanto, engañar a un observador.
Impresionados por la apariencia errática y azarosa de la conducta humana, muchos
psicólogos empezaron a buscar desde la década del '50 modelos menos probabilistas y
más deterministas, naciendo así las teorías de la 'competencia' en lingüística
(Chomsky, 1957) y la psicología cognitiva.
La analogía entre mente y ordenador es funcional, no física. Se asemejan en el sofware
(operan con símbolos o representaciones, tienen procesos análogos de codificación,
almacenamiento, organización de los datos, etc.) pero no en el hardware (neuronas vs.
circuitos integrados). No obstante, la metáfora del ordenador fue muy fértil: sirvió
como fuente de hipótesis, herramientas conceptuales y notaciones útiles, y permitió
superar el impasse del asociacionismo.
Aunque los investigadores cognitivos sean concientes de ese sesgo, como lo fue en su
tiempo Piaget respecto a la psicología genética, no deja de ser preocupante el olvido
de los factores afectivos que incentivan o impiden el progreso en el conocimiento. La
fobia hacia las matemáticas, que tan bien describió Seymour Papert y bautizó con el
nombre de "matofobia", es tal vez el factor preponderante en el bajo rendimiento en
matemáticas en niños y adolescentes.
La metáfora del cerebro como computador privilegia lo intelectual sobre lo psico-
motriz.
INTELIGENCIA ARTIFICIAL
La psicología cognitiva ha adoptado la metáfora del ordenador para pensar sobre la
mente. La mente procesa la información, la codifica, la almacena y la recupera como un
ordenador. Nuestro cerebro es el hardware sobre el que corren programas que nos
permiten hablar, ver o pensar (el software). La Inteligencia Artificial adopta la imagen
especular y, en su versión fuerte, no de manera metafórica sino literal: Un ordenador
es una mente. Los circuitos son distintos a los del cerebro y los programas con
frecuencia también, aunque produzcan resultados semejantes a la conducta humana;
pero cuando estos se ejecutan, la máquina piensa, igual que la mente cuando procesa
la información.
¿Qué es la inteligencia artificial?
Desarrollo y utilización de ordenadores con los que se intenta reproducir los procesos
de la inteligencia humana. Como ya existe una gran dificultad en definir la inteligencia,
es de imaginar que también existirán dificultades en definir la Inteligencia Artificial.
Muchas son también las definiciones que se han planteado a lo largo de la evolución de
esta área del conocimiento.
IA es la ciencia de hacer con que las máquinas realicen tareas que requieren de
inteligencia si son realizadas por los seres humanos. También se puede considerar
como el estudio de técnicas que permiten a los computadores realizar tareas, que
hasta ahora, los seres humanos realizan mejor. Otra definición puede ser que la IA es el
campo de estudio, en las Ciencias de la Computación, cuyo objetivo es hacer que los
computadores razonen de manera similar a los seres Humanos.
El término Inteligencia Artificial fue propuesto por John McCarthy en 1956: La IA es la
ciencia y la ingeniería de hacer máquinas inteligentes, pero especialmente de hacer
programas inteligentes. Está relacionado también con el uso de máquinas para mejorar
la comprensión de la inteligencia humana. Sin embargo, la IA no tiene que limitarse
únicamente a métodos observables biológicamente. De esta forma, la IA es un campo
inherentemente multidisciplinar. A pesar de que comúnmente es vista como una sub-
área de la ciencia de la computación y trabaja con algoritmos, bases de datos, etc. la IA
tiene una fuerte conexión con la neurociencia, las ciencias cognitivas, la matemática y
la ingeniería, por nombrar algunas áreas.
Otra forma de definir la IA es definirla como una herramienta computacional que tiene
la capacidad de procesar conocimientos (datos ® informaciones ® conocimientos) y
que será utilizada en el curso de la asignatura.[3]
Por ahora, es suficientemente claro que el objetivo de la IA es el de entender la
naturaleza de la inteligencia a través del diseño de sistemas computacionales que la
exhiban. En forma más concreta, puede afirmarse que, en lo que ha transcurrido de su
corta historia, la IA ha estado dirigida por tres objetivos generales:
1. El análisis teórico de las posibles explicaciones del comportamiento inteligente
2. La explicación de habilidades mentales humanas
3. La construcción de artefactos (computadoras) inteligentes
Con estos propósitos en su agenda de investigación, los estudiosos de la IA han
recurrido al uso de cuatro diferentes estrategias metodológicas:
La simulación: que se hace en IA ha intentado reproducir algunas de las características
inteligentes de los seres humanos. Estas reproducciones han buscado abiertamente la
similitud entre una computadora y los seres humanos. La elaboración de simulaciones
ha sugerido la posibilidad de explorar los procesos cognoscitivos humanos, sin
embargo los esfuerzos en esta línea, a diferencia del modelamiento, han estado
dedicados a producir comportamiento humano inteligente en las computadoras más
que a entenderlo o explicarlo.
El modelamiento: por otra parte, tiene como objeto la utilización de los sistemas de IA
para entender a la inteligencia humana. Ha sido tradicionalmente utilizado por
psicólogos y no tiene como requisito necesario el uso de computadoras, De hecho,
muchas de las teorías sobre cognición han utilizado modelos en computadoras sin
hacer referencia a ellas, por ejemplo, la teoría sobre memoria semántica o sobre
representación mental.
El trabajo teórico en IA: ha abierto por primera vez la posibilidad de teorizar sobre la
inteligencia sin hacer necesariamente referencia a la inteligencia humana. Es decir, se
ha propuesto la formulación de una teoría de la inteligencia "pura". [4]
REFERENCIAS:
(s.f.). Obtenido de http://psidesarrollo2equipo16.wikispaces.com/TEMA+3.
Elguea, J. (s.f.). Inteligencia artificial y psicología: la concepción contemporánea de la
mente humana. Obtenido de www.biblioteca.itam.mx:
http:///estudios/estudio/estudio10/sec_13.html
Saldías, M. C. (7 de abril de 2006). Apunte de Inteligencia Artificial. Recuperado el
Agosto de 2012
Vasco, C. E. (1993). LA METÁFORA DEL CEREBRO COMO COMPUTADOR EN LA CIENCIA
COGNITIVA. Informática Educativa, Vol. 6 Nº 2 , 1-2.