Вы находитесь на странице: 1из 24

Fundamentos

filosficos
En este captulo examinamos lo que signica pensary si los artefactos podran
y deberan alguna vez llegar a hacerlo.

HIPTESIS
DE LA IA DBIL

HIPTESIS
DE LA IA FUERTE

26.1

Como se mencion en el Captulo 1, los filsofos existan mucho antes que los compu
tadores y llevaban tiempo intentando solucionar algunas cuestiones relacionadas con la
IA: cmo trabaja la mente? Es posible que las mquinas acten de forma inteligente,
igual que las personas? Y si as fuera, tendran mentes? Cules son las implicaciones
ticas de las mquinas inteligentes? A lo largo de los primeros 25 captulos de este li
bro, hemos estudiado cuestiones de IA en s misma, pero en este capitulo estudiaremos
la agenda del filsofo.
En primer lugar, observemos la terminologa: los filsofos definen la U ples de
la IA dbil como la afirmacin de que es posible que las mquinas acten con inteli
gencia (o quiz mejor, como si fueran inteligentes); de la misma manera, la U ples
de la IA fuerte consiste en la afirmacin de que las mquinas s piensan realmente (opues
to al pensamiento simulado).
La mayora de los investigadores de IA dan por sentado la hiptesis de la IA dbil,
y no se preocupan por la hiptesis de la IA fuerte, con tal de que funcione su programa
no les interesa si se llama simulacin de inteligencia o inteligencia real. Sin embargo,
todos deberan preocuparse por las implicaciones ticas de su trabajo.

IA dbil: pueden las m quinas actuar


con inteligencia?
Algunos filsofos han intentado demostrar que la IA es imposible; que las mquinas no
tendrn la posibilidad de actuar inteligentemente. Algunos han utilizado argumentos que
tratan de dar el alto a la investigacin en IA:

www.FreeLibros.me

1076

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO


La Inteligencia A rtificial abordada d esd e dentro d e l c u lto a l com putacionalism o no ten
dr ni siquiera un atisbo de fantasm a de posibilidad de producir resultados duraderos...
Es hora de desviar los esfuerzos de los investigadores en IA, y la gran cantidad de dine
ro disponible para su soporte, y dirigirse a cam inos distintos del enfoque com putacional (Sayre, 1993).

PUEDEN PENSAR
LAS MQUINAS?

Obviamente, si la IA es imposible o no lo es, depender de cmo se defina. En esencia,


la IA consiste en la bsqueda del mejor programa agente en una arquitectura dada. Con
esta formulacin, la IA es posible por definicin: para cualquier arquitectura digital de
k bits de almacenamiento existirn exactamente 2k programas agente y todo lo que ha
br que hacer para encontrar el mejor es enumerarlos y probar todos ellos. Esto podra
no ser viable para una k grande, pero los filsofos abordan ms la teora que la prctica.
Nuestra definicin de IA funciona bien para el problema de encontrar un buen agen
te, dependiendo de la arquitectura. Por tanto, nos sentimos tentados a acabar esta sec
cin aqu mismo, respondiendo afirmativamente a la pregunta formulada en el ttulo. Sin
embargo, los filsofos estn interesados en el problema de comparar dos arquitecturas,
la humana y la de la mquina. Adems, ellos por tradicin han formulado la pregunta
de la siguiente manera: P u e d a pensar las mquinas? Desgraciadamente, esta
cuestin no est bien definida Para ver por qu, consideremos las dos cuestiones si
guientes:
Pueden volar las mquinas?
Pueden nadar las mquinas?
La mayora de las personas estn de acuerdo en que la respuesta a la primera cuestin
es s, que los aviones pueden volar, pero la respuesta a la segunda es no; los barcos y los
submarinos se mueven por el agua, pero eso no es nadar. Sin embargo, ni las preguntas
ni sus respuestas afectan en absoluto a las vidas laborales de los ingenieros aeronuti
cos ni navales, ni a las de los usuarios de sus productos. Las respuestas no tienen mu
cho que ver con el diseo o con las caractersticas de los aviones o de los submarinos,
y sin embargo s tienen que ver mucho ms con la forma en que se han elegido utilizar
las palabras. La palabra nadar (swim en ingls) ha llegado a tener el significado de
moverse por el agua mediante el movimiento de las partes del cuerpo, mientras que
la palabra fly (volar) no tiene dicha limitacin en un medio de locomocin1. La posi
bilidad prctica de las mquinas pensantes lleva viviendo con nosotros durante slo
50 aos o as, tiempo insuficiente para que los angloparlantes se decidan a dar un sig
nificado a la palabra pensar.
Alan Turing, en su famoso artculo Computing Machinery and Intelligence (Tu
ring, 1950), sugiri que en vez de preguntar si las mquinas pueden pensar, deberamos
preguntar si las mquinas pueden aprobar un test de inteligencia conductiva (de com
portamiento), conocido como el Test de Turing. La prueba se realiza para que el programa
mantenga una conversacin durante cinco minutos (mediante mensajes escritos en lnea,
online) con un interrogador (interlocutor). ste tiene que averiguar si la conversacin se
est llevando a cabo con un programa o con una persona; si el programa engaa al
interlocutor un 30 por ciento del tiempo, este pasar la prueba. Turing conjetur que, hacia
1 En ruso, el equivalente de nadar s se aplica a los barcos.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1077

el ao 2000, un computador con un almacenamiento de 109unidades podra llegar a pro


gramarse lo suficientemente bien como para pasar esta prueba, pero no estaba en lo cier
to. Algunas personas As/?sido engaadas durante cinco minutos; por ejemplo, el programa
E i j z a y el chatbot en Internet llamado M g o n z han engaado a personas ignorantes que
no se daban cuenta de que estaban hablando con un programa; el programa A l i c e en
ga a un juez en la competicin del Loebner Prize en el ao 2001. Sin embargo, nin
gn programa se ha acercado al criterio del 30 por ciento fente a jueces con conocimiento,
y el campo en su conjunto de la IA no ha prestado mucha atencin a los tests de Turing.
Turing tambin examin una gran gama de posibles objeciones ante la posibilidad
de las mquinas inteligentes, incluyendo virtualmente aquellas que han aparecido me
dio siglo despus de que apareciera este artculo. Examinaremos algunas de ellas.

El argumento de incapacidad
El argumento de incapacidad afirma que una mquina nunca puede hacer X. Como
ejemplos de X, Turing enumera las siguientes acciones:
Ser amable, tener recursos, ser guapo, simptico, tener iniciativas, tener sentido del
humor, distinguir lo correcto de lo errneo, cometer errores, enamorarse, disfrutar con
las fresas con nata, hacer que otra persona tambinse enamore, aprender de la experiencia,
utilizar palabras de forma adecuada, ser el tema de su propio pensamiento, tener tanta
diversidad de comportamientos como el hombre, hacer algo realmente nuevo.
Turing tuvo que utilizar su intuicin para adivinar aquello que en un futuro sera posi
ble, pero nosotros tenemos el privilegio de poder mirar hacia atrs y ver qu es lo que
ya pueden hacer los computadores. Es innegable que los computadores actualmente ha
cen muchas cosas que anteriormente eran slo del dominio humano. Los programas jue
gan a la ajedrez, a las damas y a otros juegos, inspeccionan piezas de las lneas de
produccin, comprueban la ortografa en los documentos de los procesadores de texto,
conducen coches y helicpteros, diagnostican enfermedades, y hacen otros cientos de
tareas tan bien o mejor que los hombres. Los computadores han hecho pequeos pero
significativos descubrimientos, en Astronoma, Matemticas, Qumica, Mineraloga,
Biologa, Informtica y otros campos que necesitan rendimiento a nivel de experto.
Debido a lo que conocemos actualmente acerca de los computadores, no es sor
prendente que sean tambin buenas en problemas combinatorios tales como los del jue
go del ajedrez. Sin embargo, los algoritmos tambin funcionan a nivel humano en tareas
que aparentemente se relacionan con el juicio humano, o como apunta Turing, apren
der a partir de la experiencia y la capacidad de distinguir lo que es correcto de lo in
correcto. Ya en el ao 1955, Paul Meehl (vase tambin Grove y Meehl, 1996) estudi
los procesos de la toma de decisiones de expertos formados en tareas subjetivas como
predecir el xito de un alumno en un programa de formacin, o la reincidencia de un de
lincuente. De 20 estudios que Meehl examin, en 19 de ellos encontr que sencillos al
goritmos de aprendizaje estadstico (tal como la regresin lineal y Bayes simple) predicen
mejor que los expertos. Desde el ao 1999, el Educational Testing Service (Servicio de
Exmenes Educativo) ha utilizado un programa automatizado para calificar millones de

www.FreeLibros.me

1078

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

preguntas de redacciones en el examen GMAT. Este programa concuerda con los exa
minadores en un 97 por ciento, aproximadamente al mismo nivel de concordancia en
tre dos personas (Burstein etal., 2001).
Es evidente que los computadores pueden hacer muchas cosas tan bien o mejor que
el ser humano, incluso cosas que las personas creen que requieren mucha intuicin y en
tendimiento humano. Por supuesto, esto no significa que los computadores utilicen la
intuicin y el entendimiento para realizar estas tareas, las cuales no forman parte del
comportamiento, y afrontamos dichas cuestiones en otro sitio, sino que la cuestin es
que la primera conjetura sobre los procesos mentales que se requieren para producir un
comportamiento dado suele ser equivocada. Tambin es cierto, desde luego, que exis
ten todava muchas tareas en donde los computadores no sobresalen (por no decirlo ms
bruscamente), incluida la tarea de Turing de mantener una conversacin abierta.

La objecin m atem tica


Es bien conocido, a travs de los trabajos de Turing (1936) y Godel (1931), que ciertas
cuestiones matemticas, en principio, no pueden ser respondidas por sistemas formales
concretos. El teorema de la incompletitud de Godel (vase el Apartado 9.5) es el ejem
plo ms conocido en este respecto. En resumen, para cualquier sistema axiomtico for
mal Alo suficientemente potente como para hacer aritmtica, es posible construir una
sentencia Godel G(F) con las propiedades siguientes:
(F) es una sentencia de F, pero no se puede probar dentro de F.
Si Fes consistente, entonces G(F) es verdadero.
Filsofos como J. R. Lucas (1961) han afirmado que este teorema demuestra que las m
quinas son mentalmente inferiores a los hombres, porque las mquinas son sistemas for
males limitados por el teorema de la incompletitud, es decir no pueden establecer la
verdad de su propia sentencia Godel, mientras que los hombres no tienen dicha limita
cin. Esta afirmacin ha provocado mucha controversia durante dcadas, generando mu
chos libros entre los que se incluyen dos libros del matemtico Sir Roger Penrose (1989,
1994) quien repite esta afirmacin con nuevos giros (como por ejemplo, la hiptesis de
que los hombres son diferentes porque sus cerebros operan por la gravedad cuntica).
Examinemos solamente tres de los problemas de esta afirmacin.
En primer lugar, el teorema de la incompletitud de Godel se aplica slo a sistemas
formales que son lo suficientemente potentes como para realizar aritmtica. Aqu se in
cluyen las mquinas Turing, y la afirmacin de Lucas en parte se basa en la afirmacin
de que los computadores son mquinas de Turing. Esta es una buena aproximacin, pero
no es del todo verdadera. Aunque los computadores son finitos, las mquinas de Turing
son infinitas, y cualquier computador por tanto se puede describir como un sistema (muy
grande) en la lgica proposicional, la cual no est sujeta al teorema de incompletitud de
Godel.
En segundo lugar, un agente no debera avergonzarse de no poder establecer la ver
dad de una sentencia aunque otros agentes s puedan. Consideremos la sentencia siguiente
J. R. Lucas no puede consecuentemente afirmar que esta sentencia es verdadera.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1079

Si Lucas afirmara esta sentencia, entonces se estara contradiciendo a s mismo, por tan
to Lucas no puede afirmarla consistentemente, y de aqu que esta sentencia sea verda
dera. (La sentencia no puede ser falsa, porque si lo fuera Lucas entonces no podra
afirmarla consecuentemente, por tanto sera verdadera.) As pues, hemos demostrado que
existe una sentencia que Lucas no puede afirmar consecuentemente mientras que otras
personas (y mquinas) s pueden. Sin embargo, esto no hace que cambiemos de idea res
pecto a Lucas. Por dar otro ejemplo, ninguna persona podra calcular la suma de 10 bi
llones de nmeros de 10 dgitos en su vida, en cambio un computador podra hacerlo en
segundos. Sin embargo, no vemos esto como una limitacin fundamental en la habili
dad de pensar del hombre. Durante miles de aos los hombres se han comportado de for
ma inteligente antes de que se inventaran las mquinas, de manera que no es improbable
que el razonamiento matemtico no tenga ms que una funcin secundaria en lo que im
plica ser inteligente.
En tercer lugar, y de manera mucho ms importante, aunque reconozcamos que los
computadores tienen limitaciones sobre lo que pueden demostrar, no existen evidencias
de que los hombres sean inmunes ante esas limitaciones. Es realmente sencillo demos
trar con rigor que un sistema formal no puede hacer X, y afirmar entonces que los hom
bres pueden hacer X utilizando sus propios mtodos informales, sin dar ninguna evidencia
de esta afirmacin. En efecto, es imposible demostrar que los hombres no estn sujetos
al teorema de incompletitud de Godel, porque cualquier prueba rigurosa contendra una
formalizacin del talento humano declarado como no formalizable. De manera que nos
quedamos con el llamamiento a la intuicin de que los hombres, de alguna forma, pue
den realizar hazaas superhumanas de comprensin matemtica. Esta atraccin se ex
presa con argumentos como debemos asumir nuestra propia consistencia, si el
pensamiento puede ser posible (Lucas, 1976). Sin embargo ciertamente se sabe que los
hombres son inconsistentes. Esto es absolutamente verdadero para el razonamiento dia
rio, pero tambin es verdadero para un pensamiento matemtico cuidadoso. Un ejem
plo muy conocido es el problema del mapa de cuatro colores. En 1879, Alfred Kempe
public una prueba que tuvo una gran acogida y contribuy a que le eligieran Fellow de
Royal Society. Sin embargo, en 1890, Percy Heawood apunt que exista un error y el
teorema qued sin demostrar hasta el ao 1977.

El argumento de la informalidad
Una de las crticas ms persistentes e influyentes de la LA como empresa la realiz Tu
ring mediante su argumento de la informalidad del comportamiento. En esencia, esta
afirmacin consiste en que el comportamiento humano es demasiado complejo para po
der captarse mediante un simple juego de reglas y que debido a que los computadores
no pueden nada ms que seguir un conjunto (juego) de reglas, no pueden generar un com
portamiento tan inteligente como el de los hombres. En IA la incapacidad de capturar
lo todo en un conjunto de reglas lgicas se denomina rob lon a de coalificackin (vase
CaptulolO).
El filsofo que ha propuesto principalmente este punto de vista ha sido Hubert
Dreyfus, quien elabor una serie de crticas influyentes a la Inteligencia Artificial: Qu

www.FreeLibros.me

1080

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

es lo que no pueden hacerlos computadores? (1972), Qu es lo no pueden hacer to


dava los computadores? (1992). Junto con su hermano elabor tambin Mind Over Ma
chine (1986).
La postura que critican se vino a llamar Good Old-Fashioned AI (IA muy anti
cuada), g o f a i , trmino que empez a utilizar Haugeland (1985). Se supone que este tr
mino afirma que todo comportamiento inteligente puede ser capturado por un sistema
que razona lgicamente a partir de un conjunto de hechos y reglas, los cuales describen
el dominio. Por tanto, se corresponde con el agente lgico ms simple que se describi
en el Captulo7. Dreyfus est en lo cierto cuando dice que los agentes son vulnerables
al problema de la cualificacin. Como se vio en el Captulo 13, los sistemas de razona
miento probabilstico son ms adecuados para dominios abiertos. La crtica de Dreyfus
por lo tanto no va en contra de los computadores per se, sino en contra de una forma en
particular de programarlos. Sin embargo, sera razonable suponer que un libro llamado

Lo que no pueden hacerlos sistemas lgicos de primer orden basados en reglas sin apren
der podra haber tenido menos impacto.
Bajo el punto de vista de Dreyfus, la pericia del hombre incluye el conocimiento
de algunas reglas, pero solamente como un contexto holstico o conocimiento base
(background) dentro del que operan los hombres. Proporciona como ejemplo el com
portamiento social adecuado al dar o recibir regalos: Normalmente se responde sim
plemente en las circunstancias adecuadas y dando el regalo adecuado. Al parecer hay
que tener un sentido directo de cmo hay que hacer las cosas y qu esperar. Esta mis
ma afirmacin se realiza en el contexto del juego del ajedrez: Un maestro de ajedrez
tendra que averiguar simplemente qu hacer, pero un buen maestro simplemente
observa el tablero como exigiendo un cierto movimiento... y obtiene la respuesta
apropiada rpidamente en su cabeza. Es cierto que gran parte de los procesos del pen
samiento de una persona que da un regalo o de un gran maestro en ajedrez se llevan a
cabo a un nivel que no est abierto a la introspeccin por la mente consciente. Sin
embargo, esto no significa que no existan los procesos de pensamiento. Una cuestin
importante que Dreyfus no responde es cmo aparece el movimiento de ajedrez
adecuado en la cabeza del gran maestro. Esto nos lleva a pensar en un comentario de
Dennett (1984):
Es como si los filsofos se fueran a proclamar expertos en explicar los mtodos de los
magos en el escenario, y entonces cuando preguntamos cmo hace el truco del serrucho
para partir en dos a una mujer, ellos dan la explicacin de que es totalmente evidente: el
mago no parte en dos a la mujer con la sierra, simplemente parece que lo hace. Pero,
Cmo lo hace?, y los filsofos responden No es de nuestra incumbencia.
Dreyfus y Dreyfus (1986) proponen un proceso de adquisicin de pericia en cinco eta
pas, comenzando con un procesamiento basado en reglas (del tipo propuesto en g o f a i )
y terminando con la habilidad de seleccionar las respuestas correctas instantneamen
te. Al realizar esta propuesta, Dreyfus y Dreyfus pasan en efecto de ser crticos a la IA
a ser tericos de IA, ya que proponen una arquitectura de redes neurales (neuronales)
organizadas en una biblioteca de casos extensa, pero sealan algunos problemas. Afor
tunadamente, se han abordado todos sus problemas, algunos con xito parcial y otros
con xito total. Entre estos problemas se incluyen los siguientes:

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1061

1.

No se puede lograr una generalizacin buena de ejemplos sin un conocimiento


bsico. Afirman que no se sabe cmo incorporar el conocimiento bsico en el
proceso de aprendizaje de las redes neuronales. De hecho, en el Captulo 19
vimos que existen tcnicas para utilizar el conocimiento anterior en los algorit
mos de aprendizaje. Sin embargo, esas tcnicas dependen de la disponibilidad
previa de conocimiento de forma explcita en los algoritmos de aprendizaje, algo
que Dreyfus y Dreyfus niegan vigorosamente. Bajo nuestro punto de vista, esta
es una buena razn para realizar un rediseo serio de los modelos actuales del
procesamiento neuronal de forma que puedan sacar provecho del conocimien
to aprendido anteriormente como lo hacen otros algoritmos de aprendizaje.
2. El aprendizaje de redes neuronales es una forma de aprendizaje supervisado
(vase Captulo 18), que requiere la identificacin anterior de las entradas rele
vantes y las salidas correctas. Por tanto, afirman que no puede funcionar aut
nomamente sin la ayuda de un entrenador humano. De hecho, el aprendizaje sin
un profesor se puede conseguir mediante un ^roidizajenosiqia'visado (Ca
ptulo 20) y un ^ ro id izajed erefiiazo (Captulo 21).
3. Los algoritmos de aprendizaje no funcionan bien con muchas funciones, si
seleccionamos un subgrupo de stas, no existe una forma conocida de aadir
funciones nuevas, si el conjunto actual demuestra ser inadecuado para tener en
cuenta los hechos aprendidos. De hecho, mtodos nuevos tales como las m
quinas vectoriales de soporte utilizan muy bien conjuntos grandes de funciones.
Como vimos en el Captulo 19, tambin existen formas importantes de generar
funciones nuevas, aunque requiera ms trabajo.
4. El cerebro es capaz de dirigir sus sensores para buscar la informacin relevante
y procesarla para extraer aspectos relevantes para la situacin actual. Sin embargo,
afirman que Actualmente, los detalles de este mecanismo ni se entienden y ni
siquiera se hipotetizan para guiar la investigacin en la IA. De hecho, el cam
po de la visin activa, respaldado por la teora del valor de la informacin
(Captulo 16) tiene que ver exactamente con el problema de dirigir los senso
res, y algunos robots ya han incorporado los resultados tericos obtenidos.
En resumen, muchos de los temas que ha tratado Dreyfus, el conocimiento del sentido
comn bsico, el problema de la cuahficacin, la incertidumbre, aprendizaje, formas com
piladas de la toma de decisiones, la importancia de considerar agentes situados y no mo
tores de interferencia incorpreos, por ahora se han incorporado en el diseo estndar
de agentes inteligentes. Bajo nuestro punto de vista, esta es una evidencia del progreso
de la IA, y no de su imposibilidad.

26.2

IA fuerte: pueden las m quinas pensar


de verdad?
Muchos filsofos han afirmado que una mquina que pasa el Test de Turing no quiere
decir que est realmente pensando, sera solamente una simulacin de la accin de

www.FreeLibros.me

1082

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

pensar. De nuevo esta objecin fue prevista por Turing, y cita unas palabras del Profe
sor Geoffrey Jefferson (1949):
Hasta que una mquina pueda escribir un soneto o componer un concierto porque sien
ta los pensamientos y las emociones, y no porque haya una lluvia de sm bolos, podra
reconocer que la mquina iguala al cerebro, es decir, no slo escribirlo sino que sepa que
lo ha hecho.

CONVENCIAN
EDUCADA

Esto es lo que Turing llama el argumento de la a n srio iria, la mquina tiene que ser
consciente de sus propias acciones y estados mentales. Aunque la consciencia sea un tema
importante, el punto de vista clave de Jefferson se relaciona realmente con la fam nenolag^a, o el estudio de la experiencia directa, es decir, la mquina tiene que sentir emo
ciones realmente. Otros se centran en la toicknalidad, esto es, en la cuestin de si
las creencias, deseos y otras representaciones supuestas de la mquina son de verdad algo
que pertenece al mundo real.
La respuesta de Turing a esta objecin es interesante. Podra haber presentado
razones para demostrar que las mquinas pueden de hecho ser conscientes (o tener fe
nomenologa, o tener intenciones). En cambio, Turing mantiene que la cuestin no est
bien definida al decir, Pueden pensar las mquinas? Adems, por qu deberamos
insistir en un estndar ms alto para las mquinas que el usado para los humanos. Des
pus de todo, en la vida ordinaria no tenemos nunca una evidencia directa sobre los
estados mentales internos de otras personas. No obstante, Turing dice que En vez de
argumentar constantemente sobre este punto de vista, es usual mantener la convoidn
educada de que todos pensamos.
Turing argumenta que Jefferson estara dispuesto a ampliar la convencin educada
a las maquinas si al menos tuviera experiencia con las que actan de forma inteligente,
y cita el dilogo siguiente el cual ha llegado a formar una parte muy significativa de la
tradicin oral de la IA y que debemos incluir:
hombre : En

la primera lnea de tu soneto que dice te comparar con un da de verano,


no sera mejor decir un da de primavera?
mquina : N o rimara.
hombre : Y qu tal un da de invierno. Este s qu rimara bien.
Mquina : S , pero nadie quiere una comparacin con un da de invierno.
hombre : Podras decir que Mr. Pickwick te recuerda a las navidades?
mquina : En cierto modo, s.
hombre : Sin embargo, las navidades representan un da de invierno, y no creo que a Mr.
Pickwick le importara la comparacin.
mquina : N o, creo que ests hablando en serio. Por un da de invierno se entiende un t
pico da de invierno, y no un da especial de Navidad.

Turing reconoce que la cuestin de la conciencia (consciencia) es difcil, pero niega que
sea relevante para la prctica de la IA: No quiero dar la impresin de que pienso que
no hay misterio en torno a la conciencia... Sin embargo no creo que estos misterios ten
gan necesariamente que resolverse antes de la respuesta a la cuestin que estamos tra
tando en este trabajo. Coincidimos con Turing en que nos interesa crear programas que
se comporten de forma inteligente y no en si alguien los declara reales o simulados. Por
otro lado, muchos filsofos estn especialmente interesados en esta cuestin. Como

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1063

ayuda para entenderlo tendremos en cuenta la cuestin de si otros artefactos se consi


deran reales.
En 1848, Frederick Whler sintetiz urea artificial por primera vez. Este fue un hecho
importante porque prob que la qumica orgnica y la inorgnica se podan unir, cues
tin discutida muy fuertemente. Una vez que se consigui la sntesis, los qumicos re
conocieron que la urea artificial era urea, porque tena todas las propiedades fsicas
adecuadas. Igualmente, los edulcorantes artificiales son innegablemente edulcorantes,
y la inseminacin artificial (la otra IA) es innegablemente inseminacin. Por otro lado,
las flores artificiales no son flores, y Daniel Dennett seala que el vino artificial Chateau Latour no sera vino Chateau Latour, aunque no se pudiera distinguir qumicamente,
simplemente porque no se fabric en el lugar adecuado ni de la forma adecuada. Ni
tampoco un Picasso artificial sera un Picasso, independientemente del aspecto que ten
ga el cuadro.
Podemos concluir diciendo que en algunos casos el comportamiento de un artefac
to es importante, aunque en otros sea el pedigr del artefacto lo que importa. Lo impor
tante en cada caso parece ser una cuestin de convencin. Sin embargo para las mentes
artificiales, no existe una convencin, y tenemos que depender de las intuiciones. El
filsofo John Searle (1980) tiene una convencin muy fuerte:
Nadie piensa que la simulacin por computador de una tormenta nos va a mojar... Y, cual
es la razn de que cualquier persona en su sanojuicio suponga que la simulacin por com
putador de los procesos mentales tendran realmente procesos mentales? (pp. 37-38.)

FUNCIONALISMO

NATURALISMO
BIOLGICO

Aunque sea fcil reconocer que las simulaciones por computador de las tormentas no
nos van a mojar, no est daro cmo aplicar esta analoga a las simulaciones por com
putador de los procesos mentales. Despus de todo, la simulacin de una tormenta en
Hollywood utilizando aspersores y mquinas de viento s/que moja a los actores. La ma
yora de las personas se sienten cmodas diciendo que la simuladn por computador de
la suma es la suma, y la de un juego de ajedrez un juego de ajedrez. Son los procesos
mentales parecidos a las tormentas, o son ms parecidos a la suma o al ajedrez, o se pa
recen al Chateau Latour y al Picasso..., o a la urea? Todo depende de la teora de los es
tados y los procesos mentales.
La teora del funrionaSanodice que un estado mental es cualquier condicin causal
inmediata entre la entrada y la salida. Bajo la teora funcionalista, dos sistemas con
procesos causales isomrficos tendran los mismos estados mentales. Por tanto, un
programa informtico podra tener los mismos estados mentales que una persona. Desde
luego, todava no hemos dicho lo que significa realmente isomrficos, pero la supo
sicin es que existe algn nivel de abstraccin por debajo del cual no importa una
implementacin especfica; siempre que los procesos sean isomrficos hasta este nivel,
tendrn lugar los mismos estados mentales.
En contraste, la teora del naturafiano biolgico dice que los estados mentales son
caractersticas emergentes de alto nivel originadas por procesos neurolgicos de bajo
nivel en las neuronas, y lo que importa son las propiedades (no especificadas) de las
neuronas. As pues, los estados mentales no se pueden duplicar justo en la base de algn
programa que tiene la misma estructura funcional con el mismo comportamiento de en
trada y salida; necesitaramos que el programa se ejecutara en una arquitectura con la

www.FreeLibros.me

1084

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

misma potencia causal que las neuronas. La teora no dice por qu las neuronas tienen
esta potencia causal, ni tampoco qu otras instanciaciones fsicas podran tenerla o no.
Para investigar estos dos puntos de vista examinaremos uno de los problemas ms
antiguos de la filosofa de la mente, y retomaremos tres experimentos pensados.

El problema de m ente-cuerpo
PROBLEMA M EN TECUERPO

DUALISTA

MONISTA

MATERIALISMO

El probtaiia m e n te - c ip o cuestiona cmo se relacionan los estados y los procesos men


tales con los estados y los procesos (especficamente del cerebro) del cuerpo. Como si
no fuera bastante difcil, vamos a generalizar el problema como un problema de ar
quitectura-mente, para que nos permita hablar sobre la posibilidad de que las mqui
nas tengan mentes.
Por qu es un problema el problema mente-cuerpo? Para la primera dificultad nos
remontaremos a Ren Descartes, quien abord el tema de cmo un alma inmortal interacta con un cuerpo mortal, y concluy diciendo que el alma y el cuerpo son dos tipos
de cosas diferentes, una teora fkiaEsta La teora mnrista, frecuentemente llamada materiafismo, mantiene que no existen cosas tales como almas inmateriales, sino slo ob
jetos materiales. Como consecuencia, los estados mentales, tales como sentir dolor,
saber que alguien est montando a caballo, o creer que la capital de Austria es Viena,
son estados del cerebro. John Searle, de forma concisa, resume esta idea con el slogan,

Los cerebros producen las mentes.


LIBERTAD
DE ELECCIN

CONCIENCIA

El materialista se debe enfrentar por lo menos con dos obstculos serios. El primer
problema es el de la Ebo-tad de eleccin: Cmo puede ser que una mente puramente
fsica, cuyas transformaciones estn regidas por las leyes de la fsica, conserve todava
el libre albedro? La mayora de los filsofos consideran que este problema necesita una
reconstitucin cuidadosa de nuestra nocin ingenua de libertad de eleccin, en vez de
presentar una amenaza para el materialismo. El segundo problema tiene que ver con el
tema general de la co n d o n a (y cuestiones de o ie id m c n to y de autoconom orfo
relacionadas, aunque no idnticas). Para simplificar, por qu se siente algo cuando se tie
nen ciertos estados cerebrales, mientras que probablemente no se siente nada al tener otros
estados fsicos (por ejemplo, al ser una roca).
Para empezar a responder estas cuestiones, necesitamos formas de hablar sobre los
estados del cerebro a niveles ms abstractos que las configuraciones especficas de to
dos los tomos del cerebro de una persona en particular en un momento concreto. Por
ejemplo, cuando pienso en la capital de Austria, mi cerebro sufre miradas de cambios
diminutos de un picosegundo al otro, pero estos no constituyen un cambio cualitativo
en el estado del cerebro. Para tenerlo en cuenta, necesitamos una nocin de tipos de es
tados del cerebro bajo la cual podamos juzgar si dos estados del cerebro pertenecen al
mismo tipo o a un tipo diferente. Existen diferentes opiniones sobre lo que quiere decir
tipo en este caso. Casi todo el mundo cree que si tomamos un cerebro y sustituimos los
tomos de carbono por un nuevo conjunto de tomos de carbono2, el estado mental no
2 Quizs incluso los tomos de un istopo de carbn diferente, como se hace algunas veces en los experi
mentos de exploracin cerebral.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

ESTADOS
INTENCIONALES

1085

se ver afectado. Esto es bueno porque los cerebros reales estn sustituyendo continua
mente sus tomos mediante procesos metablicos, y sin embargo esto en s no parece
causar perturbaciones mentales importantes.
Ahora vamos a examinar una clase en particular de estado mental: las actitudes
[ropasicionales (tratadas por primera vez en el Captulo 10), conocidas tambin como
estados tonaialns, Estos son estados tales como creer, conocer, desear, temer, y otros
ms que se relacionan con algunos aspectos del mundo exterior. Por ejemplo, la creen
cia de que Viena es la capital de Austria es una creencia sobre una ciudad en particular
y su estado. Nos vamos a cuestionar si es posible que los computadores tengan estados
intencionales que nos ayuden a entender cmo caracterizar dichos estados. Por ejemplo,
se podra decir que el estado mental de desear una hamburguesa difiere del estado de
desear una pizza porque en el mundo real una hamburguesa y una pizza son cosas dife
rentes. Es decir, los estados intencionales tienen una conexin necesaria con otros
objetos del mundo externo. Por otro lado, anteriormente, hemos argumentado que los
estados mentales son estados del cerebro, y de aqu que los estados mentales de identi
dad o no-identidad se deberan determinar permaneciendo completamente dentro de la
cabeza, sin hacer referencia al mundo real. Para examinar este dilema retomaremos el
experimento del pensamiento que intenta separar a los estados intencionales de sus ob
jetos externos.

El experim ento del cerebro en una cubeta

CONTENIDO EXTENSO

CONTENIDO
ESTRECHO

QUALIA

Imagnese que al nacer le extraen el cerebro de su cuerpo y lo colocan en una cubeta con
una ingeniera maravillosa. Esta cubeta mantiene su cerebro y le permite crecer y
desarrollarse. Al mismo tiempo, su cerebro recibe unas seales electrnicas de un
simulador informtico que pertenece a un mundo totalmente ficticio, y las seales mo
toras de su cerebro son interceptadas y utilizadas para modificar la simulacin cuando
sea adecuado3. A continuacin, el estado del cerebro podra tener el estado mental MueroPor (Yo, Hamburguesa) aunque no tenga un cuerpo con el que sentir hambre ni senti
do del gusto para experimentarlo, y puede que tampoco haya hamburguesas en el mundo
real. En ese caso, sera el mismo estado mental que el del cerebro en un cuerpo?
Una forma de resolver el dilema es decir que el contenido de los estados mentales
puede ser interpretado desde dos puntos de vista diferentes. La visin del contando
tenso interpreta el dilema desde el punto de vista de un observador omnisciente desde
fuera con acceso a la situacin completa, y que puede distinguir las diferencias del mun
do. De esta manera, bajo el contenido extenso, las ideas del cerebro en una cubeta son
diferentes de las de una persona normal. El contando estrecho slo tiene en cuenta
el punto de vista subjetivo interno, y bajo este punto de vista todas las creencias seran
las mismas.
El pensamiento de que una hamburguesa es maravillosa tiene una cierta naturaleza
intrnseca, esto es que existe algo que es como tener esa creencia. Ahora vamos a entrar
en la esfera de pedia, o de las experiencias intrnsecas (de la palabra latina que signi
3 Esta situacin puede resultar familiar para los que hayan visto la pelcula de 1999, TheM atrix.

www.FreeLibros.me

1086

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

fica aproximadamente tales cosas). Suponga que mediante algn accidente del cableado
retinal o neuronal la persona ^experimenta en rojo el color que la persona Kpercibe como
verde, y viceversa. Entonces cuando ambas vean las luces del semforo actuarn de la
misma manera, pero la experiencia que tienen ser de alguna manera diferente. Ambas
pueden reconocer que el nombre de su experiencia es la luz es roja, pero las expe
riencias se sienten de diferente manera. No est claro si eso significa que son los mis
mos estados mentales o que son estados mentales diferentes.
A continuacin retomaremos otro experimento del pensamiento que aborda la cuestin
de si los objetos fsicos diferentes a las neuronas humanas pueden tener estados mentales.

El experim ento de la prtesis cerebral


El experimento de la prtesis cerebral fue introducido por Clark Glymour a mediados
de los aos 70, y retocado posteriormente por John Searle (1980), aunque se asocia ms
comnmente al trabajo de Hans Moravec (1988). Trata de lo siguiente: suponga que la
neurofisiologa ha evolucionado hasta tal punto que el comportamiento y las conexio
nes de entrada y salida de todas las neuronas del cerebro humano se entienden perfec
tamente. Adems, suponga que podemos construir mecanismos electrnicos
microscpicos que imitan este comportamiento y que pueden interconectarse con el te
jido neuronal. Y finalmente, suponga que una tcnica quirrgica milagrosa puede sus
tituir las neuronas individuales con los mecanismos electrnicos sin interrumpir el
funcionamiento del cerebro por completo. El experimento consiste en sustituir gradual
mente todas las neuronas de la cabeza de alguien con mecanismos electrnicos y a con
tinuacin invertir el proceso para retomar al sujeto a su estado biolgico normal.
Nos preocupa tanto el comportamiento externo como la experiencia interna del su
jeto, durante y despus de la operacin. Por definicin del experimento, el comporta
miento externo del sujeto no debe sufrir ningn cambio en comparacin con lo que se
observara si la operacin no se llevase a cabo4. Ahora bien, aunque la presencia o au
sencia de consciencia no la pueda asegurar fcilmente un tercero, el sujeto del experi
mento debera por lo menos poder registrar cualquier cambio en su propia experiencia
consciente. Aparentemente existe una confrontacin directa de intuiciones de lo que po
dra llegar a ocurrir. Moravec, un investigador y funcionalista en robtica, est conven
cido de que su consciencia no se vera afectada. Searle, un filsofo y naturalista bilogo,
tambin est convencido de que la consciencia desaparecera:
Ante nuestro asombro encontramos que en efecto estamos perdiendo el control del com
portamiento externo. Encontramos, por ejemplo, que cuando los doctores comprueban
nuestra visin, dicen: Hemos puesto un objeto rojo delante de usted; por favor, dganos
lo que ve. Desearemos responder gritando No puedo ver nada. Me he quedado abso
lutamente ciego. Sin embargo, hablaremos y diremos sin ningn control por nuestra par
te: Observo que hay un objeto rojo delante de m... Nuestra experiencia consciente se
va reduciendo poco a poco a la nada, mientras que se puede observar externamente que
nuestro comportamiento es el mismo. (Searle, 1992)
* Imaginemos que utilizamos un sujeto idntico de control que sufre una operacin placebo para poder
comparar los dos comportamientos.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1087

Sin embargo, podemos hacer algo ms que argumentar, a partir de la intuicin. En


primer lugar, hay que destacar que para que el comportamiento externo siga siendo el
mismo, mientras que el individuo se va sumiendo gradualmente en la inconsciencia, debe
darse el caso de que la propia voluntad del sujeto se elimine instantneamente y total
mente; de otra manera, la reduccin del conocimiento se vera reflejada en el compor
tamiento extemo, con palabras tales como Ayuda, mi conocimiento se est reduciendo,
u otras palabras con ese mismo efecto. Esta eliminacin instantnea de la propia voluntad
como resultado de la sustitucin gradual de neuronas una a una parece ser una afirma
cin improbable.
En segundo lugar, examinemos qu ocurre si formulamos al sujeto cuestiones rela
cionadas con su experiencia consciente durante el perodo en donde no existen neuro
nas reales. Por las condiciones del experimento, obtendremos respuestas del tipo, Me
encuentro bien. Debo decir que estoy algo sorprendido porque crea en el argumento de
Searle. O de lo contrario, podramos atizar al sujeto con un bastn acabado en punta y
observaramos la respuesta, Ay, cmo duele!. Ahora bien, durante el curso normal
de sucesos, el escptico puede desechar tales salidas de programas de IA tales como sim
ples artimaas. Ciertamente, es bastante fcil utilizar una regla tal como Si el sensor
12 identifica "Alto entonces la salida ser "Ay. Sin embargo lo importante es que, de
bido a que hemos duplicado las propiedades funcionales de un cerebro humano normal,
supondremos que el cerebro electrnico no contiene dichas artimaas. Debemos enton
ces tener una explicacin de las manifestaciones de la consciencia producidas por el ce
rebro electrnico que atae slo a las propiedades funcionales de las neuronas. Y adems,

esta explicacin debe aplicarse tambin al cerebro real, el cual tiene las mismas pro
piedades funcionales. Parece entonces que existen slo dos conclusiones posibles:
1.

2.

EPtFENOMEHAL

Los mecanismos causales de la consciencia que generan estas clases de salidas


en los cerebros normales todava estn funcionando en la versin electrnica,
que, por tanto, es consciente.
Los sucesos mentales conscientes en el cerebro normal no tienen conexin
causal con el comportamiento, y quedan fuera del cerebro electrnico, que no
es, por tanto, consciente.

Aunque no podamos descartar la segunda posibilidad, esto reduce la consciencia a lo que


los filsofos llaman rol eftfen om aiai algo que ocurre, pero que no deja pistas como si
lo fuera en el mundo observable. Adems, si la consciencia es en efecto epifenomenal, en
tonces el cerebro debe tener un segundo mecanismo inconsciente responsable del Ay.
En tercer lugar, examinemos la situacin en que la operacin se ha invertido y el su
jeto tiene un cerebro normal. Una vez ms, el comportamiento externo del sujeto debe
ser, por definicin, como si la operacin no hubiera ocurrido. En particular, deberamos
poder preguntar, Cmo estaba durante la operacin?, recuerda el bastn acabado en
punta?. El sujeto debe tener recuerdos precisos de la naturaleza real de sus experien
cias conscientes, incluyendo las qualia, a pesar del hecho de que segn Searle no ha habido
tales experiencias.
Searle podra responder que no hemos definido el experimento adecuadamente. Por
ejemplo, si las neuronas reales quedan suspendidas entre el momento que se extraen y
el tiempo en que se reemplazan en el cerebro, por supuesto entonces no recordarn

www.FreeLibros.me

1088

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

las experiencias durante la operacin. Para tratar esta eventualidad, necesitamos asegu
rarnos de que el estado de las neuronas se actualiza para reflejar el estado interno de las
neuronas artificiales que estn reemplazando. Si los supuestos aspectos no funciona
les de las neuronas reales dan como resultado entonces un comportamiento funcional
mente diferente del que se observa con las neuronas artificiales todava en su lugar,
tenemos un reductio ad absurdum simple, debido a que eso significara que las neuro
nas artificiales no son equivalentes funcionalmente a las neuronas reales. ( Vase el
Ejercicio 26.3 para una posible refutacin de este argumento.)
Patricia Churchland (1986) seala que los argumentos funcionalistas que operan a
nivel de neurona tambin pueden funcionar al nivel de cualquier unidad funcional ms
grande, un grupo de neuronas, un mdulo mental, un lbulo, una hemisfera, o todo el
cerebro. Eso significa que si se acepta la nocin de que el experimento de prtesis del
cerebro muestra que el cerebro de sustitucin es consciente, deberamos tambin creer
que la consciencia se mantiene cuando el cerebro entero se sustituye por un circuito que
hace corresponder la entrada con la salida mediante una tabla de bsqueda. Esto es des
concertante para muchas personas (incluyendo al mismo Turing), que tienen la intuicin
de que las tablas de bsqueda no son conscientes, o por lo menos, que las experiencias
condentes generadas durante la bsqueda en tabla no son las mismas que las generadas
durante la operacin de un sistema que se podra describir (incluso en un sentido com
putacional ingenuo) como accediendo y generando ideas, introspecciones, metas, etc.
Esto podra sugerir que el experimento de la prtesis del cerebro no puede utilizar un
reemplazo de todo el cerebro en conjunto, si ha de ser efectivo al guiar las intuiciones,
pero esto no significa que se debe utilizar el reemplazo de un tomo cada vez, tal como
Searle nos hace creer.

La habitacin china
Nuestro experimento final del pensamiento es quizs el ms famoso de todos. Este se
debe a John Searle (1980), quien describe un sistema hipottico que claramente est eje
cutando un programa y que pasa la prueba de Turing, pero que igualmente y de mane
ra clara no entiende (segn Searle) ninguna entrada ni salida. Su conclusin es que
ejecutar el programa adecuado (es decir, tener las salidas adecuadas) no es una condi
cin suciente para ser una mente.
El sistema se compone de un hombre, que solamente entiende ingls, y que est equi
pado con un libro de reglas escrito en ingls y varias pilas de papel, algunas en blanco
y algunas con inscripciones indescifrables. (El hombre entonces hace el papel de la CPU,
el libro de normas es el programa y los papeles son el dispositivo de almacenamiento.)
El sistema se encuentra dentro de una habitacin con una apertura al exterior. A travs
de la apertura se van deslizando los papeles con smbolos indescifrables. El hombre en
cuentra los smbolos correspondientes en el libro de reglas y sigue las instrucciones. Las
instrucciones pueden incluir escritura de smbolos en los papeles nuevos que van saliendo,
encontrar smbolos en las pilas de papeles, reorganizar las pilas, etc. Finalmente las ins
trucciones harn que un smbolo o ms sean transcritos a un trozo de papel que se pasa
otra vez al mundo exterior.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1089

Hasta ahora todo est bien. Pero desde fuera, se observa un sistema que est sacan
do la entrada en forma de sentencias chinas y generando respuestas chinas que obvia
mente son tan inteligentes como las de la conversacin imaginada por Turing5.
Entonces Searle argumenta lo siguiente: la persona que est en la habitacin no entiende
el chino (supuestamente). El libro de reglas y las pilas de papel, que son slo trozos de
papel no entienden el chino. Por consiguiente no est habiendo comprensin del chino.

De aqu que, segn dice Searle, ejecutar el programa adecuado no genera necesaria
mente entendimiento.
Al igual que Turing, Searle examin e intent rechazar una serie de respuestas a este
argumento. Algunos comentaristas, incluyendo a John McCarthy y a Robert Wilensky,
propusieron lo que Searle llama la respuesta de los sistemas. La objecin es que aunque
se pueda preguntar si el hombre de la habitacin entiende el chino, esto es como pre
guntar si la CPU puede admitir races cbicas. En ambos casos, la respuesta es no, y en
ambos casos segn la respuesta del sistema, el sistema completo s tiene la capacidad
en cuestin. Ciertamente, si se pregunta a la habitacin china si entiende el chino, la res
puesta sera afirmativa (en un chino fluido). Segn la convencin educada de Turing, esto
debera ser suficiente. La respuesta de Searle es reiterar la cuestin de que el entendi
miento no est en el hombre y no puede estar en el papel, de forma que no puede haber
entendimiento. Tambin sugiere algo ms: que nos podramos imaginar al hombre memorizando el libro de reglas y el contenido de todas las pilas de papel, de manera que
no hubiera nada que tener que entender excepto al hombre; y una vez ms, si se pregunta
al hombre (en ingls), la respuesta ser negativa.
En este punto hemos topado con los temas reales. El cambio a la memorizacin des
de el papel es una pista falsa, porque ambas formas son simplemente instanciaciones
fsicas de un programa en ejecucin. La afirmacin real que hace Searle se basa en los
cuatro axiomas siguientes (Searle, 1990):
1.
2.
3.
4.

Los programas informticos son entidades sintcticas y formales.


Las mentes tienen contenidos o semnticas mentales.
La sintaxis por s misma no es suficiente para la semntica.
Los cerebros originan las mentes.

A partir de los tres primeros axiomas, Searle concluye diciendo que los programas no
son suficientes para las mentes. En otras palabras, un agente que ejecuta un programa
podra ser una mente, pero no es necesariamente una mente slo por virtud de ejecu
tar programas. A partir de los cuatro axiomas concluye que Cualquier otro sistema
capaz de originar mentes tendra que tener poderes causales (por lo menos) equivalentes
a los de los cerebros. De aqu infiere que cualquier cerebro artificial tendra que du
plicar los poderes causales, no slo ejecutar un programa en particular, y que los
cerebros humanos no producen fenmenos mentales slo por virtud de ejecutar un
programa.
5 El hecho de que las pilas de papel podran ser mucho ms grandes que todo el planeta y de que la genera

cin de respuestas llevarla millones de aos no redunda en la estructura lgica del argumento. Un propsi
to de la formacin filosfica es desarrollar un sentido bien afinado de las objeciones que guardan relacin y
las que no.

www.FreeLibros.me

1090

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

Las conclusiones de que los programas no son suficientes para las mentes s/que pro
ceden de estos axiomas, si somos generosos en su interpretacin. Pero la conclusin no
es satisfactoria: todo lo que Searle ha demostrado es que si explcitamente negamos el
funcionalismo (eso es lo que hace su axioma (3)) entonces no podemos concluir nece
sariamente diciendo que los no-cerebros son mentes. Esto es bastante razonable, de ma
nera que el argumento completo se reduce si el axioma (3) puede ser aceptado. Segn
Searle, el punto de vista del argumento de la habitacin china es proporcionar intuicio
nes al axioma (3). Pero la reaccin de este argumento muestra que proporciona intui
ciones slo a los que ya se han inclinado a aceptar la idea de que meros programas no
pueden generar un entendimiento de verdad.
Reiterando, el objetivo del argumento de la habitacin china es refutar la IA fuerte,
es decir la afirmacin de que ejecutar la clase adecuada de programa da como resulta
do necesariamente una mente. Esto se hace exhibiendo un sistema aparentemente inte
ligente que ejecuta la clase adecuada de programa que no es, segn Searle,
demostrablemente una mente. En este sentido, Searle apela a la intuicin, no a la prue
ba: slo hay que observar la habitacin: qu hay en ella que sea una mente? Sin em
bargo, se podra hacer el mismo argumento sobre el cerebro: observe el conjunto de
clulas (o de tomos), que funcionan ciegamente segn las leyes de la Bioqumica (o la
Fsica): Qu hay ah que sea una mente? Por qu un trozo de cerebro puede ser una
mente mientras que un trozo de hgado no puede serlo?
Adems, cuando Searle admite que materiales diferentes a las neuronas podran en
principio ser una mente, debilita su argumento an ms por dos razones: en primer lu
gar slo tenemos las intuiciones de Searle (o las nuestras propias) para decir que la ha
bitacin china no es una mente, y en segundo lugar, aunque determinemos que la
habitacin no es una mente, no nos dice nada sobre si un programa que se ejecuta en al
gn otro medio fsico (incluyendo un computador) podra ser una mente.
Searle permite la posibilidad lgica de que el cerebro est implementando de ver
dad un programa de IA de la clase tradicional. Sin embargo, si el mismo programa se
ejecuta en la clase inadecuada de mquina no sera una mente. Searle no cree que las
mquinas no puedan tener mentes, en cambio afirma que algunas mquinas s que tie
nen mentes, los hombres son mquinas biolgicas con mentes. No nos queda ninguna
gua para ver qu tipos de mquinas califican o no califican.

26.3

La tica y los riesgos de desarrollar


la Inteligencia Artificial
Hasta ahora nos hemos concentrado en si podemos desarrollar la IA, pero debemos tam
bin tener en cuenta si deberamos hacerlo. Si es ms probable que los efectos de la tec
nologa de la IA sean ms negativos que positivos, sera responsabilidad moral de los
trabajadores en su campo redirigir su investigacin. Muchas de las nuevas tecnologas
han tenido efectos negativos no intencionados: el motor de combustin trajo la polucin
ambiental y la pavimentacin del paraso; la fisin nuclear produjo el desastre de

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1091

Chernobyl, la Isla de las Tres Millas y la amenaza de la destruccin mundial. Todos los
cientficos e ingenieros se enfrentan a consideraciones ticas de cmo deberan actuar
en el trabajo, qu proyectos deberan o no deberan hacer, cmo los deberan abordar.
Existe incluso un manual sobre la tica de los Computadores (Ethics o f Computing,
Berleur y Brunnstein, 2001). Sin embargo, la IA parece que expone problemas nuevos
yendo ms all de, por ejemplo, construir puentes que no se desmoronen:

Las personas podran perder sus trabajos por la automatizacin.


Las personas podran tener demasiado (o muy poco) tiempo de ocio.
Las personas podran perder el sentido de ser nicos.
Las personas podran perder algunos de sus derechos privados.
La utilizacin de los sistemas de IA podra llevar a la prdida de responsabilidad.
El xito de la IA podra significar el fin de la raza humana.

Vamos a examinar en orden cada uno de estos temas.

Las personas podran perder sus trabajos por la automatizacin. La economa


industrial moderna ha llegado a depender en general de los computadores, y selecciona
programas de IA en particular. Por ejemplo, gran parte de la economa, especialmente
en Estados Unidos, depende de la disponibilidad de crditos del consumidor. Las apli
caciones de las tarjetas de crdito, aceptaciones de cargos y deteccin de fraudes se
realizan mediante programas de IA. Se podra decir que miles de trabajadores han sido
desplazados por estos programas de IA, pero en efecto si eliminamos estos programas
de IA estos trabajos no existiran, porque la mano de obra humana aadira un coste adi
cional a las transacciones. Hasta ahora, la automatizacin por medio de la tecnologa de
la IA ha creado ms trabajos de los que ha eliminado, y ha creado puestos de trabajo ms
interesantes y mejor pagados. Ahora que el programa IA cannico es un agente inteli
gente diseado para ayudar a un hombre, la prdida de trabajo preocupa menos que cuan
do la IA se centraba en los sistemas expertos diseados para sustituir a los hombres.
Las personas podran tener demasiado (o muy poco) tiempo de ocio. Alvin Toffler
en su libro Future Shock (1970) escribi, La semana laboral se ha recortado el 50 por
ciento a finales del siglo. No es absurdo decir que se volver a reducir a la mitad hacia el
ao 2000. Arthur C. Clarke (1968b) escribi que las personas del ao 2001 podran en
frentarse a un futuro de gran aburrimiento, en donde el problema principal de la vida es
decidir cual de los cientos de canales de la televisin seleccionar. La nica prediccin
que ha llegado a resultar cierta es el nmero de canales de televisin (Springsteen, 1992).
En cambio, las personas que trabajan en las industrias muy relacionadas con el conoci
miento han descubierto que forman parte de un sistema computerizado integrado que fun
ciona 24 horas al da; para mantenerlo se han visto forzados a trabajar durante ms horas.
En una economa industrial, las recompensas son aproximadamente proporcionales al tiem
po invertido; trabajar el 10 por ciento ms llevara a producir un incremento del 10 por
ciento en los ingresos. En una economa de la informacin marcada por la comunicacin
de un ancho de banda alto y por una reproduccin fcil de la propiedad intelectual (lo que
Frank y Cook (1996) llaman Winner-Take-All Society (la Sociedad del ganador se hace
con todo)), existe una gran recompensa por ser ligeramente mejor que la competencia;
trabajar un 10 por ciento ms podra significar un 100 por 100 de incremento en los in
gresos. De forma que todos se sienten ms presionados por trabajar ms fuerte. La IA

www.FreeLibros.me

1092

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

incrementa el ritmo de la innovacin tecnolgica y contribuye as a esta tendencia gene


ral, pero la IA tambin mantiene la promesa de permitirnos ahorrar tiempo y permitir que
nuestros agentes automatizados hagan las cosas por un tiempo.
Las personas podran perder su sentido de ser nicas En el libro de Weizenbaum
(1976), Computer Power and Human Reason (El poder de los computadores y la razn
humana), el autor del programa ELIZA, seala algunas de las posibles amenazas que su
pone la IA para la sociedad. Uno de los argumentos principales de Weizenbaum es que
la investigacin en IA hace posible la idea de que los hombres sean autmatas, una idea
que produce prdida de autonoma o incluso de humanidad. Podemos sealar que la idea
ya exista mucho antes que la IA, nos podemos remontar a L Homme Machine (La
Mettrie, 1748). Tambin destacaremos que la humanidad ha sobrevivido a otros contra
tiempos hacia nuestro sentido de la unicidad: De Revolutionibus Orbium Coelestium
(Copemicus, 1543) desplaz a la tierra lejos del centro del sistema solar, y Descent o f
Man (Darwin, 1871) puso al homo sapiens al mismo nivel que otras especies. La IA,
aunque sea una materia de gran xito, quiz sea por lo menos amenazante para las
suposiciones morales de la sociedad del siglo xxi al igual que la teora de la evolucin
lo fue para los del siglo xix.
Las personas podran perder algo de sus derechos privados. Weizenbaum tambin
seal que la tecnologa del reconocimiento de voz podra llevar a una intercepcin
extensa de cableados, y de aqu a la prdida de las libertades civiles. No previo un mun
do con amenazas terroristas que cambiaran el equilibrio de la vigilancia que estaran
dispuestas a aceptar las personas, sino que reconocera correctamente que la IA tiene el
potencial de producir una vigilancia en grandes cantidades. Esta prediccin puede con
vertirse en realidad: el sistema clasificado Echelon del gobierno americano consiste en
una red de envos de escucha, campos de antenas y estaciones de radar; el sistema est
respaldado por computadores que utilizan traduccin de lenguajes, reconocimiento de
voz y palabras dave que buscan pasar por la criba automticamente todo el trfico de
llamadas telefnicas, correos electrnicos, faxes y telex6. Algunas personas reconocen
que la computerizacin conduce a la prdida de privacidad, por ejemplo, el consejero
delegado de Sun Microsystems, Scott McNealy ha dicho que De cualquier forma te
nemos privacidad cero. Hay que superarlo. Otros no estn de acuerdo. Por ejemplo, el
juez Louis Brandis en 1890 escribi que La privacidad es el derecho ms completo y
extenso de todos... el derecho de la personalidad de uno mismo.
La utilizacin de sistemas de IA podra llevar a la prdida de responsabilidad. En
la atmsfera de litigios que prevalece en Estados Unidos, la obligacin legal se convierte
en un tema importante. Cuando un mdico depende del juicio de un sistema mdico ex
perto para hacer diagnstico, quin es el culpable si el diagnstico es errneo? Afor
tunadamente, debido en parte a la mayor influencia en medicina de mtodos tericos para
las decisiones, se acepta que la negligencia no puede demostrarse si un mdico lleva cabo
procedimientos mdicos que tienen una utilidad altamente esperada, incluso si el
resultado reales catastrfico para el paciente. Por tanto la pregunta debera ser Quin
tiene la culpa si el diagnstico no es razonable?. Hasta ahora, los juzgados han man6 Vase Eavesdropping in Europe (Escucha a escondidas en Europa), Wirednews, 30/09/1998, e infor
mes citados por la UE.

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1093

tenido que los sistemas mdicos expertos desempean el mismo papel que los libros de
texto mdicos y los libros de referencias; los mdicos son responsables de entender el
razonamiento que soporta esta decisin y de utilizar su propio juicio a la ahora de deci
dir si se aceptan las recomendaciones del sistema. Por tanto, en el diseo de sistemas
mdicos expertos como agentes, no se debera considerar que las acciones afectan di
rectamente a los pacientes, sino que influyen directamente en el comportamiento del m
dico. Si los sistemas expertos se hacen ms fiables y precisos que los hombres que hacen
tos diagnsticos, los mdicos podran tener obligaciones legales si no utilizan las reco
mendaciones de un sistema experto. Gawande (2002) explora esta premisa.
Estn empezando a aparecer temas similares en relacin con la utilizacin de agen
tes inteligentes en Internet. Se han hecho progresos en la incorporacin de limitaciones
en los agentes inteligentes de forma que no pueden, por ejemplo, daar los archivos de
otros usuarios (Weld y Etzioni, 1994). El problema se magnifica cuando el dinero cam
bia de manos. Si las transacciones monetarias las realiza un agente inteligente en nom
bre de alguien, est obligado por las deudas incurridas? Sera posible que un agente
inteligente tuviera activos o que realizara compras electrnicas en su propio nombre? Has
ta ahora, parece que estas cuestiones no se entienden de forma clara. En nuestro cono
cimiento, ningn programa ha recibido ningn estado legal como individuo con fines
financieros; por el momento, parece que no es razonable hacerlo. Los programas tam
poco son considerados conductores para reforzar las regulaciones del trfico en
autovas reales. En las leyes californianas, por lo menos, no parece haber ninguna san
cin legal que impida a un vehculo automatizado exceder los lmites de velocidad, aunque
el diseador del mecanismo de control de vehculos s tuviera obligacin en caso de ac
dente. Al igual que con la tecnologa para la reproduccin humana, la ley tiene toda
va que ponerse a la altura de los nuevos desarrollos.
7 xito de la IA podra significar el fin de la raza humana. Casi cualquier tecnolo
ga tiene el potencial de hacer dao si se encuentra en las manos equivocadas, pero con
la IA y la robtica, tenemos el problema nuevo de que las manos equivocadas podran
pertenecer a dicha tecnologa. Incontables historias de ciencia ficcin nos han alertado
de los robots o de los cyborgs (robots-hombre) que se comportan de forma enajena
da. Entre los primeros ejemplos se incluyen Frankenstein de Mary Shelly, o el Modern
Prometheus {ElPrometeo Moderno) (1818)7, y la obra de Karel Capek R.U.R. (1921),
en la que los robots conquistan el mundo. En cine, tambin tenemos Terminador {The
Terminator) (1984), en donde se combinan clichs de robots que conquistan el mundo
con el viajar en el tiempo, y Matrix {The Matrix) (1999), en donde se combinan robots
que conquistan el mundo y el cerebro en una cubeta.
Para una gran mayora, parece que los robots son protagonistas de muchas historias
de conquistas del mundo porque representan lo desconocido, de la misma manera que
las brujas y los fantasmas de cuentos de otras dcadas ms antiguas. Suponen una ame
naza ms creble que las brujas y los fantasmas? Si los robots estuvieran diseados ade
cuadamente como agentes que adoptan las metas de sus propietarios, probablemente no
supondran una amenaza: los robots que derivan de mayores avances sobre sus diseos
actuales, s que van a servir y no a conquistar. Los hombres utilizan su inteligencia de
7 Charles Babbage, cuando erajoven, se vio influenciado por la lectura de Frankenstein.

www.FreeLibros.me

1094

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

formas agresivas porque son innatas, por naturaleza. Sin embargo, las mquinas que cons
truimos no tienen que ser innatamente agresivas, a menos que decidamos que as sean.
Por un lado, es posible que los computadores logren una clase de conquista sirviendo y
hacindose indispensables, de la misma manera que los automviles han conquistado en
cierto sentido el mundo industrializado. Este escenario merece ms atencin. En 1965,
I. J. Good escribi:
Vamos a definir una mquina ultrainteligente como una mquina que puede sobrepasar
con mucho todas las actividades intelectuales de cualquier hombre, por muy inteligente
que sea. Puesto que el diseo de las mquinas es una de estas actividades intelectuales,
una mquina ultrainteligente podra disear mquinas incluso mejores: entonces existi
ra incuestionablemente una explosin de inteligencia, y la inteligencia del hombre que
dara bastante atrs. As pues la primera mquina ultrainteligente es la ltima invencin
que haya hecho nunca el hombre, siempre que la mquina sea lo suficientemente dcil
como para decimos cmo controlarla.
SINGULARIDAD
TECNOLGICA

La explosin de inteligencia tambin ha sido llamada sn&daridad tecnolgica por el


profesor de Matemticas y autor de ciencia ficcin VemorVinge, (1993) quien escribi que,
Dentro de treinta aos, tendremos el medio tecnolgico de crear una inteligencia superhumana. Algn tiempo despus, la era humana habr acabado. Good y Vinge (y muchos
otros) sealan correctamente que la curva del progreso tecnolgico actualmente est cre
ciendo de manera exponencial (tomemos en consideracin, por ejemplo, la ley de Moore).
Sin embargo, es un buen paso adelante extrapolar que la curva continuar hacia la singu
laridad de un crecimiento casi infinito. Hasta ahora, el resto de tecnologas han seguido una
curva en forma de S, en donde el crecimiento exponencial finalmente disminuye.
La preocupacin y el miedo de Vinge radica en llegar a la singularidad, sin embargo
otros cientficos y futuristas gozan con esa idea En el Robot Mere Machine to Trascendent
Mind^Aera mquina hacia la mente trascendente), Hans Moravec predice que los robots
se igualarn a la inteligencia humana en 50 aos y a continuacin la excedern:
De manera bastante rpida podramos quedar desplazados y fuera de la existencia. No
estoy tan alarmado como muchos otros por esta ltima posibilidad, ya que considero que
las mquinas del futuro son nuestra progenie, hijos de mente construidos a nuestra ima
gen y semejanza, es decir, nosotros mismos pero en una forma ms potente. Al igual que
los hijos biolgicos de generaciones anteriores, representarn la mejor esperanza de la
humanidad para un futuro a largo plazo. Nos corresponde a nosotros ofrecerles todas las
ventajas, y cmo retirarnos cuando ya no podamos contribuir. (Moravec, 2000.)

TRASHUM AN1SM0

Ray Kurzweil, en The Age o f Spiritual Machines (2000) predice que hacia el ao 2099
existir una fuerte tendencia hacia una fusin del pensamiento humano en el mundo de
la inteligencia de la mquina que las especies humanas crearon inicialmente. Ya no exis
te una distincin clara entre los hombres y los computadores. Existe incluso una pala
bra nueva, tr a d n iia r m o que se refiere al movimiento social real que ansia este futuro.
Basta con decir que estos temas presentan un reto para la mayora de los tericos que con
sideran la preservacin de la vida humana y de las especies como algo bueno.
Finalmente, tomemos en consideracin el punto de vista del robot. Si los robots
adquieren consciencia, tratarlos entonces como meras mquinas (por ejemplo, tratarlos
como algo aparte) podra ser inmoral. Los robots tambin deben actuar moralmente,

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

1095

necesitaramos programarlos con una teora de lo que est bien y lo que est mal. Los
escritores de ciencia ficcin han abordado el tema de los derechos y responsabilidades
de los robots, empezando por Isaac Asimov (1942). La famosa pelcula titulada A I.
(Spielberg, 2001) se bas en una historia de Brian Aldiss sobre el robot inteligente que
fue programado para creer que l era un humano y que no entiende el abandono final
por parte de su madre-propietaria. La historia (y la pelcula) convencen de la necesidad
de los robots para moverse por sus derechos civiles.

26.4

R esum en
Este captulo ha abordado los siguientes temas:
Los filsofos utilizan el trmino IA dbil para la hiptesis de que las mquinas
podran comportarse posiblemente de forma inteligente, y el trmino IA fiio-te para
la hiptesis de que dichas mquinas contaran como si tuvieran mentes reales (en
contraposicin a las mentes simuladas).
Alan Turing rechaz la cuestin Pueden pensar las mquinas?, y lo sustituy
por un test de comportamiento. Previeron muchas objeciones a la posibilidad de
mquinas pensantes. Pocos investigadores en IA prestan atencin al Test de
Turing, y prefieren concentrarse en el rendimiento de sus sistemas en base a tare
as prcticas, en vez de la habilidad de imitar a los humanos.
Actualmente existe el acuerdo general de que los estados mentales son los esta
dos del cerebro.
Los argumentos a favor yen contra de la IA fuerte no son concluyentes. Unos pocos
investigadores dominantes en la disciplina de la IA creen que cualquier cosa
significativa gira en torno al resultado del debate.
La consciencia sigue siendo un misterio.
Se han identificado ocho amenazas potenciales para la sociedad que se exponen
tanto ante la IA como ante una tecnologa relacionada. Podemos concluir dicien
do que algunas amenazas son improbables, pero merece la pena revisar dos de
ellas en particular. La primera es que las mquinas ultrainteligentes podran
llevarnos a un futuro muy diferente del actual y puede que no sea de nuestro agra
do. La segunda es que la tecnologa de la robtica puede permitir a individuos con
una psicopata emplear armas de destruccin masiva. Concluimos diciendo que esto
es ms una amenaza de la biotecnologa y nanotecnologa que de la robtica.

N o t a s b ib l io g r f ic a s e h is t r ic a s

La naturaleza de la mente ha sido un tema estndar de la teorizacin filosfica desde tiem


pos inmemoriales hasta hoy en da. En el Phaedo, Platn consider y rechaz de forma
especfica la idea de que la mente podra ser una adaptacin o un modelo de organi
zacin de las partes del cuerpo, un punto de vista que se aproxima al punto de vista fun-

www.FreeLibros.me

1096

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

tonalista de la filosofa moderna de la mente. En cambio, determin que la mente te


na que ser un alma inmortal, inmaterial, separable del cuerpo y diferente en sustancia,
del punto de vista del dualismo. Aristteles distingui una variedad de almas (en grie
go tj/vxt]) de los seres vivos, describiendo algunas, por lo menos, de forma funcionalista. ( Vase Nussbaum (1978) para ms informacin sobre el funcionalismo de Aristteles.)
Descartes destaca por su punto de vista dualista de la mente humana, aunque irni
camente su influencia histrica se dirigi hacia el mecanismo y el materialismo. Expl
citamente, concibi a los animales como autmatas, y se anticip al Test de Turing,
escribiendo que no se puede concebir [que una mquina] elabore diferentes colocaciones
de palabras para dar una respuesta con un significado adecuado para todo lo que se diga
en su presencia, incluso de la misma forma que los hombres ms aburridos cuando ha
blan (Descartes, 1637). La ardiente defensa que hace Descartes del punto de vista de
los animales como autmatas realmente tuvo el efecto de facilitar tambin la concep
cin de los hombres como autmatas, incluso aunque l mismo no diera ese paso. El li
bro L Homme Machine o Man a Machine (La Mettrie, 1748) argument explcitamente
que los hombres son autmatas.
La filosofa analtica moderna normalmente ha aceptado el materialismo (a menu
do mediante la teora de la id o d d a d del estado del cerebro (Place, 1956; Armstrong,
1968), la cual afirma que los estados mentales son idnticos a los estados del cerebro)),
sin embargo ha estado mucho ms dividida en el funcionalismo, en la analoga de la
mquina con le mente humana, y la cuestin de si las mquinas literalmente pueden pen
sar. Scriven (1953), por ejemplo, entre las primeras respuestas filosficas a Turing
(1950) Computing Machinery and Intelligence, intent negar que tuviera significado
decir que las mquinas pudieran pensar, basndose en que dicha afirmacin violaba el
significado del mundo. En el apndice de la reimpresin de este artculo se puede ver
que, por lo menos, Scriven hacia el ao 1963 se retract de este punto de vista (Ander
son, 1964). El cientfico informtico Edsger Dijkstra dije que La cuestin de si un com
putador puede pensar no es ms interesante que la cuestin de si un submarino puede
nadar. Ford y Hayes (1995) argumentan que el Test de Turing no es til para la IA.
El funcionalismo es la filosofa de la mente que ms naturalmente sugiere la IA, y
las crticas del funcionalismo a menudo toman forma a partir de las crticas sobre la IA
(como en el caso de Searle). Siguiendo la clasificacin utilizada por Block (1980), se
pueden distinguir variedades del funcionalismo. La teora dlaperificarn funcio
nal (Lewis, 1966, 1980) es una variante de la teora de la identidad del estado del cere
bro la cual selecciona los estados del cerebro que se identifican con los estados mentales
en su papel (rol) funcional. La teora de la idorfidad d d estado fim donal (Putnam,
1960, 1967) se basa ms estrechamente en la analoga de la mquina. No identifica los
estados mentales con los estados fsicos del cerebro sino con los estados abstractos
computacionales del cerebro concebidos expresamente como un dispositivo informti
co. Se supone que estos estados abstractos son independientes de la composicin fsica
especfica del cerebro, lo que lleva a considerar que la teora de la identidad del estado
funcional es una forma de dualismo.
Tanto la teora de la identidad del estado del cerebro como las diferentes formas de
funcionalismo han sido atacadas por autores afirmando que no tienen en consideracin
la qualia o el aspecto a qu se asemejan de los estados mentales (Nagel, 1974). En

www.FreeLibros.me

FUNDAMENTOS FILOSFICOS

MATERIALISMO
ELIM INATIVO

1097

cambio, Searle se ha centrado en la supuesta incapacidad del funcionalismo (Searle, 1980,


1984, 1992). Churchland y Churchland (1982) rebaten ambas formas de crtica.
El matm aterno efininativo (Rorty, 1965; Churchland, 1979) difiere de las otras
teoras prominentes de la filosofa de la mente, en que no intenta dar cuenta de por qu
son verdaderas las ideas de la psicologa popular y del sentido comn sobre la men
te, sino que por el contrario las rechaza como si fueran falsas e intenta sustituirlas por
una teora puramente cientfica de la mente. En principio, esta teora cientfica podra
ser proporcionada por una IA clsica, pero en cambio, en la prctica, los materialistas
eliminativos tienden a apoyarse en la investigacin de la neuro ciencia y de las redes
neuronales (Churchland, 1986), sin embargo, basndose en la IA clsica, especialmen
te en la investigacin de la representacin del conocimiento del tipo descrito en el
Captulo 10, tienden a confiar en la verdad de la psicologa popular. Aunque el punto de
vista del estado intencional (Dennett, 1971) pudiera interpretarse como fncionalista, probablemente debera considerarse como una forma de materialismo eliminativo, en
el sentido de que la postura intencional no tiene que reflejar ninguna propiedad obje
tiva del agente hacia el que se toma esa postura. Tambin se debera destacar que es
posible ser un materialista eliminativo en algunos aspectos de la mentalidad a la vez que
se analizan otras de forma diferente. Por ejemplo, Dennett (1978) es mucho ms elimi
nativo en cuanto a la qualia que en cuanto a la intencionalidad.
Ya se han proporcionado en este mismo captulo otras fuentes de crticas importan
tes hacia la IA dbil. Aunque estuvo muy en auge ridiculizar los enfoques simblicos
en la era de las redes post-neuronales, no todos los filsofos son crticos de GOFAI. De
hecho, algunos son ardientes partidarios e incluso buenos profesionales. Zenon Pylyshyn
(1984) ha argumentado que la cognicin se puede entender mejor a travs de un mode
lo computacional, no slo en principio sino tambin en la forma de realizar una inves
tigacin contempornea, y ha refutado especficamente las crticas de Dreyfus en cuanto
al modelo computacional de la cognicin humana (Pylyshyn, 1974). Gilbert Harman
(1983), quien en el anlisis de la revisin de las creencias ha realizado conexiones con
la investigacin de la IA en los sistemas del mantenimiento de verdad. Michael Bratman
ha aplicado su modelo de creencia-deseo-intencin de la psicologa humana (Bratman,
1987) a la investigacin de la IA en planificacin (Bratman, 1992). En el lado extremo
de la IA fuerte, Aaron Sloman (1978, p. xiii) ha descrito incluso como racista el pun
to de vista de Joseph Weizenbaum (Weizenbaum, 1976) diciendo que las mquinas in
teligentes hipotticas no deberan considerarse personas.
La literatura filosfica sobre las mentes, los cerebros, y otros temas relacionados es
extensa y algunas veces difcil de leer sin una prctica adecuada en la terminologa y en
tos mtodos de argumentar empleados. La Enciclopedia de la Filosofa (Encyclopedia o f
Phlosoy (Edwards, 1967) es una ayuda sorprendentemente fidedigna y til de este pro
ceso. El Diccionario de Filosofa de Cambridge ( The Cambridge Dictionary ofPhilosofy)
(Audi, 1999) es un trabajo ms reducido y ms accesible, pero las entradas principales
(tales como filosofa de la mente) todava abarcan 10 pginas o ms. La Enciclopedia
de la Ciencia Cognitiva del MIT (MITEncyplopedia o f CognitiveSciencie) (Wilson y Keil,
1999) aborda la filosofa de la mente as como la biologa y la psicologa de la mente.
Otras colecciones de artculos sobre filosofa de la mente, incluyendo el funcionalismo
y otros puntos de vista relacionados con la IA son El Materialismo y el Problema de Men-

www.FreeLibros.me

1098

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

te-Cuerpo {Materialism and the Mind-Body Proble, Rosenthal, 1971) y Lecturas de la Fi


losofa de la Psicologa {Readings in the Philosophy ofPsycology, volumen 1, Block,
1980). Biro y Shahan (1982) presentan una coleccin dedicada a los pros y los contras
del funcionalismo. Entre las antologas que tratan ms especficamente con la relacin
entre la Filosofa y la IA se incluyen Minds and Machines (Anderson, 1964), Philosophical Perspectives in Artificial Intelligence (Ringle, 1979), Mind Design (Haugeland,
1981) y The Philosophy o f Artificial Intelligence (Boden, 1990). Existen varias intro
ducciones a la cuestin IA filosfica (Boden, 1977, 1990; Haugeland, 1985; Copeland,
1993). The BehavioralandBrain Sciences, abreviado BBS, es una publicacin importante
dedicada a debates filosficos y cientficos sobre la IAy la neurociencia. En publicacio
nes como A I and Society, Law, Computers and Artificial Intelligence, y Artificial Intelligence and Law se tratan los temas de la tica y la responsabilidad en la IA.

EJERCICIOS
^
Repase la lista de presuntas incapacidades de las mquinas de Turing, identifi
cando cules se han logrado, cules se pueden lograr en principio por cualquier progra
ma, y cules son an problemticas porque requieren estados mentales conscientes.
2 6 2 La refutacin de la habitacin china demuestra necesariamente que los compu
tadores con una programacin adecuada tienen estados mentales? La aceptacin del ar
gumento significa necesariamente que los computadores no pueden tener estados
mentales?
2 6 3 En el argumento de la prtesis del cerebro, es importante poder restaurar el ce
rebro de un sujeto a un estado normal, de tal manera que su comportamiento externo sea
como si la operacin no hubiera tenido lugar. Puede un escptico objetar razonablemente
que esto requerira actualizar las propiedades neuropsicolgicas de las neuronas que se
relacionan con la experiencia consciente, distintas de las que tienen que ver con el com
portamiento funcional de las neuronas?
2 6 4 Encuentre y analice un caso relacionado con los medios de comunicacin popu
lares sobre un argumento o ms, en relacin con la idea de que la IA es imposible.
2 6 5 Intente definir los trminos inteligencia, pensamiento y consciencia. Su
giera algunas posibles objeciones a sus definiciones.
2 ft6 Analice las posibles amenazas a la sociedad de la tecnologa de IA. Cules son
las amenazas ms serias, y cmo se podran combatir? Cmo se podran comparar con
las posibles ventajas?
2&7 Cmo se pueden comparar las posibles amenazas de la tecnologa de la IA con
otras de otras tecnologas informticas, y con las de las tecnologas nucleares, bionucleares
y nanonucleares?
2 fi8 Algunos crticos piensan que la IA es imposible, mientras que otros dicen que es
demasiado posible, y que las mquinas ultrainteligentes suponen una amenaza. Cul
de estas objeciones piensa que es ms probable? Sera una contradiccin mantener am
bas opiniones?

www.FreeLibros.me

Вам также может понравиться