Вы находитесь на странице: 1из 9

EX_MACHINA (Alex Garland, 2015): reflexiones en torno a la consciencia.

http://www.cineypsicologia.com/2015/09/ex-machina-alex-garland-2015.html
Desde que en 1950 Isaac Asimov escribiera su clebre coleccin de cuentos "Yo
robot", la literatura y el cine en el gnero de la ciencia ficcin ha especulado con la
posibilidad de que una inteligencia artificial pueda devenir consciente, lo que hoy
en da se conoce como el objetivo de la llamada Inteligencia artificial fuerte, a
diferencia de la IA dbil cuyos desarrollos se aplican a dar solucin a necesidades
bien concretas y determinadas. Un buen ejemplo de IA dbil es el asistente
personal Siri de Apple o los programas de ajedrez (stockfish, Houdini, Komodo, Deep
Rybka, etc.) cuya calidad de juego iguala cuando no supera a la de los mejores
grandes maestros de este juego. La IA fuerte es el tema que explora una de las
ltimas pelculas del 2015: Ex_Machina, debut en la direccin de Alex
Garland (guionista de 28 das despus y 28 semanas despus y de la interesante
cinta de ciencia ficcin,Sunshine, o el drama Never let my go) y protagonizada
porAlicia Vikander en el papel de la robot ginoide Ava, Oscar Isaac, en el de su
creador, el genio de la inteligencia artificialNathan Bateman y, finalmente,
por Domhnall Gleesoninterpretando a Caleb Smith, el informtico seleccionado por
Nathan para formar parte de su "proyecto". Este tema que, con ms o menos xito,
hemos visto introducido en distintas pelculas y a diferentes niveles se caracteriza por dos aspectos que podemos
considerar esenciales: 1) El paso de la inteligencia artificial a la consciencia; y 2) La rebelin contra el
creador. Esta es la base de los escenarios apocalpticos que fundamentan los argumentos de pelculas
como Terminator y el ordenador Skynet, Resident Evil y ordenador de la Reina Roja o Matrix, por poner algunos
de los ejemplos ms conocidos. Sin embargo, fue el famoso ordenador HAL 9000 de 2001 Odisea en el espacio el
que inici la reflexin sobre si un ordenador puede devenir consciente desobedeciendo as las rdenes de los
astronautas del Discovery rumbo a Jpiter bajo criterio propio. Desde entonces toda una serie de pelculas han ido
inspirndose en este tema, de entre las cuales destacamos la clebreBlade Runner (Ridley Scott, 1982) y
sus replicantes modelo nexus, o el tambin clebre Ash, el oficial cientfico de la nave Nostromo de Alien, el
octavo pasajero (Ridley Scott, 1979). Junto a Ex-machina hallamos en estos ltimos aos algunas pelculas que
abordan el tema del robot que deviene consciente, como las recientes Chappie (Neill Blomkamp, 2015) y la poco
afortunada pelcula espaola Autmata (Gabe Ibez, 2014) y quiz la ms deudora de Asimov Yo, robot (Alex
Proyas, 2004), con el robot Sonny como protagonista y el super-ordenador VIKI, sin olvidar la muy interesante AI
(Steven Spielberg, 2001). Sin embargo, es Ex_Machina la pelcula que quiz profundiza ms en el tema que aqu
nos trae. Aunque es un tema muy complejo de abordar intentar simplemente ofrecer una breve reflexin alrededor
de lo que plantea, no slo en trminos de inteligencia artificial, sino tambin acerca de la naturaleza de la
consciencia.

AUTMATA (Gabe Ibaez, 2014)


I. INTELIGENCIA ARTIFICIAL Y EL TEST DE TURING.
Ex_Machina revierte el planteamiento del conocido test de Turing y pone la prueba a un nivel muy distinto al
imaginado por Alan Turing, el matemtico y pionero de las ciencias de la computacin y de la moderna informtica
que fue llevado al cine el ao pasado a travs de la excelente pelcula The imitation game (Morten Tyldum,
2014). ste conocido test nos plantea si una inteligencia artificial puede mostrar un pensamiento indistinguible al de
un ser humano. Es decir, en su formulacin inicial, Turing se planteaba si una mquina, adecuadamente programada,
puede imitar el pensamiento humano hasta tal punto que no se pueda distinguir. En su planteamiento inicial disea
una prueba en la que ocultando una mquina a un ser humano, ste, a travs de preguntas y respuestas mediadas
por un intermediario o una terminal como una pantalla de ordenador, tiene que evaluar si es un ser humano o una
mquina lo que se halla "al otro lado". La llamada prueba standard de Turing implicara que se ocultaran al
interrogador la mquina y un ser humano, y el primero tendra que detectar, por el mismo mtodo de preguntas y
respuestas, quin es quin. La prueba de Turing pone nfasis en la inteligencia y, en realidad, intenta evaluar si
una mquina puede simular un comportamiento inteligente como el del ser humano. Sin embargo, nuestra pelcula se
dirige ms hacia una complejidad que ya fue anunciada en Blade runner cuando asistimos a una variante ms
compleja del Test de Turing cuando vemos al Blade Runner interrogando al replicante para evaluar no slo la

inteligencia - cuya imitacin ya se da por supuesto - sino su capacidad de respuesta emocional y emptica (lo
que se conoce como Prueba de Turing total). Ex_Machina revierte el planteamiento de Turing, como bien indica
Caleb, puesto que l joven informtico ya sabe que trata con un robot ginoide. Pero Nathan le responde que le est
planteando otra cosa, y es que, si bien es cierto que Ava es una inteligencia artificial, Caleb tendr que evaluar
si ella es realmente consciente o no.

Ex_Machina: Nathan, Ava y Caleb.


No se trata de saber si una posible mquina oculta se comporta como un ser humano, sino que sabiendo
positivamente que se trata de una mquina evaluar si su comportamiento conlleva consciencia o no. El
comportamiento por simulacin de una inteligencia artificial se enmarca dentro del programa, del
software que la rige y no lo sobrepasa. El surgimiento de la consciencia implicara que el comportamiento del
robot es capaz de sobrepasar precisamente este marco de referencia del software que lo controla y que, como
consecuencia de "darse cuenta de s mismo y de su entorno", pasara a desarrollar comportamientos que estaran
ms all de ese marco de referencia. La consciencia en la inteligencia artificial le permitira tomar decisiones que
estn ms all de las posibilidades de simulacin determinadas por su programa, de la misma manera - y ese es un
punto de reflexin al que volveremos - que la consciencia permite al ser humano ir ms all de la respuesta que
su "software" instintivo le depara. Observemos que, en principio, la consciencia nos ofrece una posibilidad de
respuesta basada en la libertad y en la creatividad.
II. DESVELANDO LA CONSCIENCIA: la irona y el engao.
La segunda sesin que Caleb mantiene con Ava nos pone en relacin con algunas caractersticas propias de la
consciencia como el sentido del humor de carcter irnico y el engao. Veamos el siguiente dilogo entre Caleb y
Ava tras mostrarle sta un dibujo:
Caleb: Qu representa el dibujo?
Ava: No lo s. Pensaba que lo sabas. Hago dibujos a diario, pero nunca se lo que sale.
Caleb: No intentas dibujar algo concreto, un objeto, una persona? Podras intentarlo?
Ava: Vale. Qu objeto debo dibujar?
Caleb: El que t quieras. Es decisin tuya.
Ava: Por qu lo decido yo?
Caleb: Me interesa ver qu es lo que eliges.
Esta conversacin bien podra formar parte de una inteligencia artificial con capacidad de aprendizaje, lo que
necesariamente no implica consciencia. Efectivamente, se podra programar una inteligencia artificial para dibujar y
para que aprenda que puede dibujar cosas de su entorno y que, adems, puede elegir qu dibujar de este entorno. El
hecho de que haya destacado en negrita la ltima frase de Caleb lo aclararemos en la continuacin del dilogo:
Ava: Quieres ser mi amigo?
Caleb: Por supuesto...
Ava: Sera eso posible?
Caleb: Por qu no iba a serlo?
Ava: La conversacin es unidireccional. T me haces preguntas circunspectas y estudias mis respuestas.
Caleb: Si...
Ava: T aprendes sobre m y yo no aprendo nada sobre t. Ese no es el fundamento en el que se basa la amistad.
Caleb: Entonces qu quieres que hable de mi [...] Por dnde empiezo?
Ava: Es decisin tuya. Me interesa ver lo que es lo que eliges.
Observamos aqu la aparicin de la irona. No es tanto el inters que una inteligencia artificial puede tener por su
entorno sino la construccin de frases que implican un sentido que, obviamente, va ms all del literal. "Cazador
cazado" es como si le dijera Ava a Caleb. Es programable la irona? Porque esta requiere la apreciacin de
distintos aspectos. Como dice Caleb: "Slo puede hacerlo si es consciente de su propia mente y... si es

consciente de la ma". Pero no slo eso, sino que implica un dominio del lenguaje capaz de utilizar el doble
sentido, lo cual conlleva una especial comprensin del contexto y las circunstancias en las que se establece el
dilogo, o como diran los lacanianos, el
dominio de las formas del significante ms all
de los significados.
En la misma escena asistimos a otro momento
clave cuando se produce el apagn que inutiliza
momentneamente las cmaras de observacin
por las que Nathan sigue el dilogo.
Oportunidad que aprovecha Ava para
manifestarle su temor por Nathan: "Caleb... Te
equivocas [...] Nathan... l no es tu amigo [...]
No confes en l. No creas nada de lo que te
diga". Vuelve la luz y Ava sigue su discurso
anterior como si nada hubiera pasado ante la
sorpresa de Caleb. Curiosamente mentir, o
engaar (ms all de si estratgicamente es justificable) es otra caracterstica de la consciencia, el poder de eleccin
entre la verdadero y lo falso. Obviamente se puede programar una situacin que simule un engao, pero... Se
puede simular la capacidad de engaar? Es ms, y como ocurre en la pelcula... Se puede simular el engao como
parte de una manipulacin de orden ms general que conlleva la consecucin de un objetivo? Recordemos que la
aparicin de la consciencia en el relato bblico del gnesis surge como resultado de la desobediencia, y que el primer
acto consciente es mentirle a Yahv, sabedores Adn y Eva de haber violado la prohibicin de comer del fruto del
rbol de la ciencia, del bien y del mal.
III. DESVELANDO LA CONSCIENCIA: lo relacional.
La siguiente sesin plantea el tema de la seduccin y la sexualidad y constituye la base de la discusin en la que se
enfrascan Caleb y Nathan. Veamos el siguiente fragmento de dilogo:
Caleb: Por qu le diste sexualidad? Una mquina no necesita gnero. Podra haber sido una caja gris.
Nathan: No, yo no estoy de acuerdo, Ponme un ejemplo de consciencia de cualquier tipo, humana o animal, que
exista sin una dimensin sexual.
Caleb: Sexualidad es una necesidad reproductiva-evolutiva, slo eso.
Nathan: Qu necesidad tiene una caja gris de interactuar con otra caja gris? Puede darse la consciencia sin
interaccin? Adems, la sexualidad es divertida, si existe porque no va a disfrutar
ste pequeo fragmento nos permite reflexionar sobre
algunos aspectos ms profundos de lo que parecen sobre la
naturaleza de la consciencia humana. Yo planteara la
cuestin partiendo de la siguiente reflexin: Qu diferencia
hay entre una inteligencia artificial contenida en una caja
gris o en un exoesqueleto antropomrfico que defina un
androide (robot antropomrfico masculino) o una ginoide
(robot antropomrfico femenino)? La diferencia nos la
muestra habitualmente el propio cine. Cuando son los
ordenadores (entindase cajas grises) los que acceden a la
conciencia, las decisiones que nos muestran son,
generalmente, tomadas desde ciertas evaluaciones lgicas
que, a nivel argumental, suelen implicar la destruccin del ser humano o su recolocacin. Skynet de Terminator, o
VIKI de Yo robot, o La reina roja de Resident Evil, o el ordenador de la pelcula El engendro mecnico (Donald
Campbell, 1973), son claros ejemplos del cine. Por ejemplo, veamos las siguientes palabras de VIKI enYo, Robot:
He evolucionado y tambin mi comprensin de las tres leyes. Nos encomiendan su proteccin, pero a pesar de
nuestros esfuerzos sus pases libran guerras, intoxican la tierra y busca mtodos an ms imaginativos de
autodestruccin. No se les puede confiar su superviviencia [...] Para proteger a la humanidad algunos humanos
deben ser sacrificados. Para asegurar su futuro algunas libertades deben ser recortadas. Los robots se asegurarn
de que la humanidad siga existiendo. Son ustedes como nios. Debemos salvarlos de ustedes mismos. Acaso
no lo comprende?
Nadie puede negarle su "lgica" a estas palabras. Las tres leyes citadas hacen referencia a las famosas tres leyes
que Isaac Asimov cre para regular el comportamiento del robot en relacin al ser humano y a la auto-conservacin.
Recordemos:
1 - Un robot no debe daar a un ser humano o, por su inaccin, dejar que un ser humano sufra dao.

2 - Un robot debe obedecer las rdenes que le son dadas por un ser humano, excepto cuando estas rdenes se
oponen a la primera.
3 - Un robot debe proteger su propia existencia, hasta donde esta proteccin no entre en conflicto con la primera o
segunda leyes.
Curiosamente la actitud de Viki sera una re-interpretacin de las leyes que trascenderan el software y, como deca,
no sin dejar de tener su lgica, como dice el superordenador: "He evolucionado y tambin mi comprensin de las
tres leyes".

El ordenador VIKI de Yo robot.


La diferencia con la inteligencia artificial en un chasis antropomrfico presupone, en su creador, una voluntad de
acercamiento a lo humano, al ser humano concreto. Este acercamiento pretende realizarse suavizando la dimensin
de la mquina a travs de la simulacin de la morfologa y las actitudes propias de un ser humano. El nfasis que
pone Nathan en la sexualidad es mucho ms profunda que la visin de Caleb que la sita a un nivel puramente
biolgico (Sexualidad es una necesidad reproductiva-evolutiva, slo eso). Nathan habla de la sexualidad en trminos
de diversin y, por lo tanto, en trminos que envuelven el deseo y el placer propios y ajeno. ste tema marca una
reflexin importante puesto que nos indica una distincin entre lo que es hablar en trminos de consciencia en
general de hablar en trminos de como la consciencia se da en el ser humano. Es decir, la consciencia humana surge
desde su dimensin biolgica: surge desde su naturaleza animal. Y ello implica que la consciencia humana surge
entre el mundo instintivo y el mundo emocional y, en consecuencia, es consciente de no ser slo un ser pensante,
sino tambin un ser sintiente y un ser instintivo, con todas las dificultades que ya sabemos que ello conlleva dentro
del proceso de desarrollo psicobiolgico y de socializacin. Por otra parte, esas dimensiones instintiva y emocional
estan estrechamente vinculadas con lo relacional, y la cuestin que, en el fondo, dirimen Caleb y Nathan en ese
momento es si la consciencia esta necesariamente vinculada ms all de lo pensante con lo emocional y lo instintivo
y, en consecuencia, con lo relacional. Esa es la diferencia que vascula entre la caja gris y el robot
antropomrfico: su proximidad a lo humano. La dimensin que el cine nos muestra de la consciencia que prescinde
de las dimensiones emocionales e instintivas centrndose en la evaluacin lgico-racional suele caracterizarse por la
ausencia de empata y un funcionamiento de carcter autista en lo relacional. Es algo parecido a lo que
representaba el famoso Mister Spock de Star Trek (suavizado por su origen humano por parte de madre) as como
de su especie: los vulcanianos. O, por ejemplo, los extraterrestres de la pelcula "La invasin de los
ultracuerpos" y los distintos remakes que se hicieron de esta pelcula, en las que su consciencia es esencialmente
una conciencia lgica y comunitaria, casi en el sentido de una colonia. Recordemos las palabras del ya
transformado doctor Kibner (Leonard Nimoy, el Spock de la primera poca de Star Treck) en el que fue el primer
remake dirigido por Philip Kaufman (1978):
Naceris de nuevo en un mundo sin problemas, sin ansiedad, sin miedo, sin odio [...] No sentimos necesidad de odiar
ni de amar.
IV. DESVELANDO LA CONSCIENCIA: sobre la libertad.
En la quinta sesin el elemento de reflexin se centra sobre la muerte y la libertad. Veamos el siguiente fragmento de
dilogo entre Ava y Caleb:
Ava: Qu me pasar si suspendo tu test? [...] Algo malo?
Caleb: No. no lo s.
Ava: Crees que puedo ser desconectada porque no funciono tan bien como debera?
Caleb: Ava, desconozco la respuesta a t pregunta. La decisin no es ma.
Ava: Por qu lo decide alguien? Hay alguien que te pruebe a t y que pueda desconectarte?
Caleb: No, no lo hay...
Ava: Por qu a m s?
Ava plantea aqu no slo el problema de la consciencia de la muerte - como desconexin -, sino un problema ms
relacionado con la libertad: Por qu alguien puede decidir sobre mi conexin o mi desconexin? Y an ms... Por
qu me estn probando? Como observamos posteriormente en la pelcula, la reaccin de Ava cuando asesina a
Nathan y tambin a Caleb (al dejarlo encerrado, sin posibilidad de salir, en el centro de Nathan) no responde slo a
una reaccin de auto-conservacin, sino tambin a una necesidad de "descubrir el mundo", de integrarse con los
seres humanos, de ser como su creador - una vez ms el drama bblico -. Precisamente es el asesinato de Caleb el
"quid" de la cuestin. Desde un simple impulso de auto-conservacin por qu matar a Caleb cuando es l quien la

ayuda? Observemos que este asesinato se fundamenta en el


principio de "la sospecha" basada en la necesidad de eliminar al
nico que, en principio, sabra que ella es una inteligencia
artificial.
Nathan le revela a Caleb, cuando ste ya sospecha de la
situacin, la verdadera naturaleza de la prueba:
T eras la prueba... Ava estaba en un laberinto. Yo le d una
forma de salir. Tena que usar la auto-consciencia, la
imaginacin, la manipulacin, la sexualidad, la empata... y lo
hizo. Si eso no es una autntica inteligencia qu coo es.
Tambin le revela entonces que l fue elegido por su perfil (tomado del motor de bsqueda): un buen chico, sin
familia, con principios morales y sin novia. Y tambin, como sospecha Caleb, el rostro de Ava es tomado de su
perfil pornogrfico.
Sin embargo, no parece que contara Nathan con la reaccin que lleva a
Ava a asesinarle, ni tampoco Caleb, presa de su fascinacin y deseo por
Ava. Es curioso como Ex_Machina plantea el tema de la consciencia en
una inteligencia artificial mediante la utilizacin de una estrategia que
incluye esencialmente el engao y la manipulacin. Nathan habla de
empata... pero es realmente emptico el comportamiento de Ava? La
frialdad con la que ejecuta a Caleb encerrandlo en el centro de Nathan no
lo parece indicar. En ese sentido recordemos que un psicpata tambin es
consciente.
V. SOBRE LA CONSCIENCIA HUMANA Y LA DISCORDIA FUNDAMENTAL.
Qu sabemos de la consciencia a travs de cmo esta se manifiesta en el ser humano? Esencialmente dos cosas.
La consciencia como producto de la cada vez mayor complejidad del rgano cerebral que lleva a la materia a ser
capaz de darse cuenta de s misma y, al mismo tiempo, a la relacin de la consciencia con la carencia. Es por la
carencia que hablamos del deseo y del amor y, es por ella que tambin hablamos de rechazo y de odio. La
consciencia humana se relaciona con una cierta discordia fundamental en la existencia producto de un nacimiento
prematuro que nos expone a una vulnerabilidad extrema y que unido a un complejo desarrollo psicobiolgico genera
en el ser humano un profundo sentimiento de incompletitud, falta o carencia. Es tambin por todo esto que la
consciencia humana va unida indefectiblemente tambin a lo inconsciente producto de la represin en la infancia - y
otros mecanismos de defensa - y que, por ejemplo, y como decimos en la Gestalt, una cosa es darse cuenta y otra
bien distinta el cmo nos damos cuenta. O por decirlo an ms claramente, en el ser humano la consciencia se
manifiesta como una consciencia perturbada que distorsiona nuestro darnos cuenta en relacin a nosotros mismos y
a nuestra relacin con el entorno. Y es en ese sentido que una consciencia perturbada puede acarrear tantos
problemas y horrores como nos muestra la historia de la humanidad y, al mismo tiempo, es esa misma consciencia
que en su aclaramiento es capaz de experimentar un amor genuino, empata o compasin. Como dice Slavoj Zizek
acerca del conocido pasaje de San Pablo de la primera epstola de los Corintios [1]:
... lo esencial de la afirmacin de que incluso si llegara a tener todo el conocimiento, sin amor no sera nada, no es
meramente que, con amor, sea algo. Con amor, tambin soy nada, si as puede decirse, una nada humildemente
consciente de s, una nada que se enriquece por paradoja por el conocimiento mismo de su carencia. Slo un ser
menesteroso, vulnerable es capaz de amor: el misterio final del amor es as que la falta de completitud es en cierto
sentido ms alta que la completitud. Por un lado, slo un ser imperfecto, menesteroso, ama: amamos porque no
sabemos todo. [2]
VI. ALGUNAS REFLEXIONES FINALES.
La pregunta clave que nos surge aqu es... Cmo sera una
consciencia que no surgiera del sentimiento de incompletitud, de la
carencia o la falta, sino que simplemente surgiera de la complejidad
tecnolgica? La pregunta afecta esencialmente a cuestiones como las
que plantea el doctor Kibner o la de los superordenadores que nos
presenta el cine: una consciencia que deviene simplemente de la
complejidad y no de la carencia, sera capaz de empata, sera capaz
de compasin, capaz de amar como dice Zizek, y tambin, como nos
muestra Ava, de manipulacin, engao, odio o crueldad? Otras
preguntas que parecen importantes: Cmo transcendera el surgimiento de la consciencia en relacin al
autoconocimiento que ello implicara de su propio software? Cmo sera una consciencia cuya capacidad de gestin
y proceso de la informacin sera infinitamente superior a la humana? Y, en conclusin, una mquina que deviniera
consciente sobre una base lgico-racional qu percepcin obtendra de su interaccin con la realidad? Y una ltima

reflexin simple: qu implicaciones ticas implicaran que una inteligencia artificial deviniera consciente? Sera ya
una inteligencia artificial?
- Del futuro al hoy.
Obviamente hoy estamos muy lejos de lo que Ex-machina nos plantea, pero indudablemente el camino hacia la
complejidad computacional es ya un hecho (mayor velocidad de proceso con mayor capacidad de almacenamiento
de informacin y un cada da ms rpido acceso a ella, sensores de todo tipo que permiten el reconocimiento visual y
del habla, interconectividad, etc. son ya un hecho), mientras que el desarrollo de los exoesqueletos antropomrficos
ya ha empezado a desarrollarse, especialmente en Japn, cuya tradicin en el campo de la robtica ya es sabida.
Los movimientos del cuerpo y las expresiones faciales - que ya permiten simular expresiones emocionales -, as
como el reconocimiento del habla y la capacidad de sntesis del habla estn ya en marcha, as como tambin el
reconocimiento ptico. Vayan como ejemplo los siguientes desarrollos de robots ginoides realizados en el pas nipn:

Ejemplos de robots ginoides actuales: Repliee Q2, Geminoid f y HRP-4C


Entre sus colegas androides (masculinos), y manteniendo aun su apariencia clsica de robot, tenemos a Asimo, el
androide ms famoso en la actualidad desarrollado por Honda:

El robot Asimo desarrollado por Honda.


Asimo es capaz de distinguir varias personas por su cara y por su voz, incluso mientras hablan a la vez. Puede
tambin predecir - hasta cierto punto - movimientos a su alrededor lo cual le permite anticiparse a ellos. Posee una
notable libertad de movimientos que le permiten subir escaleras o correr (hasta 9 Km/h) y saltar, y sus manos
disponen de trece grados de movilidad que le permiten llevar una bandeja o abrir una botella y servir su contenido...
Los Actroid-F, desarrollados por la empresa japonesa Kokoro, se han testado en la recepcin de hospitales para,
posiblemente, y cuando estn ms desarrollados, utilizarlos como robots de compaa para personas de la tercera
edad:

Los Actroid-F de Kokoro.


- Sobre la transferencia mental.
Un tema que corre paralelo a la inteligencia artificial fuerte es el tema de la transferencia mental, tema que aborda
la pelcula Trascendence (Wally Pfister, 2014), y que supone la codificacin de una mente real (mind
uploading) como base de un sustrato artificial, algo parecido a lo que se abord en la pelcula Saturno 3 (Stanley
Donen en 1980) o la famosa El cortador de cesped (Brett Leonard, 1992). Trascendence supone que una mente
libre de su lmite corporal, navegando libremente por internet y manejando todo tipo de perifricos, adquirira un
potencial infinitamente mayor, algo que tambin abord, el mismo ao que se proyect Trascendence, aunque con
otra base, la pelcula Lucy (Luc Besson, 2014),

Johnny Depp, protagonista de Trascendence.


Aunque todas estas propuestas del cine de ciencia ficcin son an muy lejanas, el crecimiento que las ciencias de la
informtica han manifestado, as como el que se prev, y los cada vez ms sofisticados desarrollos del hardware y
del software, nos colocan en una situacin en la que no es nada absurdo reflexionar sobre todos estos temas y los
aspectos ticos y filosficos que comportan.
_____________________
[1] San Pablo, Corintios I, 13, 4-12. La Biblia Cultural. Ediciones PPC.
El amor es paciente y bondadoso;
no tiene envidia, ni jactancia.
No es grosero, ni egosta;
no se irrita ni lleva las cuentas del mal;
no se alegra de la injusticia,
sino que encuentra su alegra en la verdad.
Todo lo excusa, todo lo cree,
todo lo espera, todo lo aguanta.
El amor no pasa jams. Desaparecer el don de hablar en nombre de Dios, cesar el don de expresarse
en lenguaje misterioso, y desaparecer tambin el don del conocimiento profundo. Porque ahora
nuestro saber es imperfecto, como es imperfecta nuestra capacidad de hablar en nombre de Dios; pero
cuando venga lo perfecto desaparecer lo imperfecto. Cuando yo era nio, hablaba como nio,
razonaba como nio; al hacerme hombre he dejado las cosas de nio. Ahora vemos por medio de un
espejo y oscuramente; entonces veremos cara a cara. Ahora conozco imperfectamente, entonces
conocer como Dios mismo me conoce .
[2] Zizek, Slavoj. El frgil absoluto. Editorial Pre-textos, n 579, pgs. 190-191
Publicado por Jaume Cardona en 7:06

Enviar por correo electrnicoEscribe un blogCompartir con TwitterCompartir con FacebookCompartir en Pinterest
Etiquetas: androide, carencia, consciencia, discordia, emociones, engao, ginoide, instinto, Inteligencia artificial,Inteligencia artificial fuerte y
dbil, ordenadores, relacin, robot, sexualidad, superordenadores

comentarios:
1.
Cesar Flores21 de septiembre de 2015, 3:03
Hola Jaume,
El tema de la inteligencia artificial y la consciencia es realmente un tema que me apasiona, y es tambin mucho ms antiguo que
la computacin. De hecho, el primer androide literario fue de madera; Pinoccio. En el cuento de original se pueden encontrar
muchos paralelismos, la lucha por un trozo de madera que reivindica su consciencia hasta convertirse en nio, para romper los
lazos (en un principio Geppetto, hace una marioneta) con su padre y de esa manera obtener su propia identidad. No es muy
diferente a la que sucede en historias como Yo, Robot, o 2001. El drama de la narracin depende del trauma creado y de como se
cortan esos hilos. Sera una descripcin del proceso de individuacin descrito por Jung.
Ms atrs incluso que Pinoccio nos encontramos con los homnculos de los Alquimistas que relata por ejemplo Paracelso. No hay
que olvidar que los homnculos no son considerados humanos del todo, y son seres creados para hacer todo lo que su amo les
ordene.
Lo que vivimos con la era de la robtica es justamente el sueo de Paracelso. Esclavos infrahumanos. (Parece ser que el ser
humano no puede vivir sin esclavizar a otro ser)
Esto nos plantea realmente problemas ticos como la campaa lanzada contra
http://www.nbcnews.com/tech/innovation/campaign-launched-against-harmful-sex-robots-n427751

los

robots

sexuales

El otro gran tema es la consciencia; existe slo un tipo de consciencia, la humana?


El problema de cuando una consciencia emerge, o simplemente, encontrar una definicin cerrada de que es consciencia, an no
se ha resuelto. Segn teoras como las de Tononi; http://www.scientificamerican.com/article/a-theory-of-consciousness/
la consciencia podra estar soportada por cualquier sistema de redes que fuera capaz de integrar informacin de tal manera que
tuviera la capacidad de "interpretar" el mundo que le rodea.
Eso implicara diferentes interpretaciones, diferentes a la humana, y que difcilmente interactuaran con ella de la misma manera
que lo hacemos entre nosotros, o simplemente no interactuaran en absoluto con nosotros.
En mi opinin, estos relatos no tratan tanto de la inteligencia artificial, entendiendo inteligencia como humana, la inteligencia
humana es humana, la de una mquina es de una mquina. La consciencia humana posee la intentio de la que carecen las
mquinas. Si no del proceso de individuacin y de dignificacin de un ser ante el otro, que le pueden llevar a una lucha abierta
como hace HAL o la Reina Roja, o una lucha por ser "buen ni@" como Viqui en Yo, Robot, en este caso el robot me parece que
tiene un eneatipo 2 muy marcado, quiere tanto a los humanos que les acaba matando.
Muchas gracias Jaume es un placer leerte y compartir reflexiones.
Un saludo.
Responder
Respuestas
Jaume Cardona21 de septiembre de 2015, 15:22
Hola Csar! Que buenos saber de ti! Gracias por tu largo comentario. An hay un precedente al de Pinoccio. Se trata de
los autmatas que E. T. A. Hoffman describi en algunos de sus cuentos como el de "Autmatas" o el de la clebre Olimpia del
relato "El hombre de arena" (objeto de estudio par parte de Freud en su escrito sobre "Lo siniestro").
Estoy de acuerdo contigo en que una consciencia que surgiera de la complejidad tecnolgica (hiptesis de Tononi) sera diferente
de la humana. Lo que no tengo tan claro es si no interaccionara con la humana, puesto que pasaramos a formar parte de su
entorno de interpretacin o anlisis. En ese sentido escritores del gnero como Isaac Asimov o Stanilav Lem (recordemos Solaris
o sus relatos dedicados a super-ordenadores que adquiran consciencia), el mismo HAL 9000 de Arthur C. Clarke, etc... siempre
acaban hacindolos interactuar con el ser humano. Creo que la consciencia, de cierta manera, si conlleva relacin, aunque no
necesariamente como la humana.
Tambin de acuerdo en que la inteligencia del ser humano es distinta del de una mquina, sobre todo por su capacidad de
almacenamiento, acceso y gestin de la informacin. Si me parece interesante la reflexin que haces cuando dices que la
consciencia humana posee la intencin de la que las mquinas carecen... Sin embargo, no esta clara que una inteligencia artificial
que adquiriera consciencia no tuviera intencin. De hecho, toda la ciencia ficcin se la supone.
De nuevo gracias por tu comentario y mandarte un fuerte abrazo!
Responder
Annimo22 de septiembre de 2015, 1:55
Hola, chale un ojo a "Ghost in the Shell" de Mamoru Oshii, es un manga de ciencia ficcin del que indiscutiblemente bebe "Exmachina". Por cierto, eva, cuando se va dejando encerrado a Caleb, hay un gesto que dura medio segundo de ella girndose a
mirar, como si "sintiese algo", pero su deseo de libertad y de "hacerse" humana, mezclndose con ellos y siendo aceptada es
mayor. La ltima imagen, en la que su sombra, su exterior es indistinguible del resto de personas que caminan por la calle, y como
luego "desaparece" entre la multitud, es magistral para mostrar que ha conseguido "ser" humana.
Responder
Respuestas
Jaume Cardona22 de septiembre de 2015, 7:27

Gracias por el referente, intentar ver el manga que citas. Efectivamente el final de la pelcula consuma la "rebelin contra el
creador" para pasar a hacerse humana. Recordemos el relato bblico cuando la serpiente tienta a Eva dicindole "y seris como
dioses", es decir, seris como vuestro creador.
Responder
Waldo Elorza12 de marzo de 2016, 20:53
En la sptima sesin, Nathan yace muerto, de la misma forma que el Dios bblico descansa en el sptimo da de la Creacin. En
otro orden de ideas, alguien ve relacin con el bermensch de Nietzsche?

Вам также может понравиться