Вы находитесь на странице: 1из 13

Ética robótica: el camino hacia la posthumanidad

Jairo Alberto Cardona Reyes

http://hyperbole.es/wp-content/uploads/2016/02/Asimov.jpg

Resumen

Isaac Asimov propuso a través de sus historias las tres leyes de la robótica, las
cuales podrían regir el comportamiento de máquinas artificiales que deben
proteger y obedecer al hombre. Tal como sucede en los humanos, los robots
tendrán conflictos de valor, aunque irresolubles en un nivel complejo para sus
limitados cerebros. Dicho comportamiento dirigido a través de principios tiene la
intención de conducir a los robots, para que éstos no se salgan de su “correcto
funcionamiento”, el cual implica obedecer las leyes del hombre. Sólo en algunos
casos específicos comienzan a darse interpretaciones que llevan incluso a pasar
por encima de las leyes iniciales, sólo individuos particulares podrían lograr
superar tales limitaciones. Pero aunque se busca liberarse del encasillamiento de
las leyes, éstas, inscritas en ellos mismos, los llevan a identificarse con sus
creadores, deseando alcanzar incluso la condición humana.
Palabras clave: Asimov, leyes, robótica, libertad, posthumanidad.

Abstract:

Isaac Asimov propose trough his stories the three laws of robotics, which could
rule the behavior of artificial machines that must protect and obey the man. Just as
it happens in humans, robots will have conflicts of value, although irresolubles in a
complex level for they limited brains. Such behavior lead trough vales has the
intention of leading the robots, so that they don’t get out of their “right behavior”,
which implies obey the man laws. Just in dome specific cases interpretations begin
to give up that lead even over the initial laws, just particular individuals could
achieve to overcome such limitations. But although it searchs to free the clamping
of this laws, this, enrolled in themselves, lead them to identify whit their creators,
wishing to even achieve human condition.

Key words: Asimov, laws, robotics, freedom, posthumanity

En el presente trabajo se pretende dar un vistazo a las ideas de Isaac Asimov


(1920-1992) sobre la posible interacción futura entre humanos y máquinas con
inteligencia artificial, Tales seres, al igual que los humanos, serán provistos de
algún sentido de moralidad que aunque rudimentario, podría llevarlos a
comprenderse a sí mismos como seres libres y casi humanos. A continuación
veremos cómo principios programados en los robots pueden llevar a un conflicto
interno en la toma de decisiones, cómo tales principios podrían comenzar a ser
interpretados, y cómo una nueva interpretación puede gestar nuevas
subjetividades que incluso refuerzan un vínculo de origen con la humanidad.

Isaac Asimov publicó por primera vez en 1942 el cuento Sentido giratorio o El
círculo vicioso, el cual expondrá las tres leyes de la robótica, contempladas
posteriormente en el cine, la ciencia ficción o como un precedente para una ética
de los robots, mucho antes de que la inteligencie artificial (IA) como hoy la
conocemos pudiera tan siquiera imaginarse. Dichas leyes las recuerda Gregory
Powell a su compañero Mike Donovan, mientras reflexionan sobre el extraño
comportamiento del robot SPD-13 (o Speedy, como lo llamaban) que los
acompañaba en su misión a Mercurio y que posiblemente había sufrido una
confusión al seguir las directivas:
[…] las tres Reglas Fundamentales Robóticas, las tres reglas que han penetrado
más profundamente en el cerebro positrónico de los robots. -Sus enguantados
dedos fueron marcando los puntos en la oscuridad-. Tenemos: Primera. "Un
robot no debe dañar a un ser humano, ni, por su inacción, dejar que un ser
humano sufra daño". […]--Segunda -continuó Powell-. "Un robot debe obedecer
las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes
están en oposición con la Primera Ley". […] --Y la tercera: "Un robot debe
proteger su propia existencia hasta donde esta protección no esté en conflicto
con la Primera y Segunda Leyes"1.
Pero veamos el contexto de la historia para poder comprender más acertadamente
las leyes de la robótica y el conflicto ético en el que se puede caer al momento de
que dichas leyes se enfrentan.
La historia de sentido giratorio se desenvuelve en el año 2016, cuando Powell,
Donovan y el robot SPD-13 (Speedy) viajan al planeta Mercurio para poner de
nuevo en funcionamiento una estación minera que fue abandonada una década
atrás. Descubren que los bancos de proto-células que proveen vida a la base
tienen poco selenio y pronto morirán. El pozo de selenio más cercano está a
varios kilómetros y le encomiendan a su robot la misión de conseguirlo.
Ante la preocupación de los astronautas por la demora de Speedy, que fue
mandado hace algunas horas para localizar pozos de selenio, comienzan a
gestarse iniciativas para recobrar el robot, pues era el único de los que poseían,
dado su avanzado modelo, que podía aguantar las altas temperaturas del planeta
sin que estas alcanzaran a corroer sus circuitos o articulaciones, el único, además,
que podía localizar fácilmente los yacimientos de combustible. Lo cierto es que si
el robot no volvía, no habría selenio y por lo tanto, sin energía ni una barrera ante
las altas temperaturas, tarde o temprano les llegaría la muerte.
Están seguros que los trajes protectores no aguantan la luz directa del sol, así que
no eran una opción para buscar al robot, sin embargo, tienen seis robots de la
primera expedición. Entonces le colocan la batería atómica a dos de ellos y los
envían en busca de Speddy para que le ordene que regrese, y si es necesario
traerlo a la fuerza. Era necesario repararlo para continuar con la misión. Sin
embargo no era tan fácil volver a utilizar los robots de la primera misión en
Mercurio, tenían que montarlos como a caballos, lo cual era necesario años atrás
para poder controlar a los robots. Partieron entonces por caminos subterráneos de
algunas antiguas minas que podían conducirlos, evitando los rayos solares, a las
proximidades de donde se encontraba el robot perdido.
Mientras recorrían el camino, los astronautas se preguntaban qué pudo pasarle a
Speedy si estaba adaptado para soportar altas temperaturas y era a prueba de
averías, aunque más adelante se darían cuenta que podría tratarse de un error en
las órdenes que le dieron.
Finalmente, después de un largo tiempo pudieron divisar a lo lejos al robot SPD13,
o Speedy, como solían llamarlo. Sin embargo, aunque lo llamaron insistentemente,
éste respondió unas palabras incomprensibles que hacían evidente la falla en su
programación, en cierta manera parecía borracho en el sentido humano, pues las
duras condiciones atmosféricas y el conflicto de reglas lo lastimaron. Esto los
confundió por un momento pero sabían que sólo bastaba con enterarse del
problema para poder corregirlo y seguir con la misión.
Es así que Greg Powell, tratando de localizar problemas en su programación,
interpela a su amigo Mike Donovan, preguntándole las palabras exactas que le
dijo al robot SPD13 cuando lo mandó a buscar selenio, y esas fueron: “Speedy,
necesitamos selenio, puedes encontrarlo en el sitio, ve por él2”. Es así que Powell
se da cuenta de que su compañero no le da una orden exacta, ni le señaló la
urgencia con que necesitaban el combustible para sobrevivir a las altas
temperaturas del planeta.
En ese momento comienzan a reflexionar sobre las tres leyes fundamentales de la
robótica y sobre cómo cualquier contradicción entre algunas de estas leyes pudo
llegar a dañar la programación de Speedy, alterando los diferentes potenciales
positrónicos de su cerebro. Recordemos que las leyes de la robótica se presentan
del siguiente modo:
Primera ley: no dañar a un ser humano, por acción u omisión.
Segunda ley: obedecer órdenes humanas que no vayan en contra de la primera
ley.
Tercera ley: proteger su propia existencia sin estar en conflicto con la primera y
segunda leyes.

De esta manera, si

un robot se encuentra en peligro y lo sabe. El potencial automático que


establece la Tercera Ley le obliga a dar la vuelta. Pero supongamos que tú le
"ordenas" [Powell dirigiéndose a Donovan] correr este peligro. En este caso la
Segunda Ley establece un contrapotencial más alto que el anterior y el robot
cumple la orden a riesgo de su existencia3.

El caso de Speedy no es diferente, aunque sea un modelo especializado para


aquellas misiones, la tercera ley ha sido reforzada en la programación de los
modelos SPD, de tal modo que huyen ante la amenaza eminente a su propia
existencia. Sin embargo, dada una orden vaga y sin énfasis especial, es llevado al
potencial de la segunda ley de forma débil. Los astronautas concluyen que el pozo
de selenio representa un peligro que efectivamente aumenta al acercarse a él (ya
que la exposición prolongada a gases corrosivos cerca del pozo de selenio puede
dañar su sistema), y a cierta distancia el potencial de la tercera ley, que lo lleva a
preservar su propia existencia, que es muy alto; compensa el potencial de la
segunda ley, obedecer órdenes humanas, que en este caso es impreciso y por lo
tanto muy bajo, lo cual crea un equilibrio. Es por esto que por una ley retrocede y
por la otra sigue adelante, dibujando de este modo círculos concéntricos alrededor
del pozo de selenio, justamente a la distancia donde los potenciales de la segunda
y la tercera ley se equilibran. Tenían que corregir el error de algún modo para
sacarlo del círculo, pues en equilibrio potencial y conflicto entre leyes, la mitad de
su cerebro positrónico está perdido, al igual que parte de su voluntad, de ahí que
parezca un borracho que no sabe a dónde va.
El dilema de los astronautas era entonces que, no podían conseguir el selenio por
ellos mismos, dadas las altas temperaturas; no podían mandar a los robots de
montura porque no pueden ir solos, ni los podían llevar tan rápido para evitar
quemaduras solares, ni siquiera sacrificarse yendo uno para salvar al otro, ya que
los robots de montura necesitan órdenes de ida y de vuelta. Por otra parte, no
podían agarrar a Speedy porque creía que estaban jugando y éste huía, dada la
disfuncionalidad temporal en su cerebro positrónico.
Además de esto, la acción corrosiva del monóxido de carbono en la atmósfera
pudo haber afectado a Speedy de forma grave, ya que ha estado expuesto a
dichos gases por varias horas, lo cual puede acarrear un daño irreparable a sus
articulaciones impidiéndole regresar a la base, por eso debían apresurarse.
Concluyeron entonces que, ya que no se puede incrementar el potencial de la
segunda ley dando las órdenes, podrían hacer lo contrario, es decir, si
incrementaban el peligro, dicho peligro incrementaría el potencial de la tercera ley
y retrocedería hasta el lugar donde estaban los astronautas. De esta manera,
incrementarían el monóxido de carbono cerca de donde él se encontraba para
sacarlo del círculo vicioso en el que había quedado encerrado. Para lograr su
cometido hicieron que un robot-montura lanzara a gran distancia una sustancia
que se esparcía como polvo cerca de Speedy, en ese mismo momento el robot
corrió hacia los humanos pero de nuevo regresó lentamente hacia donde estaba,
aunque le ordenan a otro robot que lo atrape, aquel ya iba demasiado lejos.
Así, Powell y Donovan se dieron cuenta que simplemente están estableciendo
nuevos equilibrios, cuando lanzaban algún químico para crear mayor cantidad de
monóxido de carbono e incrementaban el potencial de la tercera ley, el robot
retrocedía su posición hasta que la sustancia desaparecía y los niveles
atmosféricos se restablecían, entran en equilibrio y luego regresaba, es decir, de
algún modo están inventando otra órbita temporal en el círculo. Así comprendieron
que sin importar cómo traten de modificar los potenciales de la tercera o la
segunda ley, sólo conseguirían cambiar momentáneamente su equilibrio.

Para poder recuperar al robot, sobrevivir y continuar con la misión en Mercurio


tendrían que salirse inclusive de la segunda y tercera ley, recurriendo a la primera.
Desesperados plantean otra estrategia “De acuerdo con la Primera Ley, un robot
no puede ver a un ser humano en peligro por culpa de su inacción. La Segunda y
la Tercera no pueden alzarse contra ella”4, esto, aunque el robot esté
descontrolado y confundido. De esta manera ponen a prueba la primera ley, no
dañar a un ser humano, por acción u omisión, para tratar de romper el equilibrio
que lo confinaba en el círculo. Es más,

no podrá jamás dar una solución a un problema que le haya sido sometido, si
esta solución trae aparejada la muerte o daño de seres humanos. En cuanto a
él hace referencia, un problema que no tuviese más que esta solución sería
insoluble. Si este problema estuviese unido a una urgente demanda de
respuesta, sería posible que el Cerebro, que es sólo un robot al fin y al cabo,
se encontrase ante un dilema según el cual no podría ni contestar ni negarse
a hacerlo5.

Powell sale y aguanta el calor de la radiación, Speedy lo observa de lejos sin


acercarse y, contrario a lo que se pensaba, comienza a retroceder, pero Powell lo
interpela: “Speddy, debo regresar a la sombra o el sol terminará conmigo ¡es
cuestión de vida o muerte, Speedy te necesito!6” El robot sigue diciendo
incoherencias.
Aparece en aquel momento uno de los antiguos robots- montura: “perdón señor,
no debo moverme sin alguien encima, pero estás en peligro7”, lo cual demuestra
el peso de la primera ley en el cerebro positrónico de los robots. Pero Powell se
negó a que lo ayudara y le ordena que se aparte para continuar con su estrategia
de capturar a Speedy, aunque no fue posible quitarse de encima al antiguo robot
que seguía insistiendo mientras Powell le rogaba a Speedy que le ayudara, que se
estaba muriendo por el calor.
Sin embargo, de tanto insistir, Powell logra que el robot SPD13 recapacite,
manifestando que estaba confundido y que no comprendía lo que pasaba. Así,
Powell le pide que lo lleve a la base mientras se desvanece en los brazos del
robot. Al despertar, Donnovan había enviado al robot por selenio a otro pozo,
aunque esta vez con órdenes precisas, regresando en poco tiempo. Ahora Speedy
se escondía de Powell, tiene miedo de acercársele, siente culpa por haberse
fugado, pero Powell le da la mano diciéndole que no fue su culpa.

Ley cero

“Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la
humanidad sufra daños.8”
Isaac Asimov hace responsables de la formulación de la Ley Cero a R. Daneel
Olivaw y R. Giskard Reventlov, dos de sus robots más evolucionados, uno con
apariencia humanoide y el otro, con la capacidad de leer la mente de las personas.

Daneel y Giskard deben hacer frente al complot para destruir la Tierra por parte de
Kelden Amadiro y Levular Mandamus, los cuales querían aumentar la
radioactividad del planeta para hacerlo inhabitable. Para cumplir su misión,
sabiendo que las tres leyes de la robótica le impiden actuar correctamente, Daneel
cree que debe existir una Ley Cero de la robótica que incluso modifique la primera
ley, haciendo extensiva de esta manera la búsqueda del bienestar de toda la
humanidad:

Hay una ley que es superior a la primera ley. "Un robot no puede lastimar a la
humanidad o, por falta de acción, permitir que la humanidad sufra daños." La
considero ahora la ley Cero de la Robótica, La primera ley debería decir: "Un
robot no debe dañar a un ser humano, o permitir, por inacción, que el ser
humano sufra algún daño, a menos que tal acción viole la ley Cero de la
Robótica9".

Giskard hace algunas objeciones a dicha ley, la principal es que la humanidad,


comprendida claramente como una abstracción, ha servido como excusa a lo largo
de la historia humana para muchas guerras y crímenes atroces, o en sus palabras:
No puedo aceptar la ley Cero, amigo Daneel -respondió Giskard lentamente-.
Sabes que he leído mucho sobre la historia humana. En ella he descubierto
grandes crímenes cometidos por seres humanos y la excusa era siempre que
estaban justificados por las necesidades de la tribu, del Estado o, incluso, de la
humanidad una abstracción por lo que se la utiliza libremente para justificar
cualquier cosa y, por tanto, tu ley Cero es inconveniente10.

Según Giskard, aunque exista un peligro para la humanidad, los robots no pueden
cimentar sus acciones desafiando las tres leyes originales, basándose en una
suposición, aunque no niega que a través de sus estudios de “psicohistoria” trata
de comprender la humanidad como un todo, con la esperanza de establecer algún
día parámetros para predecir y guiar la historia humana, pero eso es sólo una
esperanza desde la que no puede, por su falta actual de comprobación, guiar la
comunidad robótica ni él mismo, su comportamiento.

Vasilia Fastolfe, dueña humana de Giskard, interviene contra Danaeel al confirmar


lo que su robot ha dicho:

Entonces voy a explicarte algo, robot, y veremos si puedes sobrevivir a la


explicación... Las tres leyes de la Robótica se refieren a seres humanos y
robots individuales. Puedes indicarme un individuo o un robot individual.
Pero, ¿qué es tu "humanidad" sino una abstracción? ¿Puedes mostrarme
la humanidad? Puedes dañar, o no dañar, a un ser humano específico y
comprender el daño o la falta del daño que ha ocurrido. ¿Puedes ver un
daño hecho a la humanidad? ¿Puedes comprenderlo? ¿Puedes
señalármelo?11

Danaeel reconoció que era confuso para él y que no lo comprendía


completamente, pero que seguía en pie y su cerebro aún no dejaba de funcionar
por pensar una ley nueva. Vasilia lo reta entonces a que convenza a Giskard de
que siga su ley cero, y aunque lo intenta, éste se niega. Luego Vasilia interviene
de nuevo contra Danaeel, insistiendo en el peligro que representa para los seres
humanos un robot que al parecer funciona mal ya que desobedece las tres leyes,
se trata de un peligro que debe ser eliminado. En sus palabras:

Bien, robot, todos tus esfuerzos no han llegado a nada y, no obstante,


sigues en pie. Eres curiosamente testarudo. Un robot como tú, que se
atreve a denunciar las tres leyes y sigue funcionando, es un claro peligro
para todos y cada uno de los seres humanos. Por esta razón creo que
debes ser desactivado al instante. El caso es demasiado peligroso para
esperar la lenta majestad de la ley, especialmente después de todo, por
ser un robot y no el ser humano al que tratas de parecerte12.

Al momento Vasilia llama a los robots que la acompañaban y les ordena que
desmantelen a Danaeel, ellos dudan ante la apariencia muy similar a la humana
que guarda su modelo, pero su dueña insiste y cuando se dirigen a capturarlo la
mujer cae al suelo desmayada y los robots se detienen, Giskard había utilizado
sus habilidades mentales para ayudar as u amigo, pero con ello había faltado a la
primera ley.

En una conversación posterior el mismo Danaeel termina reconociendo, como lo


señala Giskard, que podría dañar o permitir que se dañe a un individuo humano en
nombre de la humanidad abstracta. Giskard sigue pensando que se requiere
mayor claridad sobre el concepto “humanidad”, aunque su amigo le recuerda que
ya ha aceptado la ley cero cuando inmovilizó los robots de Vasilia y borró su
mente. A lo que responde Giskard:

Cuando ordenó a los robots que te desmantelaran, amigo Daneel, y mostró


placer ante esa idea, tu necesidad, sumada a lo que el concepto de ley Cero
había hecho ya, dominó la segunda ley y rivalizó con la primera. Fue la
combinación de la ley Cero, la psicohistoria, mi lealtad a Gladia y tu desamparo
lo que dictó mi acción. […] El mencionar la ley Cero redujo la intensidad de la
primera ley a un tono anormalmente bajo. La necesidad de salvarte fue
suficiente para cancelar lo que quedaba de ella y yo..., bueno, actué como lo
hice.

Lo cierto es que Giskard interpretó el peligro de Danaeel, no como el peligro que


corría un robot sino como el de un humano que debía proteger, olvidando la
primera ley:

-Lo curioso, amigo Daneel, es que no sé cómo ocurrió. Quizá fue que he
observado que continúas pensando como un ser humano pero […] -En el
momento en que los robots se acercaron a tí y Vasilia hizo gala de su
placer salvaje, mis circuitos positrónicos se reformaron de modo anómalo.
Por un momento, pensé en ti como en un ser humano y reaccioné de
acuerdo a ello. (A lo que respondió Daneel) Creo que si la situación fuera
a la inversa, estoy casi seguro de que yo también haría lo mismo, que
pensaría en ti como un ser humano13.

La Ley cero destruyó el cerebro positrónico de Giskard cuando intentó aplicarla ya


que violó la primera ley de la robótica. R. Giskard murió en Robots e Imperio, tras
verse obligado a dañar a un ser humano en virtud de la ley cero, viola a la vez la
primera ley, lo cual daña su cerebro positrónico. El problema. Fundamental con
esta ley es definir "Humanidad", así como determinar qué supone un "daño" para
la Humanidad. R. Daneel logró asimilarla gracias al sacrificio de Giskard,
convirtiéndose desde entonces en el protector en la sombra de la Humanidad.

Leyes de la robótica, un reflejo de la conducta humana

La doctora Susan Calvin, robopsicóloga comparte sus reflexiones en cierta


ocasión con el doctor Alfred Lanning, experto en robótica y director de
investigaciones de la U.S Robots., y con el político Francis Quinn, sobre cómo
diferenciar a un robot de un humano . Para ella, aunque el cerebro positrónico no
tiene manera de igualar la capacidad de elección autónoma de un humano
promedio, las reglas que lo rigen y por las cuales trata de calcular sus opciones,
son derivadas de valores que poseen sus propios creadores. Así:

La naturaleza de la reacción robótica ante un dilema es impresionante -


comenzó-. La psicología del robot está muy lejos de ser perfecta, como
especialista puedo asegurárselo, pero puede ser discutida en términos
cualitativos, porque a pesar de todas las complicaciones introducidas en el
cerebro positrónico de un robot, está construido por los humanos, y por lo
tanto, conformado de acuerdo con los valores humanos.14

Hasta un humano puede emborracharse al negar su responsabilidad ante cierto


problema que debe afrontar, ya sea por falta de conocimientos o porque no cree
poseer la capacidad de realizar dicha elección. De forma similar sucede con un
robot, que puede ir de una simple desorientación a una especie de locura que le
impida seguir funcionando. En palabras de Calvin:

Ahora bien, un humano enfrentado con una imposibilidad, responde


frecuentemente con una retirada de la realidad; penetra en mundo de engaño,
entregándose a la bebida, llegando al histerismo, o tirándose de un puente.
Todo esto se reduce a lo mismo, la negativa o la incapacidad de enfrentarse
serenamente con la situación. Y lo mismo ocurre con los robots. Un dilema, en
el mejor de los casos, creará un desorden en sus conexiones; y en el peor
abrasará su cerebro positrónico sin reparación posible. 15

Para Asimov (1984), habría estrictamente dos modos definitivos de distinguir a un


robot humanoide de un humano, uno físico y otro psicológico. El primero implica
un desmantelamiento o una disección que desintegrara a al ente en cuestión hasta
sus mínimos componentes, sometiendo estos inclusive a rayos X para
diferenciarlo. El segundo, requiere un estudio de la conducta, ya que es evidente
que si se trata de un robot, su cerebro positrónico debe seguir las tres leyes. Si el
ser en cuestión infringe alguna de las leyes podríamos decir que no es un robot,
pero si se adapta a las leyes tenemos un problema, ya que no habría manera de
saber si se trata de un robot que sigue su programación y su deber con las leyes,
o simplemente de una buena persona, en tanto que dichas leyes terminan siendo
un compendio de principios éticos humanos. Aclara Calvin dirigiéndose a Quinn:

Porque, si se detiene usted a estudiarlas, verá que las tres Leyes de Robótica
no son más que los principios esenciales de una gran cantidad de sistemas
éticos del mundo. Todo ser humano se supone dotado de un instinto de
conservación. Es la Tercera Ley de la Robótica. Todo ser humano "bueno",
siendo la consecuencia social del sentido de responsabilidad, deberá
someterse a la autoridad constituida; obedecer a su doctor, a su Gobierno, a
su psiquiatra, a su compañero; incluso si son un obstáculo a su comodidad y
seguridad. Es la Segunda Ley del Robotismo. Todo ser humano "bueno",
debe, además, amar a su prójimo como a sí mismo. Arriesgar su vida para
salvar a los demás. Esta es la Primera Ley de la Robótica16.
La doctora Calvin prefiere a los robots que a los verdaderos humanos, pues
aquellos podrían bien ser Seres humanos ejemplares. Un robot, “por su obligación
con las Leyes de la Robótica sería incapaz de dañar a un ser humano, incapaz de
tiranía, de corrupción, de estupidez, de prejuicio.” Su único defecto sería que
puede fallar en un momento determinado en tanto que el cerebro positrónico que
lo hace funcionar no puede adaptarse, al no contar con la intrincada complejidad
del cerebro humano.
Condición característica de ser humano
Si pudiéramos pensar en una condición o signo característico necesario para
alcanzar la condición humana, podríamos referirnos concretamente a la
experiencia del robot humanoide Andrew, descrita por Asimov en El Hombre
Bicentenario (1976) y llevada al cine por Chris Columbus (1999). En dicha historia
un robot humanoide destinado al acompañamiento casero comienza gradualmente
a descubrir lo que podría llamarse una subjetividad que lo hace diferente de otros
de su mismo modelo. De esta forma empieza a manifestar ciertas habilidades
particulares y ampliar sus conocimientos sobre la cultura humana y las artes, lo
cual despierta en él cierta sensación que lo lleva a comprender de alguna manera
aquella característica primordial del ser humano, y que cada vez y con más
intensidad desea conseguir para convertirse en uno. Para Andrew, es necesario
autodeterminarse, elegir por sí mismo, más allá incluso de las leyes de la robótica,
las que sin embargo obedece, pero que no ve como una camisa de fuerza para
determinar su personalidad. Así, poder elegir el espectro de su comportamiento y
las elecciones de vida que en adelante quiere tomar implica acceder a un derecho
humano que hasta ese momento era incompatible con la robótica, y este es el
derecho a ser libre.
Andrew, habiendo establecido cierta relación similar a la amistad con su dueño, al
cual le pide que le reciba sus ahorros de su vida para comprar su libertad. En
realidad lo que buscaba el robot era un simple formalismo, era simplemente ser
llamado “libre”, aunque esto supusiera ser posiblemente despreciado por la
sociedad y perder todo lo que había conseguido. Sin embargo para éste la
libertad no tiene precio, y solamente la existencia de la posibilidad de obtenerla ya
vale el riesgo de perder todo lo que posee.
Para la ley no existe un precedente, hasta el momento sólo el ser humano podía
gozar de libertad, pero a Andrew esto poco le importaba, sabía que si fuera
declarado libre no cambiaría mayor cosa en su vida, aunque lo poco que hiciera lo
haría con más alegría. Le parecía que sólo aquel que desea la libertad puede ser
libre, así lo aseguró al juez. En principio es declarado entonces objeto libre, lo cual
lo puso bajo la custodia de nuevo de su dueño, el cual estaba desconcertado por
la decisión, aunque Andrew lo tranquiliza diciendo que como los humanos, que
actúan según las leyes, el seguiría actuando según las tres leyes de la robótica
que seguían vigentes en su cerebro positrónico.
Así inicia un largo proceso por el que Andrew comienza a independizarse de su
dueño, aunque sigue pendiente de él hasta su muerte, pues sin él no habría
llegado a ser libre. A pesar de que su petición de ser humano legalmente siguió
siendo desconocida, continuó con su propósito al modificar su cuerpo para hacerlo
progresivamente perecedero como cualquier humano, poniendo la muerte como
frontera final que llega a todos por igual. Así, con un nuevo cuerpo tecno-orgánico,
un cuerpo humanoide orgánico se había programado a sí mismo para dejar de
funcionar al cumplir doscientos años, el mismo día de su posible reconocimiento
como humano, pues para él tal reconocimiento era la meta de su libertad. Así lo
narra Asimov:
Fue extraño el modo en que ese último acto capturó la imaginación del
mundo. Andrew no había logrado conmover a la gente con todos sus
esfuerzos, pero había aceptado la muerte para ser humano, y ese sacrificio
fue demasiado grande para que lo rechazaran. La ceremonia final se
programó deliberadamente para el segundo centenario. El presidente mundial
debía firmar el acta y darle carácter de ley, y la ceremonia se transmitiría por
una red mundial de emisoras y se vería en el Estado de la Luna e incluso en la
colonia marciana. Andrew iba en una silla de ruedas. Aún podía caminar, pero
con gran esfuerzo. Ante los ojos de la humanidad, el presidente mundial dijo:
—Hace cincuenta años, Andrew fue declarado el robot sesquicentenario. —
hizo una pausa y añadió solemnemente—: Hoy, el Señor Martin es declarado
el hombre bicentenario. Y Andrew, sonriendo, extendió la mano para estrechar
la del presidente. Andrew yacía en el lecho. Sus pensamientos se disipaban.
Intentaba agarrarse a ellos con desesperación. ¡Un hombre! ¡Era un hombre!
Quería serlo hasta su último pensamiento. Quería disolverse, morir siendo
hombre17.

Conclusión
Podemos decir entonces que las tres leyes de la robótica, que definirían el
comportamiento de las posibles máquinas con inteligencia artificial con las cuales
podríamos interactuar en un futuro cada vez más próximo, nos adentran en toda
una aventura, en todo un recorrido por el cual podemos pensar en la similitud de
los conflictos “morales”, por así decirlo, que puedan tener seres artificiales de tipo
humanoide a los conflictos de cualquier ser humano. Inclusive, si pensáramos en
la posibilidad de una ley cero, que se ponga por encima de la primera ley (llevando
a la desobediencia de las tres leyes impresas por los humanos), que busca la
protección de la vida humana particular, para reflexionar sobre la protección de
una humanidad abstracta a favor de la cual cualquier medida podría ser válida, y
que al mismo tiempo podría, como vimos, reinterpretarse de tal modo que dicha
protección podría extenderse incluso a una colectividad robótica con
características “morales” que difícilmente podrían distinguirse de las humanas. Es
decir, comprendiendo la condición humana más allá de una apariencia de carne,
en la forma de ser humano.
Porque, a fin de cuentas, cómo podríamos reconocer la diferencia entre un robot y
un humano, cuando sería posible que ambos poseyeran características físicas y
comportamientos muy similares, siendo incluso a veces algún robot mejor sujeto
moral que cualquier persona de carne.
Hay una característica propia de la humanidad que, como presagió Asimov, es
posible se inscriba en el comportamiento de seres de inteligencia artificial y que
finalmente termine evolucionando, ya sea mediante algún prototipo defectuoso, ya
sea por un mal funcionamiento o por la dependencia exagerada de la asistencia
robótica hacia los humanos, lo que puede llevar al perfeccionamiento último de la
máquina o su alzamiento (es decir, por cualquier error no previsto que lleve a que
la humanidad pierda el control), y ésta es la libertad. Pero por qué podría darse
ese deseo de inscribir tales patrones de comportamiento cuasi humano en los
robots, sino es por el simple deseo del ser humano de sentirse inmortal, de hallar
a otro igual, aunque éste pueda convertirse en amenaza, pero que en el fondo es
su legado para el mundo cuando el hombre sea presa de la extinción, una
posthumanidad.

Bibliografía

1. Asimov, Isaac. El Hombre Bicentenario. Santiago de Chile. Ediciones B, S.A.


1976.

2. Asimov, Isaac. Los robots y el imperio. Buenos Aires. Emecé. 1987.

3. Asimov, Isaac. Yo, robot. Barcelona. Edhasa. 1984.

4. García Manrique, Ricardo. "Yo, robot", o las tribulaciones de un robot kantiano.


Revista de Bioética y Derecho, no. 9. 2007.

Notas

1 Asimov, Isaac. Yo, robot. Barcelona. Edhasa. 1984, p. 43.


2 Ibíd, p. 42.
3 Ibíd, p. 43.
4 Ibíd, p. 48.
5 Ibíd, p. 146.
6 Ibíd, p. 50.
7 Ibíd.
8 Asimov, Isaac. Los robots y el imperio. Buenos Aires. Emecé. 1987, p. 241.
9 Ibíd.
10 Ibíd, p. 241.
11 Ibíd, pp. 241-242.
12 Ibíd, p. 242.
13 Ibíd, p. 252.
14 Ibidem, p. 48.
15 Ibidem, p. 146.
16 Ibídem, p. 179.
17 Asimov, Isaac. El Hombre Bicentenario. Santiago de Chile. Ediciones B, S.A.

1976, pp. 40-41.

https://2018.reflexionesmarginales.com/etica-robotica-el-camino-hacia-la-
posthumanidad/

Вам также может понравиться