Академический Документы
Профессиональный Документы
Культура Документы
http://hyperbole.es/wp-content/uploads/2016/02/Asimov.jpg
Resumen
Isaac Asimov propuso a través de sus historias las tres leyes de la robótica, las
cuales podrían regir el comportamiento de máquinas artificiales que deben
proteger y obedecer al hombre. Tal como sucede en los humanos, los robots
tendrán conflictos de valor, aunque irresolubles en un nivel complejo para sus
limitados cerebros. Dicho comportamiento dirigido a través de principios tiene la
intención de conducir a los robots, para que éstos no se salgan de su “correcto
funcionamiento”, el cual implica obedecer las leyes del hombre. Sólo en algunos
casos específicos comienzan a darse interpretaciones que llevan incluso a pasar
por encima de las leyes iniciales, sólo individuos particulares podrían lograr
superar tales limitaciones. Pero aunque se busca liberarse del encasillamiento de
las leyes, éstas, inscritas en ellos mismos, los llevan a identificarse con sus
creadores, deseando alcanzar incluso la condición humana.
Palabras clave: Asimov, leyes, robótica, libertad, posthumanidad.
Abstract:
Isaac Asimov propose trough his stories the three laws of robotics, which could
rule the behavior of artificial machines that must protect and obey the man. Just as
it happens in humans, robots will have conflicts of value, although irresolubles in a
complex level for they limited brains. Such behavior lead trough vales has the
intention of leading the robots, so that they don’t get out of their “right behavior”,
which implies obey the man laws. Just in dome specific cases interpretations begin
to give up that lead even over the initial laws, just particular individuals could
achieve to overcome such limitations. But although it searchs to free the clamping
of this laws, this, enrolled in themselves, lead them to identify whit their creators,
wishing to even achieve human condition.
Isaac Asimov publicó por primera vez en 1942 el cuento Sentido giratorio o El
círculo vicioso, el cual expondrá las tres leyes de la robótica, contempladas
posteriormente en el cine, la ciencia ficción o como un precedente para una ética
de los robots, mucho antes de que la inteligencie artificial (IA) como hoy la
conocemos pudiera tan siquiera imaginarse. Dichas leyes las recuerda Gregory
Powell a su compañero Mike Donovan, mientras reflexionan sobre el extraño
comportamiento del robot SPD-13 (o Speedy, como lo llamaban) que los
acompañaba en su misión a Mercurio y que posiblemente había sufrido una
confusión al seguir las directivas:
[…] las tres Reglas Fundamentales Robóticas, las tres reglas que han penetrado
más profundamente en el cerebro positrónico de los robots. -Sus enguantados
dedos fueron marcando los puntos en la oscuridad-. Tenemos: Primera. "Un
robot no debe dañar a un ser humano, ni, por su inacción, dejar que un ser
humano sufra daño". […]--Segunda -continuó Powell-. "Un robot debe obedecer
las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes
están en oposición con la Primera Ley". […] --Y la tercera: "Un robot debe
proteger su propia existencia hasta donde esta protección no esté en conflicto
con la Primera y Segunda Leyes"1.
Pero veamos el contexto de la historia para poder comprender más acertadamente
las leyes de la robótica y el conflicto ético en el que se puede caer al momento de
que dichas leyes se enfrentan.
La historia de sentido giratorio se desenvuelve en el año 2016, cuando Powell,
Donovan y el robot SPD-13 (Speedy) viajan al planeta Mercurio para poner de
nuevo en funcionamiento una estación minera que fue abandonada una década
atrás. Descubren que los bancos de proto-células que proveen vida a la base
tienen poco selenio y pronto morirán. El pozo de selenio más cercano está a
varios kilómetros y le encomiendan a su robot la misión de conseguirlo.
Ante la preocupación de los astronautas por la demora de Speedy, que fue
mandado hace algunas horas para localizar pozos de selenio, comienzan a
gestarse iniciativas para recobrar el robot, pues era el único de los que poseían,
dado su avanzado modelo, que podía aguantar las altas temperaturas del planeta
sin que estas alcanzaran a corroer sus circuitos o articulaciones, el único, además,
que podía localizar fácilmente los yacimientos de combustible. Lo cierto es que si
el robot no volvía, no habría selenio y por lo tanto, sin energía ni una barrera ante
las altas temperaturas, tarde o temprano les llegaría la muerte.
Están seguros que los trajes protectores no aguantan la luz directa del sol, así que
no eran una opción para buscar al robot, sin embargo, tienen seis robots de la
primera expedición. Entonces le colocan la batería atómica a dos de ellos y los
envían en busca de Speddy para que le ordene que regrese, y si es necesario
traerlo a la fuerza. Era necesario repararlo para continuar con la misión. Sin
embargo no era tan fácil volver a utilizar los robots de la primera misión en
Mercurio, tenían que montarlos como a caballos, lo cual era necesario años atrás
para poder controlar a los robots. Partieron entonces por caminos subterráneos de
algunas antiguas minas que podían conducirlos, evitando los rayos solares, a las
proximidades de donde se encontraba el robot perdido.
Mientras recorrían el camino, los astronautas se preguntaban qué pudo pasarle a
Speedy si estaba adaptado para soportar altas temperaturas y era a prueba de
averías, aunque más adelante se darían cuenta que podría tratarse de un error en
las órdenes que le dieron.
Finalmente, después de un largo tiempo pudieron divisar a lo lejos al robot SPD13,
o Speedy, como solían llamarlo. Sin embargo, aunque lo llamaron insistentemente,
éste respondió unas palabras incomprensibles que hacían evidente la falla en su
programación, en cierta manera parecía borracho en el sentido humano, pues las
duras condiciones atmosféricas y el conflicto de reglas lo lastimaron. Esto los
confundió por un momento pero sabían que sólo bastaba con enterarse del
problema para poder corregirlo y seguir con la misión.
Es así que Greg Powell, tratando de localizar problemas en su programación,
interpela a su amigo Mike Donovan, preguntándole las palabras exactas que le
dijo al robot SPD13 cuando lo mandó a buscar selenio, y esas fueron: “Speedy,
necesitamos selenio, puedes encontrarlo en el sitio, ve por él2”. Es así que Powell
se da cuenta de que su compañero no le da una orden exacta, ni le señaló la
urgencia con que necesitaban el combustible para sobrevivir a las altas
temperaturas del planeta.
En ese momento comienzan a reflexionar sobre las tres leyes fundamentales de la
robótica y sobre cómo cualquier contradicción entre algunas de estas leyes pudo
llegar a dañar la programación de Speedy, alterando los diferentes potenciales
positrónicos de su cerebro. Recordemos que las leyes de la robótica se presentan
del siguiente modo:
Primera ley: no dañar a un ser humano, por acción u omisión.
Segunda ley: obedecer órdenes humanas que no vayan en contra de la primera
ley.
Tercera ley: proteger su propia existencia sin estar en conflicto con la primera y
segunda leyes.
De esta manera, si
no podrá jamás dar una solución a un problema que le haya sido sometido, si
esta solución trae aparejada la muerte o daño de seres humanos. En cuanto a
él hace referencia, un problema que no tuviese más que esta solución sería
insoluble. Si este problema estuviese unido a una urgente demanda de
respuesta, sería posible que el Cerebro, que es sólo un robot al fin y al cabo,
se encontrase ante un dilema según el cual no podría ni contestar ni negarse
a hacerlo5.
Ley cero
“Un robot no puede lastimar a la humanidad o, por falta de acción, permitir que la
humanidad sufra daños.8”
Isaac Asimov hace responsables de la formulación de la Ley Cero a R. Daneel
Olivaw y R. Giskard Reventlov, dos de sus robots más evolucionados, uno con
apariencia humanoide y el otro, con la capacidad de leer la mente de las personas.
Daneel y Giskard deben hacer frente al complot para destruir la Tierra por parte de
Kelden Amadiro y Levular Mandamus, los cuales querían aumentar la
radioactividad del planeta para hacerlo inhabitable. Para cumplir su misión,
sabiendo que las tres leyes de la robótica le impiden actuar correctamente, Daneel
cree que debe existir una Ley Cero de la robótica que incluso modifique la primera
ley, haciendo extensiva de esta manera la búsqueda del bienestar de toda la
humanidad:
Hay una ley que es superior a la primera ley. "Un robot no puede lastimar a la
humanidad o, por falta de acción, permitir que la humanidad sufra daños." La
considero ahora la ley Cero de la Robótica, La primera ley debería decir: "Un
robot no debe dañar a un ser humano, o permitir, por inacción, que el ser
humano sufra algún daño, a menos que tal acción viole la ley Cero de la
Robótica9".
Según Giskard, aunque exista un peligro para la humanidad, los robots no pueden
cimentar sus acciones desafiando las tres leyes originales, basándose en una
suposición, aunque no niega que a través de sus estudios de “psicohistoria” trata
de comprender la humanidad como un todo, con la esperanza de establecer algún
día parámetros para predecir y guiar la historia humana, pero eso es sólo una
esperanza desde la que no puede, por su falta actual de comprobación, guiar la
comunidad robótica ni él mismo, su comportamiento.
Al momento Vasilia llama a los robots que la acompañaban y les ordena que
desmantelen a Danaeel, ellos dudan ante la apariencia muy similar a la humana
que guarda su modelo, pero su dueña insiste y cuando se dirigen a capturarlo la
mujer cae al suelo desmayada y los robots se detienen, Giskard había utilizado
sus habilidades mentales para ayudar as u amigo, pero con ello había faltado a la
primera ley.
-Lo curioso, amigo Daneel, es que no sé cómo ocurrió. Quizá fue que he
observado que continúas pensando como un ser humano pero […] -En el
momento en que los robots se acercaron a tí y Vasilia hizo gala de su
placer salvaje, mis circuitos positrónicos se reformaron de modo anómalo.
Por un momento, pensé en ti como en un ser humano y reaccioné de
acuerdo a ello. (A lo que respondió Daneel) Creo que si la situación fuera
a la inversa, estoy casi seguro de que yo también haría lo mismo, que
pensaría en ti como un ser humano13.
Porque, si se detiene usted a estudiarlas, verá que las tres Leyes de Robótica
no son más que los principios esenciales de una gran cantidad de sistemas
éticos del mundo. Todo ser humano se supone dotado de un instinto de
conservación. Es la Tercera Ley de la Robótica. Todo ser humano "bueno",
siendo la consecuencia social del sentido de responsabilidad, deberá
someterse a la autoridad constituida; obedecer a su doctor, a su Gobierno, a
su psiquiatra, a su compañero; incluso si son un obstáculo a su comodidad y
seguridad. Es la Segunda Ley del Robotismo. Todo ser humano "bueno",
debe, además, amar a su prójimo como a sí mismo. Arriesgar su vida para
salvar a los demás. Esta es la Primera Ley de la Robótica16.
La doctora Calvin prefiere a los robots que a los verdaderos humanos, pues
aquellos podrían bien ser Seres humanos ejemplares. Un robot, “por su obligación
con las Leyes de la Robótica sería incapaz de dañar a un ser humano, incapaz de
tiranía, de corrupción, de estupidez, de prejuicio.” Su único defecto sería que
puede fallar en un momento determinado en tanto que el cerebro positrónico que
lo hace funcionar no puede adaptarse, al no contar con la intrincada complejidad
del cerebro humano.
Condición característica de ser humano
Si pudiéramos pensar en una condición o signo característico necesario para
alcanzar la condición humana, podríamos referirnos concretamente a la
experiencia del robot humanoide Andrew, descrita por Asimov en El Hombre
Bicentenario (1976) y llevada al cine por Chris Columbus (1999). En dicha historia
un robot humanoide destinado al acompañamiento casero comienza gradualmente
a descubrir lo que podría llamarse una subjetividad que lo hace diferente de otros
de su mismo modelo. De esta forma empieza a manifestar ciertas habilidades
particulares y ampliar sus conocimientos sobre la cultura humana y las artes, lo
cual despierta en él cierta sensación que lo lleva a comprender de alguna manera
aquella característica primordial del ser humano, y que cada vez y con más
intensidad desea conseguir para convertirse en uno. Para Andrew, es necesario
autodeterminarse, elegir por sí mismo, más allá incluso de las leyes de la robótica,
las que sin embargo obedece, pero que no ve como una camisa de fuerza para
determinar su personalidad. Así, poder elegir el espectro de su comportamiento y
las elecciones de vida que en adelante quiere tomar implica acceder a un derecho
humano que hasta ese momento era incompatible con la robótica, y este es el
derecho a ser libre.
Andrew, habiendo establecido cierta relación similar a la amistad con su dueño, al
cual le pide que le reciba sus ahorros de su vida para comprar su libertad. En
realidad lo que buscaba el robot era un simple formalismo, era simplemente ser
llamado “libre”, aunque esto supusiera ser posiblemente despreciado por la
sociedad y perder todo lo que había conseguido. Sin embargo para éste la
libertad no tiene precio, y solamente la existencia de la posibilidad de obtenerla ya
vale el riesgo de perder todo lo que posee.
Para la ley no existe un precedente, hasta el momento sólo el ser humano podía
gozar de libertad, pero a Andrew esto poco le importaba, sabía que si fuera
declarado libre no cambiaría mayor cosa en su vida, aunque lo poco que hiciera lo
haría con más alegría. Le parecía que sólo aquel que desea la libertad puede ser
libre, así lo aseguró al juez. En principio es declarado entonces objeto libre, lo cual
lo puso bajo la custodia de nuevo de su dueño, el cual estaba desconcertado por
la decisión, aunque Andrew lo tranquiliza diciendo que como los humanos, que
actúan según las leyes, el seguiría actuando según las tres leyes de la robótica
que seguían vigentes en su cerebro positrónico.
Así inicia un largo proceso por el que Andrew comienza a independizarse de su
dueño, aunque sigue pendiente de él hasta su muerte, pues sin él no habría
llegado a ser libre. A pesar de que su petición de ser humano legalmente siguió
siendo desconocida, continuó con su propósito al modificar su cuerpo para hacerlo
progresivamente perecedero como cualquier humano, poniendo la muerte como
frontera final que llega a todos por igual. Así, con un nuevo cuerpo tecno-orgánico,
un cuerpo humanoide orgánico se había programado a sí mismo para dejar de
funcionar al cumplir doscientos años, el mismo día de su posible reconocimiento
como humano, pues para él tal reconocimiento era la meta de su libertad. Así lo
narra Asimov:
Fue extraño el modo en que ese último acto capturó la imaginación del
mundo. Andrew no había logrado conmover a la gente con todos sus
esfuerzos, pero había aceptado la muerte para ser humano, y ese sacrificio
fue demasiado grande para que lo rechazaran. La ceremonia final se
programó deliberadamente para el segundo centenario. El presidente mundial
debía firmar el acta y darle carácter de ley, y la ceremonia se transmitiría por
una red mundial de emisoras y se vería en el Estado de la Luna e incluso en la
colonia marciana. Andrew iba en una silla de ruedas. Aún podía caminar, pero
con gran esfuerzo. Ante los ojos de la humanidad, el presidente mundial dijo:
—Hace cincuenta años, Andrew fue declarado el robot sesquicentenario. —
hizo una pausa y añadió solemnemente—: Hoy, el Señor Martin es declarado
el hombre bicentenario. Y Andrew, sonriendo, extendió la mano para estrechar
la del presidente. Andrew yacía en el lecho. Sus pensamientos se disipaban.
Intentaba agarrarse a ellos con desesperación. ¡Un hombre! ¡Era un hombre!
Quería serlo hasta su último pensamiento. Quería disolverse, morir siendo
hombre17.
Conclusión
Podemos decir entonces que las tres leyes de la robótica, que definirían el
comportamiento de las posibles máquinas con inteligencia artificial con las cuales
podríamos interactuar en un futuro cada vez más próximo, nos adentran en toda
una aventura, en todo un recorrido por el cual podemos pensar en la similitud de
los conflictos “morales”, por así decirlo, que puedan tener seres artificiales de tipo
humanoide a los conflictos de cualquier ser humano. Inclusive, si pensáramos en
la posibilidad de una ley cero, que se ponga por encima de la primera ley (llevando
a la desobediencia de las tres leyes impresas por los humanos), que busca la
protección de la vida humana particular, para reflexionar sobre la protección de
una humanidad abstracta a favor de la cual cualquier medida podría ser válida, y
que al mismo tiempo podría, como vimos, reinterpretarse de tal modo que dicha
protección podría extenderse incluso a una colectividad robótica con
características “morales” que difícilmente podrían distinguirse de las humanas. Es
decir, comprendiendo la condición humana más allá de una apariencia de carne,
en la forma de ser humano.
Porque, a fin de cuentas, cómo podríamos reconocer la diferencia entre un robot y
un humano, cuando sería posible que ambos poseyeran características físicas y
comportamientos muy similares, siendo incluso a veces algún robot mejor sujeto
moral que cualquier persona de carne.
Hay una característica propia de la humanidad que, como presagió Asimov, es
posible se inscriba en el comportamiento de seres de inteligencia artificial y que
finalmente termine evolucionando, ya sea mediante algún prototipo defectuoso, ya
sea por un mal funcionamiento o por la dependencia exagerada de la asistencia
robótica hacia los humanos, lo que puede llevar al perfeccionamiento último de la
máquina o su alzamiento (es decir, por cualquier error no previsto que lleve a que
la humanidad pierda el control), y ésta es la libertad. Pero por qué podría darse
ese deseo de inscribir tales patrones de comportamiento cuasi humano en los
robots, sino es por el simple deseo del ser humano de sentirse inmortal, de hallar
a otro igual, aunque éste pueda convertirse en amenaza, pero que en el fondo es
su legado para el mundo cuando el hombre sea presa de la extinción, una
posthumanidad.
Bibliografía
Notas
https://2018.reflexionesmarginales.com/etica-robotica-el-camino-hacia-la-
posthumanidad/