Вы находитесь на странице: 1из 6

Blogs

Base

Ebooks

WWDC 2012

Entrar o Registrarse

GADGETS

SOFTWARE

FOTO

APPLE

JUEGOS

MVILES

MS

Internet

Tecnologa

Ciencia

Hardware

Software Etica

Cine y TV

Economa y Empresas tica

Propiedad Intelectual

Ms

Anuncios Google

Conciencia

ticapar robots a
Antonio Orbe 4 de junio, 2012, 16:30

ANTERIOR

SIGUIENTE

141
Like

Twittear

Lo ms ledo Lo ms comentado
El FBI le dice a los usuarios de Megaupload que pueden olvidarse de sus archivos Apple presenta iOS 6 y Siri en espaol The Guardian revela cables de WikiLeaks sobre la relacin Televisa Pea Nieto Anonymous publica 2,8 GB de correos internos de la Iglesia de la Cienciologa Alucinante "inmersin" al juego Portal desde el saln de casa

57

El desarrollo de robots y mquinas cada da ms complejos hace inevitable la pregunta deberamos implementar una tica para robots? La ficcin es una inspiracin para la vida. La ciencia ficcin lo es para la ciencia. Gran parte de los avances que vemos y veremos han sido precedidos por las visiones de los escritores. Un ejemplo notable son las tres leyes de la robtica de Isaac Asimov, formuladas en 1942. Un robot no puede hacer dao a un humano. Un robot obedecer las rdenes humanas, a menos que estas contradigan la primera ley Un robot proteger su propia existencia excepto si esto entra en conflicto con la primera y segunda ley Resulta curioso lo visionario y a la vez ingenuo que resultaba Asimov. En un sentido, ya prev robots autnomos, cosa que ahora empezamos a ver. Es ingenuo porque los robots que estamos empezando a fabricar estn en buena medida diseados para matar. Cada da se disean y construyen nuevos robots. Pulgas que graban, araas espas o cruadricpteros. Los drones del ejercito americano ya no solo realizan misiones de vigilancia. Van cargados con mortferas bombas. Los trenes sin conductor proliferan. El vehculo autnomo est a punto de invadir nuestras calles.

Destacadas

Twitter The Guardian Anonymous personaliza los revela cables de publica 2,8 GB Trendi... ... de co...

Las mejores aplicaciones mvi...

Sigue con The Guardian AppleWeblog la seala que cober... Telev...

Like

41073 likes. Sign Up to see what your friends like.

El punto de inflexin es el momento en que estas mquinas sean autnomas. Los drones estn teledirigidos. Un humano decide el objetivo y el momento. Pero como sabemos, cuando los dispositivos se multiplican, su control desborda a los operadores y acaban siendo dotados de autonoma. Un ejemplo de ello es el coche autnomo. Ningn humano lo supervisar. Incluso diseados para matar, los robots pueden tener alguna ventaja: no tienen odio ni deseo de venganza, no cometen violaciones no toman decisiones en caliente. Una caracterstica de los soldados es el abuso aadido a su funcin principal. En la vida te planteas permanentemente problemas ticos. Tambin cuando conduces, aunque la reaccin sea automtica. Un nio se cruza, freno? Un perro se cruza freno? Si freno, pongo en riesgo la vida de mi familia que me acompaa. O la del coche de al lado. Cul es la opcin moral adecuada? Si desarrollamos un coche autnomo, debera tener moral? Y cualquier otro robot autnomo, debera llevar implantado un mdulo moral?

3.260

Recomendar ALT1040
143K seguidores

Seguir a @alt1040

ALT1040 en tu email
Tu e-mail Suscribirse

converted by Web2PDFConvert.com

La moral humana es un vidrioso campo en el que las reglas no estn en absoluto claras. Esto se pone de manifiesto en los llamados dilemas morales. Imagina que un tren avanza hacia un grupo de personas que morirn aplastadas por l. T puedes cambiar el curso de los acontecimientos. Si aprietas un botn, el tren cambiar de va y aplastar a una nica persona Lo que tus amigos comparten en que est en la nueva va de forma que salvaras a cinco pero una morira. Lo haras? Ahora imagina que las mismas personas estn amenazadas pero a tu lado se encuentra un individuo Facebook malencarado, sucio y con aspecto ebrio. Si lo empujas a la va, morir atropellado, el maquinista parar el tren y las otras cinco personas se salvarn. Lo empujaras? Create an account or log in to see what your friends are doing. Sign Up Feed RSS Contacto
La imagen que el Vaticano no quiere que veas 1,044 people recommend this. Iron Man 3 ser la madre de todas las secuelas 288 people recommend this. 10 ilusiones pticas para romperte la cabeza 1,503 people recommend this.

La mayora de las personas responden que s apretaran el botn causando la muerte de una persona para salvar a otras cinco. La mayora responde que no empujara al individuo malencarado, salvndolo y causando la muerte de los cinco. Una explicacin consiste en que en el primer caso manipulas un botn, algo sin vida y en el segundo caso manipulas directamente a una persona.

Adolescente resuelve un problema propuesto por Newton hace 300 aos Para implantar un 1,708 people recommend this.

modelo en un ordenador tienes que tener claro el modelo. Para implantar tica en un robot, tienes que tener clara la tica. Miles de leyes han sido necesarias para la La Tierra en 121 megapxeles: la foto ms impresionante de nuestro planeta convivencia humana porque unas simples reglas ticas no sirven. Cmo implementar en 1,020 people recommend this. los robots algo que no est claro en los humanos?
Assange: Utilizas un iPhone, Blackberry o Gmail? Ests jodido 1,352 people recommend this.

Hoy por hoy solo encontramos respuestas en la bendita ciencia ficcin.

Cientficos encuentran que los componentes de la marihuana impiden el desarrollo del VIH en su etapa 7,907 people recommend this. Una joven de 10 aos crea de manera fortuita una nueva molcula en clase de ciencias 573 people recommend this.

F acebook social plugin

Temas:

Ciencia Ficcin

Drones

tica

Moral

Artculos relacionados La Marina de EE.UU. usar Linux para...


11 de junio de 2012

El ejrcito de Estados Unidos puede utilizar...


5 de junio de 2012

BAE Systems comienza las primeras pruebas de...


8 de mayo de 2012

Desarrollan robotpjaro capaz de posarse en...


1 de mayo de 2012

32 comentarios
Nombre Entra o crea una cuenta para dejar comentarios sin lmite de caracteres, calificarlos, usar tu avatar y otras ventajas.

Correo electrnico

Entrar o Registrate

Te quedan 200

caracteres. Los usuarios registrados no tienen esta limitacin.

Enviar comentario

Notificarme cuando se publiquen nuevos comentarios.


converted by Web2PDFConvert.com

ktillo
04/06/2012
Responder

seria bueno saber como resuleven esto

frank
05/06/2012
Responder

SI!

Flix Manuel
05/06/2012
Responder

Lo mismo digo, aunque falta muuucho tiempo para que eso sea una realidad. Y si se logra los humanos pasamos a ser obsoletos.

Eduardo (no el arcos u.u)


04/06/2012
Responder

1 a que la especie humana se extingue por esto..

aadsdas
04/06/2012
Responder

podras haber apostado ms total si ganas no tendrs que pagarlo.

Eduardo (no el arcos u.u)


04/06/2012

xDDD si :)

-Carlos05/06/2012

si gana no podr cobrarlo! pero si pierde si tendr que pagarlo!

Ian Bassi
04/06/2012
Responder

Lo del modulo de moralidad me recuerda al portal y las cosas no salen bien. es simple que salve lo mas posible y lo que tenga mas probabilidad de sobrevivir. La cosa es que de verdad sea como dice Asimov que no puedan matar humanos directamente simplemente evitar la mayor cantidad posible. Muere una persona por un accidente para salvar a otras bueno accidentes existen hasta que se invente algo para contrarrestarlo. El robot no esta para salvarnos siempre de todo accidentes siempre abran, pero que ayuden lo mas posible. disculpen las faltas de ortografia

Thaddeus666
04/06/2012
Responder

Interesante, querer implantar moralidad en una maquina cuando nosotros mismos no somos ni capaces de definirla o aplicarla siempre

Ronald
04/06/2012
Responder

Ya que pones una imagen de iRobot, en esa peli la etica es por probabilidades de sobrevivir, aunq al final nos demuestra que la mujer con menos probabilidades si se pudo salvar, tienes razon (cont)

Ronald
04/06/2012
Responder

es un terreno que daria mucho de que hablar, tanto como lo del aborto u otros temas, en los cuales todos tienen la razon, pero a la vez no la tienen.

Ian Bassi
04/06/2012
Responder

Pero pensa que si no fuera por el robot no sobreviviria ninguno de los 2. El robot esta
converted by Web2PDFConvert.com

para ayudar un poco mas, no para evitar todo.

Ignorante
04/06/2012
Responder

Se me hace superficial el artculo. Ademas, la primera ley esta incompleta. Dice algo asi: Un robot no puede hacer dao a un humano, o por su inaccin permitir que sufra dao.

Daniel
04/06/2012
Responder

Yo creo que el da que un robot pueda hacer un juicio moral, podr hecharle la culpa a otro robot por un error suyo. y entonces la humanidad tendra sus sustitutos.

Thaddeus666
04/06/2012
Responder

En ese momento se volveran un nio de verdad! (recordando a Pinocho jajaja)

Rogelio Lozano Peral


05/06/2012
Responder

Tambien previsto. Vease, si no, a Daniel R. Olivaw

Thaddeus666
05/06/2012

Recuerdo que tambien el Hombre del Bicentenario (en el libro no la peli) con el tiempo que tubo aprendio a doblar un poco las reglas y mentir.

Abraham
04/06/2012
Responder

Y de cuando ac Asimov tiene autoridad universal sobre la construccin y diseo de robots? Antes de hablar de moral primero debes hablar de conciencia y para que los robots la tengan falta mucho.

Chiller
04/06/2012
Responder

De hecho, lo que Asimov plante parece el modelo ideal para la tica impresa en los circuitos bsicos de los robots. Si no es autoridad universal, creo que costara bastante encontrar un mejor modelo

CharlesV32
08/06/2012
Responder

Nadie se la di, pero hizo un buen trabajo disendolas.

MWinterwolf
05/06/2012
Responder

Ciertamente, no se puede pedir tica cuando nosotros no somos ticos. Es mas, si programamos la tica a una maquina, es mucho mas probable que la respete antes que nosotros mismos.

Jose E
05/06/2012
Responder

Las reglas propuestas por Asimov parecen sencillas, pero cuando juegas un poco con ponerlas en practicas de das cuenta de lo complicado que son. Entre dos humanos, a cual salvaras?

Rogelio Lozano Peral


05/06/2012
Responder

Eso est previsto. En caso de conflicto, el robot se congela y su cerebro positronico se funde

Jose E
05/06/2012

converted by Web2PDFConvert.com

O sea que no salv a nadie.

lool
11/06/2012

o sea que no tienen incorporadas las teclas ALT+CTRL+SUPR?

Rogelio Lozano Peral


05/06/2012
Responder

No olvidemos la ley Zero, que permite a los robots daar a seres humanos individuales. Eso si, por el bien de la humanidad

Sergio
05/06/2012
Responder

Pensaba escribir ms, pero la restriccion de letras me ha tocado los esta ley si que es absurda!

Luis Blanch
05/06/2012
Responder

!!!PERO QUE RAYOS HACAN ESAS PERSONAS PARADAS EN LAS VAS DEL TREN!!! Las seis estaban muertas. As que solo tienes que decidir cuantas vas a resucitar al oprimir el botn.

CharlesV32
08/06/2012
Responder

la mejor decisin es dejar morir a esas personas paradas en las vas por estpidos

Hugo
07/06/2012
Responder

Creo que habr que darles autonoma a los robots hasta que se creen leyes que podamos seguir de forma universal, dndole al robots la figura jurdica de ser humano, para que tambin sea capaz de respetarlas. La bronca es que si la gente empieza a buscar huecos en las leyes, los robots podran ser ms rpidos en hallarlos.

CharlesV32
08/06/2012
Responder

Si, como dice en el artculo, El ejrcito usa drones de vigilancia cargados de bombas entonces las leyes de Asimov no se piensan implementar.

Carlos Mom
09/06/2012
Responder

Estamos tan atrasados en robtica para el modelo que describa Asimov (robots similares a los humanos) que el artculo carece de fundamento alguno. Esto tendra que haberse escrito en 30 o 40 aos.

Artculo Anterior
TimeScapes: la Tierra a mxima resolucin

Siguiente Artculo
China celebra con censura en la red el aniversario de las protestas de Tiananmen

( Subir )

La gua del geek

Apunta y dispara!

El medio no oficial de Todo sobre software Apple en castellano y la web

Toda la informacin sobre tecnologa mvil

converted by Web2PDFConvert.com

Cosas que nos gustan

El mundo del motor

Contamos el pulso de un pas intenso Partners tecnolgicos

Hipertextual ebooks Informacin Legal Acerca de Hipertextual Licencia Contacto Contratar publicidad

converted by Web2PDFConvert.com

Вам также может понравиться