Вы находитесь на странице: 1из 30

Lo difcil es la Inteligencia Artificial?

Argumentos evolutivos y
efectos de seleccin
Carl Shulman Nick Bostrom
www.nickbostrom.com
Abstract Varios autores han hecho el argumento de que los procesos
evolutivos ciegos porque produce la inteligencia humana en la
tierra, debe ser factible para humano inteligente ingenieros para
crear inteligencia artificial de nivel humano en un futuro no muy
lejano. Este argumento evolutivo, sin embargo, ha ignorado el efecto
seleccin de observacin que garantice que los observadores podrn
ver vida inteligente que han surgido en su planeta, no importa cun
difcil es para la vida inteligente para evolucionar en cualquier
planeta similar a la tierra. Exploramos cmo el argumento evolutivo
podra ser rescatadas de esta objecin, usando una variedad de
consideraciones de observacin teora de seleccin y anlisis de las
caractersticas de distribucin especficos y casos de encontrar
convergentes que, dependiendo de la resolucin de cuestiones
controvertidas en observacin la teora de seleccin, la objecin
puede ser total o moderadamente aliviaron, aunque otros retos para
el argumento evolutivo permanecen.
1. Argumentos evolutivos para facilitar la inteligencia
1.1 Introduccin
1 Qu puede decirnos acerca de la evolucin humana las perspectivas
para el nivel humano de Inteligencia Artificial (AI)? Un nmero de
filsofos y tecnlogos, entre ellos David Chalmers (2010) y Hans
Moravec (1976, 1988, 1998, 1999), sostienen que la evolucin humana
demuestra que tal AI no slo es posible, sino factible dentro de
este siglo. En estas cuentas, podemos estimar la relativa capacidad
de evolucin y de ingeniera humana para producir inteligencia, y
encontrar que la ingeniera humana ya es inmensamente superior a la
evolucin en algunas reas y es probable que se convierta en
superior en las zonas restantes antes de que sea demasiado tarde. El
hecho de que la evolucin de la inteligencia producida, por lo
tanto, indica que la ingeniera humana ser capaz de hacer lo mismo.
As, Moravec escribe:
1 aqu, nos referimos a sistemas que igualan o superan el
rendimiento cognitivo de los seres humanos en prcticamente todos
los mbitos de inters: "uniforme" desempeo de nivel humano parece
improbable, salvo quizs a travs de una estrecha emulacin de
cerebros humanos (Sandberg y Bostrom, 2008), puesto que el software
ya est sobrehumana en muchos campos.
1

La existencia de varios ejemplos de inteligencia diseado bajo estas


restricciones deberan darnos gran confianza en que podemos lograr

lo mismo en breve. La situacin es anloga a la historia del vuelo


ms pesado que el aire, donde las aves, murcilagos e insectos
demostr claramente la posibilidad
2 antes de nuestra cultura dominar.
Asimismo, Chalmers, esboza el argumento evolutivo de la siguiente
manera:
1. Evolucin producida la inteligencia humana [mecnicamente y no
milagrosamente].
2. Si la evolucin puede producir la inteligencia humana
[mecnicamente y no milagrosamente] y, a continuacin, probablemente
podemos producir a nivel humano de inteligencia artificial (antes de
largo).
_________ 3. Probablemente podemos producir a nivel humano de
inteligencia artificial (antes de largo).
Los argumentos a favor de la viabilidad de la inteligencia
artificial no dicen si el camino a seguir por los ingenieros humanos
para producir AI se asemejar a la ruta tomada por la evolucin. El
hecho de que la inteligencia humana ha evolucionado implica que
ejecuta algoritmos genticos es una manera de producir inteligencia;
no implica que sea la nica forma o la forma ms fcil para los
ingenieros humanos para crear inteligencia artificial.
Por consiguiente, podemos considerar dos versiones del argumento
evolutivo dependiendo de si hay o no la ingeniera de inteligencia
debe usar mtodos que recapitular los utilizados por la evolucin.
1.2 Argumento del problema dificultad el argumento del problema
dificultad intenta utilizar consideraciones evolutivas
indirectamente a demostrar que el problema de la creacin de
sistemas inteligentes no es demasiado duro (desde la evolucin ciega
lo hicieron) y luego usar esto como una causa general para pensar
que los ingenieros humanos probablemente pronto crack el problema
tambin. Uno puede pensar de este argumento como haciendo un reclamo
acerca del espacio de algoritmos en el sentido de que no es
demasiado difcil para buscar en este espacio y encontrar un
algoritmo que produce el nivel de inteligencia humana cuando se
implementa en el hardware prcticamente factible. (La dificultad
depende de hechos desconocidos sobre el espacio de los algoritmos de
inteligencia, tales como la medida en que la forma del paisaje
fitness favorece hill- escalada.) Podemos formalizar este argumento
como sigue:
1'. Evolucin producida la inteligencia humana.
2'. Si la evolucin producida la inteligencia humana, entonces es
"no-dura" para procesos evolutivos para producir la inteligencia
humana.
3'. Si es "no-dura" para procesos evolutivos para producir la
evolucin humana, entonces no es extremadamente difcil para los
ingenieros a producir inteligencia artificial de nivel humano.
4'. Si no es extremadamente difcil para los ingenieros a producir
inteligencia artificial de nivel humano, probablemente se llevar a
cabo antes de que sea demasiado tarde.
_________ 5'. Los ingenieros (largo) antes de producir inteligencia
artificial de nivel humano.

Mientras (1') est bien establecida, y podemos conceder (4'),


locales (2') y (3') requieren un cuidadoso escrutinio.
Consideremos primero (3'). Por qu creen que no sera
extremadamente difcil para los ingenieros humanos para averiguar
cmo crear inteligencia artificial de nivel humano, suponiendo que
era "non-duros" (en un sentido
2 Vase Moravec (1976).
2

que ser explicada en breve) para la evolucin para hacerlo? Un


motivo podra ser el optimismo sobre el crecimiento de las
habilidades para resolver problemas humanos en general o sobre la
capacidad de los investigadores de AI en particular para venir para
arriba con nuevas e ingeniosas formas de solucionar problemas. Este
optimismo, sin embargo, necesitara algn apoyo probatorio, el apoyo
que tendra que venir desde fuera del argumento evolutivo. Si este
optimismo est justificado es una cuestin fuera del mbito de este
documento, pero es importante reconocer que esta es una premisa
esencial en la actual versin del argumento evolutivo, una premisa
que debera indicarse expresamente. Observe tambin que si uno fuera
lo suficientemente optimistas acerca de la habilidad de los
programadores de AI para encontrar nuevos trucos ingeniosos,
entonces el argumento evolutivo sera intil: los ingenieros humanos
podran esperarse antes de producir (demasiado larga) soluciones
incluso problemas que eran "extremadamente difcil" (al menos muy
difcil de resolver por medio de procesos evolutivos ciegos).
A pesar de la necesidad de atencin en el desarrollo de premisa (3')
con el fin de evitar una petitio principii, el argumento del
problema dificultad es potencialmente interesante y posee algunas
llamado intuitivo. Por consiguiente, vamos a volver a esta versin
del argumento en secciones posteriores de este documento, en
particular concentrando nuestra atencin en la premisa (2'). Luego
veremos que la valoracin de dificultad evolutivo resulta implican
algunas profundas e intrincadas cuestiones en la aplicacin de la
teora de seleccin de observacin para el registro histrico.
1.3 Argumento de algoritmos evolutivos la segunda versin del
argumento evolutivo para la viabilidad de la inteligencia artificial
no intenta parlay consideraciones evolutivas en una evaluacin
general de lo difcil que sera crear inteligencia artificial
utilizando algn mtodo. En lugar de mirar al problema general de
dificultad, la segunda versin se centra en la idea ms especfica
que los algoritmos genticos se ejecutan en ordenadores lo
suficientemente rpido, podra lograr resultados comparables a los
de la evolucin biolgica.Podemos formalizar este "argumento de
algoritmos evolutivos" de la siguiente manera:
1'. Evolucin producida la inteligencia humana.

2'. Si la evolucin producida la inteligencia humana, entonces es


"no-dura" para procesos evolutivos para producir la inteligencia
humana.
3''. Haremos (largo) antes de poder ejecutar los algoritmos
genticos en equipos que son lo suficientemente rpido para recrear
en una escala de tiempo humana la misma cantidad de energa que la
optimizacin acumulativo de los procesos relevantes de la seleccin
natural instanciado de todo nuestro pasado evolutivo (para cualquier
proceso evolutivo que no era difcil).
_________ 4''. Haremos (largo) antes de ser capaces de producir
aplicando algoritmos genticos resultados comparables a los de
algunos de los resultados que la evolucin producida, incluidos los
sistemas que tienen nivel de inteligencia humana.
Este argumento de los algoritmos evolutivos comparte con el
argumento del problema dificultad sus dos primeros locales. Nuestras
investigaciones posteriores de la premisa (2'), por lo tanto, llevan
en ambas versiones del argumento evolutivo. Echemos un vistazo ms
de cerca a esta premisa.
1.4 dureza evolutivo y la observacin los efectos de seleccin
3

tenemos varios mtodos disponibles para comenzar a estimar la


potencia de bsqueda evolutiva en la tierra:
3 la estimacin del nmero de generaciones y los tamaos de la
poblacin disponible para la evolucin humana , crear
4 modelos matemticos de "lmites de velocidad" evolutivo bajo
diversas condiciones , y utilizando la genmica para
medir 5 anteriores tasas de cambio evolutivo. Sin embargo, creacin
confiable de inteligencia a nivel humano a travs de la evolucin
podra requerir ensayos sobre muchos planetas en paralelo con la
tierra, siendo uno de los pocos afortunados de tener xito. Puede
el hecho de la evolucin humana en la tierra permiten distinguir
entre los siguientes escenarios?
No disco inteligencia: Hay un buen camino de la mejora incremental
desde el ms simple de los primitivos sistemas nerviosos a los
cerebros capaces de inteligencia a nivel humano, lo que refleja la
existencia de muchos simple, fcilmente reconocible para los
algoritmos de inteligencia. En la mayora de los planetas con vida,
el nivel de inteligencia humana tambin desarrolla.
Inteligencia: duro viable algoritmos para la inteligencia son raros,
sin suavizar trazados de mejora incremental de rendimiento a nivel
humano. Evolucin requiere extraordinaria suerte en
1000 dio con un diseo para la inteligencia humana, por lo que slo
1 de cada 10 planetas con vida no lo hace.
En cualquier caso todos los recin evolucionado civilizacin
encontrarn que la evolucin logr producir sus antepasados. La
observacin de efectos de seleccin es que no importa cun difcil
es para nivel de inteligencia humana para evolucionar, el 100% de

las civilizaciones evolucion se encontrarn procedentes de planetas


donde sucedi de todos modos.
Cmo podemos estar seguros de que la inteligencia es duro, y esa
premisa falsa (2') en la evolutiva argumentos pueden ser
compatibles, en la cara de esos efectos de seleccin? Despus de un
breve tratamiento de premisa (3''), se discuten los enfoques
tericos de la literatura filosfica, en particular la asuncin
Self-Sampling (SSA) y el supuesto Self-Indication (SIA)-porque, por
desgracia, correctamente en analizar la evidencia evolucin depende
de difcil, inestable preguntas acerca de observador6 efectos de seleccin. Observamos que un conjunto comn de
suposiciones filosficas (SIA) admite sencilla evolucin de la
inteligencia, sino que lo hace casi a priori debido a que algunos
pueden encontrar objetable.
Alternativas comunes a SIA, por otro lado, nos exigen ms sopesar
cuidadosamente los datos evolutivos.
Intentamos esta evaluacin, discutiendo varios tipos de pruebas que
mantenga en el rostro de observacin los efectos de seleccin.
Encontramos que aunque se necesitan ms investigaciones, la tesis de
que "la inteligencia es extremadamente duro para evolucionar" es
coherente con la disposicin de datos evolutivos bajo estos
supuestos alternativos.
Sin embargo, los datos no descartar muchas hiptesis particulares en
virtud de que la inteligencia podra ser muy difcil de evolucionar,
y por lo tanto el argumento evolutivo todava debera aumentar
nuestra credibilidad en la factibilidad de nivel humano AI.
2. Requisitos computacionales para recapitular la evolucin mediante
algoritmos genticos
3 30 Baum (2004) a muy grandes rasgos calcula que entre el 10 el 40
y 10 de las criaturas que han existido en la Tierra, en el curso de
bsqueda evolutiva, argumentando que no poda haber invocado la
fuerza bruta para el espacio de bsqueda de posibles genomas. Sin
embargo, Baum no considerar las implicaciones de un conjunto de
planetas en su clculo.
4 Por ejemplo, MacKay (2009) calcula la informacin de la teora de
los lmites superiores del poder de la seleccin natural con y sin
sexo en un simple modelo aditivo de fitness.
5 Vase, por ejemplo, los halcones, et al. (2007) recientemente
acelerar la seleccin adaptable en los seres humanos, incluyendo la
comparacin de tasas de sustitucin adaptativa en diferentes linajes
de primates.
6 Vase la Gracia (2010) para un atento examen de estas cuestiones y
enfoques prominentes.
4

asumamos (1') y (2'), es decir, que no era duro en el sentido


descrito anteriormente para la evolucin para producir la
inteligencia humana. El argumento de los algoritmos evolutivos, a
continuacin, necesita una premisa adicional para entregar la
conclusin que los ingenieros pronto ser capaz de crear
inteligencia artificial, es decir, que pronto tendremos suficiente

potencia informtica para recapitular los correspondientes procesos


evolutivos que produjo la inteligencia humana. Si esto es plausible
depende tanto de lo que uno podra esperar avances en la tecnologa
informtica en los prximos decenios y de cunta potencia
informtica sera necesario para ejecutar los algoritmos genticos
con la misma potencia de optimizacin como el proceso evolutivo de
la seleccin natural que reside en nuestro pasado. Uno podra, por
ejemplo, tratar de estimar cuntos doblajes en rendimiento
computacional, siguiendo los lineamientos de la ley de Moore, sera
necesario a fin de duplicar los correspondientes procesos evolutivos
en los ordenadores.
Ahora, para seguir esta lnea de estimacin, debemos darnos cuenta
de que no cada hazaa que fue lograda por la evolucin en el curso
del desarrollo de la inteligencia humana es relevante para un
ingeniero humano que est tratando de evolucionar artificialmente la
inteligencia de la mquina. Slo una pequea porcin de optimizacin
evolutiva en la tierra ha sido la seleccin para la inteligencia.
Ms concretamente, el problema que los ingenieros humanos no
triviales de bypass puede haber sido el destino de una porcin muy
pequea del total de optimizacin evolutiva. Por ejemplo, ya que
podemos ejecutar nuestros equipos de energa elctrica, no tenemos
que reinventar las molculas de la economa de la energa celular
con el fin de crear mquinas inteligentes an evolucin molecular
podra haber utilizado una gran parte de la cantidad total de
potencia de seleccin que estaba disponible para la evolucin en el
transcurso de la historia de la tierra.
Uno podra argumentar que las intuiciones bsicas de AI estn
incorporados en la estructura de los sistemas nerviosos,
7 entr en existencia menos de mil millones de aos atrs. Si
tomamos ese punto de vista, entonces el nmero de
30 "experimentos" disponibles para la evolucin es drsticamente
reducido. Hay algunos 4-6*10 procariotas en
el mundo de hoy 8 19 , pero slo 10 9 10 insectos , y menos de 10
derechos (pre-poblaciones agrcolas eran rdenes de magnitud ms
pequeas). Sin embargo, los algoritmos evolutivos requieren no slo
variaciones para seleccionar entre sino una funcin de adecuacin
para evaluar variantes, normalmente el componente ms caro
computacionalmente. Una funcin de adecuacin para la evolucin de
la inteligencia artificial plausiblemente requiere la simulacin de
"el desarrollo del cerebro", el aprendizaje y la cognicin a evaluar
la aptitud. As podramos hacer mejor no mirar el nmero bruto de
los organismos con sistemas nerviosos complejos, pero en lugar de
asistir al nmero de neuronas en los organismos biolgicos que
podemos simular para imitar la evolucin de la funcin de fitness.
Podemos hacer una estimacin aproximada de esta ltima cantidad por
considerar los insectos, que dominan la biomasa terrestre,
10 con las hormigas solo estimaba que alrededor de 15-20% de la
biomasa animal terrestre. El tamao del cerebro del insecto vara
sustancialmente, con grandes y los insectos sociales disfrutando de
cerebros ms grandes; por ejemplo, una abeja cerebro tiene slo
7 Legg (2008) ofrece este motivo en apoyo de la afirmacin de que
los seres humanos sern capaces de recapitular los progresos de la
evolucin a lo largo de escalas de tiempo mucho ms corto y con
menos recursos informticos (aunque toma nota de que la evolucin no

ajustados recursos computacionales son mucho fuera de alcance). Baum


(2004) sostiene que algunos acontecimientos relevantes para AI
ocurrieron anteriormente, con la organizacin del genoma en s que
encarna una valiosa representacin de algoritmos evolutivos.
8 Vase Whitman et al. (1998).
9 Vase Sabrosky (1952).
10 Ver Schultz (2000).
5

6 bajo 10 11 5 neuronas , mientras que un cerebro de la mosca de la


fruta tiene 10 12 neuronas , y hormigas yacen en entre 250.000
neuronas. La mayora de los pequeos insectos pueden tener cerebros
de slo unos pocos miles de neuronas. Excederse en la
19 lado de alta de forma conservadora, si hemos asignado todos los
10 nmeros de la mosca de la fruta de los insectos de las neuronas,
el total sera
24 10 neuronas de insectos en el mundo.Esto podra aumentarse con un
pedido adicional de magnitud, a
25 reflejan los coppodos acuticos, aves, reptiles, mamferos,
etc., para llegar a 10 . (Por el contrario, en la pre-agrcola
7 veces haba menos de 10 11 los seres humanos, con bajo 10 18
neuronas cada uno, menos de 10 en total, aunque los seres humanos
tienen un alto nmero de sinapsis por neurona.)
El coste computacional de simular una neurona depende del nivel de
detalle que uno quiere incluir en la simulacin. Extremadamente
simple neurona modelos utilizan unas 1.000 operaciones de punto
flotante por segundo (FLOPS) para simular una neurona (durante un
segundo de tiempo simulado); un modelo de Hodgkin-Huxley
electrophysiologically realista utiliza 1.200.000 FLOPS; un anlisis
ms detallado modelo multicompartmental aadira otro 3-4 rdenes de
magnitud, mientras que los modelos de nivel superior sistemas
abstractos de neuronas podra
restar 13 2-3 rdenes de magnitud, desde los modelos simples. Si
furamos a simular 25 10 neuronas ms de mil millones de aos de
evolucin (ms de la existencia de los sistemas nerviosos como los
conocemos) en un ao de
31 runtime estas cifras nos dara un margen de 10 -1044 FLOPS. Por
el contrario, los japoneses K computer,
16 actualmente el superordenador ms potente del mundo, proporciona
slo 10 FLOPS. En los ltimos aos ha tomado aproximadamente 6,7
aos para ordenadores genricos para aumentar en el poder por un
orden de magnitud. Incluso un siglo de la continuacin de la ley de
Moore no sera suficiente para cerrar esta brecha. Ejecutando ms o
hardware especializado, o tiempos de ejecucin ms largos, podran
contribuir a slo unos ms rdenes de magnitud.
Esta cifra es conservadora en otro sentido. Evolucin alcanzada la
inteligencia humana an no estaba destinado a este resultado de
manera diferente: la aptitud para las funciones de organismos
naturales no selecciona slo para
14 inteligencia y sus precursores. Incluso en entornos en los que
los organismos superiores con habilidades de procesamiento de la
informacin- reap no puede seleccionar varias recompensas por la

inteligencia, porque las mejoras de inteligencia pueden y a menudo


imponen costos significativos, tales como un mayor consumo
energtico o tiempos de maduracin ms lenta, y los costos que
pueden superar los beneficios que se derivan del comportamiento
inteligente. Ambientes excesivamente mortal reducen el valor de la
inteligencia: la ms corta duracin esperada, menos tiempo habr
para el aumento de la capacidad para aprender a pagar. Reduce la
presin selectiva para la inteligencia disminuye la difusin de
innovaciones que incrementan la inteligencia y, por tanto, la
oportunidad para la seleccin a favor de innovaciones posteriores
que dependen de estos. Adems, la evolucin puede terminan atascados
en optima local que los seres humanos se dara cuenta y omitir
alterando compensaciones entre
15 explotacin y exploracin o proporcionando una progresin suave
de cada vez ms difcil, las pruebas de inteligencia. Y, como se ha
mencionado anteriormente, la evolucin se esparce mucho de su poder
de seleccin sobre rasgos que son ajenos a la inteligencia, como la
Reina Roja de razas de co-evolucin entre los sistemas inmunolgico
y parsitos.
Evolucin continuar a desperdiciar recursos produciendo mutaciones
que han sido fehacientemente letal, y tendr
11 Vase Menzel y Giurfa (2001).
12 Vase Truman et al. (1993).
13 Vase Sandberg y Bostrom (2008).
14 Vase Legg (2008) para una discusin ms amplia de este punto y
de la promesa de funciones o entornos que determinar la idoneidad
basada en un suave paisaje puro de las pruebas de inteligencia.
15 Vase Bostrom (2009) para una discusin ms detallada sobre
taxonoma y de las maneras en que ingenieros puede outperform
histrica eleccin.
6

no hacen uso de las similitudes en la estadstica de efectos de


diferentes mutaciones. Todos estos representan ineficiencias en la
seleccin natural (cuando se considera como un medio de evolucin de
la inteligencia) que sera relativamente fcil para un ingeniero
humano para evitar mientras utiliza los algoritmos evolutivos para
desarrollar software inteligente.
Parece plausible que evitando las ineficiencias como las descritas
permitira recortar
44 31 muchos rdenes de magnitud, desde los 10 -10 FLOPS rango
calculado anteriormente en cuanto al nmero de clculos neuronales
que se han realizado en nuestro pasado evolutivo. Lamentablemente,
es difcil encontrar una base para estimar cuntas rdenes de
magnitud. Es difcil hacer una estimacin aproximada para aught
sabemos, la eficiencia, los ahorros podran ser 5 o 10 o 25 rdenes
de magnitud.
El anlisis anterior abord los sistemas nerviosos de los seres
vivos, sin hacer referencia al coste de la simulacin de rganos o
los alrededores del entorno virtual como parte de una funcin de

adecuacin. Es plausible que una adecuada funcin de adecuacin


podra poner a prueba la competencia de un organismo determinado en
mucho menos operaciones que tomara para simular toda la computacin
neuronal del cerebro de ese organismo a lo largo de su vida natural.
AI programas hoy en da a menudo desarrollar y operar en entornos
muy abstracta (teorema-provers en matemticas simblicas mundos,
agentes en juego simple torneo mundos, etc.)
Un escptico podra insistir en que un entorno abstracto sera
insuficiente para la evolucin de la inteligencia general, en lugar
de creer que el entorno virtual tendra que ser muy parecido al
actual entorno biolgico en el que nuestros antepasados
evolucionaron. Crear un mundo virtual fsicamente realistas
requerira una inversin mucho mayor de los recursos computacionales
de la simulacin de un simple juguete mundo abstracto o dominio del
problema (mientras que la evolucin haba tenido acceso a un mundo
real fsicamente realistas "gratis"). En el caso lmite, si
propiedades microfsicas completa exactitud se haba insistido, los
16 requisitos de clculo sera el globo para totalmente inviable
proporciones. No obstante, tal pesimismo extremo parece improbable
fundado; no parece probable que el mejor entorno para la evolucin
de la inteligencia es uno que imita la naturaleza tan estrechamente
como sea posible. Por el contrario, es plausible que sera ms
eficiente utilizar un entorno de seleccin artificial, uno bastante
diferente de la de nuestros antepasados, un entorno diseado
especficamente para promover adaptaciones que aumenten el tipo de
inteligencia que nos estn tratando de evolucionar (es decir, un
razonamiento abstracto y general habilidades problem-solving en
contraposicin al mximo las reacciones instintivas rpido o un
sistema visual altamente optimizada).
Dnde premisa (3'') de pie? Los recursos informticos para hacer
coincidir los nmeros histricos de neuronas en sencillo de
simulacin de la evolucin biolgica en la Tierra estn gravemente
fuera de alcance, incluso si la ley de Moore contina durante un
siglo. El argumento de los algoritmos evolutivos depende
crucialmente de la magnitud de las ganancias en eficiencia de
bsqueda inteligente, quizs tantos como 30 rdenes de magnitud
requerida.
Estimacin precisa de esas ganancias de eficiencia est ms all del
alcance de este papel.
16 Uno podra tratar de eludir esta situacin a travs de la
construccin de cuerpos robticos que dejara criaturas simuladas
interactuar directamente con el mundo fsico real. Pero el costo y
la velocidad de aplicacin de tales sanciones seran prohibitivos
(por no mencionar las dificultades tcnicas de la creacin de robots
que puedan sobrevivir y reproducirse en la naturaleza!) con
organismos robticos macroscpico de interactuar con el mundo fsico
en tiempo real, podra tomar millones de aos para recapitular el
importante desarrollo evolutivo.
7

en lugar de una estimacin de apoyo (3''), uno tiene que caer en el


argumento ms general del problema la dificultad, en el que (3'') es
sustituido por (3) y (4'), los locales que podran ser ms fciles
de admitir razones intuitivas. Pero el argumento de la dificultad de
problemas requiere tambin premisa (2'), que la evolucin de la
inteligencia en la tierra era "no dura." (esta premisa se utiliza
tambin en el argumento de los algoritmos evolutivos: si (2') eran
falsas, por lo que uno podra tener para simular la evolucin de un
vasto nmero de planetas para producir de forma fiable a travs de
mtodos de inteligencia evolutiva, entonces requerimientos
computacionales pueden llegar a ser muchas, muchas rdenes de
magnitud an mayor.) Pasamos ahora a examinar (2') ms
estrechamente, y enfoques tericos para la evaluacin.
3. Dos teoras de efectos de seleccin observacional el mero hecho
de que hemos evolucionado en la tierra permiten distinguir entre la
inteligencia y la no17 duros escenarios de inteligencia? Surgen preguntas relacionadas
en filosofa 18 , teora de la decisin 19 , y la cosmologa , y los
dos principales mtodos para responder a ellos dan respuestas
contradictorias. Podemos introducir estos enfoques mediante el
siguiente ejemplo:
Dios de la adversidad: Supongamos que Dios lanza una feria moneda.
Si sale cara, l crea diez personas, cada uno en su propia
habitacin. Si colas, l crea mil personas, cada una en su propia
habitacin. Las habitaciones estn numeradas 1-10 o 1-1000. Las
personas no pueden ver o comunicarse con las otras habitaciones.
Supongamos que sabe todo esto, y usted descubre que en uno de los
primeros diez habitaciones.
Cmo debe la razn de que la moneda cay?
El primer enfoque comienza con la premisa: Self-Sampling
(SSA) observadores deben razonar como si fueran una muestra
aleatoria del conjunto de todos los observadores en
20 su clase de referencia.
Aqu la clase de referencia es un conjunto de posibles observadores,
por ejemplo "seres inteligentes" o "seres humanos" o "criaturas con
mis recuerdos y observaciones." Si la referencia de clase puede
incluir tanto a las personas que descubren que estn en las
habitaciones 1-10 y las personas que descubren que estn en las
habitaciones, y luego aplicando 11-1000 SSA
21 le llevar a concluir, con probabilidad de 100/101, que la moneda
cay jefes. Por si la moneda subi
17 Vase, por ejemplo, en el debate filosfico sobre "La Bella
Durmiente" de los casos, comenzando por Elga (2000) y Lewis (2001).
18 Vase Piccione & Rubinstein (1997) sobre el Absentminded
problema de controlador.
19 Si consideramos las teoras cosmolgicas de los que el mundo es
infinito (o finito pero excesivamente grandes) con suficientes
variaciones locales, entonces todas las posibles observaciones sern
hechas en algn lugar. Para realizar predicciones utilizando tales
teoras debemos tomar en cuenta la informacin indicial que estamos
realizando una observacin particular, ms que el simple hecho de

que algn observador en algn lugar ha hecho. Para ello principios


tales como SSA Y SIA debe combinarse con alguna medida ms
observadores, como se discuti en Bostrom (2007) y Gracia (2010).
20 Este enfoque fue introducida por Carter (p. ej., 1983),
desarrollado por Leslie (p. ej., 1993) y Bostrom (2002a), y se
utiliza implcitamente o explcitamente por un nmero de otros
autores, por ejemplo, Lewis (2001). Bostrom (2002a) ofrece una
extensin para considerar "observador-momentos", SSSA.
21 Si la clase de referencia incluye slo los observadores que han
descubierto que estn en uno de los primeros diez habitaciones,
entonces SSA no alterar nuestro credences en este ejemplo.
8

cabezas y luego el 100% de la clase de referencia se encontrara en


su situacin, pero si se le ocurri luego de las colas slo el 1% de
la clase de referencia se encontrara en su situacin. Por otro
lado, antes del descubrimiento de su habitacin debe considerar el
nmero de cabezas y colas igualmente probable, ya que el 100% de su
clase de referencia se encontrara en su situacin de cualquier
manera.
El segundo enfoque aade un principio adicional, el Self-Indication
suposicin:
(SIA) dado el hecho de que existe, deber (a igualdad de los dems
factores) favorecen las hiptesis segn la cual existen muchos
observadores sobre hiptesis en las cuales
existen pocos observadores 22.
En la LSS+SIA combinacin, si tomamos SIA a aplicar a los miembros
de una clase de referencia que incluye todos los observadores
indistinguibles de nosotros mismos, la referencia especfica clase
ya no importa: una clase de referencia ms expansiva recibe un
impulso de probabilidad de tener ms observadores en ella, pero esto
es exactamente compensado por la probabilidad de castigo por hacer
nuestras observaciones una porcin ms pequea de la clase de
referencia. Los detalles de la clase de referencia ya no desempean
un papel significativo. SIA entonces nos da el siguiente algoritmo:
primero asignar probabilidades a mundos posibles normalmente,
entonces multiplicar la probabilidad de cada mundo posible por el
nmero de observadores en situaciones subjetivamente indistinguible
de la propia, aplicar un renormalization probabilidades constantes,
de modo que agregar hasta 1, y dividir la probabilidad de cada mundo
uniformemente entre las hiptesis indicial que est cada observador
(indistinguible del mismo) en ese mundo.
En God's Coin Toss, este algoritmo significa que antes de descubrir
el nmero de habitacin que usted considere un resultado de colas
100 veces ms probabilidades que los jefes, pues condicionada a
tails habr cien veces como muchos observadores de la situacin que
habra dado los jefes. Tras descubrir que el suyo es uno de los
primeros diez habitaciones, podr considerar cabezas y colas
igualmente probables, como a un igual nmero de observadores se

encuentran en su situacin probatoria, independientemente del


resultado de la FLIP.
Equipado con estos resmenes, podemos ver que la SSA ofrece una
formalizacin de la intuicin de que el mero hecho de que hemos
evolucionado no es suficiente para distinguir la no disco duro de
Inteligencia Inteligencia: si usamos una clase de referencia como
"seres humanos" o "evolucionado seres inteligentes", entonces, en
ambos escenarios, el 100% de los miembros de la clase de referencia
se encontrarn en una civilizacin que logr desarrollar de todos
modos.
SSA tambin nos permite extraer conclusiones acerca de la evolucin
que no son tan empaadas por observacin los efectos de seleccin.
Por ejemplo, supongamos que estamos divididos equitativamente (en
consideraciones no indicial) entre la hiptesis de que la
ecolocalizacin se encuentra en el 1% o el 100% de los planetas con
relevantemente poblaciones similares de observadores. Al observar
que la ecolocalizacin existe en la tierra, podramos volver a hacer
una actualizacin Bayesiana como en Dios's Coin Toss y concluyen que
ecolocacin comn es 100 veces ms probable como rara
ecolocalizacin.
En esta cuenta, evolutiva innovaciones necesarias para producir la
inteligencia ser observado independientemente de su dificultad,
mientras que otras innovaciones estar presente slo si son
relativamente fcil, dada las condiciones de fondo (incluyendo
cualquier innovacin o otras condiciones necesarias para los
servicios de inteligencia). Observacin
22 vamos a abreviar la SSA+SIA combinacin como SIA por brevedad.
SIA se ha desarrollado varias veces como respuesta al argumento,
como en Doomsday Olum (2002) y Dieks (2007), y est estrechamente
relacionada con la posicin "thirder" en casos como la Bella
Durmiente en Elga (2000).
9

Seleccin podra ocultar la dificultad o rareza en el desarrollo de


los seres humanos, los sistemas nerviosos, eucariotas, abiogenesis,
incluso el diseo del Sistema Solar o las leyes de la fsica.
Tendramos que mirar a otras caractersticas del registro evolutivo,
tales como la distribucin de determinados acontecimientos,
innovaciones que no en la lnea de ascendencia humana, ms directa y
datos biolgicos. Analizaremos estas lneas en las secciones 5 y 6.
Sin embargo, este enfoque no est firmemente establecido, y el SIA
enfoque genera conclusiones muy diferentes, como se discute en la
siguiente seccin. Estas implicaciones divergentes proporcionan una
razn prctica para trabajar hacia una imagen mejorada de
observacin los efectos de seleccin. Sin embargo, en el nterin,
tenemos motivo para atender a los resultados de las dos teoras
actuales ms generalizada.

4. La suposicin Self-Indication (SIA) favorece el argumento


evolutivo inicialmente, la aplicacin de la EIS a la cuestin de la
dificultad de la evolucin puede parecer trivial: SIA favorece
decididamente ms observadores con nuestras experiencias, y si la
evolucin de la inteligencia es muy complicado, entonces ser muy
raro para los servicios de inteligencia como la nuestra para
evolucionar en el universo. Si, previamente a la aplicacin de la
EIS, estbamos igualmente confiados en que no son de disco duro y de
Inteligencia Inteligencia, entonces cuando aplicamos SIA
1000 vamos a actualizar nuestros credences considerar no dura 10
veces ms probabilidades de inteligencia tan duro de inteligencia,
desde
1000 nos esperara 10 veces como muchos planetas para evolucionar
observadores indistinguibles de nosotros bajo la no- disco de
inteligencia. Esta probabilidad de cambio podra abrumar incluso
extremadamente fuerte evidencia de lo contrario: si la no evidencia
indicial indic que la inteligencia fue duro un billn de billones
de veces ms probable como no-inteligencia, un duro SIA usuario debe
an felizmente apostar diez mil millones de dlares contra un
centavo que la evolucin de la inteligencia no es difcil.
Sin embargo, cuando llegamos a considerar la hiptesis de que la
evolucin de la inteligencia es cada vez ms fcil la frecuencia de
observaciones indistinguible de nuestra puede efectivamente
disminuir ms all de un cierto punto. Observamos un planeta donde
la evolucin de la humanidad tom 4.500 millones de aos despus de
la formacin de la tierra.
Si la inteligencia surgi lo suficientemente rpida y fiablemente,
entonces podramos esperar que la vida y la inteligencia para
evolucionar en una pronta vigencia del planeta: habr ms planetas
con inteligencia, pero menos planetas con fines- evolucionado
civilizaciones como la nuestra. Esta consideracin, en combinacin
con la EIS, podra parecer favorecer un nivel intermedio de
dificultad, as que la evolucin de la inteligencia normalmente
tarda varios millones de aos con los recursos de la tierra y se
produce bastante fiable pero no siempre en la vida del cojinete de
planetas.
Asimismo, observamos la ausencia de signos de vida extraterrestre
inteligente. Si la vida inteligente eran comunes, podra haber
colonizado la tierra antes que los seres humanos podra desarrollar,
o se hizo visible, en cuyo caso no habr ningn hombre sobre la
tierra hara nuestras observaciones exactas. Alguna combinacin de
barreras, la denominada "Gran Filtro"
23 debe haber impedido tal vida exticas procedentes de pases en
desarrollo cerca de nosotros y anticiparse a nuestras observaciones.
Sin embargo, otras cosas iguales, SIA aparece inicialmente a favor
explicaciones del Gran Filtro que coloque las barreras tras la
evolucin de la inteligencia. Aqu el pensamiento es que si el viaje
interestelar y la comunicacin son prcticamente imposibles, o si
las civilizaciones, casi invariablemente, se destruyen a s mismos
antes de la colonizacin del espacio, entonces los observadores como
nosotros puede ser ms frecuente; por lo tanto, si tenemos incluso
un pequeo crdito inicial en tales explicaciones del gran filtro
entonces tras la aplicacin SIA nos sern de gran prefiere que "la
inteligencia es rara" explicaciones. Incluso si uno tena
inicialmente slo 0,1% creble que la explicacin de

23 Vase Hanson (1998a) en el gran filtro. Neal (2007) y Gracia


(2010) explora la interaccin con SIA-como principios.
10

La gran permite Filtrado de informacin fiable la evolucin de


observadores como nosotros (por ejemplo, el viaje espacial es
imposible, o civilizaciones avanzadas imponer polticas contra
actividades fcilmente detectable en los recin llegados),
aplicacin de la IEA permitira incrementar la probabilidad de tales
explicaciones suficientemente para desplazar las hiptesis avanzadas
que implican que la vida es extremadamente rara. Esto pareciera
dejar el argumento evolutivo de AI en sonido
24 pie, desde la perspectiva de un proponente de SIA.
Sin embargo, el anlisis anterior supone que nuestras observaciones
de una galaxia bastante viejo pero vacas fueron descripciones
precisas de los cimientos de la realidad. Uno observ la implicacin
de SIA es que tiende a socavar esa suposicin. Concretamente, el
argumento de la simulacin se plantea la posibilidad de que dados
ciertos supuestos plausibles, por ejemplo que las simulaciones por
computadora de cerebros podra estar consciente, entonces
simulaciones por ordenador con nuestras observaciones podran ser
muchos rdenes de magnitud ms numerosas que "cimientos" realidad
seres con
25 de nuestras observaciones. Sin SIA, el argumento de la simulacin
no es necesario que nos conduce a la hiptesis de la simulacin, es
decir, la afirmacin de que somos las simulaciones por computadora
que est siendo ejecutado por alguna civilizacin avanzada,
26 desde las hiptesis podra resultar ser falso. Sin embargo, si
respaldamos SIA, incluso si nuestras pruebas no indicial est
decididamente en contra de la hiptesis de la simulacin, una
pequea inicialmente crdito a las hiptesis puede ser amplificada
por la SIA (y el potencial para grandes poblaciones simuladas) a la
extrema
27 de confianza. Esto favorecera la hiptesis en que la
inteligencia ha evolucionado con la frecuencia suficiente que las
civilizaciones avanzadas podran reclamar una gran proporcin de los
recursos adecuados para la computacin (para ejecutar simulaciones),
pero ha aumentado su frecuencia ms all de que no aumentara
considerablemente la poblacin mxima de observadores
indistinguibles de nosotros. La combinacin de la simulacin de
hiptesis y SIA sera tambin de forma independiente a favor de la
viabilidad de la IA, ya que la inteligencia artificial avanzada
tecnologa aumentara la viabilidad de producir muy grandes
poblaciones simuladas.
Para resumir esta seccin, conocidas aplicaciones de la SIA
consistentemente nos aconsejan asignar probabilidad despreciable al
disco de inteligencia, incluso en la cara de la evidencia en
contrario muy fuerte, mientras que nos asigne minsculos antes
probabilidad de relativamente fcil evolucin de la inteligencia.
Desde el nmero de planetas con la inteligencia y el nmero de
observadores indistinguibles de nosotros puede venir aparte, la EIS

permite la evolucin de la inteligencia para ser algunos rdenes de


magnitud ms difcil que una vez por sistema solar, pero no tan
difciles que la gran mayora de los recursos potenciales para la
creacin de observadores ir reclamados.
Sacar tales conclusiones empricas slidas de aparentemente casi a
priori motivos puede parecer censurable. Sin embargo, el supuesto
Self-Indication tiene una serie de consecuencias tales como, por
ejemplo, que si el
24 de Gracia (2010) sostiene que la IA podra esperarse que sea
capaz de superar las barreras para el viaje interestelar y la
comunicacin el gran filtro en combinacin con la EIS debera
reducir nuestra credibilidad en AI lo suficientemente potente para
participar en el viaje interestelar. La fuerza de esta actualizacin
depender de nuestra credibilidad en otras explicaciones de la gran
filtro, y podra decirse que es discutible por el anlisis de la
interaccin de la SIA con la hiptesis de la simulacin en los
prrafos subsiguientes.
25 El argumento se presenta en Bostrom (2003), vase tambin Bostrom
& Kulczycki (2011).
26 nota, por Chalmers (2003) y Bostrom (2003, 2005) que la hiptesis
de la simulacin no es una hiptesis escptica, pero una reclamacin
acerca de lo que se desprende de nuestra evidencia emprica acerca
de la viabilidad de las distintas tecnologas. La mayora de
nuestras creencias ordinario seguira siendo fundamentalmente
correctas.
27 Nota que SIA tambin amplifica nuestra credibilidad en la
hiptesis de que los recursos del simulador son grandes.Si asignamos
incluso una pequea probabilidad a la tecnologa del futuro
permitiendo arbitrariamente grandes cantidades de computacin, esta
hiptesis puede dominar nuestros clculos si aplicamos SIA.
11

No podemos asignar cualquier indexically finito antes de


probabilidad positiva al mundo que contiene infinidad de
28 observadores como nosotros, entonces post-SIA debemos creer que
esto es cierto con probabilidad 1. Los defensores de la SIA
dispuestos a morder esas balas en otros contextos pueden hacer lo
mismo aqu, y para ellos el argumento evolutivo de AI se parecen en
firme. Sin embargo, si uno piensa que nuestras opiniones sobre estos
asuntos deberan ser ms sensibles a la evidencia observacional,
entonces uno debe girar de la SIA y buscar en otros lugares las
consideraciones pertinentes.
Ahora nos moveremos a descripciones ms detalladas de la historia
evolutiva de la Tierra, informacin que puede combinarse con la SSA
para evaluar la evolvability de inteligencia, sin la parcialidad
contra inteligencia duro implcita por SIA.
5. SSA y pruebas de evolucin convergente recordar que dentro del
marco de la SSA lo hacemos como si nos fueron seleccionados
aleatoriamente del conjunto de todos los observadores, en nuestra
clase de referencia. Si la referencia de clase incluye slo las

inteligencias a nivel humano, entonces casi el 100% de los miembros


de la clase de referencia se derivarn de un ambiente donde la
evolucin producida de inteligencia humana al menos una vez. Por la
misma razn, si hay innovaciones que son necesarias para la
evolucin del nivel de inteligencia humana, estas deberan esperar
que evolucionen al menos una vez entre los antepasados de las
inteligencias a nivel humano.Sin embargo, nada en la observacin de
efectos de seleccin requiere que los observadores encontrar ese
nivel de inteligencia humana o cualquier precursor innovaciones
evolucionado ms de una vez o fuera de la lnea de ascendencia
conduciendo hasta el nivel humano inteligencias. As pues, las
pruebas de evolucin convergente-el desarrollo independiente de una
innovacin en varios taxones- puede ayudarnos a entender la
evolvability de inteligencia humana y sus precursores, y para
evaluar los argumentos evolutivos para AI.
El ltimo ancestro comn (LCA) compartida entre los seres humanos y
los pulpos, calcula que han vivido al menos 560 millones de aos en
el pasado, era una diminuta criatura wormlike con un
29 sistema nervioso muy primitivas; tambin era un ancestro de los
nematodos y las lombrices de tierra. No obstante, los pulpos pas a
evolucionar extensas partes del sistema nervioso central, con ms
masa del sistema nervioso (ajustado para el tamao del cuerpo) de
los peces o reptiles, y un sofisticado repertorio conductual,
incluyendo memoria, comunicacin visual, y
30 el uso de la herramienta. Impresionantemente inteligente, los
animales con ACV ms recientes incluyen, entre otros,
31 (corvids cuervos y cuervos, LCA hace aproximadamente 300 millones
de aos) 32 , los elefantes (LCA hace unos 100 millones de aos).
En otras palabras, desde el punto de partida de los wormlike
ancestros comunes en el medio ambiente de la tierra,
28 Vase Bostrom y Cirkovic (2003).
29 Vase Erwin y Davidson (2002).
30 Vase, por ejemplo, Mather (1994, 2008), Finn, Tregenza,y Norman
(2009) y Hochner, Shomrat, & Fiorito, G. (2006) para un examen
de inteligencia de pulpo.
31 Por ejemplo, un cuervo llamada Betty fue capaz de doblar un cable
recto en un gancho para recuperar un cucharn de comida de un tubo
vertical, sin formacin previa; los cuervos en el medio silvestre
fabricar herramientas de palos y hojas para facilitar su caza de
insectos, pase sobre patrones de uso de la herramienta, y usar el
engao social para mantener el robo de alimentos; cachs resistentes
ver Emery y Clayton (2004). Para GRC dating, vase Benton y Ayala
(2003).
32 Vase Archibald (2003) para la LCA dating, y Byrne, Bates, y Moss
(2009) para una revisin alegando que los elefantes" el uso de la
herramienta, el sentido numrico, empata y capacidad para pasar la
prueba del espejo sugieren que son comparables a los grandes simios
no humanos.
12

Los recursos de evolucin compleja producida independientemente el


aprendizaje, la memoria y el uso de la herramienta tanto dentro como
fuera de la lnea de ascendencia humana.
Algunos proponentes del argumento evolutivo para AI, como Moravec
(1976), han colocado un gran peso en los casos de evolucin
convergente. Antes de aprender acerca de la diversidad de
inteligencia animal, asignaramos alguna probabilidad a situaciones
en las que el desarrollo de estas capacidades bsicas de
comportamiento (dadas las condiciones de fondo) era un obstculo
importante para la creacin de inteligencia a nivel humano. En la
medida en evolucin convergente nos permite descartar las formas
particulares en que la evolucin de la inteligencia podra ser
difcil, se debera reducir el total de nuestra credibilidad en la
evolucin de la inteligencia siendo duro (que es simplemente la suma
de nuestra credibilidad en todos los sentidos, podra ser difcil).
Sin embargo, hay una importante advertencia a esos argumentos. Una
especie que muestra evolucin convergente de la inteligencia
conductual puede tener una arquitectura cognitiva que difiere en no
observables de los aspectos, de la de nuestros antepasados. Tales
diferencias podran significar que los cerebros de animales encarnan
los algoritmos que son difciles de "escala" o aprovechar para
producir inteligencia a nivel humano, por lo que la facilidad de su
evolucin tiene poco que ver con la factibilidad de AI. Por
analoga, los programas de ajedrez superan a los seres humanos
dentro del limitado dominio del ajedrez, sin embargo, los algoritmos
subyacentes no pueden adaptarse fcilmente a otras tareas
cognitivas, y mucho menos a nivel humano AI. En la medida en que
dudamos de la "escalabilidad" de pulpo o corvid inteligencia, a
pesar de la aparicin de considerables, la generalidad, tendremos
argumentos de descuento de su evolucin convergente en consecuencia.
Adems, incluso si hemos estado sobre la informacin relevante de la
similitud de la inteligencia en estos linajes ancestrales
convergentes y aquellos a los seres humanos, a los efectos de la
seleccin de observacin podra todava esconden una extraordinaria
suerte en factores compartidos por ambos. En primer lugar, efectos
ambientales de fondo, tales como las leyes de la fsica, el diseo
del Sistema Solar y la geologa de la Tierra podra ser inusualmente
favorables para la evolucin de la inteligencia (en relacin a
alternativas simuladas para IA), independientemente de la evolucin
convergente. Segundo, la ACI de todos estos linajes ya estaba
equipado con diversas caractersticas visibles, como los sistemas
nervioso- que evolucionaron slo una vez en la historia de la tierra
y que, por consiguiente, podran haber sido arbitrariamente difcil
evolucionar. Mientras las condiciones de fondo como la geologa y la
ausencia de impactos de meteoros parecen relativamente improbable
que corresponden a problemas importantes para los diseadores de AI,
es algo menos inverosmil suponer que las neuronas temprana diseo
esconden una extraordinaria dificultad: mientras modelos
computacionales de neuronas individuales han mostrado una
impresionante xito predictivo, puede que an albergan sutilmente
pertinentes
33 imperfecciones. Por ltimo, algunos sutiles caractersticas del
LCA pueden tener habilitado enormemente el desarrollo posterior de
la inteligencia sin efectos visibles inmediatos. Consideremos el

caso de los ojos, que se han desarrollado en distintos linajes de


animales con grandes variaciones de caractersticas anatmicas y
propiedades (comparar los ojos de los seres humanos, pulpos, y las
moscas de la fruta). Los ojos de todos los linajes hacer uso de las
protenas conocidas como opsins y algunos genes reguladores comunes
como PAX6, que estaban presentes en el ACV de todas las criaturas
con
34 ojos. Asimismo, alguna oscura gentico o fisiolgico que datan
del pulpo-LCA humana pueden ser esenciales para el posterior
desarrollo del pulpo nivel de inteligencia distintos linajes y han
requerido una extraordinaria suerte.
33 Vase Sandberg y Bostrom (2008), para una revisin.
34 Vase Schopf (1992) sobre la evolucin convergente de los ojos.
13

Adems de las condiciones de fondo compartido por linajes, evolucin


convergente tambin deja abierta la posibilidad de innovaciones
difciles situadas entre las habilidades de los elefantes o corvids
o pulpos y nivel de inteligencia humana, puesto que no tenemos
ejemplos de capacidades a nivel humano robustamente convergently
cambiantes. Si la evolucin del nivel de inteligencia humana eran
suficientemente fcil, a partir de las capacidades de estas
criaturas de la Tierra, entonces podra parecer que los observadores
deberan encontrar que apareci varias veces en la evolucin en sus
planetas. Sin embargo, como la tecnologa humana avanzada, hemos
causado extinciones masivas (incluyendo todos los dems homnidos) y
firmemente ocuparon el nicho ecolgico de herramienta dominanteusuario. Si la evolucin del nivel de inteligencia humana
normalmente anticipa la evolucin ulterior de tales criaturas, luego
evolucion civilizaciones, en su mayora, se encuentran sin
comparablemente intelligent
35 vecinos, incluso si esa evolucin es relativamente fcil. Una
estimacin precisa de la velocidad a la que evoluciona la
inteligencia a nivel humano desde un determinado punto de partida
implicara la misma necesidad de
correccin 36 Bayesiano encontrados en el anlisis de los desastres
que habra causado la extincin humana.
En resumen, analizando los casos de evolucin convergente en la
Tierra, podemos refutar las afirmaciones de que ciertas innovaciones
evolutivas de aquellos para los cuales tenemos ejemplos de
convergencia son sumamente difciles, dadas ciertas suposiciones
acerca de sus mecanismos subyacentes. Aunque este mtodo deja
abiertas varias maneras en que la evolucin de la inteligencia, en
principio, podra haber sido extremadamente difcil, se reduce el
abanico de posibilidades. En particular, proporciona evidencia
disconfirming contra hiptesis de alta dificultad evolutiva entre el
desarrollo de los sistemas nervioso primitivo y los cerebros
bastante complejas proporcionando las avanzadas capacidades
cognitivas encontradas en corvids, elefantes, delfines, etc. En la
medida en que consideramos relevante para las innovaciones

evolutivas ai design sern desproporcionadamente se han producido


despus de que el desarrollo de los sistemas nerviosos, la evidencia
de evolucin convergente sigue siendo bastante significativa.
Para llegar ms all del perodo cubierto por evolucin convergente,
y fortalecer las conclusiones acerca de ese perodo, requiere otras
lneas de evidencia.
6. SSA y pistas de sincronizacin evolutiva de la tierra es de
aproximadamente 4.540 millones de aos. Las estimaciones actuales
sostienen que la expansin del Sol
37 har que la Tierra inhabitable (evaporando los ocanos) en algo
ms de 1.000 millones de aos.
Asumiendo que ningn otro mecanismo fiable corta de windows
planetario de habitabilidad, humano-Nivel
38 de inteligencia podra haber evolucionado en la tierra cientos de
millones de aos ms tarde de lo que en realidad hizo.
35 La preferencia no podra ocurrir si, por ejemplo, las
inteligencias ms evolucionado no fueron capaces de manipular el
mundo lo suficientemente bien como para producir la tecnologa. Sin
embargo, la mayora de los ejemplos de evolucin convergente
discutidas anteriormente tienen manipuladores capaces de utilizar la
herramienta, con la posible excepcin de los cetceos (ballenas y
delfines).
36 Vase Cirkovic, Sandberg y Bostrom (2010) para una explicacin de
esta correccin.
37 Vase Dalrymple (2001) y Adams y Laughlin (1998).
Los 38 mil millones de aos de la figura se ve mejor como un lmite
superior sobre el resto de la ventana de habitabilidad de la tierra.
Es bastante concebible (los humanos no haban evolucionado) que
algn proceso natural o acontecimiento habra pirateado esta ventana
cerrada mucho antes de mil millones de aos a partir de ahora,
especialmente para grandes mamferos como de formas de vida. Sin
embargo, hay motivos para creer que cualquiera que sea la suerte
habra sido para nuestro propio planeta, hay muchos planetas como la
tierra en el universo cuya habitabilidad ventana supera 5 mil
millones de aos o ms. La duracin y el tamao de la zona habitable
depende de la masa de los
14

combinado con un principio como SSA, esta evidencia puede ser


ejercida sobre la cuestin de la evolvability de inteligencia.
6.1 Desinformativa priores plus evolucin tarda sugieren la
inteligencia es raro Brandon Carter (1983, 1989) ha argumentado que
la casi coincidencia entre el tiempo que tard la inteligencia para
evolucionar en la tierra, y la tierra habitable total del perodo,
sugiere que las posibilidades de vida inteligente evolucin
39 sobre cualquier planeta similar a la tierra son en realidad muy
por debajo de 1.

- a raz de Carter, permtanos definir tres intervalos de tiempo: t


, "El tiempo promedio esperado ... que sera intrnsecamente ms
probable para la evolucin de un sistema de "observadores
inteligentes', en la forma de una civilizacin cientfica como la
nuestra" (Carter, 1983, pg. 353); te, el tiempo que tarda la
evolucin biolgica sobre este
planeta 9 4 10 aos; y t0, que es el perodo durante el cual la
tierra puede sustentar la vida 5.5 10 aos utilizando la
estimacin anterior.
Argumento del carter luego ejecuta aproximadamente como sigue: en la
presente etapa de nuestra comprensin de la
biologa evolutiva--, no tenemos ninguna manera de calcular
directamente t . Adems, no hay una razn a priori para esperar t
para estar en la misma escala temporal como t0 - . Por lo tanto,
debemos usar una distribucin de probabilidad de partida muy amplio
sobre t 9 de distribucin en los que slo una pequea porcin de la masa de
probabilidad es entre 10 y 10 aos,
- dejando una gran mayora de la masa de probabilidad en escenarios
donde sea: (a) t << t0 - , o (b) t >> T0.
- Carter sugiere que podemos descartar prximos escenarios en los
cuales t << T0 con una probabilidad elevada, ya que si
9 civilizaciones tecnolgicas suelen tardar mucho menos de 4 10
aos para evolucionar, nuestras observaciones de encontrarnos como
la primera civilizacin tecnolgica en la Tierra, recientemente
evolucion en esta fecha tarda, sera altamente infrecuente. Esto
deja slo los escenarios en los cuales tanto t t0 - (una pequea
regin), o t >> T0 (una regin grande). Debido a los efectos
de seleccin del observador, inteligente observadores bajo
cualquiera de estas situaciones sera observar que la vida
inteligente ha evolucionado dentro de su propio perodo habitable
del mundo (incluso si, como en el disco
- Inteligencia, t es muchos rdenes de magnitud mayor que t0). As,
al menos hasta que la actualizacin de la informacin, debemos
consideran probable que la probabilidad de vida inteligente en
nuestro planeta en evolucin dentro de la vida del sol era muy
pequea.
-2,5 3,5 estrellas. Escala vigencias estelar como M y su luminosidad
como M , donde m es su masa en masas solares; vase Hansen et al.
(1994). As, una estrella del 90% de la masa del sol durara 30% ms
y tienen una luminosidad de 70%, permitiendo una masa analgica a la
rbita de 0,83 UA de su estrella con la misma entrada de energa
como la tierra. La interaccin entre la masa estelar y la zona
habitabile es ms complejo, requiere supuestos sobre el clima, pero
los modelos suelen encontrar que la duracin de un planeta terrestre
puede seguir siendo habitable es mayor con menos pesados, estrellas,
con aumentos de varios miles de millones de aos de estrellas slo
marginalmente menos masivas que el sol; vase Kasting et al. (1993)
y Lammer et al. (2009).El encendedor estrellas son mucho ms comunes
que las estrellas ms pesadas. Clase G Sunlike estrellas de 0.8-1.04
masas solares conforman slo el 7,6% de las estrellas de la
secuencia principal, mientras que el fsforo 0.45-0.8 masas solares
estrellas de clase K conforman el 12,1%, y la an ms ligero enanas

rojas de clase M 76,45%; vase LeDrew (2001). Un planeta


seleccionados al azar, por lo tanto, ser ms probable que orbitan
estrellas un encendedor que el sol, suponiendo que el nmero de
planetas se formaron por sistema no es enormemente diferente clase G
y K-class estrellas.
39 Esta seccin se basa en una discusin en Bostrom (2002a).
15

6.2 Distribucin detallada sugiere que hay menos de ocho "medidas


duras" Sin embargo, el conocimiento de la vida habitable de la
tierra tambin puede ser utilizado para intentar colocar
probabilista de lmites superiores en el nmero de improbable
"crtica" etapas en la evolucin de los seres humanos. Hanson
(1998b) pone bien:
Imaginemos que alguien tena que escoger cinco bloqueos mediante
ensayo y error (es decir, sin memoria), cerraduras con 1, 2, 3, 4 y
5 marca de diez nmeros cada una, de manera que el tiempo esperado
para recoger cada bloqueo era .01, .1, 1, 10 y 100 horas,
respectivamente. Si haba un solo (ordenadas) Ejemplo de un conjunto
de tiempos reales tomadas para recoger las cerraduras, decir .00881,
.0823, 1.096, 15,93 y 200,4 horas, usted probablemente podra hacer
conjeturas razonables acerca de los cuales correspondieron al
bloqueo que pick-tiempo. E incluso si usted no sabe la dificultad
real (esperada recuperacin veces) de los diferentes bloqueos, usted
podra hacer conjeturas razonables acerca de ellos desde los tiempos
de recoleccin de muestras.
Ahora imagine que cada persona que trata slo tiene una hora para
recoger los cinco bloqueos, y que slo escuchar acerca de los
xitos. Si luego de escuchar que el real (ordenadas) pick-veces por
algn xito fueron .00491, .0865, .249, .281, y .321 horas, tendra
que haber un momento ms difcil adivinar qu bloquear corresponde a
qu pick-tiempo. Usted podra adivinar que las dos primeras veces
probablemente se corresponden con los dos bloqueos ms fcil, pero
realmente no se poda distinguir entre los otros tres esclusas desde
sus tiempos estn sobre la misma. Y si usted no conoce el conjunto
de dificultades de bloqueo, estas duraciones te dira muy poco sobre
el bloqueo duro dificultades.
Resulta que la dificultad de distinguir entre duras medidas es una
consecuencia general de acondicionado pronto xito. ... En sencillos
pasos, el condicional espera veces reflejan el paso dificultad, y
estn cerca de la hora para la incondicional fciles pasos. Los
tiempos de espera para la condicional duras medidas, por otro lado,
son prcticamente las mismas.
Por ejemplo, incluso si la esperada recuperacin de tiempo en uno de
los bloqueos, haba un milln de aos, todava encontramos que el
promedio de sus pick-tiempo en ejecuciones satisfactorias es cercana
a .2 o .3 a 1 hora, y que no sera capaz de decirle que aparte de
los 1, 10 y 100 horas de bloqueos. Quizs lo ms conveniente, Carter

y Hanson argumentan que el tiempo previsto entre la recogida de la


ltima condenacin y el final de la hora
40 tiene aproximadamente el mismo tiempo la distribucin como el
tiempo esperado entre un "duro" y otro paso. Por lo tanto, si
sabamos que el "L" el tiempo sobrante al final del lock-picking,
pero no saba cmo se haba producido muchos bloqueos, seramos
capaces de usar ese conocimiento para descartar situaciones en las
que el nmero de "duras medidas" era mucho mayor que n = 1 hora / L.
as, comenzar con el modelo ms simple, si suponemos que la
evolucin de la vida inteligente requiere una serie de pasos que
ocurren secuencialmente (de manera que, por ejemplo, los sistemas
nerviosos no tienen oportunidad de evolucionar hasta
multicellularity ha evolucionado), que slo son necesarios pasos
secuenciales, que algunos de estos pasos son "duras medidas" en el
sentido de que su tiempo promedio esperado excede la tierra
habitable total del perodo (suponiendo Los pasos de requisitos
previos ya estn en su lugar, y en la ausencia de efectos de
seleccin del observador), y que estos
40 Carter (1983) demuestra este analticamente para el caso especial
en el que todos hardsteps son de la misma dificultad; Hanson (1998b)
verifica, mediante simulaciones de Monte Carlo, que posee
aproximadamente con duras medidas de variadas dificultades. Aldous
(2010) hace varias generalizaciones adicional del resultado.
16

"medidas duras" tienen una probabilidad de ocurrencia de constante


por intervalo de tiempo, entonces podemos utilizar la brecha te y t0
para obtener un lmite superior en el nmero de medidas duras.
Carter estima esta obligado a ser 3, dada su hiptesis de que t0 10
es de unos 10 aos (basado en los anteriores ms las estimaciones
del perodo habitable). Hanson (1998b), utilizando un modelo con
slo disco pasos secuenciales (con probabilidad de ocurrencia
incondicional constante despus de cualquier predecesor pasos),
calcula que con 1,1 millones de aos de habitabilidad restantes (de
acuerdo con las estimaciones ms recientes) y n = 7, slo el 21% de
los planetas como la tierra con inteligencia evolucionada se habra
desarrollado tan pronto.
Los mismos lmites hold (ms fuerte, de hecho) si algunos pasos han
incorporado un tiempo antes de que el siguiente paso puede comenzar
(p. ej., la evolucin de oxgeno-Breathing Life que requieren una
atmsfera con una cierta cantidad de oxgeno, producidos por los
organismos anaerbicos durante cientos de millones de aos). Estos
lmites tambin se afilan si algunos de los pasos estn autorizados
a presentarse en cualquier orden (Carter, 1983). As, las "duras
medidas" modelo descarta una serie de posibles escenarios "dura" de
inteligencia: evolucin normalmente puede tardar excesivamente largo
para llegar a travs de determinadas "medidas duras", pero entre
esos pasos, el proceso ordinario de la evolucin basta, incluso sin
los efectos de seleccin de observacin, para crear algo como la
progresin que vemos en la tierra. Si la masa restante del perodo

habitable es cercana a la dada por las estimaciones de la expansin


del sol, observacin efectos de seleccin no pudo nos han dado
cientos o miles de pasos de aceleracin, y por lo tanto no puede,
por ejemplo, han acelerado uniformemente la evolucin de derechos
41 de inteligencia entre los ltimos 000 millones de aos en el
modelo. 42
41 como con las pruebas de evolucin convergente, hay advertencias
sobre los tipos de escenario esta evidencia puede disconfirm.
Mientras que los modelos de Hanson y Carter se han ampliado para
cubrir muchas de las posibles rutas de ramificacin a la
inteligencia, la extensa modelos todava no nos permiten detectar un
cierto tipo de rpida "dead-end" que anticipa los avances
posteriores. Por ejemplo, supongamos que algunos de los primeros
diseos de sistema nervioso son ms favorables para la eventual
evolucin de inteligencia a nivel humano, sino que, cualquiera que
sea el sistema nervioso surge primera predominar, ocupando los
nichos ecolgicos que, de lo contrario, podra haber permitido a un
nuevo tipo de sistema nervioso para emerger. Si la probabilidad de
desarrollar cualquier sistema nervioso es pequea, lo que hace que
sea un disco duro paso, entonces el callejn sin salida de la
posibilidad no afecta a las conclusiones acerca de los planetas con
vida inteligente. No obstante, si el desarrollo de los sistemas
nerviosos se produce rpidamente, con alta probabilidad, pero
produciendo sistemas nerviosos con el derecho la escalabilidad es
improbable, entonces esto va a reducir la proporcin de planetas que
se desarrollan a nivel de inteligencia humana sin afectar a los
plazos tpicos de desarrollo evolutivo en tales planetas.
Posiblemente, los callejones sin salida similar podra afligen a los
ingenieros humanos-aunque los seres humanos estn en mejores
condiciones para adoptar nuevos enfoques para escapar optima local.
42 Una objecin a la utilizacin del modelo de Carter es que asume
duras medidas son permanentes. Pero, de hecho, contra el modelo, los
organismos portadores algunas duras paso innovacin podra
extinguirse, por ejemplo, en un bombardeo de asteroides. Si tales
acontecimientos eran a menudo "reset" algunas difciles pasos,
entonces los escenarios con largas demoras entre el primer paso
reiniciable y la evolucin de la vida inteligente sera menos
probable.
xito requerira tanto duras medidas que deben alcanzarse y que los
desastres no deben perturbar duras medidas en el nterin (ya sea a
travs de la falta de desastres, o a travs de los organismos
pertinentes, sobreviviendo). Con una casi constante probabilidad (1p) de catstrofe pertinentes por perodo, la probabilidad de evitar
la catstrofe para una duracin
de tiempo t t sera p . As, todo lo dems igual, permitiendo la
posibilidad de que medidas duras no son permanentes reduce el tiempo
previsto para completar los pasos reajustable, acondicionado en la
evolucin exitosa de vida inteligente. Modelo del carter pasara
entonces a subestimar el nmero de duras medidas. Sin embargo, el
17

Por otra parte, adems de proporcionar informacin sobre el nmero


total de medidas duras, el modelo tambin puede dar probabilistas
lmites en cuntas duras medidas poda haber ocurrido en cualquier
intervalo de tiempo dado. Por ejemplo, nos permitira inferir con un
grado de confianza alto que en la mayora de uno disco duro paso se
ha producido en los 6 millones de aos desde que los humanos/chimp
antepasados comunes.Esto puede ayudar a reducir los lmites en donde
la ia dificultad de ingeniera pueden ser encontrados.
7. Conclusiones Los proponentes del argumento evolutivo para ia han
sealado la evolucin de la vida inteligente en la Tierra como un
terreno para anticipar la creacin de inteligencia artificial en
este siglo. Nos explican este argumento en trminos de reclamaciones
acerca de la dificultad de bsqueda de arquitecturas cognitivas
inteligente adecuado (el argumento de problema dificultad) y,
alternativamente, en trminos de reivindicaciones acerca de la
disponibilidad de los algoritmos evolutivos, capaces de producir a
nivel humano de inteligencia general realistas cuando se implementa
en el hardware (el argumento de los algoritmos evolutivos).
El argumento de los algoritmos evolutivos requiere una estimacin de
cunto poder de computacin que tomara para que coincida con la
cantidad de energa proporcionada por la optimizacin de la
seleccin natural sobre escalas de tiempo geolgico.
Hemos explorado una manera de colocar un lmite superior sobre las
correspondientes demandas computacionales y encontr que
corresponden a ms de un siglo el valor de progreso continuo a lo
largo de la Ley de Moore un excesivamente gran cantidad de potencia
informtica. Gran eficiencia son casi ciertamente posible, pero son
difciles de cuantificar con antelacin. Es dudoso que el lmite
superior hacia abajo calculado en nuestro papel podra reducirse lo
suficiente para permitir que el argumento de los algoritmos
evolutivos para triunfar.
El argumento de la dificultad de problemas especficos evita hacer
suposiciones acerca de la cantidad de potencia informtica necesaria
o la forma especfica en que nivel de inteligencia humano-mquina se
lograra. Esta versin del argumento reemplaza la premisa
cuantitativa acerca de los requisitos de recursos computacionales y
algoritmos evolutivos ms intuitiva con un llamamiento a la forma en
que las consideraciones evolutivas podra decirnos algo acerca del
problema generalmente dificultad de disear sistemas inteligentes.
Pero en cualquiera de sus dos versiones, el argumento evolutivo se
basa en otro supuesto: que la evolucin de la inteligencia humana no
era excesivamente dura (2').
Sealamos que este supuesto (2') no puede inferirse directamente del
hecho de que la inteligencia humana evolucion sobre la tierra. Esto
es debido a un efecto de seleccin de observacin garantiza que
evolucionaron todas las inteligencias a nivel humano encontrarn que
la evolucin consigui producir ellos independientemente de lo
difcil o improbable era de evolucin para producir este resultado
en cualquier planeta dado. La
subestimacin es menos grave si tenemos en cuenta el hecho de que
los perodos de tiempo ms largos permiten ms posibilidades

n para las duras medidas para ocurrir. La oportunidad de completar n


duras medidas en el tiempo t es proporcional a t . As pues, cuando
examinamos los planetas donde hemos evolucionado de inteligencia
tendera a encontrar inteligencia evolucionando tras un largo- lo
habitual de brecha entre desastres, o una serie de desastres que no
perdonan algunos linajes encarnar pasado duras medidas. A lo largo
de periodos prolongados, el aumento exponencial de la catstrofe
efecto dominarn el polinomio aumento de ms oportunidades para
duras medidas. Sin embargo, con tasas plausibles de catstrofes, el
efecto de la mayor oportunidad en gran medida inutiliza la objecin.
18

Nos mostr cmo evaluar el posible apoyo emprico para (2') desde el
punto de vista de la alternativa dos principales enfoques de
razonamiento antrpico: la Asuncin y la Self-Sampling SelfIndication Asuncin. La suposicin Self-Indication apoya firmemente
el argumento evolutivo y la factibilidad de AI (entre otras fuertes
y a menudo contra-intuitivo implicaciones empricas). Las
consecuencias de la suposicin Self-Sampling dependen ms
sensiblemente en los detalles de la evidencia emprica. Considerando
la informacin adicional acerca de los detalles de la historia de la
evolucin especialmente la evolucin convergente y el calendario de
las principales innovaciones de la Asuncin Self-Sampling puede
usarse para hacer inferencias sobre la evolvability probabilista de
la inteligencia y, por ende, sobre la solidez del argumento
evolutivo.
Este nuevo anlisis de la SSA disconfirms muchas formas particulares
en que la evolucin de la inteligencia puede ser difcil,
especialmente en situaciones de extrema dureza (con muchos pasos
difciles), respaldando as la premisa (2') (aunque el modelo de
Carter tambin tiene implicaciones contando contra muy fcil
evolucin de inteligencia). De particular inters, dos lneas de
evidencia contar contra la extrema dureza evolutivo en el desarrollo
de la inteligencia de nivel humano dado el desarrollo de los
sistemas nerviosos como los conocemos: habilidades cognitivas
bastante sofisticados convergently evolucionado varias veces desde
el punto de partida de los primeros sistemas nerviosos; y "duro"
paso modelos predicen unos pasos en nuestro disco secuencial muy
reciente historia evolutiva. Combinado con la opinin de que las
innovaciones en el diseo evolutivo del cerebro especialmente son
diagnstico de ai design dificultad, estas observaciones pueden
evitar algunos de la fuerza de la objecin de la observacin de los
efectos de seleccin.
As, con un importante enfoque de razonamiento antrpico (SIA)
brinda un fuerte apoyo para (2'), y la otra (SSA) ofrece un panorama
mixto y quizs un apoyo moderado, observacin efectos de seleccin
no paralizar el argumento evolutivo a travs de su premisa (en
cualquiera de sus versiones) de la no-dura evolucin de la
inteligencia.

Amplia incertidumbre sigue siendo empricos y conceptuales. Mayor


progreso podra ser el resultado de varios campos. Los cientficos
informticos pueden explorar ambientes ptimos para la evolucin de
la inteligencia, y sus demandas computacionales o cmo fcilmente
las tcnicas de programacin evolutiva no puede replicar la
funcionalidad de diseos evolucionado en diferentes dominios. Los
bilogos evolucionistas y los neurocientficos pueden desenmaraar
preguntas sobre convergencia evolutiva y distribucin. Y los
fsicos, filsofos y matemticos puede trabajar para resolver las
numerosas cuestiones abiertas en teora de seleccin observacional.
Considerando cmo la reciente muchas de las ideas y metodologas
pertinentes, y el carcter de los resultados
obtenidos hasta la fecha 43, parece probable que ms trufas
epistmica se encuentran en estos terrenos.
Referencias Adams, F.C. & Laughlin, G. (1998) El futuro del
Universo, Sky and Telescope, 96 (2), pg. 32.
43 agradecemos a David Chalmers, Paul Christiano, Zack M. Davis,
Owain Evans, Louie Helm, Lionel Levine, Jesse Liptrap, James Miller,
Luke Muehlhauser, Anna Salamon, Anders Sandberg, Elizabeth Synclair,
Tim Tyler, y audiencias en la Universidad Nacional de Australia y la
Asociacin de Filosofa 2010 Australasian conferencia para tiles
comentarios y discusin.
19

Aldous, D.J. (2010) la gran bifurcacin, Filtro historias y sucesos


improbables.
[http://www.stat.berkeley.edu/~aldous/Papers/GF.pdf]
Archibald, Licenciado en Derecho (2003), el calendario y la
biogeografa de la radiacin eutherian: fsiles y molculas en
comparacin, la filogentica molecular y evolucin, 28 (2), pgs.
350-359.
Baum, E. (2004) Qu es el pensamiento?, MIT Press.
Benton, M.J. & Ayala, F.J. (2003), que se remontan al rbol de
la vida, la ciencia, la 300 (5626), pp. 1698-1700.
Bostrom, N. (1996) Las investigaciones de The Doomsday argumento.
[http://anthropic- Principle.com/preprints/inv/investigations.html]
Bostrom, N. (2001) El argumento de Doomsday, Adam & Eve, ONU++,
y Joe, Synthese cuntico, 127 (3), pgs. 359-387.
Bostrom, N. (2002a) sesgo antrpico: Observacin efectos de
seleccin en la ciencia y la filosofa. Nueva York: Routledge.
Bostrom, N. (2002b) Self-Locating Creencia en grandes mundos: la
cosmologa de observacin, el eslabn que falta para la Revista de
Filosofa, 99 (12), pp. 607-623.

Bostrom, N. & Cirkovic, M. (2003) El argumento y el Doomsday


Self-Indication hiptesis filosfica, trimestral, 53 (210), pp. 8391.
Bostrom, N. (2003) est viviendo en una simulacin de computadora?,
filosfico trimestralmente, 53 (211), pp.
243-255.
Bostrom, N. (2005) El argumento de simulacin: Respuesta al
Weatherson, filosfico trimestralmente, 55 (218), pp. 90-97.
Bostrom, N. (2007) observacin los efectos de seleccin, medidas e
infinito, en spacetimes Carr, B. (ed.) Universo o Multiverso?,
Cambridge, Cambridge University Press.
Bostrom, N. & Sandberg, A. (2009) La Sabidura de la naturaleza:
una heurstica evolutiva para la potenciacin humana, en Savulescu,
J. y Bostrom, N. (eds.) la potenciacin humana, Oxford: Oxford
University Press.
Bostrom, N. & Kulczycki, M. (2011) un parche para el argumento
de la simulacin, anlisis, 71 (1), pgs. 54 a 61.
Byrne, R.W., Bates, L.A. & Moss, C.J. (2009) elefante la
cognicin en perspectiva de primates, cognicin y comportamiento
comparativo comentarios, 4, pgs. 65-79.
Carter, B. (1983) El principio antrpico y sus implicaciones para la
evolucin biolgica, Phil. Trans. R.
Soc. Lond. Una, 310 (1512), pp. 347-363.
20

Carter, B. (1989) El principio de seleccin antrpica y la ultrasntesis darwiniana, Bertola, F. y Curi, U. (eds) El principio
antrpico, Cambridge, Cambridge University Press.
Chalmers, D.J. (2005) La matriz como metafsica, en Grau, C. (ed.)
filsofos explorar la matriz, Oxford: Oxford University Press.
Chalmers, D. (2010) la singularidad: un anlisis filosfico, Journal
of Consciousness Studies, 17 (9- 10), pp. 7-65.
irkovi, M.M., Sandberg, A. & Bostrom, N. (2010): la
observacin de sombra antrpica Seleccin de efectos y los riesgos
de extincin humana, anlisis de riesgo, 30 (10), pp. 1495-1506.
Dalrymple, G.B. (2001), la edad de la tierra en el siglo XX: un
problema (en su mayora) resuelto, publicaciones especiales,
Geological Society of London, 190 (1), pgs. 205-221.
Dieks, D. (2007) el razonamiento sobre el futuro: Doom y belleza,
Synthese, 156 (3), pgs. 427-439.

Elga, A. (2000) Auto-localizacin de creencias y el problema de la


Bella Durmiente, Anlisis, 60 (2), pgs. 143-147.
Emery, N.J., y Clayton, N.S. (2004). La mentalidad de los cuervos:
evolucin convergente de inteligencia en corvids y simios. La
ciencia, 306(5703), 1903 - 1907.
Erwin, D.H. Y Davidson, E.H. (2002) el ltimo ancestro bilaterian
comn, Desarrollo, 129 (13), pp.
3021-3032.
Finn, J.K., Tregenza, T., & Norman, M.D. (2009) uso de la
herramienta defensiva en un coco-llevando el pulpo, Current Biology,
19 (23), pp. R1069-R1070.
Goodman, M. et al. (2009) analiza Phylogenomic revelan patrones
convergentes de la evolucin adaptiva en elefante y ascendencia
humana, Actas de la Academia Nacional de Ciencias, 106 (49), pgs.
20824- 20829.
Gracia, C. (2010) el razonamiento antrpico en el gran filtro. BSc
(Hons). Universidad Nacional de Australia.
Groombridge, B. y Jenkins, M.D. (2000) La biodiversidad global: los
recursos vivos de la tierra en el siglo XXI, Cambridge: la prensa
mundial de la conservacin.
Hansen, C.J. & Kawaler, S.D. (1994) los interiores estelares:
principios fsicos, estructura y evolucin, Birkhuser.
Hanson, R. (1998a) El gran filtro-que casi hemos pasado?.
[Http://hanson.gmu.edu/greatfilter.html]
Hanson, R. (1998b) debe ser fcil de vida temprana? El ritmo de las
grandes transiciones evolutivas.
[
21 Http://hanson.gmu.edu/hardstep.pdf]

Hasegawa, M., Kishino, H. & Yano, T. (1985), que data de los


derechos-ape dividir por un reloj molecular de ADN mitocondrial,
Oficial de Evolucin Molecular, 22, pp. 160-174.
Los halcones, J. et al (2007) la reciente aceleracin de la
evolucin adaptativa, Proc Natl Acad Sci, 104 (52), pp.
20753-8.
Hochner, B. Shomrat, T. & Fiorito, G. (2006) El Pulpo: un modelo
para un anlisis comparativo de la evolucin de los mecanismos de
aprendizaje y memoria, Biol. Bol., 210, pp. 308-317.
Jacobsen, S.B. (2003) Cuntos aos tiene el planeta Tierra?
Science, 300, pp. 1513-1514.

Kasting, J.F., Whitmire, D.P. Y Reynolds, R.T. (1993) las zonas


habitables alrededor de estrellas de la Secuencia principal, Icarus
101, pp. 108-128.
Lammer, J.H. et al. (2009) lo que hace que un planeta habitable?
Astrophys Astron Rev 17, pp. 181-249.
LeDrew, G. (2001) El verdadero cielo estrellado, Oficial de la Royal
Astronomical Society of Canada, 95, N 1, pgs. 32-33.
Legg, S. (2008) la mquina super inteligencia (Tesis de Doctorado,
Departamento de Informtica de la Universidad de Lugano).
Leslie, J. (1993) Doom y probabilidades, mente, 102 (407), pp. 48991.
[Http://www.jstor.org/pss/2253981]
Lewis, D.K. (2001) La Bella Durmiente: respuesta a Elga, Anlisis,
61 (271), pgs. 171 a 176.
Li, Y., Liu, Z., Shi, P. y Zhang, J. (2010) La audiencia gen Prestin
une echolocating murcilagos y ballenas.
Current Biology, 0 (2), pgs. R55-R56.
MacKay, D.J.C. (2009) teora de la informacin, inferencia, y
algoritmos de aprendizaje, Cambridge Cambridge Univ. Press :.
Mather, J.A. (1994) 'Home' Choice y modificacin por menores Octopus
vulgaris (MOLLUSCA:
CEPHALOPODA): especializados en inteligencia y el uso de la
herramienta? Oficial de zoologa, 233, pp. 359-368.
Mather, J.A. (2008) conciencia: pruebas de comportamiento de los
cefalpodos, la consciencia y la cognicin, 17 (1), pgs. 37 a 48.
Menzel, R. y Giurfa, M. (2001) arquitectura cognitiva de un minicerebro: la abeja melfera, tendencias Cog. Sci.
5 (2), pg. 62.
Moravec, H. (1976) El papel de la fuerza bruta en la inteligencia.
[http://www.frc.ri.cmu.edu/users/hpm/project.archive/general.article
s/1975/Raw.Power.html]
Moravec, H. (1998) cuando el hardware informtico har coincidir el
cerebro humano?, Oficial de transhumanismo, 1.
Moravec, H. (1999) Los robots: Mera Mquina a mente trascendente,
Oxford: Oxford University Press.
22

Neal, R.M. (2007) Rompecabezas de razonamiento antrpico resueltos


utilizando el Pleno no indicial acondicionado, Informe Tcnico n
0607, Departamento de Estadstica, Universidad de Toronto.
[http://www.cs.toronto.edu/~radford/ftp/anth2.pdf].

Olum, K.D. doomsday (2002), el argumento y el posible nmero de


observadores, filosfico trimestralmente, 52 (207), pp. 164-184.
Orgel, L.E. (1998) el origen de la vida, de un examen de los hechos
y especulaciones, tendencias en Ciencias Bioqumicas, 23 (12, 1),
pgs. 491-495.
Piccione, M. & Rubinstein, A. (1997) el conductor distrados
paradoja: Sntesis y respuestas, juegos y el comportamiento
econmico, 20 (1), pgs. 121-130.
Sabrosky, C.W. (1952) Cmo muchos insectos hay?, en el Departamento
de Agr. (eds) Insectos: El Anuario de Agricultura, Washington, D.C.:
U.S.G.P.O.
Sandberg, A. & Bostrom, N. (2008) emulacin de todo el cerebro:
una "hoja de ruta". Informe tcnico 2008-3, el futuro de la
humanidad Institute, La Universidad de Oxford.
[http://www.fhi.ox.ac.uk/Reports/2008- 3.pdf]
Schopf, W.J. (ed.) (1992), acontecimientos importantes en la
historia de la vida, Boston: Jones y Barlett.
Schrder, K.P. & Connon Smith, R. (2008) un futuro lejano de la
tierra y el sol revisited, Noticias Mensuales de la Real Sociedad de
Astronoma, 386 (1), pp.155-163.
Schultz, T.R. (2000) en busca de la hormiga antepasados, Actas de la
Academia Nacional de Ciencias, 97 (26), pgs. 14028-14029.
Truman, J.W., Taylor, B.J., y premio, T.A. (1993) la formacin del
sistema nervioso adulto, con el bate, M., y Arias, A.M. (eds.), el
desarrollo de la mosca Drosophila melanogaster, Cold Spring Harbor:
Cold Spring Harbor Laboratory Press.
Whitman, W.B., Coleman, D.C. y Wiebe, W.J. (1998) procariotas: la
mayora invisible, Actas de la Academia Nacional de Ciencias, 95
(12), pp. 6578-6583.
23

Вам также может понравиться