Вы находитесь на странице: 1из 44

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

ALEJANDRO CASSINI Universidad de Buenos Aires - CONICET

Resumen
En este trabajo hago una comparacin sistemtica entre las dos teoras de la conrmacin ms populares en la actualidad: el mtodo hipottico-deductivo y el bayesianismo. En primer lugar, enumero los cinco problemas fundamentales de la teora hipottico-deductivista. Estos son el problema de las hiptesis estadsticas, el del grado de conrmacin, el de la conjuncin irrelevante, el del holismo epistemolgico y el de las hiptesis alternativas. Luego, hago una presentacin general de la epistemologa bayesiana y muestro de qu manera estos problemas resultan tratables en el marco bayesiano. Finalmente, concluyo que los tres primeros admiten una solucin satisfactoria, sobre la base de algunos supuestos razonables. Los dos ltimos, en cambio, todava son problemas abiertos para la teora bayesiana de la conrmacin. PALABRAS CLAVE: Filosofa de la ciencia, conrmacin, bayesianismo.

Abstract
Bayesians often afrm they have produced the best available theory of conrmation. In particular, they claim to have superseded the venerable hypothetico-deductive method. In this paper I intend to assess that claim by making a systematic comparison between both theories of conrmation. I begin by listing the main problems of hypothetico-deductive conrmation. I then show that this conception is incompatible with Hempels conditions of adequacy for qualitative conrmation. I expound the Bayesian theory of conrmation with some detail in order to show that this theory is able to solve three out of the ve fundamental problems of hypothetico-deductive conrmation. largue that the remaining two problems (alternative hypotheses and epistemological holism) are still open questions for the Bayesians. KEYWORDS: Philosophy of science, conrmation, bayesianism.

1. Introduccin
El mtodo hipottico-deductivo (en adelante H-D) es, desde hace ms de un siglo, la concepcin ms popular del mtodo cientANLISIS FILOSFICO XXIII N 1 (mayo 2003): 41-84

42

ALEJANDRO CASSINI

co en las ciencias fcticas, tanto entre los cientcos como entre los lsofos1. Numerosos crticos, sin embargo, sealan que es un mtodo incompleto porque no proporciona, entre otras cosas, una teora satisfactoria de la conrmacin de las hiptesis y teoras cientcas. Los bayesianos, en particular, sostienen que su propia teora de la conrmacin puede reemplazar exitosamente a la idea de conrmacin implcita en el viejo mtodo de la hiptesis. En este trabajo me propongo evaluar esta armacin, es decir, comparar las virtudes y defectos de estas dos concepciones de la conrmacin de teoras. Hay muchas otras crticas que pueden hacerse al mtodo H-D, pero aqu slo me ocupar del problema de la conrmacin2. A veces se concibe al bayesianismo como una teora de la conrmacin alternativa al mtodo H-D, como un rival inductivista del tradicional mtodo de la hiptesis, que es esencialmente deductivista. Contra esta interpretacin argumentar que la teora bayesiana de la conrmacin conserva algunas de las ideas fundamentales del mtodo H-D. Ciertamente, no es una extensin conservativa de este mtodo, puesto que rechaza algunos de los supuestos bsicos de la teora de la conrmacin H-D. Por otra parte, propone un marco conceptual diferente, sobre todo en la manera de interpretar el grado de conrmacin de las hiptesis. No obstante, en este marco conceptual pueden plantearse esencialmente los mismos problemas que aquejan al mtodo H-D. La diferencia es que muchos de ellos pueden resolverse de manera exitosa en el programa bayesiano, o al menos tienen una respuesta razonable, mientras que carecen de solucin dentro del contexto hipottico-deductivista. La teora bayesiana de la conrmacin tambin permite justicar algunas de las ideas de Popper acerca del valor epistemolgico de las conjeturas audaces; aunque, en mi opinin, estas ideas no estn necesariamente ligadas al mtodo H-D en general. Comenzar por exponer de manera muy sinttica el mtodo H-D. No presentar la versin falsacionista de Popper, sino la versin conrmacionista formulada por Hempel y muchos otros auto-

1 La denominacin tradicional es mtodo de la hiptesis, que algunos autores todava emplean (por ejemplo, Achinstein 1985; y a veces tambin Popper 1983, p. 332). Los orgenes del mtodo hipottico-deductivo se remontan hasta el siglo XVII, pero slo se vuelve dominante en la segunda mitad del siglo XIX. Lalande (1929) es una obra ya antigua, pero todava til, sobre la historia del tema. 2 Para otras crticas al mtodo cfr. Achinstein (1985) y Lipton(1991), pp. 18. 19 y 88.89.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

43

res3. Luego, enunciar los problemas principales que debe enfrentar la idea hipottico-deductivista de conrmacin, y analizar las posibles soluciones que podran ofrecerse dentro del marco conceptual del mtodo H-D. Concluir que en la mayora de los casos no hay soluciones satisfactorias. Seguidamente, har una presentacin de las condiciones de adecuacin de la teora cualitativa de la conrmacin de Hempel y mostrar que dicha teora es incompatible con la denicin de conrmacin H-D. En la parte principal de este trabajo intentar exponer la teora bayesiana de la conrmacin, en su versin ms ortodoxa, de manera sumaria, pero completa y autocontenida. Mostrar, en primer lugar, cules son los elementos de la conrmacin H-D y de la teora cualitativa de Hempel que el bayesianismo retiene. Luego, dedicar la mayor parte del espacio disponible a analizar la manera en que los problemas del mtodo H-D pueden resolverse en un marco conceptual bayesiano. Finalmente, sealar cules son los problemas todava no resueltos por la teora bayesiana de la conrmacin. El objetivo de este trabajo se limita a realizar una comparacin sistemtica entre las teoras de la conrmacin H-D y bayesiana. No pretendo dar cuenta del estado actual de las teoras generales de la induccin y la conrmacin, entre las que hay numerosas concepciones no bayesianas y no probabilistas. Tampoco intento hacer una evaluacin del bayesianismo frente a otras teoras rivales de la conrmacin. La conclusin que extraigo al nal es que la teora bayesiana de la conrmacin es superior al mtodo H-D en la resolucin de problemas epistemolgicos. La teora bayesiana retiene muchas de las virtudes del mtodo H-D y, a la vez, consigue solucionar algunos de sus principales problemas, aunque no todos. El anlisis de las dicultades de la propia teora bayesiana de la conrmacin, que son numerosas, est ms all de los lmites de este trabajo.

2. El mtodo hipottico-deductivo
El mtodo H-D es tan bien conocido que no es necesario presentado con todo detalle. Se lo puede describir, sintticamente, de

3 Hempel (1966) contiene una formulacin elemental, pero rigurosa, del mtodo H-D en su versin conrmacionista. Braithwaite (1953) es una obra ms antigua que ofrece una presentacin ms extensa, aunque no tan clara, de la misma versin.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

44

ALEJANDRO CASSINI

esta manera. Primero se parte de la identicacin de un problema para el cual el conocimiento vigente no tiene una solucin. Luego se propone una nueva hiptesis o conjetura que, en caso de ser verdadera, constituira una solucin al problema en cuestin. Despus se deducen hiptesis derivadas de la hiptesis propuesta, generalmente con la ayuda de hiptesis auxiliares, hasta conseguir la deduccin de alguna consecuencia observacional (es decir, un enunciado singular de observacin). Las consecuencias observacionales deducidas de la nueva hiptesis se contrastan empricamente mediante observaciones o experimentos. Si resultan verdaderas, la hiptesis queda conrmada y puede aceptarse provisionalmente. Si las consecuencias observacionales resultan falsas, la hiptesis es refutada y debe abandonarse4. La conocida asimetra entre vericacin y refutacin muestra que ningn nmero nito de consecuencias observacionales verdaderas prueba la verdad de una hiptesis, pero una sola consecuencia observacional falsa prueba que dicha hiptesis es falsa. En efecto, si H |= E (pero no a la inversa) y E es verdadero, no se deduce la verdad de H; pero si E es falso, se deduce H (donde H es una hiptesis cualquiera y E es un enunciado observacional o una conjuncin nita de tales enunciados). As, por razones puramente lgicas, nunca es posible vericar una hiptesis mediante el mtodo H-D, pero en principio, siempre es posible falsaria o refutada. En la mayora de los casos, este esquema simplicado es insuciente para dar cuenta del proceso de la investigacin cientca. Las teoras e hiptesis tericas generalmente no implican consecuencias observacionales por s mismas, sino en conjuncin con diversas hiptesis auxiliares, pertenecientes a una o ms teoras diferentes. As, si (H & A) |= E y E es verdadero, la conjuncin H & A ha quedado conrmada como un todo, pero la conrmacin no se distribuye a cada uno de sus componentes (donde A es una conjuncin nita de hiptesis auxiliares). Si, en cambio, E es falso, la conjuncin H & A est refutada, pero de all no se sigue que una determinada hiptesis sea falsa. Lo nico que puede concluirse es H v A, es decir, que uno de los dos conyuntos (o ambos) es falso; pero no es posible determinar, por medios puramente lgicos, cul de ellos. Este es el bien conocido problema del holismo de la contrastacin emprica,

4 Esta es una descripcin muy resumida y simplicada, pero suciente para los nes de este trabajo. Una exposicin mucho ms detallada del mtodo hipotticodeductivo se puede encontrar en Klimovsky (1994), caps. 9-14.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

45

que Pierre Duhem fue el primero en advertir claramente (Duhem, 1894 y 1906). Todava este modelo ms sosticado resulta excesivamente simple para dar cuenta de una situacin de contrastacin emprica. Generalmente una teora o hiptesis terica, incluso en conjuncin con un conjunto de hiptesis auxiliares, no implica una determinada consecuencia observacional E, sino un condicional de la forma C E, donde C es un enunciado observacional que describe ciertas condiciones iniciales. Podemos armar, entonces, que (H & A & C) |= E, o bien, que (H & A) |= (C E). Ambas expresiones son equivalentes (por el teorema de la deduccin). Por lo general, se considera que los enunciados de condiciones iniciales no pertenecen al sistema de hiptesis que se contrasta, de modo que se preere la segunda formulacin, que expresa una prediccin condicional5. La evidencia total que conrma o refuta H & A est formada por la conjuncin C & E. Obviamente, si C es falsa, la prediccin condicional C A es verdadera y el sistema terico H & A queda conrmado. Pero nadie est interesado en esta clase de conrmacin trivial. Nos interesa contrastar H & A cuando C es verdadero. En tal caso, la conrmacin o refutacin de H & A depende de la verdad o falsedad de E. De aqu en adelante llamar E al condicional C A, cuyo antecedente asumo como verdadero, y H a la conjuncin H & A, donde A es un conjunto, no necesariamente no vaco, de hiptesis auxiliares. Ahora podemos enunciar la condicin general de conrmacin del mtodo hipottico-deductivo: Conrmacin H-D: E conrma a H si y slo si, H |= E. En esta denicin se expresa un deductivismo estricto, de acuerdo con el cual slo los enunciados observacionales deducidos de un sistema de hiptesis pueden conrmado. Los crticos del mtodo H-D, tanto bayesianos como no bayesianos6, han sealado que la nocin de confirmacin H-D que acabamos de definir es excesivamenAs lo hace, por ejemplo, Hempel (1966), p. 19. Entre las crticos no bayesianos se cuentan Barker (1957), cap. VIII; Glymour (1980), pp. 29-48; y Miller (1987), cap. V. La crtica de Glymour ha sido la ms inuyente y algunos bayesianos, como Earman (1992, pp. 63-64 y 239n), la consideran denitiva. Para otros ejemplos de crticas bayesianas al mtodo hipottico-deductivo cfr. Salmon (1967), pp. 21-27 y 114-116; Horwich (1982), pp. 11-12; Y Earman y Salmon (1992), pp. 48-49.
6 5

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

46

ALEJANDRO CASSINI

te estrecha y posee numerosas limitaciones. Sin pretensin de ser exhaustivos, podemos resumir las principales dicultades del mtodo H-D mediante el enunciado de cinco problemas fundamentales: 1. Hiptesis estadsticas: el mtodo H-D no se puede aplicar a la contrastacin de hiptesis estadsticas o probabilsticas porque stas no implican consecuencias observacionales (ni aisladamente, ni en conjuncin)7. Por consiguiente, tales hiptesis no son conrmables ni refutables desde el punto de vista del mtodo H-D. 2. Grado de conrmacin: el mtodo H-D es puramente cualitativo y no puede emplearse para calcular el grado de confirmacin de una hiptesis respecto de la evidencia disponible, ni tampoco para decidir cundo una hiptesis est mejor conrmada que otras hiptesis rivales que tambin han sido conrmadas. 3. Holismo de la contrastacin: cuando se emplea un conjunto de hiptesis auxiliares A, si (H & A) |= E y E es falso, no puede deducirse H, sino slo (H & A), es decir, H v A. Por consiguiente, el mtodo H-D no permite determinar cul es la hiptesis que ha sido refutada o disconrmada. 4. Conjuncin irrelevante: si E conrma a H, entonces, tambin conrma a H & B, donde B es un enunciado cualquiera. Ello es as en razn de la monotona de la deduccin, ya que si es verdadero que H |= E, tambin lo es que (H & B) |= E. Por tanto, si una evidencia conrma a una determinada hiptesis, tambin conrma a innitos conjuntos de hiptesis que contienen a dicha hiptesis como elemento. 5. Hiptesis alternativas: si una evidencia E confirma a una determinada hiptesis H1, tambin confirma a un nmero indefinido de hiptesis incompatibles con H1. Desde el punto de vista lgico; si H1 |= E, existe al menos una H2 tal que |= (H1 & H2) y H2 |= E. En consecuencia, el mtodo HD no permite determinar cul es la hiptesis que ha sido confirmada.
7 Salvo que se introduzcan hiptesis auxiliares ad hoc, tales como H E (donde H es una hiptesis estadstica y E un enunciado observacional cualquiera). El sistema formado por H y H E implica la consecuencia observacional E, que H por s sola no implica.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

47

Cualquier teora aceptable de la conrmacin debera solucionar estos cinco problemas o, al menos, ofrecer una respuesta razonable a cada uno de ellos. Consideremos qu soluciones puede dar el propio mtodo H-D. Respecto de las hiptesis estadsticas no es posible extender la condicin de conrmacin H-D de modo que abarque la conrmacin de teoras probabilistas. Consecuentemente, el mtodo H-D slo resulta aplicable a las teoras deterministas, entendidas como aquellas que no contienen hiptesis estadsticas o probabilistas. Sin embargo, es posible apelar a los mtodos de la estadstica clsica (de Fisher o Neyman-Pearson), que, si bien se desarrollaron de manera independiente, son compatibles con el mtodo H-D. Esto, sin embargo, equivale a admitir una limitacin insuperable en el alcance del mtodo H-D y conduce a adoptar dos mtodos de conrmacin diferentes, uno para las teoras deterministas y otro para las probabilistas. De esta manera, se termina por dar la razn a los crticos que arman que el mtodo H-D es incompleto8. Por otra parte, dada la importancia que tienen las teoras probabilsticas en la ciencia contempornea, la teora fundamental de la conrmacin resulta ser la inferencia estadstica y no el mtodo H-D. Respecto del grado de confirmacin, el mtodo H-D podra en principio extenderse a una teora cuantitativa de la confirmacin. Es cierto que tal como ha sido formulado slo contiene una teora cualitativa de la confirmacin, o ms bien, una parte de tal teora, pero nada impide que se la complete y extienda. Popper, por ejemplo, construy una teora del grado de corroboracin que trata de evitar el compromiso con la probabilizacin de las teoras y, a la vez, intenta formular cuantitativamente su versin falsacionista del mtodo H-D9. Hasta el momento no se ha probado que sea imposible cons8 Popper, por ejemplo, comenz por admitir que las hiptesis y teoras probabilistas no son cientcas, sino metafsicas, puesto que no son falsables (Popper, 1959, p. 262). Pero inmediatamente revis esta idea posicin insostenible. Sostuvo que es posible encontrar alguna convencin o decisin metodolgica (Popper, 1959, p. 191) que haga falsables a las hiptesis estadsticas, aunque nunca propuso una regla metodolgica precisa. Gillies (1971 y 1973, caps 8-10) fue el primero en hacerlo y Popper le prest su apoyo enseguida (Popper 1959, p. 419, Addendum de 1972). 9 Popper (1959), Apndice *IX y (1983) 27-32. Popper sostiene que una hiptesis est corroborada cuando ha resistido todos los intentos de falsacin sin haber sido refutada. Popper emplea el trmino corroboracin en vez de confirmacin con el fin de evitar las connotaciones probabilistas que tiene este ltimo trmino en la lgica inductiva. Aqu no me ocupar de la teora popperiana del grado de corroboracin. Es una teora que tiene muchas dicultades tcnicas y que, en general, ha teni-

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

48

ALEJANDRO CASSINI

truir una teora cuantitativa de la conrmacin que recoja todas las intuiciones bsicas del mtodo H-D, pero la empresa parece difcil de llevar a cabo. Si fuera posible medir el grado de confIrmacin de una hiptesis o teora respecto de toda la evidencia disponible, se podra determinar cul hiptesis est mejor conrmada que otras. Tambin se podra esperar por esta va una solucin al problema de las hiptesis alternativas. Por ahora stos son problemas abiertos, pero es un hecho que no disponemos de una teora cuantitativa satisfactoria de la confIrmacin H-D, esto es, no tenemos manera de medir el grado de conrmacin en el contexto del mtodo H-D. Respecto del holismo de la contrastacin el mtodo H-D no provee ninguna solucin. En verdad, el holismo epistemolgico representa un desafo para toda teora de la conrmacin y no es claro que haya sido resuelto de manera satisfactoria en alguna teora existente, como veremos ms adelante. Por ltimo, no hay manera de solucionar el problema de la conjuncin irrelevante en el mtodo H-D, a menos que se introduzca explcitamente una condicin ad hoc como la siguiente: si E conrma a Hl y H2 |= Hl, entonces, E no conrma a H2 (suponiendo que H2 no es lgicamente equivalente a H1). En verdad, la denicin de conrmacin H-D satisface la negacin de esta condicin, es decir, si E conrma a H1 y H2 |= H1, entonces, E conrma a H2. Sin embargo, si se admite esta condicin, que Hempel llam condicin conversa de consecuencia, se producen resultados paradjicos. Esta es una cuestin que debemos analizar inmediatamente.

3. La conrmacin hipottico-deductiva y las condiciones de Hempel


En su artculo clsico sobre la confirmacin de hiptesis Hempel (1945) presenta la primera teora cualitativa de la confirmacin desarrollada de manera completa y precisa. Antes del trabajo de Hempel slo se dispona del concepto H-D de confirmacin, que no es suficiente para obtener una teora aceptable de la inferencia cientfica. Hempel se propuso evitar algunas de las dificultades del mtodo H-D, pero a la vez, conservar algunas intuiciones cualitativas

do muy escasa aceptacin (Diez y Moulines, 1997, pp. 426-430, contiene un buen sumario de las crticas principales a la teora de Popper).
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

49

implcitas en el concepto de conrmacin H-D. Sin embargo, el resultado de su trabajo es una teora de la conrmacin muy diferente del mtodo H-D, puesto que, como veremos, su teora es incompatible con la denicin de conrmacin H-D. La conrmacin, segn Hempel, es una relacin entre oraciones o conjuntos de oraciones que satisface ciertas condiciones de adecuacin. Las condiciones de adecuacin son las siguientes: Condicin de implicacin: Si E |= H, entonces, E conrma a H.

Condicin conversa de consecuencia: Si E conrma a H y G |= H, entonces, E conrma a G. Condicin especial de consecuencia: Si E conrma a H y H |= G, entonces, E conrma a G. Condicin de equivalencia: Si E conrma a H y |= (H G), entonces, E conrma a G.

Condicin de consistencia: Si E conrma a H y tambin a G, entonces, | (H & G).


Hempel construy una denicin de conrmacin que satisface todas sus condiciones de adecuacin, excepto la condicin conversa de consecuencia. Aunque todas las condiciones de adecuacin parecen intuitivamente razonables cuando se las considera de manera individual, tomadas conjuntamente producen resultados paradjicos o completamente inaceptables. El ms importante es la paradoja de que cualquier evidencia conrma a cualquier hiptesis. En efecto, sean H y G dos hiptesis cualesquiera y E una evidencia que se ha vericado: 1. Si E |= H, entonces, E conrma a H 2. E |= (E v G) [Condicin de implicacin] [por lgica proposicional] [De 1 y 2] [por lgica proposicional] [Condicin conversa] [De 3, 4 y 5]

3. E conrma a (E v G) 5. Si E conrma a H y G |= H, entonces, E conrma a G 6. E conrma a G


ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

4. G |= (E v G)

50

ALEJANDRO CASSINI

El resultado al que hemos llegado es que, si se aceptan todas las condiciones de adecuacin de Hempel, entonces, cualquier evidencia E confirma a cualquier hiptesis arbitraria G. Para evitar esta paradoja Hempel opta por rechazar la condicin de consecuencia conversa y mantener las restantes condiciones. De all resulta un beneficio adicional porque se elimina el supuesto que produce uno de los problemas fundamentales del mtodo H-D, la paradoja de la conjuncin irrelevante, que amenazaba tambin a la teora de Hempel. Si no se acepta la condicin conversa de consecuencia, ya no se produce la paradoja de que si E confirma a H, tambin confirma a H&B. La denicin de conrmacin H-D satisface la condicin conversa de consecuencia de Hempel, pero no satisface las de consistencia y de consecuencia especial. En efecto, supongamos que H |= E y E es verdadero. En ese caso, E conrma a H. Luego, por la condicin conversa de consecuencia, E conrma tanto a H & G como a H & G, ya que ambas hiptesis compuestas implican a E. Sin embargo, esas dos hiptesis son lgicamente incompatibles, lo cual viola la condicin de consistencia. Por otra parte, si E conrma a H y H |= G, no se sigue que E conrme a G. Slo la conrmar en el caso de que G |= E, pero esto no es verdadero en general. No todas las consecuencias lgicas de H implican a E. La condicin de implicacin slo vale en el mtodo H-D cuando E y H son lgicamente equivalentes, pero no en general, es decir, cuando H no implica E. Por ltimo, la conrmacin H-D satisface la condicin de equivalencia, ya que si E conrma a H y H es lgicamente equivalente a G, E tambin conrma a G, dado que G |= E. La comparacin entre la conrmacin H-D y la teora cualitativa de Hempel arroja los siguientes resultados. La conrmacin HD satisface la condicin conversa de consecuencia, que Hempel rechaza, mientras que viola las condiciones de implicacin, de consecuencia especial y de consistencia, que Hempel acepta. La nica condicin que se cumple en ambas teoras es la de equivalencia. Esto muestra que la teora de la conrmacin de Hempel y el mtodo HD son claramente incompatibles. Hempel nunca proporcion una justificacin de sus condiciones de adecuacin, porque parece consideradas como evidentes, o al menos intuitivamente razonables. La condicin de equivalencia se basa en la idea de que la confirmacin que una hiptesis recibe de una determinada evidencia depende exclusivamente del contenido de esa hiptesis y no de la manera en que la hiptesis est formulaANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

51

da. Dos hiptesis lgicamente equivalentes no son en realidad dos hiptesis diferentes, sino slo dos formulaciones de una misma hiptesis. Por tanto, no parece aceptable decir que la misma evidencia conrma a una hiptesis y no conrma a su equivalente. Ello sera semejante a decir que una hiptesis resulta conrmada por la evidencia cuando dicha hiptesis est escrita en espaol, pero no cuando est escrita en ingls. La condicin de equivalencia parece, entonces, altamente razonable ya que nos asegura que la conrmacin es una relacin entre proposiciones y no entre las oraciones que las expresan. La condicin de consistencia arma que una misma evidencia no puede conrmar hiptesis lgicamente incompatibles. Sin embargo, la historia de la ciencia parece generosa en contraejemplos. En determinada poca, las teoras corpuscular y ondulatoria de la luz resultaban ambas conrmadas por los mismos fenmenos pticos, es decir, por idnticas evidencias. Por su parte, las condiciones de consecuencia especial y conversa no parecen en absoluto evidentes y razonables. De hecho, Hempel mismo tuvo que eliminar la condicin conversa de consecuencia, como ya hemos visto. Carnap, por su parte, someti a un anlisis riguroso todas las condiciones de adecuacin de Hempel y concluy que, salvo la condicin de equivalencia, las restantes tienen contraejemplos y deben ser rechazadas10. La misma conclusin se obtiene en el contexto de la teora bayesiana de la conrmacin, excepto para la condicin de implicacin, como veremos enseguida.

4. La teora bayesiana de la conrmacin


La lgica inductiva tiene como una de sus nalidades principales la de construir una teora general de la conrmacin de hiptesis cientcas11. Antes de 1945 la lgica inductiva prcticamente
10 Carnap (1950), 87. Para otras crticas a la teora cualitativa de Hempel cfr. Salmon (1975) y Earman (1992), pp. 65-69. Aqu slo he presentado una parte de la teora de la confirmacin de Hempel. El resto no es relevante a los fines de este trabajo. 11 Por cierto, se no es el nico objetivo. En sentido amplio la lgica inductiva se ocupa de estudiar todas las inferencias que no son deductivamente vlidas pero proporcionan algn tipo de apoyo a sus conclusiones (cfr. Skyrms 2000, que es la mejor introduccin elemental al tema). Muchos autores incluyen a la inferencia estadstica en el campo de la lgica inductiva (por ejemplo, Baird 1992 y Hacking 2001).

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

52

ALEJANDRO CASSINI

no exista y el concepto mismo de conrmacin apenas haba sido elucidado12. Ese ao tanto Carnap como Hempel publicaron una serie de artculos pioneros en los cuales analizaban el concepto cualitativo de conrmacin y proponan diferentes mtodos para medir el grado de conrmacin de las hiptesis cientcas13. En 1950 Carnap public Logical Foundations of Probability, que se considera habitualmente como la obra fundacional de la lgica inductiva. El programa de Carnap, basado en la interpretacin lgica de las probabilidades, pronto encontr limitaciones de alcance y dicultades tcnicas que lo hicieron poco viable. Aunque algunas de esas dicultades se solucionaron posteriormente, cuando Carnap muri, en 1970, su programa de lgica inductiva ya haba sido abandonado por la mayora de los lsofos de la ciencia. Mientras tanto, se produjo la emergencia de la lgica inductiva bayesiana, que aplic a la teora de la conrmacin diversos elementos de la inferencia estadstica bayesiana, desarrollada, entre otros, por H. Jeffreys, J. I. Good, L. Savage y D. V. Lindley. La teora bayesiana de la conrmacin es un programa de investigacin en desarrollo que, como tal, tiene xitos y anomalas. Una evaluacin global de este programa es tema de todo un libro14. Aqu slo puedo dar un esbozo de algunos aspectos positivos de la teora bayesiana de la conrmacin, aquellos que son relevantes para la comparacin con el mtodo H-D15. Las lgicas inductivas cuantitativas, como la bayesiana, tienen el objetivo de encontrar una medida del grado de confirmacin de una hiptesis o teora respecto de la evidencia disponible. Esto es, buscan definir una funcin confirmacin C que asigne un nmero real a cada hiptesis o teora (o, ms precisamente, a cada trada H, E, K) que represente el grado en el cual una hiptesis se encuentra confirmada por determinada evidencia. Sea H una hiptesis o conjunto de hiptesis, E un enunciado observacional que describe una determinada evidencia y K el conocimiento aceptado en
12 Una excepcin notable es el trabajo de Hossiason-Lindenbaum (1940), que contiene, entre otras cosas, el primer intento de solucin de las paradojas de la conrmacin cualitativa. 13 Hempel (1945); Hempel y Oppenheim (1945); Carnap (1945). 14 Como, por ejemplo, el de Earman (1992). 15 Conviene advertir que no todos los bayesianos piensan que su objetivo es construir una teora de la conrmacin. Horwich (1993), por ejemplo, mantiene una concepcin teraputica del bayesianismo. Considera que la nalidad principal del programa bayesiano es resolver problemas y perplejidades loscas, pero no proporcionar una teora completa de la inferencia cientca.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

53

un momento dado. La expresin C(H, E & K) = r arma que el grado de conrmacin de la hiptesis H respecto de la evidencia E y el conocimiento antecedente K es igual al nmero real r. Todas las lgicas inductivas probabilistas se caracterizan por la armacin de que el grado de conrmacin es una medida probabilstica del apoyo emprico. Se basan, por consiguiente, en la siguiente identidad: C(H, E & K) = P(H / E & K) Esta ecuacin arma que el grado de conrmacin de H respecto de E y K es igual a la probabilidad condicional de H dados E y K. Puesto que H, E y K son proposiciones, o conjuntos de proposiciones, otra manera de leer la ecuacin es la siguiente: el grado de conrmacin de H respecto de E y K es igual a la probabilidad de que H sea verdadera dado que E y K son verdaderas. La funcin conrmacin C se identica, entonces, con la funcin probabilidad P tal como es usualmente caracterizada en el clculo axiomtico de probabilidades, ya sea en la formulacin de Kolmogorov o en alguna otra axiomatizacin diferente. La teora bayesiana de la conrmacin pertenece a esta clase de lgicas inductivas probabilistas. El sistema axiomtico de Kolmogorov est formulado en el lenguaje de la teora de conjuntos, pero la lgica inductiva bayesiana requiere que se lo formule en el lenguaje de la lgica proposicional clsica. Ambas formulaciones son equivalentes y sus respectivos lenguajes son intertraducibles. Aqu adoptar una formulacin axiomtica diferente de la de Kolmogorov, introduciendo la nocin de probabilidad condicional como trmino primitivo mediante un axioma16. Sea un conjunto de proposiciones cerrado respecto de las combinaciones nitas veritativo-funcionales. La probabilidad P es una aplicacin de en el conjunto de los nmeros reales (P: R) que satisface los siguientes axiomas: Axioma 1: para toda proposicin a , 0 P() 1.
16 La axiomatizacin de Kolmogorov contiene solamente los axiomas 1-3 e introduce la nocin de probabilidad condicional mediante la siguiente definicin: si P() > 0, entonces, p( / ) = def P( & ) / P(). El axioma 4 no requiere la restriccin P() > O. Sobre las ventajas de emplear este axioma cfr. Gillies (2000), pp. 59 y 65-66.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

54

ALEJANDRO CASSINI

Axioma 2: para toda proposicin tal que |= , P() = 1. Axioma 3: para cualesquiera proposiciones , tales que |= ( & ), P( v ) = P() +P(). Axioma 4: para cualesquiera proposiciones , , P( & ) = P() x P( / ). Los axiomas 3 y 4, de aditividad y multiplicacin, respectivamente, se pueden escribir de una manera ms general para cualquier secuencia finita de proposiciones. Se obtiene, as, la teora de la probabilidad con aditividad finita. Para los fines de este trabajo, sin embargo, no resulta necesario apelar a esta formulacin general17. En el curso de nuestra argumentacin necesitaremos emplear tres teoremas de la teora de la probabilidad que son bien conocidos y no demostraremos aqu. Son los siguientes: Teorema 1: P() = 1 P(). Teorema 2: P( / ) = 1 P( / ). Teorema 3: P() = p() x P( / ) + P() x P( / ). Los dos primeros son los teoremas del complemento para probabilidades absolutas y condicionales, respectivamente. El tercero
17 La formulacin generalizada ms habitual emplea el concepto de espacio de probabilidad. Un espacio de probabilidad nito es una estructura X = ( , P) que cumple los siguientes axiomas:

Axioma 1: para toda proposicin , 0 P() 1. Axioma 2: para toda proposicin tal que |= , P() = 1. Axioma 3: para toda secuencia nita de proposiciones 1, 2, n _ tal que para toda i j, |= (i & j), P(1 v 2 v v n) = P(1) + P(2) + + P(n). Axioma 4: para toda secuencia nita de proposiciones 1, 2, n , P(1, & 2, & & n) = P(1) x P(2/ 1) x P(3/ 1 & 2) x ... x P(n/ (1 & & n-1).
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

55

es el teorema de probabilidad total. El clebre teorema de Bayes se deduce exclusivamente del Axioma 4: Teorema 4 P(a) x P( / ) (Teorema de Bayes): P( / ) = (dado que P() 0) P() Prueba: P( & ) 1. P(/) = [De Axioma 4] P() 2. P( / ) = P( & ) P() [De Axioma 4] [De 1 multiplicando por P()] [De 2 multiplicando por P()] [Por lgica proposicional] [De 5] [De 3, 4 y 6] [De 7 dividiendo por P()]

3. P( & ) = P( / ) x P() 4. P( & ) = P( / ) x P() 5. ( & ) = ( & ) 6. P( & ) = P( & ) 7. p( / ) x P() = P( / ) x P() 8. P(/) = P() x p( / ) P()

Reemplazando en el denominador P() por su equivalente segn el Teorema 3 se obtiene otra formulacin del teorema de Bayes: P() x P( / ) P( / ) = P() x P( / ) + P() x P( / ) Todos los teoremas sobre probabilidades que se deduzcan de los axiomas de la teora de la probabilidad son tambin teoremas acerca del grado de confirmacin de hiptesis. Por otra parte, toda interpretacin verdadera de la teora de la probabilidad, tambin ser una interpretacin verdadera, un modelo, de la teora de la conANLISIS FILOSFICO XXIII N 1 (mayo 2003)

56

ALEJANDRO CASSINI

rmacin. Una lgica inductiva probabilista no est necesariamente ligada, como a veces se cree, a una determinada interpretacin del clculo de probabilidades, sino que, como la propia teora abstracta de las probabilidades, admite, en principio, mltiples modelos. La teora bayesiana de la conrmacin, en su versin ortodoxa, adopta la interpretacin subjetiva o personal de las probabilidades elaborada por Bruno De Finetti (1937). Se debe advertir, sin embargo, que no todos los bayesianos son personalistas, de modo que bayesianismo no es sinnimo de subjetivismo probabilista En este trabajo emplear la teora bayesiana ortodoxa, con la advertencia de que todos los resultados acerca de la conrmacin que se deduzcan exclusivamente de los axiomas 1-4 de la teora de la probabilidad tambin admiten interpretaciones no subjetivistas. En la teora bayesiana personalista las probabilidades se interpretan como los grados de creencia de cada sujeto individual. La expresin P(/ K) = r debe leerse como si afirmara que r es el grado de creencia de un determinado individuo en la verdad de la proposicin a dadas las creencias contenidas en K, que acepta como verdaderas. De Finetti prob en 1937 que esta interpretacin satisface los axiomas del clculo de probabilidades (con aditividad finita). Se acepta desde entonces que la interpretacin en trminos de grados de creencia es un modelo de la teora matemtica de la probabilidad 18. La epistemologa bayesiana ortodoxa se basa en los supuestos de que la creencia admite grados y de que los grados de creencia de un sujeto se pueden representar mediante nmeros reales. Esta representacin numrica es una idealizacin, que incluso puede tomarse como una ccin til. A estos supuestos le agrega dos principios fundamentales. El primero es que un sistema racional de grados de creencia debe ser coherente, es decir, satisfacer todos los teoremas de la teora matemtica de la probabilidad. El segundo es que los grados de creencia deben actualizarse a la luz de la experiencia mediante la regla de condicionalizacin. La justicacin de estos dos principios ha sido objeto de una enorme bibliografa que no puede comentarse aqu19. Los bayesianos ortodoxos consideran que estos
18 Para mayores detalles vase Gillies (2000), cap. 4, que ofrece una prueba elemental, pero completa, del llamado teorema de Ramsey-De Finetti. 19 Cfr., por ejemplo, Earman (1992) cap. 2; Howson y Urbach (1993), caps. 5 y 6; y Maher (1993), caps. 4 y 5. La discusin ha girado en torno a la validez de los llamados Dutch books arguments, de tipo sincrnico para la justificacin del princi-

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

57

dos principios son condiciones necesarias y sucientes para la racionalidad de un sistema de grados de creencia20. La regla de condicionalizacin es una regla de inferencia inductiva que determina cmo actualizar la funcin probabilidad cuando se adquiere informacin proveniente de nuevas evidencias empricas21. Sea P la funcin probabilidad de un sujeto antes de que se conozca la evidencia E y P la funcin probabilidad del mismo sujeto despus de que E se ha conocido. La regla de condicionalizacin estricta determina cmo se relacionan estas dos funciones de probabilidad, bajo los supuestos de que E se ha vericado (y tiene, por tanto, probabilidad 1) y de que las proposiciones a las que se aplica la funcin inicial P son inciertas (es decir, no tienen probabilidad 0 ni 1). La regla de condicionalizacin estricta se puede enunciar, entonces, de esta manera: P( / K) = P( / E & K), dado que P(E/ K) = 1. La aplicacin de esta regla de condicionalizacin garantiza la conservacin de la coherencia de un sistema de grados de creencia. El componente especcamente bayesiano de esta lgica inductiva aparece en relacin con esta regla. De acuerdo con la teora de la probabilidad, P( / E & K) = P( / K) x P(E / & K) / P(E / K). Este no es ms que el teorema de Bayes (el nmero 4 de nuestra lista). La regla de condicionalizacin es, entonces, una aplicacin del
pio de coherencia, y de tipo diacrnico para la justicacin del principio de condicionalizacin. 20 Esta es ciertamente una tesis muy discutible. Hay un amplio espectro de posiciones bayesianas no ortodoxas que la rechazan porque consideran que los grados de creencia de un agente deben estar sujetos a restricciones adicionales. Ejemplos de tales restricciones son las dos siguientes. Una es la llamada coherencia estricta, que es la conversa del Axioma 2, y afirma que slo las verdades necesarias tienen probabilidad 1. Otra es la llamada funcin de probabilidad experta, que se define as Q es una funcin experta de probabilidad para P, si y slo si, para toda proposicin a, P( / Q() = r) = r. La funcin Q puede representar simplemente la opinin de un experto en un tema determinado, pero tambin puede representar probabilidades objetivas, por ejemplo, la frecuencia relativa o el azar objetivo. De este modo, se pueden introducir probabilidades objetivas en el marco conceptual bayesiano. Por supuesto, los bayesianos ortodoxos, subjetivistas intransigentes, no admiten este tipo de restricciones. 21 Aqu me atengo a la interpretacin bayesiana usual de la regla de condicionalizacin. Levi (1980) Cap. 10, adopta una interpretacin diferente, que distingue entre un uso sincrnico y uno diacrnico de esta regla. En este trabajo no recoger esa distincin.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

58

ALEJANDRO CASSINI

teorema de Bayes para actualizar la funcin probabilidad de un sujeto individual. Muestra de qu manera la adquisicin de nueva evidencia afecta a los grados de creencia de cada sujeto produciendo nuevos grados de creencia. El uso de la regla de condicionalizacin presupone el proceso no inferencial en el cual se pasa de una probabilidad inicial P(E / K) < 1 a la probabilidad nal P(E / K) = 1. En trminos menos formales, este es el proceso por el cual se verica la evidencia E. La lgica inductiva bayesiana no se ocupa del proceso epistemolgico de vericacin del conocimiento observacional. Simplemente, presupone que la evidencia es cierta o est vericada y forma parte del conocimiento aceptado. A nadie se le escapa que los datos de que se dispone en la prctica cientca son falibles y rara vez se encuentran vericados. Para manejar los casos en que la evidencia es incierta, la regla de condicionalizacin se puede generalizar de esta manera: P(/ K) = ni=1 P( / Ei & K) x P(Ei / K). Para el caso ms simple, en el que la particin de los Ei = {E, E}, la regla adopta la siguiente forma: P( / K) = P( / E & K) x P(E / K) + P( / E & K) x P(E / K). Esta generalizacin de la regla de condicionalizacin la propuso Richard Jeffrey en 1965 y tiene, entre otras, la virtud de que se reduce a la regla de condicionalizacin simple o estricta cuando P(E / K) = 122. La regla de Jeffrey permite la condiciona:lizacin cuando la evidencia es incierta, es decir, cuando 0 < P(E / K) < 1. Adems, el cambio de la funcin probabilidad de P(E / K) a P(E / K) resulta reversible, mientras que en el caso de la condicionalizacin bayesiana estricta es irreversible (puesto que P(E / K) = 1). La teora bayesiana de la conrmacin emplea el teorema de Bayes para calcular el grado de conrmacin de una hiptesis o teora. La lgica inductiva bayesiana es aplicable tanto a teoras deterministas como a teoras probabilistas o estadsticas. En el caso de hiptesis deterministas el uso de este teorema est sujeto a los siguientes requisitos: a) (H & K) |= E; b) 0 < P(H / K) < 1; y c) 0 < P(E / K) < 1. El primero arma que la evidencia se deduce de la hiptesis H y el conocimiento antecedente K tomados conjuntamente. El segun-

22 Ctr. Jeffrey (1983), cap. 11, donde se presentan varios ejemplos de aplicacin de esta regla.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

59

do y el tercer requisito arman que respecto del K tanto H como E son inciertas, es decir, no se conoce con certeza si son verdaderas o falsas. El tercer requisito implica que ni E ni E se deducen de K. Con el n de simplicar los puntos especcos que quiero mostrar, ignorar por ahora el uso de hiptesis auxiliares y supondr que las hiptesis y teoras que consideramos tienen por s mismas consecuencias observacionales, es decir, implican una determinada evidencia E. El teorema de Bayes, aplicado a la conrmacin de una nica hiptesis o conjuncin de hiptesis H adopta la siguiente forma: P(H / K) x P(E / H & K) P(H / E & K) = P(E / K) Aqu P(H / K) es la probabilidad previa de la hiptesis H, relativa a la evidencia disponible K, esto es, la probabilidad de H antes de que se conozca que E es verdadero. P(H / E & K) es la probabilidad posterior de H, es decir, la probabilidad de H despus que se ha vericado E. Por su parte, P(E / H & K) se conoce como likelihood, y representa la probabilidad de E suponiendo que H es verdadera. Finalmente, P(E/ K) es la llamada esperabilidad, o sea, la probabilidad de que E sea verdadero independientemente de que H sea verdadera o falsa. Usualmente, se la reemplaza por la frmula de probabilidad total enunciada en el Teorema 3, de modo que la forma ms utilizada es: P(H/ K) x P(E/ H & K) P(H / E & K) = P(H / K) x P(E / H & K) + P(H / K) x P(E / H & K) El teorema de Bayes tambin se puede aplicar de forma generalizada a la conrmacin de dos o ms hiptesis diferentes, que por lo general son hiptesis rivales. Para un nmero nito de hiptesis mutuamente excluyentes H1 Hn, el teorema toma la siguiente forma: P(Hi / K) x P(E / Hi & K) P(Hi/ E & K) = j P(Hj / K) x P(E/ Hj & K) De aqu en adelante me limitar al caso ms simple en el que se calcula el grado de conrmacin de una nica hiptesis o conjunANLISIS FILOSFICO XXIII N 1 (mayo 2003)

60

ALEJANDRO CASSINI

to de hiptesis H. Adems, para simplicar la notacin, suprimir el conocimiento antecedente K toda vez que no sea indispensable hacerlo explcito.

5. Hiptesis equivalentes
Ante todo, comencemos por demostrar que la teora bayesiana de la conrmacin permite justicar la condicin de equivalencia de Hempel, que tambin se cumple en la conrmacin H-D. Es posible probar que si una determinada evidencia conrma a una hiptesis H, tambin conrma a todas las hiptesis que son lgicamente equivalentes a H; y las conrma en el mismo grado o medida. Esto es una consecuencia de un teorema de la teora de la probabilidad que arma que dos proposiciones lgicamente equivalentes tienen la misma probabilidad. Por tanto, dos hiptesis lgicamente equivalentes tienen el mismo grado de conrmacin respecto de la misma evidencia y, el mismo conocimiento antecedente. Esto es, para toda evidencia E y todo conocimiento antecedente K, |= (H G) P(H / E & K) = P(G/ E & K). Para demostrarlo necesitamos probar un teorema previo, segn el cual, si una proposicin implica a otra, la probabilidad de la primera no es mayor que la de la segunda. Teorema 5: (H |= G) P(G) P(H). Prueba: 1. (H |= G) 2. |= (H G) 3. |= (H & G) 4. P(H v G) = P(H) + P(G) [Supuesto] [De 1 por teorema de la deduccin] [De 2 por lgica proposicional] [De 3 y Axioma 3]

5. P(H v G) = P(H) + 1 P(G) [De 4 y Teorema 1] 6. P(G) = P(H) + 1 P(H v G) [De 5, sumando P(G) P(H & G) a ambos lados] 7. P(G) = P(H) + P( (H v G)) [De 6 por Teorema 1]
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

61

8. P(G) P(H) 9. (H |= G) P(G) P(H)

[De 7 y Axioma 1] [De 1 y 8] .

Finalmente, podemos probar que dos proposiciones lgicamente equivalentes tienen la misma probabilidad. Teorema 6: |= (H G) P(H) = P(G). Prueba: 1. |= (H G) 2. H |= G 3. G |= H 4. P(G) P(H) 5. P(H) P(G) 6. P(H) = P(G) 7. |= (H G) P(H) = P(G) [Supuesto] [De 1 por teorema de la deduccin] [De 1 por teorema de la deduccin] [De 2 y Teorema 5] [De 3 y Teorema 5] [De 4 y 5] [De 1 y 6]

A partir de este teorema se demuestra el que realmente nos interesa probar, que expresa la condicin de equivalencia en trminos bayesianos: Teorema 7: |= (H G) P(H/ E & K) = P(G/ E & K). Prueba: 1. |= (H G) 2. |= ((H & E & K) (G & E & K)) 3. P(H & E & K) = P(G & E & K) [Supuesto] [Por lgica proposicional] [De 2 y Teorema 6]

P(H & E & K) 4. P(H / E & K) = [De Axioma 4] P(E & K)

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

62

ALEJANDRO CASSINI

P(G & E & K) 5. P(G/ E & K) = P(E & K)

[De Axioma 4]

P(H & E & K) P(G & E & K) 6. = [De 3 dividiendo por P(E & K)] P(E & K) P(E & K) 7. P(H / E & K) = P(G / E & K) [De 4, 5 y 6] [De1y7]

8. |= (H G) P(H / E & K) = P(G / E & K).

6. Conrmacin por implicacin


Cuando una hiptesis H implica a una determinada evidencia E, resulta obvio que P(E / H & K) = 1. Por consiguiente, si H es una hiptesis universal o determinista, el teorema de Bayes se simplica y toma la forma: P(H / K) P(H / E & K) = P(E / K) Antes de proseguir debemos probar que efectivamente si una hiptesis implica una determinada evidencia) la probabilidad de la evidencia dada esa hiptesis es igual a 1. Este es un caso especco de un teorema ms general segn el cual, si una proposicin implica a otra, la probabilidad de la segunda dada la primera es igual a 1. La prueba, para las proposiciones H y E, es como sigue: Teorema 8: (H |= E) P(E / H) = 1 Prueba: 1. (H |= E) 2. |= (H E) |= (H & E) [Supuesto] [De 1 por teorema de la deduccin] [De 2 por lgica proposicional]

3.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

63

4. 5. 6. 7.

P((H & E) = 1 P(H & E) = 0 P(E / H) = P(E & H) / P(H) |= H ((H & E) v (H & E) P(H) = P((H & E) v (H & E) P(H) = P(H & E) + P(H & E)

[De 3 y Axioma 2] [De 4 y Teorema 1] [De Axioma 4] [Teorema de lgica proposicional] [De 7 y Teorema 7] [De 8 y Axioma 3] [De 5 y 9] [De 6 y 10] [De 11] [De 1 y 12]

8. 9.

10. P(H) = P(H & E) 11. P(E / H) = P(H) / P(H) 12. P(E / H) = 1 13. (H |= E) P(E / H) =1

La nocin bayesiana de conrmacin consiste en el incremento del grado de conrmacin de una hiptesis o teora cuando se descubre una nueva evidencia. Se la dene habitualmente del siguiente modo: Conrmacin incremental: La evidencia E conrma incrementalmente a la hiptesis H respecto del conocimiento antecedente K si y slo si, P(H / E & K) > P(H / K). La teora bayesiana de la conrmacin incorpora algunas de las ideas cualitativas fundamentales del mtodo H-D. Esencialmente, la idea de que una hiptesis se conrma cuando se verica alguna de sus consecuencias observacionales. Esto es, si la hiptesis H implica lgicamente a la evidencia E, entonces, E conrma a H. La nocin bayesiana de conrmacin incremental permite justicar esta intuicin. Siempre que una hiptesis implica una determinada evidencia, la vericacin de esa evidencia aumenta el grado de probabilidad de la hiptesis. Podemos probarlo como un teorema:
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

64

ALEJANDRO CASSINI

Teorema 9: (H & K |= E) P(H / E & K) > P(H / K). Prueba: 1. (H & K |= E) 2. (H & K |= E) P(E / H & K) = 1 3. P(E / H & K) = 1 [Supuesto] [Teorema 8] [De 1 y 2 por lgica proposicional]

P(H / K) x P(E / H & K) 4. P(H / E & K) = P(E / K) 5. P(H / E & K) = P(H / K) / P(E / K) 6. P(H / E & K) > P(H / K) 7. (H & K |= E) P(H / E & K) > P(H / K).

[Teorema 4]

[De 3 y 4] [De 5] [De 1 y 6]

Como ya sealamos antes, este resultado se sigue bajo el supuesto de que ) < P(H / K) < 1 y ) < P(E / K) < 1. Estas son las dos condiciones que se requieren en general para aplicar de manera til o no trivial el teorema de Bayes, dado que la regla de condicionalizacin bayesiana no puede elevar ni disminuir las probabilidades previas iguales a 0 o iguales a 1. Por otra parte, es obvio que si P(H / K) = 1, no es posible la conrmacin incremental de H. Esto ocurre, por ejemplo, cuando H es una verdad lgica o cuando, no siendo una verdad necesaria, H se deduce de K. La teora bayesiana no acepta la nocin de confirmacin HD, sino slo una parte de ella, que llamar confirmacin por implicacin. Esto es, si H |= E, entonces, E confirma incrementalmente a H. La conversa no es necesariamente verdadera. Desde el punto de vista bayesiano, una hiptesis puede estar confirmada por evidencias que no se deducen de ella. Esto se refleja en el hecho de que P(H / E & K) > P(H / K) (H & K |= E) no es un teorema de la teora de la probabilidad. La teora bayesiana de la confirmacin no sostiene el deductivismo estricto de la confirmacin H-D. Por esta razn, como veremos, puede dar cuenta de la confirmacin de hiptesis estadsticas.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

65

7. Refutacin de hiptesis
La otra idea fundamental del mtodo H-D es la de refutacin. De acuerdo con ella, cuando una hiptesis tiene al menos una consecuencia observacional falsa, dicha hiptesis est refutada desde un punto de vista lgico. La teora bayesiana de la conrmacin recoge este resultado de manera cuantitativa porque prueba que si una hiptesis implica una evidencia falsa, su grado de conrmacin se reduce a 0. Podemos demostrarlo en el siguiente teorema: Teorema 10: (H & K |= E) P(H / E & K) = 0 Prueba: 1. H & K |= E 2. (H & K |= E) P(E / H & K) = 1 3. P(E / H & K) = 1 4. P(E / H & K) = 1 P(E / H & K) 5. P(E / H & K) = 0 [Supuesto]

[Teorema 8] [De 1 y 2 por lgica proposicional] [Teorema 2] [De 3 y 4]

P(H / K) x P(E / H & K) 6. P(H / E & K) = [Teorema 4] P(E / K) 7. P(H / E & K) = 0 8. (H & K |= E) P(H / E & K) = 0 [De 5 y 6] [De 1 y 7]

La evidencia E refuta a la hiptesis H porque P(H / E & K) = 0. La refutacin es el caso de disconfirmacin mxima de una hiptesis por la evidencia. Una vez que una hiptesis ha sido refutada no puede adquirir ningn grado positivo de confirmacin mediante condicionalizacin bayesiana. Ello es as porque si P(H / E & K) = 0, entonces, P(H / E & E & K) = 0 para cualquier nueva evidencia E. La nica manera de salir de esta situacin es o bien eliminar la evidencia refutadora E, o bien modicar el conocimiento
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

66

ALEJANDRO CASSINI

antecedente K de modo tal que no se cumpla la condicin a). En cualquiera de esos dos casos es posible que el grado de conrmacin de H vuelva a ser mayor que O. Ambas estrategias implican la contraccin del conjunto de proposiciones K, lo cual no puede hacerse dentro de un marco exclusivamente bayesiano (puesto que K contiene slo conocimiento aceptado, esto es, P(K) = 1). Eliminar la evidencia refutadora E consiste en revisar las observaciones o experimentos que suponemos que la han vericado, de manera que se encuentre algn error en esa vericacin. Revisar el conocimiento antecedente K para evitar la refutacin consiste en desactivar la implicacin de la consecuencia E. Esto es, si (H & K) |= E, se debe encontrar un conjunto K tal que (H & K) | E. De este modo, E deja de ser una evidencia refutadora para H. En los casos tpicos en ciencia terica, E se deduce de H, K y un conjunto de hiptesis auxiliares A. En tal situacin, por lo general se buscar desactivar la implicacin de E modicando alguno de los elementos de A, esto es, reemplazando A por otro conjunto de hiptesis auxiliares A. Si ninguna de estas estrategias resulta exitosa, entonces, ser necesario reemplazar H, ya que ninguna evidencia ulterior podr elevar su grado de conrmacin por sobre 0.

8. La condicin de implicacin
La condicin de implicacin de Hempel tambin es vlida en la teora bayesiana de la conrmacin. Esto es, si E implica H, entonces, E conrma incrementalmente a H. Para ello es necesario que la probabilidad previa de H sea menor que 1. Esta es una condicin general para cualquier caso de conrmacin incremental, ya que es obvio que si P(H / K) = 1, entonces, para cualquier evidencia E, P(H / E & K) P(H / K). Esto no es ms que decir que no se puede incrementar la probabilidad de una hiptesis que ya tiene la probabilidad mxima. La condicin de Hempel vale siempre que se cumpla la condicin 0 < P(H / K) < 1. Como ya hemos sealado, la idea bayesiana de conrmacin incremental presupone que las hiptesis que se conrman no son verdades necesarias ni estn implicadas por el conocimiento antecedente K23. Bajo esa condicin, la prueba del siguiente teorema es casi inmediata.
23 Carnap (1950), p. 473, presenta el siguiente contraejemplo a la condicin de implicacin (tambin admitido por Salmon 1975, p. 7): si H = (x) (Fx), E = Fa y

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

67

Teorema 11: (E & K |= H) P(H / E & K) > P(H / K). Prueba: 1. E & K |= H 2. (E & K |= H) P(H / E & K) = 1 3. P(H / E & K) = 1 [Supuesto] [Teorema 8) [De 1 y 2 por lgica proposicional] [De 3 y condicin presupuesta] [De 1 y 4]

4. P(H / E & K) > P(H / K) 5. (E & K |= H) P(H / E & K) > P(H / K).

9. La conjuncin irrelevante
Veamos ahora de qu manera la teora bayesiana soluciona el problema de la conjuncin irrelevante. Sabemos que si (H & K) |= E, en razn del carcter montono de la deduccin, tambin ocurre que (H & B & K) |= E, donde B es un enunciado cualquiera, posiblemente irrelevante para H. De acuerdo con la denicin de conrmacin H-D, E conrma a la vez a H y a H & B. La teora bayesiana de la conrmacin acepta la conrmacin por implicacin y, por tanto, debe admitir que E conrma incrementalmente tanto a H como a H & B (suponiendo que P(H & B / K) > 0). As, es verdad tanto que P(H / E & K) > P(H / K) como que P(H & B/ E & K) > P(H & B/ K). Sin embargo, esto nada dice acerca del incremento en los respectivos grados de conrmacin. La solucin bayesiana del problema consiste en probar que, en general, el grado de apoyo que E da a H & B es mucho menor que el grado de apoyo que E da a H. La razn de ello es que, bajo la condicin de que 0 < P(B / K) < 1, siempre ocurre que P(H & B / K) < P(H / K). Por tanto, dada la desigualdad de las probabilidades previas, y dada la misma evidencia E, las probabilidades posteriores

K = Fb, entonces, P(H / E & K) = 1 = P(H / K). El contraejemplo no es aceptable desde el punto de vista bayesiano porque es un caso en el que K implica a H y, por consiguiente, P(H / K) = 1. En ese caso no hay conrmacin incremental posible. En esas circunstancias tampoco es vlida, por ejemplo, la conrmacin por implicacin del mtodo H-D.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

68

ALEJANDRO CASSINI

mantendrn la desigualdad, es decir, P(H & B / E & K) < P(H / E & K). Para probar este resultado es necesario admitir que H y B son probabilsticamente independientes, lo cual es indudablemente cierto si B es un enunciado irrelevante para H. La prueba es la siguiente: Teorema 12: (0 < P(B / K) < 1) P(H & B / E & K) < P(H / E & K). Prueba: 1. 0 < P(B / K) < 1 2. P(H / B & K) = P(H / K) 3. P(H & B / E & K) = P(H / E & K) x P(B / E & K) 4. P(H & B / E & K) < P(H / E & K) 5. (0 < P(B / K) < 1) P(H & B / E & K) < P(H / E & K) [Supuesto] [Independencia de H y B]

[De 2 y Axioma 4] [De 1 y 3]

[De 1 y 4] .

De este resultado se deduce que el grado de apoyo de E a H es mayor que el grado de apoyo de E a H & B. Es decir, (P(H / E & K) P(H / K) > (P(H & B / E & K) P(H & B / K)). La prueba de este resultado es evidente a partir del teorema anterior y de las siguientes igualdades, que se deducen del teorema de Bayes: P(H / E & K) P(H / K) = P(H / K) x ((l / P(E / K) -1)) P(H & B / E & K) P(H & B / K) = P(H & B / K) x ((l / P(E / K)) 1)). Siempre que se agregue a una hiptesis H un enunciado irrelevante B (cuya probabilidad sea mayor que 0 y menor que 1) la confirmacin incremental que E provee a H & B ser menor que la que provee a H sola. El grado de apoyo de H resultar igual al de H & B solamente en el caso de que P(B / K) = 1. Este resultado es completamente razonable, porque si B es una verdad lgica, naturalmente esperamos que, cualquiera sea la evidencia E, P(H / E & K) = P(H & B / E & K). Es decir, la conjuncin de una tautologa con una hiptesis emprica no afecta al grado de confirmacin de esta ltima. Por otra parte, si B es una hiptesis emprica, tendr el mismo efecto que una tautologa slo si est completamente verificada. NinguANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

69

na hiptesis emprica puede alcanzar mediante condicionalizacin bayesiana una probabilidad posterior igual a 1, si tiene una probabilidad previa menor que 1. Por tanto, el nico caso en el que la conjuncin de una hiptesis emprica irrelevante no disminuye el grado de conrmacin del sistema total ocurre cuando dicha hiptesis ya ha sida previamente aceptada con probabilidad 1.

10. La improbabilidad de la evidencia


Popper ha sealado a lo largo de toda su obra que las predicciones ms audaces de una teora son aquellas que tienen mayor valor epistemolgico para la contrastacin de dicha teora. Segn Popper, las predicciones ms improbables proporcionan contrastaciones ms severas de una teora. Ms precisamente, la corroboracin de una consecuencia improbable aumenta ms el grado de corroboracin de una hiptesis que la corroboracin de una consecuencia observacional de probabilidad alta. No me parece que esta idea sea una parte esencial del mtodo H-D, pero, en cualquier caso, puede justicarse en el contexto de la teora bayesiana de la conrmacin. Para ello basta con interpretar que las predicciones ms audaces de una teora son las consecuencias observacionales que tienen menor probabilidad respecto del conocimiento antecedente K. En trminos bayesianos, cuanto menor sea P(E / K), tanto mayor ser el grado de apoyo que E conera a una hiptesis H24. En el marco de la teora bayesiana de la conrmacin esta tesis encuentra una justicacin ms rigurosa que en la teora de la corroboracin de Popper. En efecto, si se satisfacen las condiciones a), h) y c) (enunciadas en la seccin 4), se sigue del Teorema de Bayes que el incremento en el grado de conrmacin de H producido por E es inversamente proporcional a la probabilidad de E dado K: P(H / E & K) 1 = P(H / K) P(E / K)
24 Popper mismo se expresa en estos trminos: Podemos decir, entonces, que, si tomamos e como una contrastacin de h, la severidad de esta contrastacin interpretada como apoyo evidencial, ser tanto mayor cuanto menos probable sea e, dado b solo (sin h); esto es, cuanto menos sea p(e, b), la probabilidad de e dado b (Popper, 1963, p. 390). Aqu b es el conocimiento antecedente, ahora usualmente representado como K.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

70

ALEJANDRO CASSINI

Es decir, cuanto ms improbable sea la evidencia respecto del conocimiento antecedente, mayor es el incremento en el grado de conrmacin de la hiptesis que implica a esa evidencia. Esto justica la idea intuitiva, sostenida tanto por Popper como por otros partidarios del mtodo H-D, segn la cual cuanto menos probable sea una prediccin, mayor es el grado de apoyo que proporciona a la hiptesis de la cual se deduce25. En general, el grado de apoyo que la evidencia E conere a una hiptesis H es igual al cociente P(H / E & K) / P(H / K). Esto se sigue directamente del teorema de Bayes, donde: P(H / E & K) P(E / H & K) = P(H / K) P(E / K) El primer miembro de la ecuacin es la denicin del grado de apoyo que E conere a H. La probabilidad de H dada E aumentar en caso de que el cociente P(E / H & K) / P(E / K) sea mayor que 1. Una manera diferente de probar este resultado es a travs del uso de la regla de condicionalizacin estricta. Como ya hemos dicho, el primer paso para utilizar esta regla es de tipo no inferencial y consiste en el cambio de la probabilidad previa P(E / K) < 1 a la probabilidad posterior P(E / K) = 1. El aumento en el grado de conrmacin es, entonces, proporcional a la diferencia P(E / K) P(E / K). Esto, a su vez, es igual a 1 P(E / K). Cuanto ms cercana a 1 sea esta diferencia, tanto mayor ser el aumento en el grado de conrmacin que E produce en H. Es decir, mayor ser la diferencia entre P(H / E & K) P(H / K). Si ocurre que P(E / K) = 1, la diferencia P(E / K) P(E / K) = 0, y, por tanto, E no aumenta el grado de conrmacin de H. La evidencia conocida con certeza no tiene valor conrmatorio26.

11. El retorno decreciente de las contrastaciones repetidas


Popper ha armado que cuando se incrementa el nmero de repeticiones de una determinada experiencia, disminuye la severiCfr. Jeffrey (1992), pp. 58-59, para una prueba grca de esta armacin. Esta es la llamada paradoja de la old evidence, formulada por Glymour (1980, pp. 85-93) y largamente discutida por los bayesianos (ctr. Earman, 1983, y, especialmente, Earman 1992, cap. 5, para un anlisis equilibrado).
26 25

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

71

dad de la contrastacin y, por consiguiente, disminuye el apoyo evidencial que cada una de esas experiencias proporciona a una determinada hiptesis. Sostuvo que este hecho es una suerte de ley del retorno decreciente de las contrastaciones repetidas (popper, 1963, p. 240). La razn de tal retorno decreciente es que los resultados previos de una contrastacin se incorporan al conocimiento antecedente. Por tanto, un nuevo resultado del mismo tipo de contrastacin resulta cada vez ms probable a la luz del conocimiento antecedente. Dado que el grado de corroboracin de una hiptesis es proporcional a la improbabilidad de la evidencia que la apoya, el grado de corroboracin de esa hiptesis se elevar cada vez menos a medida que la contrastacin se repite. Popper (1963, p. 240) sostuvo que esta idea es difcil de explicar en una teora inductivista de la ciencia, pero Grnbaum (1976) seal al respecto que encuentra tambin una justificacin natural en un contexto bayesiano. Desde el punto de vista bayesiano, la repeticin de una observacin o experimento de la misma clase eleva siempre el grado de confirmacin de una hiptesis, pero no en la misma cantidad. El retorno epistmico es cada vez menor a medida que aumenta el nmero de pruebas repetidas que proporcionn evidencia del mismo tipo. La prueba de ello es simple. Sean E1, E2, , En diferentes enunciados que expresan diferentes instancias de la misma clase de evidencia E. Cada una de ellas, una vez conocida, se incorpora al conocimiento antecedente K. Entonces, si H implica a E1, E2, , En, P(H/E1 & K) < P(H/E2 & K & E1) < < P(H/En & K E1 & & En1). Las probabilidades de las evidencias El, E2, , En son probabilidades previas y, como tales, no pueden calcularse mediante el teorema de Bayes, sino que deben tomarse como dadas. Esto abre la puerta, como siempre, a asignaciones subjetivas diferentes. Sin embargo, parece razonable aceptar que P(E1 / K) < P(E2 / K & E1) < < P(En / K & E1 & & En1). Es necesario, pues, un acuerdo acerca de las probabilidades previas, pero no respecto de valores numricos determinados. Diferentes individuos pueden asignar diferentes valores a las probabilidades de E1, E2, , En. Slo se requiere que todos los diferentes valores satisfagan la desigualdad anterior. En tal sentido, el acuerdo es mnimo y parece razonable. Por otra parte, la razn que justifica el consenso sobre esas probaANLISIS FILOSFICO XXIII N 1 (mayo 2003)

72

ALEJANDRO CASSINI

bilidades previas es la misma que invoca Popper. Una vez conocidos los primeros resultados de un experimento, los resultados posteriores se vuelven cada vez ms probables a la luz de ese mismo conocimiento. De lo anterior se sigue una justificacin de la idea tradicional segn la cual una evidencia ms variada proporciona (ceteris paribus) ms apoyo a una determinada hiptesis que una evidencia menos variada o de una sola clase. Si E y E son dos evidencias de especies diferentes, en general hemos de suponer que son probabilsicamente independientes, de modo que la ocurrencia de una no disminuye la probabilidad de la otra. Es decir, lo razonable ser suponer que P(E / K & E) = P(E / K). En suma, la evidencia ms variada tendr una menor probabilidad previa que la evidencia menos variada y, por tanto, mayor poder confirmatorio para una determinada hiptesis27.

12. Las hiptesis estadsticas


Finalmente, la teora bayesiana de la conrmacin, a diferencia del mtodo H-D, se puede aplicar a hiptesis estadsticas. La regla de condicionalizacin y el teorema de Bayes se usan exactamente de la misma manera que en el caso de las hiptesis deterministaso La nica diferencia es que si H es una hiptesis estadstica y E una determinada evidencia, H no implica lgicamente a E. Por consiguiente, P(E / H & K) no ser siempre igual 1, sino, generalmente, menor que 1. En la frmula de Bayes, entonces, la probabilidad previa P(E / H & K) no es eliminable, sino que ser necesario asignarle un valor mayor que 0 y menor que 1. H resultar incrementalmente conrmada por E, a pesar de no implicar a E, cuando P(E / H & K) > P(E / H & K). Este es un resultado general que vale tambin para el caso en el que E implica a H. Podemos probarlo de la siguiente manera (suprimiendo K para abreviar las frmulas):

27 No es posible responder en general cundo dos evidencias son de la misma clase y cundo no lo son. La variedad es relativa al conocimiento aceptado en un determinado momento. Como seala Earman (1992, p. 79), despus de Newton el movimiento de los proyectiles terrestres y el de los planetas se consideran evidencias del mismo tipo, mientras que antes de la revolucin cientca eran fenmenos de dos clases completamente diferentes.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

73

Teorema 13: (P(H / E) > P(H) (P(E / H) > P(E / H) Prueba: 1. P(H / E) > P(H) P(H) x P(E / H) P(H/ E) = P(E) P(H) x P(E / H) > P(H) P(E) P(E / H) > 1 P(E) [Supuesto]

2.

[Teorema 4]

3.

[De 1 y 2]

4.

[De 3, dividiendo ambos lados por P(H)]

5. 6. 7. 8. 9.

P(E) = P(H) x P(E / H) + P(H) x P(E / H) P(E / H) > P(H) x P(E / H) + P(H) x P(E / H) P(E / H) P(H) x P(E / H) > P(H) x P(E /H) P(E / H) x (1 P(H)) > P(H) x P(E /H) P(E / H) x P(H) > P(H) x P(E / H)

[Teorema 3] [De 4 y 5] [De 6] [De 7]

[De 8 y Teorema 1] [De 9 dividiendo ambos lados por P(H)] [De 1 y 10]

10. P(E / H) > P(E / H) 11. (P(H / E) > P(H) (P(E / H) > P(E / H)

La conversa de este teorema tambin es un teorema (que se prueba de manera anloga al anterior pero remontando la prueba de abajo hacia arriba), de modo que, escribiendo la frmula de manera completa, podemos armar que (P(H / E & K) > P(H / K)) (P(E / H & K) > P(E /H & K)). Se sigue de este teorema que el cambio en el grado de conrmacin de una hiptesis H es proporcional a la diferencia entre las likelihoods: P(E / H & K) P(E / H & K). Cuando esta diferencia es un nmero positivo, el grado de conrmacin de H aumenta; si la
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

74

ALEJANDRO CASSINI

diferencia es negativa, el grado de confirmacin disminuye; y si es nula, el grado de confirmacin permanece sin cambios. En el caso de las hiptesis deterministas que implican a la evidencia E, el grado de confirmacin de una hiptesis H dada la evidencia E no puede disminuir. Ello es as porque P(E / H & K) = 1, de modo que la diferencia P(E / H & K) P(E / H & K) nunca puede ser negativa. Por tanto, (H & K |= E) P(H / E & K) P(H / K). Esta es una generalizacin del Teorema 9 que se obtiene cuando se admite que 0 < P(E / K) 1. Con las hiptesis estadsticas, en cambio, dado que H no implica a E, en general ocurrir que P(E / H & K) < 1. Consiguientemente, la diferencia entre las likelihoods puede ser negativa, y en ese caso, la evidencia E disminuye el grado de confirmacin de la hiptesis H.

13. Problemas no resueltos


La teora bayesiana de la conrmacin resuelve satisfactoriamente tres de los problemas que aquejan al mtodo H-D, el del grado de conrmacin, el de la conjuncin irrelevante y el de la conrmacin de hiptesis estadsticas. Sin embargo, no ofrece, en mi opinin, una solucin razonable a los otros dos problemas, el del holismo epistemolgico y el de las hiptesis alternativas compatibles con la evidencia. Una discusin detallada de estos dos problemas est ms all de los lmites de este trabajo, por lo que me limitar a hacer algunas observaciones esquemticas. Comencemos por el problema de las hiptesis alternativas. Supongamos que dos hiptesis rivales H y H implican a la misma evidencia E. En tal caso, P(E / H & K) = 1 = P(E / H & K). Se sigue, por tanto, del teorema de Bayes que las probabilidades previas y posteriores de las dos hiptesis se relacionan de la siguiente manera: P(H / E & K) P(H/K) = P(H/ E&K) P(H / K) Esta igualdad entre cocientes implica que P(H / E & K) P(H / E & K) si y slo si, P(H / K) P(H / K). En particular, P(H / E & K) > P(H / E & K) si y slo si, P(H / K) > P(H / K). Esto es, las probabilidades posteriores de las dos hiptesis son diferentes nicamente cuando las respectivas probabilidades previas son diferentes.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

75

En tal caso, la evidencia E parece no desempear ningn papel signicativo para discriminar entre los grados de conrmacin de ambas hiptesis. El problema se traslada a la asignacin de las probabilidades previas de cada hiptesis. Pero dado que esas son probabilidades subjetivas, es posible que diferentes cientcos discrepen en sus asignaciones de modo tal que para algunos P(H / K) > P(H / K), mientras que para otros P(H / K) < P(H / K). En esas circunstancias, ninguna evidencia E que sea implicada por ambas hiptesis es capaz de resolver el desacuerdo inicial. El grado de conrmacin que se obtenga condicionalizando sobre la evidencia no har otra cosa que reejar en las probabilidades posteriores el desacuerdo en las probabilidades previas de cada hiptesis. Muchos bayesianos confan en que este problema podr resolverse una vez que se obtenga alguna solucin satisfactoria al problema ms general de la objetividad de la inferencia cientca, o, ms especcamente, al problema de cmo asignar racionalmente probabilidades previas y cmo obtener consenso acerca de tales asignaciones. Por el momento ste es un problema abierto, cuya solucin est pendiente28. La respuesta bayesiana ortodoxa a este problema es que la aplicacin reiterada de la regla de condicionalizacin (y, por tanto, del teorema de Bayes) hace converger los valores de las probabilidades posteriores de las hiptesis. Las probabilidades previas no se borran, pero s se decoloran cuando se condicionalizan respecto de la nueva evidencia adquirida. De esta manera, la divergencia inicial en las probabilidades previas tiende a hacerse cada vez menor a medida que la evidencia se acumula. Si bien los diferentes grados de confirmacin de una determinada hiptesis continan siendo diferentes despus de cualquier nmero finito de aplicaciones de la regla de condicionalizacin, los valores tienden a ubicarse en un intervalo real cada vez menor. Se han probado diversos teoremas generales acerca de la fusin de las opiniones y la convergencia de las probabilidades bajo ciertas condiciones muy generales29. Tales teoremas muestran que, bajo el supuesto de que la probabilidad previa
28 Howson y Urbach (1993), pp. 161-164, reconocen esta dicultad y admiten que la teora bayesiana no tiene una solucin a la cuestin de cundo elegir una hiptesis frente a otras rivales que tambin implican la evidencia. Sin embargo, es un hecho que los cientcos se enfrentan a esta clase de problema y lo resuelven tomando decisiones bien denidas. 29 Earman (1992), cap. 6, contiene una buena exposicin de este tema. Earman es especialmente escptico acerca de la utilidad de los teoremas de convergencia para resolver el problema de la objetividad de la inferencia cientca.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

76

ALEJANDRO CASSINI

que se asigne a una hiptesis sea siempre 0 < P(H / K) < 1, todas las diferentes probabilidades posteriores convergen hacia el valor P(H / K) = 1 cuando se aplica reiteradamente la regla de condicionalizacin estricta. El nico requisito general es que todos los sujetos estn de acuerdo en cules son las hiptesis que tienen una probabilidad previa igual a 0. Si un sujeto asigna P(H / K) = 0 y otro P(H / K) > 0, sus probabilidades posteriores nunca convergen por el simple hecho de que P(H / K) = 0 no puede cambiar por condicionalizacin bayesiana. La convergencia de las probabilidades previas no soluciona, sin embargo, el problema de las hiptesis alternativas. En primer lugar, porque no puede garantizarse la convergencia en el corto plazo. Por ejemplo, si un cientco asigna a una hiptesis dada una probabilidad previa muy cercana a 0 y otro le asigna una probabilidad previa muy cercana a 1, la convergencia de las respectivas probabilidades posteriores ser extremadamente lenta. Los dos cientcos no lograrn alcanzar ningn acercamiento signicativo en sus probabilidades posteriores a lo largo de sus vidas. Despus de cualquier nmero humanamente realizable de condicionalizaciones, tales probabilidades todava sern cercanas a 0 y a 1, respectivamente. La convergencia de las probabilidades posteriores se produce ms o menos rpidamente si las probabilidades previas no son cercanas a los valores extremos. Pero el bayesianismo ortodoxo no dispone de ningn procedimiento que limite de esta manera la eleccin de las probabilidades previas. Por otra parte, si dos cientcos parten de asignaciones diferentes de probabilidades previas para dos hiptesis rivales, de modo que uno de ellos satisfaga la desigualdad P(H / K) > P(H / K) y el otro no, despus de cualquier nmero nito de aplicaciones de la regla de condicionalizacin las probabilidades posteriores de cada uno de ellos todava mantendrn la divergencia inicial respecto de la desigualdad. En el caso lmite en que las probabilidades converjan hacia 1, nos encontraremos con dos hiptesis rivales con el mismo grado de conrmacin respecto de toda la evidencia disponible. La eleccin entre ambas hiptesis estar, entonces, subdeterminada por la evidencia, de modo que el problema de las hiptesis alternativas quedar irresuelto. El problema del holismo epistemolgico es mucho ms difcil de tratar. La solucin mayoritariamente admitida por los bayesianos es la propuesta por Dorling (1979)30, En lo esencial, la solucin
30 Tanto Earman (1992), pp. 83-85, como Howson y Urbach (1993), pp. 136-142, siguen las lneas generales de la solucin de Dorling. Strevens (2001) es un reciente renamiento de las ideas de Dorling.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

77

de Dorling es la siguiente. Si (H & A.) |= E, y E, entonces, desde un punto de vista lgico, slo puede inferirse H v A. Cmo puede saberse si hay que revisar H o A? La respuesta bayesiana es que debe revisarse la hiptesis o conjunto de hiptesis cuyo grado de conrmacin se vea afectado en mayor medida por la evidencia negativa E. El teorema de Bayes permite mostrar que la evidencia que refuta un sistema de hiptesis no afecta a las partes de ese sistema de la misma manera. En algunos casos E puede bajar drsticamente el grado de conrmacin de H y en otros casos el de A. Ello depende de cules sean las probabilidades previas y las likelihoods de las correspondientes hiptesis. La hiptesis H se debe mantener cuando la evidencia negativa E, que refuta al sistema S = (H & A), tiene el efecto de disminuir el grado de conrmacin de A mucho ms que el de H. En caso contrario, se debe mantener A y revisar H. Las condiciones que deben cumplirse para que ocurra el primero de los casos son las siguientes. 1) H y A son probabilsticamente independientes, de modo que P(A / H & K) = P(A / K). 2) Las dos hiptesis tienen probabilidades previas diferentes, de modo que P(H / K) > P(A / K). 3) Las likelihoods son muy desiguales: P(E / H & A & K) << P(E/ H & A & K); y P( E / H & A & K) << 1. Si se dan estas condiciones, resulta que P(H / E & K) >> P(A / E & K)31. Hay dos dificultades fundamentales para esta solucin bayesiana, La primera es el viejo problema de la subjetividad de las probabilidades previas y likelihoods involucradas. Dado que se trata de probabilidades personales, no hay nada que obligue a un sujeto a asignar valores de probabilidad que cumplan con las desigualdades especificadas en las condiciones 2) y 3). Consiguientemente, diferentes cientficos o grupos de cientficos podran obtener resultados totalmente discordantes para las probabilidades posteriores de H y de A. La solucin bayesiana requiere que en la comunidad cientfica se alcance un consenso acerca de las probabilidades previas y likelihoods de H y de A. Como en otros casos, no es necesario que el acuerdo se haga sobre valores numricos especficos, sino slo sobre las desigualdades expresadas en las condiciones 2) y 3). Histrica-

31 Dorling (1979 y 1982) analiza varios casos histricos. En uno de ellos, por ejemplo, muestra que si los valores son, respectivamente, los siguientes: 0.9 y 0.6 para las probabilidades previas, y 0.001; 0.5 y 0.5 para las likelihoods, las probabilidades nales resultan P(H / E & K) = 0.8976 y P(A / E & K) = 0.003. En esa situacin, argumenta, lo razonable es retener H sin cambios y modicar A.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

78

ALEJANDRO CASSINI

mente, puede constatarse que de hecho tal consenso se alcanz en algunos casos, pero esto es contingente. Nada en la metodologa bayesiana implica que tal consenso se alcance siempre o incluso pueda alcanzarse. En suma, la solucin bayesiana depende de que se cumplan ciertas condiciones que no pueden explicarse mediante el mtodo bayesiano. Earman (1992, pp. 84-85) advierte este problema y sostiene que una solucin satisfactoria depende de que se resuelva el problema de la objetividad de la inferencia cientca. Pero ste, como ya vimos, constituye una de las dicultades principales del programa bayesiano. Otra dicultad, que no parece haberse advertido hasta ahora, es el propio holismo epistemolgico. La solucin bayesiana presupone una estrategia no holista, segn la cual, los componentes de un sistema de hiptesis son separables, esto es, se les puede asignar grados de conrmacin a cada uno de ellos de manera aislada. Esto es precisamente lo que el holista epistemolgico niega, o debera negar, si es que su posicin ha de ser coherente. Supongamos, por ejemplo, que el sistema S se compone de una nica hiptesis H y una sola hiptesis auxiliar A, de modo que (H & A) |= E, pero H | E y A | E. En ese caso E conrma globalmente al sistema S, de la misma manera que E lo refuta globalmente. As como, dado E, no es posible concluir que una determinada hiptesis de S es falsa, tampoco es posible, dado E, concluir que alguna de las hiptesis de S ha sido conrmada. La conrmacin de un sistema de hiptesis es global y no se distribuye a sus componentes32. En particular, no puede asignarse a H o a A, tomadas aisladamente, ningn grado de conrmacin. Desde el punto de vista holista, no es posible determinar si la evidencia E, que refuta a S como un todo, disminuye ms el grado de conrmacin de A que el de H. Esta estrategia es imposible desde la perspectiva holista porque no existen tales grao dos de conrmacin para hiptesis aisladas. En todo caso, slo puede asignarse a S un grado de conrmacin global. La solucin bayesiana, en suma, simplemente ignora el holismo epistemolgico y procede de una manera no holista. Esto no resuelve el problema de Duhem, como pretenden muchos bayesianos, porque, tal como yo lo entiendo, ste consiste precisamente en la cuestin del holismo epistemolgico.

32 En su discusin general del holismo, Laudan (1990, p. 70) ha expresado muy claramente este punto: Cuando un sistema pasa un test, no podemos asignar un nivel especco de conanza a las hiptesis individuales componentes del sistema.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

79

14. Conclusin
El esquema del mtodo H-D que tomamos como punto de partida constituye un modelo tan general del proceso de la investigacin cientca que, prcticamente, ningn lsofo de la ciencia lo cuestiona en la actualidad. Como esquema general, el mtodo H-D es indudablemente adecuado. Sin embargo, incluso en sus versiones ms complejas, resulta excesivamente simple e incompleto. La teora de la conrmacin H-D, que slo est implcita en el esquema general del mtodo H-D, tiene un alcance limitado porque no puede aplicarse a las teoras probabilistas, que son posiblemente las ms importantes de la ciencia contempornea. Por otra parte, dentro de su dominio de aplicacin, el de las teoras deterministas, deja sin resolver muchos problemas fundamentales. El mtodo H-D, en suma, no proporciona una teora satisfactoria de la conrmacin. Los bayesianos no rechazan el esquema general del mtodo HD, pero sostienen que la teora H-D de la confirmacin es notoriamente incompleta y limitada. Los crticos bayesianos de la teora HD de la confirmacin no la rechazan completamente, puesto que aceptan que captura correctamente algunos de los rasgos generales de la inferencia cientfica como, por ejemplo, la idea de confirmacin por implicacin. La teora bayesiana de la confirmacin puede verse como un intento por conservar los aciertos generales del mtodo H-D y superar las limitaciones de la teora H-D de la confirmacin. Un xito indudable del programa bayesiano es la extensin del dominio del mtodo al campo de las hiptesis estadsticas. La teora bayesiana de la confirmacin proporciona un esquema unificado que puede aplicarse a la contrastacin de hiptesis deterministas y probabilistas por igual. Otro de los mritos del bayesianismo es que proporciona una teora cuantitativa de la confirmacin que, en principio, resuelve el problema de la conjuncin irrelevante y ofrece un algoritmo general para calcular el grado de confirmacin de cualquier teora o hiptesis. La teora bayesiana de la conrmacin retiene tres de las condiciones fundamentales del concepto de conrmacin H-D: la conrmacin por implicacin, la refutacin de una hiptesis general mediante un contraejemplo y la condicin de equivalencia de Hempel. Adems, incorpora algunas de las ideas originales de Popper acerca del valor epistemolgico de las conjeturas audaces, tales como el retorno decreciente de las contrastaciones repetidas y el valor conrmatorio de las predicciones improbables. Sin embargo, la teora baANLISIS FILOSFICO XXIII N 1 (mayo 2003)

80

ALEJANDRO CASSINI

yesiana de la conrmacin no es una simple extensin del mtodo HD, ni de la teora cualitativa de Hempel, ni de la teora de la corroboracin de Popper. Hayal menos alguna tesis de cada una de estas teoras de la inferencia cientca que el bayesianismo no acepta. Entre ellas, la conversa de la condicin de conrmacin por implicacin, es decir, el deductivismo estricto del mtodo H-D; todas las condiciones de adecuacin de Hempel, excepto la de equivalencia y la de implicacin; y toda la teora del grado de corroboracin de Popper (de la que no nos hemos ocupado aqu). El bayesianismo representa, en mi opinin, una teora de la conrmacin completa, tanto respecto de su alcance como de su capacidad de resolver muchos problemas epistemolgicos tradicionales. No obstante, ya hemos sealado que no es capaz de resolver todos los problemas del mtodo H-D. El holismo epistemolgico y el problema de las hiptesis alternativas todava esperan una solucin satisfactoria. En tanto teora general de la inferencia cientca, el bayesianismo tiene multitud de problemas y anomalas, entre las cuales no es menor el problema de la subjetividad de los grados de conrmacin, que representan slo los grados de creencias de cada individuo. No es ste el lugar para tratar estas dicultades33. En ltima instancia, el programa bayesiano, como todo programa de investigacin en pleno desarrollo, tiene que ser juzgado a largo plazo haciendo una evaluacin global (y comparativa) de todos sus xitos y fracasos. Posiblemente todava sea prematuro sacar conclusiones generales o denitivas. Creo que lo nico que puede decirse con certeza es que constituye un programa de investigacin que ha hecho grandes progresos en teora de la conrmacin. Comparativamente, representa un avance considerable respecto de la nocin de conrmacin del mtodo H-D. Sin embargo, sus anomalas son lo sucientemente importantes como para erigirse en serias amenazas potenciales para el futuro del programa. La tarea de construir una teora de la conrmacin completamente satisfactoria todava est pendiente. Si en el futuro el progra33 El libro de Earman (1992) es todava la exposicin ms honesta y detallada de los problemas del bayesianismo. Shimony (1993), caps. 9 y 10, contiene tambin una revisin del programa bayesiano en una direccin menos subjetivista, la de un personalismo moderado completado con principios metodolgjcos a posteriori. Aqu no me he ocupado de las ideas de Shimony, porque me limit al marco del bayesianismo ortodoxo, es decir, subjetivista. Salmon (1990) intenta conciliar el bayesianismo con algunas ideas de Kuhn. Las crticas al bayesianismo formuladas desde posiciones no bayesianas son muy abundantes y de muy diferente calidad. Por ejemplo, Miller (1987), cap, 7; Miller (1994), caps. 6-8; Mayo (1996), caps. 3, 4 y 10.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

81

ma bayesiano no consigue superar sus dicultades, tarde o temprano ser abandonado. En principio, cualquier otra teora probabilista de la conrmacin (en la que sean demostrables los teoremas 1-13) podra capitalizar los xitos del bayesianismo que hemos reseado. La pregunta fundamental en la situacin actual es si la teora de la probabilidad es adecuada para dar cuenta de la inferencia cientca, como suponen los bayesianos y muchos de sus rivales, o si es necesario construir una teora no probabilista de la conrmacin. En este ltimo caso, ya sabemos, al menos, dos cosas importantes: primero, que tal teora no podr ser una teora. cualitativa y simple como el mtodo H-D, y segundo, que deber retener la mayor parte de los aspectos exitosos de la teora bayesiana de la conrmacin34.

BIBLIOGRAFIA
Achinstein, P. (1985), The Method of Hypothesis: What Is It Supposed to Do, and Can it Do It?, en: P. Achinstein y O. Hannaway (eds.), Obseruation, Experiment, and Hypothesis in Modern Physical Science, Cambridge, MA, The MIT Press, 1985, pp. 127-145. Baird, D. (1992), lnductiue Logic: lnferring the Unknown, Upper Saddle River, NJ, Pearson Custom Publishing. Barker, S. F. (1957), lnduction and Hypothesis: A Study ofthe Logic of Conrmation, New York, Cornell University Press. Braithwaite, R. B. (1953), Scientic Explanation, Cambridge, Cambridge University Press. Camap, R. (1945), On Inductive Logic, Philosophy of Science, 12, pp. 72-97. (1950), Logical Foundations of Probability, Chicago, University of Chicago Press. De Finetti, B. (1937), La prevision: ses lois logiques, ses sources subjectives, Annales de llnstitut Henri Poincar, 7, pp. 1-68. (Traduccin inglesa: Foresight: Its Logical Laws, Its Subjective Sources, en: Kyburg, H. y H. Smokler (eds.), Studies in Subjectiue Probability, New York, Krieger, 1980, pp. 53-118).
34 Agradezco a Eleonora Cresto por ayudarme a mejorar las demostraciones de algunos de los teoremas, Tambin agradezco al annimo autor del referato de Anlisis Filasfico por sus detallados comentarios a la primera versin de este trabajo.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

82

ALEJANDRO CASSINI

Diez, J. A. y C. U. Moulines (1997), Fundamentos de losofa de la ciencia, Barcelona, Ariel. Dorling, J. (1979), Bayesian Personalism, the Methodology of Scientic Research Programmmes, and Duhems Problem, Studies in History and Philosophy of Science, 10, pp. 177-187. (1982), Further Illustrations of the Bayesian Solution of Duhems Problem (Manuscript). Duhem, P. (1894), Quelques rflexions au sujet de la physique exprimentale, Revue des Questions Scientifiques, 36, pp.179-229. (1906), La thorie physique: son object, sa structure, Paris, M. Riviere. Earman, J. (ed.) (1983), Testing Scientic Theories, Minneapolis, University of Minnesota Press. (1992), Bayes or Bust? A Critical Examination of Bayesian Conrmation Theory, Cambridge, MA, The MIT Press. y W. Salmon (1992), The Confirmation of Scientific Hypotheses, en: M. Salmon y otros (eds.) 1ntroduction to the Philosophy of Science, Inglewood Cliffs, NJ, Prentice Hall, 1992, pp. 42-103. Gillies, D. (1971), A Falsifying Rule for Probability Statements, British Journal for the Philosophy of Science, 22, pp. 231-261. (1973), An Objective Theory of Probability, London, Methuen. (2000), Philosophical Theories of Probability, London-New York, Routledge. Glymour, C. (1980), Theory and Evidence, Princeton, Princeton University Press. Grnbaum, A. (1976), Is Falsiability the Touchstone of Scientic Rationality? Karl Popper versus Inductivism, en: R: S: Cohen y otros (eds.), Essays in Memory of Imre Lakatos, Dordrecht, Reidel, 1976, pp. 213-250. Hacking, I. (2001), An 1ntroduction to Probability and 1nductive Logic, Cambridge,. Cambridge University Press. Hellman, G. (1997), Bayes and Beyond, Philosophy of Science, 64, pp. 191-221. Hempel, C. G., (1945), Studies in the Logic of Conrmation, Mind, 54, pp. 1-26 y 97-121. (1965), Aspects of Scientic Explanation, New York, The Free Press. (1966), Philosophy of Natural Science, Upper Saddle River, NJ, Prentice Hall.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

CONFIRMACION HIPOTETICO-DEDUCTIVA Y CONFIRMACION BAYESIANA

83

y Oppenheim, P., (1945), A Denition of Degree of Conrmation, Philosophy of Science, 12, pp. 98-115. Horwich, P. (1982), Probability and Evidence, Cambridge, Cambridge University Press. (1993), Wittgensteinian Bayesianism, Midwest Studies in Philosophy, vol. 18, pp. 62-77. Hossiason-Lindenbaum, J. (1949), On Conrmation, Journal of Symbolic Logic, 5, pp. 133-148. Howson, C. y P. Urbach (1993), Scientic Reasoning: The Bayesian Approach, 2 ed., La Salle (Ill.), Open Court (1 ed. 1989). Jeffrey, R. (1983), The Logic of Decision, 2 ed., Chicago, University of Chicago Press (1 ed. 1965). (1992), Probability and the Art of Judgment, Cambridge, Cambridge University Press. Klimovsky, G. (1994), Las desventuras del conocimiento cientfico: Una introduccin a la epistemologa, Buenos Aires, A-Z Editora. Lalande, A. (1929), Les thories de linduction et lexprimentation, Paris, Boivin. Laudan, L. (1990), Scienceand Relativism: Some Key Controversies in the Philosophy of Science, Chicago-London, University of Chicago Press. Levi, 1. (1980), The Enterprise of Knowledge: An Essay on Knowledge, Credal Probability, and Chance, Cambridge, MA, The MIT Press. Lipton, P. (1991), lnference to the Best Explanation, London, Routledge. Maher, P. (1993), Betting on Theories, Cambridge, Cambridge University Press. Mayo, D. G. (1996), Error and the Growth of Experimental Knowledge, Chicago and London, The University of Chicago Press. Miller, D. (1994), Critical Rationalism: A Restatement and Defence, Chicago and La Salle, Open Court. Miller, R. W. (1987), Fact and Method: Explanation, Conrmatian and Reality in the Natural and the Social Sciences, Princeton, Princeton University Press. Popper, K. R. (1959), The Logic of Scienti{ic Discovery, London, Routledge. (1963), Conjectures and Refutations: the Growth of Scientic Knowledge, London, Routledge. (1983), Realism and the Aim of Science, London, Routledge.
ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

84

ALEJANDRO CASSINI

Salmon, W. (1967), The Foundations of Scientic lnference, Pittsburgh, University of Pittsburgh Press. (1975), Conrmation and Relevance, en: G. Maxwell y R. Anderson Jr. (eds.), lnduction, Probability, and Conrmation, Minneapolis, University of Minnesota Press, 1975, pp. 3-36. (1990), Rationality and Objectivity in Science or Tom Kuhn Meets Tom Bayes, en: C. Wade Savage (ed.), Scientific Theories, Minneapolis, University of Minnesota Press, 1990, pp. 175-204. Shimony, A. (1993), Search for A Naturalistic World View. Volume I: Scientic Methodology and Epistemology, Cambridge, Cambridge University Press. Skyrms, B. (2000), Choice and Chance: An lntroduction to Inductive Logic, 411 ed., Belmont, CA, Wadsworth. Strevens, M. (2001), The Bayesian Treatment of Auxiliary Hypotheses, British Journal for the Philosophy of Science, 52, pp. 515-537.

ANLISIS FILOSFICO XXIII N 1 (mayo 2003)

Вам также может понравиться