Академический Документы
Профессиональный Документы
Культура Документы
Temario y Bibliografía 3
Unidad Didáctica 1
El conocimiento en otras culturas y la ciencia 13
Unidad Didáctica 2
Historia del pensamiento sobre el método 31
Unidad Didáctica 3
El estatuto y los objetivos de la filosofía de la ciencia 59
Unidad Didáctica 4
Los conceptos científicos 70
Unidad Didáctica 5
La base empírica de las teorías 82
Unidad Didáctica 6
La estructura de las teorías --
Unidad Didáctica 7
La explicación científica 105
Unidad Didáctica 9
El cambio teórico 114
Unidad Didáctica 10
Progreso y verdad en la ciencia --
2
Filosofía de la Ciencia
Temario de Julián C. Armero San José1
E n España se publica una multitud de ensayos sobre las más variadas disciplinas
científicas y humanísticas. Pero las tiradas no se prolongan una vez que estos ensayos
han pasado de moda. Los autores que por su importancia son considerados clásicos dentro
de cada materia no gozan de mayor privilegio que otros más circunstanciales. Logran una
persistencia en las estanterías aquellos que se emplean como libros de texto en las
universidades. Ante la dificultad de encontrar en librerías o bibliotecas los libros de nuestra
asignatura, esta bibliografía recoge la mayor parte de los títulos de libros que tratan los
temas elegidos por el programa de la asignatura. Se indican en ella los capítulos o páginas
que en cada libro abordan los temas del programa y cuáles son estos. La finalidad de
compilar esta bibliografía es que el estudiante de esta asignatura tenga más posibilidades de
encontrar alguno de los lugares donde los temas son tratados en la literatura en castellano.
UNIDAD 1
UNIDAD 2
Historia del pensamiento sobre el método
1
Texto de Julián C. Armero Dibujos de Leonardo Da Vinci Diseño y Maquetación de David Hernández
Castro Balbino Antonio Quesada Talavera, Elena Machado Devis, Eugenio Pardo Olea y Jesús González
Sánchez son los autores de las unidades didácticas 2, 3, 4 y 5
3
1. Aristóteles: inducción y deducción
2. Euclides y la organización deductiva
3. El método cartesiano
4. El inductivismo de Mill
5. El positivismo lógico.
Estos dos libros ayudarán al alumno que lo desee a suplir los muy extensos períodos
que el programa no aborda.
Los Elementos de Euclides se encuentran publicados en Gredos, así como las principales
obras metodológicas de Aristóteles.
Sobre Mill no es fácil encontrar material en castellano, pero su obra A System of Logic es
ahora accesible gratuitamente en Internet, en el proyecto Gutterberg.
Además de este libro, hay numerosos tratamientos del positivismo lógico. Por ejemplo
el primer capítulo del libro de H. Brown, La Nueva Filosofía de la Ciencia, Madrid,
Alianza, 1983. También es bueno, y mucho más extenso, el libro editado por F. Suppe,
La Estructura de las Teorías Científicas, UNED. Este libro contiene la introducción de
Suppe al libro del mismo título que hace años publicó la Editora Nacional, ya cerrada.
Suppe describe las doctrinas principales del positivismo lógico de una manera muy
ordenada y correcta.
UNIDAD 3
4
El estatuto y los objetivos de la filosofía de la ciencia
1. La distinción de contextos
2. La naturalización de la epistemología
3. Reconstrucciones racionales de episodios científicos
4. Las ciencias de la ciencia
El libro de F. Suppe ya citado dedica una amplia sección a muchas de las cuestiones
involucradas en el problema de determinar el estatuto de la filosofía de la ciencia, cuáles
son sus relaciones con la historia de la ciencia, en qué medida la filosofía de la ciencia
da criterios de lo que es buena ciencia, es decir, prescribe, y si tiene entre sus cometidos
reconstruir las teorías como forma de dar cuenta de su racionalidad. También se ocupa
este libro de la filosofía de la ciencia de Hanson y de otros autores que redefinieron el
estatuto de la filosofía de la ciencia y cuestionaron la distinción de contextos. Lakatos
ofrece un lugar clásico, La Historia de la Ciencia y sus Reconstrucciones Racionales, Tecnos,
Madrid, 1982 para la idea de reconstrucción racional. Ulises Moulines, Pluralidad y
Recursión, Madrid, Alianza, 1991 dedica su primera parte al problema del estatuto de la
filosofía de la ciencia y considera la cuestión de las reconstrucciones de las teorías. Él
considera que estas reconstrucciones son necesarias, y constituyen la tarea de la
corriente filosófica a la que está adscrito Ulises Moulines, el estructuralismo (de Suppes,
Sneed, Stegmüller, etc.). El mismo autor, en Exploraciones Metacientíficas, Madrid, Alianza,
1982, se ocupa en 1.2 de este asunto.
5
convertir la teoría del conocimiento en una disciplina científica, esto es, naturalizarla.
En la enciclopedia de Newton-Smith hay un artículo dedicado a esta naturalización
escrito por uno de sus practicantes más destacados. R. Giere. S. Haack, Evidencia e
Investigación, Madrid, Tecnos, 1997 trata el naturalismo en el cap. 6. Otro libro de J.
Losee, Filosofía de la Ciencia e Investigación Histórica, Madrid, Alianza, 1987, dedica los
capítulos 2, 3 y 9 a las relaciones entre la historia y la filosofía de la ciencia, y el
capitulo 7 a las filosofías de la ciencia descriptivas. Un ensayo de hacer ciencia de la
ciencia que en su momento fue extraordinariamente provocador es el B. Latour y S.
Woolgar, La Vida en el Laboratorio, Madrid, Alianza, 1986. Lleva como subtítulo “La
construcción de los hechos científicos”.
UNIDAD 4
Los conceptos científicos
1. La definición
2. Clasificaciones y taxonomías
3. Conceptos métricos
UNIDAD 5
6
La distinción entre teoría y observación es posiblemente parte de las ideas comunes y
no críticas que tenemos sobre la ciencia. El establecimiento preciso de esa distinción en
el lenguaje científico la convirtió el positivismo lógico una de las cuestiones básicas de
su filosofía. Este tema está muy bien tratado por F. Suppe en La Estructura de las Teorías
Científicas. Hempel, en Filosofía de la Ciencia Natural, Madrid, Alianza, 1976, cap. 7, trata
sobre el carácter de los conceptos empíricos. También trata de esto A. Rivadulla en
Filosofía Actual de la Ciencia, parte V. A.. Chalmers, ¿Qué Es esa Cosa Llamada Ciencia?
Madrid, Siglo XXI, 1984 dedica 3.II a la noción de carga teórica de Hanson, y 5.V y 6.II
a la idea de conocimiento básico del falsacionismo de Popper. A. Chalmers, La Ciencia y
Cómo se Elabora, Madrid, Siglo XXI, 1992, 5.5, ofrece una discusión de un asunto que
no recoge el programa, pero sumamente interesante para la obtención de los
enunciados básicos en la ciencia y la contrastación de las teorías, como es la
experimentación, aquejada, según H. Collins, del círculo vicioso de la experimentación.
Este libro, en el caps. 4 y 5 hace una discusión de la observación y la experimentación.
Hanson, en Patrones de Descubrimiento, Madrid, Alianza, 1977, cap. 2, examina la carga
que sufren las observaciones de parte de la teoría, y cómo esto imposibilita contar con
una base empírica autónoma que sirva de piedra de toque de la contrastación de las
teorías. Sobre este asunto, bajo una u otra denominación inciden Kuhn, Feyerabend, y
después Lakatos y los estructuralistas. En realidad, el mismo Popper ya había advertido
que los enunciados básicos son refutables y dependen de suposiciones teóricas. La
parte segunda del libro de M. W. Wartofsky, Introducción a la Filosofía de la Ciencia,
Madrid, Alianza, varias ediciones desde 1973, trata los temas de la formación de
conceptos científicos, la estructura de las teorías, la explicación y la contrastación.
UNIDAD 6
La estructura de las teorías
7
Mosterín, Conceptos y Teorías de la Ciencia, Madrid, Alianza, 2000 dedica el capítulo
“Sobre Teorías Físicas y Teorías Matemáticas” al estructuralismo. La Concepción
Estructuralista de las Teorías, de W. Stegmüller, en Madrid, Alianza, 1981, es un libro
utilizable pero complicado sobre estructuralismo. Ulises Moulines, Exploraciones
Metacientíficas, Madrid, Alianza, 1982 también dedica la parte 2 a la concepción
estructuralista incluido el asunto de las relaciones interteóricas, como la reducción,
esenciales para entender el cambio científico.
UNIDAD 7
La explicación científica
1. La Explicación nomológico-deductiva
2. La explicación causal
3. La explicación funcional
4. La explicación intencional
UNIDAD 8
La contrastación de las teorías
1. La verificación y la confirmación
8
2. El falsacionismo de Popper
3. Los experimentos cruciales y el problema de la carga teórica
4. Convencionalismo, holismo y falsacionismo refinado
A. Chalmers, ¿Qué Es esa Cosa Llamada Ciencia? Dedica los caps. 4, 5 y 6 al falsacionismo
y al “falsacionismo sofisticado” o refinado Díez y Moulines dedican el capítulo 12 a la
contrastación.
UNIDAD 9
El cambio teórico
9
5. La reducción de teorías en el estructuralismo
6. El modelo de cambio de Kitcher
A. Estany, Modelos de Cambio Científico, Barcelona, Crítica, 1990 dedica sendos capítulos a
Kuhn y a Lakatos. El libro de P. Kitcher, El Avance de la Ciencia, México, UNAM, 2001
es muy extenso, pero es particularmente importante para el tema el cap. 3, “La
Microestructura del Cambio Científico”.
UNIDAD 10
Progreso y verdad en la ciencia
1. El realismo
2. El instrumentalismo
3. El relativismo epistemológico
Ulises Moulines, Pluralidad y Recursión, dedica los dos primeros capítulos de la segunda
parte al realismo y al instrumentalismo. A. Chalmers, ¿Qué Es esa Cosa Llamada Ciencia?
dedica a estos tres temas los apartados 13.III, IV y V y 14.II al realismo, 13.II al
instrumentalismo y 9 al relativismo. H. Brown, La Nueva Filosofía de la Ciencia trata el
concepto de verdad en relación con la ciencia en X, y el relativismo en VIII.
10
epistemológico. También se encuentran artículos de este tenor en C. Solís, Razones e
Intereses, Paidós, Barcelona, 1994. Este libro contiene además una buena discusión de las
bases filosóficas a las que recurre el giro sociologista fuerte.
LISTADO BIBLIOGRÁFICO
11
H. Poincaré, Filosofía de la Ciencia, México, UNAM, 1984
K. Popper, La Lógica de la Investigación Científica, Madrid, Tecnos, 1962
K. Popper, El Desarrollo del Conocimiento Científico, Barcelona, Paidós, 1973
K. Popper, Realismo y el Objetivo de la Ciencia, Madrid, Tecnos, 1985
D. Quesada, Saber, Opinión y Ciencia, Barcelona, Ariel, 1998
W. Quine, La Relatividad Ontológica y Otros Ensayos, Madrid, Tecnos, 1969
W. Quine, Acerca del Conocimiento Científico y Otros Dogmas, Barcelona, Paidós, ICE/UAB,
2001
G. Radnitzky y otros (eds.), Progreso y Racionalidad en la Ciencia, Madrid, Alianza, 1982
H. Reichenbach, La Filosofía Científica, FCE, 1953
A. Rivadulla, Filosofía Actual de la Ciencia, Madrid, Tecnos, 1986
A. Rivadulla, “La Revolución en Metodología de la Ciencia”, Éndoxa, nº 5.
R. Rorty, Objetividad, Relativismo y Verdad, Barcelona, Paidós, 1996.
C. Solís, Razones e Intereses, Barcelona, Paidós, 1994.
C. Solís, Alta Tensión, Barcelona, Paidós-UNED, 1998
W. Stegmüller, Teoría y Experiencia, Barcelona, Ariel, 1979
W. Stegmüller, La Concepción Estructuralista de las Teorías, Madrid, Alianza, 1981
F. Suppe, La Estructura de las Teorías Científicas, UNED, 1990
P. Suppes, Introducción a la Lógica Simbólica, México DF. CECSA, 1966
R. Taton, Causalidad y Accidentalidad de los Descubrimientos Científicos, Labor, 1967
C. Ulises Moulines, Pluralidad y Recursión, Madrid, Alianza, 1991
C. Ulises Moulines, Exploraciones Metacientíficas, Madrid, Alianza, 1992
M. W. Wartofsky, Introducción a la Filosofía de la Ciencia, Madrid, Alianza, 1983.
J. Ziman, Introducción al Estudio de las Ciencias, Barcelona, Ariel, 1986
12
APUNTES DEL PROFESOR
L ucien Lévy-Bruhl escribió por lo menos tres libros que son de interés para la teoría del
conocimiento: Les Fonctions Méntales dans les Sociétés Inférieures, en 1910, La Mentalité
Primitive, en 1922, y L’Âme Primitive, en 1927.
L’Âme Primitive trata de la manera como ciertas sociedades se sitúan entre el resto de los
seres vivos, de cómo se conciben como individuos y su relación con su grupo social y otros
grupos humanos, de lo que les ocurre a los individuos después de la muerte, del sentido de
los sueños. Puesto que en otras culturas la noción de alma desempeña un papel central en
la explicación de esa constelación de cuestiones, Lévy-Bruhl pone la palabra en el título.
Sea como sea, según Lévy-Bruhl, los hábitos mentales de los primitivos difieren de los
nuestros, y el “nosotros” al que alude son los blancos adultos civilizados, o, también, las
sociedades surgidas de la civilización mediterránea. Los hábitos mentales de los que se
ocupa, o las funciones mentales del título son las leyes más generales a las que obedecen las
representaciones colectivas, y entre los ejemplos que da de esas funciones están la ley de la
identidad, la de la contradicción, la generalización, la abstracción, la clasificación. Esas son
operaciones mentales o, como también las llama, “operaciones lógicas”, y las mencionadas
organizan en buena parte las representaciones del blanco adulto civilizado, en el sentido de
que dan a la formación de conceptos y tienen un papel en la inferencia, y en ese sentido se
pueden considerar las operaciones más generales de alguna clase de mentalidad, en
particular la del BAC. Lévy-Bruhl se propone estudiar cuáles son las operaciones más
generales de la mentalidad de esas sociedades más simples o primitivas. Ese es el tema de
su primer libro.
Además de operaciones lógicas, el BAC emplea para organizar sus representaciones y para
explicar lo que ocurre en el mundo la ley de la causalidad, según Lévy-Bruhl, y el segundo
libro se dedica a estudiar cómo la mentalidad primitiva se hace ese tipo de cuentas.
13
totalmente conjetural. Y esa es la objeción que hace a Tylor y a Frazer: que dan por
supuestos unos patrones básicos de razonamiento y unas necesidades intelectuales
humanas que, debido a las condiciones en que las necesidades han de ser satisfechas y los
mecanismos cognitivos han de operar, dan lugar a unas u otras representaciones. A esta
posición la llama “naturalista”, y la mentalidad “primitiva” descrita por ellos era el llamado
“animismo”. Sigue objetando al naturalismo que éste procede identificando esas
necesidades y mecanismos en el BAC, y juzgando que las formas que las representaciones
adquieren en las sociedades primitivas son estadios menos evolucionados del pensamiento.
Lévy-Bruhl dice que igual que no es sensato en biología tomar como patrón para todos los
seres vivos la anatomía ni la fisiología humanas, tampoco lo es tomar la mentalidad del
BAC como patrón de los mecanismos y necesidades intelectuales de toda la humanidad,
por más que, como en el caso de los seres vivos, haya podido haber antepasados comunes.
De modo que su uso de “primitivo”, aunque no deja de contener un elemento fuertemente
valorativo y en parte traiciona su profesión de fe contraria a considerar culturas
contemporáneas como formas poco evolucionadas del BAC, no tiene implicaciones de
evolucionismo cultural.
Esas representaciones no son exclusivamente cognitivas, sino que están muy mediadas en
el caso de las culturas primitivas por factores emocionales y motores. Ello se debe a las
circunstancias en las que muchas de esas representaciones son adquiridas por los individuos
en situaciones especiales, social y psicológicamente críticas, como, por ejemplo, las
ceremonias de iniciación.
Atribuye a la mentalidad primitiva una carencia para las operaciones lógicas en sentido
estricto, u “operaciones discursivas del pensamiento”, y llama poderosamente la atención a
cualquier lector de Lévy-Bruhl que el primer ejemplo de esta falta que considera en La
Mentalidad Primitiva es la escasa receptividad de los iroqueses a los argumentos teológicos
de los jesuitas que intentaban convertirlos empleando este medio. Esta dificultad para la
teología es caracterizada por Lévy-Bruhl diciendo que carecen del arte de seguir un
razonamiento un poco abstracto. Es importante dejar claro que en la literatura sobre
antropología del pensamiento se encuentran a veces usos muy confusos de términos como
“abstracto”. Los razonamientos teológicos no son teoría lógica, sino que versan sobre
ciertos individuos y ciertas relaciones, no sobre individuos y relaciones en general, de modo
que en ese sentido no son abstractos. Por otra parte, todos los adjetivos y nombres
comunes suponen una abstracción, y el uso de taxones de segundo orden en todas las
culturas es buena prueba de habilidad para abstraer.
En cambio, Lévy-Bruhl atribuye a las mentes primitivas una memoria excelente. Mientras
que el BAC confía en parte al ordenamiento lógico de los conceptos el papel de
herramienta para recuperar información, el sujeto primitivo registra en un cierto orden en
14
su memoria las representaciones, y ese orden memorizado sirve eventualmente, no solo
para recuperar una representación en particular, sino para inferir a partir de una
representación la siguiente. Y ofrece un ejemplo emocionante para el lector de cómo un
investigador puede pasar al lado de algo muy iluminador sin reparar en ello. Cuenta,
tomándolo de otra fuente, que un tal Upungwane, cafre, estaba escuchando un sermón de
un misionero y mientras escuchaba iba tallando un trozo de madera. Al acabar el sermón el
predicador le preguntó a Upungwane qué recordaba del sermón, y entonces Upungwane
sacó el trozo de madera y guiándose por las tallas reprodujo una idea detrás de otra.
Décadas después Luria mostró cómo las técnicas de registro del conocimiento dan forma a
las “operaciones mentales”, Goody dio a conocer las ideas de Luria en el mundo
anglosajón y Clark denominó “mentalidad extendida” a esas operaciones mentales que
tienen lugar a la vez dentro y fuera del organismo.
Es, sin embargo, esta una caracterización muy cuestionada del pensamiento ordinario del
BAC. La distinción entre analítico y sintético no parece fácil de trazar, según Quine; y
otros autores han mostrado que no se pueden separar las significaciones de las palabras de,
al menos, algunos de los juicios que formamos con ellas. Lo que añade Lévy-Bruhl es que
estas representaciones y las relaciones que hay entre ellas no están sometidas a la lógica
porque están sometidas a un imperativo social. Esto explica que no se libren a cualesquiera
arbitrariedades permitidas por el desprecio de la contradicción y que las “síntesis” estén
dadas junto con los conceptos. Si se dice de un sujeto es un hombre pájaro, entonces los
conceptos de hombre y el de pájaro tienen que cargar con esa síntesis y tienen que
participar el uno del otro. Es en este sentido en el que Lévy-Bruhl afirma que el
pensamiento primitivo carece de la facultad de abstraer, esto es, carece de la facultad de
crear conceptos con una extensión a la cual una cosa dada pertenece o no pertenece y
constituidos con independencia de las síntesis en que figuren.
15
espacial, que soportan las representaciones del BAC. En este sentido, dice Lévy-Bruhl, la
mentalidad primitiva es mística. En particular, en ella se explican mediante estas
intervenciones la enfermedad, los accidentes, la muerte, la sequía, la mala cosecha, que en
muchos casos y culturas se atribuyen a brujería
Lévy-Bruhl ha sido acusado de inventar una extraña mentalidad prelógica para atribuirla a
sus primitivos, pero la impresión que se tiene al leerlo es que es más inadecuada la idea que
se hace de la mentalidad racional o científica. Cuando describe esta depende de las
idealizaciones que los viejos tratados de lógica habían construido sobre el pensamiento
racional. Él mismo advierte que la racionalidad del BAC a la que se refiere es la que se
encuentra definida en los libros de lógica, de filosofía y de psicología, y tiene en cuenta la
posibilidad que el posterior estudio sociológico de las comunidades donde estos libros se
escribieron muestre un panorama distinto. Cuando interpreta el pensamiento primitivo
encuentra en él cosas que no estaban en los libros de lógica. Pero muchas de estas cosas
parecen estar también en el pensamiento científico. Su concepción del pensamiento
racional deforma, aunque él intenta evitar esta perturbación, la manera como cuenta las
características del pensamiento primitivo, porque no puede escapar de esta idealización
poco fiel.
Pero algunas de sus ideas las consigue expresar sin referirse a este contraste. Para explicar,
por ejemplo, el poder místico de los nombres recuerda que las teorías del lenguaje del
BAC enseñan que los nombres son convencionales y que no hay ningún nexo natural entre
nombre y cosa designada. Sin embargo, el nombre de una persona remite a todo un
conjunto de relaciones sociales en las que está inmerso, de modo que actuar sobre el
nombre de la persona tiene consecuencias importantes para ella. Y, en general, el nombre
de algo que tiene alguna clase de poder participa de ese poder. Lo que encuentra Lévy-
Bruhl merecedor de explicación es, más bien, la debilitación de las representaciones
colectivas, hasta el punto de que los nombres, dejan de estar inmersos en sistemas de
relaciones firmes y se convierten en simples designadores convencionales.
16
La obra de Lévy-Bruhl hace una valiosa propuesta para indagar el pensamiento socialmente
compartido, que consiste en inferirlo de las instituciones sociales. En el curso de su
interpretación del pensamiento de otras culturas advierte muy agudamente rasgos que lo
diferencian del pensamiento racional descrito por los lógicos, psicólogos y filósofos de la
Europa del siglo XIX. Pero de lo que realmente no se ocupa es de cómo las instituciones
sociales son materializaciones de esas representaciones colectivas.
-----
El Evolucionismo de Hallpike
17
incidentalmente, la notoria carencia de tal teoría en Lévi-Strauss le hace objeto de sarcasmo:
ha convertido un tema extremadamente difícil en un tema imposible. En segundo lugar,
Hallpike comparte por completo la idea de esta escuela psicológica de que el pensamiento
se desarrolla en relación con la experiencia a través de la acción del sujeto.
Otra objeción importante encuentra en las teorías durkheimianas una incapacidad para dar
cuenta del pensamiento que está involucrado en el uso de la tecnología, en la medición,
para dar cuenta de los efectos de la falta de escritura, y en general, para dar cuenta de
aspectos vitales para la adaptación al entorno y para el pensamiento acerca de aquel.
Una de las consecuencias principales de este punto de vista es que, aunque reconoce el
lugar del lenguaje en las diferentes fases de organización del pensamiento, no tiene el papel
central. El pensamiento y el lenguaje no son idénticos, ni van en paralelo. Si el lenguaje
tuviera sobre el pensamiento el predominio que, por ejemplo, la hipótesis de Whorf le
18
concede, el pensamiento sobre el tiempo, la causalidad, la cantidad, habría sido compartido
por todas las culturas de ascendencia indoeuropea, lo que no es el caso según Hallpike.
Bibliografía
Con independencia del valor de muchos de los detalles de la psicología evolutiva de Piaget
y de las conclusiones de Hallpike sobre el pensamiento primitivo, cada vez son más y más
influyentes en la propia antropología cognitiva las investigaciones transculturales de
psicología cognitiva. Un libro reciente que discute esta literatura, junto con materiales
procedentes de la historia y la filología es el de G. E. R. Lloyd, Cognitive Variations. Reflections
on the Unity and Diversity of the Human Mind, Oxford, Clarendon, 2006.
19
Es un bonito remate para un libro que intenta explicar el sentido de semejantes narraciones
y qué tipo de pensamiento las construye. Y la convicción central de Lévi-Strauss es que no
hay nada inferior, ni siquiera distintivo, en los recursos cognitivos básicos de quienes
construyen estas narraciones si los comparamos con el pensamiento racional que muestran
las empresas intelectuales de la ciencia. El pensamiento primitivo se ocupa generalmente de
asuntos distintos de los de la ciencia, pero, según Lévi-Strauss, “supone acciones
intelectuales y medios de observación comparables”. En una breve alusión a Lévy-Bruhl,
durante un pasaje en el que polemiza con Sartre, sostiene que el “salvaje” posee
conocimientos complejos y es capaz de hacer análisis y demostraciones. Sin embargo,
según la doctrina general de Lévi-Strauss esto no tiene en principio por qué ser así. El
advierte que cada cultura cree de sí misma que en ella se manifiestan todo el sentido y
dignidad que pueda poseer la humanidad, pero por su parte afirma que el hombre no
consiste en lo que está contenido en una cultura o en un momento histórico particulares,
sino que se expresa en la variedad de ellos. De modo que podría ocurrir que los
conocimientos complejos, el análisis y la demostración fueran atributos de alguna cultura y
algún momento histórico. Lévi-Strauss no abre esa puerta de indagación, quizá porque
piensa que en el fondo hay una esencia humana que incluye esas habilidades.
Desde luego, procede a desmontar las características que Lévy-Bruhl había hallado
definitorias de la mentalidad prelógica. La primera, la carencia de abstractos. Es imposible,
claro está, que una mentalidad sea incapaz de hacer abstracciones, puesto que cualquier
nombre común es una abstracción. Pero Lévi-Strauss quiere ir sobrado en su
argumentación y da cuenta de algunas lenguas que conceden preferencia a lo que en
gramática llamamos abstractos, esto es, palabras como “blancura”, “solidez”, como en el
lenguaje de Tlön se daba preferencia a los verbos. No es cosa de ponerse a refutar a Boas,
de quien Lévi-Strauss toma sus ejemplos, ni menos a Borges, pero no está de más recordar
que las categorías gramaticales son intralingüísticas y solo por analogía extensibles a lenguas
distintas de aquellas para las que las inventaron los gramáticos y, sobre todo, que la
ontología que atribuimos a los hablantes de otra lengua está infradeterminada por su
comportamiento verbal. Dogma es de Quine. De manera que es dudoso que se pueda sacar
un partido especial a los abstractos gramaticales para objetar por exceso a Lévy-Bruhl. Lo
que éste está dice no es que en ese pensamiento no haya abstractos, sino que los conceptos
no aparecen como separados de las síntesis en las que figuran.
Por otro lado, Lévi-Strauss parece pensar que mediante perífrasis y construcciones que
autorizan la sintaxis de una lengua se puede expresar lo que explícitamente no figura en su
vocabulario. De este modo, no solo queda cumplido el propósito de refutar a Lévy-Bruhl,
sino que se declara una comparabilidad de las mentes, de las lenguas y de los sistemas de
pensamiento de las culturas más discordantes, a pesar de que las extensiones e intensiones
de los conceptos o, como dice Lévi-Strauss, la división conceptual, varíen de una lengua a
otra. Y si esas diferencias están determinadas por los intereses de las culturas que
construyen semejantes sistemas, eso no conlleva que en el caso de las culturas “primitivas”
tales intereses sean exclusivamente los concernientes a la subsistencia material, sino que son
también de naturaleza intelectual.
El argumento que emplea es una especie de dilema implícito junto con una inferencia de la
mejor explicación. Primero hace acopio de autoridades, en especial Conklin, el gran
estudioso de las taxonomías folk, que hacen ver que los sistemas de clasificación de muchas
culturas poseen cantidades enormes (cientos o miles) de taxones, agrupados en jerarquías
de varios niveles, y distinguidos y descritos mediante extensos acervos de caracteres.
20
Este conocimiento es además, en ocasiones, objeto de la discusión de los expertos de la
comunidad y tema privilegiado de sus conversaciones. Luego pone al lector ante la
apreciación que hacen algunas de esas autoridades de que tan ingente cantidad de
conocimiento no puede obedecer a intereses materiales, económicos o prácticos de la
sociedad de que se trate, y sugiere al lector que comparta esa apreciación, sobre la base de
que el interés ha de ser intelectual o práctico, y esta es la base implícita del dilema.
Este es un punto muy importante de la argumentación, pero, sobre todo, del pensamiento
de Lévi-Strauss. Por un lado, tenemos la sensación de que la riqueza de los conocimientos
excede lo que podrían requerir las “necesidades prácticas”, que a saber cómo se las imagina
cada cual, porque Lévi-Strauss no da detalle ni parece tener mucho que decir sobre ellas ni
lo extrae de sus autoridades, excepto para referirse a las necesidades de subsistencia y para
considerar los conocimientos mágicos, puesto que las culturas que los detentan dan usos a
esos conocimientos en la forma de la creación de recetas mágicas, que asocian entidades o
regularidades biológicas, o naturales en general, con enfermedades, remedios, resultados de
las cosechas, etc. Parecen asociadas en esta argumentación las necesidades de subsistencia,
las necesidades prácticas y la garantía que pudiera dar la ciencia a las creencias en la forma
de corroboración empírica, y por eso el primer cuerno del dilema es poco convincente. Las
necesidades de subsistencia son, se supone, las condiciones necesarias de la subsistencia de
un grupo, porque si fueran de un solo individuo, esa estirpe de conocimientos dejaría de
transmitirse. Un grupo de individuos de una especie social necesita conocer cosas de su
entorno para subsistir, y quizá sea necesario que en él haya secciones o individuos que
tengan conocimientos acerca del propio grupo. Las necesidades prácticas son más extensas,
se supone, que las necesidades de subsistencia, pero es difícil decir cuánto más extensas:
quizá un grupo donde no existen lectores de CD’s esté condenado a la desaparición o a la
esclavitud, porque las contingencias sociales den lugar a que alguien que no posee un lector
de CD’s sea un proscrito social.
En todo caso, si las recetas mágicas fueran realmente eficaces no habría más que hablar: la
asociación del pico del pájaro carpintero con los dientes que hacen los yakutos serviría
realmente para curar las enfermedades dentales mediante el contacto del pico y el diente
enfermo. Como tal bendición no ocurre en realidad, y a pesar de todo se mantiene el
interés por los pájaros carpinteros y la creencia en una relación entre el pájaro y los dientes,
hay que buscar una explicación alternativa.
Y nos queda el otro cuerno del dilema: el interés por el pájaro no es práctico sino
intelectual, y ese interés procede de una exigencia de orden en el cosmos que la cultura de
los yakutos encuentra irresistible. En realidad, toda mente humana necesita el orden. Y
Lévi-Strauss dedica un espacio a encarecer la necesidad de orden que manifiestan en el
cultivo del maíz algunos agricultores en comparación con los agricultores del mismo origen
cultural, pero integrados en parte en las culturas de los estados que ahora abarcan sus áreas
sociales y geográficas. Esta inestabilidad se supone que ha interferido en su tendencia a
ordenar su entorno. En realidad, la exigencia de orden es más poderosa en las culturas
salvajes, en comparación con la cultura científica, puesto que ésta deja lugares al azar y al
desconocimiento. También declara Lévi-Strauss el buen sentido de los conocimientos folk
de quienes mantienen un interés por el registro más completo posible de los
acontecimientos de su entorno; pero, aunque esos conocimientos disfruten del mejor
sentido científico, su sentido está en otro lugar, porque exceden lo que es la práctica de la
ciencia. En la lectura de Lévi-Strauss no está claro qué quiere decir que la ciencia pueda dar
garantía a una creencia. Eso es asunto de que esta gran empresa de conocimiento de que
disfruta la civilización occidental sancione una práctica o creencia. Y también puede querer
21
decir que las cosas pasan en realidad como la comunidad del caso cree que pasan. Pero esta
cuestión no está respondida por Lévi-Strauss.
22
el signo: en la teoría semántica de Saussurre el signo lingüístico “media” entre el concepto y
lo denotado.
Las diferencias siguen en el plano de los conocimientos, y ahí la diferencia tiene que ver
con factores cognitivos y con factores sociales. Los conocimientos del ingeniero están
basados en parte en teorías generales y que aluden a entidades abstractas o a condiciones
ideales. Pero además los conocimientos del ingeniero proceden de escuelas en las que
regularmente se enseñan resultados de las ciencias, que sistemáticamente ofrecen
abstracciones que pueden ser instanciadas por una variedad de recursos materiales,
mientras que el chapuzas obtiene su conocimiento, como sus materiales, de donde le cae o
donde lo atrapa.
Pero Lévi-Strauss no repara en estas diferencias entre ingenieros y mañosos, sino que
establece que el pensamiento salvaje está centrado en las propiedades sensibles del mundo
y crea sus ordenamientos y clasificaciones basándose en éstas y, del mismo modo que el
mañoso se tiene que arreglar con los materiales que posee, y el ingeniero puede influir en
mayor grado en ellos, el pensador mítico se tiene que valer, en el terreno cognitivo, de
elementos intelectuales que poseen significaciones ya hechas. El pensamiento salvaje
ordena elementos cognitivos en estructuras ya hechas y tales que las de un ámbito están
relacionadas con las de otro que aparentemente no tiene nada que ver.
Para hacerse una idea de cómo concibe Lévi-Strauss las estructuras es preciso recordar la
manera como Conklin analizaba las clasificaciones y algunos otros espacios semánticos
folk. Conklin practicaba lo que él llamaba “análisis componencial”, esto es, dado un ámbito
de términos relacionados, como los de una clasificación, buscaba unos componentes que
podían tomar unos pocos valores, generalmente dos valores opuestos, mediante los cuales
se caracterizan todos los términos de ese ámbito. Una estructura de Lévi-Strauss liga
componentes estableciendo relaciones entre ellos y destacando la oposición de valores de
un componente: abajo-arriba, macho-hembra, este-oeste, etc. Cuando algunos de esos
componentes están presentes en otro ámbito de la realidad, el pensamiento salvaje
transfiere la estructura completa a ese otro ámbito.
En esta categorización del mundo tienen un lugar central las especies biológicas porque,
señala Lévi-Strauss, ellas son realidades objetivas. Remite a un eventual futuro en que las
23
especies sean asociadas a fórmulas cromosómicas distintivas en el que se certificaría la
realidad objetiva de las diferenciaciones específicas. Pero la clasificación de ellas que el
pensamiento salvaje lleva a cabo emplea unas oposiciones sensibles o fácilmente intuibles
que, organizadas, se pueden emplear en otros ámbitos cuyas clases de objetos quedan
asociados a las entidades biológicas..
Lo que Lévi-Strauss lleva a cabo es una regimentación del pensamiento analógico: no toda
analogía puede ser generada, sino solo las analogías estructurales. Esta es una conclusión
muy fuerte que puede ser cuestionada desde muchos puntos de vista, pero también, si es
acertada en cuanto descripción de los modos de conceptualizar de algunas culturas, puede
abrir amplios campos de investigación sobre la historia de las ideas, de las tecnologías y de
las organizaciones sociales. Se ofrecen problemas como el de cómo es posible que haya
habido culturas en las que fueran fundamentales los modos de pensamiento semejantes a
la actividad del mañoso y sin embargo los ingenieros civiles tuvieran un lugar destacado en
la arquitectura y otras obras: esto revela una falta de compás entre el pensamiento primitivo
y la actividad del ingeniero. Otro problema es qué función desempeña la escritura en suplir
los mecanismos de la memoria y en suplir los mecanismos de la garantía personal. Y otro
problema, importante para la filosofía de la ciencia, es cuál es el papel de la escritura en la
configuración del pensamiento, en la medida, por cuanto trata Lévi-Strauss, en que
comparte con las clasificaciones el cargo de ser economizadora del proceso de recuperación
de información.
Bibliografía
Philippe Descola, Par-delà Nature et Cultura, París, Gallimard, 2005 revisa los temas y
elementos de juicio de Lévi-Strauss, y restituye como conceptos antropológicos
significativos el totemismo y el animismo, que habían desmontado Lévy-Bruhl y Lévi-
Strauss respectivamente. Descola los considera dos de los tipos fundamentales de los
“modos de identificación” que están en la base de las ontologías.
R obin Horton publicó en dos partes un largo artículo titulado “El Pensamiento
Tradicional Africano y la Ciencia Occidental”, en la revista Africa, 37, 1967. En la
primera parte se propone examinar las semejanzas, y en la segunda las diferencias, entre el
pensamiento tradicional africano y la ciencia.
24
Como Ernst Mach, George Orwell, o los positivistas lógicos, Horton piensa que la ciencia
se caracteriza por sus métodos y no por sus contenidos. Aunque la ciencia sea una
institución que ofrece ciertos productos, entre ellos las teorías, que son socialmente
valiosos porque intervienen en la obtención de adelantos tecnológicos, lo realmente
esencial de la ciencia es su método crítico y experimental. Ya en esos años sesenta
lamentaba Horton la tendencia, en el clima autoritario de algunos nuevos estados africanos,
a tomar de la ciencia sus resultados pero rechazar su estilo de pensamiento. Y cuando
estudia el pensamiento tradicional africano, por lo tanto, busca las semejanzas y las
diferencias con la ciencia no en los contenidos sino en los aspectos metodológicos. Lo cual
le lleva a buscar un marco conceptual en parte extramuros de la antropología, en la filosofía
de la ciencia.
El papel principal de las cosmologías africanas es, según Horton, el mismo que el de la
ciencia: explicar, y explicar consiste en encontrar unidad, simplicidad, orden y regularidad
bajo la diversidad, complejidad, desorden y anomalías aparentes de los fenómenos. La
objeción evidente de que tales cosmologías contienen multitud de entidades personales
caprichosas la responde señalando que esas multitudes suelen agruparse en muy pocas
clases y que, lejos de ser caprichosos, los dioses, héroes, antepasados, etc., tienen funciones
específicas que cumplen de manera más o menos predecible.
Una vez que a esas entidades se les reconoce su papel explicativo, se pueden disipar algunas
de las perplejidades que venía a intentar solucionar la ley de participación de Lévy-Bruhl.
¿Cómo es posible que algo sea a la vez un espíritu y un objeto natural? Horton considera el
papel de las entidades teóricas en las explicaciones científicas y encuentra que respecto de
ellas se puede plantear, como de hecho se ha planteado, la misma perplejidad: ¿Cómo es
posible que una mesa sea a la vez un conglomerado de inobservables? Algunos filósofos
empiristas se han pronunciado por la realidad de los observables, asignando el papel de
ficciones útiles o de convenciones o de meros compendios a las entidades teóricas,
mientras que otros han sostenido la realidad de las entidades teóricas, o de las cualidades
primarias, y han declarado “aparente” el mundo de lo que empíricamente aparece. Horton,
acude a la que en su época considera la resolución más actual del problema: las reglas de
correspondencia entre términos teóricos y observacionales ideadas por el positivismo
lógico y cuyo análisis fue una de las tareas principales de la llamada “concepción heredada”
en filosofía de la ciencia.
25
El recurso a entidades místicas personales en la explicación de la enfermedad no es, a su
vez, explicado por Horton. Dice que una vez adoptado una cosmología llena de entidades y
fuerzas personales, su lenguaje se impone en la descripción y explicación y, de este modo,
las causas de las enfermedades son vistas como el producto de las intenciones de agentes
que retribuyen a quienes han afectado el orden social.
Estas explicaciones místicas, sin embargo, no tienen lugar cuando la enfermedad es leve y la
comunidad no sufre ninguna perturbación. El salto a las explicaciones místicas se producen
cuando el sentido común no puede hacerse cargo de la situación, igual, dice Horton, que en
el mundo occidental el recurso a la ciencia se ofrece cuando se necesita situar los
acontecimientos en un contexto causal más amplio, que proporciona la teoría, pero no el
sentido común.
Las diferencias entre el pensamiento tradicional africano y la ciencia las considera Horton
en dos partes: de un lado las que tienen que ver con la falta de alternativas intelectuales y de
otro las que tienen que ver con la ansiedad.
Entre las primeras está la actitud hacia las palabras, sobre la que muchos antropólogos han
llamado la atención, que el pensamiento tradicional toma. En este es común encontrar en la
palabra una fuera que la liga muy estrechamente a lo que designa, de manera que operando
con las palabras se opera sobre las cosas. Y no solo las palabras tienen esta fuerza, sino
también gestos y objetos que desempeñan el papel de símbolos. Aquí Horton aventura que
los objetos mágicos son el equivalente en las sociedades sin escritura de los encantamientos
escritos que hay en culturas precientíficas con escritura, y la preferencia que pueda haber
por esta clase de símbolos procede su permanencia relativa en comparación con la palabra
oral. Sea como sea, la explicación del poder mágico de las palabras reside en una tendencia
humana universal hacia ligar la palabra a la cosa, que en las culturas tradicionales no es
contrarrestada por alternativas concebibles. Si, por el contrario, advertimos las posibles
alternativas a nuestro sistema de pensamiento, podemos tomar dos salidas filosóficas:
declarar que la realidad es única y las palabras están desconectadas de ella, o seguir
manteniendo que las palabras van ligadas a las cosas, pero entonces las realidades pueden
ser múltiples, y Horton no encuentra que una sea preferible epistemológicamente.
26
Otra característica diferenciadora del pensamiento tradicional es la circunstancia de que las
teorías están ligadas a las ocasiones de su empleo, no a otras ideas. No tiene sentido
preguntar a un sujeto perteneciente a una de estas culturas cuáles son sus ideas “en
general”. Y esto también lo explica Horton como resultado de la carencia de alternativas
intelectuales: las ideas están conectadas a las ocasiones en que se emplean porque aquellas
no son vistas como opuestas a la realidad y, en cambio, conectadas entre sí, como las ve el
intelectual de nuestra cultura. De ahí, según Horton, que nuestro historiador de las ideas
sea el experto menos adecuado para estudiar las ideas tradicionales. Y de ahí también que
las cuestiones de lógica y de epistemología no se presenten en el pensamiento tradicional
africano. No se presenta la cuestión de las relaciones entre las ideas, de la inferencia, de qué
es un buen argumento, ni de cuáles son las bases del conocimiento. Para plantearse estas
preguntas es necesario que haya ideas alternativas.
Por último, las explicaciones tradicionales conjugan una variedad de motivos, no solo
intelectuales, sino emocionales y estéticos, que en la cultura occidental han sido discernidos,
quedando a la ciencia la explicación y la predicción.
Las diferencias que atribuye Horton a la ansiedad ante el cuestionamiento de las creencias
son varias. Está la disposición de lo pensadores tradicionales a buscar explicaciones ad hoc
de los fallos de la teoría: un tratamiento médico puede fallar por intervención contraria de
un hechicero, o por incompetencia del curandero, pero nunca porque el sistema intelectual
sea erróneo. No se registran los fracasos, y, aunque en la ciencia también se practiquen los
remiendos ad hoc de las teorías o de las circunstancias que concurren en la contrastación de
una teoría, el científico tiene conciencia de que las teorías son productos históricos que
muchas veces acaban por ser abandonados y las teorías vigentes tienen alternativas
concebibles. Esto evita ver el abandono de una teoría como un temido “salto en el caos”.
Está la preponderancia en el pensamiento tradicional de las explicaciones en las que lo
explicado proviene de una multiplicidad de factores, está la ausencia de método
experimental: el pensamiento tradicional no busca repetir las circunstancias en que se
originó un acontecimiento y ver qué modificaciones afectan o no al resultado, etc. Sobre
todo, el pensamiento tradicional no declara nunca su impotencia o su ignorancia ante
ningún suceso. Para este pensamiento no existe el azar ni la incompletud, y esto cae
también bajo el encabezamiento de las diferencias debidas a la ansiedad que provocaría el
fracaso del sistema de creencias.
Horton acaba el ensayo con un intento de indicar los factores explicativos de por qué la
ciencia surgió en Europa y no en África. Discute tres: el desarrollo de la transmisión escrita
de las creencias, que, entre otras cosas, hace visible el cambio en las creencias. En el
pensamiento tradicional las creencias cambian, pero no hay conciencia de ese cambio,
porque la ausencia de registro lo vuelve invisible. Y, dentro de las culturas con escritura, los
griegos tenían ventaja porque su escritura era fácil comparada con los sistemas
pictográficos de otras grandes civilizaciones. El segundo factor es la existencia de
comunidades heterogéneas culturalmente, lo que dio una clara conciencia de las alternativas
intelectuales y religiosas. El tercero y último los viajes de miembros de las comunidades
donde la ciencia se desarrolló.
Las tesis de Horton dependen demasiado de la distinción que el positivismo lógico trazaba
entre teoría y observación, y de ver como análogos el sistema de explicaciones de la ciencia,
basado en teorías que hablan de entidades inobservables y el sistema de explicaciones del
pensamiento tradicional, basado en teorías que hablan de agentes intencionales que afectan
y son afectados por el grupo social. Este sistema de explicaciones se ocupa, como señalan
27
Horton, Evans-Prittchard y otros antropólogos, notablemente de los casos de infortunio.
Ahí el sistema de explicación y de diagnóstico se parece más al del perito judicial de
nuestra cultura que al del científico. La pérdida que supone el infortunio parece tener que
ser adjudicada y distribuida socialmente y el diagnóstico o la encuesta judicial en el
pensamiento tradicional realizan esa función. Pero esto no tiene nada que ver con la
ciencia, por una segunda razón. Mientras que las explicaciones del pensamiento tradicional
no contribuyen a que las explicaciones “de sentido común” sean cada vez mejores, una de
las funciones de la ciencia, a través de la institución asociada de la educación científica, es
precisamente que las explicaciones de sentido común cambien y se refinen.
Una de las opiniones que desea discutir y rechazar es que las construcciones intelectuales
de las culturas llamadas “primitivas” tengan como único objeto orientar a los seres
humanos en la satisfacción de sus necesidades materiales o pragmáticas. Dice que la
distinción entre necesidades pragmáticas y espirituales es una distinción occidental y que en
realidad curar un dolor de muelas es una tarea intelectual que en muchas culturas requiere
ajustar tanto las relaciones del hombre con su entorno como con el universo moral y
sobrenatural.
Goody examina varias de las características atribuidas por autores diversos al pensamiento
concreto, o prelógico y trata de explicarlas recurriendo a diferencias en el modo de
comunicación, que en analogía con lo que en el marxismo se llama “el modo de
producción”, no solo consta de los medios de comunicación sino de la manera como esos
medios son explotados y dominados socialmente. Por lo tanto, no solo se ocupa de las
características del pensamiento sino también de las actitudes hacia el conocimiento y hacia
los creadores de éste.
Por lo que se refiere a las características del pensamiento, Goody se ocupa de la inferencia
lógica, del razonamiento aritmético y someramente de la clasificación, y uno de los motivos
28
que recorren el libro es que la posibilidad especial que ofrece el lenguaje escrito de ser
escrutado ofrece la condición para que se puedan desarrollar la gramática y la lógica. Las
peculiaridades del razonamiento silogístico dependen de identificar segmentos del discurso
y de asignarles papeles fijos. La contradicción también es más fácil de advertir en la
comparación de textos escritos que en flujo del lenguaje oral.
Las operaciones aritméticas se realizan de manera diferente en las culturas que poseen un
sistema para la representación gráfica de las operaciones que en aquellas que carecen de él,
y en particular la división es prácticamente imposible en culturas ágrafas. Las operaciones
aritméticas en las culturas orales están especialmente ligadas a la naturaleza de los objetos
sobre los que se busca el resultado aritmético. No se cuentan o suman igual conchas de
cauri que vacas. De este modo se puede decir que la aritmética de estas culturas consta de
ejercicios de pensamiento concreto.
Según Goody, la actitud mágica hacia las palabras es más fácil de encontrar en las culturas
orales porque el lenguaje está más próximo a las ocasiones materiales de uso, mientras que
en un texto escrito, en el cual la palabra está divorciada de la ocasión, es más fácil apreciar
que carece de poder sobre la materia. Sin embargo, no estaría de más recordar que
“glamour”, (encanto) procede de “grammar” y que en algunos “sistemas” mágicos la
palabra escrita tiene mayor poder sobre la materia que la palabra hablada. Las multas,
decretos, etc. parecen tener un gran poder sobre la materia y no tiene nada de particular
que a partir de esto haya quien forme la creencia de que se puede extender ese poder a
voluntad de ciertas personas, como así ocurre de hecho, aunque no de la manera como
imaginan los clientes o usuarios del mago.
Las explicaciones que da Goody sobre las diferencias producidas entre la posesión o no de
la escritura tienen demasiado éxito al dar cuenta de las diferencias descritas por sus
predecesores entre el pensamiento salvaje y el pensamiento racional. Este es presentado
como un pensamiento desligado de otros intereses que no sean los intelectuales, gobernado
por la lógica y la experimentación, sometido al escrutinio crítico, desligado de la ocasión de
emisión de sus enunciados.
Goody advierte que la imagen de la ciencia que ofrece Kuhn se aleja bastante de estas
características, pero insiste en destacar que el uso reflexivo de los conceptos que facilita la
escritura tiene todavía un gran papel en la ciencia, y además ilustra algunas de las
características de una discusión racional con las de la propia polémica entre Kuhn y Popper
que se recoge en el famoso libro editado por Lakatos y Musgrave. Kuhn probablemente
respondería que esa polémica no es ni mucho menos representativa de los razonamientos
que se usan durante los períodos de la ciencia normal, y tampoco negaría la más débil
afirmación de que el uso reflexivo de los conceptos tiene algún papel en la ciencia.
Lo que Kuhn dice, entre otras cosas, es que el lenguaje de la ciencia sí está conectado a las
ocasiones de uso, y que éstas no se pueden descomponer como pretendieron los
fenomenalistas o los fisicalistas en los átomos que estos imaginan, sino que poseen la
29
estructura (gestalt) que alguna teoría permite describir, de manera que un vocabulario
altamente teórico puede estar ligado a ocasiones y ejemplos muy concretos.
Que existan ámbitos puramente intelectuales de indagación es una aspiración sin duda
lograda, pero las aportaciones a esos ámbitos son juzgadas por comunidades que tienen
intereses que no son puramente intelectuales. Con independencia de que algunas
comunidades se dejen en alguna ocasión arrastrar por esos intereses espurios, existen
creencias y prácticas constitutivas de las comunidades. En 1910 Mach se quejaba de que la
creencia en los átomos fuera constitutiva de la comunidad de los físicos, acusaba a éstos de
comportarse como una iglesia, rechazaba la invitación a formar parte de la comunidad de
los creyentes y declaraba preferir la libertad de pensamiento. Desde luego la razón estaba
en la parte contraria, pero Mach no se limitaba a expresar un desacuerdo sobre entidades
teóricas.
Por otro lado, en las culturas “frías” como las llama Lévi-Strauss o como de otras muchas
maneras se las llama, no parece existir una especulación sobre las entidades que componen
el mundo sobrenatural. En realidad, un error en el que puede caer un antropólogo es el de
convertirse en el teólogo o sistematizador de la cultura que estudia cuando trata de
formular el sistema de creencias de ésta. Goody no discute las relaciones de la teorización
cientifica con la tecnología ni el con mundo empírico como un rasgo especial de la ciencia
moderna, y por lo tanto tampoco se siente obligado a decir nada sobre las relaciones entre
las entidades sobrenaturales y el mundo en el que viven quienes las invocan con ocasión de
enfermedades o parentesco o lo que sea. Goody declara que no es relativista radical, pero
relativista o no, no basta con decir que las entidades sobrenaturales simplemente forman
parte de ese mundo, es necesario mostrar qué papel desempeñan en la curación de
enfermedades, en el inicio de las guerras, en el castigo del crimen, en los ritos de paso, etc.
Aunque Goody reconoce que la escritura no es el único factor a tener en cuenta en el
origen de la ciencia, ni las diferencias entre culturas con y sin escritura explican todas las
diferencias, en la medida en que pretende excluir otras explicaciones dadas por
antropólogos anteriores, a su trabajo le falta para ser convincente explorar el papel del
mundo de lo invisible en las culturas orales.
30
APUNTES DEL ESTUDIANTE
(1) inducible
Observaciones (2) principios explicativos
(3) deducción
La etapa inductiva
Según Aristóteles, toda cosa particular es una unión de materia y forma. Materia es
lo que hace que un particular sea un individuo único, y forma es lo que hace que el
particular sea un miembro de una clase de formas similares. Especificar la forma de
un particular es especificar las propiedades que comparte con otros particulares.
31
más alto, los enunciados sobre especies individuales se toman como base para una
generalización sobre un género.
premisa conclusión
lo que se observa que es lo que se presume
verdadero de varios generalización que es verdadero
individuos de la especie a que
pertenecen los
individuos
Lo que se observa que es generalización Lo que se presume
verdadero de varias que es verdadero
especies del género a que
pertenecen las
especies
La etapa deductiva
De entre este tipo de enunciados el más importante es: Todos los S son P; la
relación que se establece es: S está totalmente incluido en P. Creía que ciertas
propiedades son esencialmente inherentes a los individuos de ciertas clases, y que
los enunciados del tipo “todos los S son P” reproducen la estructura de estas
relaciones. Mantenía que una explicación científica adecuada debe darse en
términos de enunciados de este tipo. Más específicamente, citó el silogismo de
Bárbara3 como el paradigma de demostración científica.
3 Este silogismo está formado por enunciados del tipo A ordenados así:
Todos los M son P
(continúa en la página siguiente)
32
Uno de los logros de Aristóteles fue establecer que la validez de un argumento
viene determinada únicamente por la relación entre premisas y conclusión.
El requisito de que las premisas sean verdaderas es uno de los cuatro requisitos extralógicos
que A. exigía a las premisas de las explicaciones científicas (los otros ser son: las premisas
deben ser indemostrables, conocerse mejor que la conclusión y ser causas de la atribución
hecha en la conclusión).
A. sabía que un argumento deductivo no puede dar más información de la que implican sus
premisas; asimismo, los primeros principios de demostración deben ser tan evidentes como
las conclusiones extraídas de ellos.
A. diría que las premisas del silogismo razonado establecen la causa de un hecho; por el
contrario, las premisas del correspondiente silogismo del hecho no establecen la causa del
hecho. Lo que se necesita en este punto es un criterio para distinguir las correlaciones
causales de las accidentales. A. sugirió que en una relación causal el atributo es verdadero
de todos los casos del sujeto, es verdadero precisamente del sujeto y no como parte de un
todo mayor, y es “esencial para” el sujeto.
33
A. insistió en que cada ciencia particular tiene un género de sujetos y un conjunto
de predicados distintivos. Destacó que una explicación satisfactoria de un
fenómeno debe utilizar los predicados de la ciencia a la que pertenezca el
fenómeno.
34
A. afirmó que el conocimiento científico genuino tiene el rango de verdad necesaria.
Mantenía que los primeros principios adecuadamente formulados de las ciencias, y sus
consecuencias deductivas, son verdaderos. A. mantenía las siguientes tesis:
U na tesis ampliamente compartida por los escritores antiguos era que la estructura de
una ciencia completa debía ser un sistema deductivo de enunciados. Muchos
escritores del final de la antigüedad creían que el ideal de la sistematización deductiva había
sido realizado en la geometría de Euclides.
No es posible subscribir el ideal deductivo sin aceptar el requisito de que los teoremas estén
deductivamente relacionados con los axiomas. Euclides (y Arquímedes) empleó dos
importantes técnicas para probar teoremas a partir de sus axiomas: argumentos por reductio
ad absurdum y un método de exhaución.
La técnica de reductio ad absurdum para probar el teorema “T” es asumir que “no T” es
verdadero y deducir entonces desde “no T” y de los axiomas del sistema un enunciado y su
negación. Si se pueden deducir de este modo dos enunciados contradictorios, y si los
axiomas del sistema son verdaderos, entonces “T” debe ser también verdadero.
35
Con respecto al requisito de las relaciones deductivas entre axiomas y teoremas, la
geometría de E. era deficiente. Éste dedujo algunos de sus teoremas apelando a la
operación de superponer figuras para establecer su congruencia pero en los axiomas no
aparece referencia alguna a esta operación de superposición. Por tanto, E. “probó” algunos
de sus teoremas saliéndose del método axiomático.
Aquellos que siguieron la tradición de “salvar las apariencias” (recuérdese la distinción que
hacía Simplicio) en astronomía matemática adoptaron una actitud diferente. Rechazaron el
requisito aristotélico. Para “salvar las apariencias” basta con que las consecuencias
deductivas de los axiomas estén de acuerdo con las observaciones. El que los axiomas en sí
mismos no sean plausibles, o incluso sean falsos, es irrelevante.
El tercer aspecto del ideal de sistematización deductiva es que el sistema deductivo debe
estar en contacto con la realidad. Ciertamente Euclides intentó probar teoremas que
tuviesen aplicación práctica.
Pero, par estar en contacto con el reino de la experiencia, es necesario que al menos
algunos de los términos del sistema deductivo hagan referencia a objetos y relaciones del
mundo. Parece que E. supuso que términos tales como “punto”, “línea”, “peso” y “varilla”
tienen correlatos empíricos.
Puede ser que la preocupación de Arquímedes (en esta línea que venimos comentando) por
las leyes aplicables a “su palanca ideal” refleje una tradición filosófica en la cual se establece
un contraste entre las complejidades inmanejables de los fenómenos y la pureza
intemporal de las relaciones formales. Esta tradición se vio a menudo reforzada por la
opinión ontológica de que el reino de los fenómenos es, en el mejor de los casos, una
“imitación” o “reflejo” del “mundo real”. La responsabilidad principal por la promulgación
de éste punto de vista recae sobre Platón y sus intérpretes. Este dualismo tuvo importantes
repercusiones en el pensamiento de Galileo y Descartes.
El método cartesiano
Con Bacon coincidía Descartes en que el mayor logro de la ciencia es una pirámide de
proposiciones, con los principios más generales en el vértice. Pero mientras que aquél
buscaba descubrir las leyes generales mediante un progresivo ascenso inductivo a partir de
las relaciones menos generales, Descartes pretendía comenzar por el vértice y llegar lo más
abajo posible mediante un procedimiento deductivo. Descartes, así, se adhería al ideal
de Arquímedes de una jerarquía deductiva de proposiciones.
Descartes exigía certeza para los principios generales del vértice de la pirámide. Al servicio
de esta exigencia de certeza, comenzó por dudar metódicamente de todos los juicios que
previamente había creído verdaderos, con el fin de ver si alguno de estos principios estaba
más allá de la duda. Concluyó que, efectivamente, algunos de estos principios estaban más
allá de la duda y que, en tanto pensaba, debía existir, y que debía existir un “ser perfecto”.
36
Argumentaba que tal Ser perfecto no crearía al hombre de tal modo que sus sentidos y su
razón le engañasen sistemáticamente. De este modo, debía existir un universo externo al yo
pensante, un universo no opaco a las facultades cognoscitivas del hombre. En realidad,
Descartes llegó más lejos, y sostuvo que cualquier idea que se presentase a la mente a
la vez de modo claro y distinto debía ser verdadera.
Lo claro es lo que se presenta de modo inmediato a la mente. Por otro lado, lo distinto es lo
que es a la vez claro e incondicionado. Lo distinto se conoce per se; su evidencia es
independiente de cualesquiera condiciones limitadoras.
Después de estos dos pasos ya comentados, Descartes se dirigió hacia el universo externo,
el universo creado. Pretendía descubrir qué era lo claro y distinto respecto de los objetos
físicos.
De las cosas físicas conocemos su extensión. ¿Cómo llegamos a conocer esa extensión que
constituye la esencia de las cosas físicas? Descartes sostenía que nuestro conocimiento
de la extensión —la “naturaleza real” de la cosa física— es una intuición de la mente.
Y tal intuición ha de ser distinguida de la secuencia de apariencias que la cosa o el objeto
físico puede presentar a nuestros sentidos. Descartes distinguía entre cualidades primarias
(las que todo cuerpo debe poseer para ser tal cuerpo) y las secundarias (colores, sabores,
sonidos, olores), que existen sólo en la experiencia perceptiva del sujeto.
Razonó que si la extensión es la única propiedad de los cuerpos de la que poseemos una
idea clara y distinta, ser un cuerpo es ser extenso. El vacío no puede existir. Extensión
significaba estar lleno de materia y concluía que el concepto extensión desprovista de toda materia es
una contradicción.
37
propias normas de Descartes, se debe juzgar que no consiguió una idea clara y distinta de la
extensión, su categoría fundamental para la interpretación del universo.
Otro principio físico importante derivado de la idea de extensión es que todo movimiento
consiste en una redistribución cíclica de los cuerpos. Descartes razonaba que, si un
cuerpo cambiaba su situación, se hace necesario un desplazamiento simultáneo de otros
cuerpos para impedir el vacío. Más aún, sólo moviéndose en un rizo cerrado un número
finito de cuerpos, pueden alterar sus posiciones sin crear un vacío.
Descartes mantenía que Dios es la causa última del movimiento en el universo. Creía
que un Ser perfecto crearía un universo “todo de una vez”. Así, concluía que, puesto que la
materia del universo se había puesto en movimiento de una vez, el Ser perfecto aseguraría
que este movimiento se conservase eternamente.
A partir de este principio más general del movimiento, D. derivó otras tres leyes más del
movimiento:
Comoquiera que creía Descartes que era el tamaño y no el peso el factor determinante
en las colisiones, las siete leyes, que derivó de estas tres, son incorrectas. De estas reglas
38
del choque cabe resaltar la cuarta. Establece que, prescindiendo de su velocidad, un
cuerpo en movimiento no puede mover un cuerpo estacionario de mayor tamaño.
Al enunciar lo que él pensaba que implicaban los conceptos de extensión y movimiento,
Descartes, formuló un conjunto de reglas que se hallan en conflicto con los movimientos
observados de los cuerpos.
Proclamó que las leyes científicas que había elaborado eran consecuencias deductivas de
sus principios filosóficos.
Pirámide de Descartes
Existencia de Dios
movimiento relación:
de torbellino fuerza-resistencia
Descartes se dio cuenta de que, por medio de la deducción, sólo se podría llegar a
una corta distancia del vértice de la pirámide. La deducción a partir de principios
intuitivamente evidentes es de limitada utilidad para la ciencia. Puede dar lugar tan
39
sólo a leyes más generales. Dicho en términos generales, el universo que
conocemos sólo es uno de los universos infinitamente numerosos que podrían
haberse creado de acuerdo con estas leyes.
Confirmación experimental
Leyes de la naturaleza
Enunciados sobre las circunstancias relevantes
Hipótesis 1
Leyes de la naturaleza
Enunciados sobre las circunstancias relevantes
40
En tales casos, especificó D. que deben buscarse otros efectos, de manera que sean
deducibles de las premisas que incluyen la hipótesis 1, pero que no lo sean a partir
de las premisas que incluyen la hipótesis 2 (o viceversa).
El inductivismo de Mill
1. Contexto de descubrimiento
Métodos inductivos de Mill. Fue un eficaz propagandista a favor de ciertos métodos inductivos.
De tal manera esto fue así que estos métodos llegaron a ser conocidos como “métodos de
Mill” de la investigación experimental. Mill destacó la importancia de estos métodos en el
descubrimiento de leyes científicas. Además, llegó a proclamar que todas las leyes causales
científicas conocidas han sido descubiertas “mediante procesos reducibles a uno u otro de
esos métodos”.
ACUERDO
Caso Circunstancias antecedentes Fenómenos
1 ABEF abe
2 ACD acd
3 ABCE afg
DIFERENCIA
Caso Circunstancia antecedentes Fenónemos
1 ABC a
2 BC --
41
VARIACIONES CONCOMITANTES
Caso Circunstancias antecedentes Fenónemos
1 A+BC a+b
2 AºBC aºb
3 A-BC a-b
RESIDUOS
Circunstancias antecedentes Fenómenos
ABC abc
B es la causa de b
C es la causa de c
Mill admitía que la utilidad de la diferencia como método de descubrimiento depende del
supuesto de que, para una investigación determinada, deban especificarse sólo un pequeño
número de circunstancias. Sin embargo, mantuvo que este supuesto se ve a su vez
justificado por la experiencia.
Puede que esto sea así. Pero entonces el descubrimiento de relaciones causales lleva
consigo algo más que la mera especificación de valores que se ajustan al esquema.
Para usar este método en la investigación científica, debe hacerse una hipótesis acerca de de
qué circunstancias pueden ser relevantes para la aparición de un fenómeno dado. Y esta
hipótesis sobre las circunstancias debe formularse antes de la aplicación del esquema. Por
tanto, la afirmación de Mill (el método de la diferencia es suficiente para descubrir
relaciones causales) debe ser rechazada. Por otro lado, una vez que se ha establecido el
supuesto de que una circunstancia se halla relacionada con un fenómeno, el método de la
diferencia especifica una valiosa técnica para contrastar el supuesto mediante experimentos
controlados.
42
Una limitación adicional del método del acuerdo surge de la posibilidad de que funcionen
una pluralidad de causas. Mill reconoció que un tipo determinado de fenómenos puede ser
el efecto de diferentes circunstancias en diferentes ocasiones. Mill señaló que es una
función de la teoría de la probabilidad el estimar la probabilidad de que se halle presente
una pluralidad de causas, e indicó que, para una correlación dada, esta probabilidad puede
disminuir por la inclusión de casos adicionales en los que varíen aún más las circunstancias,
manteniéndose, sin embargo, la correlación.
Mill pensaba que la posibilidad de una pluralidad de una pluralidad de causas no puede
arrojar dudas sobre la verdad de las conclusiones alcanzadas por el método de la diferencia.
W. S. Jewson señaló posteriormente que Mill había dado un salto injustificado desde un
enunciado sobre lo que sucede en un único experimento hasta la generalización de que lo
que tiene lugar en un experimento también tendrá lugar en otros experimentos.
Mill fue muy cuidadoso en algunas de sus afirmaciones a favor de los métodos inductivos.
Éstos no son los únicos instrumentos de descubrimiento en la ciencia. Pero a pesar de los
comentarios que, sobre este tema, dirigió Mill contra Whewell, aquél reconoció claramente
el valor de la formación de hipótesis en la ciencia. Cabe resaltar la excesiva importancia que
algunos escritores ha dando la las pocas cautelosas afirmaciones de Mill acerca de su debate
con Whewell.
Causalidad múltiple
Mill sostenía que la “coexistencia de efectos separados” puede analizarse con éxito
mediante los cuatro métodos inductivos. Sostuvo también que sucede lo mismo con los
“efectos resultantes de tipo diferente”. Señaló que en este último tipo de situación el
43
investigador puede relacionar el efecto con la presencia o ausencia de circunstancias, y
aplicar después los métodos del acuerdo y de la diferencia.
Mill concluyó que sus métodos inductivos eran inutilizables en los casos de composición de
causas: no se puede proceder inductivamente a partir del conocimiento de que ha tenido
lugar un efecto resultante, al conocimiento de sus causas componentes. Por esta razón,
recomendó que se emplease un “método deductivo” en la investigación de la causalidad
compuesta.
Prefería que cada ley fuese inducida a partir del estudio de una causa relevante que actúe
separadamente, pero admitía el uso de hipótesis no incluidas a partir de los fenómenos. Las
hipótesis son suposiciones acerca de las causas que el científico puede utilizar en los casos
en que no es práctico inducir las leyes por separado.
Mill estableció requisitos muy estrictos para la verificación completa de una hipótesis. De
una hipótesis verificada no sólo han de coincidir sus consecuencias deductivas con las
observaciones sino también que ninguna otra hipótesis implicase los hechos por explicar.
Mill mantenía que la verificación completa de una hipótesis requiere la exclusión de todas
las hipótesis alternativas posibles.
2. Contexto de justificación
44
justificarse mostrando que los elementos de juicio a favor suyo se ajustan a esquemas
inductivos específicos.
Relaciones causales y relaciones accidentales. Mill mantenía que un importante objeto de la ciencia
es la prueba de nexos causales. Basó su discusión de este objetivo en un análisis de la
posición de Hume de que las relaciones causales son conjunciones secuenciales constantes
de tipos de acontecimientos. Mill distinguía entre secuencias causales y secuencias
accidentales. Una relación causal es una secuencia de acontecimientos que es a la vez
invariable e incondicionada, admitiendo, por tanto, la posibilidad de que algunas secuencias
invariables no sean causales.
Reconocía Mill que la relación entre secuencias causales y no causales sólo tiene valor si
puede encontrarse algún modo de establecer que algunas secuencias son incondicionadas.
Una secuencia incondicionada es una secuencia que no sólo ha sido invariable en nuestra
experiencia pasada, sino que también continuará siéndolo “siempre que permanezca
constante “la actual constitución de las cosas” (constitución de las cosas son aquellas leyes
últimas de la naturaleza en cuanto distinta de las leyes derivadas y de las co-ubicaciones”).
P.e., la rotación de la tierra es la condición de la secuencia día-noche; por tanto, es ésta una
secuencia condicionada.
Mill estaba convencido de que las secuencias causales difieren de las accidentales, y de que
esta diferencia puede mostrarse en el ámbito de la experiencia. Lo que se necesita es una
teoría de la prueba que estipule la forma de los argumentos inductivos válidos. Tal teoría
capacitaría al filósofo de la ciencia para determinar qué generalizaciones de la experiencia
establecen relaciones causales.
En alguna ocasión Mill propuso cuatro esquemas inductivos como regla para la prueba de
la conexión causal. En sus momentos más prudentes, sin embargo, restringió la prueba de
la conexión causal a aquellos argumentos que satisfacen el método de la diferencia.
Justificación de la inducción. Para establecer que cualquier argumento que tenga la forma del
método de la diferencia prueba la conexión causal, Mill tenía que mostrar que la conexión
es a un tiempo invariable e incondicionada. Sin embargo, los filósofos de la ciencia están de
acuerdo en general que en que Mill no logró probar su tesis. Los argumentos de Mill para
sustentar su afirmación se basan en dos premisas, y no logró establecer como verdadera
ninguna de las dos premisas.
La primera premisa es que los casos positivos y negativos que se ajustan al esquema de la
diferencia difieren exactamente en una circunstancia relevante. Pero Mill no pudo
establecer esto; a lo más que llegó fue a mostrar que en muchos casos se había observado
que las secuencias eran invariables a pesar del hecho de que sólo se había tenido en cuenta
un pequeño número de circunstancias. Pero esto no es suficiente para probar que ninguna
otra circunstancia no pudiera ser relevante para que el fenómeno tuviera o no lugar.
La segunda premisa estipula que para cada fenómeno existe un conjunto de circunstancias-
antecedentes de las que es invariable e incondicionalmente consecuente. Mill concedió que
su prueba parecía encerrar un ciclo vicioso. Reconoció que no podía probar la ley de la
causalidad por medio de un argumento inductivo usando el método de la diferencia.
Hacerlo así seria circular, ya que la ley de la causalidad es necesaria para justificar el propio
método de la diferencia.
45
Concluía que debido a que cada secuencia de acontecimientos es una prueba de la ley de la
causalidad, y debido a que todas las secuencias investigadas han confirmado la ley, ésta ha
de ser una verdad necesaria.
Proclamó con ello haber demostrado que un argumento inductivo por enumeración simple
a partir de premisas empíricas prueba que la ley de la causalidad es una verdad necesaria.
Con todo, la prueba de Mill no logra el éxito. Ninguna apelación a la experiencia, al modo
como las cosas son, prueba que las cosas no puedan ser de otra manera. Incluso si Mill
pudiera garantizar su afirmación de que nunca ha habido una excepción genuina a la ley de
la causalidad, esto no probaría que la ley fuese una verdad necesaria. Y Mill necesita que la
ley de la causalidad sea una verdad necesaria para justificar su afirmación de que los
argumentos que se ajustan al método de la diferencia prueban conexiones causales.
El positivismo lógico
De acuerdo con Urmson “El Círculo de Viena se originó a comienzos de los años veinte
como un grupo de discusión informal en la Universidad de Viena, presidido por Moritz
Schlick. Entre los miembros más prominentes se contaban Rudolf Carnap, Otto Neurath,
Friedrich Waismann, Philipp Frank, Hans Hahn, Herbert Feigl, Victor Kraft, Felix
Kaufmann y Kurt Godel. Otros asociados, más o menos remotos en la distancia, en el
tiempo o en la opinión, fueron Hans Reichenbach, Carl Hempel, Karl Menger, Richard von
Mises, Joergen Joergensen, Charles W. Morris y A. J. Ayer. Muchos componentes del
círculo original no eran filósofos, sino matemáticos, físicos y científicos sociales, que
compartían un interés común por la filosofía de la ciencia y un disgusto común por la
metafísica académica que entonces prevalecía en Alemania y en Europa Central” (Urmson,
1994).
El Empirismo Lógico del Círculo de Viena hunde sus raíces en dos elementos
fundamentales: la concepción de la verdad de Aristóteles y el positivismo o
empirismo clásico de D. Hume y A. Comte.
46
El empirismo: La tesis fundamental de todo empirismo, antes y después de Hume
y Comte, es que la única fuente de conocimiento es la experiencia sensible. El
positivismo lógico es un desarrollo ligado a la gran corriente de los filósofos
empiristas ingleses como Francis Bacon (1561-1626), T. Hobbes (1588-1679), J.
Locke (1632-1704), Berkeley (1685-1753), D. Hume (1711-1776), J. S. Mill (1806-
1873).
Padrón (1992) señala que “las posiciones del Círculo de Viena estuvieron
directamente influenciadas por cuatro antecedentes básicos, los primeros dos de
carácter filosófico, el tercero de carácter histórico y el otro de carácter
instrumental. En primer lugar, el "empirio-criticismo" del físico austríaco Ernst
Mach....con fuertes implicaciones neopositivistas, el cual sólo reconocía como datos
válidos de conocimiento aquellos elementos ubicados en la experiencia y traducidos
en señales de captación sensorial, excluyendo todo enunciado `a priori' y todo juicio
que no pudiera ser confrontado con datos sensoriales. En segundo lugar, las
posiciones de Viena se apoyaron en el "análisis lógico del conocimiento" de
Wittgenstein... así como en sus tesis sobre la naturaleza "analítica" de la Lógica y la
Matemática y en sus críticas a la filosofía especulativa. En tercer lugar, y como
influencia de tipo histórico, la revolución de la Física Cuántica fue interpretada
como demostración del carácter analítico de la ciencia y de la fuerza del
pensamiento riguroso orientado hacia los hechos observables y hacia los
mecanismos de comprobación....[En cuarto lugar], como antecedente de carácter
instrumental, las herramientas de la lógica matemática, consolidada unos veinte
años antes en los "Principia Mathematica" de Russell y Whitehead y profundizada
por los lógicos polacos y los trabajos de Hilbert, ofrecieron al Círculo de Viena un
importante aparato para traducir datos de conocimiento empírico a un lenguaje
preciso, riguroso e inequívoco que concibieron como modelo del lenguaje
científico: de allí las célebres expresiones "empirismo lógico" y "atomismo lógico"
con que se identificó el Círculo (la Lógica de Bertrand Russell había distinguido
entre hechos/ proposiciones "atómicos" y hechos/proposiciones "moleculares")”.
En resumen:
47
investigaciones de G. Frege y el mismo Russell sobre la naturaleza de la
representación lingüística. Estos aportes propiciaron la construcción de un
lenguaje lógico, principalmente por R. Carnap, elaborado a partir de ciertas
proposiciones que permitirían “el análisis de los conceptos científicos y la
clarificación de los problemas filosóficos” (Carnap,1992).
Así que el positivismo lógico “como una forma mas extrema y sofisticada del
positivismo, es una teoría de la ciencia que plantea que el único tipo de
conocimiento no analítico válido es el conocimiento científico; este conocimiento
consiste en la descripción precisa de modelos teóricos invariantes en el tiempo y en
el espacio elaborados a partir de los fenómenos observados” (Damiani, 1997).
3. Su proyecto
El proyecto del Círculo de Viena estribaba “en conformar una filosofía científica. Las
matemáticas y la lógica, así como la física, son los grandes modelos a los que deben toda
forma de discurso científico. El programa positivista de Comte en el Siglo XIX debía ser
culminado, convirtiendo la biología, la psicología y la sociología en ciencias positivas. La
unificación de la ciencia debe llevarse a cabo reduciendo todas las proposiciones
observacionales a lenguaje fisicalista, con lo cual se mostraría que existe un núcleo común a
todas las ciencias positivas” (Echeverría, 1989). Y su proyecto institucional era la
elaboración de la Enciclopedia para la Ciencia Unificada (Ibíd.).
Características generales
48
c) Un rechazo a la metafísica y a la teología. En línea con el pensamiento
de la Ilustración, los pensadores del Círculo de Viena (ya formados en el
escepticismo) fomentaron un repudio hacia la metafísica por estar fuera de
lo que era concebido como lo “sensible” y empírico. La acusación básica
contra la metafísica estaba centrada en que sus proposiciones carecían de
significado. Es decir, las proposiciones de la metafísica carecen de sentido
en virtud de que no tienen relación con los hechos; ya que éstas no están
construidas en base de proposiciones elementales.
49
Los Principios del Positivismo
Los principios originales del positivismo lógico, y que luego se debilitarían con
el transcurso del tiempo, son los siguientes:
De acuerdo con Padrón (1992) la escuela del Círculo de Viena produjo cuatro tesis
bien definidas que interpretan el conocimiento científico, a saber, el criterio de
demarcación (principio de verificación), el lenguaje lógico, la unificación de la
ciencia y la inducción probabilista. Los tres primeras constituyen las tesis básicas
producidas por el Circulo de Viena; las cuales sufrieron un sinnúmero de revisiones
y modificaciones, algunas fáciles de captar, otras, realmente difícil de entenderlas.
La última tesis es un producto indirecto del Circulo de Viena y se debe a Carnap y
forma parte de lo que se ha llamado la segunda fase del positivismo lógico. En la
siguiente sección entraremos a una descripción sucinta de las tres primeras tesis: sus
fundamentos y sus respectivas evoluciones, hasta arribar a la cuarta tesis.
5. Su objetivo
6. Su metodología
50
(Carnap, especialmente, Hempel y otros). De estas críticas y revisiones nació una
ulterior interpretación del conocimiento científico que respetaba las bases del
Círculo, pero que imponía modificaciones y correcciones de interés. En esencia, se
abandonó el "empirismo ingenuo" implícito en las tesis iniciales; se reajustó el
concepto de "reglas de correspondencia" entre los planos teórico y observacional.
Volviendo a Whewell, quien casi un siglo antes sostenía la relatividad de la
distinción "teórico/empírico", advirtiendo...que "nuestras percepciones envuelven
nuestras ideas" (lo cual Hanson parafraseó al decir que toda observación está
"cargada de teoría"); se hizo más flexible el concepto de "reducción" de unas teorías
a otras y se amplió el modelo de las teorías científicas para dar cabida a otras
opciones válidas. Todas estas revisiones y ajustes conformaron una diferente
interpretación que se divulgó bajo el término "Received View" o "Concepción
Heredada" que, en pocas palabras, consistió en una versión menos radical y más
reflexiva de las tesis del Círculo de Viena” (Padrón, 1992).
Un enunciado científico aceptable será sólo aquél que resulte verdadero al ser
comparado con los hechos objetivos. Así, la verificación empírica constituye el
criterio específico de demarcación entre ciencia y no-ciencia.
51
constituye globalmente una sola estructura compacta y coherente (ordenada),
también el conocimiento científico de la misma debe resultar, en definitiva, una
misma construcción igualmente integrada.
Sin embargo, dado que el conjunto de todos los datos de una misma clase suele
escapar a las circunstancias de tiempo/espacio del investigador entonces el proceso
de generalización de observaciones particulares tiene que apoyarse en modelos de
probabilidad, base de los tratamientos estadísticos utilizados actualmente en todas
las áreas de investigación.
La idea central
52
proposiciones científicas, y con ello la significación de las palabras que se usan en
las proposiciones, conduce a un resultado positivo y a otro negativo” (Carnap,
1931).
53
empirismo lógico del Círculo de Viena, de la teoría del conocimiento o de la
filosofía científica. Esto es,
Aun así, esta propuesta, expuesta principalmente por Schlick, fue acusada de
conducir a un “solipsismo múltiple” (ver Ayer, 1959). “La facción mas radical,
encabezada por Neurath y Carnap, no tendría ninguno de estos lapsus
“metafísicos” y prefería asegurar la objetividad de la ciencia aun a costa de
abandonar su base supuestamente sensible” (Urmson, 1994).
54
(Echeverría, 1989). Así, vía la tesis del fisicalismo, se reformuló el homomorfismo
ya mencionado en el sentido de que “todas las ciencias dependen, en última
instancia, de protocolos expresados en términos de objetos y procesos físicos, y que
por tanto, todos los enunciados empíricos pueden ser expresados en el lenguaje de
la física” (Urmson, 1994). Así el homomorfismo queda reformulado en términos de
una correspondencia entre las proposiciones protocolares y los enunciados
observacionales. Este fue el punto de partida para una cruzada a favor de la unidad
de la ciencia basada en el lenguaje lógico del Círculo de Viena.
Lo que siguió fue un distanciamiento del fisicalismo del empirismo, o como dice
Padrón: “En esencia, se abandonó el "empirismo ingenuo" implícito en las tesis
iniciales; se reajustó el concepto de "reglas de correspondencia" entre los planos
teórico y observacional” Padrón, 1992). Con todo, el distanciamiento iniciado fue
ampliado por Neurath y Carnap, “al proponer que se prescindiese de la teoría de la
verdad como correspondencia” (Urmson, 1994).
Elementos principales
Bajo este criterio es que se notan con mayor facilidad la evolución de la tesis del
principio de verificabilidad en el pensamiento de Carnap. Según se ha mostrado “las
tesis de Carnap fueron evolucionando, desde sus posiciones verificacionistas
iniciales hacia una confirmación progresiva, e incluso de un grado de confirmación
de los enunciados empíricos. En 1936 ya admitía la confirmabilidad como criterio, y
a partir de 1949 va a desarrollar su teoría del grado de confirmación, que enlazará el
empirismo inicial del Círculo de Viena con la lógica probabilitaria” (Echeverría,
1989).
55
a la realidad). En este último caso, una proposición fáctica tiene significado si la
experiencia sensible basta para decidir su verdad. Esto era un criterio de
significatividad empírica.
• Un isomorfismo entre el criterio se significado y el método de
verificación. Es obvio que si una proposición solo puede ser verificada por la
experiencia entonces lo que está envuelto es una “simple identificación del
significado y el método de verificación” (Urmson, 1989). A esto también se le
llama principio de verificabilidad, el cual exigía que dicha verificación fuese
completa y por medio de la observación.
La primera dificultad:
La segunda dificultad:
56
De acuerdo con Carnap, “el análisis lógico pronuncia, pues, el veredicto sobre la
carencia de sentido de todo presunto conocimiento que pretenda ir por encima a
por detrás de la experiencia. Ese veredicto alcanza ante todo a toda metafísica
especulativa....Vale además ese juicio para toda filosofía de los valores y de las
normas, para toda ética y estética como disciplina normativa. Porque la validez
objetiva de un valor o de una norma no se puede verificar ni deducir de
proposiciones empíricas; no se puede, por lo tanto, enunciar o formular en absoluto
(en una proposición que tenga sentido) aun según la manera de ver de los filósofos
de los valores....Finalmente, el veredicto alcanza también a aquellas tendencias
metafísicas que desacertadamente se suelen designar como movimientos
epistemológicos, a saber, realismo (en cuanto pretende decir algo más que el
resultado empírico de que los procesos muestran una cierta regularidad, que hace
posible el empleo del método inductivo) y sus contrarios: el idealismo, el
solipsismo, el fenomenalismo y el positivismo (en el sentido primitivo)” (Carnap,
1931).
La tercera dificultad
En esta parte veremos las dificultades del principio de verificabilidad que indujo a
los positivistas lógicos a debilitar su rigidez y moldearlo al punto que llegase a
requerir de una “una proposición [que] sea capaz de ser en algún grado confirmada
o refutada por la experiencia” (Ayer, 1959).
Pero debe precisarse que este procedimiento, entre otras cosas, es importante para
el asunto de las predicciones científicas. Es decir, cuando una predicción teórica
ocurre en la realidad, “no puede decirse que la teoría haya quedado totalmente
57
verificada, pero si tiene lugar una confirmación objetiva de dicha teoría”
(Echeverría, 1989).
58
El valor de una hipótesis va ligado al mayor o menor número de datos
empíricos conformes a dicha hipótesis.
59
APUNTES DEL ESTUDIANTE
J ohn Losee nos plantea en su libro “Filosofía de la Ciencia e Investigación Histórica” tres
dominios diferentes del saber: la Filosofía, la Historia y la Ciencia. Los puntos de vista
de un filósofo, un historiador y un científico no son coincidentes ante una misma realidad,
así como sus métodos de trabajo. Por ello, el autor nos propone dos objetivos: el primero,
delimitar cada uno de los tres dominios anteriores; el segundo y más complicado…
interrrelacionarlos4.
De los tres dominios, Losee se conforma con analizar únicamente dos, la Filosofía y la
Historia, con relación al tercero, la Ciencia. Por tanto, la Ciencia va a hacer, para Losee,
únicamente las funciones de objeto. Los sujetos de acción sobre la Ciencia analizados por
Losee serán la Historia y la Filosofía. Por consiguiente, el libro de Losee no es un libro
científico donde desarrolla y explica hipótesis y teorías físicas, químicas o biológicas, si
bien, éstas aparecerán como ejemplos y contraejemplos, objetos siempre de análisis
histórico o filosófico.
• FC prescriptiva
• FC descriptiva.
- HC y FC sean excluyentes.
- HC y FC tengan dependencia fuerte o débil.
- HC y FC tengan interdependencia simétrica.
- FC está contenida en la HC.
60
También veremos más adelante, en el epígrafe 4, las maneras de relacionarse de ambas
disciplinas.
Sirva este prólogo para captar la esencia de la FC, el estatuto y objetivos de la misma y no
confundirla con la HC. De hecho, ambas corresponden a asignaturas diferentes del
programa actual de estudio en la carrera de Filosofía.
La distinción de contextos
• El contexto de descubrimiento.
• El contexto de justificación.
La distinción de los contextos otorga carta de naturaleza a los estudios filosóficos sobre la
ciencia. Es el problema que la FC debe resolver. Esto es así debido a que para explicar los
fenómenos tenemos que hallar sus principios, elementos o causas y a partir de estos
deducir aquellos. El contexto de descubrimiento nos abre una dimensión poética de la
ciencia. El contexto de justificación, por su carácter normativo, conlleva una dimensión,
diríase retórica de la actividad científica. Dicha actividad, vista desde los dos contextos,
implica dos movimientos diferentes en el intelecto: un primer movimiento ascendente y un
segundo movimiento descendente.
El primer movimiento, el de ascenso, ocurre desde los fenómenos hacia los principios.
Esto implica una acción de análisis inductivo que nos lleva a descubrir algo que
previamente no conocíamos. El segundo movimiento, el descendente, ocurre desde los
principios hacia los fenómenos. Ello implica una acción de síntesis mediante la cuál explico
algo que ya conocemos. Es importante señalar que en este descenso se produce una correa
de transmisión descendente desde una verdad inicialmente supuesta. Por consiguiente,
frente a la inducción del primer movimiento ascendente, existe una deducción en el
segundo movimiento descendente. Es evidente que el primer movimiento, el ascendente, se
asocia con el contexto de descubrimiento; el segundo, el descendente, se asocia con el de
justificación.
61
Descartes, con su innatismo y método deductivo, corresponde al caso extremo en el que el
contexto de justificación fagocita al de descubrimiento. En este caso, la ciencia se define en
términos de certeza, más que de la verdad de las explicaciones propuestas. Además, es
evidente que la justificación no puede estar en la rama ascendente del conocimiento. Este
es el dominio del contexto de descubrimiento. Cabe decir también que un mismo método
no puede describir y justificar a la vez. De ahí la necesidad de la distinción de los dos
contextos.
Hay autores que critican la distinción clásica de los contextos aquí propuesta, aportando
otras. Kuhn añade a los antedichos el contexto de pedagogía. Blackwell, añade a los dos
clásicos el de explicación-predicción. Lauden propone tres contextos diferentes: el de
descubrimiento, el de indagación y el de evaluación-aceptación. Goldman postula cuatro: el
contexto de generación, el de indagación, el de contrastación y el de decisión. Por último,
Kordig mantiene el de descubrimiento y desdobla en dos el de justificación: el contexto de
plausibilidad y el contexto de aceptabilidad. Todo ello, no hace sino demostrar la
variabilidad de las diferentes distinciones posibles y la heterogeneidad del fenómeno
científico que permite diferentes categorizaciones.
La naturalización de la epistemología
Para Quine, en la relación entre Ciencia y Filosofía, ambas forman un continuo. Ambas son
tripulantes de un mismo barco y las dos contribuyen en mantenerlo a flote. Por
consiguiente, la naturalización de la epistemología supone el abandono del sueño de
Descartes. Es decir, el abandono de una Filosofía Primera, más firme que la Ciencia y
anterior a ella. Dicho de otro modo, el corazón del naturalismo supone la negación de las
Tesis del Tratactus de Wittgenstein.
62
¿Cuál es la relación de la naturalización de la epistemología con la distinción de los
contextos del epígrafe anterior? La crítica a la distinción de los contextos puede llevarse por
varios caminos. Y uno de ellos, resulta ser el de la naturalización de la epistemología.
Se reitera en muchos textos críticos para con el programa naturalizador que existe una
inexorable circularidad en el mismo, pues en la medida en que cada epistemología
naturalista señala la ausencia de fundamento racional del conocimiento científico, su
indiferencia respecto de la verdad o falsedad, su sujeción a las leyes naturales, está
poniéndose a sí misma en idénticas críticas, pues la epistemología es parte del
conocimiento, es conocimiento sobre el conocimiento. Podríamos preguntarnos, pues, por
qué habríamos de dar más crédito a una teoría del conocimiento (naturalista o no) que a
otra, es decir, por qué razones. La existencia de esta circularidad no se discute.
63
Parece claro que el desarrollo del conocimiento humano está sometido a evaluación y
cambio, posiblemente a mejora en cuanto a la verdad empírica, la coherencia lógica o la
utilidad práctica; y es deseable que sea así. Esta presunta mejora se consigue, eso sí, como
recuerda Bacon, obedeciendo a la naturaleza. La posibilidad de cambio, de actuación, exige
la evaluación, y la evaluación crítica es una función típicamente (aunque no exclusivamente)
filosófica. Solís señala que “parece que un naturalismo absoluto es impracticable, aunque
sea una ideología útil para combatir los excesos valorativos absolutistas.”
Con ser cierto, habría que añadir que una absoluta naturalización, además de un error
empírico y un círculo lógico, es una mala política que justifica el inmovilismo o la cesión de
la iniciativa humana a la dinámica de algo así como el espíritu hegeliano (sive natura). En
contrapartida, el no tomar en cuenta cualquiera de los resultados empíricos (tesis de la
irrelevancia) nos hace inactivos a la ignorancia de las condiciones en que se da la acción.
John Losee en su libro “Filosofía de la Ciencia e Investigación Histórica” plantea las diferentes
formas de relacionarse entre la FC y la HC. Hasta cierto punto, pudiénrase asimilar dichas
relaciones a las existentes entre los dos contextos considerados. En este caso, la FC se
asemejaría al contexto de justificación y la HC al de descubrimiento. Así, John Losee nos
dice que Kuhn plantea que ambas, FC y HC, sean excluyentes. Dice Kuhn que donde el
filósofo ve “un pato” el historiador ve un “conejo”. O lo uno o lo otro, pero nadie verá un
“pato-conejo”. El filósofo busca verdades universales en todo tiempo y lugar. No así el
historiador. También Giere aboga por la exclusión ya que FC es normativa, analiza
métodos y por tanto es independiente del análisis histórico. Smart argumenta la
independencia de ambas de la siguiente manera: la HC sólo se relaciona con la FC a través
de los ejemplos que la primera suministra a la segunda. Pero los ejemplos mencionados no
son necesarios; un filósofo ingenioso podría suplir la falta de datos históricos con ejemplos
virtuales de su propia invención. Tal es la independencia de HC y FC. Por último
Feyerabend nos da un argumento adicional a favor de la mutua exclusión entre HC y FC:
la FC carece de interés para el historiador así como para el científico.
64
científico consiste en la incorporación de resultados pasados a teoría presentes. Esto da
origen a una curiosa concepción del progreso científico: el modelo del curso de un río
con sus afluentes confluyendo en él. Así, se apela a la HC para fundamentar las
aportaciones en el progreso científico. Ahora bien, la reducción y complementación de
unas teorías respecto a otras no siempre es posible, pues los conceptos, en el curso del río
de la Historia pueden no significar lo mismo. Nagel propone varios ejemplos:
Todos ellos no son posibles de una manera continua, sino a través de un cambio de
paradigma.
1. Panorama Histórico
Bacon aisló varias normas y criterios. La más famosa es “la instancia crucial”. Se refiere
con ella a toda evidencia que proporciona apoyo inductivo para una interpretación
determinada, y refuta a sus competidoras.
65
La aportación del Círculo de Viena supone una consolidación de la FC prescriptiva
apoyada en dos pilares básicos:
Sin embargo, a la hora de construir una FC Prescriptiva ¿debe haber al menos un principio
inviolable? La respuesta no es única. Shapere aboga por una postura “no
presuposicionista” que desarrolle una FC normativa y prescriptiva, pero desprovista de
principios inviolables. Para él, nada hay sagrado e inviolable en la Ciencia. Otros filósofos sí
abogan por la existencia de principios inviolables designados a cualquier nivel de la
jerarquía de la arquitectura de la FC. Por ejemplo, podríamos hablar de la concordancia de
las predicciones con las observaciones, la simplicidad, la integración conceptual… Por el
contrario, es evidente que el sentido común nunca debe ser un criterio inviolable. Por
debajo del nivel del principio inviolable, las normas si pueden variar.
66
Una dificultad importante es la de encontrar procedimientos de evaluación para la
justificación de las normas y principios rectores de una FC. Laudan propone seleccionar
un conjunto de desarrollos progresivos de la Ciencia y evaluar las reconstrucciones en
competencia del progreso científico por su capacidad para reconstruir esos casos estándar.
De este modo subraya la interdependencia de FC y HC. Para Laudan, concierne el realizar
el análisis y las comparaciones a un grupo de científicos de élite, por lo que, a fin de
cuentas, la subjetividad de dicho grupo se cierne sobre toda su metodología.
Una vez postulado un principio inviolable podemos crear una FC. Existen dos fuentes
desde la que nutrirse de principios inviolables: la Historia y la Lógica. A este respecto,
surgen dos posiciones extremas:
1. El Historicismo irrestricto, con la Historia como única garantía para las normas
de evaluación.
2. El Logicismo irrestricto, con la Lógica como única garantía para las normas de
evaluación.
67
A pesar de sus diferencias, ambas son normativas. En el epígrafe anterior, hablamos de la
reconstrucción racional de los episodios científicos. Esto corresponde a la FC Presciptiva.
Hablemos, a continuación de su complemento: la FC Descriptiva.
Hanson participa del enfoque de Holton. Así, también Toulmin, merced a su analogía
entre la FC y la Teoría de la Evolución Orgánica contribuye a profundizar en la FC
Descriptiva. Feyerabend va más lejos, proponiendo una suerte de “anarquismo
metodológico”. Para él, la idea de que la Ciencia debe desarrollarse según reglas fijas
universales es perniciosa y poco realista. Incluso Laudan al final de su obra, pasa del
“enfoque de niveles” prescriptivo (escalera de la justificación jerárquica) a un “modelo
reticular” descriptivo. Este segundo enfoque es más modesto y pesimista. Todos los
principios de evaluación están sujetos a cambio.
2. La Historia de la Ciencia
68
3. La Filosofía de la Ciencia Ampliada
La reducción que la razón implica tras su omnipresente y exclusiva aplicación a las Ciencias
redunda en una deshumanización brutal. La reacción a tal deshumanización consiste en
integrar ciertas dosis de irracionalidad en las Ciencias. Las dos FC´s y la HC se
aprovisionan de pequeñas semillas de imaginación y de irracionalidad. Esto significa en
ampliar las relaciones entre Ciencia y Filosofía. Visto de esta manera, la Ciencia no es sólo
conocimiento; es acción humana… ¡es arte!
Bibliografía:
69
APUNTES DEL ESTUDIANTE
La definición5
S i queremos que los términos científicos cumplan su objetivo, sus significados tendrán
que ser especificados de tal modo que hagan seguro que los enunciados resultantes
sean propiamente contrastables y que se presten a una utilización en explicaciones,
predicciones y retrodicciones. Será útil para nuestros propósitos distinguir claramente entre
‘conceptos’, tales como los de masa, fuerza, campo magnético, etc., y los correspondientes
‘términos’, las expresiones verbales o simbólicas que representan esos conceptos. Para
referirnos a términos particulares, como para referirnos a cosas particulares de cualquier
otro tipo, necesitamos nombres o designaciones de ellos. De acuerdo con una convención
típica de la lógica y la filosofía analítica, formamos un nombre o designación de un término
colocándolo entre comillas. Según esto, hablamos de los términos “masa”, “fuerza”, etc.
Nos ocuparemos en este capítulo de los métodos para especificar los significados de los
términos científicos y de los requisitos que estos métodos tienen que cumplir.
Las definiciones que sirven al primer objetivo se llamarán ‘descriptivas’; las que sirven al
segundo, ‘estipulativas’. Las definiciones descriptivas se pueden expresar del siguiente
modo:
70
Las definiciones como éstas se proponen analizar el significado aceptado de un término y
describirlo con la ayuda de otros términos cuyo significado debe haber sido comprendido
con anterioridad si se quiere que la definición sirva a su propósito. Se llamarán también,
por tanto, definiciones descriptivas analíticas. Las definiciones descriptivas de tipo no
analítico especifican el ámbito de aplicación, o la extensión de un término; más que su
significado o intensión. Las definiciones descriptivas de cualquier tipo pretenden describir
ciertos aspectos del uso aceptado de un término; se puede decir, por tanto, que son más o
menos exactas, o incluso verdaderas o falsas.
Las definiciones estipulativas sirven para introducir una expresión que se ha de usar con
algún sentido específico en el contexto de una discusión, de una teoría, etc. a esas
definiciones se les puede dar la siguiente forma:
o bien
La única manera de escapar a esta dificultad en nuestro intento de definir todo término de
un sistema dado será no usar nunca en un definiens un término que haya sido definido antes
en la cadena. Pero entonces nuestra cadena de definiciones no tendrá fin. Así, pues, no
todo término de un sistema científico se puede definir por medio de otros términos del
sistema: tendrá que haber un conjunto de términos primitivos, de los que no se da ninguna
definición dentro del sistema, y que sirven como base para definir todos los demás
términos. Utilizaremos el término ‘oración interpretativa’ para referirnos a enunciados que
de esto modo especifican los significados de los términos teóricos propiamente dichos, o
de los “términos característicos” de una determinada teoría por medio de su vocabulario
preteórico, disponibles desde antes.
Definiciones operacionales
71
Una concepción muy específica del carácter de las oraciones interpretativas ha sido
propuesta por la escuela operacionalista de pensamiento. La idea central del
operacionalismo es que el significado de todo término científico debe ser especificable
indicando una operación definida de contrastación que proporcione un criterio para su
aplicación.
El procedimiento operacional invocado por una definición operacional se debe elegir de tal
modo que pueda ser llevado a cabo de un modo inequívoco por cualquier observador
competente, y que el resultado pueda ser comprobado objetivamente y no dependa
esencialmente de la persona que lleva a cabo la contrastación.
Las ideas básicas del operacionalismo han ejercido considerable influencia sobre el
pensamiento metodológico en la psicología y en las ciencias sociales, donde se ha puesto
gran énfasis en la necesidad de proporcionar criterios operacionales claros para términos
que hayan de ser utilizados en hipótesis o teorías. Hipótesis tales como que la gente más
inteligente tiende a ser emocionalmente menos estable que sus compañeros menos
inteligentes, por ejemplo, no pueden ser contrastadas objetivamente, a menos que se
disponga de criterios claros de aplicación para los términos que intervienen en ellas.
72
proporcionan solo interpretaciones parciales de los términos “temperatura” y
“longitud”; porque cada uno de ellos es aplicable sólo dentro de un ámbito limitado
de circunstancias.
Debería estar claro que los términos de una teoría científica no se pueden considerar
propiamente como si cada uno de ellos tuviera asociado un número finito de criterios
operacionales específicos, o, más en general, de enunciados interpretativos. Porque se
supone que los términos interpretativos determinan modos de contrastar oraciones que
contienen el término interpretado; es decir, que cuando se combinan con esas oraciones,
han de dar lugar a implicaciones que las contrastan, redactadas en términos de un
vocabulario disponibles desde antes.
Jesús Mosterín
73
fundamentalmente a tres: los conceptos clasificatorios, los conceptos comparativos y los
conceptos métricos.
La extensión de un concepto es la clase de las cosas a las que ese concepto se aplica. Si
identificamos los conceptos clasificatorios con sus extensiones, entonces podemos resumir
las condiciones formales de adecuación de una clasificación (no solapante) diciendo que la
clasificación debe constituir una partición, en el sentido matemático de este término.
Sea A una clase cualquiera de objetos. Una colección de conjuntos B1... Bn constituye una
partición de A si y sólo si cada uno de esos conjuntos es un subconjunto no vacío de A, no
hay ningún elemento común a dos de esos conjuntos, y cada elemento de A está en alguno
de esos conjuntos. Así, la clasificación de los mamíferos en órdenes (monotremas,
marsupiales, insectívoros, etc.) constituye una partición del conjunto de los mamíferos.
En la práctica científica no sólo se exige que una clasificación satisfaga las condiciones
formales de adecuación que acabamos de comentar, sino también que satisfaga ciertas
condiciones materiales de adecuación peculiares de la ciencia de que se trate. Esto mismo
suele expresarse en la pretensión de que la clasificación sea natural. Pero ¿qué significa que
una clasificación sea natural? Limitémonos a considerar el asunto en lo que atañe a la
zoología. ¿Qué es una clasificación zoológica natural?
Podemos clasificar a los animales en tres clases: la de los que no llegan a los 2 años de vida,
la de los que mueren entre los 2 y los 80 años y la de los que viven más de 80 años. Esto
constituye una clasificación formalmente correcta de los animales. En efecto, los tres casos
se dan, cada animal se encuentra en alguno de esos casos y ningún animal está a la vez en
dos de esos casos. Sin embargo, esta clasificación sería rechazada por la comunidad de los
zoólogos por no ser natural. Natural sería la clasificación de los animales en phyla
(cordados, equinodermos, artrópodos, etc.), ¿por qué? La respuesta es que podemos
enunciar muchas e interesantes leyes generales acerca de los artrópodos, por ejemplo, pero
no acerca de los animales que viven entre 2 y 80 años. En general, suele considerarse que
74
una clasificación es más natural que otra si los conceptos que constituyen la primera son
más fecundos científicamente.
Jerarquías de clasificaciones
Dadas dos clasificaciones del mismo dominio de objetos, a veces es posible compararlas en
cuanto a finura y, a veces, no. Por ejemplo, la clasificación de los primates en prosimios y
simios no es comparable con la clasificación de los mismos en machos y hembra. Sin
embargo, la clasificación de los mamíferos en familias si es comparable con su clasificación
en órdenes. La primera es más fina que la segunda.
Suele ser característico de las ciencias en que los conceptos clasificatorios desempeñan un
papel importante el que las clasificaciones no aparezcan solas, sino que se usen diversas
clasificaciones de finura decreciente del mismo dominio, engarzadas entre sí y formando
jerarquías, donde por jerarquía entendemos una sucesión de clasificaciones comparables
entre sí y de finura decreciente.
En general, una jerarquía sobre D es una clase de categorías sobre D. Una categoría sobre
D es una partición de D, es decir, una clase de taxones de D. Y un taxón de D es una clase
de elementos de D que pertenece a una de las particiones de D consideradas. La jerarquía
taxonómica más conocida en la jerarquía procedente de Linné para la clasificación de los
organismos.
Conceptos comparativos
Conceptos métricos
Los conceptos métricos, también llamados conceptos cuantitativos o magnitudes, son una
creación original de los lenguajes científicos. Son característicos de los estadios más
avanzados de la ciencia.
Los conceptos métricos asignan números reales o vectores a objetos o sucesos. Los
conceptos métricos –como masa o tiempo- que signan números reales a determinados
objetos o sucesos se llaman magnitudes escalares. Los conceptos métricos –como fuerza o
75
velocidad- que asignan vectores se llaman magnitudes vectoriales. Para simplificar nuestro
tratamiento, cuando en lo sucesivo hablemos de concepto métrico queremos decir
concepto métrico escalar.
Escalas ordinales
Las escalas ordinales son las más pobres desde el punto de vista de la información que nos
suministran. Se limitan a asignar números, conservando el orden de un sistema
comparativo dado. En mineralogía se dispone de un concepto comparativo de dureza.
Siempre que asignemos números a los minerales de tal manera que a dos minerales les
corresponda el mismo número o a uno de ellos un número menor que el otro según que
coincidan en cuanto dureza o el uno sea menos duro que el otro, tendremos una escala
ordinal de dureza. La escala de Mohs, por ejemplo, se limita a expresar numéricamente el
hecho de que un mineral es más o menos duro que otro, pero no nos dice cuánto más o
menos duro es que el otro. No mide diferencias de dureza. Precisamente por ello, son
muchas las transformaciones permisibles, es decir, las transformaciones del homomorfismo
dado que dan lugar a homomorfismo del mismo tipo.
Si en vez de asignar 1 al talco, 2 al yeso, 2 a la calcita, etc., como hacía Mohs, asignamos 0 al
talco, 500 al yeco, 500,5 a la calcita, 507 a la fluorita, etc., esa asignación sigue siendo uno
escala ordinal de dureza. Precisamente esta indeterminación es la que impide que pueda
haber una fórmula general para pasar de una escala ordinal a oro (correspondiente al
mismo concepto).
Escalas proporcionales
76
Las escalas proporcionales son las más ricas desde el punto de vista de la información que
suministran. No sólo nos dicen que un objeto es más o menos que otro respecto a alguna
característica, sino que nos señalan en qué proporción exacta el uno es más o menos eso
que el otro.
A diferencia de lo que pasaba con las escalas ordinales, no todas las transformaciones
monótonas de escalas proporcionales dan lugar a escalas proporcionales. Supongamos que
un frasco destapado tiene 200 gramos de masa, y su tapa, 100 gramos. Por tanto, el frasco
tapado tendrá 300 gramos de masa. Una transformación monótona de la escala métrica
decimal en gramos podría asignar al frasco el número 2, a su tapa, el 1, y al frasco tapado el
9. Pero esa función no sería un homomorfismo.
Las magnitudes que no son extensivas se llaman intensivas. Así, respecto a la operación de
combinar dos economías nacionales para formar una unión económica, los conceptos de
producto nacional bruto o de población son extensivos o aditivos, mientras que los conceptos de
renta per cápita o de tasa de natalidad son intensivos. Respecto a la operación de vaciar el
contenido de dos recipientes en un tercero el concepto de volumen es extensivo o aditivo,
pero no los de temperatura o de densidad.
Escalas de intervalos
77
Metrización fundamental y derivada
Las ventajas de los conceptos métricos respecto a los clasificatorios o comparativos son
evidentes. El vocabulario científico resulta mucho más simple, claro y manejable. Con un
solo concepto métrico tenemos infinitas posibles situaciones ya descritas y ordenadas. Si
pretendiésemos sustituir un concepto métrico como el de temperatura por una serie de
conceptos clasificatorios (gélido, frío, fresco, tibio, etc.), no sólo descendería
considerablemente el nivel de precisión, sino que cargaríamos nuestra memoria con gran
cantidad de términos distintos. Otra ventaja es la de facilitar la búsqueda de leyes
científicas.
La razón profunda de todas las ventajas que se pueden aducir estriba en que los conceptos
métricos constituyen un puente entre el mundo real y el mundo ideal de la matemática. El
mundo real es un mundo poco manipulable intelectualmente. El mundo de la matemática,
por el contrario, es un mundo perfectamente estructurado y ordenado. Por eso, en cuanto
los problemas que se plantean en el mundo real resultan demasiado complicados e
inabarcables, la mejor estrategia para su solución suele consistir en representarlos como
problemas matemáticos.
Clasificar
Una de las actividades científicas más frecuentes es la que consiste en clasificar los
individuos de un ámbito determinado, de tal modo que podamos hablar, pensar y formular
leyes o hipótesis sobre ellos con más facilidad. Cuando nos ponemos a clasificar un
6 Taxonomía formal.- La parte más abstracta de la taxonomía, que se limita a considerar y explicitar las
estructuras formales o matemáticas implícitas en la actividad de clasificar.
78
dominio de objetos, no consideramos terminada nuestra tarea hasta que la clasificación o
colección de clases introducidas los abarca a todos. Esto puede precisarse diciendo que el
resultado de clasificar un conjunto A ha de constituir un recubrimiento de A.
Las clases que constituyen una clasificación pueden solaparse. Por ejemplo, la clasificación
de los hombres por nacionalidades es solapante, pues hay individuos con doble
nacionalidad. El resultado de clasificar A no solapantemente constituye no sólo un
recubrimiento de A, sino incluso una partición de A. Las clasificaciones más importantes
científicamente son las no-solapantes. En lo sucesivo, siempre que hablemos de
clasificaciones, queremos decir clasificaciones no-solapantes.
Hay una estrecha correlación entre las particiones y las relaciones de equivalencia. Por
ejemplo, el tener el mismo número de protones en el núcleo es una relación de equivalencia
entre átomos. Con frecuencia se introducen las particiones mediante relaciones de
equivalencia. La partición de los átomos en elementos químicos es la partición inducida por
la relación de equivalencia de tener igual número de protones en el núcleo.
Un dominio A de individuos puede clasificarse o partirse de muy diversas maneras. Así, por
ejemplo, los animales puede clasificarse geográficamente, o ecológicamente, o
sistemáticamente, por especies, etc. unas clasificaciones o particiones son, a veces, más
finas que otras, pero con frecuencia son incomparables entre sí. La clasificación geográfica
de los animales es incomparable con su clasificación sistemática en especies, pero esta
última es comparable con su clasificación sistemática en órdenes y resulta más fina que ella.
Una partición es más (o igual de) fina que otra cuando hace todas las distinciones que esa
otra hace, y quizás todavía algunas más.
Jerarquías taxonómicas
Cuando nos encontramos con clasificaciones cuyas particiones son comparables entre sí,
éstas pueden formar una jerarquía taxonómica. Así, podemos clasificar las dolencias que
nos aquejan en hereditarias y adquiridas. Más finamente, podemos clasificar las adquiridas
en traumáticas, degenerativas e infecciosas. Y así sucesivamente. Todos los individuos (en
este caso, las dolencias concretas) que sean miembros de un taxón de la partición más fina,
serán también miembros de un mismo taxón en cada una de las otras clasificaciones.
Dada una jerarquía taxonómica H, cada categoría de esa jerarquía tiene un cierto rango o
nivel. Puesto que todas las categorías o particiones de H son comparables entre sí,
79
podemos ordenarlas de tal modo que la más fina aparezca en primer lugar (tenga rango 1),
la siguiente más fina tenga rango 2, etc., hasta llegar a la menos fina, que tendrá máximo
rango o nivel. También se suele decir que un taxón tiene rango, a saber, el rango de la
categoría a la que ese taxón pertenece.
La paradoja de Gregg
Por regla general un taxón de cierto nivel es un subconjunto propio de otro taxón de nivel
superior, pero no coincide con él. Estos taxones normales, que incluyen varios taxones de
nivel inferior, se llaman taxones politípicos. Sin embargo, no todos los taxones son
politípicos, también los hay monotípicos.
Si los taxones de la clasificación biológica son conjuntos, entonces los taxones monotípicos
(que tienen los mismos elementos) han de ser idénticos, pues dos conjuntos con los
mismos elementos son el mismo conjunto. Pero los biólogos sistemáticos, que establecen
las clasificaciones, piensan que una especie es siempre algo muy distinto de una familia, por
ejemplo. Por tanto, aunque una familia y una especie tangan los mismos elementos, serán
taxones distintos. El primero que se dio cuenta de esta dificultad fue John R. Gregg, y
desde entonces se conoce como la paradoja de Gregg.
Desde un punto de vista intuitivo, lo más satisfactorio es considerar los taxones como
conjuntos de organismos. El problema de Gregg puede resolverse (o, mejor dicho,
disolverse) por el trivial expediente de distinguir los taxones a secas, que serán meros
conjuntos de organismo, de los taxones jerarquizados, que serán pares ordenados de
taxones a secas y rangos. Por tanto dos taxones monotípicos coinciden en cuanto taxones a
secas (son el mismo conjunto de organismos), pero difieren en cuanto taxones
jerarquizados (pues poseen rango distinto). Y el que los consideremos de un modo u otro
depende de nosotros, no de ellos.
Superposición de particiones
Fusión de particiones
Cuando fusionamos dos particiones, juntamos en un solo taxón todos los taxones de
ambas particiones que son comunicables entre sí por un camino de taxones no-disjuntos.
La noción intuitiva de camino puede precisarse mediante una función numérica que oscila
80
entre taxones comunicados (no-disjuntos) de ambas particiones. Dos taxones son
comunicables si hay un camino de uno a otro. Un grupo máximo de taxones comunicables
forman una isla. Y la fusión de ambas particiones es precisamente el conjunto de esas islas,
que forman una nueva partición.
Un retículo es una ordenación parcial en la que cada par de elementos poseen un ínfimo
(una máxima cota inferior) y un supremo (una mínima cota superior). Ahora bien, dadas
dos particiones cualesquiera de A, su ínfimo es precisamente su superposición, y su
supremo es precisamente su fusión. Las particiones de un dominio dado forman un
retículo respecto a las operaciones de superposición y de fusión.
81
APUNTES DEL ESTUDIANTE
A la vista de, y en respuesta a los recientes desarrollos en física, a partir de los años
veinte se convirtió en un lugar común para los filósofos de la ciencia el construir
teorías científicas como cálculos axiomáticos a los que se da una interpretación
observacional parcial por medio de reglas de correspondencia. De este análisis, designado
comúnmente con la expresión La Concepción Heredada de las Teorías se han ocupado
ampliamente los filósofos de la ciencia al tratar otros problemas de filosofía de la ciencia.
Este análisis empezó a ser objeto de ataques críticos dirigidos contra su manera de concebir
las teorías y el conocimiento científico. La situación actual de la filosofía de la ciencia es la
siguiente: la Concepción Heredada ha sido refutada, pero ningún análisis de teorías
propuesto para sustituirla ha tenido amplia aceptación.
Aunque la Concepción Heredada continuó teniendo gran aceptación después de que fuera
refutado el positivismo lógico, es el producto del positivismo lógico y no puede ser
entendida separada de las tesis de dicho movimiento. El positivismo lógico es la filosofía
que surgió del Circulo de Viena y de la Escuela de Reichenbach de Berlín,(movimiento
alemán) compuesta casi exclusivamente por científicos , matemáticos y científicos
convertidos en filósofos.
De 1850 a 1880 la ciencia alemana estuvo dominada por materialismo mecanicista en que
la ciencia puede presentar una visión del mundo basada firmemente en la investigación
empírica más bien que en la especulación filosófica. El método científico lleva al conocimiento
inmediato y objetivo de estas leyes y es capaz de conseguirlo mediante la investigación
empírica. La observación del mundo es inmediata en el sentido de que no hay ningún a priori
o mediación conceptual involucrados en la obtención de conocimiento observacional.
7 Jesús González Sánchez es el autor de esta Unidad Didáctica. Introduce la siguiente advertencia: Estos
apuntes son en realidad un resumen con las propias palabras de los autores de la bibliografía de los puntos que se desarrollan en
el Tema 5; espero que lo suficientemente amplios para que sean comprensibles y que permitan realizar los “apuntes personales”.
Estos por su carácter no serian de utilidad para todo, ya que en su desarrollo influyen múltiples factores: desde el dominio previo
de los puntos tratados hasta la comprensión que ofrece la lectura completa del libro. Espero que sean de utilidad… su finalidad
no es otra que paliar la falsa expectativa que prometía la guía (de la asignatura) en relación a dichos apuntes. (Se refiere a
que en la Guía de la Asignatura se anunciaban unos “apuntes del profesor” que finalmente no contemplaban
esta unidad, entre otras. Nota del Editor)
82
Para esta, la ciencia tiene como misión descubrir las formas generales o estructuras de las
sensaciones; el conocimiento que la ciencia ofrece «del mundo externo» es visto como una
red de relaciones lógicas que no son dadas, sino más bien ejemplificadas en la experiencia
sensorial. La labor de la ciencia es descubrir la estructura de este mundo ideal, la estructura
de los fenómenos. Las leyes científicas deben describir esta estructura. Por tanto, el
conocimiento científico es absoluto, no relativo.
La observación de Poincaré de que las leyes científicas a menudo no son más que
convenciones acerca de hechos científicos abrió el camino a la introducción de las
matemáticas De acuerdo con Poincaré, estos términos teóricos no son otra cosa que meras
convenciones usadas para referirse a los fenómenos, en el sentido de que cualquier
afirmación que haga uso de ellos puede hacerse en lenguaje fenoménico también. Es decir,
los términos teóricos deben de ser definidos explícitamente en términos de fenómenos (o
lenguaje fenoménico) y no son .otra cosa que abreviaturas de tales descripciones
fenoménicas .Dado que las leyes de una teoría se formulan usando términos teóricos, esto
capacita para expresar las leyes matemáticamente Pero como los enunciados que usan
términos teóricos se pueden eliminar y sustituir por otros equivalentes, en lenguaje
fenoménico, estas leyes matemáticas no son más que convenciones para expresar ciertas
relaciones mantenidas entre fenómenos.
Los recientes desarrollos obtenidos en matemáticas por Frege, Cantor y Russell culmi-
naron en los Principia Mathematica de Whitehead y Russell (1910-13). Esto sugirió a los
miembros del Círculo de Viena que los enunciados matemáticos de las leyes científicas y
también las definiciones de términos teóricos podrían darse en términos lógico-
matemáticos y de acuerdo con esto procedieron a modificar su síntesis de las posiciones de
Mach y Poincaré. El resultado fue la Versión inicial de la Concepción Heredada: una teoría
científica debe de ser axiomatizada según la lógica matemática (cálculo de predicados de
primer orden más identidad). Los términos de la axiomatización lógica deben dividirse en
83
tres clases: 1) Términos lógicos y matemáticos, 2) Términos teóricos y 3) Términos
observacionales a los que se da una interpretación fenoménica u observacional. Los
axiomas de la teoría son formulaciones de leyes científicas y especifican relaciones mante-
nidas entre los términos teóricos. Los términos teóricos son meramente abreviaturas de
descripciones fenoménicas (es decir, descripciones que usan únicamente términos obser-
vacionales). Por tanto, las axiomatizaciones deben incluir varias definiciones explícitas de
los términos teóricos de la forma:
TxH = Ox
donde ‘T’ es un término teórico, ‘O’ un término observacional
Hemos visto las principales características de la Concepción Heredada, tal como nos fue
presentada inicialmente por el Círculo de Viena. En lo esencial, esa versión inicial de la
Concepción Heredada concebía las teorías científicas como teorías axiomáticas formuladas
en una lógica matemática L, que reunía las siguientes condiciones:
(i) La teoría se formula en una lógica matemática de primer orden con identidad, L.
(ii) Los términos no lógicos o constantes de L se dividen en tres clases disjuntas
llamadas vocabularios:
a) El vocabulario lógico que consta de constantes lógicas (incluidos términos
matemáticos).
84
b) El vocabulario observacional Vo que contiene términos observacionales.
c) El vocabulario Vt, que contiene términos teóricos.
(iii) Los términos de Vo se interpretan como referidos a objetos físicos o a
características de los objetos físicos, directamente observables.
(iv) Hay un conjunto de postulados teóricos T, cuyos únicos términos no lógicos
pertenecen a Vt.
(v) Se da una definición explícita de los términos de Vt en términos de Vo mediante reglas
de correspondencia C, es decir, para cada término ‘F’ de Vt debe de ser dada una
definición de la. siguiente forma:
(x) (Fx = Ox),
donde ‘Ox’ es una expresión de L que contiene símbolos solamente de Vo y
posiblemente del vocabulario lógico.
Es un corolario de esta caracterización que todos los términos teóricos son cognitivamente
significativos en el sentido de que cada uno de ellos satisface el criterio verificacionista de
significado. El conjunto de axiomas T es el conjunto de leyes teóricas de la teoría. El
conjunto de realas de correspondencia C estipula las aplicaciones que pue-len hacerse de la
teoría a los fenómenos; la teoría se iden-ifica con la conjunción TC de T y C.
A medida que el Círculo de Viena indagó más en la naturaleza del conocimiento científico,
la Concepción Heredada sufrió considerables modificaciones y evoluciones; se hicieron
cambios en las cláusulas (i) a (iii) y (v) de la versión inicial de la Concepción Heredada.
Estas modificaciones se verán en las siguientes subsecciones.
D) La Distinción Teórico-Observacional
La cláusula (iii) de la versión inicial de la Concepción Heredada estipula que los términos
del vocabulario observacional Vo se interpretan como referidos a objetos físicos, O
atributos de objetos físicos, directamente observables; salvo la (iv), ésta fue la cláusula que
menos modificaciones sufrió de las cinco.
Carnap (1936-37), se dio una especificación tan completa de lo que es ser directamente
observable como nunca se había logrado:
Esta explicación es necesariamente vaga. No hay ninguna línea divisoria entre los
predicados observables y los no observables, porque una persona será más o menos capaz
de decidir sobre un enunciado en seguida, es decir, se inclinará después de un cierto tiempo
a aceptar el enunciado.
85
caliente. Son propiedades percibidas directamente por los sentidos. Para el fisico, el asunto
tiene un significado mucho más amplio. Incluye cualquier magnitud cuantitativa que pueda
medirse-, de una forma directa, relativamente simple. Un filósofo no consideraría tal vez
observables una temperatura de 80.C, o un peso de 93 libras, porque no hay percepción
sensorial directa de tales magnitudes. Para un físico, ambos son fenómenos observables
porque pueden medirse de una forma muy simple. El objeto que se va a pesar se coloca en
la balanza... las magnitudes que pueden establecerse mediante procedimientos relativamente
simples —longitud con un metro, tiempo con un reloj, o frecuencia de las ondas luminosas
con un espectrómetro— se llaman observables (para el físico). En general, el físico habla de
observables en un sentido muy lamplio comparado con el estricto sentido del filósofo, pero
en ambos casos, la línea que separa lo observable de lo no “observable es infinitamente
arbitraria.
Este esclarecedor pasaje junto con el largo pasaje citado anteriormente constituyen el más
completo desarrollo de la distinción teórico-observacional dada por los seguidores de la
Concepción Heredada. La presentación de Carnap de la distinción teórico-observacional
esconde una serie de características ocultas en ella, rasgos que necesitamos explicar
claramente si hemos de ser capaces de juzgar los ataques críticos a que ha estado sometida
ésta. La distinción teórico-observacional de Carnap encierra, de hecho, una doble
dicotomía. Primeramente hay una distinción entre aquellos objetos o entidades, sus
propiedades y las relaciones que establecen que son susceptibles de observación directa
(esto es, que se pueden percibir directamente mediante los sentidos potenciados al máximo
por instrumentos muy simples) y aquellos que no lo son. En segundo lugar, existe una
división del vocabulario no lógico (esto es, empírico) de una teoría en términos de
observación y términos no observacionales (o teóricos). Esta división establece que
determinados términos empíricos de un lenguaje científico (por ejemplo, el lenguaje de la
física) se deben insertar en Vo y el resto en Vt.
Estas dos doctrinas implícitas en (iii) —la de que se pueden establecer dicotomías
duales y coextensivas y la de que las afirmaciones de Vo no serán problemáticas con res-
pecto a la verdad— son dos de los rasgos de la Concepción Heredada sometidos a la
más dura crítica por los oponentes a esta doctrina.
Hay otro desarrollo relativo a (iii) que merece una mención. Dado que las afirmaciones que
contienen términos Vo como sus únicos términos no lógicos se supone que son
susceptibles de confirmación mediante muy pocas observaciones se deben imponer
algunas restricciones a la forma lógica y complejidad de tales aserciones. Uno de éstos, el
lenguaje de observación Lo contiene como únicos términos no lógicos términos Vo y cuenta
86
con un restringido aparato lógico y una sintaxis encaminados a garantizar que las
afirmaciones Lo se pueden confirmar mediante muy pocas observaciones.
B) A La Distinción Teórico-Observacional
Algunos de los ataques más fuertes e influyentes a la Concepción Heredada han estado
dirigidos contra su dependencia de la distinción teórico-observacional.
1. Distinción Analítico-Sintético
87
fin de mostrar cómo el rechazo de la distinción analítico-sintético incide en la distinción
teórico-observacional.
La primera réplica significativa fue la de Grice y Strawson (1956). Además de hacer obser-
vaciones similares a las que yo acabo de hacer de que los argumentos de Quine no logran
establecer su tesis, ellos pasan a mostrar que hay razones teóricas para suponer que la
distinción analítico-sintético existe. Su argumento, en esencia, es que allí donde hay acuerdo
acerca del empleo de las expresiones utilizadas en relación con una clase abierta,
necesariamente debe estar presente algún tipo de distinción. Pero aunque esto demuestra la
existencia de una distinción, no revela de qué distinción deja abierta la posibilidad de que,
aunque algunos enunciados o afirmaciones sean verdaderos o falsos analítica o
sintéticamente, haya una amplia clase de enunciados que no sean ni lo uno ni lo otro.
Putnam (1962) acepta la conclusión de Grice y Strawson de que hay una distinción,
pasando luego a sostener que la gran mayoría de los enunciados no se pueden concebir
satisfactoriamente como analíticos o sintéticos, y a intentar caracterizar esas clases.
Empieza concibiendo los enunciados analíticos como aquellos que no podrían resultar
falsos a menos que primero se alterara el significado de sus términos componentes y los
sintéticos como aquellos que podrían ser invalidados mediante una prueba experimental
88
aislada o verificados por inducción enumerativa simple .En esencia la posición de
Putnam estriba en mostrar que hay un amplio número de enunciados supuestamente
sintéticos que no se califican ni de analíticos ni de sintéticos y que incluyen la mayoría de las
llamadas definiciones físicas, leyes científicas, etc. Central en su argumento es el concepto
de grupo de leyes que están constituidos no por un haz de propiedades, sino por un grupo
de leyes que determina la identidad del concepto. Lo más característico de los conceptos
de grupo de leyes es que si se abandonan una o alguna de las leyes que constituyen el
concepto, el significado del concepto no se altera.
La tesis de Putnam se puede establecer con más perspicacia del modo siguiente: Las leyes
que constituyen la identidad de un concepto de grupo de leyes determinan la extensión del
concepto, pero la determinan de varios modos. En primer lugar, la supresión de alguna o
algunas de las leyes no altera la extensión del concepto. En segundo lugar, las leyes hacen
más que determinar sólo su extensión; también afirman diferentes conexiones fácticas que
se supone que se mantienen entre entidades que caen bajo el concepto y otras entidades.
Consideremos ahora las leyes y las llamadas definiciones científicas. Mediante un cuidadoso
análisis, Putnam muestra que la definición de la energía cinética, (e = ½ m.v2), y los
principios de la geometría euclídea son principios formulados en términos del concepto de
grupo de leyes. Como tales principios encierran conceptos de grupo de leyes, pueden ser
individualmente negados sin alterar la identidad (significado extensional) de los conceptos.
Como los principios analíticos son aquellos que no pueden resultar falsos a menos que
ocurra algún cambio en el significado de sus términos constitutivos, esos principios no
pueden ser analíticos.
¿Son entonces sintéticos estos principios (incluidas la mayoría de las leyes de la ciencia más
desarrollada), puesto que no son analíticos? La respuesta de Putnam es que no, puesto que
estos principios, arguye, tienen «la característica de ser empleados como auxiliares para
hacer predicciones sin que se vean puestos en peligro por ningún resultado experimental
posible. Por consiguiente, los principios no admiten experimentos aislados; de modo
similar, tampoco admiten verificación inductiva individual por enumeración simple. En
consecuencia, no son sintéticos.
Así pues, hay una amplia clase de enunciados, incluidos la mayoría de los principios,
definiciones y leyes de la ciencia más desarrollada, que no son ni analíticos ni sintéticos.
Esto no equivale a decir, sin embargo, que no haya enunciados analíticos o que no haya
enunciados sintéticos, pues es claro que los hay. Entre los analíticos están aquellos
enunciados tales como «todos los solteros son no casados» que no contienen conceptos de
grupo de leyes. Por consiguiente, considerarlos falsos requeriría alterar el significado de sus
términos constitutivos. Los conceptos contenidos son entonces «puntos fijos» en nuestro
lenguaje, sinonimias estrictas que pueden ser establecidas precisamente porque tienen un
grado mínimo de significado sistemático. Y hay principios sintéticos que son
generalizaciones de bajo nivel que pueden ser derribadas por experimentos aislados
suficientemente repetidos y con el mismo resultado.
Creo que Putnam está en lo cierto al mantener que hay en la teoría física un gran número
de enunciados y principios cuyos conceptos constitutivos son conceptos de grupo de leyes
y que tales principios pueden ser, al menos individualmente, negados sin alterar el
contenido o significado extensional de los conceptos; y me parece que también está en lo
cierto al mantener que el intento de encerrar esos principios en el molde de lo analítico-
89
sintético desgraciadamente oscurece esta característica de la mayoría de los principios o
enunciados de la teoría física. Por otra parte, lo que Putnam mantiene aquí tiene
consecuencias importantes para la Concepción Heredada y su confianza en la distinción
teórico-observacional.
90
Son ejemplos paradigmáticos de términos teóricos y observacionales los siguientes:
Lo que distingue a los términos de estas dos listas es, según la Concepción Heredada, que
los términos de observación se refieren a entidades o propiedades de entidades directamente
observables, mientras que los términos teóricos, no. El requisito de que esas entidades y
propiedades sean directamente observables es crucial. Que se persigue un sentido especial de
«observable» es algo que se pone de manifiesto en Carnap (1936-37), en donde establece el
requisito de que los términos observacionales se refieran a cosas directamente observables y la
prueba de que son directamente observables estriba aquí en que la verdad de los
enunciados Lo se puede comprobar con ayuda de un número relativamente pequeño de
observaciones que a lo sumo precisan instrumentos simples. Achinstein (1965) arguye que
esto no basta para caracterizar la distinción entre términos teóricos y términos
observacionales. Observa en primer lugar que decir que algo no es directamente observable
significa que no puede ser observado sin instrumentos o sin observar algo distinto de ello.
Putnam (1962) expone una serie de argumentos encaminados a mostrar que no se puede
establecer en modo alguno de forma satisfactoria. Uno de los argumentos es que si
términos observacionales son aquellos que en principio sólo se pueden emplear para
referirse a cosas observables, entonces no hay términos observacionales. Pues no hay
ningún término individual que se pueda aplicar a observables que no pueda emplearse
aplicado a inobservables sin que su significado se vea alterado Pero entonces muchos
términos teóricos (por ejemplo, «atracción gravitacional», «carga eléctrica», «masa») serán
términos observacionales, pues, por ejemplo, yo puedo determinar la presencia de carga
eléctrica poniendo mi dedo en un polo. Lo que indican estas consideraciones es que el
significado de la mayoría de los términos no lógicos de un lenguaje científico natural es tal
que puede ser usado tanto para referirse a lo que puede calificarse con toda plausibilidad de
91
observable como para referirse a lo que, también con toda plausibilidad, se puede
considerar no observable. En consecuencia no hay una división natural de los términos en
observables e inobservables.
92
epistemológico de la Concepción Heredada esté perdido. En la medida en que la distinción
teórico-observacional es esencial a la Concepción Heredada, ésta es inadecuada . Hanson y
otros dan otros argumentos demostrando que esta distinción es fundamentalmente in-
sostenible y filosóficamente confusa al presentar sus alternativas a la Concepción Heredada.
El problema de la demarcación
93
El método que se puede postular como propio de la filosofía de la ciencia es el de la
discusión racional, común a la ciencia, a la filosofía y a cualquier pretensión de
racionalidad. Es el método que consiste simplemente en exponer claramente los problemas
y discutir argumentativa y críticamente las soluciones propuestas.
El aspecto filosófico
El criterio de cientificidad para demarcar entre ciencias y pseudociencias sólo podrá ser la
prueba de falsabilidad para una teoría, es decir, la comprobación en
circunstancias_precisas en las que podría verse uno obligado a abandonar esa teoría. Y lo
que sucede con las teorías psicoanalíticas y marxistas es que tratan de evitar este tipo de
pruebas decisivas de este modo, estas teorías nunca son refutadas por la evidencia de una
incoherencia o de un conflicto.
Falsabilidady contrastabilidad
El problema consistirá en saber cómo se puede llevar a cabo esta contrastación. Una
teoría científica no es directamente contrastable con la experiencia, ya que ésta es siempre
individual y concreta, y la teoría es universal y abstracta. Sin embargo, a partir de una teoría
y en ciertas condiciones se pueden deducir enunciados singulares a partir de ella (que
Popper llama «enunciados básicos»), los cuales sí pueden ser directamente comparados con
94
la experiencia, en el sentido de que estos enunciados precisamente son enunciados que
describen hechos de experiencia. Contrastar una teoría con la experiencia supone, por lo
tanto, deducir enunciados singulares a partir de ella y verificar en la práctica estos
enunciados. Una vez hecho esto puede suceder:
1. Que los enunciados singulares sean refutados por la experiencia, en cuyo caso la
teoría queda también refutada o falsada;
2. Que los enunciados singulares sean verificados por la experiencia, en cuyo caso
la teoría no queda verificada, sino sólo corroborada provisionalmente.
La concepción de la ciencia
La pregunta es: ¿Cómo se «transmite» el carácter empírico de los enunciados básicos a las
teorías a través de la contrastación. Contrastar la teoría con la experiencia será contrastar
los enunciados teóricos con los enunciados básicos. Pero esto no resuelve, sin más, el
problema típico del empirisrno lógico, es decir, el de la justificación del carácter empírico
de los enunciados básicos mismos, el problema de la relación entre lenguaje y
experiencia, a través de la rejación de enunciados de hechos y experiencia de hechos. Este
problema se desdobla en la epistemología de Popper en dos: el problema de la aceptación
de enunciados básicos para la falsación de una teoría y el problema de la justificación de esa
aceptación.
Para Popper, los enunciados básicos cumplen una doble función en el sistema científico:
«Por una parte hemos empleado el sistema de todos los enunciados básicos lógicamente posibles
con objeto de obtener gracias a ellos la caracterización lógica que íbamos buscando -la de la forma
lógica de los enunciados empíricos-. Por otra, los enunciados básicos aceptados constituyen la base
para la corroboración de las hipótesis; si contradicen la teoría, admitimos que nos proporcionan
motivo suficiente para la falsación de ésta únicamente en el caso de que corroboren a la vez una
hipótesis falsadora»'''.
Para establecer la forma de cómo deben aceptarse los enunciados básicos para que cumplan
su función de contrastación empírica, Popper señala dos reglas:
95
La objetividad de los enunciados científicos, que coincide con su contrastabilidad o
falsabilidad, consiste, pues, en poder deducir, a partir de estos enunciados, otros que
sean a su vez contrastables intersubjetivamente. Sólo se pueden obtener conclusiones
contrastables a partir de los enunciados básicos cuando se aceptan con algún tipo de
relación deductiva a partir de hipótesis.
Ciencia y experiencia
Las relaciones lógicas sólo se pueden dar entre enunciados, por lo que es imposible
pretender la fundamentación lógica de enunciados por algo que no son enunciados,
o sea, por experiencias. Pero entonces, es imprescindible definir aquí qué se entiende por
experiencia. La supuesta experiencia que nos proporciona conocimiento solamente hace tal
cosa en la medida en que se afirma un enunciado que describe el hecho. Pero este
enunciado, ya por serlo, trasciende la observación empírica, inmediata. En realidad,
toda observación está mediatizada ya por la teoría, de modo que las observaciones
perceptivas puras son imposibles.
Así pues, la experiencia no consiste en la acumulación maquinal de teorías, sino que ella misma
es el resultado de decisiones y de interpretaciones libres. Los hechos aparentes de la experiencia
son siempre interpretaciones a la luz de teorías, por lo que tienen el carácter hipotético
o conjetural de todas las teorías"'.
En conclusión las observaciones -y, más todavía, los enunciados de observaciones y los
resultados experimentales- son siempre interpretaciones de los hechos observados realizadas
a la luz de las teorías.
Decisionismo y convencionalismo
Probabilidad y corroborabilidad
Una teoría que se ha tratado de falsar pero que no ha quedado falsada no muestra, en
principio, contradicción con los hechos, pero no se la puede dar por verdadera sin más al no
saberse si no resultará falsa en el futuro. Además, al ser un enunciado universal no puede ser
nunca definitivamente verificada, sino que siempre seguirá siendo una conjetura
provisional. Es_preciso, pues, cambiar el concepto de verdad por el de probabilidad.
Entonces, al atribuir una probabilidad a una hipótesis estamos haciendo una evaluación de
la misma que puede ser verdadera o probable Sin embargo, si se vuelve a atribuir una
probabilidad a este principio entonces estaremos en un regreso al infinito; y si, por el
contrario, se le atribuye la verdad, entonces nos enfrentamos con el dilema de elegir entre la
regresión infinita y el apriorismo. O sea, no sirve la lógica inductiva para caracterizar
una hipótesis cuando ésta ha sido contrastada con la experiencia y ha resistido la
prueba. No podemos decir de ella que sea verdadera y ni siquiera podemos decir que sea
96
probable. Lo único que podemos decir es que está más o menos corroborada. Para
Popper, que una teoría esté corroborada implica sólo que tal teoría es aceptable de manera
provisional.
En suma, decir que una teoría está corroborada cuando es refutable pero no ha sido refutada a pesar
de nuestros intentos, es decir que hemos terminado aceptando una serie de enunciados deducibles
de ella y hemos tomado esta decisión porque estos enunciados no eran deducibles de nuestro
anterior conocimiento fácilmente falsable. Estas condiciones sólo garantizan que la ciencia no
se detenga, no explican que aumente nuestro conocimiento.
El mundo 3
2°) Entre las teorías se produce una competencia que viene a ser como una lucha
por la supervivencia: unas teorías son eliminadas, bien porque no sobreviven a
una prueba de falsabilidad, bien porque las sustituyen otras teorías más poderosas
capaces de resolver más problemas.
Popper invita a abandonar la ilusión de que es posible encontrar puntos de referencia últimos en
los que basar nuestro saber. Y propone una actitud racionalista crítica que acepte que
cualquier teoría es provisional, revisable y superable. Por tanto, Popper se sitúa ya en la
actitud de desimplicación propia de la postmodernidad, que no ve en la filosofía la empresa
de fundamentación de las ciencias, tal como en la tradición moderna, desde Descartes hasta
Husserl y el positivismo lógico, se había considerado. Para Popper, lo que importa no es la
fundación de la ciencia, sino su desarrollo. Optar por la razón no es ella misma una
cuestión racional sino una decisión de la que sólo podemos decir que da buenos resultados,
pero no que sea lógicamente necesaria a priori
El realismo de Popper
Sir Karl Popper propuso, ya allá por el tiempo del Círculo de Viena, una concepción de las
teorías científicas que se opone a varias de las tesis vinculadas a la Concepción Heredada.
Popper rechazó el criterio de verificación como criterio de significación cognitiva, tampoco
está de acuerdo con la Concepción Heredada acerca de la cuestión de si las teorías se deben
analizar en términos de cálculos lógicos artificiales. él mantiene que el problema central de
la filosofía de la ciencia es el del desarrollo del conocimiento científico; y él no cree que el
estudio del desarrollo del conocimiento científico pueda reducirse al estudio de unos
lenguajes artificiales.
97
Popper rechaza la concepción instrumentalista de las teorías arguyendo que el modo de
ensayar las reglas para el cálculo es diferente del modo de verificar las teorías, y que la ha-
bilidad que requiere la aplicación de reglas de inferencia es muy distinta de la que se
necesita para el examen teórico y para la determinación teórica de los límites de
aplicabilidad de las teorías El rechazo del instrumentalismo y de los principios del
esencialismo, lleva a Popper a exponer la siguiente consideración de las teorías: Las teorías
son «conjeturas genuinas —suposiciones acerca del mundo de elevado contenido
informativo, que aunque no son verificables (es decir, aunque no es posible demostrar que
son verdaderas) pueden ser sometidas a severos tests críticos—. Son intentos serios de
descubrir la verdad... aun cuando no sepamos, ni tal vez lleguemos a saberlo nunca, si son
verdaderas o no»
«Las teorías son nuestras propias invenciones, nuestras propias ideas; no nos son impuestas desde
fuera, sino que son nuestros instrumentos de pensamiento forjados por nosotros mismos; esto lo
han visto claramente los idealistas. Pero algunas de esas teorías nuestras pueden entrar en conflicto
con la realidad y cuando esto ocurre, sabemos que hay una realidad; que hay algo que está ahí para
recordarnos el hecho de que nuestras ideas pueden ser equivocadas. Y es por esto por lo que el
realista tiene razón»
Pero aunque el lenguaje descriptivo de la ciencia posea una carga teórica, la terminología de
la ciencia no está vinculada de forma monolítica a las teorías asociadas a ella. Se pueden
mantener simultáneamente varias teorías, y no todos los términos descriptivos obtendrán
su contenido teórico o disposicional a partir de la misma teoría. Esto hace que sea posible
la comparación de teorías, así como su falsabilidad mediante experimentos cruciales. Por
último, dado que las teorías únicamente pueden ser falsadas, pero no confirmadas, Popper
considera injustificado que la ciencia mantenga una teoría con la exclusión de todas las
demás. Las teorías son conjeturas y en la ciencia deben proliferar las teorías tanto como sea
posible, sometiendo a unas cuantas a una posible falsación empírica.
Es, sin duda ninguna, esta proliferación de teorías la que es responsable del desarrollo del
conocimiento científico.
Observación
La ciencia, el glorioso logro del hombre moderno, se halla análogamente situada entre la
matemática pura y la experiencia sensorial bruta; es de la tensión conceptual generada entre
estas coordenadas polares de la que provienen las perplejidades filosóficas sobre la ciencia :
enfocando primero a la Escila del formalismo y mirando después a la Caribdis del
sensorialismo. La ciencia natural se interesa por los hechos de este mundo. Los resultados
de tal interés se articulan en enunciados factuales. (Ninguna colección de enunciados «no-
factuales puede constituir una ciencia natural.). Se precisa de la experiencia observacional
para separar aquellos enunciados factuales que «se cumplen» de los que no se cumplen.
98
sin cerebro —y también los niños y las ardillas— no hacen observaciones científicas, por
muy notables que sean su recepción de señales y su memoria. Ser capaz de dar sentido a los
sensores exige conocimiento y teoría, no sólo más señales sensoriales. Este reconocimiento
de un fuerte elemento teórico dentro de la observación científica conduce algunas veces a
los filósofos a dar a entender que las señales provenientes de la «materia de que se trata»
son menos importantes de lo que realmente son. El teórico presiona al observador con
preguntas como «¿en qué medida las desviaciones del ‘caso ideal’ son atribuidas
simplemente a la tosquedad del aparato experimental?», «¿hasta qué punto son funda-
mentales para nuestra comprensión de los fenómenos las desviaciones, amplitudes de error,
fricciones, dislocaciones, deformaciones, etc. detectadas, cosas todas ellas inseparables de
los instrumentos y técnicas de medición?». En este caso, es como si la «forma conceptual»
de las teorías de; uno, la postura y estatura de las presuposiciones de uno, determinasen
dónde han de «limpiarse» las observaciones; dónde deben realinearse y reprocesarse de
modo efectivo para ser insertadas en el marco teórico de una ciencia, su estructura para la
inteligibilidad.
Sin duda es muy importante reconocer este rasgo central de la observación científica. La
comprensión de los fenómenos se ve a menudo precedida por estudios sobre fluidos
ideales, superficies sin fricción, palancas estrictamente rígidas, cuerpos perfectamente
elásticos, envergaduras infinitas, traslaciones unidimensionales, partículas puntuales y, en
general, «casos puros». Así, el ‘trabajo’ de laboratorio debe estorbar tan poco como sea
posible a la principal función de la empresa científica, a saber, la consecución de
comprensión teórica, de conocimiento. Periódicamente, sin embargo, los teóricos quedan
atrapados en una actitud de «tanto-peor-para-los-hechos». Históricamente, tal confianza
parece casi comprensible, sobre todo después de los «descubrimientos exigidos por la
teoría», como los del antiprotón, el antineutrón, el neutrino, el positrón de Anderson, el
planeta Neptuno (cuyo descubridor fue Leverrier el teórico, no d’Arret, el ayudante de
Galle, que fue el primer hombre cuya retina distinguió el nuevo punto luminoso) Pero aun
así, el «punto medio» filosófico debe ser siempre el que reconozca que las observaciones
significativas de una ciencia son aquéllas que cumplen los criterios de relevancia incorporados
a la teoría vigente y, al mismo tiempo, son capaces de modificar esa teoría mediante el
riguroso e inquebrantable reconocimiento de «lo que es el caso», de los hechos. La ciencia no
fabrica los hechos, por mucho que pueda darles forma, color y orden.
“El ojo nunca podría ver el sol, si no estuviera acostumbrado a él” (Goethe)
Sin embargo la visión es una experiencia. Una reacción de la retina es solamente un estado
físico, una excitación fotoquímica. . Existe una gran diferencia entre un estado físico y una
experiencia visual. Las disparidades entre sus descripciones aparecerán en interpretaciones
ex post facto de lo que se ve, no en los datos visuales básicos. Si se sostiene esto, aparecerán
pronto dificultades adicionales.
99
antílope, sino solamente pájaros.’ No se necesita, sin embargo, que dicho contexto sea
establecido explícitamente. A menudo es «inherente» al pensar, el imaginar y el figurar.
Usted ve un pájaro, yo veo un antílope; el físico ve un tubo de rayos-X, el niño una lámpara
complicada; el histólogo ve coelente-rata mesoglea, el joven estudiante ve solamente un material
informe y pegajoso. Tycho y Simplicio ven un Sol que se mueve; Kepler y Galileo ven un
Sol estático. El examen de cómo diferentes observadores ven cosas diferentes en x pone
de relieve algunas cosas de interés en cuanto al ver la misma cosa cuando miran a x. Si ver
cosas diferentes implica la posesión de conocimientos y teorías diferentes acerca de x,
entonces, cuando ven la misma cosa debe tomarse, quizás, como que los diferentes obser-
vadores comparten conocimientos y teorías acerca de x.
Kepler y Tycho son al Sol lo que nosotros somos a la figura 4, en relación con la cual yo
veo el pájaro y usted sólo ve el antílope. Los elementos de sus experiencias son idénticos;
pero su organización intelectual es muy diferente. ¿Pueden tener sus campos visuales una
organización diferente? Es precisamente el sentido en el que Tycho y Kepler no observan
la misma cosa el que debe tenerse en cuenta cuando se trata de entender los desacuerdos
que existen dentro de la microfísica. La física fundamental es, primordialmente, una
búsqueda de inteligibilidad; es una filosofía de la materia. Solamente de manera secundaria
es una búsqueda de objetos y hechos (aunque los dos cometidos son uña y carne). Los
microfísicos buscan nuevos modos de organización conceptual. Si esto se consigue, se
producirá el hallazgo de nuevas entidades.
En cierto sentido, entonces, la visión es una acción que lleva una «carga teórica». La
observación de x está moldeada por un conocimiento previo de x. El lenguaje o las
notaciones usados para expresar lo que conocemos, y sin los cuales habría muy poco que
pudiera reconocerse como conocimiento, ejercen también influencia sobre las
observaciones.
Para Tycho y para Simplicio ver el amanecer era ver que el brillante satélite de la Tierra
estaba comenzando su circuito diurno alrededor de nosotros, mientras que para Kepler y
para Galileo ver el amanecer era ver que la Tierra, en su giro, les volvía a poner bajo la luz
de nuestra estrella vecina. Examinemos «ver que» en esos ejemplos. Puede que sea el
elemento lógico que conecta el hecho de observar con nuestro conocimiento y con nuestro
lenguaje.
«Ver como» y «ver que» no son componentes de la visión en la misma medida en que las
barras y los cojinetes son parte de los motores; la visión no es compuesta. Con todo se
pueden plantear cuestiones lógicas. «Ver como» y «ver que», por tanto, no son componentes
psicológicos de la visión. Son elementos lógicamente distinguibles del lenguaje sobre la
visión, según el concepto que nosotros tenemos de ésta. Ver un pájaro en el cielo implica
ver que no caerá en barrena repentinamente; y esto es más de lo que aprecia la retina.
Podríamos estar equivocados. Pero ver un pájaro, incluso momentáneamente, es verle en
100
todos estos aspectos. Como diría Wisdom, cada percepción implica una etiología y una
prognosis. «Ver que» inserta conocimiento dentro de nuestra visión; nos libra de
reidentificar cada cosa que encuentran nuestros ojos; permite al físico observar los nuevos
datos como físico y no como una cámara fotográfica.
Como quiera que se interprete, la interpretación está allí, en la visión. Nos atreveríamos a
decir que «la interpretación es la visión». Estas características lógicas del concepto de visión
son inextricables e indispensables para la observación en la investigación física. ¿Por qué
indispensable.’ Una cosa es que los hombres vean de una forma que permita el análisis de
los factores en «ver como» y «ver que»; «indispensable», sin embargo, sugiere que el mundo
debe ser visto así. Esta es una afirmación más fuerte y requiere una argumentación
igualmente fuerte. Digámoslo de otra manera: la observación en física no es un encuentro
con destellos, sonidos y sacudidas poco familiares e inconexos, sino más bien un encuentro
calculado con éstos como destellos, sonidos y sacudidas de una clase particular; esto podría
figurar en una descripción de lo que es la observación. No es seguro, sin embargo, que la
observación no pudiera ser de otra manera. En este momento es necesario este último tipo
de argumentación; con ella se debe establecer que una descripción alternativa sería, no
solamente falsa, sino absurda.
Repárese en una característica lógica: «ver que» y «viendo que» vienen siempre seguidos por
cláusulas «oracionales». La adición de sólo una letra mayúscula inicial y un punto final las
separa como oraciones independientes. Tycho y Simplicio ven que el universo es geocéntrico;
Kepler y Galileo ven que es heliocéntrico. El físico ve que el ánodo de un tubo de rayos-X a un alto
voltaje aparecerá fluorescente. Las frases que he escrito en letras itálicas son unidades oracionales
completas. Nuestra conciencia visual es dominada por imágenes; el conocimiento
científico, sin embargo, es primordialmente lingüístico. La visión es, casi diría, una
amalgama de imágenes y lenguaje. Al menos el concepto de visión abarca los conceptos de
sensación visual y conocimiento.
Significancia, relevancia
Estas nociones dependen de lo que ya conocemos. Los objetos, los sucesos y las imágenes
no son intrínsecamente significantes o relevantes. Si la visión fuera solamente un proceso
óptico-químico, nada de lo que viéramos sería relevante para lo que conociéramos y nada
de lo conocido podría tener significación para lo que vemos. La vida visual sería
ininteligible; a la vida intelectual le faltaría un aspecto visual. El hombre sería una
computadora ciega acoplada a una placa fotográfica sin cerebro. Las imágenes, a veces,
copian originales, el lenguaje puede copiar lo que describe. Pero nada hay en la palabra
«oso» que evoque la forma del oso; nada hay en el sonido de la palabra «oso» que parezca
un gruñido. El que o-s-o haga referencia a osos es debido a una convención que coordina
la palabra con el objeto. No hay nada peligroso en una bandera roja, y, sin embargo, es una
señal con la que se expresa peligro .Las oraciones gramaticales no muestran, por ejemplo, a
los osos subiéndose a los árboles, pero con ellas se puede enunciar que los osos se suben a
los árboles.
101
Cuando se ignoran el lenguaje y las notaciones en los estudios de observación, se considera
que la física descansa sobre la pura sensación y los experimentos de bajo nivel. Se la
describe como una concatenación repetitiva y monótona de sensaciones espectaculares y de
experimentos de laboratorio escolar. Pero la ciencia física no es solamente una sistemática
exposición de los sentidos al mundo; también es una manera de pensar acerca del mundo,
una manera de formar concepciones. El paradigma de observador no es el hombre que ve y
comunica lo que todos los observadores normales ven y comunican, sino el hombre que ve
en objetos familiares lo que nadie ha visto anteriormente.
Frederick Suppe
En el curso de este análisis, Hanson trata en primer lugar de mostrar que la observación y
los hechos incluyen, sin duda ninguna, una organización conceptual —una «carga
teórica»— y que nuestra noción de causalidad tiene algo que ver con cierta forma de
organización conceptual. En cierto sentido, cabe ver el análisis de Hanson como un
suplemento o complemento del que Kuhn hace de las teorías científicas —su tesis de la
naturaleza de la observación como provista de una carga teórica refuerza y desarrolla la idea
de Kuhn de que no existe un lenguaje de observación que sea neutral.
Hanson comienza con una exposición de la observación que tiene el doble objetivo de
desacreditar, por una parte, la tesis de la Concepción Heredada de la existencia de un
lenguaje neutral de observación y de establecer, por otra, la idea de que la observación
posee una «carga teórica».
Y dado que el lenguaje observacional es de tal clase que las afirmaciones que en él se hacen
se pueden verificar por observación directa, esa naturaleza intersubjetiva requiere que todos
los que emplean dicho lenguaje vean las mismas cosas cuando miran a los mismos objetos.
Hanson empieza planteándose es la de si, de hecho, es cierto que dos personas que mantie-
nen teorías radicalmente diferentes acerca de los mismos objetos ven en realidad la misma
cosa.
Lo que Hanson está manteniendo aquí es que, una vez que se admite que la interpretación
influye en lo que uno ve, no hay más remedio que dar por sentado que ver la figura bajo la
interpretación de antílope y verla bajo la interpretación de pelícano equivale a ver dos cosas
diferentes. Hanson pone en duda la afirmación de que la diferencia en lo que se ve sea una
102
diferencia de interpretación, arguyendo que interpretar es una forma de pensar, una acción,
mientras que ver es un estado de experiencia. Hanson se pregunta que si la diferencia en lo
que se ve no es una cuestión de interpretación, ¿qué es entonces?.
Hanson considera una serie de ejemplos, en los que lo que se puede ver depende del
contexto y del conocimiento del observador, de su experiencia y de sus teorías, y concluye
que cuando uno mira a x, ver en x cosas diferentes supone poseer un conocimiento y unas
teorías diferentes acerca de x. Así, por ejemplo, cuando Tycho y Kepler miran el sol, ven la
misma cosa en el sentido de que perciben visualmente el mismo objeto, pero ven cosas
diferentes en el sentido de que la organización conceptual de sus experiencias es enor-
memente diferente. Hay entonces un sentido en el que «la visión es una acción que posee
una “carga teórica”.
Cuál es la naturaleza de dicha acción epistémica? La respuesta de Han-son es que es ver que
Hanson concluye entonces que la acción de ver implica ver que y, por tanto, algún
conocimiento acerca de la conducta de los objetos. que la teoría del núcleo sensorial es
falsa y que, en general, el acto de ver implica cierta organización conceptual implícita en el
conocimiento requerido para ver que.
En realidad, él trata de establecer algo más fuerte, a saber, que estas organizaciones concep-
tuales son «características lógicas del concepto de visión (las cuales) son inextricables e
indispensables para la observación en la investigación física» Pero «ver que» va siempre
seguido de una cláusula oracional y por eso hay en la visión un componente lingüístico o
proposicional. «Hay, pues, un factor ‘lingüístico’ en la visión, aunque en lo que se forma en
el ojo o en el ojo de la mente no haya nada lingüístico» Hanson compara luego imágenes y
afirmaciones lingüísticas, arguyendo que mientras que las imágenes representan cosas en
virtud de la posesión de ciertas propiedades del original, las oraciones no reemplazan a
nada; más bien se emplean para establecer lo que sucede o puede suceder, para hacer afir-
maciones, ofrecer descripciones, suministrar informes, etc.
Esto indica lo que tiene de erróneo la teoría de los datos sensoriales. Pues según los
partidarios de esta teoría, Tycho y Kepler ven la misma cosa —un dato sensorial—. Pero
un dato sensorial es una clase de imagen y, en cuanto tal, representa, pero no se refiere a;
no es, pues, lingüístico; y como se ha demostrado que la visión tiene necesariamente un
componente lingüístico, la teoría de los datos sensoriales debe ser incorrectaEsto indica lo
que tiene de erróneo la teoría de los datos sensoriales. Pues según los partidarios de esta
teoría, Tycho y Kepler ven la misma cosa —un dato sensorial—. Pero un dato sensorial es
una clase de imagen y, en cuanto tal, representa, pero no se refiere a; no es, pues,
lingüístico; y como se ha demostrado que la visión tiene necesariamente un componente
lingüístico, la teoría de los datos sensoriales debe ser incorrecta.
Del anterior resumen se desprende con absoluta claridad que los argumentos de Hanson
no son concluyentes. Incluso dudo mucho de que se haya pretendido que lo sean; más bien
deben considerarse como un conjunto de consideraciones persuasivas destinadas a
convencer a uno de que la versión del núcleo sensorial de la teoría de los datos sensoriales
es incorrecta y de que la observación conlleva una carga teórica.
Después de haber abogado por esta conclusión básica de que visión (u observación)
implica un ver que, Hanson intenta a continuación obtener una serie de consideraciones
paralelas en relación con la causalidad y con los hechos. Analizando los hechos, empieza
por establecer que los hechos no son entidades que puedan observarse o fotografiarse, sino
103
que más bien se expresan en el lenguaje. Una vez establecido que los hechos son
expresables, trata de mostrar que son relativos a un lenguaje. Empieza por preguntarse si
hay hechos expresables en unos lenguajes, pero inexpresables en otros. Esto, a su vez,
indica que, dado el mismo mundo, los dos hablantes habrían concebido el mundo de forma
diferente, al hablar de, y pensar en, él de forma diferente, y lo habrían percibido de forma
diferente.
104
APUNTES DEL PROFESOR
UNIDAD 7
La explicación funcional
D urante el siglo pasado, en especial hasta los años sesenta, estuvo muy extendido el
rechazo del concepto de causa en las ciencias sociales y de la exigencia de que las
explicaciones propias de ellas fueran causales. Uno de los argumentos contra la idea de
causa procedía de un clima de general descrédito que esta noción tenía en la ciencia,
incluida la física donde, según se decía, la indeterminación de algunas parejas de
propiedades contradecía la posibilidad de encontrar explicaciones causales de la evolución
de los sistemas físicos.
Hempel, filósofo de la ciencia que recogió “el legado del positivismo lógico”, abordó una
gran variedad de problemas acuciantes en la metodología de las ciencias sociales y trató de
resolverlos analizando la estructura lógica de esos problemas y de la parte de las teorías y de
los conceptos involucrados que consideró suficiente para aclararlos. En el caso de la
explicación evitó situar como central el problema de la causalidad y ofreció un modelo
principal de explicación, el nomológico deductivo, por relación al cual se analizaban las
peculiaridades de casi todos los tipos de explicación presentes en la ciencia.
Sobre las explicaciones funcionales llegó a la conclusión de que éstas son más débiles que
las explicaciones N-D, porque explican la presencia de un rasgo en un sistema haciendo ver
que ese rasgo es una condición suficiente de una condición necesaria para el mantenimiento
del sistema en un contexto dado, en el caso de los sistemas sociales su entorno natural y los
demás grupos sociales con los que interactúa. Hempel consiguó de esta manera una
reconstrucción bastante adecuada de la estructura de las explicaciones del funcionalismo en
antropología. Aparte de la relativa debilidad de la explicación funcional, el funcionalismo se
enfrentó a varios problemas: identificar cuáles son esas condiciones necesarias para el
mantenimiento de un sistema social, si esas condiciones se pueden especificar con
independencia de las creencias de los propios miembros del sistema social, si todos los
105
rasgos de un sistema contribuyen a su mantenimiento, esto es, si son eufuncionales, puesto
que los sistemas sociales cambian y desaparecen.
El modelo de explicación de Hempel nos sirve para ver que las explicaciones de Harris no
son causales y aclara algunas dificultades del funcionalismo. Pero no nos ayuda de manera
evidente con dos problemas ulteriores. Por una parte, hay explicaciones que son
funcionales porque emplean conceptos definidos funcionalmente. Por otra parte, se
atribuyen con frecuencia funciones a entidades tales como procesos u órganos y también
se dice de ciertos procesos que son funciones. ¿Qué papel tienen esas atribuciones en la
explicación y en la investigación de esas entidades?, ¿qué es una definición funcional de un
concepto?, ¿para qué una atribución de funciones?, ¿qué quiere decir que un proceso es una
función?
106
Un proceso que tiene una función es llamado también él “una función”. Aludir a algún
proceso como una función es señalar que ese proceso ocupa un lugar, que quizá podría ser
ocupado por otro proceso en la constitución de algo que es considerado como alguna clase
de sistema que se puede individualizar y que tiene alguna permanencia. Esto es muy vago y
no pretende dar doctrina ontológica sobre qué son sistemas o qué son organismos. La
necesidad que llena la función, esto es, el proceso descrito como una función, puede ser
una necesidad definicional del tipo de entidad en la cual ocurre el proceso. En los textos
elementales de biología se enumeran las funciones vitales. Un género de entidades que no
pueda alimentarse ni reproducirse no es un género de entidades vivas, por definición. Este
repertorio de funciones vitales elimina la necesidad de referir las explicaciones y
caracterizaciones funcionales del resto de la biología a la genérica “condición necesaria para
el mantenimiento del sistema” a la que alude Hempel.
En realidad muchos de los procesos que son llamados funciones pueden ser descritos sin
aludir al papel que desempeñan para realizar las funciones vitales del organismo en el que
tienen lugar. La fotosíntesis se puede describir en términos exclusivamente bioquímicos sin
referirse a qué papel desempeña en las plantas. Pero se sigue llamando “función” a la
fotosíntesis, y el estudio de las funciones biológicas es en su mayor parte bioquímica. Igual
que otros procesos que no se suelen llamar funciones, como muchas enfermedades. Llamar
“función” a algunos procesos recuerda que desempeñan un papel los organismos de cierto
género. El marco teórico e histórico general que ayuda a determinar qué procesos se
pueden considerar funciones en biología es la teoría de la evolución, que atribuye a la
mayoría de los procesos y órganos de los seres vivos un papel en el manteniento del
individuo o de los genes o de las poblaciones.
Muchos términos de uso legítimo en ciencia son definidos de esta manera. Un término
disposicional es un término que se define por lo que hace un objeto en cierta situación.
Una cosa es más frágil que otra cuando se rompe con más facilidad cuando la golpean. El
conductismo lógico ha sugerido que los términos mentales del lenguaje ordinario se
entiendan como términos que designan disposiciones a conducirse de ciertas maneras
dados ciertos estímulos. Dejando aparte de momento el problema del lenguaje ordinario, la
107
metodología de individualizar estados internos como disposiciones de producir conductas
no destaca algo sobre lo que muchos funcionalistas han llamado la atención: que parece
necesario involucrar en esas definiciones a otros estados internos. Si no se hace esto, por
un lado pasamos del viejo recurso que algunos conductistas emplearon cuando vieron que
era en exceso complicado encontrar correlaciones entre estímulos y conductas y
propusieron recurrir a lo que llamaban “variables intervinientes”. Introducir en las leyes
que explican la conducta variables intervinientes introducir términos que no se referían ni a
la conducta ni a los estímulos. Algunos conductistas proponían que esas variables fueran
definidas en términos de los estímulos y las conductas, que son los aspectos observables del
problema de la conducta, dejando aparte las funciones cerebrales. Cuando Hempel se
ocupa del problema de los términos teóricos parece que está guiado en especial por el
problema de las variables intervinientes, y decide que son necesarias, que son ineliminables
a favor de términos que designen conductas y estímulos, y que una cuestión aparte es si
designan algo o son meros constructos teóricos. Esta última postura es la del
instrumentalismo, que es la posición para la cual se plantea el problema de la eliminabilidad
de los términos teóricos, puesto que para el realista la cuestión es saber qué designan esos
términos y sustituirlos por términos que designen en caso de que los propuestos sean
vacuos.
Sea lo que fuere de esta clase de mecanicismo, se puede decir que los estados cerebrales que
son identificados como estados de máquina de Turing son identificados funcionalmente,
puesto que se les identifica por el papel que desempeñan en un sistema dadas ciertas
entradas en la producción de ciertas salidas. Aunque aquí no hay ninguna alusión
interesante al papel que desempeñan en el mantenimiento del sistema, sino que ellos
mismos son parte del sistema por definición. Se pueden considerar, de todas formas,
equivalentes máquinas de Turing que computen las mismas funciones aunque esas
máquinas no posean los mismos estados y se pueda decir, por lo tanto, que cierto estado
desempeña un papel en la constitución de una máquina.
108
El funcionalismo mecanicista estaba especialmente habilitado para advertir un problema
que tiene una enorme generalidad y un enorme rendimiento en la filosofía de la ciencia.
Podemos idear una máquina de Turing cuyas entradas y salidas sean instanciadas por la
conducta de un individuo en sus comportamientos por así decir acertados o
competentes.Por ejemplo, la inteligencia artificial y la psicología cognitiva durante un
tiempo marcharon juntas en la tarea de diseñar máquinas reconocedoras de formas, en
particular de caracteres escritos. Uno de los puntos en que se produce la divergencia entre
la AI y la psicología es el tratamiento del error. En la AI el problema que hay que resolver
es crear un reconocedor de formas eficaz, hágalo como lo haga. En la psicología hay que
crear un reconocedor de formas que reconozca formas como las reconocen los humanos.
El primer indicio de que los humanos no reconocen formas como las máquinas que
eventualmente han llegado a ser usadas en la industria, incluida la militar, son las pautas de
error. Una máquina confunde caracteres de maneras distintas a como los confunde un ser
humano, y un ser humano confunde caracteres de diferente manera en la lectura que en la
dactilografía.
109
alumnos, etc. El ejemplo es más fácil de entender para los universitarios ingleses, en cuyo
país la universidad es la suma de sus colegios o cualquier otra operación que no involucre la
jerarquización estricta. Quizá Ryle habría pensado que una persona es la colección de sus
instancias subpersonales. Freud pensaba eso mismo.
Chomsky decidiö atribuir las diferencias entre la actuaciön y la competencia a que existe un
módulo mental de los principios básicos de la competencia, que se supone situado en
alguna región del cerebro, mientras que la actuación está producida por la intervención de
ese módulo junto con otros procesos psicológicos. Aunque Chomsky puede estar en lo
cierto, la teoría de la competencia de un lenguaje no es sino una descripción funcional que
puede ser satisfecha por muy diferentes actuaciones pero con ampllia concurrencia de
desviaciones que se pueden considerar errores y tienen que ser explicados en términos
subcompetenciales.
Los filósofos de la mente han discutido sobre la naturaleza de las estados mentales que
corresponden a las actitudes proposicionales y sobre el contenido de éstas. En la psicología
cognitiva clásica, y también en la inteligencia artificial los procesos internos del organismo y
los procesos del ordenador, claro está, se definían como computacionales, lo cual implica
que son sintácticos. Para esto hay muchas razones, las principales metodológicas: si
representamos un proceso mental como una máquina de Turing, entonces los estados de
ese proceso son computacionales. Hay otra razón más que apoya esta concepción. Las
atribuciones de actitudes proposicionales a las personas crean lo que se llama “contextos
opacos” a la cuantificación y a la sustitución. Es evidente que si decimos que Juan cree que
Zapatero ganó las elecciones podemos interpretar esto de dos maneras: cree que un
individuo llamado Zapatero ganó las elecciones o podemos sentirnos tentados de sustituir
“Zapatero” por una descripción propia y decir que Juan cree que el presidente en ejercicio
ganó las elecciones. Parece preferible que no nos permitamos la sustitución cuando de lo
que se trata es de atribuir una creencia a Juan, porque Juan puede no saber que Zapatero
era el presidente en ejercicio en el momento en que tuvieron lugar las elecciones. La
110
interpretación sintáctica de las actitudes proposicionales crea también contextos opacos. Si
decimos que Juan cree “Zapatero ganó las elecciones”, dentro del entrecomillado no
podemos sustituir nada. La oración, cuando es entrecomillada, es una simple cadena de
sign.os. Tiene 24 caracteres y tres espacios. Un procesamiento computacional solo toma en
cuenta estas características de la oración. Naturalmente cuando se hace esto se pierde la
cuestión de la referencia de los nombres y predicados que hay en la oración. Esta pérdida
de la referencia es el motivo de que a la metodología que en ciencias sociales adopta este
punto de vista se la llame “solipsismo metodológico”. Solipsismo porque no se considera
que haya un mundo al que refieran los objetos de las actitudes, ya que esos objetos son
cadenas de signos dentro de las cuales no se permite la sustitución para obtener cadenas
equivalentes.
Sin embargo, tanto en la filosofía de la mente como en la psicología hubo movimientos que
insistieron en el carácter referencial de los estados mentales de actitud proposicional. En la
psicología se señaló que la variedad del mundo, y de lo que de ella saca partido el cerebro,
es tal que lo que ocurre en un laboratorio, donde los patrones de los estímulos están muy
limitados, no sirve para definir funcionalmente los estados psicológicos que explican la
conducta. Este fue el motivo del desarrollo de la psicología ecológica. Además esta clase
de psicología podía tomar en cuenta con más naturalidad los aspectos adaptativos de los
procesos mentales.
En la filosofía de la mente Putnam argumentó que los estados mentales son referenciales,
pero sus argumentos más famosos eran completamente a priori aunque sugerían la
importancia de considerar la naturaleza del entorno en el cual el organismo vive y aprende
el lenguaje. Todo el mundo sabe que los estados mentles de actitud proposicional son
referenciales. La cuestión es cómo hay que especificar el contenido de esos estados para
explicar la conducta. Adelantándose a Matrix, pero no a Descartes, Putnam intentó mostrar
que no es lo mismo ser una persona dotada de cerebro que vive en el mundo real que ser
un cerebro que vive en una bañera y cuyos estados mentales le son producidos por un
tinglado químico y electrónico. Desde luego que no lo es, pero el argumento de Putnam
consistía en decir que la víctima Matrix no puede tener estados mentales que refieran.
Puesto que nuestros estados mentales refieren no somos cerebros en bañeras. El “hecho”
clave del argumento de Putnam es que el sujeto que está en una bañera de esas no puede
decir que está en una bañera y a la vez referir a ello. Puesto que referimos no estamos
111
engañados por la bañera o el demonio cartesiano o Matrix. Un argumento más empírico y
contingente en contra de la practicabilidad de los cerebros en bañeras se basa en la
inverosimilitud de que una máquina pueda alimentar en un organismo la enorme cantidad
de información que éste recibe del mundo exterior. Pero el alcance de este argumento es
menor que el de Putnam, puesto que desde el punto de vista de cuál es la naturaleza de la
información que el organismo recibe del mundo exterior no hay diferencia en cuáles son
los géneros naturales a que refieren las actitudes proposicionales. El mundo del organismo
no es todo el mundo, sino el que el organismo puede apreciar.
El contenido de los estados mentales puede ser expresado de muchas maneras. Parece que
no hay un conjunto fijo de estados físicos en un cerebro que corresponda a cada actitud
proposicional con su contenido, de manera que no quizá posible especificar semejante
conjunto. Por lo tanto la teoría metafísica de la identidad de tipos, que dice que cada tipo
de estado mental es idéntico a un tipo de estado físico, no es correcta. Los estados físicos
en ciertos entornos toman el papel de caracteres sintácticos, y los caracteres sintácticos en
ciertos entornos tienen papel semántico. Esta es la estructura de las descripciones
funcionales. Un trozo de plástico que recibe un baño metálico en ciertos entornos son CDs
cuya lectura genera cadenas de símbolos, y esas cadenas de símbolos pueden disparar en un
ordenador ciertos procesos, como la instalación. Un disco de plástico puede ser solo eso, o
contener secuencias de caracteres o ser un disco de arranque. Todas las descripciones son
correctas, pero las dos segundas presuponen entornos específicos en los que el disco
desempeña un papel.
Los estados cerebrales se pueden describir también de esas tres maneras por lo menos. La
psicología se basa en la suposición de que no es necesario describir el cerebro en sus
términos físicos para poder encontrar leyes que expliquen el comportamiento. En un nivel
funcional de descripción hay autonomía nomológica. La psicología cognitiva clásica
suponía que ese nivel de descripción concibe los estados mentales como estados
computacionales.
Materialistas como Bunge y su grupo Bunge han objetado a priori al funcionalismo y a las
teorías computacionales de la mente que las operaciones del cerebro tienen que depender
de las propiedades materiales del cerebro, y que no se puede hacer abstracción de ellas. Sin
embargo no está nada claro cuáles son las propiedades materiales del cerebro, o
simplemente qué son las propiedades materiales. Una de las cosas que han enseñado los
pensadores posmodernos, con más claridad Quine quizá, es que no hay una ontología
privilegiada que sea la más básica a la que se tengan que reducir todas las demás ontologías.
Es posible que en la consumación de la ciencia la física contenga las teorías más básicas a
las que se reduzcan las demás ciencias.
112
propiedades mentales se entienden como él sugiere, la reducción es posible en principio en
el problema mente cuerpo.
El funcionalismo acerca de las propiedades mentales solo asegura que se puede hacer un
discurso legaliforme cuando se intenta explicar la conducta recurriendo a propiedades
definidas funcionalmente, pero aunque los mecanismos que instancian esas propiedades y
los entornos a que hay que aludir para especificarlas sean físicos, eso no conlleva que
coincidan esas propiedades con propiedades físicas.
113
APUNTES DEL PROFESOR
UNIDAD 9
Kitcher, El Avance de la Ciencia
K itcher ofrece una teoría del cambio científico y del cambio que es progresivo.
Pretende que esa teoría sea naturalista, en el sentido de que la descripción de los
mecanismos e incidentes del cambio se base en lo que se sepa de la psicología y la
sociología del conocimiento. También advierte de que su teoría del cambio depara
idealizaciones, y de la misma forma que la economía clásica describe de manera idealizada
las interacciones económicas, pero ello no le impide ser considerada una ciencia empírica
legítima, su teoría del cambio también puede ser considerada una teoría empírica legítima.
Igual que los de la economía clásica, los supuestos de Kitcher son indivualistas y en
extremo simplificados. El primer supuesto es que la ciencia la hacen sistemas biológicos, el
segundo que la percepción es un proceso en el que un estímulo causa una modificación del
estado cognitivo de ese sistema biológico y que esa modificación depende del estado
cognitivo previo, el tercero es que el razonamiento y la resolución de problemas pueden
involucrar intentos de recordar proposiciones a que el sujeto asentiría si se le preguntara
sobre ellas, y que a veces esos intentos de recordar fracasan; el cuarto que que la resolución
de problemas y la toma de decisiones pueden estar guiados por el deseo de conseguir
ciertas metas y que esas metas pueden cambiar, y el quinto que en algunas situaciones de
resolución de problemas o de toma de decisiones los sujetos pueden emplear formas de
inferencia que lleven a la resolución del problema y otras veces no.
La última tesis es tautológica y no hay más que decir. La segunda es trivial: la ciencia la
hacen sistemas biológicos. Cierto es que algunos programas informáticos han obtenido
fórmulas de síntesis de sustancias orgánicas y cierto es que Dios sabe más que nosotros y
que el entendimiento agente no se queda corto, pero demos la licencia poética. La tercera
tesis involucra la diferencia entre la memoria de reconocimiento y la memoria de
producciòn, y es trivial desde las décadas que hace que se distingue en psicología entre
ambos tipos de memoria. La tesis cuarta es en extremo débil y dice que la resolución de
problemas puede estar guiada por ciertas metas que pueden cambiar. El significado de esta
tesis es escaso o nulo. La quinta tesis solo informa de que los sujetos emplean formas de
inferencia y por lo demás tiene poco contenido.
De las teorías de lo que los psicólogos llaman “procesos”, memoria, percepción, etc., toma
Kitcher unas cuantas indicaciones. Por ejemplo, que la memoria de trabajo de las personas
es bastante limitada, y que la capacidad de revisión de los contenidos de la memoria a largo
plazo está muy limitada. Dado, además, que la memoria está estructurada, desde un estado
de la memoria de trabajo pueden ser inaccesibles elementos de la memoria a largo plazo,
sean declarativos o procedimentales.
114
estímulo, que es, dice Kitcher, la parte más próxima al sujeto de un proceso exterior que
incide causalmente en él. Esta noción es un poco vaga, porque debería ofrecerse alguna
manera de relacionar el estímulo que es apropiado para la creencia con ésta. También se
debería especificar el tiempo de exposición al estímulo o lo que es un proceso: si el tiempo
de exposición al proceso del latido del cosmos, que creo que es incide causalmente sobre
los seres vivos, es casi toda una vida, entonces las creencias inducidas perceptualmente
pueden ser cualquier cosa.
Las creencias dependen siempre del estado anterior del sistema, pero el mero hecho de que
hayamos aprendido una lengua implica que nuestras variaciones internas se proyectan sobre
un amplio conjunto de discriminaciones que podemos hacer en nuestro entorno, y por lo
tanto podemos compartir creencias u oraciones acerca de ese entorno. El sistema global de
oraciones aceptadas tiene una estructura. Es sumamente extraño que Kitcher atribuya a los
positivistas lógicos o a Popper la idea de que en las mentes de los científicos las
proposiciones se almacenan autónomas y en el mismo plano jerárquico, porque los
positivistas lógicos y Popper y Quine, críticos de ellos, apreciaban dn extremo la lógica y
creían en su uso en epistemología y filosofía de la ciencia, y la lógica no considera las
proposiciones como átomos almacenados en el mismo plano jerárquico.
Es una mala idea inferir de la filosofía de la ciencia de los positivistas lógicos una teoría
sobre la mente humana. En 1927 uno de los iniciadores del positivismo lógico, Rudolph
Carnap, sí dio un lugar a alguna consideración psicológica en la constitución de la base
observacional de la ciencia, pero pronto esta base fue abandonada porque los positivistas
lógicos deseaban dar un papel preeminente a la lógica.
Kitcher también atribuye a los positivistas lógicos las tesis de que todos los científicos
pueden sentir los mismos estímulos, o podemos suponer que los sienten, poseen la misma
información y evalúan de la misma manera esta información con fines inductivos, o quizá
solo poseen los mismos principios de inferencia inductiva. Atribuye a estas ideas de los
positivistas lógicos la capacidad de generar la noción de que hay un sistema cognitivo único
que debería gobernar la vida de las personas, de manera que a partir de unos mismos
estímulos alcanzaran todas a creer las mismas proposiciones. Pero en realidad esta
115
atribución solo representa en Kitcher un papel retórico, puesto que sus objeciones se
dirigen a una posición menos florida.
La minuciosa descripción de la mente individual del científico que resultaría de detallar sus
proposiciones, propensiones, etc., no es necesaria, sin embargo, para entender cómo
cambia el acuerdo en la comunidad científica, o la “práctica de consenso”, sino que basta
con una descripción de la práctica del científico que pueda conectarse con su estado mental
por un lado y con los cambios acaecidos en el consenso en la comunidad durante un
período, por otro lado.
Ese nivel de descripción lo encuentra Kitcher examinando los elementos de la práctica del
científico, que son: el lenguaje, las cuestiones del área que se plantea, las representaciones
que acepta, los patrones o esquemas que subyacen a los textos que el científico considera
explicativos, sus ejemploas de informantes confiables y los criterios de credibilidad que
emplea para evaluar las contribuciones al área, los paradigmas de experimentación y
observación, los instrumentos y los criterios de fiabilidad de los instrumentos y de la
experimentación y la observación, y por último muestras de buenos y malos razonamientos
científicos, junto con los criterios para evaluarlos. Todos ellos han sido objeto ya del interés
de muchos filósofos de la ciencia, y la diferencia de Kitcher es dar un tratamiento
naturalista de estos elementos.
Sobre el lenguaje dice que lo que hace que un caso de emisión de palabras por un sujeto se
refiera a algo que hay en el mundo es “el modo de referencia” de esa instancia de emisión, y
la explicación del modo de referencia varía según tres tipos que dependen de la intención
de quien hace la emisión: descriptivo, bautismal y conformista. En el primer el hablante
intenta seleccionar mediante su emisión muestra algo que satisfaga una descripción y el
referente es cualquier cosa que satisfaga esa descripción; en el segundo tipo intenta
seleccionar un objeto presente particular, y se supone que intenta iniciar un uso referencial
de la muestra y en el conformista intenta seguir el uso de otros hablantes. Define el
potencial de referencia de un término tipo como el conjunto de los modos de referencia del
término. Esta teoría le sirve Kitcher para explicar la diferencia que hay entre asentir a “La
estrella matutina es la misma que la estrella matutina” y asentir a “La estrella matutina es la
es misma que la estrella vespertina”. Dice que en el segundo caso el sujeto activa modos de
referencia distintos y posiblemente descriptivos para los términos “estrella matutina” y
“estrella vespertina” y que, si eso es lo que ocurre, el sujeto debe rastrear su memoria
declarativa para determinar el valor de verdad de la oración, mientras que en el primer caso
los modos de referencia activados para cada aparición del términos “estrella matutina”
coinciden. Kitcher reconoce honradamente que el referee de su libro le indicó que no hace
falta activar ningún modo de referencia de a para aceptar que a=a. La enseñanza que saca
116
de su discusión es que los diferentes miembros de la comunidad científica pueden tener en
su lenguaje términos asociados a diferentes modos de referencia, pero que la variedad tiene
un límite.
El científico además acepta enunciados de su área, ninguno de los cuales tiene por qué ser
una ley. El conjunto de enunciados que acepta no está clausurado deductivamente, aunque
algunos de los enunciados que acepta activan propensiones a aceptar otros enunciados y a
iniciar cadenas deductivas. La razón de no pedir la clausura deductiva del conjunto de
enunciados es que los enunciados contradictorios que puedan esconderse en la memoria
declarativa del científico no extiendan la contradicción por el sistema. No está claro si las
razones de Kitcher para decir esto son lógicas o empíricas. Sea lo que sea lo que el
científico tenga en su cabeza, lo que da a conocer a sus colegas por escrito si se considera
que está clausurado deductivamente, se supone.
Que en ese conjunto de enunciados no tenga por qué haber una ley se debe a que en
algunas subáreas de la biología no parece haber una ley característica y propia. Sin embargo,
aunque esto fuera así, los científicos suelen conocer leyes, quizá de otras ciencias más
básicas, que sí que son importantes en la resolución de problemas de su área. Kitcher no
repara en ello y dice que en las áreas a las que alude, el papel explicativo lo suministran en
vez de leyes, patrones.
Estos patrones son otro de los elementos de la práctica que el científico intenta ejemplificar
en sus respuestas a las preguntas por las que se interesa. La definición que da de lo que es
un patrón de argumento general emplea la de enunciado esquemático, que es un enunciado
en el que algunos de sus términos no lógicos está ocupado por una letra esquemática. Para
poner en esos lugares términos con contenido hay unas instrucciones de llenado. Un
argumento esquemático es una secuencia de tales enunciados, y un patrón de argumento es
una clase de argumentos esquemáticos, junto con instrucciones de llenado para cada
término y una clasificación del argumento, que indica qué enunciados son premisas, cuáles
se infieren de cuáles, qué reglas se utilizan, etc. Dice Kitcher que las concepciones del
“orden del ser” que tienen los científicos se identifican con compromisos de utilizar ciertos
esquemas explicativos.
Por último hay ejemplares metodológicos, esto es ejemplos de buenas y malas inferencias,
que son explicados por medio de principios metodológicos. En este terreno, aunque
Kitcher reconoce variaciones individuales, afirma que ellas no justifican la pretensión de
que no hay reglas metodológicas universales.
117
Los individuos pertenecientes a una comunidad científica difieren en sus prácticas, pero
cuando surge una disputa alcanzan un consenso si la disputa se resuelve a favor de una de
las alternativas. A esto lo llama Kitcher “una práctica de consenso”, acerca de la clase de
elementos que constituyen una práctica personal. La autoridad, en particular, se puede
atribuir en muchos casos dentro del área general de una disciplina a ciertas subáreas más
especializadas, y esa autoridad genera un consenso virtual sin entrar en el contenido acerca
de lo que eventualmente puedan decir sus miembros.
Con estas herramientas se propone Kitcher definir la noción de progreso científico. Puesto
que las prácticas científicas contienen varios elementos importantes y Kitcher no desea dar
más peso a unos que a otros, propone definir variedades de progreso. Esta noción se aplica
una secuencia de prácticas, de manera que entre dos prácticas sucesivas hay progreso en la
dimensión correspondiente al elemento que sea, si la segunda práctica se acerca más que la
primera a las metas más impersonales compartidas por los miembros de la comunidad.
(a) con excepción de las expresiones que están en esos conjuntos, todas las expresiones
que aparecen en cualquiera de los lenguajes aparecen en ambos lenguajes con un
potencial de referencia común
(b) para cualquier expresión e en C1, si hay una clase a la que alguna instancia de e
refiere, entonces hay una expresión e* de C2 que tiene instancias y que refiere a esa
clase
(c) para cualquier e, e*, [como en (b)], el potencial de referencia de e* refina el potencial
de referencia de e, ya sea añadiendo una descripción que detecta la clase pertinente,
118
o bien abandonando una determinación del modo de referencia que pertenece al
potencial de referencia de e que no detectó la clase pertinente. (pp. 150-151).
Aunque Kitcher ofrece una alternativa entre el realismo y alguna clase de coherentismo
para que interpretemos la corrección, está muy interesado en quitar obstáculos del camino
del realismo. Después de señalar, como otros autores hicieron, la relación entre verdad y
referencia, dice “puesto que podemos esperar entender la referencia en términos
naturalistas, como una relación entre personas y otras entidades, no hay nada mágico,
misterioso o sobrenatural acerca del concepto de verdad” (p. 189).
119
TEXTOS DE FILOSOFÍA
DE LA CIENCIA
L as explicaciones hasta aquí consideradas se pueden concebir, entonces, como
argumentaciones deductivas cuya conclusión es el enunciado explanandum, E, y cuyo
conjunto de premisas, el explanans, consta de leyes generales, L1, L2, ..., Lr y de otros
enunciados C1, C2, ..., Ck, que hacen asertos acerca de hechos concretos... A las
explicaciones de este tipo se las llamará explicaciones por subsunción deductiva bajo leyes
generales, o explicaciones nomológico-deductivas.
120
sin interpretar, por muy industriosamente que las acumulemos y escojamos; el único medio
que tenemos de interpretar la naturaleza son las ideas audaces, las anticipaciones
injustificadas y el pensamiento especulativo: son nuestro solo organon, nuestro único
instrumento para captarla. Y hemos de aventurar todo ello para alcanzar el premio: los que
no están dispuestos a exponer sus ideas a la aventura de la refutación no toman parte del
juego de la ciencia.
Nuestras refutaciones, por ende, nos indican los puntos en los que hemos tocado la
realidad, por así decir.
H ay una importante distinción que podemos hacer entre dos tipos de predicción
científica, y que el instrumentalismo no puede efectuar... Me refiero a la distinción
entre la predicción de sucesos de tipo conocido, tales como eclipses o tormentas de truenos, y la
predicción de nuevos tipos de sucesos (lo que los físicos llaman “nuevos efectos”), como las
predicciones que condujeron al descubrimiento de ondas inalámbricas, a la energía de
punto cero o a la construcción artificial de nuevos elementos que no se encuentran en la
naturaleza.
T iene ante él un problema un problema científico: quiere hallar una nueva teoría capaz
de explicar ciertos hechos experimentales, algunos de los cuales eran explicados
exitosamente por las teorías anteriores, otros no explicados por ellas y otros que las
refutaron. La nueva teoría también debe resolver, si es posible, algunas dificultades
teóricas...
Pero eso no es suficiente... La nueva teoría debe partir de una idea simple, nueva, poderosa
y unificadora acerca de alguna conexión o relación... entre cosas... o hechos... o nuevas
entidades teóricas.
Requerimos [tercer requisito] que la teoría salga con éxito de los nuevos y severos tests.
121
Popper, El Desarrollo del Conocimiento Científico.
¿N oevolución
podemos explicar tanto la existencia como el éxito de la ciencia en términos de
a partir del estado de conocimiento de la comunidad en cualquier
momento dado? ¿Acaso sirve de algo imaginar que existe una descripción plena, objetiva y
verdadera de la naturaleza y que la medida adecuada de una realización científica es hasta
qué punto nos aproxima a dicho fin último?
122
verdad o la falsedad son irrelevantes para que las teorías y las tradiciones de
investigación deban ser aceptadas o proseguidas.
5. Todas las valoraciones de las tradiciones de investigación y de las teorías se deben
hacer en un contexto comparativo. Lo que importa no es lo efectiva o progresiva que es
una tradición o una teoría en un sentido absoluto, sino lo efectiva o progresiva que
es en comparación con sus competidoras.
[un núcleo K es una estructura que consta de los modelos posibles, los modelos actuales de
entre los posibles, los modelos parciales posibles y unas condiciones de ligadura que se
definen sobre los modelos posibles]
H izo falta una actitud mental especial, inserta en una estructura social particular y
combinada con una secuencia excepcional de accidentes, para descubrir, formular,
comprobar y establecer leyes físicas y cosmológicas básicas.
Los realistas científicos suponen que lo que fue hallado de esta manera idiosincrásica y
culturalmente dependiente (y está, por lo tanto, formulado y explicado mediante términos
idiosincrásicos y culturalmente dependientes) existe independientemente de las
circunstancias de su descubrimiento.
...Mas, si los entes postulados por una visión científica del mundo pueden ser considerados
reales con independencia de tal perspectiva, ¿por qué no los dioses?
123
U na tentación adicional para el observador –una vez enfrentado a un conjunto de
enunciados y a una realidad con la que se corresponden esos enunciados- es
maravillarse del perfecto emparejamiento entre la afirmación del científico y la realidad
externa. Ya que el asombro es la madre de la filosofía, es posible incluso que el observador
comience a inventar todo tipo de sistemas fantásticos para dar cuenta de esta milagrosa
adequatio rei et intellectus. Para contrarrestar esta posibilidad ofrecemos nuestras
observaciones sobre el modo en que se construye ese tipo de ilusión dentro del laboratorio.
Q uerealmente
un fenómeno periódico dado (una oscilación eléctrica, por ejemplo) se deba
a la vibración de un átomo dado que, comportándose como un péndulo, se
desplaza realmente de esta o aquella manera, no es ni cierto no esencial. Pero que hay una
relación íntima entre la oscilación eléctrica, el movimiento del péndulo y todos los
fenómenos periódicos, y que eso corresponde a una realidad profunda; que esta relación,
esta semejanza, o más bien paralelismo, e continúa en los detalles; que es consecuencia de
principios más generales como el de la conservación de la energía y el de la acción mínima,
esto lo podemos afirmar; ésta es ka verdad que permanecerá inalterable bajo cualquier
vestido que queramos ponerle.
L a ciencia aspira a darnos teorías que sean adecuadas empíricamente; y la aceptación de una teoría
conlleva en cuanto a creencias sólo que es adecuada empíricamente. Esta es la formulación de la
posición antirrealista que defiendo; la llamaré empirismo constructivo...
E s manifiesto que, si falta algún sentido, es necesario que falte también alguna ciencia,
que será imposible adquirir. Puesto que aprendemos por comprobación o por
demostración, y la demostración parte de las cuestiones universales, y la comprobación, de
las particulares, pero es imposible contemplar los universales si no es a través de la
comprobación (puesto que, incluso las cosas que se dicen procedentes de la abstracción,
solo será posible hacerlas cognoscibles mediante la comprobación de que en cada género se
dan algunas y, si no existen separadas, mediante la comprobación de cada una en cuanto
precisamente tal), ahora bien, es imposible comprobar sin tener la sensación. En efecto, la
sensación lo es de los singulares. Pues no cabe adquirir ciencia directamente de ellos; ni
cabe adquirirla a partir de los universales sin comprobación, ni a través de la comprobación
sin sensación.
124
Eliminación del principio de inducción y un atisbo de la distinción entre el
contexto de justificación y de descubrimiento
¿C ómo, pues, se descubren las leyes? Esta pregunta se divide en tres, basándonos en el
hecho de que las leyes siempre son propuestas antes de que se las pueda probar.
Primero, ¿cómo se sugieren las leyes? Segundo, ¿cuál es la naturaleza de los experimentos
que las prueban? Tercero, ¿cuál es el fundamento de la prueba?
A la primera pregunta se responde que las leyes siempre son sugeridas por las teorías... La
tercera pregunta nos lleva a la inducción. ¿Qué hemos de poner en lugar de la ley de la
causalidad? Argumento que no debemos poner nada. Nos damos cuenta de que nunca
podemos probar que una ley es verdadera. Por otro lado podemos hacer lo que los cánones
[de Mill] no pueden, a saber: probar que una ley propuesta no es verdadera.
Por otro lado, el predicado ‘rojo’ no puede ser observado por una persona que confunda
los colores. Y el predicado ‘un campo eléctrico de tal magnitud’ noes observable por nadie
porque, aunque sabemos cómo comprobar u tenemos que aplicar determinados
instrumentos y, por lo tanto, hacer muchas observaciones preliminares para descubrir si las
cosas que tenemos ante nosotros son instrumentos del tipo requerido.
P ero debo confesar que el poder de la naturaleza es tan amplio y vasto, y estos
principios son tan simples y generales, que difícilmente he observado algún efecto
particular que de algún modo no se pudiera deducir a partir de los principios; mi mayor
dificultad consiste generalmente en descubrir en cuál de estas formas el efecto depende de
las causas: Para remediar esta dificultad no conozco otro planteamiento que intentar
encontrar experimentos de tal naturaleza que sus resultados no fueran los mismos si se
explicaran por uno de los métodos que si se explicaran por otro.
Descartes, Meditaciones
125
Magia y enfermedad
M is interlocutores distinguen sin dudas dos grandes categorías de males: los tunchi,
provocados y sanados por los chamanes, y los sunkur, es decir, todo el resto. No
obstante, la diferencia depende del contexto y no abarca en ningún caso una distinción
marcada entre “brujería” y “enfermedad”. De hecho, la mayoría de los sunkur resultan, en
última instancia, de las artimañas de un hombre o de un espíritu.
Un chamán actúa a distancia por medio de proyectiles invisibles, los tsensak, que otro
chamán puede extraer del cuerpo de la persona afectada si posee tsensak de la misma clase.
Las curas que observamos apelan en diversos grados a esas técnicas que llamamos ‘mágicas’
a falta de mejor nombre y que están lejos de ser patrimonio exclusivo de los chamanes:
‘barrer’... para disipar o paliar la enfermedad, ‘soplar’... el aire o el tabaco sobre el cuerpo
del paciente o sobre un líquido que él deberá ingerir, ‘chupar’... la parte que duele para
extraer el mal o transmitir su fuerza, recitar fórmulas estereotipadas, etc.
N o hay, por tanto, “reglas de inducción” generalmente aplicables por medio de las
cuales se puedan derivar o inferir mecánicamente hipótesis o teorías a partir de los
datos empíricos. La transición de los datos a la teoría requiere imaginación creativa. Las
hipótesis y teorías científicas no se derivan de los hechos observados, sino que se inventan
para dar cuenta de ellos.
En qué consiste elucidar un concepto según Carnal y cuál fue uno de los objetivos
de la CH según Suppe
M e parece que de las obras de Carnap y Hempel se deduce con toda claridad que lo
que ellos pretendieron con toda claridad fue ofrecer una elucidación del concepto de
Teoría Científica.
La tarea de la elucidación consiste en transformar un concepto dado, más o menos inexacto, en otro
exacto, o mejor aún, en sustituir el primero por el segundo... [el segundo] debe ser introducido por
medio de reglas explícitas de uso, p. e., por medio de
126
una definición que lo incorpore a un sistema bien construido de conceptos científicos lógico-
matemáticos o empíricos.
Postúlese... que si una recta al incidir sobre dos rectas hace los ángulos internos del mismo
lado menores que dos rectos, las dos rectas prolongadas indefinidamente se encontrarán en
el lado en el que están los ángulos menores que dos rectos.
Si de dos cosas iguales se quitan cosas iguales, los restos son iguales.
Euclides, Elementos
P or tanto, observar lo que el físico de Duhem considera que está observando requiere
algo más que una visión normal. Los receptores de señales ópticas, no importa lo
sensibles y exactos que sean, no pueden proporcionar todo lo que se necesita para observar
la resistencia eléctrica. Se presupone también un conocimiento; la observación científica es,
por tanto, una actividad “cargada de teoría” (por una expresión de Patrones de Descubrimiento
que parece estar ahora en boga).
E n cierto sentido, entonces, la visión es una acción que lleva una “carga teórica”. La
observación de x está moldeada por un conocimiento previo de x. El lenguaje o las
notaciones usados para expresar lo que conocemos, y sin los cuales habría muy poco que
pudiera reconocerse como conocimiento, ejercen también influencia sobre las
observaciones.
La definición, Hempel
L a idea de que la expresión definiendum [la expresión que está siendo definida] de una
definición nominal adecuada debe consistir sólo del “nuevo” término a ser
introducido es una concepción errónea que tal vez está relacionada con la doctrina clásica
de que toda definición debe estar establecida en términos del genus proximum y la
differerentia specifica... Realmente, esta doctrina es injustificable por varias razones.
Primero, una definición por género y diferencia caracteriza una clase o una propiedad
como producto lógico de otras dos clases o propiedades; por ello, este tipo de definición es
inaplicable cuando el definiendum no es una clase o una propiedad sino, digamos, una
relación o una función.
127
El análisis empírico y el análisis de significado difieren entre sí y de la definición nominal.
El análisis empírico se ocupa no de expresiones lingüísticas y sus significados, sino de
fenómenos empíricos: establece características que son, como una cuestión de hecho
empírico, condiciones tanto necesarias como suficientes para la realización del fenómeno
bajo análisis.
Reglas de correspondencia
P ara representar las actividades del laboratorio como las de una cultura remota y
explorar así de qué manera se puede generar una explicación ordenada de la vida del
laboratorio sin recurrir a conceptos explicatorios de los propios habitantes, se utiliza la
noción de rareza antropológica.
Medición y metrización
A quí vamos a tratar de los conceptos métricos o magnitudes (conceptos que aplican
números a cosas) tales como la edad, la energía o la distancia. Aquí vamos a tratar de
los conceptos métricos, que hacen de puente entre el mundo empírico real y Edmundo
ideal de las matemáticas, permitiéndonos así construir modelos matemáticos de la realidad.
128
Metrizar un ámbito cualitativo consiste en representarlo numéricamente. Esta
representación numérica toma la forma de una escala. Una escala es un homomorfismo de
un sistema cualitativo empírico en un sistema numérico. Un concepto métrico o magnitud
es un conjunto de escalas del mismo tipo (transformables unas en otras mediante
transformaciones permisibles) del mismo sistema empírico en el mismo sistema
matemático.
Hay que distinguir claramente los problemas de medición de los de metrización. Cuando ya
disponemos de un concepto métrico para un ámbito determinado, y de lo que e trata es de
averiguar cuál es el valor (el número) que (una escala de) ese concepto asigna a un objeto
determinado del dominio, nos encontramos con una tarea de medida. Cuando, por el
contrario, carecemos de un concepto métrico para un ámbito que de momento sólo nos es
dado cualitativamente, y de lo que se trata es de introducir por primera vez un concepto
métrico que lo cuantifique, nos encontramos ante un problema de metrización.
L os sentidos o el testimonio deben decidir sobre los hechos individuales, las reglas del
silogismo determinarán si, suponiendo que esos hechos sean correctos, el caso cae
verdaderamente bajo las fórmulas de las diferentes inducciones bajo las que sucesivamente
ha sido puesto, y, por último, la legitimidad de las inducciones mismas se ha de decidir
mediante otras reglas, y nuestro propósito ahora es investigar éstas.
Clasificaciones, Mosterín
Toda partición da lugar a una relación de equivalencia y... toda relación de equivalencia da
lugar a una partición.
En general, suele considerarse que una clasificación es más natural que otra si los conceptos
que constituyen la primera son más fecundos científicamente, en el sentido de que sirven
para formular leyes más generales o más precisas o con más poder explicativo o predictivo.
129
Mosterín, Conceptos y Teorías en la Ciencia
L os elementos mínimos del análisis estructural de las teorías físicas son sus modelos y
no sus enunciados. Los modelos de una teoría son los correlatos formales de los
trozos de realidad que la teoría explica. El concepto de modelo es pues fundamental.
Un modo posible de explicar el concepto de modelo de una teoría empírica sería construir
primero un lenguaje formal en el cual se expresase la teoría en cuestión, dar luego una
interpretación semántica de ese lenguaje sobre un universo empírico y definir finalmente la
noción de satisfacción de una fórmula del lenguaje en ese universo. Se dice que la
interpretación es un modelo de un determinado conjunto de fórmulas que se toman como
axiomas si esas fórmulas son satisfechas en ese universo bajo esa interpretación.
130
predicado en función de nociones de la teoría de conjuntos. Un predicado así definido se
llama un predicado conjuntista.
Cuando se axiomatiza una teoría por definición de un predicado conjuntista, por modelo
de la teoría se quiere decir simplemente una entidad que satisface el predicado.
Naturalización de la epistemología
Paradigmas
En adelante me referiré con el término paradigmas a los logros que comparten estas dos
características, término que se conecta estrechamente con el de ciencia normal. Al elegir
este término, es mi intención sugerir que algunos ejemplos aceptados de práctica científica
efectiva, ejemplos que incluyen conjuntamente leyes, teorías, aplicación e instrumentación,
suministran modelos de los que surgen tradiciones particulares y coherentes de
investigación científica.
Por otro lado, en la ciencia un paradigma rara vez es un objeto que se pueda replicar. Por el
contrario, es un objeto que debe articularse y especificarse en condiciones nuevas o más
rigurosas, al modo de una decisión judicial aceptada que sienta precedente.
Para mostrar cómo puede ser así hemos de reconocer hasta qué punto el paradigma puede
ser notablemente limitado tanto en amplitud como en precisión en el momento en que
surge.
131
Las operaciones de retoque ocupan a la mayoría de los científicos a lo largo de sus carreras.
Constituyen lo que llamo aquí ciencia normal. Si se examina detenidamente, sea
históricamente o en el laboratorio contemporáneo, dicha empresa parece ser un intento de
meter a la fuerza a la naturaleza en los compartimentos prefabricados y relativamente
inflexibles suministrados por el paradigma. Entre los objetivos de la ciencia normal no hay
ninguno qu exija nuevos tipos de fenómenos, y en realidad los que no encajan en esos
compartimentos frecuentemente ni siquiera se ven. Tampoco entra normalmente entre los
objetivos de los científicos inventar teorías nuevas, y a menudo son intolerantes con las
inventadas por otros.
Todos o la mayoría de los objetos del compromiso de grupo que mi texto original
consideraba paradigmas, partes de paradigmas o paradigmáticos son constituyentes de la
matriz disciplinar y en cuanto tales forman un todo y funcionan juntos. No intentaré dar
una lista exhaustiva... generalizaciones simbólicas... partes metafísicas de los paradigmas...
valores... ejemplares...
E s una sucesión de teorías y no una teoría dada lo que se valora como científico o pseudocientífico.
Pero los miembros de tal serie de teorías están generalmente conectados con una
notable continuidad que los suelda en programas de investigación. Esta continuidad –que
recuerda a la ‘ciencia normal’ de Kuhn- desempeña un papel vital en la historia de la
ciencia...
Todos los programas de investigación científica se pueden caracterizar por su ‘núcleo duro’.
La heurística negativa nos prohíbe dirigir el modus tollens contra este ‘núcleo duro’. Por el
contrario, hemos de usar nuestro ingenio para articular o incluso inventar ‘hipótesis
auxiliares’, que formen un cinturón protector en torno a ese núcleo, y tenemos que dirigir el
modus tollens contra éstas. Es este cinturón protector de hipótesis auxiliares el que tiene que
aguantar el peso de las contrastaciones y ser ajustado y reajustado, o incluso completamente
sustituido, para defender el núcleo endurecido por este medio. Un programa tiene éxito si
conduce a cambios progresivos de problemas; fracasa si conduce a cambios degenerativos
de problemas.
132
Tomemos una sucesión de teorías, T1, T2, T3,... donde cada teoría sucesiva resulta de
añadir cláusulas auxiliares a (o de reinterpretaciones de) la teoría anterior con el fin de
acomodar alguna anomalía, de manera que cada teoría tenga al menos tanto contenido
como el contenido no refutado de su predecesora. Diremos que tal serie de teorías es
progresiva teóricamente (o ‘constituye un cambio de problemas teóricamente progresivo’) si cada nueva
teoría tiene un contenido empírico que excede al de su predecesora, esto es, predice algún
hecho nuevo y hasta el momento inesperado. Diremos que una serie teóricamente
progresiva de teorías es también progresiva empíricamente (o ‘constituye un cambio de
problemas empíricamente progresivo’) si parte de este contenido empírico extra está
además corroborado, esto es, si cada nueva teoría nos conduce al descubrimiento auténtico
de un nuevo hecho. Finalmente, diremos que un cambio de problemas es progresivo si lo es
teórica y empíricamente y degenerativo si no lo es. Solo ‘aceptamos’ como ‘científicos’ los
cambios de problemas que son por lo menos progresivos teóricamente; si no lo son, los
‘rechazamos’ como ‘pseudocientíficos’.
[Las construcciones de Carnap en Der Logische Aufbau der Welt] hubieran hecho que
todo discurso cognitivo resultase tan claro como los términos de observación y la lógica y,
he de añadir con pesar, la teoría de conjuntos.
Si Carnap hubiera llevado a cabo con éxito, y enteramente, una tal reconstrucción, ¿cómo
hubiera podido decir si esa construcción era la correcta? Esta cuestión no hubiera tenido
lugar. Carnap hubiera perseguido lo que llamaba una reconstrucción racional. Cualquier
construcción del discurso fisicalista en términos de la experiencia sensible, la lógica y la
teoría de conjuntos habría sido considerada como satisfactoria si hubiera conseguido que el
discurso fisicalista resultase correcto. Si hay un modo de hacerlo, hay también otros, pero
cualquiera de ellos habría sido un gran logro.
E l crítico literario moderno no concibe su propia tarea como una mera descripción del
contenido de una obra literaria ni como una exégesis de la misma, sino más bien
133
como un análisis interpretativo que le permite revelar las estructuras implícitas,
subyacentes, de las cuales el autor mismo es inconsciente en la mayoría de los casos. Para
lograr esto, el crítico literario tiene que subsumir esa obra como objeto cultural bajo ciertas
categorías formales presupuestas. De una manera similar, la tarea del filósofo de la ciencia
consiste en reconstruir, es decir, interpretar las obras científicas para poner al descubierto e
identificar las estructuras abstractas subyacentes que llamamos teóricas.
L a versión final de la Concepción Heredada, que considera que las teorías científicas tienen
una formulación canónica que satisface las condiciones siguientes:
134
tal que todo término no-Vo (esto es, no primitivo) de Lo esté
explícitamente definido en Ko; además de esto, Ko debe admitir al menos
un modelo finito.
4. Lo y sus cálculos asociados reciben una interpretación semántica que satisface las
siguientes condiciones:
5. Una interpretación parcial de los términos teóricos y de los enunciados de L que los
contienen se consigue mediante las dos clases de postulados siguientes: los postulados
teóricos T (esto es, los axiomas de la teoría) en los que sólo aparecen los términos de
Vt y las reglas de correspondencia o postulados C, que son los enunciados mixtos. Las
reglas de correspondencia C deben satisfacer las siguientes condiciones:
135
...la teoría científica, basada en L, T y C, consiste en la suma de T y C y es designada por
‘TC’.
136