Вы находитесь на странице: 1из 19

LENGUAJE Y CONOCIMIENTO: EL PAPEL DE LA AUTORIDAD

Una secuencia de signos debidamente estructurados según sus normas internas, puede
representar realidades diversas. Por ejemplo, en álgebra (del árabe, “reducción”), a
puede representar una “casa” y b, el número de personas sin acceso a ella.
Operaciones realizadas con estos signos, según su especial sistema de vínculos
internos, permite a sociólogos, administradores o economistas calcular la tasa de
actividad necesaria en la construcción, para que las personas sin casa lleguen a tener
una, en un determinado período.

Se trata de operaciones mentales mediante signos que si bien tienen su base en


constataciones cuantitativas de realidad (vg. representar la velocidad de construcción
de casas histórica, crecimiento vegetativo de la población, tasa de matrimonios,
ahorro, número de allegados, etc.), permite a los gobiernos planificar la actividad y
prever en qué plazo se pueden cumplir determinadas metas. Más allá de promesas
populistas, se presume que si los cálculos están bien hechos y los factores incluidos se
mantienen “ceteris paribus”1, las expectativas se deberían cumplir en el lapso
estimado.

Es decir, gracias al sistema de relaciones entre signos que la especie ha ido generando
como modelo de operaciones posibles entre aquellos, merced a las posibilidades de los
“programas” filogenéticos que porta, se podrán realizar múltiples cruces mentales que
ofrecerán, a quien los usa, resultados que le permitirán, en el caso de las
matemáticas, álgebra, lógica y/ o geometría, la construcción de un discurso coherente,
sistemático, consistente, que dará enorme fuerza argumental a los modos de gestionar
el mundo y que eventualmente, predecirá el futuro.

En efecto, tanto en matemática como en lenguaje natural, son sus posibles relaciones
y reglas del juego internas las que explican los resultados de las operaciones
realizadas mediante los variados vínculos predefinidos entre los signos, y que permiten
establecer o proyectar la “conducta” del fenómeno calculado. Por eso es que Philip J.
Davis y Reuben Hersh2 definen la matemática como “el estudio de los objetos mentales
con propiedades reproducibles, es decir, probables”.
1 Cæteris páribus, habitualmente escrita como ceteris paribus o céteris páribus, proviene del latín, que
significa “permaneciendo el resto constante”. Ceteris es “lo demás o el resto”. Par, “igual”, como en
castellano “a la par”. En ciencias se denomina al método en el que todas las variables de una situación se
mantienen constantes, menos aquella cuya influencia se desea analizar.
2 Philip J. Davis, Ruben Hersh. The Mathematical Experience, Study Edition. Boston, 1995
Pero “probable” no es equivalente a “verdad” y lo que sustantivamente trasunta la
definición es que epistemológicamente no tenemos instrumentos que aseguren que lo
que observamos y/o hasta experimentamos de un fenómeno es “lo que es”. En efecto,
Alan Chalmers3 nos recuerda que en el denominado “inductivismo ingenuo”, la ciencia
se inicia con la simple observación, aunque para aquello se requiere que el observador
científico tenga órganos de los sentidos en condiciones normales y “esté libre de
prejuicios” (¡nada menos!). A los enunciados a los que se llega a través de la
observación se les conoce como observacionales, de los cuales se derivarán, mediante
la generalización lingüística, teorías y leyes que constituirán conocimiento científico.

Dos son los tipos de enunciados observacionales: los llamados “singulares”, derivados
de la observación de un determinado fenómeno, en un específico momento y lugar; y
“generales”, que se refieren a todo acontecimiento de determinado tipo que se nos
presente regularmente en todos los lugares y tiempos. Leyes y teorías que forman el
conocimiento científico son enunciados de este último tipo, denominados “universales”.

Las condiciones que deben cumplir los “singulares” para establecer generalizaciones
universales, por su parte, son tres: que el número de enunciados observacionales sea
grande, vale decir, no es válida una generalización a partir de una sola observación;
que las observaciones se repitan en una amplia variedad de condiciones, y que ningún
enunciado observacional aceptado contradiga la ley universal que de él se deriva. Tal
forma de razonamiento, que nos permite ir de enunciados singulares a universales, de
la parte al todo, es lo que se llama racionamiento inductivo, y al proceso, la inducción.

Una vez que se establecen leyes y teorías universales, se puede extraer de ellas
consecuencias que permitirán explicaciones y predicciones. El razonamiento empleado
para obtener estas derivadas se conoce como deducción, es decir, ir desde el todo a la
parte. La disciplina que estudia este tipo de raciocinio es la Lógica. Pero la lógica y la
deducción por sí solas no pueden establecer la verdad de enunciados fácticos, aunque
su impecabilidad pudiera convencernos, dado que, siguiendo las reglas de la lógica,
puede haber deducciones válidas aún cuando una de las premisas y/o la conclusión
sean falsas. De este modo, para el inductivismo, la fuente de verdad de un enunciado
no está en su lógica, sino en la experiencia. Sólo una vez establecida la veracidad
experimental se puede inducir otra validez derivada.
3 Alain Chalmers. ¿Qué es esa cosa llamada ciencia? Editorial Siglo XX. Madrid.1997
Pero la validez y justificación del principio de inducción también pueden ponerse en
duda. En efecto, en relación a la validez (no a la “verdad”), se sostiene que las
argumentaciones lógicas válidas se caracterizan por el hecho que si las premisas son
verdaderas, la conclusión debe ser verdadera. Pero, como hemos visto, los argumentos
inductivos no pueden validarse mediante lógica, por que podría darse el caso de
conclusiones falsas con premisas verdaderas, sin que aquello constituya una
contradicción.

Un ejemplo corresponde a K. Popper, quien señalaba que si se observa en repetidas


ocasiones y en variadas circunstancias cisnes blancos, se puede deducir que todos los
cisnes son blancos. Pero, como es evidente no hay garantías que el próximo cisne que
se observe no sea uno negro. Si así sucediera, la conclusión “todos los cisnes son
blancos” es falsa.

Es decir, la experiencia como validez se enfrenta al hecho que las regularidades


detectadas por el cerebro son, sustantivamente, patrones mentales, porque “en la cosa
en sí”, la evolución de hechos y fenómenos, únicos e irrepetibles, es desde esta
perspectiva, caótica. En efecto, el sistema evoluciona como conjunto, generando olas
de reacciones en todas direcciones cada vez que una parte se debe ajustar al todo y el
todo a esa parte, como resultado de su necesidad de equilibrio homeostático y en
lucha contra la entropía que amenaza a todo sistema, según la idea esbozada con
arreglo a la translación de evidencias extraídas de la Física clásica en la Segunda Ley
de Termodinámica4.

Pero la emergencia del paradigma relativista de comienzos del siglo XX en la ciencia


como preámbulo; el auge y declinación de la sociedad industrial, la masificación de la
Internet, la Web y las NTIC en los albores de la Sociedad de la Información y del
Conocimiento, pareciera evidenciar el término de un ciclo, la reestructuración de los
poderes tradicionales y el surgimiento de nuevos centros de que darán significación a
los nuevos escenarios creativos del futuro. En ellos, las certezas mecanicistas e
industriales ya no otorgan convicciones y sólo se opera la “realidad” mediante la

4 La segunda ley de la termodinámica expresa que “la cantidad de entropía de cualquier sistema aislado
termodinámicamente tiende a incrementarse con el tiempo”, es decir, cuando una parte de un sistema
cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un
equilibrio térmico.
“probabilidad”: no se afirma que generalizaciones a las que se arriba por inducción
sean perfectamente verdaderas, sino “probablemente” verdaderas.

La propia observación y el papel del observador también resultan polémicos por la


resignificación epistemológica de la relación objeto-sujeto, tanto por la
interdependencia dialéctica entre ambos conceptos, como porque, como hemos visto,
dos personas que observen el mismo objeto, aún desde el mismo lugar y en iguales
circunstancias no tienen necesariamente idénticas experiencias visuales como “huella
psíquica”, aunque las imágenes pre-atentivas que se produzcan en sus retinas sean
prácticamente idénticas, dadas las múltiples hermenéuticas inducidas por sus distintos
contextos.

Ortega y Gasset (1883-1955) nos mostraba cómo ven un árbol un viajero cansado en
busca de sombra, un leñador que lo derribará para comercializarlo y un pintor que
desea llevarlo a la tela. Lo que un observador ve, cuando ya procesó los datos y los
transformó en información para integrarlos a su memoria de largo plazo, depende de
su cultura (experiencia, expectativas, conocimientos) y su estado emocional. A esto
habrá que agregar la evidencia que las teorías suelen preceder a los enunciados
observacionales, es decir, tales enunciados se realizan en el lenguaje de alguna teoría
ya instalada y estructurada como paradigma.

Pero un conocimiento maduro se debe regir teóricamente por un sólo paradigma o


corpus de ideas avaladas, coherentes, sistémicas y consistentes, con normas que dan
legitimidad al trabajo que se realiza dentro de la ciencia que rige, incluyendo la
resolución de problemas que se presentan.

Según Khun5, paradigma es el conjunto de prácticas que definen una disciplina


científica durante un período específico de tiempo y será justamente la existencia de
uno que pueda apoyar una tradición de ciencia normal lo que establecerá la diferencia
entre lo que es ciencia y lo que no lo es. Carecer de paradigma implica no poseer el
estatus de ciencia. En efecto, aquellos están compuestos por leyes explícitamente
establecidas, supuestos teóricos, modos corrientes de aplicación de las leyes,
instrumental y técnicas específicas, prescripciones metodológicas y algunos principios
ontológicos y hasta metafísicos.

5 Thomas S. Kuhn. “La Estructura de las Revoluciones Científicas”. Fondo de Cultura Económica. 2007
Así, la ciencia normal es descripta por Kuhn como una actividad para resolver
problemas, gobernada por las normas del paradigma en cuestión. El paradigma debe
proveer los medios para solucionar los problemas que dentro de él se formulan. Los
que no puedan solucionarse, serán entendidos como anomalías y/o fracasos, más que
como insuficiencias del paradigma. Kuhn, como otros, reconoce que todo paradigma
contiene anomalías y nos muestra que un científico normal no debería criticar el
paradigma en el cual está trabajando.

Bajos tales premisas, lo que diferenciaría a la ciencia madura, de la preciencia, sería la


falta de consenso en lo fundamental, en un paradigma. La preciencia se caracterizaría
por un total desacuerdo y constante debate de lo fundamental, estableciéndose tantas
teorías como teóricos haya trabajando. Por eso, siguiendo un criterio de estabilización
de corpus de conocimiento, la existencia de problemas sin resolver dentro de un
paradigma no debería constituir en sí misma una crisis, pues se acepta que en los
paradigmas siempre habrá anomalías. Aquellas serán “reservadas”, merced al principio
de parsimonia, y sólo se “recuperarán” si nuevos elementos asisten a su integración
coherente.

Si aplicáramos tales categorías al conocimiento corriente, aquel que sirve a las


personas para resolver problemas diarios y desenvolverse con cierto éxito en sus
respectivos ambientes, deberíamos incluirlos entre sujetos que operan en estado de
preciencia. Sus paradigmas –si es que pueden definirlos- responden a un tipo de
búsqueda y almacenamiento de información útil, pragmática, que, empero, se
resignifica según inputs que reciben de su praxis, conversaciones, experiencias,
descubrimientos e informaciones más o menos validadas extraídas de sus relaciones
interpersonales, como de medios de comunicación, conformando su especial visión de
mundo.

Estas características del conocimiento corriente han sido históricamente desvaloradas,


calificándoselo como saber vulgar, práctico, inorgánico, acientífico. No obstante, el
actual avance de las fuerzas productivas está masificando este tipo de acción en el
mundo, en la exigencia por adaptarse rápidamente a realidades económicas altamente
cambiantes y, al revés que en el pasado, como veremos, parece comenzar a validarse.

Aunque no referido al conocimiento vulgar, Kuhn nos dice que algunos de aquellos
conocimientos precientíficos –fragmentarios, de tipo mosaico-, podrán desarrollarse de
modo que le resten confianza al paradigma oficial y afectan sus fundamentos,
generando una crisis. Esta comienza a manifestarse en un período de inseguridad
profesional marcada: se defienden los nuevos argumentos y surge el descontento
respecto del paradigma en el cual se está trabajando. La crisis se agrava cuando
emerge en escena un “paradigma” rival. El nuevo será distinto e incompatible con su
predecesor; son ópticas diferentes del mundo.

Sin embargo, Kuhn explica que las funciones de la ciencia normal y sus revoluciones
son necesarias. Mientras se vive en período de ciencia normal, se desarrollan los
detalles de las teorías, se resuelven problemas y realizan trabajos teóricos y
experimentales. Se requiere, por eso, que la ciencia normal sea, de cierto modo,
acrítica. De lo contrario se estaría siempre discutiendo la licitud de sus axiomas y
métodos y no se llegaría a profundizar en los fenómenos observados o analizados
desde tal perspectiva. Las revoluciones cognitivas son la oportunidad del salto de un
paradigma a otro y, por consiguiente, indispensables para el progreso. Si no las
hubiera, la ciencia estaría atrapada y no se avanzaría más allá del último paradigma.
Tal es la función, en la evolución del conocimiento, de “errores”, rebeldías y anomalías.

Paul K. Feyerabend6 va más allá, y sostiene que las metodologías de la ciencia a lo


largo de la historia no han dado reglas adecuadas para guiar la tarea de los científicos.
Dada la complejidad de la historia, resulta poco razonable pretender explicar la ciencia
basándose en reglas metodológicas fijas y universales, si por metodologías se entiende
normas que guían las elecciones y decisiones de los científicos. Para Feyerabend, no es
aconsejable que tales elecciones y decisiones estén obligadas por las metodologías.

Como vimos, una parte de las teorías de inducción es la regla esencial de que los
hechos miden el éxito de una teoría. Feyerabend acepta operar la investigación
inductivamente, pero también sugiere hacerlo contrainductivamente, es decir,
introduciendo hipótesis inconsistentes con las teorías o hechos bien establecidos, pues
hay teorías en las que la información requerida para contrastarlas sólo se haría visible
a la luz de otras contradictorias con la primera. La propuesta contrainductiva es, por lo

6 Paul K. Feyerabend. Tratado contra el Método. Editorial Tecnos. 1975


demás, a la que Galileo recurrió para la falsación7 de los razonamientos con los que los
físicos aristotélicos de la época negaban el movimiento de la Tierra.

Es decir, tal como afirmamos que mediante el lenguaje el sujeto modela su realidad,
(aún cuando, por supuesto, sólo parte de aquella) y la ordena con arreglo a normas
sistémica internas, adecuándose a lo que es, Feyerabend dice que ninguna teoría
puede ser siempre consistente con todos los hechos relevantes y debe ajustarse
permanentemente. Desde luego, la propia Teoría Gravitacional de Newton ha tenido
desde sus inicios desviaciones cuantitativas con los hechos observados, aún cuando
ello no ha sido obstáculo para que sea la dominante durante siglos y se le considere
modelo de teoría científica, porque las oscilaciones presentadas se consideran parte de
la dinámica de la realidad, azarosa dentro de ciertos marcos de necesidad.

Tales incertidumbres epistemológicas, junto a la imposibilidad práctica de probar


experimentalmente los múltiples hechos científicos que conforman el corpus de
conocimientos avalados, obliga a las personas a confiar -como mecanismos de
verificabilidad al alcance-, tanto en la secuenciación más o menos lógica del texto en
que tales hechos se describen, como en su consistencia con el resto de la información
almacenada y en la autoridad experta que los valida, aún con el peligro de la “falacia
ad verecundiam”.

Esto es un hecho de relevancia, en la medida que gran parte del conocimiento


académico de estudiantes y profesionales de hoy y mañana está conformado de esa
manera, vale decir, en la confianza en que lo que ha aprendido y lo que la ciencia
normal afirma, es verificable. Es decir, afirmamos lo que creemos verificable de casi
igual modo que mediante la fé, sólo que ahora, aquella esta puesta en la fama o aval
del investigador y cierta confianza en que sus conclusiones son resultados de hipótesis
ontológica, epistemológica y metodológicamente bien fundadas.

Feyerabendt, en lugar de desechar las teorías por ciertos desacuerdos con los hechos,
recomienda, o una aproximación, o bien inventar una hipótesis ad hoc, que cubra la
inconsistencia. Lo habitual en filosofía de la ciencia es desestimar las hipótesis ad hoc
por contrariar el método racionalista. Sin embargo, es un hecho que tales hipótesis son
7 Karl Popper afirmó en su Logik der Forschung, Viena, 1934 que dado que no poseemos un procedimiento
lógico que nos proporcione plena certeza de la verdad de un enunciado, pero poseemos, en cambio, modos
de asegurarnos de su falsedad (basta con encontrar un solo caso contrario a la ley o la teoría en cuestión),
la ciencia no debe perseguir “verificar” de leyes y teorías (pues es lógicamente imposible) sino, lo contrario:
falsarlas, es decir, demostrar que son falsas.
abundantes en el cuerpo de la ciencia. Lakatos8, uno de los principales seguidores de
Karl Popper, opina que cualquier nueva teoría que se proponga para sustituir a una
teoría refutada es, en el fondo (lógicamente) una teoría ad hoc.

Por eso, Feyerabend no reconoce la superioridad de la ciencia respecto del resto de las
actividades humanas incluidas en el conocimiento y lenguaje. Más bien defiende una
actitud “humanista” al aceptar la libertad de los individuos para la elección entre
ciencia y otras formas de conocimiento o supresión de imperativos metodológicos. Sin
embargo, reconoce los límites de índole físicos, fisiológicos, sociológicos e históricos a
tal libertad. En efecto, con dicha propuesta, pareciera que todos deberían seguir sus
pareceres, construir sus propias visiones de las cosas y hacer lo que quisieran. En tal
caso, el conocimiento como corpus de información lógicamente ordenada y validada
según un paradigma se derrumba y surgen tantos órdenes del mundo, como personas
puedan imaginarlos.

Dichas perspectivas, empero, no deben verse eventuales, porque las NTIC están
abriendo las puertas a tales conductas en el pensamiento común, haciendo estallar, en
un eclecticismo cada vez más masivo, los diversos modelos propuestos hasta ahora.
Tales circunstancias, hijas de la época y subsumidas en las comunicaciones presentes
y futuras, obligan, como veremos, a la formación estratégica de estudiantes en
metodologías que les permitan enfrentar críticamente la enorme masa de información
actual, sus interpretaciones, y sus consecuencias en la prefiguración mental de la
sociedad que emerge.

La estabilidad paradigmática, empero, no quiere decir que la lengua que la sustenta se


fosilice como consecuencia de la estructura de poderes que “superyace” por sobre el
conocimiento organizado. Históricamente, como hemos revisado, la “gestión” del
lenguaje respecto del entorno y la acción mancomunada de las personas que
comparten objetivos a través de él, se ha manifestado en fuertes cambios de
“discursos”, que readecuan paradigmas “avejentados”, como resultado del imparable
avance del conocimiento en cada momento histórico y este, del progreso inevitable de
las fuerzas de la producción, que apuntan por definición a la supervivencia humana.

En efecto, durante la segunda mitad del siglo XVIII, la física newtoniana había logrado
imponerse en Europa tras las polémicas que enfrentaron a Newton (1643-1727) con
8 Imre Lakatos. La Metodología de los Programas de Investigación Científica. Ed. Alianza. Madrid. 1993.
las ideas de Descartes (1596-1650), considerado el padre de la filosofía moderna 9 y
Leibniz (1646-1716)10. Su influencia –como en el siglo XX la de Einstein- comenzó a
rebasar los límites estrictos de la física, para convertirse en fundamento paradigmático
de otras ciencias. El sistema newtoniano explica metafóricamente los procesos físicos
del movimiento de los cuerpos y el sistema solar a través de la mecánica, y aquella –
muy presente en lo productivo por los inicios de una Revolución Industrial coetánea- se
transforma en la matriz en la que se funden las ideas y palabras necesarias para la
nueva explicación del universo.

La representación mecanicista de la Naturaleza trocó así en una Filosofía Natural que


dominó el discurso científico de Occidente desde mediados del siglo XVIII hasta bien
entrada la segunda mitad del siglo XIX, momento en el que la visión electromagnética
–desatada desde otro avance del conocimiento y las fuerzas productivas, la electricidad
aplicada a los motores de vapor- pugnó por la superioridad que hasta ese momento
había disfrutado el mecanicismo.

Immanuel Kant (1724-1804) buscaba establecer los fundamentos y límites de la razón


humana (Crítica de la razón pura), a través de una síntesis que superara las dos
grandes corrientes del pensamiento occidental de la segunda mitad del siglo XVIII: el
racionalismo ilustrado y el empirismo inglés 11. En la solución de dichas antinomias se
expresa el marco conceptual de la nueva representación científica universal que
dominó la época clásica hasta la aparición de la Teoría de la Relatividad, en 1916.

Kant abrió el Universo a lo infinito. “El mundo no tiene un principio en el tiempo ni


límite extremo en el espacio”, señalaba, con lo que se obliga lógicamente a
“estabilizarlo” mediante una ley de causalidad, como ley fundamental de la Naturaleza,
una condición imprescindible para el conocimiento: "Esta ley de la Naturaleza (...) es
una ley del entendimiento en la que no está permitido, bajo ningún pretexto, apartarse

9 Criticó la filosofía escolástica vigente afirmando que en búsqueda de la verdad “no deberíamos ocuparnos
de objetos de los que no podamos lograr certidumbre similar a las de las demostraciones de la aritmética y
la geometría”. Creía que no se podía establecer verdad hasta no conocer todas las razones para creerla y
que toda la realidad se compone de tres sustancias: la pensante, atributo de los espíritus, la física y Dios,
10 Leibniz ubicó el concepto de verdad del conocimiento en su necesidad intrínseca y no en su ajuste con la
realidad (platonismo). El modelo de dicha necesidad lo entregan las verdades analíticas de las matemáticas
(verdades de razón), respecto de las cuales las verdades de hecho son contingentes y no manifiestan por sí
mismas su verdad.
11 Doctrina de origen aristotélico, el empirismo (experiencia) fue formulado por John Locke en el siglo XVII,
argumentando que el cerebro de un recién nacido es como una tabula rasa (“white paper”) en el cual las
experiencias dejan marcas. Niega que los humanos tengan ideas innatas o que la cosa sea entendible sin
alusión a la experiencia, contrastado con el racionalismo, que opina que el conocimiento se obtiene mediante
la razón, independientemente de los sentidos o la experiencia
o distraer ningún fenómeno, porque de otro modo se colocaría a este fenómeno fuera
de toda experiencia posible...”12, dice.

Lo que con Newton eran postulados, en Kant devienen en absolutos. La extraordinaria


influencia ontológica de su filosofía contribuyó a que físicos y matemáticos
interpretaran las leyes de la física como “absolutamente necesarias”. Así, a comienzos
del siglo XIX, la razón dominaba el campo del saber y, dentro del mismo, la idea
causal-determinista ocupaba la primera posición. La similitud con el funcionamiento
duro y mecánico de causa-efecto en las máquinas es obvia. La aparición de la teoría
evolucionista de Darwin (El origen de las especies, 1859) se interpretó como el non
plus ultra de dicha representación teórica y consolidó el método hipotético-deductivo
empleado por Newton en sus “Principiae”.

Esta visión del mundo bañó a la ciencia por años, cegando a sus cultores a miradas
diversas. En efecto, cuando James Watt, en el siglo XVIII trabajaba en su proyecto de
máquina a vapor llegó por ello a creer que su idea era irrealizable. “En esta manera de
pensar lineal causal de su época, una instancia que estuviera fuera de la máquina, por
así decir, un spiritus rector, habría debido asumir el control de la entrada de vapor.
Expresado en forma un tanto prosaica: para que la máquina funcionase parecía
necesario un hombre de servicio que cada vez, en cada momento exacto cerrare una
de las dos válvulas de vapor y abriese la otra y que de este modo hiciese posible el
movimiento de un lado para el otro del émbolo. Como se sabe, Watt resolvió el
problema poniendo al servicio de la apertura y el cierre de la admisión de vapor el
movimiento del mismo émbolo mediante un distribuidor”.13

Este concepto de autorregulación tendría relevantes efectos en la visión del mundo en


años posteriores. Es decir, la innovación de Watt, consistente en que una pequeña
parte de la consecuencia de un hecho es retrodirigida sobre el mismo acontecimiento,
no como aumento o pérdida de energía, sino como señal, ampliará la imagen científica
clásica del mundo de “materia” y “energía” –como veremos- a un tercer elemento
independiente: la “información”.

El incesante desarrollo de las fuerzas productivas trajo hacia el término del siglo XIX la
mágica novedad de la energía eléctrica para mover las máquinas, fuerza que fue

12 Immanuel Kant. “Crítica de la Razón Pura. Ed. 1965.


13 Paul Watzlawick. “La Coleta del Barón de Münchhausen”. Editorial Herder. 1992
reemplazando paulatinamente a la del vapor, más comprensible y manejable según los
conocimientos de la mecánica.

La palabra electricidad deriva del griego “elektron” que significa “ámbar” y la analogía
proviene de Tales de Mileto (600 años a.C.) quien descubrió que frotando una varilla
de ámbar con un paño, ésta atraía pequeños objetos como cabellos, plumas o pajas.
Este efecto continuó siendo un misterio por más de 2.000 años, hasta que, alrededor
del 1.600 d. C., con la reanudación de la curiosidad científica impulsada por el
Renacimiento de los siglos XIV y XV, Guillermo Gilbert (1544-1603), interesado en el
magnetismo terrestre, investigó las reacciones del ámbar y los imanes y fue el primero
en registrar nuevamente la palabra “eléctrica” en su informe Sobre el imán y los
cuerpos magnéticos y sobre el gran imán de la Tierra.

En el naciente EE.UU., en 1752, un ilustrado político y “padre fundador”, Benjamin


Franklin, probó que el relámpago y la chispa del ámbar eran una misma cosa en su
famoso experimento del volantín de seda y una llave metálica que elevó durante una
tempestad. En 1786, Luigi Galvani, profesor italiano de medicina, observó el efecto de
la electricidad en la pierna de una rana muerta y dedujo, por analogía, que los
músculos debían contener algún tipo de electricidad. Pero Alessandro Volta, que
discrepaba con él, detectó que los factores relevantes en el descubrimiento de Galvani
eran, en realidad, efecto de la humedad entre dos diversos metales, el cuchillo de
acero y la placa de lata en donde se encontraba la rana muerta. Volta pudo demostrar
que cuando hay humedad entre dos metales distintos se crea electricidad, relación
causal que lo condujo a la primera batería eléctrica (la pila voltaica). Volta detectó,
adicionalmente, que esta electricidad fluía constantemente, como corriente del agua,
en vez de descargarse en una sola chispa o choque y que se podía utilizar a distancia,
mediante un alambre.

La generación de este tipo de “corriente” eléctrica (nótese la analogía lingüística) a


escala industrial llega con el inglés Faraday (1791-1867), quien operando también
mediante analogías y oposiciones lingüístico-mentales (razón), se preguntó porqué si
la electricidad podía producir magnetismo, el magnetismo no podría, a su turno, crear
electricidad. Tales inferencias desde ideas-conceptos, gestionados primero lógicamente
y sólo después experimentalmente, permitieron el surgimiento del generador
electromagnético por movimiento. No obstante, pasaron cerca de 40 años antes de
que un generador práctico de corriente directa fuera construido por Edison (1847-
1931) en EE.UU. Cuando el generador de Edison se combinó con el motor de vapor de
Watt, el cambio paradigmático comenzaba a producirse.

El desarrollo de una teoría sobre la naturaleza de la electricidad y la luz creó


innumerables problemas de carácter teórico para la física newtoniana. El Universo
infinito kantiano ya no se comportaba como una máquina y la luz no se conducía según
las normas de la mecánica. Hacia 1850, el fenómeno se explicaba mediante dos teorías
contradictorias: la corpuscular y la ondulatoria, aparentemente incompatibles. Las
dificultades se acrecentaban a la hora de encontrar una forma consistente de explicar
los fenómenos eléctricos y magnéticos.

James C. Maxwell (1831-1879), inspirado en trabajos de Faraday, estableció una


teoría unificada de los fenómenos eléctricos y magnéticos, para lo cual postuló la
existencia del “éter”, que ocupando todo el espacio, sería el medio en que se
desarrollan los fenómenos electromagnéticos. Para Maxwell, la luz era un fenómeno
electromagnético más. Pero en su “Treatise on Electricity and Magnetism”, de 1873,
propuso una teoría de “campos” que, aunque no suponía ruptura con la teoría
newtoniana, finalmente sus resultados cuestionaron la posibilidad de una explicación
“mecánica” de aquellos.

A raíz de la aparición de la teoría electromagnética fue emergiendo una nueva


representación de la Naturaleza. Trabajos de Hertz, en 1888, demostraban la
existencia de la radiación electromagnética; mientras H. A. Lorentz avanzó hacia una
teoría electrodinámica de los cuerpos en movimiento. La lenta pero sistemática
imposición del nuevo paradigma hizo surgir alegatos entre quienes exigían una revisión
crítica de los fundamentos de la física clásica, orientada a eliminar los elementos
metafísicos que, desde la filosofía kantiana, la habían contaminado, desviándola de su
carácter de ciencia empírica. En paralelo, filosófica y lingüísticamente comienza a
instalarse la idea del “fenómeno” como base de mayores certezas ontológicas, tras el
“ablandamiento” electromagnético de la materia mecánica del Universo newtoniano e
industrial.

El “sensacionismo” de Ernst Mach (1838-1916), cuyas posiciones se acercan bastante


a una fenomenología de la ciencia; y el “energetismo”, del químico William Ostwald se
enfrentaron contra la representación mecanicista. Los “sensacionistas-fenomenistas” –
positivistas extremos- rechazaban toda hipótesis que no se fundara directamente en la
experiencia. El energetismo, por su parte, intentó una concepción metateórica que
liberara a la ciencia de su dependencia respecto de la física, mediante el desarrollo de
una ciencia superior, la energética, que unificara en ella el resto de las ciencias14.

Sólo con la consolidación de la revolución relativista y cuántica, la crisis derivó en


revolución de fundamentos, es decir, la destrucción de los presupuestos
epistemológicos básicos que habían configurado la episteme clásica, razón de ser de
las formas de pensamiento, lógico y racionalmente sustentados, que dominaban la
cultura occidental desde hacía 25 siglos.

La revolución paradigmática también llegó a la lengua, de la mano de Ferdinand de


Saussure (1857-1913) contemporáneo a todo el proceso de cambios del conocimiento
y las fuerzas productivas, a través de la distinción entre habla y lenguaje, de
significado y significante, de connotación y denotación, de sintagma y paradigma, las
que abrieron las puertas para una nueva interpelación de los discursos “indiscutibles”
de los poderes vigentes, iniciándose un proceso de desprendimiento de significados
imperturbables de las palabras, de los símbolos que las representaban, y una época de
liberación semántica que –casi en paralelo con los inicios del siglo XX- ayudó, junto a
los otros descubrimientos científicos, a resquebrajar las estructuras del orden de lo
objetivo y subjetivo, e hizo menos nítida la diferenciación entre lo exterior y lo interior
del hombre, arrollando categorías implícitas en la antigua estructura racionalista.

Liberada la palabra a comienzos del siglo XX del “cogito ergo sum” cartesiano, racional,
determinista, metódico, humanista e iluminador del mundo “objetivo” al modo
ilustrado de los reyes europeos democratizados de la post-Revolución Francesa, ésta
comienza a entregar la posta a un lenguaje relativo, inestable, polisémico, masivo y
sistémico, impulsado por una transfusión desde la “relativización” einsteniana del
Universo, hacia una relativización de lo psíquico y lo social. La difusión de las nuevas
ideas a través de los medios de comunicación emergentes (la radio, teléfono, el
automóvil), la industrialización internacional y expansión del conocimiento, impactó en
las viejas estructuras sociales y nacionales europeas que se desmoronaron en la I
Guerra Mundial (1914-1918), penúltima del anciano régimen.

14 “Ciencia y pensamiento en Europa: Apogeo y crisis de la razón moderna, 1848-1927”. Publicado en


Bahamonde Magro, a. (coord.): La época del imperialismo. volumen 11 de la Historia Universal Planeta
dirigida por Fontana, J. Barcelona, Planeta, 1992.
La incertidumbre significativa provocada por dichos cambios, dio pie a un renovado
habitat hermenéutico-filosófico del hombre, elevando a pensadores como Husserl,
Heiddeger, Russel, Bergson, Merleau-Ponty, Sartre, Foucault, Lacán, Wittgestein,
Barthes o Derrida y científicos como Einstein, Bohr, Planck, Heisenberg, Born, Lorentz,
a pilares de un paradigma emergente, apuntado a resignificar la corriente causal-
determinista de los siglo XVIII y XIX, mediante una visión relativista, fundada en
nuevas constataciones de fenómenos físicoquímicos develados, que, sin abandonar la
“necesidad” de las leyes universales ya probadas, apuntaban al azar como componente
indispensable de la revolución sistémica y autopoiética, especialmente desde la física
quántica. El Mundo ya no sería más una gran máquina, sino, como señala A.S.
Eddington (1882-1944)15, comienza a conducirse como un “gran pensamiento”.

Aunque en los años 20, Einstein (y otros) se negaban aún a considerar el azar como
factor estructurante del orden universal, afirmando en una de sus cartas que “Dios no
juega a los dados”, se inicia la consolidación, a partir de las emergentes ideas, de un
nuevo “orden” sicológico-sociológico, que sin perder de vista el constructo científico
teórico edificado por generaciones mecanicistas, revisa críticamente las concepciones
de la “verdad” oficial, transformándolas en “probabilidad”. La incertidumbre muta en
“ley” en la Física de lo infinitamente pequeño, y estimula la necesidad de más y más
información que sustente las nuevas hipótesis.

En el ámbito político, el llamado socialismo científico, fundado por Carlos Marx (1818-
1883) como una revisión materialista de las significaciones paradigmáticas idealistas
hegelianas y de teorías económicas empiristas liberal-atomísticas de los siglos XVIII y
XIX (Ricardo, Smith, etc) critica el “industrialismo burgués” sobre categorías de clases
productivas (burguesía y proletariado) y construye una teoría general sobre el
comportamiento social, enmarcado en la corriente de científicos sociales convencidos
de la posibilidad de extender a esas ciencias los avances de la física newtoniana
(Stuart Mill; Auguste Comte, padre de la sociología; Malthus, pionero de la
demografía). Junto al nacional socialismo, a comienzos del siglo XX, un experimento
que mezcla de racionalidad nacional-industrial y ethos social medioeval, serán las
reacciones extremas y penúltimas del racionalismo en contra de la crisis del

15 Demostró que la energía era transportada por radiación y convección en su libro Constitution of Stars
(1926). Durante años se concentró en lo que llamó la “Teoría Fundamental”, que pretendía unificar la
mecánica cuántica, la teoría de la relatividad y la gravitación, empresa que también emprendió Einstein,
aunque ambos sin éxito. Esta unificación sigue siendo uno de los mayores interrogantes de la Física
contemporánea.
pensamiento y el lenguaje que los inicios del siglo recién pasado marcaron para la
Humanidad.

El cambio de las relaciones sociales producido en la I Guerra Mundial ya no pudo


retrotraerse –como en el caso de la Restauración francesa- y el conocimiento y el
lenguaje –su medio- terminó reencauzándose, hacia mediados del siglo XX, en una
consolidación del industrialismo a nivel mundial, nuevas y más eficientes máquinas
eléctricas y electrónicas y una II Guerra Mundial (1939-1945) en la que, derrotada
Alemania, representando a uno de los extremos del pensamiento del siglo XVIII-XIX,
puso a la cabeza del mundo a EE.UU. y a la ex URSS, enfrentados en la última batalla
por la “modernidad” y el dominio ideológico del orbe. El subsiguiente avance de las
fuerzas productivas derivado de dicha competencia, terminaría en la instalación de la
Sociedad de la Información y del Conocimiento en actual desarrollo.

El período de la Guerra Fría –que se expresó de modo “caliente” en diversos campos


de batalla en Asia, África y América Latina hasta casi finales del siglo pasado-, cuando
el hombre ya tenía en sus manos la posibilidad real del suicidio universal merced a una
de las más temibles aplicaciones de la Teoría de la Relatividad, la bomba atómica,
enfrentó a dos discursos culturales-socioeconómicos, el socialista y capitalista, en una
lucha de divergentes relatos que guiarían el desarrollo de las fuerzas productivas
según los intereses involucrados en sus respectivos paradigmas. Tales interpretaciones
dieron pie a una competencia que implicó un enorme desarrollo industrial bélico y a la
salida de la especie humana al Espacio, generando un salto gigantesco en las ciencias
de la información y las telecomunicaciones, iniciado en la II Guerra Mundial.

Los avances científicos y las nuevas fuerzas productivas tuvieron su mejor caldo de
cultivo en el modelo de libertades que expresaba el capitalismo encarnado por EE.UU.
y su esfera de influencia, lo que derivó en el derrumbe de la ex URSS y del campo
socialista por ella instaurado en los 80-90, dando paso a un orden unipolar que
durante dos décadas comandó el vencedor de la brega. Durante los últimos 25 años,
EE.UU. impulsó seductiva, agresiva y belicosamente un proceso de globalización bajo
la égida de sus principios ordenadores de realidad y particular hermenéutica de las
libertades, derechos del hombre y la democracia, como sistema de relación política
entre el poder y la ciudadanía.
Hacia comienzos del siglo XXI, el modo capitalista financiero que el avance de las NTIC
había posibilitado tuvo, sin embargo, su momentum de realidad cuando el sistema
cayó en falencia global (2008-¿), en una crisis que ha generado pérdidas estimadas en
unos US$ 12 mil millones de millones y ha hecho ingresar al mundo en un trance cuyas
consecuencias aún no se vislumbran, pero que muestran los peligros de decisiones
que, basadas en el poder omnímodo, no cuentan con contrapartes que morigeren los
ímpetus de los deseos e intenciones de quienes lo detentan. Revelan de igual modo,
los pro y contras de la profunda interconexión internacional que las NTIC, así como del
aumento en la velocidad de circulación de las informaciones y el dinero.

En definitiva, pareciera que tras revisar el lenguaje y sus dimensiones más obvias, no
importara centralmente ni la forma del signo (o significante), ni su significación
corriente o, incluso ni siquiera su sustancia diversa –articulaciones de sonidos en
variadas lenguas, significados con múltiples cualidades, coloraturas, emociones, o
esencias más o menos abstractas-, sino que cómo “deben” usarse sistémica y
normativamente estas posibles relaciones entre signos distintos para una mejor
comunicación colectiva de los “discursos” paradigmáticos que emergen del avance de
la ciencia y técnica y las relaciones sociales y de poder que tales adelantos prohíjan.

El carácter subliminalmente normativo del lenguaje y sus efectos ideológicos en el


cuerpo social donde se desempeña tiende a estabilizar significaciones asignadas por las
estructuras de poder en que se sustenta la comunidad que lo usa, muchas de las
cuales, pasado un tiempo, comienzan a hacer daño a su cohesión e integración y cuya
persistencia impide una mejor adaptación sistémica a los nuevos entornos.

Ciertos poderes, desde su autoridad, pueden resignificar discursos gracias a los


avances de la ciencia, pero aquellos instituidos con arreglo a intereses específicos,
suelen ser reacios a los cambios, porque los interpretan como amenazas para un statu
quo que los favorece, haciéndolos ciegos a las novedades. Tal actitud tiene fatales
efectos para la integración de esas sociedades a las corrientes universales de
desarrollo científico-tecnológicas emergentes.

“La historia ofrece muchos ejemplos de países y regiones que adoptaron medidas para
conservar el viejo orden social. Los países que presentan un vívido contraste con la
Inglaterra de la Revolución Industrial son Rusia y Prusia. En la época en que los
ingleses promovían vigorosamente su revolución industrial, las exportaciones de
productos agrícolas prusianos a Inglaterra se elevaron rápidamente, enriqueciendo las
arcas de Prusia. En respuesta, los Junker impulsaron la agricultura en una escala
descomunal, implementando medidas para vincular a los grajeros con la tierra que
trabajaban; lo contrario de lo que hacían los británicos. Los objetivos militares
prusianos también eran la antitesis de los objetivos británicos. Los prusianos no sólo
despreciaban la armada, sino incluso, la artillería, pues consideraban que dependía en
exceso de componentes manufacturados, y en cambio organizaron una infantería de
campesinos al estilo medieval (…). Huelga decir que esta política conspiró contra la
creación de trabajadores libres y demoró el desarrollo de una sociedad industrial.
Prusia tomó algunas medidas para modificar esta política ante la contundente derrota
que le infligió Napoleón, pero los efectos de esa política se prolongaron hasta la década

de 1930” 16.

Es decir, una “modernización” (modus hodiernus: a la manera de hoy) que permita el


reajuste social a los nuevos tiempos no parece habitualmente posible desde el propio
“self social” (si es que se le puede llamar así) encarnado en la estructura de poder que
mantiene aquellas significaciones, porque su visión del mundo está subsumida en su
propia hermenéutica ideológica y se retroalimenta en ella, perpetuándola por razones
epilingüísticas. Este cambio requiere de otro conjunto de personas e interpretaciones
que abra alternativas semánticas ad hoc, más ajustadas a un tipo de relaciones
sociales que coordinen mejor con el desarrollo del conocimiento y fuerzas de
producción alcanzadas a través de él.

Un colectivo conciente del papel instrumental normativo y ordenador del lenguaje –


como deberá estarlo en la Sociedad de la Información y del Conocimiento-, de su
poder cuando se acata como “realidad” indiscutible, desarrollará, en cambio, nuevas
miradas del mundo que, desde intenciones auto-concientes y estímulos “civilizados”
expresos, resignificarán los “objetos mentales” que predisponen en contra de otros
paradigmas, admitiendo así las múltiples y plurales perspectivas de seres humanos
enfrentados a sus respectivos entornos. Se podrá así aprovechar las sinergias que
pueden surgir de la complementación y/o contrastación, eliminando contradicciones
“diseñadas” por voluntades con intereses de significación inadecuadas para una mayor
integración humana.

16 Taichi Sakaiya. Historia del Futuro. La Sociedad del Conocimiento. Editorial Andrés Bello. 1994
La neurobiología, la investigación de la inteligencia y las ciencias cognitivas, han
logrado, poco a poco, entregarnos una cierta imagen del funcionamiento de nuestra
estructura nerviosa central, en las que el aprendizaje se entiende como praxis, en la
medida que es el “hacer” el que provoca los cambios en los neurotransmisores
(mielina) que aumentan nuestras capacidades mentales. La ciencia sistémica también
ha mostrado que la acción humana, aún la “errónea”, es siempre eficaz, en el sentido
de realizable, razón por la que el proceso del conocimiento, como secuencia de acierto
y error, permite la acumulación de datos que, tanto a través del éxito de la acción,
como desde su fracaso, van perfeccionando nuestra visión del mundo.

En “Mentopolis”17, el investigador Marvin Minsky compara el cerebro con una


administración en la que hay diversos departamentos y equipos directivos que
efectúan tareas y trámites varios. Tales departamentos, como una burocracia
weberiana, funcionan en forma rutinaria, algorítmica, y sólo la cooperación entre ellas,
es decir, la suma de sus acciones, es la que posibilita “conciencia” e “inteligencia”. Pero
esta cooperación sólo es posible si hay comunicación entre los “niveles administrativos
superiores”, tarea que Minsky entrega al lenguaje, la emoción y la conciencia.

Mientras que en los niveles inferiores todo sucede en forma silenciosa -caminamos sin
pensar o pensamos sin necesidad de pensar que pensamos- los superiores se
comunican dando forma lingüística a los pensamientos, quitándole a éstos parte de su
riqueza estructural, devenida del tándem imaginativo-creativo entre hemisferios
cerebrales. Después, la conciencia será la reproducción lingüística de las acciones de
las agencias subordinadas. Los sentimientos, a su turno, velarán por mantener en
funcionamiento esta burocracia silenciosa en caso que se produzcan conflictos
interdepartamentales, de forma que las agencias más poderosas los usarán para
imponerse contra sus adversarios. El “yo” aquí es un departamento de “estabilización”,
que evita que la burocracia termine modificando demasiado rápido su estructura, pues
sin ella, la inteligencia no sería capaz de perseverar en sus objetivos, tal como las
ciencias no serían efectivas sin paradigmas. Pero sustantivamente este modelo enseña
que el cerebro se ocupa mínimamente de las impresiones suscitadas por los estímulos
externos y que el grueso de su actividad lo constituye la percepción de sí mismo. Es
decir, es un órgano muy ineficiente si se le considera un “captador” de información
externa, pues, como dijéramos, solo destina al efecto el 2% de su actividad. El resto la

17 Citado por Dietrich Schwanitz en “La Cultura. Todo lo que hay que saber”. Traducción de Vicente Gómez.
Editorial Santillana 2002.
ocupa en la reelaboración interna de dicha información, limitado por sus
condicionantes filogenéticas, así como por sus cegueras culturales o paradigmáticas.

Para el cerebro, en definitiva, los estímulos externos son irritadores de sus sensores y
sólo cobran un perfil claro a través del trabajo de “ordenamiento” interno. Es decir, el
cerebro más que un captador de información del entorno, es un “seleccionador” y
“ordenador” de aquella, en especial de la que le es útil a su supervivencia como
sistema, abandonando u olvidando la otra. Este es un fenómeno de la mayor
relevancia a la hora de determinar razones por las cuales muchos estudiantes no
otorgan sentido a las enseñanzas curriculares. El “conocimiento universal” como meta
por razones genéticas y neurobiológicas parece no estar explícito en el programa
cerebral de operación en el mundo como fenómeno individual y, seguramente, dicha
pulsión, observada en algunos hombres, responde más a deseos que operan
silenciosamente desde la trastienda de la “conciencia” de aquellos.

De allí que tener conciencia de nuestras limitaciones como seres que conocen y
ordenan el mundo a través de un instrumento complejo como el lenguaje y que aquel
está siempre inseminado por prejuicios determinados por la estructura de poderes
establecidas por la comunidad de la cual formamos parte, es el primer paso para la
detección de nuestras restricciones y las del resto. Contrastar con otro o los otros
nuestras convicciones y creencias, desde la propia significación de las palabras, pero
también desde nuestras intenciones más profundas, permitirá acercarnos a una mayor
comprensión de nosotros mismos y de los otros. Estas competencias serán sustantivas
con la profundización de la Sociedad de la Información y del Conocimiento, en la
medida que el objeto de producción clave y abundante es precisamente la información,
y el lenguaje, su “transporte”, ambos insumos del conocimiento, que como hemos
visto, está estructurado sobre una buena dosis de creencia, emoción y fe.

Вам также может понравиться