Академический Документы
Профессиональный Документы
Культура Документы
Una secuencia de signos debidamente estructurados según sus normas internas, puede
representar realidades diversas. Por ejemplo, en álgebra (del árabe, “reducción”), a
puede representar una “casa” y b, el número de personas sin acceso a ella.
Operaciones realizadas con estos signos, según su especial sistema de vínculos
internos, permite a sociólogos, administradores o economistas calcular la tasa de
actividad necesaria en la construcción, para que las personas sin casa lleguen a tener
una, en un determinado período.
Es decir, gracias al sistema de relaciones entre signos que la especie ha ido generando
como modelo de operaciones posibles entre aquellos, merced a las posibilidades de los
“programas” filogenéticos que porta, se podrán realizar múltiples cruces mentales que
ofrecerán, a quien los usa, resultados que le permitirán, en el caso de las
matemáticas, álgebra, lógica y/ o geometría, la construcción de un discurso coherente,
sistemático, consistente, que dará enorme fuerza argumental a los modos de gestionar
el mundo y que eventualmente, predecirá el futuro.
En efecto, tanto en matemática como en lenguaje natural, son sus posibles relaciones
y reglas del juego internas las que explican los resultados de las operaciones
realizadas mediante los variados vínculos predefinidos entre los signos, y que permiten
establecer o proyectar la “conducta” del fenómeno calculado. Por eso es que Philip J.
Davis y Reuben Hersh2 definen la matemática como “el estudio de los objetos mentales
con propiedades reproducibles, es decir, probables”.
1 Cæteris páribus, habitualmente escrita como ceteris paribus o céteris páribus, proviene del latín, que
significa “permaneciendo el resto constante”. Ceteris es “lo demás o el resto”. Par, “igual”, como en
castellano “a la par”. En ciencias se denomina al método en el que todas las variables de una situación se
mantienen constantes, menos aquella cuya influencia se desea analizar.
2 Philip J. Davis, Ruben Hersh. The Mathematical Experience, Study Edition. Boston, 1995
Pero “probable” no es equivalente a “verdad” y lo que sustantivamente trasunta la
definición es que epistemológicamente no tenemos instrumentos que aseguren que lo
que observamos y/o hasta experimentamos de un fenómeno es “lo que es”. En efecto,
Alan Chalmers3 nos recuerda que en el denominado “inductivismo ingenuo”, la ciencia
se inicia con la simple observación, aunque para aquello se requiere que el observador
científico tenga órganos de los sentidos en condiciones normales y “esté libre de
prejuicios” (¡nada menos!). A los enunciados a los que se llega a través de la
observación se les conoce como observacionales, de los cuales se derivarán, mediante
la generalización lingüística, teorías y leyes que constituirán conocimiento científico.
Dos son los tipos de enunciados observacionales: los llamados “singulares”, derivados
de la observación de un determinado fenómeno, en un específico momento y lugar; y
“generales”, que se refieren a todo acontecimiento de determinado tipo que se nos
presente regularmente en todos los lugares y tiempos. Leyes y teorías que forman el
conocimiento científico son enunciados de este último tipo, denominados “universales”.
Las condiciones que deben cumplir los “singulares” para establecer generalizaciones
universales, por su parte, son tres: que el número de enunciados observacionales sea
grande, vale decir, no es válida una generalización a partir de una sola observación;
que las observaciones se repitan en una amplia variedad de condiciones, y que ningún
enunciado observacional aceptado contradiga la ley universal que de él se deriva. Tal
forma de razonamiento, que nos permite ir de enunciados singulares a universales, de
la parte al todo, es lo que se llama racionamiento inductivo, y al proceso, la inducción.
Una vez que se establecen leyes y teorías universales, se puede extraer de ellas
consecuencias que permitirán explicaciones y predicciones. El razonamiento empleado
para obtener estas derivadas se conoce como deducción, es decir, ir desde el todo a la
parte. La disciplina que estudia este tipo de raciocinio es la Lógica. Pero la lógica y la
deducción por sí solas no pueden establecer la verdad de enunciados fácticos, aunque
su impecabilidad pudiera convencernos, dado que, siguiendo las reglas de la lógica,
puede haber deducciones válidas aún cuando una de las premisas y/o la conclusión
sean falsas. De este modo, para el inductivismo, la fuente de verdad de un enunciado
no está en su lógica, sino en la experiencia. Sólo una vez establecida la veracidad
experimental se puede inducir otra validez derivada.
3 Alain Chalmers. ¿Qué es esa cosa llamada ciencia? Editorial Siglo XX. Madrid.1997
Pero la validez y justificación del principio de inducción también pueden ponerse en
duda. En efecto, en relación a la validez (no a la “verdad”), se sostiene que las
argumentaciones lógicas válidas se caracterizan por el hecho que si las premisas son
verdaderas, la conclusión debe ser verdadera. Pero, como hemos visto, los argumentos
inductivos no pueden validarse mediante lógica, por que podría darse el caso de
conclusiones falsas con premisas verdaderas, sin que aquello constituya una
contradicción.
4 La segunda ley de la termodinámica expresa que “la cantidad de entropía de cualquier sistema aislado
termodinámicamente tiende a incrementarse con el tiempo”, es decir, cuando una parte de un sistema
cerrado interacciona con otra parte, la energía tiende a dividirse por igual, hasta que el sistema alcanza un
equilibrio térmico.
“probabilidad”: no se afirma que generalizaciones a las que se arriba por inducción
sean perfectamente verdaderas, sino “probablemente” verdaderas.
Ortega y Gasset (1883-1955) nos mostraba cómo ven un árbol un viajero cansado en
busca de sombra, un leñador que lo derribará para comercializarlo y un pintor que
desea llevarlo a la tela. Lo que un observador ve, cuando ya procesó los datos y los
transformó en información para integrarlos a su memoria de largo plazo, depende de
su cultura (experiencia, expectativas, conocimientos) y su estado emocional. A esto
habrá que agregar la evidencia que las teorías suelen preceder a los enunciados
observacionales, es decir, tales enunciados se realizan en el lenguaje de alguna teoría
ya instalada y estructurada como paradigma.
5 Thomas S. Kuhn. “La Estructura de las Revoluciones Científicas”. Fondo de Cultura Económica. 2007
Así, la ciencia normal es descripta por Kuhn como una actividad para resolver
problemas, gobernada por las normas del paradigma en cuestión. El paradigma debe
proveer los medios para solucionar los problemas que dentro de él se formulan. Los
que no puedan solucionarse, serán entendidos como anomalías y/o fracasos, más que
como insuficiencias del paradigma. Kuhn, como otros, reconoce que todo paradigma
contiene anomalías y nos muestra que un científico normal no debería criticar el
paradigma en el cual está trabajando.
Aunque no referido al conocimiento vulgar, Kuhn nos dice que algunos de aquellos
conocimientos precientíficos –fragmentarios, de tipo mosaico-, podrán desarrollarse de
modo que le resten confianza al paradigma oficial y afectan sus fundamentos,
generando una crisis. Esta comienza a manifestarse en un período de inseguridad
profesional marcada: se defienden los nuevos argumentos y surge el descontento
respecto del paradigma en el cual se está trabajando. La crisis se agrava cuando
emerge en escena un “paradigma” rival. El nuevo será distinto e incompatible con su
predecesor; son ópticas diferentes del mundo.
Sin embargo, Kuhn explica que las funciones de la ciencia normal y sus revoluciones
son necesarias. Mientras se vive en período de ciencia normal, se desarrollan los
detalles de las teorías, se resuelven problemas y realizan trabajos teóricos y
experimentales. Se requiere, por eso, que la ciencia normal sea, de cierto modo,
acrítica. De lo contrario se estaría siempre discutiendo la licitud de sus axiomas y
métodos y no se llegaría a profundizar en los fenómenos observados o analizados
desde tal perspectiva. Las revoluciones cognitivas son la oportunidad del salto de un
paradigma a otro y, por consiguiente, indispensables para el progreso. Si no las
hubiera, la ciencia estaría atrapada y no se avanzaría más allá del último paradigma.
Tal es la función, en la evolución del conocimiento, de “errores”, rebeldías y anomalías.
Como vimos, una parte de las teorías de inducción es la regla esencial de que los
hechos miden el éxito de una teoría. Feyerabend acepta operar la investigación
inductivamente, pero también sugiere hacerlo contrainductivamente, es decir,
introduciendo hipótesis inconsistentes con las teorías o hechos bien establecidos, pues
hay teorías en las que la información requerida para contrastarlas sólo se haría visible
a la luz de otras contradictorias con la primera. La propuesta contrainductiva es, por lo
Es decir, tal como afirmamos que mediante el lenguaje el sujeto modela su realidad,
(aún cuando, por supuesto, sólo parte de aquella) y la ordena con arreglo a normas
sistémica internas, adecuándose a lo que es, Feyerabend dice que ninguna teoría
puede ser siempre consistente con todos los hechos relevantes y debe ajustarse
permanentemente. Desde luego, la propia Teoría Gravitacional de Newton ha tenido
desde sus inicios desviaciones cuantitativas con los hechos observados, aún cuando
ello no ha sido obstáculo para que sea la dominante durante siglos y se le considere
modelo de teoría científica, porque las oscilaciones presentadas se consideran parte de
la dinámica de la realidad, azarosa dentro de ciertos marcos de necesidad.
Feyerabendt, en lugar de desechar las teorías por ciertos desacuerdos con los hechos,
recomienda, o una aproximación, o bien inventar una hipótesis ad hoc, que cubra la
inconsistencia. Lo habitual en filosofía de la ciencia es desestimar las hipótesis ad hoc
por contrariar el método racionalista. Sin embargo, es un hecho que tales hipótesis son
7 Karl Popper afirmó en su Logik der Forschung, Viena, 1934 que dado que no poseemos un procedimiento
lógico que nos proporcione plena certeza de la verdad de un enunciado, pero poseemos, en cambio, modos
de asegurarnos de su falsedad (basta con encontrar un solo caso contrario a la ley o la teoría en cuestión),
la ciencia no debe perseguir “verificar” de leyes y teorías (pues es lógicamente imposible) sino, lo contrario:
falsarlas, es decir, demostrar que son falsas.
abundantes en el cuerpo de la ciencia. Lakatos8, uno de los principales seguidores de
Karl Popper, opina que cualquier nueva teoría que se proponga para sustituir a una
teoría refutada es, en el fondo (lógicamente) una teoría ad hoc.
Por eso, Feyerabend no reconoce la superioridad de la ciencia respecto del resto de las
actividades humanas incluidas en el conocimiento y lenguaje. Más bien defiende una
actitud “humanista” al aceptar la libertad de los individuos para la elección entre
ciencia y otras formas de conocimiento o supresión de imperativos metodológicos. Sin
embargo, reconoce los límites de índole físicos, fisiológicos, sociológicos e históricos a
tal libertad. En efecto, con dicha propuesta, pareciera que todos deberían seguir sus
pareceres, construir sus propias visiones de las cosas y hacer lo que quisieran. En tal
caso, el conocimiento como corpus de información lógicamente ordenada y validada
según un paradigma se derrumba y surgen tantos órdenes del mundo, como personas
puedan imaginarlos.
Dichas perspectivas, empero, no deben verse eventuales, porque las NTIC están
abriendo las puertas a tales conductas en el pensamiento común, haciendo estallar, en
un eclecticismo cada vez más masivo, los diversos modelos propuestos hasta ahora.
Tales circunstancias, hijas de la época y subsumidas en las comunicaciones presentes
y futuras, obligan, como veremos, a la formación estratégica de estudiantes en
metodologías que les permitan enfrentar críticamente la enorme masa de información
actual, sus interpretaciones, y sus consecuencias en la prefiguración mental de la
sociedad que emerge.
En efecto, durante la segunda mitad del siglo XVIII, la física newtoniana había logrado
imponerse en Europa tras las polémicas que enfrentaron a Newton (1643-1727) con
8 Imre Lakatos. La Metodología de los Programas de Investigación Científica. Ed. Alianza. Madrid. 1993.
las ideas de Descartes (1596-1650), considerado el padre de la filosofía moderna 9 y
Leibniz (1646-1716)10. Su influencia –como en el siglo XX la de Einstein- comenzó a
rebasar los límites estrictos de la física, para convertirse en fundamento paradigmático
de otras ciencias. El sistema newtoniano explica metafóricamente los procesos físicos
del movimiento de los cuerpos y el sistema solar a través de la mecánica, y aquella –
muy presente en lo productivo por los inicios de una Revolución Industrial coetánea- se
transforma en la matriz en la que se funden las ideas y palabras necesarias para la
nueva explicación del universo.
9 Criticó la filosofía escolástica vigente afirmando que en búsqueda de la verdad “no deberíamos ocuparnos
de objetos de los que no podamos lograr certidumbre similar a las de las demostraciones de la aritmética y
la geometría”. Creía que no se podía establecer verdad hasta no conocer todas las razones para creerla y
que toda la realidad se compone de tres sustancias: la pensante, atributo de los espíritus, la física y Dios,
10 Leibniz ubicó el concepto de verdad del conocimiento en su necesidad intrínseca y no en su ajuste con la
realidad (platonismo). El modelo de dicha necesidad lo entregan las verdades analíticas de las matemáticas
(verdades de razón), respecto de las cuales las verdades de hecho son contingentes y no manifiestan por sí
mismas su verdad.
11 Doctrina de origen aristotélico, el empirismo (experiencia) fue formulado por John Locke en el siglo XVII,
argumentando que el cerebro de un recién nacido es como una tabula rasa (“white paper”) en el cual las
experiencias dejan marcas. Niega que los humanos tengan ideas innatas o que la cosa sea entendible sin
alusión a la experiencia, contrastado con el racionalismo, que opina que el conocimiento se obtiene mediante
la razón, independientemente de los sentidos o la experiencia
o distraer ningún fenómeno, porque de otro modo se colocaría a este fenómeno fuera
de toda experiencia posible...”12, dice.
Esta visión del mundo bañó a la ciencia por años, cegando a sus cultores a miradas
diversas. En efecto, cuando James Watt, en el siglo XVIII trabajaba en su proyecto de
máquina a vapor llegó por ello a creer que su idea era irrealizable. “En esta manera de
pensar lineal causal de su época, una instancia que estuviera fuera de la máquina, por
así decir, un spiritus rector, habría debido asumir el control de la entrada de vapor.
Expresado en forma un tanto prosaica: para que la máquina funcionase parecía
necesario un hombre de servicio que cada vez, en cada momento exacto cerrare una
de las dos válvulas de vapor y abriese la otra y que de este modo hiciese posible el
movimiento de un lado para el otro del émbolo. Como se sabe, Watt resolvió el
problema poniendo al servicio de la apertura y el cierre de la admisión de vapor el
movimiento del mismo émbolo mediante un distribuidor”.13
El incesante desarrollo de las fuerzas productivas trajo hacia el término del siglo XIX la
mágica novedad de la energía eléctrica para mover las máquinas, fuerza que fue
La palabra electricidad deriva del griego “elektron” que significa “ámbar” y la analogía
proviene de Tales de Mileto (600 años a.C.) quien descubrió que frotando una varilla
de ámbar con un paño, ésta atraía pequeños objetos como cabellos, plumas o pajas.
Este efecto continuó siendo un misterio por más de 2.000 años, hasta que, alrededor
del 1.600 d. C., con la reanudación de la curiosidad científica impulsada por el
Renacimiento de los siglos XIV y XV, Guillermo Gilbert (1544-1603), interesado en el
magnetismo terrestre, investigó las reacciones del ámbar y los imanes y fue el primero
en registrar nuevamente la palabra “eléctrica” en su informe Sobre el imán y los
cuerpos magnéticos y sobre el gran imán de la Tierra.
Liberada la palabra a comienzos del siglo XX del “cogito ergo sum” cartesiano, racional,
determinista, metódico, humanista e iluminador del mundo “objetivo” al modo
ilustrado de los reyes europeos democratizados de la post-Revolución Francesa, ésta
comienza a entregar la posta a un lenguaje relativo, inestable, polisémico, masivo y
sistémico, impulsado por una transfusión desde la “relativización” einsteniana del
Universo, hacia una relativización de lo psíquico y lo social. La difusión de las nuevas
ideas a través de los medios de comunicación emergentes (la radio, teléfono, el
automóvil), la industrialización internacional y expansión del conocimiento, impactó en
las viejas estructuras sociales y nacionales europeas que se desmoronaron en la I
Guerra Mundial (1914-1918), penúltima del anciano régimen.
Aunque en los años 20, Einstein (y otros) se negaban aún a considerar el azar como
factor estructurante del orden universal, afirmando en una de sus cartas que “Dios no
juega a los dados”, se inicia la consolidación, a partir de las emergentes ideas, de un
nuevo “orden” sicológico-sociológico, que sin perder de vista el constructo científico
teórico edificado por generaciones mecanicistas, revisa críticamente las concepciones
de la “verdad” oficial, transformándolas en “probabilidad”. La incertidumbre muta en
“ley” en la Física de lo infinitamente pequeño, y estimula la necesidad de más y más
información que sustente las nuevas hipótesis.
En el ámbito político, el llamado socialismo científico, fundado por Carlos Marx (1818-
1883) como una revisión materialista de las significaciones paradigmáticas idealistas
hegelianas y de teorías económicas empiristas liberal-atomísticas de los siglos XVIII y
XIX (Ricardo, Smith, etc) critica el “industrialismo burgués” sobre categorías de clases
productivas (burguesía y proletariado) y construye una teoría general sobre el
comportamiento social, enmarcado en la corriente de científicos sociales convencidos
de la posibilidad de extender a esas ciencias los avances de la física newtoniana
(Stuart Mill; Auguste Comte, padre de la sociología; Malthus, pionero de la
demografía). Junto al nacional socialismo, a comienzos del siglo XX, un experimento
que mezcla de racionalidad nacional-industrial y ethos social medioeval, serán las
reacciones extremas y penúltimas del racionalismo en contra de la crisis del
15 Demostró que la energía era transportada por radiación y convección en su libro Constitution of Stars
(1926). Durante años se concentró en lo que llamó la “Teoría Fundamental”, que pretendía unificar la
mecánica cuántica, la teoría de la relatividad y la gravitación, empresa que también emprendió Einstein,
aunque ambos sin éxito. Esta unificación sigue siendo uno de los mayores interrogantes de la Física
contemporánea.
pensamiento y el lenguaje que los inicios del siglo recién pasado marcaron para la
Humanidad.
Los avances científicos y las nuevas fuerzas productivas tuvieron su mejor caldo de
cultivo en el modelo de libertades que expresaba el capitalismo encarnado por EE.UU.
y su esfera de influencia, lo que derivó en el derrumbe de la ex URSS y del campo
socialista por ella instaurado en los 80-90, dando paso a un orden unipolar que
durante dos décadas comandó el vencedor de la brega. Durante los últimos 25 años,
EE.UU. impulsó seductiva, agresiva y belicosamente un proceso de globalización bajo
la égida de sus principios ordenadores de realidad y particular hermenéutica de las
libertades, derechos del hombre y la democracia, como sistema de relación política
entre el poder y la ciudadanía.
Hacia comienzos del siglo XXI, el modo capitalista financiero que el avance de las NTIC
había posibilitado tuvo, sin embargo, su momentum de realidad cuando el sistema
cayó en falencia global (2008-¿), en una crisis que ha generado pérdidas estimadas en
unos US$ 12 mil millones de millones y ha hecho ingresar al mundo en un trance cuyas
consecuencias aún no se vislumbran, pero que muestran los peligros de decisiones
que, basadas en el poder omnímodo, no cuentan con contrapartes que morigeren los
ímpetus de los deseos e intenciones de quienes lo detentan. Revelan de igual modo,
los pro y contras de la profunda interconexión internacional que las NTIC, así como del
aumento en la velocidad de circulación de las informaciones y el dinero.
En definitiva, pareciera que tras revisar el lenguaje y sus dimensiones más obvias, no
importara centralmente ni la forma del signo (o significante), ni su significación
corriente o, incluso ni siquiera su sustancia diversa –articulaciones de sonidos en
variadas lenguas, significados con múltiples cualidades, coloraturas, emociones, o
esencias más o menos abstractas-, sino que cómo “deben” usarse sistémica y
normativamente estas posibles relaciones entre signos distintos para una mejor
comunicación colectiva de los “discursos” paradigmáticos que emergen del avance de
la ciencia y técnica y las relaciones sociales y de poder que tales adelantos prohíjan.
“La historia ofrece muchos ejemplos de países y regiones que adoptaron medidas para
conservar el viejo orden social. Los países que presentan un vívido contraste con la
Inglaterra de la Revolución Industrial son Rusia y Prusia. En la época en que los
ingleses promovían vigorosamente su revolución industrial, las exportaciones de
productos agrícolas prusianos a Inglaterra se elevaron rápidamente, enriqueciendo las
arcas de Prusia. En respuesta, los Junker impulsaron la agricultura en una escala
descomunal, implementando medidas para vincular a los grajeros con la tierra que
trabajaban; lo contrario de lo que hacían los británicos. Los objetivos militares
prusianos también eran la antitesis de los objetivos británicos. Los prusianos no sólo
despreciaban la armada, sino incluso, la artillería, pues consideraban que dependía en
exceso de componentes manufacturados, y en cambio organizaron una infantería de
campesinos al estilo medieval (…). Huelga decir que esta política conspiró contra la
creación de trabajadores libres y demoró el desarrollo de una sociedad industrial.
Prusia tomó algunas medidas para modificar esta política ante la contundente derrota
que le infligió Napoleón, pero los efectos de esa política se prolongaron hasta la década
de 1930” 16.
16 Taichi Sakaiya. Historia del Futuro. La Sociedad del Conocimiento. Editorial Andrés Bello. 1994
La neurobiología, la investigación de la inteligencia y las ciencias cognitivas, han
logrado, poco a poco, entregarnos una cierta imagen del funcionamiento de nuestra
estructura nerviosa central, en las que el aprendizaje se entiende como praxis, en la
medida que es el “hacer” el que provoca los cambios en los neurotransmisores
(mielina) que aumentan nuestras capacidades mentales. La ciencia sistémica también
ha mostrado que la acción humana, aún la “errónea”, es siempre eficaz, en el sentido
de realizable, razón por la que el proceso del conocimiento, como secuencia de acierto
y error, permite la acumulación de datos que, tanto a través del éxito de la acción,
como desde su fracaso, van perfeccionando nuestra visión del mundo.
Mientras que en los niveles inferiores todo sucede en forma silenciosa -caminamos sin
pensar o pensamos sin necesidad de pensar que pensamos- los superiores se
comunican dando forma lingüística a los pensamientos, quitándole a éstos parte de su
riqueza estructural, devenida del tándem imaginativo-creativo entre hemisferios
cerebrales. Después, la conciencia será la reproducción lingüística de las acciones de
las agencias subordinadas. Los sentimientos, a su turno, velarán por mantener en
funcionamiento esta burocracia silenciosa en caso que se produzcan conflictos
interdepartamentales, de forma que las agencias más poderosas los usarán para
imponerse contra sus adversarios. El “yo” aquí es un departamento de “estabilización”,
que evita que la burocracia termine modificando demasiado rápido su estructura, pues
sin ella, la inteligencia no sería capaz de perseverar en sus objetivos, tal como las
ciencias no serían efectivas sin paradigmas. Pero sustantivamente este modelo enseña
que el cerebro se ocupa mínimamente de las impresiones suscitadas por los estímulos
externos y que el grueso de su actividad lo constituye la percepción de sí mismo. Es
decir, es un órgano muy ineficiente si se le considera un “captador” de información
externa, pues, como dijéramos, solo destina al efecto el 2% de su actividad. El resto la
17 Citado por Dietrich Schwanitz en “La Cultura. Todo lo que hay que saber”. Traducción de Vicente Gómez.
Editorial Santillana 2002.
ocupa en la reelaboración interna de dicha información, limitado por sus
condicionantes filogenéticas, así como por sus cegueras culturales o paradigmáticas.
Para el cerebro, en definitiva, los estímulos externos son irritadores de sus sensores y
sólo cobran un perfil claro a través del trabajo de “ordenamiento” interno. Es decir, el
cerebro más que un captador de información del entorno, es un “seleccionador” y
“ordenador” de aquella, en especial de la que le es útil a su supervivencia como
sistema, abandonando u olvidando la otra. Este es un fenómeno de la mayor
relevancia a la hora de determinar razones por las cuales muchos estudiantes no
otorgan sentido a las enseñanzas curriculares. El “conocimiento universal” como meta
por razones genéticas y neurobiológicas parece no estar explícito en el programa
cerebral de operación en el mundo como fenómeno individual y, seguramente, dicha
pulsión, observada en algunos hombres, responde más a deseos que operan
silenciosamente desde la trastienda de la “conciencia” de aquellos.
De allí que tener conciencia de nuestras limitaciones como seres que conocen y
ordenan el mundo a través de un instrumento complejo como el lenguaje y que aquel
está siempre inseminado por prejuicios determinados por la estructura de poderes
establecidas por la comunidad de la cual formamos parte, es el primer paso para la
detección de nuestras restricciones y las del resto. Contrastar con otro o los otros
nuestras convicciones y creencias, desde la propia significación de las palabras, pero
también desde nuestras intenciones más profundas, permitirá acercarnos a una mayor
comprensión de nosotros mismos y de los otros. Estas competencias serán sustantivas
con la profundización de la Sociedad de la Información y del Conocimiento, en la
medida que el objeto de producción clave y abundante es precisamente la información,
y el lenguaje, su “transporte”, ambos insumos del conocimiento, que como hemos
visto, está estructurado sobre una buena dosis de creencia, emoción y fe.