Академический Документы
Профессиональный Документы
Культура Документы
7- La psicología cognitiva como paradigma, que concibe a la psicología como una ciencia
objetiva de la mente, y a esta como un sistema de representaciones y cómputos. No
pueden estudiarse de forma directa por vía introspectiva (son inaccesibles a l
conciencia), sino desde “afuera”, hipotetizando estructuras y mecanismos funcionales
(constructos hipotéticos) a partir de inferencias basadas en la conducta observable.
1
9- La psicología cognitiva representa un enfoque meta-teórico sobre la explicación
psicológica de los estados mentales como causa de la conducta humana.
10- La psicología cognitiva es un intento de abordaje objetivo de la mente, en oposición a
los reduccionismos conductistas y neurofisiológico. Un intento de estudiarlo por
métodos subjetivistas, como lo hacía el introspeccionismo clásico.
11- La psicología cognitiva estudia los procesos mentales que posibilitan la construcción e
intercambio de significados.
12- La psicología cognitiva es una alternativa nominal para diferenciarse del conductismo.
Objeto de estudio
1. El objeto de estudio de la psicología cognitiva es la mente humana.
2. La psicología cognitiva se centra en procesos vinculados al conocimiento: atención,
percepción, memoria, pensamiento, toma de decisiones, lenguaje y aprendizaje.
3. En un sentido amplio también a funciones mentales como emoción, motivación, y
fenómenos intencionales.
4. La psicología cognitiva, si bien no se desentiende de los procesos consientes, presta
mucha atención a los procesos mentales inconscientes (icc cognitivo o
computacional).
5. Algunos teóricos de la psicología cognitiva consideran fundamental comprender
como los procesos concientes interactúan con los inconcientes.
6. Otros teóricos de la psicología cognitiva consideran que su objeto de estudio es el
significado mismo, antes que los procesos computacionales.
2
Métodos
1- Observación:
Uno de los métodos más utilizados por la psicología cognitiva. Suele aplicarse a los
estados mentales (auto-observación interior o introspección). Refiere a hechos
objetivos y registrables a través de dispositivos físicos. Se observa lo que una persona
hace (movimientos motores), dice (emisiones verbales), concomitantes somáticos
(palpitaciones o sudoración), y expresivos de conductas (expresiones faciales y
posturales).
3- Experimentación:
3
Un aspecto básico de un experimento radica en un adecuado control de las
denominadas variables independientes (factores causales), poder determinar la
incidencia en las denominadas variables dependientes o de respuesta.
5- Experimentos imaginarios:
Se trata de un experimento mental donde se imagina una situación hipotética para extraer
una conclusión sobre el objeto estudiado. Se expresa en la lógica, ¿qué pasaría si
(descripción de un hecho hipotético)? Por ejemplo: ¿qué pasaría si nuestra memoria fuera
perfecta? A continuación experimentos famosos.
4
6- Supuestos epistemológicos: La piscología cognitiva como tercer paradigma en la
historia de la piscología académica:
Siguiendo la idea de Kuhn sobre los paradigmas científicos, la historia de la psicología
académica puede contarse a través de tres transiciones entre tres paradigmas
fundamentales: la psicología de la conciencia, el conductismo y el cognitivismo. Los
tres esquemas pueden pensarse en una explicación dialéctica, donde:
a- La psicología de la conciencia es la tesis. Sostiene que el objeto de estudio es la
mente (vida mental), y que mente es igual a conciencia.
b- El conductismo es la antítesis (negación de la tesis), al definirse como anti-
conciencialismo. Su objeto de estudio es la conducta objetivamente observable de
los organismos. La mente no existe (conductismo radical), o no puede ser un
objeto legítimo de una ciencia psicológica (conductismo metodológico), o que lo
mental es un vocabulario para hablar de las disposiciones conductuales de los
organismos (conductismo lógico).
c- El cognitivismo es la síntesis entre la naturaleza representacional de la mente
(psicología de la conciencia) y el intento de estudiarlas a través de métodos
objetivos (conductismo).
5
B-Centralismo: un modelo explicativo de la forma E-O-R, donde "O" se refiere a estados
internos del organismo, según Fodor, uno de los principales referentes de la revolución
cognitiva. Miller postuló un modelo explicativo denominado TOTE ("Test- Operate- Test-
Exit" o "Evaluación- operación-Evaluación- Salida") es la actividad autorregulada de
organismos que: 1) operan en pos del logro de estado-meta internamente representados
en algún nivel, 2) evalúan el nivel actual luego de haber operado para reoperar en caso de
discrepancias, 4. finalizar en caso de coincidencia.
4- Procesamiento de información:
La mente como un sistema informacional organizado y dotado de funciones.
5- Analogía mente-ordenador:
Analogía entre programas de computadoras y la mente humana como modelo heurístico.
7- Inconciente computacional:
El núcleo fundamental de la mente es de carácter inconciente. Jackendoff distingue entre
una mente fenomenológica (experiencia conciente primaria), y una mente computacional
(nivel simbólico subyacente), que determina al nivel fenomenológico. Al igual que en la
metáfora del iceberg de Fechner, y retomada por Freud, la mayor parte de la mente
permanecería inaccesible a la conciencia, de rol epifenoménico, emergente fe los procesos
computacionales del nivel básico subyacente. La naturaleza íntima de la mente es
inaccesible a la conciencia. Las personas pueden percibir, pensar, emocionarse y hablar;
pero no pueden acceder a los niveles computacionales que, operando de modo
automático, determinan el carácter específico de esas fenomenologías.
6
c- Presupuesto restrictivo: la capacidad de procesamiento de información humana. Los
límites de la capacidad de atención, percepción, almacenamiento, codificación y
recuperación de información, así también problemas de velocidad y duración temporal.
Idea- síntesis:
a- Para el cognitivismo la mente es un sistema de procesamiento de información.
b- A diferencia la de la psicología de la conciencia, donde los estados de conciencia eran la
base de la estructura mental, para el cognitivismo esa base está dada por los estados
informacionales.
c- Un estado informacional es una unidad simbólica dada por su rol funcional en relación a
otros estados informacionales y hechos conductuales.
d- Para la psicología de la conciencia, un estado como el miedo representa una vivencia
conciente y subjetiva del individuo. En cambio, para el cognitivismo, "miedo" representa
un símbolo interno de un sistema que se relaciona con símbolos como "percepción", "plan
de huida", y que a su vez puede desencadenar una "respuesta de huida".
7
Si se integran las ideas de Searle y de Vega, se obtendrían al menos tres versiones de la
metáfora mente-ordenador.
Visión fuerte: la mente humana no es más que un sistema de procesamiento de
información. Definida por una arquitectura organizacional y funcional, que le permite
obrar de manera inteligente, por la naturaleza física de sus componentes (sistemas
neurales o de silicio) o por la existencia de estados subjetivos concientes.
Versión intermedia: la mente humana es básicamente un sistema de procesamiento de
información con características peculiares, como la existencia de un nivel emergente y
conciente.
Versión débil: la mente humana, portadora de estados concientes y subjetivos. Posee
mecanismos descriptos con ganancia intelectual, independientemente que su naturaleza
posea o no ese carácter.
8
Los mecanismos del sueño según la visión freudiana
El sueño manifiesto es el resultado de una serie de procesos sujetos a mecanismos
llamados trabajo del sueño. Consiste en transformaciones, cuya "materia prima" inicial es dada
por el deseo inconciente, junto a los restos diurnos. Por la imposibilidad de plasmarse en la escena
onírica por la censura, ese material sufre transformaciones por desplazamiento y condensación.
"Desplazamiento de expresión" algunas veces la materia prima del sueño tiene un contenido
demasiado abstracto para representarlo figuralmente. La mente apela al desplazamiento de
expresión. En el ejemplo, un hombre sueña con la idea de "aristócrata". Como resulta demasiado
abstracta, sueña con alguien ubicada arriba de una torre.
9
e- Discrepancia en torno al objeto de estudio mismo de la psicología cognitiva. Bruner
critica que la revolución cognitiva era recuperar a la mente (contra el conductismo)
como legítimo objeto de estudio de la psicología, pero se había extraviado al
propósito, al sustituir el significado por los estados informacionales de un sistema
concebido de modo puramente abstracto. Considera que esa concepción de mente no
deja una adecuada cabida a estados subjetivos como reflexionar, desear o
intercambiar significados. Cree que se necesita una revolución más profunda que
permita entender cómo los seres humanos son capaces de construir y compartir
significados en tanto seres sociales moldeados por la cultura. Destaca la dimensión
narrativa de la mente humana, ya que vivimos la vida desde la perspectiva de las
historias que forjamos acerca de nosotros mismos.
10
tratando de salir de una jaula pero no puede (entre otras). Luego le muestran a Sarah 4 fichas con
fotos, ella debe elegir la solución al problema (la llave de la jaula), y es capaz de seleccionar la
correcta.
Para Premack, Sarah no sólo "resolvía problemas", sino que sabía que el personaje tenía
un problema, le atribuía la intensión y el deseo de resolverlo, predecía lo que debía hacer para
resolverlo. Darse cuenta que alguien tiene un problema y "desea" solucionarlo implica la
capacidad de atribuir mente. Solo los seres con mente tienen intenciones y los deseos. Se tratan
de estados que:
A- No son directamente observables (implican inferencias). No son resultados inmediatos
de lecturas de la realidad empírica (son teóricos, de ahí el nombre de teoría de la mente).
B- Sirven para predecir la conducta a aquellos organismos a los que se atribuyen
(comparable a conceptos teóricos científicos).
Los antropoides superiores no "hablan" sobre la mente, ni describen lingüísticamente sus
deseos, creencias e intenciones, pero quizás atribuyan implícitamente alguna clase de mente a sus
congéneres.
Es importante diferenciar entre saber algo, y saber que se sabe algo. El chimpancé tiene la
teoría implícita de la mente, de forma parecida que un niño posee una teoría tácita del objeto.
El mejor ejemplo es el engaño. En el engaño un individuo "sabe" que otro tiene una
representación errónea de una situación, y lo aprovecha en beneficio propio (predice
correctamente la conducta del otro en función a la representación errónea que este posee, y que
el individuo engañoso distingue de la propia).
Se encontraron ejemplos de chimpancés que engañan a otro. Usan su capacidad de
engañar (estrategias mentalistas). Dan pistas falsas de la ubicación de la comida a otros.
Comparan el engaño de un chimpancé que hace caminar a su grupo para luego volver solo
al refugio a comer bananas, por otro unas hormigas esclavistas que entran a un nido intruso y
segregan hormonas de alerta para que salgan las hormigas y así esclavizarlas. En un caso se trata
de un engaño creativo, teniendo en cuenta las circunstancias y en el otro un engaño atado
capacidades genéticas, a la habilidad de segregar hormonas de engaño.
11
El hombre puede atribuir creencias y deseos, predecir conductas, por el lenguaje.
Wimmer y Perner desarrollan el "Paradigma de la falsa creencia". Le cuentan una historia a
un niño representado con muñecos.
Pedro y Juan, están en una habitación. Pedro posee una bolita, un objeto que el otro no
tiene. Pedro guarda la bolita en una caja y se va. En su ausencia, Juan cambia el objeto de lugar.
Pedro vuelve y le preguntan al niño: "¿Dónde va a buscar Pedro la bolita?" Para contestar bien,
debe entender que Pedro tiene una creencia falsa de la situación, distinta de su propia creencia
(verdadera). Entender no solo el estado de los hechos, sino el acceso de información que tiene
Pedro. Capacidad de representar una representación en su calidad de representación (falsa o
verdadera). Esta habilidad se desarrolla entre los 4 años y medio. Los de menor edad cometen un
"error realista", sin considerar la información que el otro tiene. "Error egocéntrico": confundir su
propio estado mental con el del personaje de la historia.
La fase crítica. Inferencia de creencias falsas, donde el niño debe inferir creencias (falsas)
de un personaje acerca de las que posee otro niño. Se desarrolla entre los 3 1/2 años y los 4 1/2.
¿Dónde buscará Pedro la bolita? (pregunta de predicción); ¿dónde cree Pedro que está la
bolita? (pregunta de creencia).
La teoría de la mente es un subsistema de conceptos e inferencias que atribuye
intensiones, deseos, creencias. No solo sirve para conocer el engaño, sino para engañar mejor
(inhiben señales de emociones reveladoras). La teoría de la mente no es un bloque de “todo o
nada”, sino que evoluciona progresivamente.
12
El principio de relevancia: lleva s los interlocutores a tratar de producir el máximo impacto
cognitivo sobre compañeros de interacción, empleando el mínimo costo de recursos (de
considerable actividad mental).
El engaño es una actividad relativamente infrecuente en la comunicación.
Los primeros declarativos del niño (cuando aún cuenta con su lenguaje holofrásico) ya
poseen las propiedades fundamentales de:
a- expresan creencias.
b- poder ser verdaderos o falsos.
En el caso de las comunicaciones entre animales no parece que sea posible predicar la
verdad o la falsedad de las expresiones.
Hay diferencia en " tener una noción" y "tener la noción de que se tiene".
La teoría de la mente no tiene en sí misma una naturaleza lingüística, y puede ser atribuida
a organismos no lingüísticos, como antropoides superiores. El criterio de tener una teoría de la
mente no reside en hablar sobre ella.
Teoría de la mente y autismo:
El autismo infantil de caracteriza por el déficit en la teoría de la mente.
En un experimento se comparan a niños autistas, Down y normales.
Los niños autistas tenían bajo déficit, cometían el error realista. Responden que la muñeca
buscaría en el lugar en donde realmente estaba. Mientras los Down y normales acertaban en un
86%.
En una nueva actividad se sirvieron de una tarea que exigía ordenar historietas: una
mecánica (puramente físico), comportamental (un panadero prepara un pastel) e intencional
(obliga a comprender nexos intencionales, conductas de otros en función de su estado mental).
Los autistas resolvían mejor que los normales y down las historietas mecánicas.
En la primera, los autistas responden bien, en la segunda. Mientras en el intencional era
superior en los otros grupos que en el autista (fueron resueltos mejor por los normales).
13
2- Cómo hacer experimentos con ella. ¿Cómo controlar los cambios del flujo de la
memoria en la vida cotidiana?
La necesidad de definir qué indicadores señalan la presencia y magnitud del concepto aporta
numerosas ventajas como:
a- Se elimina la ambigüedad y vaguedad inherentes a los conceptos, pues se especifica a qué
se denomina con un determinado concepto. Otros investigadores pueden cuestionar la
operación realizada, argumentando que los indicadores no reflejan bien el concepto, o
que son una parte acotada del mismo.
b- Una buena operacionalización suele aportar luz sobre el concepto investigado, como los
test de inteligencia.
14
c- La creación de buenos indicadores puede ser un objetivo científico en sí.
Hay dos clases de indicadores típicos que suelen medirse en esta fase de prueba:
1- Número de respuestas
2- Tiempo
3- Cantidad de respuestas correctas o erróneas (ejemplo cantidad de palabras, frases. Ideas,
etc.)
Uno de los indicadores más claros de que está ocurriendo un proceso mental es el tiempo que
tarda (tiempo de reacción). El TR es el tiempo en que se tarda entre la aparición de un
determinado estímulo y la iniciación de la respuesta, en tareas experimentales relativamente
simples, “lo mejor y más rápido que se pueda”.
15
Un supuesto es la linealidad, en el pensamiento primero sucede un evento a, luego un evento b,
etc. Un punto de vista alternativo es el procesamiento en paralelo, es decir, sostener que un
evento a, b, etc. suceden al mismo tiempo, simultáneamente. La versión extrema de esta
perspectiva está representada en el conexionismo, que sostiene que todo el procesamiento se
sostiene en paralelo. Otros modelos sostienen una visión mixta, en la cual existe un procedimiento
serial y procesamiento en paralelo, dependiendo del proceso que se trate y del nivel en que se
estudie.
Cuando se quiere probar la influencia de una serie de variables además de la que interesa que
influye en la situación: las variables extrañas. Estas variables son las que hay que controlar,
eliminar su influencia como posible factor explicativo.
¿Qué se necesita para sustentar la hipótesis de estudio ante todas estas alternativas? La respuesta
metodológica es: un grupo de comparación en que se den todas las condiciones similares al grupo
de estudio, excepto por la condición que nos interese investigar. Esto garantiza un control de las
variables extrañas. Se debe cuidar que los dos grupos sean equivalentes desde el principio en
factores relevantes como la edad, nivel de inteligencia, grado de depresión, etc. También cuidar la
equivalencia del material con que se trabaja. Ejemplo, Ebbinghaus, en sus estudios sobre la
memoria usaba “sílabas sin sentido” compuesta por trigramas de letras (ZUX, FOL, MEH) porque
creyó que así no influirían las diferencias que existen entre las palabras, como las frecuencias del
uso, la familiaridad, capacidad de formar asociaciones, o imágenes mentales, etc. En estudios con
otros objetivos, al elegir las palabras a utilizar, se toma de que todas tengan una frecuencia
equivalente para de este modo controlar la variable extraña, “frecuencia léxica”. Se ha descubierto
que con las sílabas en castellano pasa algo parecido llamada, “frecuencia silábica”.
N resumen, una hipótesis afirma el efecto de una(s) variable(s) sobre otra(s). La variable que se
supone causa el efecto se denomina variable independiente y la que nos explicar, variable
dependiente.
Hay posibles variables extrañas que no podemos controlar por razones prácticas o algunas que ni
siquiera se nos ocurren cuando diseñaos un experimento. Una forma de controlar las variables
extrañas es dejar actuar el azar. Podemos así espera que la influencia de las variables extrañas se
reparta de manera equitativa entre los grupos a comparar.
Vimos anteriormente que el control de las variables extrañas es el pilar del método experimental.
La manipulación es el otro pilar del método experimental.
En resumen, se logra mayor validez interna, mayor fuerza causal, cuando se controlan las variables
extrañas y se manipula la VI. La VI es la que el/la investigador/a manipula.
A veces podemos identificar por adelantado cuando se cuela una variable extraña, una que hace
no equivalentes a los grupos desde el principio. Para solucionarlo, se hacen subgrupos de los
participantes según la variable a controlar.
A principios de los 60, Sperling trabaja con la memoria sensorial. Descubre que hay un límite para
catar en un golpe de vista. Lo estudió con un taquistoscopio, se trata de una caja de madera con
una ventana y un mecanismo controlado por cronómetro para mostrar diferentes objetos. Se
calculó que la amplitud de aprehensión humana, también llamada amplitud de atención o
perceptual era de más o menos 4 a 5 ítems. Sperling propuso que en la tarea estaban actuando al
menos dos procesos mentales. En primer lugar, los sujetos captan sensorialmente los estímulos
16
(deben verlos); en segundo lugar, deben identificar las letras y recordarlas para decir cuáles son.
Pero también puede que los sujetos los capten todos, pero que no lleguen a poder identificar de
qué letras se trata. Hay acá dos hipótesis. Uno que pone la limitación en el sistema sensorio-
perceptivo, y otra en un sistema de memoria, encargado de mantener el material para informarlo
(de poca duración). Apoya la idea de una memoria sensorial, apoya la idea de una memoria inicial
de muy corta duración (menos de un segundo). Para que una observación, un dato, tenga
significación, tiene que estar enmarcado en una comparación. El resultado de una comparación
entre dos mediciones de las variables dependientes bajo distintas condiciones, y se calcula en
término de si hay “diferencias significativas” o “efectos significativos”.
17
las que las creencias de los experimentadores acerca de cómo deberían comportarse los datos
pueden propiciar que las hipótesis terminen auto-cumpliéndose.
La probabilidad de que los sesgos del experimentador influyan en una investigación aumenta en
aquellos casos que este debe interpretar una respuesta dada por el participante. Esto ocurre de
modo característico cuando la variable medida debe ser categorizada de acuerdo con un criterio
experto atribuido a los investigadores.
Cuando la medición de variables no depende de un criterio experto (recolección de tiempos de
reacción, medida psicofisiólogica) los sesgos del experimentador presentan menor riesgo de
influencia. Para controlar estos sesgos se crean grupos de jueces o expertos que realicen
individualmente la categorización para luego compararlas y ver si hay diferencias importantes.
También es posibles que los sesgos del experimentador influyan en el modo en que este
interactúa con el participante, es decir, llevándolo a comportarse de un modo congruente con su
hipótesis por la forma en que da las instrucciones o por el interés demostrado por ciertos aspectos
del desempeño. Para evitarlos se suelen estandarizar las instrucciones y la interacción.
Una estrategia muy utilizada es el doble ciego, donde el experimentador que interactúa con los
participantes desconoce la hipótesis.
18
laboratorio parecen más bien originarse en el grado pretendido de generalización. Por ejemplo, si
se extienden conclusiones sobre el funcionamiento cognitivo de un grupo social a otro (de jóvenes
a ancianos, de novatos a expertos en un tema, etc.) es probable que la validez externa del estudio
sea baja, sin importar si este fue llevado a cabo en un laboratorio o en el “campo”.
5. El papel de la estadística
La investigación experimental es de naturaleza hipotética. El investigador siempre considerara un
margen de error en su conclusión. Por ello, más que preguntarse si su hipótesis es correcta, el
investigador deberá estimar cual es la probabilidad de que sus resultados sean atribuibles a la/s
variable/s independiente/s, o bien al mero azar. Debe tenerse en cuenta que las variables en un
estudio tomaran diversos valores, el objetivo de un experimento es demostrar que la hipótesis
predice acertadamente la variación de esos datos.
Para lograr esto, la investigación recurre a la estadística que provee de análisis específicos que
permiten:
• Describir y tener una mayor comprensión del comportamiento de las variables
• Inferir alguna sistematicidad en la variación
La estadística identifica patrones sistemáticos de variación en los datos y estima, con un pequeño
margen de error, si se obtendrían resultados similares con otras muestras de población,
manteniendo igualdad de condiciones. Esto permite que los investigadores concluyan con mayor
grado de confianza si la hipótesis puede o no ser generalizada.
19
Las pruebas estadísticas se realizan una vez recolectados los datos, como parte del proceso de
análisis de los mismos. Esta es una etapa relativamente tardía en la investigación. No obstante, los
investigadores deben tener presente en todo momento que prueba estadística será aplicada sobre
los datos, puesto que ello incide en el diseño del estudio.
Finalmente, debe señalarse que, puesto que de ellos depende la generalización o no de las
conclusiones del estudio, los análisis estadísticos ocupan una parte importante durante la
comunicación de los resultados en congresos y artículos científicos.
20
1. Una visión asociacionista de la memoria:
1. A. Ebbinghaus y su idea-fuerza:
En pos de lograr una medida de retención no contaminada por los conocimientos y experiencias
pasadas, Ebbinghaus utilizó, como material experimental, silabas sin sentido conformadas por un
trio consonante, vocal, consonante (por ejemplo TOR, COX, etc.). A luego desarrollo el paradigma
conocido como “método de ahorros”: sirviendo el mismo como sujeto experimenta, se tomó la
ardua tarea de estudiar una lista de silabas hasta cumplir con el criterio de aprendizaje por el
prefijado consistente en repetirlas dos veces consecutivas en el mismo orden dado.
Una medida del recuerdo para dicho material puede establecerse, precisamente, en términos de
cuanto se ahorra el sujeto en número de ensayos o tiempo de estudio al intentar aprender la lista
nuevamente.
1. C. Apreciación sintética:
Las críticas hacia Ebbinghaus referidas a la falta de validez ecológica de sus experimentos son
ampliamente atinadas. Nadie puede negarle el mérito de haber demostrado en forma pionera que
una función superior de la mente, en el caso presente, la memoria, podía abordarse
experimentalmente. Además, con su intuición de que hay en la mente información o “ideas” que,
a pesar de que no puedan ser recuperadas de un modo consciente, afectan nuestros
pensamientos y conductas actuales fue, asimismo, un precursor del concepto de “memoria
implícita” o inconsciente.
21
con material escasamente significativo para el sujeto, permite explorar únicamente el limitado
dominio de la recordación literal o mecánica.
2. A. Bartlett y su idea-fuerza:
2 C. apreciación sintética:
Bartlett precursor de la idea de que los estudios experimentales deben preocuparse por alcanzar
un grado aceptable de validez ecológica, además de su concepto de que para explicar un
fenómeno psicológico es necesario un postulado de estructuras mentales fue, asimismo, un
precursor de la llamada "revolución cognitiva.
Una característica de la memoria en tanto que estructura, sistema o proceso de la mente es,
ciertamente, su gran versatilidad funcional: interviene en prácticamente todas las actividades de
un organismo:
a. Percepción: no solo implica el ingreso de inputs sensoriales en bruto sino también su
categorización o interpretación posterior. Lindsay y Norman hacen una distinción entre
aquellos procesos que son “guiados por los datos” y aquellos que son “guiados por los
conceptos”.
22
b. Razonamiento y solución de problemas: la memoria interviene no solo en calidad de
espacio mental de procesamiento on line –concepto de “memoria de trabajo”- sino
también como fuente de datos permanentes –concepto de “memoria a largo plazo”-. A la
cual se consulta tanto para interpretar mejor la información del problema de marras.
A fin de responder la pregunta que encabeza este apartado, podrían efectuarse las siguientes
consideraciones:
Atento a su gran versatilidad funcional, puede decirse que la memoria es, por lejos, una
“capacidad transversal de la mente”. Esto alude a su función operatoria extendida a través de
diferentes funciones o capacidades mentales.
Según Turing, la memoria es la capacidad de los organismos por la cual, “estos pueden adquirir,
retener, y utilizar información o conocimiento.
De acuerdo con esta última definición, la memoria se encontraría involucrada en todo ingreso de
información sea este consciente o deliberado o bien completamente involuntario y, además, en
toda ejecución cognitiva o motora que refleje los efectos de la experiencia pasada, efectos que,
pueden o no, acompañarse del recuerdo consciente de dichas experiencias.
La memoria es operativamente una base de datos en la que la mente conserva la información del
pasado y la actualiza cada vez que resulta necesario cuando ejecuta alguna de sus múltiples
actividades o funciones.
23
5. ¿Cuántas memorias hay en la mente?:
Algunos de los antecedentes son: el “fenómeno Sperling”, base empírica del almacén sensorial
postulado por el modelo; el descubrimiento de que pequeñas cantidades de información se
olvidan rápidamente luego de distracciones momentáneas, sirvió para abonar la presunción
de una memoria transitoria en la que las huellas mnémicas decaerían solo con el mero paso
del tiempo y, por último, el efecto de posición serial, fenómeno que revelaría la existencia de
otros almacenes: el de corto y el de largo plazo.
6 A. el fenómeno de Sperling
Basándose en manifestaciones d sus sujetos experimentales en el sentido de que ellos,
durante las breves exposiciones taquitoscópicas del material estimular a que eran
sometidos en el curso de sus experimentos, podían captar la totalidad de los estímulos
pero luego, no los podían recordar, Sperling diseño el famoso “paradigma del informe
parcial vs informe global” para explorar la cuestión de si el comprobado recuerdo
deficiente del material estimular debía atribuirse a una memoria deficiente, o por el
contrario, a una percepción deficiente. En suma, la cuestión a dilucidar era la de si los
sujetos recordaban poco porque captaban poco o, a pesar de captar la totalidad de los
estímulos representados, recordaban poco porque las huellas mnémicas correspondientes
a tales estímulos tenían una vida muy corta y en consecuencia, los sujetos olvidaban
rápidamente
24
indicativa de la fila a recordar, observo que, aproximadamente, a los 250 milisegundos
(memoria sensorial), la tasa de recuerdo llega a asemejarse a la que obtienen los sujetos
bajo la condición de informe global
En suma, en las investigaciones de Sperling se puso en evidencia la existencia de una
estructura de memoria con las siguientes características.
a. Capacidad ilimitada: registra fielmente todo lo que tenemos en nuestro campo visual.
b. Escasísima persistencia: las huellas de memoria aquí almacenadas duran 250
milisegundos aproximadamente.
c. Precategorialidad: el registro de la información estimular se efectúa solo al nivel de
las características físicas.
Los hallazgos de Sperling sirvieron de base para el desarrollo posterior del modelo multi-
almacen el cual asume que las memorias sensoriales constituirían el eslabón inicial en la
cadena de procesamiento humano de la información y una de las tres estructuras de
memoria de la que dispondría la mente humana.
Brown y al mismo tiempo los hermanos Peterson describieron con un procedimiento este factor:
se le proporciona al sujeto un determinado ítem de información como, por ejemplo, un trigrama
de consonantes, sea “UFP”, e inmediatamente un número, sea “587” con la consigna de que
cuente hacia atrás de tres en tres y en voz alta hasta tanto el experimentador, mediante una señal
lumínica, le ordene recordar el ítem dado momento en el cual el sujeto reporta que letras
recuerda de la secuencia dada.
25
Los resultados obtenidos fueron reveladores de la escasa persistencia temporal de tan pequeñas
cantidades de información: a los dieciocho segundos (18 segundos, memoria de trabajo), el
recuerdo de dicha información fue completamente nulo. En realidad, la duración parece
extenderse no más allá de los do a cuatro segundos controlando un poco mejor la repetición
encubierta de los ítems.
En la interpretación teórica que los Peterson dieron a sus resultados, la razón estriba en que las
huellas mnémicas que hacen posible el recuerdo se desvanecen rápidamente con el paso del
tiempo y, por lo tanto, el sujeto no puede recuperar la información pertinente por haberse
evaporado su registro mnémico respectivo.
Esta teoría del decaimiento o desvanecimiento automático de la huella propuesta por estos
investigadores se convirtió en un competidor teórico de pero frente a aquella otra, en boga por
aquel entonces, la teoría de la interferencia. Según esta teoría se diría que el olvido debería
atribuirse no a que las huellas mnémicas se desintegran con el mero paso del tiempo sino más
bien, al hecho de que dichas huellas no pueden discriminarse fácilmente como resultado del
ingreso de nueva información. Así, se dirá que la recuperación de un ítem resulta interferida por la
presencia en memoria de otros ítems de información siendo la inferencia mayor, cuanto más
semejantes sean los ítems entre sí.
En opinión de los Peterson, esta teoría no podía aplicarse a sus resultados puesto que la
semejanza entre el material estimular –trigramas- y el material distractor –número- era más bien
escasa.
El concepto de olvido por decaimiento automático de la huella sirvió para reavivar, sobre bases
experimentales y no meramente introspectivas, la vieja hipótesis de James sobre la existencia en
la mente de una memoria dual. Precisamente, este “revival” del concepto de memorias múltiples
vino a cristalizarse años después con el planteo de multi-almacen de Atkinson y Shiffrin.
26
6 B. el efecto de posición serial:
Este efecto alude al hecho de que dados una serie o lista de ítems no relacionados como por
ejemplo, números, letras o palabras inconexas y que superen el “número mágico” de siete chunks,
la probabilidad de recuperar desde la memoria dichos ítems es una función de la posición que los
mismos ocupan en la serie. Estos efectos de la posición inicial y final de los ítems reciben el
nombre de efectos de primacía y de recencia, respectivamente.
El antecedente del modelo de Atkinson y Shiffrin fue propuesto por Waugh y Norman, el mismo
proponía la existencia de una “memoria primaria” de capacidad limitada en la que la información
estimular se retenía por muy breves periodos de tiempo a no ser que fuera “reintroducida” en
dicho dispositivo mnémico repitiéndola mentalmente
La explicación de la curva de posición serial de acuerdo con este modelo puede expresarse en los
siguientes términos:
b. Efecto de recencia: los últimos ítems de la serie se encontrarían todavía “circulando” por
la memoria primaria por lo que serían fácilmente accesibles cuando el sujeto acomete de
modo inmediato la tarea de recuerdo libre. La mayor accesibilidad de estos ítems finales
permitiría una alta tasa de recuperación de los mismos al momento del recuerdo,
generando así la zona de recencia de la curva de posición serial.
27
Ahora bien, si los efectos de primacía y de recencia se explican apelando, respectivamente,
por un lado, a la repetición en memoria primaria que potenciaría el trasvasamiento de la
información a la memoria secundaria y, por el otro, a la permanencia de la información en un
mecanismo de almacenamiento transitorio y fácilmente accesible como sería la memoria
primaria, podría ser posible eliminar estos efectos en forma independiente el rol de la
repetición o bien, promoviendo la perdida de información en la memoria transitoria.
7 A. El almacén sensorial:
En una primera etapa, los inputs estimulares hacen su ingreso al sistema cognitivo mediante
una serie de almacenes sensoriales en los cuales quedan registrados según la modalidad de
origen. La particularidad de esta etapa inicial es que, en su seno, el procesamiento de la
información estimular se ejecuta en paralelo en los distintos almacenes sensoriales.
Las memorias sensoriales –MS- presentarían las mismas características del registro visual
primitivo de Sperling. Esto es, conforme al modelo modal, la memoria es un almacén mnémico
de a) capacidad ilimitada aunque de b) escasa persistencia temporal en la cual se efectúa
fugazmente un c) registro pre-categorial de la información estimular siento d) su función, la de
retener por un corto periodo de tiempo los múltiples y variados patrones de información
estimular que, de forma continua, impactan sobre el organismo.
28
codificación básicamente de tipo acústico. Verbal, que se almacena exclusivamente de
esta forma. En estudios posteriores, se vio que el ACP efectúa también codificaciones de
tipo visual y semántico. Por lo tanto, parecería ser el caso de que la información en este
almacén, se estructura o “formatea” a través de procesos de codificación diversos ya
verbales, ya visuales, ya semánticos.
d. Funciones del ACP: a) recepta los inputs estimulares provenientes de los registros
sensoriales y b) los retiene por un breve periodo de tiempo sino que también, c) los
codifica de múltiples maneras y, eventualmente, d) decide su trasvasamiento a un tercer y
último sistema de memoria de carácter más permanente, de ser necesario, e) recupera
información desde este último deposito con el fin ya de integrar información pasada con
información actual, ya de dar una respuesta adecuada a las múltiples demandas
ambientales, etc.
29
discriminación (Baddeley). Para esta teoría, la discriminabilidad relativa de dos ítems provenientes
de un mismo pool estimular disminuye con el paso del tiempo y, con ello, disminuye también la
probabilidad de recuerdo.
En síntesis, la duración de la información en ACP es ciertamente limitada para algunos pocos
segundos. Esta limitación en la persistencia temporal de la información podría explicarse apelando
a la hipótesis de la discriminabilidad temporal.
7 D. almacén de largo plazo (ALP): en esta enormemente gran base de datos permanente de
la mente, se encontraría almacenado todo el caudal de conocimientos que poseemos
respecto del mundo y de nosotros mismos. Desde la información de carácter más
conceptual hasta información referida a episodios de nuestra vida personal, pasando por
el vastísimo repertorio de habilidades y destrezas cognitivas y motoras que acumulamos
en el curso de nuestra existencia
En suma, podría decirse que el ALP, aunque almacena propiedades semánticas de los inputs
estimulares, preserva asimismo otro tipos de información (visual, motora, musical) y que el
“sesgo semántico”, en el almacenamiento a largo plazo que, en los albores del modelo modal,
se suponía característico del ALP no deja de ser una construcción artificial producto del “sesgo
verbal” en la elección del material experimental propio de esas etapas finales.
30
sea aquella que plausiblemente no estaría correspondiéndose con los intereses y planes actuales
(del sujeto), solamente pierde su “fuerza de recuperación”.
2. La teoría de la interferencia:
Cuando los recuerdos viejos interfieren en la recuperación de los recuerdos más nuevos, se habla
de “interferencia proactiva” y cuando son los nuevos recuerdos los que entorpecen la
recuperación de los recuerdos más viejos, se habla de “interferencia retroactiva”.
31
c. El ACP y la transferencia de información al ALP: Tulving observó que leer repetidamente
un conjunto de palabras no hace que se aprendan más fácilmente en un ensayo posterior
en el cual, aquellas se incluyen como parte del material de aprendizaje. Bajo el modelo
modal se esperaría que la estancia previa de las palabras (repetidas) en el ACP hubiera
redundado en un cierto grado de trasvasamiento al ALP.
Craik y Tulving realizaron un esquema de investigación para analizar los niveles de procesamiento
de las palabras. Se presentó una lista de palabras en donde diversos sujetos debían efectuar
decisiones de las condiciones estructurales, fonológicas o semánticas de una serie de palabras. Los
resultados obtenidos, en lo atinente al recuerdo de las palabras pertenecientes a las listas
expuestas fueron plenamente coincidentes con las predicciones del enfoque de los niveles de
procesamiento: el porcentaje de reconocimiento más alto correspondió a la condición semántica
y, el más bajo, a la condición estructural.
El enfoque de los niveles de procesamiento fue perdiendo paulatinamente popularidad entre los
investigadores de la memoria.
Morris et al. Pusieron en evidencia, en contra de lo preguntado por los teóricos de los niveles, que
la codificación semántica no necesariamente lleva a un buen recuerdo de la información.
32
Baddeley efectuó un serio cuestionamiento al concepto de “profundidad de procesamiento”,
arguyendo que carecía de una medida adecuada de la variable “nivel o profundidad de
procesamiento” por cuando el único indicador disponible para determinar si un ítem fue
procesado a un nivel profundo lo constituye el buen recuerdo del mismo.
La cuestión critica consiste en verificar si, como se predice desde el modelo modal, se produce
algún grado de deterioro en la tarea primaria, en cuyo caso, tendría que admitirse que ambas
tareas requieren para su ejecución del concurso de un mismo sistema de capacidad limitada o, lo
que es lo mismo, estarían compitiendo por un mismo espacio de procesamiento.
12 El lazo articulatorio:
El lazo articulatorio sería un sistema periférico que captura del medio ambiente, información del
tipo lingüístico exclusivamente que conserva bajo un código fonológico por un breve periodo de
tiempo. En este sistema, se almacenan únicamente los sonidos provenientes de los inputs
lingüísticos.
33
El subsistema del lazo articulatorio encargado del mantenimiento de estos sonidos del habla es el
denominado “almacén fonológico”.
Cuando los inputs lingüísticos se canalizan mediante la visión, esto es, cuando el material estimular
es incorporado mediante la lectura, el modelo asume un subsistema del control articulatorio que
al ponerse en acción en el acto de leer, codifica las palabras escritas bajo un formato de tipo
fonológico y, luego, las deriva para su mantenimiento al almacén fonológico. Asimismo, el sistema
de control articulatorio tendría por función “reavivar” o “refrescar” las huellas que allí se
preservan tanto las provenientes del exterior del sistema como las resultantes de la activación de
los contenidos del ALP. Esto significa que, en el almacén fonológico, las huellas perduran en la
medida en que sean objeto de un proceso de repaso mental (o subvocal) por medio del sistema de
control articulatorio.
Esta caracterización teórica del lazo articulatorio encaja con un sinnúmero de resultados
experimentales. Entre estos cabe destacar los siguientes:
12 A. La agenda viso-espacial:
La agenda viso-espacial sería el sistema encargado del procesamiento de información de
naturaleza visual, ya sea tanto de la generada por el propio sistema cognitivo en forma de
imágenes mentales, o bien la proveniente de inputs externos mediante el aparato de
percepción visual.
En el marco del modelo de la memoria operativa, es de suponer que si un espacio mental de
trabajo cuenta con recursos de capacidad limitado y se encuentra abocado primariamente al
34
procesamiento de una tarea dada, una demanda concurrente de procesamiento de una
segunda tarea habrá de dar por resultado un deterioro en la ejecución de aquella, en la
medida en que ambas tareas absorban recursos de ese mismo espacio de trabajo o, lo que es
lo mismo, impliquen la manipulación y almacenamiento de representaciones mentales por
parte de un mismo sistema de procesamiento.
En lo atinente al rol que la agenda viso-espacial tendría en el funcionamiento cognitivo
ordinario, podría decirse que la misma plausiblemente interviene en la ejecución de tareas
que implican la manipulación de relaciones espaciales e imágenes mentales.
12 B. El ejecutivo central:
Desde el punto de vista teórico, el ejecutivo central es el sistema encargado de administrar los
recursos atencionales del sistema cognitivo, otorgando prioridad de procesamiento a algunas
actividades en desmedro de otras, esto es, decide qué actividades dar curso y cuáles deben
eventualmente suprimirse o bloquearse. Desde el punto de vista funcional, el ejecutivo central
tendría por cometido la planificación de las estrategias de procesamiento que conviene aplicar
en el tratamiento de una tarea dada o la elaboración de los cursos de acción a seguir para el
logro de un cierto objetivo, así como la coordinación de las actividades llevadas a cabo por los
sistemas subsidiarios de la memoria de trabajo, el lazo articulatorio y la agenda viso-espacial.
Desde el punto de vista fenoménico, las funciones de monitoreo y control que ejerce el
ejecutivo central son subjetivamente vividas como conscientes por el sujeto.
El modelo de memoria operativa en lo esencial viene a enriquecer el concepto clásico de
memoria de corto plazo mediante la postulación de múltiples componentes en lugar de un
almacén unitario. Es claro que la información que ingresa a la mente no se limita a inputs
lingüísticos o visuales. Además de estos inputs que, en el modelo teórico, contarían con
espacios de almacenamiento y procesamiento propio (el lazo articulatorio y la agenda viso-
espacial), en la mente ingresa información de otro tenor, como por ejemplo, inputs hápticos,
musicales, gustativos, etc., diversos estudios demostraron que un modelo de memoria
operativa más completo debería incluir más componentes de modo de dar cabida al amplio
espectro de inputs estimulares con los que la mente comercia en sus interacciones cotidianas
con el mundo.
13 Memoria y conciencia:
El descubrimiento de que, en ciertos casos, los sujetos amnésicos podían recuperar información
pasada sin que ello implique un recuerdo consciente de dicha información, tuvo por efecto un
cambio en la idea de un ALP unitario cuyos contenidos, de por sí, accederían a la conciencia en el
acto de recuerdo. Así, comenzó a explorarse de un modo sistemático la hipótesis de una memoria
inconsciente o, también llamada “implícita” en la jerga contemporánea y, con ello, la idea de que
el ALP puede constar también de sistemas no necesariamente accesibles a la conciencia.
35
necesario recuperar conscientemente material estimular conexo a ella como, por ejemplo, las
palabras previamente presentadas.
36
El hecho de que la exposición previa del material estimular relevante a una tarea dada maximiza la
probabilidad de éxito en dicha tarea, certifica que la memoria se encuentra involucrada en el
fenómeno del priming. Por lo tanto, cabría afirmar que, en la amnesia, ciertos aspectos de la
función mnémica se encontrarían preservados: después de todo, pareciera que los amnésicos algo
recuerdan.
37
14 Estados de ánimo y recuerdo: un ejemplo de interacción de emociones y cognición.
En el caso particular de la memoria, en su interacción con variables no cognitivas como las
emociones, la evidencia disponible parece indicar que estas actuarían en dos direcciones
diferentes. Por un lado, como un factor que precipita el olvido y, por otro, como un factor que
introduce cierta distorsión en los procesos de recuerdo.
14 1. Emoción y olvido:
Con la hipótesis de la represión, Freud sostuvo que puede ocurrir que los recuerdos del pasado
asociados con emociones negativas no puedan recuperarse puesto que su acceso a la conciencia
ocasionaría al sujeto “un dolor psíquico intolerable”. Así, tales recuerdos perturbadores verían
bloqueado su acceso a la conciencia siendo la represión el mecanismo psíquico que llevaría a cabo
dicho bloqueo. Luego, la represión actuaría en los hechos como un factor generador de olvido.
Baddeley sostiene que resulta muy difícil discriminar entre casos en los que el sujeto evita explorar
áreas de memoria asociadas con emociones negativas y casos en los que el sujeto deviene
amnésico a resultas de la represión.
Bradley y Morris observaron un curioso patrón de resultados empíricos luego de pedirles a sus
sujetos que generaran asociados ante palabras de carácter emocionalmente positivo, negativo o
neutro. En el recuerdo inmediato, los asociados a las palabras “emocionales” se recordaban
menos que los asociados a las palabras neutras. En el recuerdo demorado, por el contrario, se
produjo una inversión en la tendencia, siendo mejor recordados los asociados a las palabras
emocionales que los asociados a las palabras neutras.
Hipotéticamente, si la represión produce el olvido de palabras asociadas a emociones negativas no
debería producirse una baja en el recuerdo de palabras asociadas con emociones positivas y,
además, tampoco debería producirse la mentada inversión en el patrón de recuerdo, esto es,
luego de una cierta demora, los asociados generados ante palabras “emocionales” no tendrían por
qué recordarse mejor que los asociados generados ante palabras neutrales.
Los autores apelaron al concepto de que las huellas mnémicas, inicialmente, atravesarían por un
periodo de consolidación, durante el cual, un proceso de inhibición prevendría su acceso de modo
que, en dicho periodo, normalmente su recuperación habría de resultar dificultosa.
Cabría esperar que los ítems emocionales sean peor recordados al principio, periodo en el cual
hipotéticamente transcurre el proceso de inhibición, y mejor recordados luego de una demora
tras la cual las huellas mnémicas se encontrarían suficientemente consolidadas.
Aunque la hipótesis de la activación pretende erigirse como una explicación alternativa al
concepto de olvido por represión, parece claro que debería proporcionar, a su vez, una explicación
consistente de por qué los ítems emocionales habrían de desencadenar un proceso de mayor
activación que los ítems no-emocionales.
En conclusión, no cabe duda de que los estados emocionales juegan un rol importante en los
procesos de olvido: los episodios asociados con emociones negativas se olvidan más fácilmente
que los episodios “felices” de nuestras vidas. Ahora bien, esto puede ocurrir ya porque los
primeros sufren un proceso de represión, y aporque las huellas mnémicas de los segundos se
“refrescan” con mayor asiduidad al re-evocarlos de una manera más continuada o, quizás, una
combinación de ambas o por alguna otra razón diferente a dilucidar.
38
Lloyd y Lishman observaron que sujetos depresivos puestos a la tarea de generar recuerdos
autobiográficos ante una lista de palabras neutrales, tendían a recordar más experiencias
desagradables o tristes que experiencias agradables y, además, cuanto más profunda era su
depresión, más rápidamente recordaban los acontecimientos desagradables. Este sesgo en el
recuerdo hacia lo negativo puede interpretarse como reflejando un efecto de dependencia del
estado (emocional) o bien un efecto de congruencia con el estado (emocional).
En el primer casi, vale decir, a mayor concordancia entre el estado emocional presente al
momento de la codificación y el estado emocional presente al momento de la recuperación,
mayor será la probabilidad de recuerdo del material aprendido o del episodio vivenciado. En el
segundo caso, vale decir, cando estamos tristes (o alegres), tenderíamos a recordar
acontecimientos tristes (o alegres) aun cuando los hayamos experimentado durante un periodo de
felicidad (o de desazón).
INTRODUCCIÓN
La noción de sistemas de memoria es fundamental en psicología cognitiva. A grandes
rasgos, un sistema de memoria es un conjunto coordinado de estructuras y/o procesos que
permiten llevar a cabo funciones de la memoria (esto es: almacenar y recuperar información).
Cabe destacar que no toda modalidad de memoria define un sistema. En tal sentido, por
ejemplo, la memoria sensorial sería un sistema de memoria, pero la memoria icónica no alcanzaría
similar estatus sino el de una modalidad –entre otras- dentro del referido sistema.
Asimismo, los denominados sistemas de memoria pueden tener un carácter estructural,
procesual o mixto.
39
temporal transitoria (MCP) que permite disponer de la información que proviene de la biblioteca
(MLP) y en cuyo seno (del escritorio o MCP) se realizaría un procesamiento de ese material
(memoria de trabajo). Por último, cada libro podría representar un sistema de huellas mnémicas, y
cada fragmento de información en el interior del libro se podría corresponder con las huellas
mnémicas más elementales.
En efecto, la metáfora de la biblioteca permite por un lado, distinguir entre las funciones
de almacenamiento y recuperación y, por otro, destaca el aspecto clave de la organización en un
sistema de memoria.
La descripción anterior apoya la tesis de que la memoria sería una serie de estructuras
cognitivas especializadas.
SISTEMAS DE MEMORIA
1. Memoria sensorial, de corto plazo y de largo plazo
(La sensorial de corto y largo plazo y la memoria operativa están descriptas en el texto del
Humberto.)
Memoria declarativa y procedimental (o no declarativa)
Declarativa: la info almacenada es una representación explícita referida a conceptos o a
hechos. Tipo de conocimiento de “saber qué”. Ejemplo: saber que Roma es la capital de Italia;
saber qué hice ayer.
Procedimental: la info almacenada es un patrón de procedimientos motores que posibilita
una actuación conductual. Corresponde al “saber cómo”, a hábitos motores, destrezas ejecutivas.
Se caracteriza como un tipo de memoria inconsciente, automática, no reflexiva. Ejemplo: andar en
bici, manejar un auto, bailar, cocinar, etc.
(Dentro de la declarativa) Sistemas (no modalidades!) de memoria semántica y episódica
Semántica: la info almacenada son conceptos y sus relaciones, de carácter abstracto y
atemporal. Refiere al “saber” un conocimiento conceptual, proposicional, lexical y/o figural.
Ejemplo: saber que Roma es capital de Italia, saber que Freud es el padre del psicoanálisis, saber
las tablas de multiplicar, etc.
Episódica: autobiográfica, relativa a episodios vividos localizables en espacio y tiempo. Un
recuerdo o huella mnémica episódica es relativa al “recordar” en contraposición al “saber” de la
memoria semántica. Ejemplo: recordar lo que hice esta mañana, recordar donde estaba cuando
ocurrió un hecho importante, recordar un episodio de la infancia.
Sistemas de memoria explícita consciente e implícita inconsciente
Explícita Consciente: la actualización de una huella mnémica se produce de modo
consciente. Existen dos variedades: el reconocimiento (que supone o bien la presencia real del
40
objeto de memoria o bien una pista informativa que facilita su recuperación como, por ejemplo, la
foto de una persona) y la evocación (aparición de una huella mnémica en la conciencia, se de
modo voluntario o involuntario). Ejemplo: reconocer a una persona al verla, recordar el rostro de
una persona cuando no esta presente.
Implícita Inconsciente: actualización de un hecho pasado que aparece manifiesto en la
conducta, aunque sin que el sujeto sea consciente e tal incidencia. Ejemplo: completar la raíz de
una palabra indeterminada con el contenido de una palabra específica a la que previamente se ha
estado expuesto, aunque sin poder recordarlo; enunciar de buena fe como propia una idea que
hemos escuchado a otra persona, sin ser conscientes de ese último hecho.
(Dentro de la memoria explícita consciente) Sistemas de memoria evocativa y memoria
de reconocimiento
Evocativa: la huella mnémica aparece en la conciencia de modo puramente
representacional, sin que el objeto de referencia esté presente. Ejemplo. Evocar la cara de una
persona, evocar un lugar, evocar una escena determinada
De reconocimiento: la huella mnémica se actualiza de modo consciente ante la presencia
perceptual del objeto de memoria o algún equivalente Ejemplos: reconocer a una persona al verla;
reconocer que ya se ha estado antes en un lugar en el que se está ahora.
Memoria afectiva-emocional
Sistema de memoria único, no tiene relación con otros. Pensá en el significado común de
los fenómenos psicológicos como la culpa, el remordimiento, nostalgia, añoranza, agradecimiento,
arrepentimiento, venganza, perdón. Por un lado, notá que refieren de uno u otro modo a
fenómenos de la esfera efectiva emocional y por otro están todos intrínsecamente orientados al
pasado. El estudio de setas relaciones se remonta a la meta-psicología analítica y se continua en
las modernas concepciones neuropsicológicas. Ejemplos: recuperar un antiguo sentimiento d
alegría infantil al volverá visitar la casa de la infancia; recordar la sensación de felicidad o de
tristeza experimentada en una determinada situación pasada, etc.
41
INTEGRACIÓN DE LOS DIFERENTES SISTEMAS
MEMORIA
PROCEDIMENTA
DECLARATIVA
L
SEMANTICA EPISODICA
MEMORIA
EXPLICITA IMPLICITA
CONSCIENTE INCONSCIEN
TE
RECOGNITIV
EVOCATIVA
A
Abordable a través de tests
Abordable a través de tests
indirectos:
directos:
Completamiento de raíces de
Recuerdo libre
palabras
Recuerdo con claves
identificación de palabras
Reconocimiento
degradadas
Etc.
Etc.
42
MEMO
RIA
a) b) c)
MEMO
MEMORIA MEMORIA
RIA
DE CORTO DE LARGO
SENSO
PLAZO PLAZO
RIAL
SEMA EPISÓD
NTICA ICA
43
procesos (por ej. La memoria explícita consciente puede asimilarse tanto a una estructura
como al estadio final de toma de conciencia aplicado al proceso de recuperación)
MEMORIA EPISÓDICA
MEMORIA SEMANTICA
MEMORIA PROCEDIMENTAL
De recuerdo serial: el sujeto debe recordar las unidades de información en idéntico orden
al que fueran presentadas. Ejemplo: recordar trigramas de una lista en el orden exacto en
que aparecieron expuestas, tal como el método de Ebbinghaus.
De recuerdo con claves: el sujeto debe recodar en cualquier orden un set de unidades
antes presentado, donde la info posee algún orden categorial, a partir de ciertas
44
categorías o claves de recuperación. Ej: recordar todos los países sudamericanos en una
lista cuyos elementos fueran Argentina, Alemania, Rusia, Uruguay y Canadá.
Tests de reconocimiento:
El sujeto debe decidir si una serie de unidades de información que se presentan se
corresponde o no con una información previamente presentada. Ej: decidir si las palabras avión y
elefante estaban presentes en una lista previa cuyos elementos fueran casa, avión, barco, árbol y
arroyo.
TESTS INDIRECTOS
El sujeto realizará determinada tarea cuya resolución podría involucrar la actualización de
una información previa aunque sin hacer referencia explícita a la memoria en la consigna.
Test de completamiento de raíces de palabras: se trata de un test conceptual o semántico
donde el sujeto debe completar con la primera que viene a su mente una serie de raíces
de palabras.
Definición extensiva:
45
1. La traza de acciones inmediatas anteriores: solemos conservar de alguna manera, a modo
de “eco conductual”, los recuerdos del recorrido y de las situaciones experimentadas
antes de arribar al lugar donde ahora nos encontramos.
2. Objetos permanentes, aspectos no perceptuales del mundo circundante y presencias
implícitas: aquí se refiere a la conciencia apenas advertida del conjunto de aspectos del
mundo circundante que aunque no están siendo percibidos en tiempo real forman parte
del contexto situacional. (ej.: “estamos en el living de nuestra casa y sabemos que en
alguna habitación se encentra alguien a quien hace horas que no vemos”).
3. Referencias temporales: sabemos que estamos en determinada estación del año, en
determinado mes, en determinado año, etc.
4. Horizonte de protensiones: albergamos también la actualización de los objetivos a los que
dirigimos nuestras acciones presentes.
5. Identidad personal: la MIC comprende también la sensación de identidad personal, es
decir: la vivencia de ser uno mismo a través del tiempo.
46
sintetiza la información acerca de quiénes somos, donde estamos, que día es y cómo
llegamos allí. Tal huella mnémica corresponde precisamente a la MIC.
Fundamentos neuropsicológicos de la MIC:
La base neural del self consiste en la continua reactivación de por lo menos dos conjuntos
de representaciones. Un conjunto concierne a las representaciones de acontecimientos clave en la
autobiografía del individuo, sobre la base de las cuales se puede reconstruir repetidamente una
noción de identidad. Además, hay datos únicos de nuestro pasado que son constantemente
reactivados en forma de representaciones cartografiadas: dónde vivimos y trabajamos, como nos
llamamos, cual es el nombre de nuestros parientes más cercanos, nuestra ciudad y país y así
sucesivamente.
Diferenciación del concepto de MIC respecto de otros conceptos:
La diferencia entre preconsciente y MIC es simple y contundente: aunque ambos refieren
a huellas mnémicas de un virtual sistema de memoria, en el caso de la MIC las mismas se
encuentran actualizadas en la conciencia, mientras que en el preconsciente esas huellas resultan
potencialmente conscientes, pero no lo son en acto.
Tampoco debe confundirse a la MIC con el concepto de “conciencia marginal”, la
conciencia marginal refiere más específicamente a débiles experiencias acaecidas en la periferia
del campo atencional.
Aunque la MIC supone la vivencia de un residuo mnémico experimentado a modo de
aspecto no focal de la conciencia, la inversa no es válida: no todo aspecto periférico de la
conciencia forma parte de la MIC. También resulta de interés distinguir el significado de la MIC del
concepto de “memoria implícita” enunciado por Karl Popper
También resulta necesario distinguir a la MIC del concepto de “memoria implícita” tal
como aparece ese postulado en el contexto de la psicología cognitiva. La diferencia entre la MIC y
la memoria implícita radica precisamente en que, en la MIC, el sujeto experimenta de un modo
consciente la incidencia del pasado sobre el presente; mientras que en la memoria implícita eso no
ocurre. Aunque en ambos fenómenos la memoria aparece implícita en la experiencia actual, solo
en el caso de la MIC esa aparición reviste un carácter consciente.
La MIC y el modelo estructural de memoria:
La postulación de la MIC resulta necesaria para dar cuenta de una serie de hechos
ordinarios en la vida mental, para demostrarlo parece conveniente primero identificar algunas
limitaciones explicativas de los modelos de memoria existentes:
a. La información en el ACP (almacén de corto plazo) tiene dos destinos posibles: a)
perderse, b) transvasarse al ALP a condición de permanecer previamente en el ACP a
través de un repaso mental interno que representa un loop de repetición deliberado y
auto sostenido.
b. Por su parte, la información que se ha inscripto en el ALP tiene también tres distintos
destinos posibles: a) borrarse y, por ende, perderse de modo definitivo, b) permanecer
aislada dentro del sistema pero con dificultades para ser recuperada desde el ACP, o c)
permanecer efectivamente disponible ante peticiones del ACP.
c. El proceso de recuperación es simple: dada la demanda de recordar algo, desde el ACP (o
desde la memoria operativa o MO, en el modelo de Baddeley) se realiza una petición al
AC, desde donde la información requerida se transvasa al ACP, donde se manifiesta
conscientemente.
47
En el modelo de Atkinson y Shiffrin, la información se transvasa del ACP al ALP mediante
un loop, pero parece poco probable que cualquier sujeto que intente recordar algo se esfuerce
constantemente por transvasar esa información, ya que en muchos casos se recuerdan datos que
parecen nimios, y sin embargo el sujeto es capaz de evocar a la conciencia.
Ahí es donde actúa la MIC, a modo de loop inconsciente, permitiendo al sujeto recordar
datos sin la necesidad de esforzarse.
El modelo de memoria estándar y la MIC no son compatibles: dado la limitada capacidad
del ACP (entre 7 +/- 2 unidades de información) a lo que se suma que parte de ésta debe dirigirse
a cargas atencionales presentes (información perceptual, procesos de pensamiento, etc.), no
parece quedar espacio para albergar información proveniente del ALP y, mucho menos, para algo
parecido a la MIC.
A modo de síntesis, generalmente no estamos concentrados en retener los sucesos y, por
ende, no aplicamos aquel proceso de repaso interno. Empero, a pesar de eso, nuestra memoria
logra retener los eventos que experimentamos momento a momento, a pesar de no esforzarnos
en pos de ese logro. De modo que los destinos de un nuevo modelo de memoria podría ser: a)
perderse; b) fijarse de modo activo en el ALP vía repaso mental interno o c) fijarse de modo pasivo
tanto en el ALP como sobre la conciencia, sea en forma directa o a través de su re-proyección en
términos de MIC.
Propiedades de la MIC: topografía, dinámica, dimensionalidad y duración:
1. Topografía y localización:
La MIC tiene su origen inmediato en el almacén de largo plazo, desde el cual es proyectada
sobre la conciencia.
3. Dinámica:
48
4. Capacidad de almacenamiento y modalidad de la información almacenada:
Una última propiedad de importancia refiere a la duración de las memorias que integran la
MIC al interior de ese mismo sistema. Para decirlo con un símil visual: si cada componente de la
MIC se representara como un delgado hilo de un color determinado, mientras que la antigüedad
de cada recuerdo estuviera simbolizada por diferentes longitudes, lo que se observaría en su
interior sería una miríada de hilos multicolores de diferentes extensiones.
Puede concluirse que mientras algunas memorias componentes, como las que conciernen
a la sensación de identidad personal, perdurarán en la MIC en razón de renovarse cíclicamente,
otras se irán debilitando a lo largo del ciclo para finalizar extinguiéndose y, por último, otras irán
saliendo del sistema.
MICs oníricas:
Algunos autores sostienen, luego de una serie de reportes de sueños reales, que durante
el sueño los hechos pasados pueden expresarse en alguna de las siguientes formas:
a. Haber ocurrido durante el sueño y, simplemente, conservarse en la conciencia presente (el
evento recordado que persiste en la conciencia fue en algún momento presente y luego
paso a conformar la MIC del soñante).
49
b. Haber ocurrido en el sueño, permanecer durante un tiempo en la MIC del soñante, luego
ser temporariamente olvidado y posteriormente recordado, siempre durante el mismo
sueño.
En ambos casos, los sujetos experimentan un hecho durante el sueño que persiste un
tiempo en la memoria onírica, luego lo olvida y, finalmente, vuelven a evocarlo. Es decir: el evento
recordado fue en algún momento presente, luego persiste en la MIC del soñante durante un
tiempo hasta que desaparece para, finalmente, emerger como recuerdo.
c. Constituir un hecho perteneciente al pasado real de la persona, que se actualiza durante el
sueño en forma de recuerdo (los fragmentos de la vigilia de la MIC se transfieren al
formato de una MIC en el plano onírico).
d. Constituir hechos o un conjunto de hechos que, aunque serian fabricados por la mente del
soñante, no surgen durante el decurso temporal del sueño sino que se dan por supuestos.
En consonancia, se experimentan de modo más sentido que efectivamente vivido durante
el desarrollo del sueño, a modo de recuerdos “incrustado” en la memoria.
50
UNIDAD 4 (LENGUAJE, 3 TEXTOS)
INTRODUCCIÓN A LOS MODELOS COGNITIVOS DE LA COMPRENSIÓN DEL LENGUAJE (MAROTTO)
1. La psicolingüística cognitiva:
No es extraño que la psicología cognitiva haya destinado buena parte de sus esfuerzos a la
investigación de la facultad del lenguaje, en tanto es fundamental para la construcción humana del
conocimiento en su sentido más amplio, el campo dedicado a esto es más específicamente la
psicolingüística cognitiva.
Suele definirse una hipótesis como un enunciado relacional entre dos o más variables. Una
hipótesis relaciona una variable independiente con una variable dependiente. La variable
independiente es manipulada por el experimentador para estudiar su influencia sobre la variable
dependiente.
Siempre se busca refutar las hipótesis, con el criterio de que una hipótesis que no se pudo refutar
puede, por el momento, aceptarse.
La psicolingüística es una disciplina experimental interesada en aspectos de procesamiento, por lo
tanto constituye una rama de la psicología cognitiva.
La psicolingüística asume la metáfora computacional de que se vale la psicología cognitiva, que
concibe a la mente humana como una combinación de procesos que elaboran y transforman
información.
51
como utilizamos los conocimientos que todos poseemos sobre nuestro idioma materno (y
eventualmente otros idiomas). A la psicolingüística le interesa el procesamiento mental que se
pone en juego al hablar y al escuchar, en la lectura y en la escritura, es decir, en el acto de producir
y en el de comprender el lenguaje.
Los estudios lingüísticos aportan ideas y ofrecen temas de investigación para el psicolingüista.
Los modelos psicolingüísticos constituyen descripciones funcionales del comportamiento verbal
humano. Modelizar consiste en definir el papel atribuido a cada etapa de procesamiento, a cada
operación mental particular; en otros términos, se trata de especificar la transformación de que ha
sido objeto la información lingüística de una caja a la otra.
La observación incluye metodología original de recolección de datos, como por ejemplo el estudio
en las pausas en el habla y el análisis de errores del habla. A la psicolingüística le interesan como
mal funcionamiento temporal de los mismos procesos responsables de la producción libre de
equivocaciones, del mismo modo que a la psicología de la percepción le interesan las ilusiones
visuales cuando trata de caracterizar los procesos responsables de la percepción visual.
2. Niveles de procesamiento:
Una persona comprende cuando es capaz de extraer el significado de una señal de habla
(en el lenguaje oral) o de signos gráficos (en el escrito), significado que en el último
término llegará integrarse en sus propios conocimientos.
En el lenguaje pueden distinguirse niveles de estructuras: las unidades sub-léxicas (es
decir, menores que las palabras, como por ejemplo los fonemas y las letras), las palabras,
las oraciones el texto o discurso. La psicolingüística postula que existen procesos
cognitivos específicos para la comprensión de cada uno de ellos. Esos procesos cognitivos
se denominan indistintamente procesos componentes de la comprensión o niveles de
procesamiento en la comprensión del lenguaje.
52
información procedente del exterior con información almacenada en la memoria de largo
plazo.
b. Compresión de palabras:
Nivel de procesamiento: procesamiento léxico:
Hay que contrastar la información sub-léxica procesada en el nivel anterior con las
representaciones de las palabras de que dispone el lector u oyente, las cuales conforman
un almacén de palabras denominado “léxico mental”, en el reconocimiento de las
palabras se destaca una gran influencia del contexto.
c. Comprensión de oraciones:
Niveles de procesamiento: Procesamiento sintáctico y semántico:
a) Identificar los constituyentes sintácticos de la oración, y
b) Integrar la información en la oración considerada como un todo, de forma que el conjunto
resulte con sentido.
a. La hipótesis modular:
La modularidad de la mente (Fodor): según la hipótesis modular, la mente comprende algunas
estructuras de propósito general relativamente indiferenciadas, y algunos módulos diferenciados,
especializados, que se comunican con otras estructuras cognitivas solo en muy limitadas maneras
que es preciso investigar. Dichos módulos incluyen los sistemas perceptuales y el sistema de
comprensión del lenguaje, los cuales actúan con relativa independencia de otros sistemas
cognitivos humanos. Fodor denomina sistemas de entrada a los módulos, y sistemas centrales a
las estructuras no modulares.
53
2) Obligatoriedad: dados los estímulos que normalmente los disparan, los módulos ejecutan
sus funciones automáticamente.
3) Encapsulamiento informacional: con esta expresión se designa el carácter cerrado de
dichos sistemas en cuanto a la información que pueden utilizar para realizar sus funciones.
Los módulos no son sensibles a la información de tipo general que el sujeto pueda poseer,
sino solo a aquella que es estrictamente relevante para la operación a realizar. Si
consideramos que el output dl modulo del lenguaje es, en términos de Fodor, una
representación que especifica la forma gramatical y lógica de una oración, los sistemas
centrales podrán poner en relación esa oración con otras oraciones y con conocimiento
previo, para completar el procesamiento del significado de esa oración, es decir, su
procesamiento semántico, y a partir de allí proseguir para completar la comprensión de un
párrafo de texto o un fragmento de discurso hablado, o preparar una respuesta en un
dialogo, o resolver un problema, etc.
4) Rapidez: Fodor destaca la rapidez de los modulos, por contraste con la lentitud de los
procesos centrales.
54
Forster postula tres procesadores autónomos jerárquicamente ordenados: léxico, sintáctico y
semántico. El procesador léxico recibe input solo de los análisis perceptivos y no de los otros
niveles. El procesador sintáctico recibe input solo desde el nivel léxico. El procesador semántico
recibe input del nivel sintáctico, y evalúa parcialmente la plausabilidad semántica de una oración.
El output de este ultimo procesador será ovbjeto de procesamiento por parte de los sistemas
centrales
El modelo de Forster plantea la no interaccion entre procesadores. Hay una restricción en el
intercambio de información entre los componentes del módulo del lenguaje.
c. Concepción interactiva:
Según la concepción interactiva, entre los diversos niveles de procesamiento existe una
comunicación bidireccional, es decir, abajo-arriba y arriba-abajo. La activación de cada nivel
depende de inputs procedentes de otros niveles tanto inferiores como superiores. Existen también
en esta concepción mecanismos especializados para los diversos niveles de procesamiento, pero
sin la exigencia de comunicación unidireccional.
Lo que distingue los dos tipos de modelos –modelos modulares y modelos interactivos- es la
existencia o no de efectos retroactivos de los niveles de procesamiento más elevados sobre los
menos elevados, en el momento mismo en que operan estos últimos.
Esto equivale a investigar lo que generalmente se denomina efectos del contexto, por ejemplo:
efectos del contexto semántico sobre el procesamiento sintáctico; efectos del contexto semántico
y del contexto sintáctico sobre el procesamiento léxico, etc.
“Los modelos interactivos postulan que los procesos de niveles superiores controlan
directamente el procesamiento de la información en niveles inferiores, en el momento mismo en
que estos se desarrollan.”
Los modelos autonómicos, en cambio, imponen precisas restricciones en términos de “cuando” y
“como” puede ser intercambiada información de distintos niveles. En psicolingüística se conoce
este problema como el problema de determinar los loci (lugares) de procesamiento de los diversos
tipos de información (léxica, sintáctica, etc.)
En los modelos modulares hay puntos de interacción entre fuentes de información, y solo en esos
puntos pueden confluir tipos de información diferente. En estos modelos tiene un importante
papel la idea de que muchos procesos son autónomos, trabajan sobre un input especifico y sus
operaciones internas sobre ese input no son afectadas por información proveniente de otras
fuentes, hasta tanto dichas operaciones se hayan completado en los modelos interactivos,
cualquier tipo de información (por ejemplo, el tema del discurso que está siendo comprendido, o
el conocimiento general del mundo del “comprensor”) está disponible para influir sobre el
procesamiento de cualquier otro tipo de información (por ejemplo, la comprensión de una palabra
determinada) en cualquier momento de procesamiento. Es decir, cualquier tipo de información
puede ser utilizada para ayudar al procesamiento de otros tipos de información, tan pronto como
resulta útil.
“El reconocimiento de palabras en las emisiones normales tiene lugar en un contexto sintáctico e
interpretativo que impone restricciones sobre las palabras que pueden aparecer o es probable
que aparezcan en un determinado punto de la emisión. Nuestra propuesta es que la
55
comprensión del habla es interactiva, en el sentido de que permite integrar durante el
procesamiento todas las fuentes de información disponibles; de ese modo, por ejemplo, el
reconocimiento de una palabra depende de la interacción del conjunto de restricciones
impuestas simultáneamente por la entrada sensorial y por el contexto de la emisión y del
discurso en que aparece la palabra”.
a. El léxico mental:
El léxico de una lengua está formado por todas las palabras que componen esa lengua.
¿Sobre qué “diccionario” se efectúan los procesos psicológicos implicados en el procesamiento
léxico? Sobre el así llamado léxico mental, que podemos definir como el conocimiento que los
sujetos tienen de las palabras de su lengua. . Dicho conocimiento forma parte de la memoria de
largo plazo, y comprende toda la información (fonológica, ortográfica, morfológica, sintáctica,
semántica) relativa a las palabras de la lengua.
56
La manipulación de la variable independientes se realiza mediante la confección de listas
experimentales de material lingüístico, seleccionando las palabras que se quieren comparar (ej.:
palabras de alta y baja frecuencia, palabras de referente concreto o abstracto, palabras ambiguas
y no ambiguas, etc.)
Tarea de denominación:
La tarea de denominación (también llamada tarea de lectura) se realiza exclusivamente en
modalidad visual. La tarea del sujeto consiste en leer lo más rápidamente posible cada palabra que
se va presentando.
Puede existir un contexto preparador también en la tarea de denominación, en cuyo caso las
instrucciones dadas al sujeto serán leer la palabra que aparece en último término.
Actualmente la tarea de denominación ha ganado espacio, y en muchas ocasiones se comparan
resultados entre las tareas de denominación y decisión léxico, especialmente en estudios acerca
de la influencia del contexto sobre el procesamiento léxico.
57
La configuración global de las palabras no es algo decisivo, no es la clave para identificar o
reconocer una palabra, sino que de hecho el reconocimiento de la palabra está basado en un
reconocimiento en paralelo de todas las letras.
Consideremos que presentamos un escrito con un tipo de letra que el sujeto no ha visto nunca, y
le damos un tiempo de entrenamiento; después de leer algunas líneas, el sujeto adquiere
velocidad. Se podría decir entonces que se ha producido un ajuste en las plantillas internas.
Habría que suponer entonces que la plantilla correspondiente a la configuración global de cada
palabra que todavía no ha sido vista ha cambiado sin que haya habido ninguna estimulación previa
y esto no tiene sentido. Es más plausible suponer que lo que se ajusta son los rasgos de las letras, y
que cuando el sujeto encuentra una palabra nueva lo que identifica son esas letras que componen
la palabra.
5. Comprensión de texto:
Actualmente los estudios psicolingüísticos de la comprensión del texto toman en cuenta la
relación de las oraciones con el discurso en el cual ellas aparecen. Un texto no es un conjunto
aleatorio de oraciones, sino un conjunto coherente.
La comprensión de cada oración contribuye a la construcción de una interpretación coherente de
todo el texto. La relación de interdependencia entre el texto y cada una de las oraciones que lo
58
componen puede expresarse así: la información presentada en cada oración deberá ser evaluada
en relación con alguna representación del discurso previo; cada oración a su vez contribuye a ir
actualizando dicho discurso, y así la comprensión del texto va avanzando.
Se requiere comprensión en diversas situaciones, por ejemplo participación en diálogos o ruedas
de charla o discusión, respuesta a preguntas, comprensión de una orden, etc. la comprensión del
discurso abarca todas estas situaciones; por el momento, ha sido privilegiada el área restringida de
investigación de la comprensión del texto, pero se trata de un campo de investigación en
expansión.
a. Coherencia y cohesión:
La compresión del texto como proceso componente:
La comprensión de palabras y oraciones es en sí misma insuficiente. La comprensión del texto
exige establecer relaciones que mantienen unidos los eventos, hechos e ideas descritos por las
diversas oraciones que conforman el texto, mediante nexos de diversas índoles: temporales,
motivacionales, causales, lógicos, etc.
Así, el texto es percibido y representado en memoria como una estructura coherente, y no un
ensamblaje disperso de trozos individuales de información. Esta representación, a su vez,
constituye la base para el posterior recuerdo, comunicación a otros, y, en general, cualquier tarea
que requiera acceso a información almacenada en memoria acerca del texto.
En otros términos, la comprensión del texto exige que el lector ponga en marcha procesos
inferenciales que permitirán utilizar su conocimiento previo –tanto de sus habilidades lingüísticas
(conocimiento del lenguaje) como la información general de que dispone acerca del mundo –en
favor de la construcción de una representación coherente del texto.
No existe texto alguno que no sea totalmente explícito: todo texto requiere que el lector realice
inferencias. La coherencia del texto debe pues ser “construida” y la construcción de la coherencia
es resultado de procesos inferenciales que el lector va realizando a medida que avanza en la
lectura del texto.
Una inferencia en comprensión del texto puede entonces definirse como la información que es
activada durante la lectura sin figurar explícitamente en el texto.
La coherencia del texto no está enteramente en el texto, ni enteramente a cargo del lector. Este
construye la coherencia guiado por el texto, pero a la vez realizando las necesarias inferencias.
59
c. La cohesión del texto:
Del conjunto de procesos inferenciales que el lector debe llevar a cabo para “construir” la
coherencia, algunos tienen por objeto el procesamiento de las relaciones de cohesión del texto. La
cohesión de un texto está dada por la presencia de expresiones cuya interpretación depende de la
interpretación de otras expresiones del texto, sirviendo estas co-interpretaciones para entrelazar
las oraciones.
La más importante fuente de cohesión textual son las expresiones anafóricas o, más simplemente,
anáforas. Se denomina así a una expresión cuya interpretación depende de la interpretación de
otra expresión que aparece previamente en un texto –denominada antecedente de la anáfora-
siendo anáfora y antecedente co-referenciales.
Veamos un ejemplo:
-Pedro quería prestar a María algo de dinero.
-Ella estaba en aprietos y realmente lo necesitaba.
Las anáforas pronominales ella y lo deben interpretarse relacionándolas con sus antecedentes,
que son María y algo de dinero. Estos lazos de cohesión contribuyen al hecho de que las oraciones
constituyan un fragmento de texto coherente.
La coherencia del texto no depende exclusivamente de la cohesión dada por las expresiones
anafóricas. En otros términos, la coherencia de un texto no es solo coherencia referencial. Es más:
a mera presencia de anáforas no garantía la cogerencia de un texto.
En resumen, conjuntos de oraciones constituyen textos en base a las relaciones que las unen en
una estructura coherente. El lector debe realizar inferencias que darán lugar al establecimiento de
las conexiones mentales necesarias, indispensables para la comprensión del texto. En todos los
casos el lector deberá basarse tanto en sus habilidades lingüísticas, como en su conocimiento
general del mundo.
Como resultado final, idealmente, el lector obtendrá una representación coherente del texto
almacenada en memoria, e integrada a la red más amplia de sus conocimientos.
e. El procesamiento anafórico:
60
El procesamiento de las anáforas consiste en establecer la conexión mental necesaria entre la
anáfora y su antecedente en el texto. Es imprescindible resolver las anáforas, es decir, determinar
sus correspondientes antecedentes¸ de lo contrario no se podría construir una representación
coherente de la situación descripta en un texto y, por consiguiente, no habría comprensión.
1) Estructura del texto: puesto que en la lectura los procesos cognitivos del lector son
puestos en acción por las características del texto, en psicolingüística se ha efectuado una
distinción de tipos de textos y, además, se han elaborado modelos formales de la
estructura textual.
2) Conocimiento previo: es importante recalcar que no bastan las habilidades lingüísticas (el
conocimiento del lenguaje), sino que intervienen tanto el conocimiento general del mundo
–necesario para la comprensión de todo tipo de texto-, como el conocimiento específico de
dominio –necesario para la comprensión de textos más especializados-
3) Procesamiento del texto: es preciso especificar los procesos cognitivos que, dados las
estructuras textuales y de conocimiento previo, permiten comprender los textos y
construir en memoria una representación de la información textual.
Kitsch sostiene que se considera que un sujeto es capaz de reproducir una lista de palabras cuando
las recuerda, o equivalentemente, las ha aprendido. Pero la situación es diferente con textos.
Recordar un texto equivale a reproducirlo, más o menos al pie de la letra y más o menos
completamente, al menos en esencia. Aprender de un texto implica ser capaz de usar la
información provista por el texto, en conjunción con conocimiento previo, para inferir nuevos
hechos, o resolver nuevos problemas.
1) Tipos de textos:
Brewer estableció una tipología generalmente aceptada en psicolingüística.
Los textos narrativos están caracterizados por la aparición de personajes y acciones y la
ocurrencia de sucesos en una secuencia temporal y según relaciones causales y motivacionales.
Los textos expositivos describen conceptos abstractos y relaciones lógicas entre acontecimientos y
objetos con el fin de explicar, informar o persuadir.
Los textos descriptivos corresponden a descripciones de situaciones estáticas en términos de
características físicas y perceptibles, con fin informativo.
La distinción de mayor interés para nosotros es la de textos narrativos y expositivos
(considerando que en ambos tipos de texto habrá pasajes predominantemente descriptivos, y
que, por otra parte, los textos puramente descriptivos son poco frecuentes).
León y García Madruga consideran que, desde la perspectiva del lector, existen notables
diferencias entre los textos narrativos y expositivos. La prosa narrativa requiere menos esfuerzo
para su comprensión y retención que la expositiva. El discurso expositivo suele comunicar al lector
información nueva que requiere cierto nivel de abstracción; esto lo obliga a todos sus recursos
cognitivos, convirtiendo su lectura en una tarea compleja.
61
2) Modelos formales de la estructura del texto:
Según Meyer podemos definir la estructura de un texto como la organización que lo mantiene
ligado y le da su organización general. En textos expositivos, la estructura textual especifica las
conexiones lógicas entre ideas así como la subordinación de algunas respecto de otras.
Algunas razones para la elaboración de modelos formales de la estructura textual son los
siguientes:
- Los investigadores postulan la hipótesis de que hay un paralelismo entre los análisis que
ellos efectúan de la estructura textual, y la representación del texto en la memoria del
sujeto “comprensor”. En consecuencia, una parte del trabajo de investigación está
destinada a validar los modelos de la representación del texto en la memoria, es decir,
establecer la realidad psicológica de los modelos de la estructura textual.
Se pueden distinguir dos grandes tipos de modelos:
- Modelos de estructura de historias, denominados gramáticas de historias, que comparten
el supuesto de que las historias o cuentos tienen formas canónicas y que la gente tiene un
conocimiento implícito acerca de esas formas, y lo utiliza en la derivación de una
representación organizada de la información de una historia.
- Gramática de historias: lo que suponen estos modelos es que existe una gramática que
formalmente especifica la estructura de historias, a la manera en que la gramática de un
lenguaje analiza las oraciones y su estructura sintáctica.
Los componentes necesarios de toda historia son marco, tema, trama y resolución.
La información del marco consiste en una o algunas afirmaciones que establecen el tiempo,
lugar y personajes principales.
El tema es el foco general al que corresponde la trama. Frecuentemente es una meta u
objetivo que el personaje principal debe alcanzar. La introducción de la meta puede o no estar
precedida por una secuencia de sucesos que conducen a ella y la justifican.
La trama de la historia es un número indefinido de episodios, cada uno de los cuales
comprende uno o más intento de alcanzar sus metas y los resultados de esos intentos.
La resolución es el resultado final de la historia con respecto al tema. Consiste en una
realización exitosa de la meta, o bien una situación satisfactoria del personaje principal.
Los detractores de las gramáticas de historias han señalado que estas son descripciones
estructurales aplicables a algunos textos, pero que no describen el modo en que los lectores u
62
oyentes procesan la estructura de los textos en general, por lo que su valor, desde una perspectiva
psicológica, es muy limitado.
León y García Madruga consideran que las gramáticas de historias son heurísticas de considerable
interés, especialmente en el campo evolutivo, ya que proveen indicadores valiosos en el análisis
del desarrollo de la organización de los esquemas en niños, y las diferencias existentes con la edad
- Análisis proposicional:
Kintsch propone como unidad de análisis la proposición.
Las proposiciones suelen definirse como las menores unidades de significado a las que puede
asignarse un valor de verdad. Cada proposición consiste en un predicado –término relacional- y
uno o más argumentos.
Aquí se puede ver como se derivan y activan proposiciones a medida que se avanza en la lectura,
además, se organizan las proposiciones de manera jerárquica.
Realidad psicológica de las proposiciones:
Kitsch y Keenan mostraron que –manteniendo constante el número de palabras- las oraciones con
pocas proposiciones son leídas más rápidamente que las oraciones con muchas proposiciones.
63
La base del texto contiene proposiciones agregadas, que reflejan las inferencias que el
“comprensor” agrega para proveer lazos faltantes en el texto.
El texto real, por lo tanto, expresa lo que puede denominarse base de texto implícita. Una base de
texto explicita es una construcción teórica que incluye también las proposiciones inferidas.
b) El modelo de procesamiento:
El primer paso consiste en el chequeo de la coherencia referencial. Si se halla que la lista de
proposiciones es referencialmente coherente, es decir, si hay solapamiento de argumentos a lo
largo de la lista de proposiciones, esta es aceptada para ulterior procesamiento; si se hallan
lagunas, se inician procesos inferenciales para llenarlas, y el resultado de los mismos será el
agregado de una o más proposiciones a la base del texto, que la hará más coherente.
El procesamiento de la lista de proposiciones tiene dos aspectos:
- El chequeo de la coherencia referencial, dada por el solapamiento.
- La derivación de la macroestructura.
El procesamiento se realiza secuencialmente, en “ciclos” de algunas proposiciones a la vez.
De este modo, el procesamiento prosigue a lo largo del texto, construyendo una red coherente de
proposiciones, que constituye la base del texto.
Finalmente, el output del procesamiento será una base de texto coherente y jerárquica
almacenada en memoria.
Recientes estudios han encarado la investigación de las relaciones que se establecen entre los
conocimientos previos específicos de dominio por parte del “comprensor”, características
estructurales de un texto expositivo, y memoria y aprendizaje del mismo.
64
Desde el punto de vista metodológico, este tipo de estudio utiliza el método de la contrastación,
que consiste en relacionar una característica básica, respecto a la cual difieren entre si los
miembros de una población, con la ejecución en una o varias tareas de comparación.
La gramática generativa:
El lenguaje es considerado por Chomsky una facultad específica de la mente. El uso normal
del lenguaje es una actividad creadora. Gracias a la Gramática Generativa, "Somos capaces de
comprender y producir un número infinito de expresiones a partir de una experiencia pobre o
degradada de la experiencia lingüística (uso infinito de medios finitos)". La Gramática Generativa
es una teoría acerca del sistema de conocimiento incorporado en la mente de una persona que
habla y entiende una lengua particular (genera todas las oraciones correctas de una lengua).
Chomsky busca construir un sistema de reglas capaz de dar cuenta de la producción de
cualquier oración accesible.
La gramática es un sistema internalizado, llamado competencia lingüística. Haber
desarrollado competencia lingüística es saber que somos capaces de valernos del lenguaje en
nuestra vida diaria, es una abstracción que se corresponde con un hablante-oyente ideal. La
actuación lingüística se da con una perdona determinada en una particular situación. Está
determinada por varios factores como creencias extra-lingüísticas según el hablante y la situación,
el lugar juega un papel fundamental de cómo se comprende el discurso. La actuación lingüística
está gobernada por principios de estructura cognitiva (restricción de la memoria).
Competencia: capacidad que tiene un hablante-oyente idealizado para asociar sonidos con
significados estrictamente con su lengua.
65
en la representación del conocimiento y en el acceso y procesamiento del mismo? Estamos acá en
el área de investigación de las neurociencias.
4- ¿Cómo se adquiere el conocimiento del lenguaje y la habilidad para usarlo?
La adquisición del lenguaje plantea la insuficiencia del tema abordado por la corriente
conductista (no pueden dar cuenta de la eficacia con que la adquisición se produce). Se utiliza
"adquisición" en lugar de "aprendizaje" por la dificultad que ha tenido la teoría del aprendizaje
basada en el ensayo y error y en el condicionamiento (incluso el condicionamiento operante) para
constituirse como teoría de aprendizaje.
Chomsky postula la hipótesis del innatismo. Propone estudiar la adquisición del lenguaje
como un proyecto biológico especialmente humano, estudiar el desarrollo del "organo" mental del
lenguaje como único en dos sentidos:
1- Exclusivo del humano.
2- Es diferente y debe considerarse aisladamente respecto de los demás procesos
cognitivos.
66
Inferencias pragmáticas vs inferencias lógicas: Las inferencias pragmáticas se basan en el
conocimiento común de las personas y asumimos que algo puede ser cierto y probable, aunque no
tiene que ser así. Se acomodan a saberes compartidos por una cultura. Su carácter es espontáneo,
sensible y rápido.
Por otro lado, las inferencias lógicas son la aplicación de reglas formales que permiten un
grado máximo de certeza. Construidos por un sistema de razonamiento formal independiente
(cálculo proposicional, proveniente de teoremas, etc). Requieren una reflexión profunda, no es
espontánea, son conocimientos específicos.
Restricciones de la memoria de trabajo y conocimiento basado en la memoria:
La amplitud de memoria de trabajo no dispone de recursos suficientes para procesar a un
tiempo todo el texto. El texto es procesado en ciclos y en cada ciclo se procesa aproximadamente
una oración. Cada ciclo nuevo entrante se procesa en el contexto de otra información, que es
activada en la memoria de trabajo.
Una memoria de trabajo a largo plazo, considerada como una memoria interconectada. El
lector experto cuenta con una estructura de recuperación de información que residen en la
memoria de trabajo a largo plazo, que dispone solo de algunas señales de estas estructuras en la
memoria de trabajo.
Discurso narrativo vs otros alternativos:
El texto narrativo se parece al día a día que el texto expositivo, se fija más que el
expositivo. Ambas ejecutan acciones para lograr objetivos. El lector hace inferencia de los
personajes y situaciones.
Una propiedad esencial es la coherencia, necesaria para la comprensión. Puede ser local
(conecta la información entre dos frases consecutivas), o global (conecta segmentos más amplios
de textos). Las inferencias más importantes se forman en la comprensión. En la comprensión, para
construir el nivel más global, el lector organiza la información en una representación estructurada
(proceso de naturaleza explicativa), como si el lector buscase respuestas a la pregunta “¿por qué?
Así se construye una representación global y causalmente coherente.
1.4
Diferentes niveles de representación del discurso: Código superficial, base del texto y
modelo de situación.
a. Código superficial: representa la forma exacta de las palabras y la sintaxis.
b. Base de texto: contiene proposiciones explícitas en forma reducida, preservo el
significado pero no la exactitud de las palabras (pequeñas inferencias).
c. Modelo de situación: las personas, el lugar de acción. Construye a través de
inferencias entre el texto y el conocimiento previo del mundo del lector.
Hay otros dos niveles de representación: Nivel de comunicación y género del texto:
a. Nivel de comunicación: el contexto dentro del cual el texto está arraigado.
b. Género de texto: Narración exposición, persuasión, chiste. Todos estos niveles
pertenecen a la representación que el lector construye en su comprensión.
Actualmente se cree que estos 5 niveles no están tan diferenciados entre sí.
1.5
Tres funciones de las inferencias:
a- Función cognitiva: con la inferencia nos adentramos bajo la superficie de datos.
b- Comunicativa: facilita la transmisión de información de un modo económico y
atractivo (hay ajuste en el conocimiento del emisor y receptor).
c- Conductual: dirigir y predecir las conductas.
67
Las inferencias hacia atrás suelen establecer conexiones o <puentes> entre dos frases. Las
inferencias hacia adelante se denominan <proyectivas>.
1.6
Inferencias que se generan en una lectura. Los lectores tienden a construir más inferencias
hacia atrás que hacia adelante durante el proceso de comprensión, aunque depende del
tipo de lector. El lector trata de crear una representación completa de toda la situación
evocada en el texto.
-----------------------------------------------------------------------------------------------------------------------------------
SEGUNDO PARCIAL
*Nota de la Autora del Resumen: recomiendo leer el resumen con el texto en mano para ir
siguiendo los temas junto con las imágenes ejemplificadoras que son muy útiles.
68
En el plano de la identificación y el reconocimiento los perceptos de los objetos se
comparan con las representaciones de la memoria para reconocerlos como familiares y
significativos. Se confiere un significado a los perceptos. ¿Qué es el objeto? ¿Cuál es su función?
Conciernen a procesos de orden superior, que implican nuestras teorías, recuerdos, valores, ideas
y actitudes hacia el objeto.
LOS ESTÍMULOS PROXIMALES Y DISTALES
Las diferencias entre un objeto físico del mundo y su imagen óptica en la retina son
distinguidas por los psicólogos como dos estímulos diferentes para la percepción. El objeto
material del mundo se llama estímulo distal (distancia del observador) y la imagen óptica en la
retina se llama estímulo proximal (cercano al observador).
Lo fundamental es que lo que queremos percibir es el estímulo distal (el objeto real del
entorno), pero el estímulo del que extraemos la info es el estímulo proximal (lo sensorial, es decir,
la imagen en la retina). Se puede considerar como la principal tarea de la percepción el determinar
el estímulo distal con la información del estímulo proximal. Lo mismo pasa en los otros ámbitos de
la percepción: para oír, tocar, gustar, etc., la percepción consta de procesos que toman
información del estímulo proximal para señalar propiedades del distal. Los procesos perceptuales
establecen hipótesis acerca de las propiedades físicas del estímulo distal.
69
responde con la psicofísica, el estudio de la relación entre los estímulos físicos y las experiencias
mentales que incitan los estímulos.
El personaje más importante de la psicofísica fue el físico alemán Gustav Fechner, quien
acuñó este término y ofreció un conjunto de procedimientos para relacionar la intensidad de un
estímulo físico (medido en unidades físicas) con la magnitud de la experiencia sensorial (medida en
unidades psicológicas). Las técnicas de Fechner son las mismas sin importar que los estímulos sean
luces, sonidos, sabores, olores o texturas: los investigadores determinan umbrales y elaboran
escalas psicofísicas en las que se relacione la intensidad de la sensación con la fuerza del estímulo.
UMBRALES ABSOLUTOS Y ADAPTACIÓN SENSORIAL
¿Cuál es la mínima y más débil energía que detecta un organismo? ¿Qué tan tenue puede
ser un tono y seguir siendo audible? Estas preguntas se refieren al umbral absoluto de la
estimulación: la menor energía física requerida para producir una experiencia sensorial. Para
medir los u. a., los investigadores emplean técnicas de detección.
Es posible resumir los resultados de un estudio de umbral absoluto en una función
psicométrica: una gráfica que muestra el porcentaje de detecciones (graficada sobre el eje
vertical) y las intensidades del estímulo (graficadas en el eje horizontal). La curva psicométrica
adopta la forma de una S, con una región de transición de la falta de detección a la detección
ocasional y la detección todas las veces.
La definición operacional de umbral absoluto es: nivel de estímulo al que una señal
sensorial se detecta la mitad de las veces. Los umbrales de los sentidos se miden con el mismo
procedimiento, con sólo cambia la dimensión del estímulo.
Es importante advertir que los sistemas sensoriales son más sensibles a los cambios del
entorno sensorial que a los estados constantes. Los sistemas evolucionaron para favorecer los
datos sensoriales nuevos antes que los viejos mediante un proceso llamado adaptación. La
adaptación sensorial es la reducción de la sensibilidad a la entrada prolongada de un estímulo. El
ambiente está siempre lleno de una gran diversidad de estimulación sensorial, el mecanismo de la
adaptación nos deja advertir y reaccionar de forma más rápida a los desafíos de las nuevas fuentes
de información.
SESGO DE LA RESPUESTA Y TEORÍA DE LA DETECCIÓN DE SEÑALES
En lo expuesto hasta acá supusimos que tooodos los observadores son iguales. Sin
embargo, también influye en la medición de umbrales el sesgo de la respuesta, es decir, la
tendencia de un observador a favorecer una respuesta particular por factores que no se relacionan
con las características sensoriales del estímulo.
La teoría de la detección de señales (TDS) es una metodología sistemática para abordar el
problema del sesgo de la respuesta. En lugar de enfocarse sólo en los procesos sensoriales, esta
teoría destaca el proceso de hacer un juicio referente a la presencia o ausencia de estímulos. Si en
la psicofísica tradicional se conceptualiza un único umbral absoluto, en la TDS se identifican dos
procesos de detección sensorial: 1) un proceso sensorial inicial (manifiesta la sensibilidad del
observador a la intensidad del estímulo), y 2) un proceso de decisión (manifiesta los sesgos de
respuesta del observador). Se establece que de acuerdo a la tendencia de sus respuestas, puede
haber un tipo de observador afirmador (que siempre dice que sí – tendrá muchos aciertos pero
también muchas “falsas alarmas”) y un tipo de observador negador (dice siempre que no – tendrá
pocos aciertos y menos falsas alarmas). Con esta metodología, averiguan si dos observadores
tienen la misma sensibilidad a pesar de diferencias significativas en sus criterios de respuesta. Al
proporcionar una manera de separar el proceso sensorial del sesgo de la respuesta, la TDS permite
al experimentador identificar y separar la función del estímulo sensorial y el criterio del individuo
para dar su respuesta definitiva.
70
UMBRALES DIFERENCIALES
Imaginate que te contratan en una empresa de bebidas que quiere hacer un producto de
cola que sepa más dulce que las colas comunes pero (para ahorrar dinero) la compañía pretende
que el azúcar adicional que ponga en la bebida sea la menor posible. Le pidieron que midiera un
umbral diferencial: la menor diferencia física entre dos estímulos que se reconoce como tal, como
diferencia. Para medir un umbral diferencial, usted aplica pares de estímulos y le pregunta a sus
sujetos si creen que los estímulos son iguales o diferentes.
La definición operacional del umbral diferencial es: el punto en que dos estímulos se
reconocen como diferentes la mitad de las veces. El valor de este umbral diferencial se denomina
diferencia apenas perceptible (DAP), la cual es una unidad cuantitativa para medir la magnitud de
la diferencia psicológica entre dos sensaciones.
Los investigadores de la psicofísica han expresado por medio de funciones matemáticas la
relación entre intensidad física y efecto psicológico. Ernst Weber fue el pionero en el estudio de
las DAP y descubrió la relación fundamental que se sintetiza en la ley de Weber: “La DAP entre
estímulos es una fracción constante de la intensidad del estímulo estándar”. Así, cuanto más
intenso sea el estímulo estándar, más significativo será el incremento que se requiera para dar una
diferencia apenas perceptible.
La sensación traduce la energía física de los estímulos en impulsos nerviosos por medio de
la transducción.
ORGANIZACIÓN DE LAS PERCEPCIONES
Los procesos que integran la información de los sentidos para producir la impresión de
coherencia comprenden la organización perceptual.
PROCESOS DE ATENCIÓN
Determinación del centro de atención: se realiza a partir de dos componentes: la selección
por metas y la captación por estímulo. La selección por metas refleja nuestras elecciones de los
objetos a los que queremos prestarles atención de acuerdo a nuestras metas. La captación por el
estímulo ocurre cuando por las características de un estímulo (de los objetos del ambiente)
nuestra atención es captada, independientemente de nuestras metas perceptuales. En las
investigaciones se postula que, por lo menos en ciertas circunstancias, la captación por el estímulo
supera a la selección por metas. La conclusión general importante es que nuestro sistema
perceptual está organizado de manera que nuestra atención se dirige automáticamente a los
objetos nuevos del ambiente.
El destino de la información ignorada: imaginate que escuchás una clase mientras los
compañeros al lado tuyo charlan. ¿Cómo conseguís seguir la clase? ¿Qué advertís de las charlas?
¿Es posible que algo del contenido de una de las charlas distraiga su atención de la clase? Estas
preguntas se hizo David Broadbent, quien propuso que la mente tiene una capacidad limitada para
realizar procesamientos completos. Esta limitación exige que la atención regule con precisión el
flujo de información desde los datos de los sentidos hasta la conciencia. La teoría del filtro de la
atención asevera que la selección ocurre al comienzo del proceso, antes de establecer el
significado de la información. Pero la teoría del filtro fue refutada cuando se descubrió que
algunos sujetos recordaban cosas que no hubieran sido capaces de recordar si su atención hubiera
filtrado por completo todo el material ignorado. Por ejemplo, consideremos nuestro propio
nombre. Las personas dicen que perciben la mención del nombre en lugares ruidosos incluso si
están entregadas a una conversación. Se trata del fenómeno de la fiesta de cóctel. Esto fue
comprobado en diferentes investigaciones.
Ahora los investigadores sostienen que la información del canal ignorado se procesa en
alguna medida, pero no lo suficiente para que llegue a la conciencia. Sólo si las propiedades de la
71
información ignorada se distinguen (por ejemplo, en virtud de ser el nombre del que escucha),
esta info se convierte en el centro de la atención consciente. La regla general es que la
información ignorada no manifiesta su presencia. Así vemos por qué es riesgoso distraerse de la
tarea o meta: si no se presta atención a cierta información (digamos, a la disertación del profesor),
el material no se asimilará por sí solo.
PRINCIPIOS DE AGRUPAMIENTO PERCEPTUAL
Una figura se ve como una región semejante a un objeto en el frente y el fondo aparece
como el telón contra el cual destacan las figuras. Es posible cambiar la relación entre figura y
fondo (ejemplo clásico de ver dos rostros en lugar de una copa y viceversa). Una de las primeras
tareas del sistema perceptual consiste en decidir cuál es la figura y cuál el fondo en una escena.
Los principios del agrupamiento perceptual fueron estudidados por los defensores de la
teoría de la Gestalt, como Kurt Koffka, Wolfgang Kohler y Max Wertheimer. Ellos sostenían que los
fenómenos psicológicos podían entenderse sólo si se consideraban totalidades organizadas y
estructuradas y no si se descomponían en elementos aislados. El término Gestalt significa “forma”,
“todo”, “configuración”, “esencia”. Formularon un cuerpo de leyes:
1. Ley de la proximidad: las personas agrupan los elementos que están cercanos.
2. Ley de la semejanza: las personas agrupan los elementos más semejantes.
3. Ley de la buena continuación: las personas perciben las líneas como continuas
aunque estén interrumpidas.
4. Ley del cierre: las personas llenan los vacíos para percibir objetos completos.
5. Ley del destino común: la gente agrupa objetos que se mueven en la misma
dirección.
INTEGRACIÓN ESPACIAL Y TEMPORAL
Para hacernos una idea total del entorno, tenemos que combinar la información de
fijaciones en diversos lugares (integración espacial) y en distintos momentos (integración
temporal).
Dedicamos muy pocos recursos de procesamiento a conservar los detalles de una escena
dado que el mundo en sí es una fuente estable de información, por ende no es necesario guardar
en la memoria información que se mantiene constante en el medio, y por eso no tenemos
procesos para memorizarla.
PERCEPCIÓN DEL MOVIMIENTO
Es una forma de percepción que requiere hacer comparaciones entre las miradas al
mundo. Por ejemplo, el tamaño de la imagen de un objeto en la retina crece al acercarnos. El
ritmo al que la imagen se acreciente da una idea de la velocidad a la que nos acercamos.
Apreciamos las consecuencias de la forma con que los procesos perceptuales combinan estas
miradas cuando experimentamos el fenómeno phi. Este fenómeno ocurre cuando dos puntos
luminosos fijos situados en lugares diferentes del campo visual se encienden y apagan
alternándose a una velocidad aproximada de cuatro a cinco veces por segundo.
PERCEPCIÓN DE LA PROFUNDIDAD
Esta percepción requiere información correcta acerca de la profundidad (distancia a un
objeto) así como de la dirección desde donde uno se encuentra. La interpretación de la
profundidad descansa en muchas fuentes de información referentes a la distancia: las llamadas
claves de profundidad, entre las que se encuentran las claves binoculares y de movimiento y las
claves pictóricas.
Claves binoculares y de movimiento: ¿Te preguntaste alguna vez por qué tenés dos ojos en
lugar de uno? El segundo ojo es más que un repuesto: proporciona información sobre la
72
profundidad. La información binocular de la profundidad procede de la disparidad retiniana y de la
convergencia.
El desplazamiento entre la posición horizontal de las imágenes correspondientes de los
dos ojos se llama desplazamiento retiniano y provee información de la profundidad debido a que
la cantidad de disparidad, o diferencia, depende de la distancia relativa entre el observador y los
objetos. Cuando uno mira el mundo con ambos ojos, los objetos estimulan lugares diferentes de
las dos retinas. Si la disparidad entre las imágenes correspondientes en las retinas es pequeña, el
sistema visual las funde en la percepción de un solo objeto en la profundidad (cuando las
imágenes están muy alejadas, se ven dobles, como cuando uno bizquea). Si uno lo piensa, es
asombroso lo que hace el sistema visual: toma dos imágenes retinianas, compara el
desplazamiento horizontal de las partes correspondientes (disparidad binocular) y genera una
percepción unitaria de un único objeto en profundidad. En efecto, el sistema visual interpreta el
desplazamiento horizontal entre dos imágenes como profundidad en el mundo tridimensional.
Otra información binocular acerca de la profundidad viene de la convergencia. Los dos
ojos giran un poco hacia el centro cuando se fijan en un objeto. Si el objeto está muy cercano, los
ojos deben acercarse bastante para que la misma imagen incida en ambas fóveas. Sin embargo, la
información de la convergencia es útil para la percepción de la profundidad sólo hasta unos tres
metros. A distancias mayores, las diferencias angulares son demasiado pequeñas para detectarlas
porque los ojos se encuentran casi paralelos cuando uno los fija en un objeto distante.
Otra fuente de información de la profundidad es el paralaje de movimiento relativo: a
medida que uno se mueve, las distancias relativas de los objetos determinan la cantidad y la
dirección de su movimiento relativo en la imagen retiniana. Ejemplo, cuando vamos en coche y
miramos hacia afuera, los objetos alejados del coche parecerán más estacionarios que los
cercanos.
Claves pictóricas: la interposición u oclusión se presenta cuando un objeto opaco tapa
parte de otro objeto. La interposición da información acerca de la profundidad porque indica que
el objeto ocultado está más atrás que el que lo oculta. Las superficies que ocultan también tapan
la luz y arrojan sombras, que son otra fuente de información de profundidad.
Las tres fuentes de información pictórica se relacionan con la manera en que la luz se
proyecta del mundo tridimensional en una superficie bidimensional, como la retina: tamaño
relativo, perspectiva lineal y gradientes de textura.
El tamaño relativo se desprende de una regla fundamental de la proyección de la luz: los
objetos del mismo tamaño en distancias diferentes proyectan en la retina imágenes de tamaño
distinto. El objeto cercano proyecta la imagen más grande y el alejado la más pequeña. Esta regla
se conoce como relación de tamaño/distancia.
La perspectiva lineal es una clave de profundidad que depende también de la relación
entre tamaño y distancia. Cuando líneas paralelas (que por definición están separadas en toda su
longitud por la misma distancia) se extienden a lo lejos, convergen hacia un punto en el horizonte
en la imagen retiniana. La interpretación que hace el sistema visual de las líneas convergentes da
lugar a la ilusión de Ponzo. La línea superior se ve más grande porque uno interpreta los lados
convergentes de acuerdo con la perspectiva lineal como líneas paralelas que se fugan a la
distancia.
Los gradientes de textura proporcionan claves de profundidad porque la densidad de una
textura aumenta a medida que la superficie se aleja en la profundidad. Las unidades que
componen la textura se hacen más pequeñas a medida que se alejan y el sistema visual interpreta
esta disminución del grano como mayor distancia en el espacio tridimensional.
Toooodas estas claves son inconscientes.
73
CONSTANCIAS PERCEPTUALES
En general, el mundo se nos aparece invariable, constante, y estable a pesar de los
cambios en la estimulación de los receptores sensoriales. Los psicólogos se refieren a este
fenómeno como constancia perceptual. Significa que uno percibe las propiedades de los estímulos
distales, que son constantes, más que las de los proximales, que cambian cada vez que uno mueve
los ojos o la cabeza. La tarea fundamental de la percepción es descubrir propiedades invariables
del entorno a pesar de que varíen las impresiones que causen en la retina.
CONSTANCIA DEL TAMAÑO Y LA FORMA
La constancia del tamaño refiere a la capacidad de percibir el tamaño verdadero de un
objeto a pesar de sus variaciones en la imagen retiniana. Otra forma en que el sistema perceptual
infiere el tamaño de los objetos consiste en aprovechar los conocimientos del tamaño
característico de objetos con formas semejantes.
La constancia de la forma se relaciona estrechamente con la constancia del tamaño.
Percibimos bien la forma real de un objeto incluso cuando se inclina y hace que su imagen en la
retina sea muy diferente. Si hay información precisa de la profundidad, el sistema visual puede
determinar la verdadera forma de un objeto con sólo tomar en cuenta la distancia de sus partes.
CONSTANCIA DE LA LUMINOSIDAD
Es la tendencia a percibir constante lo blanco, gris y negro de los objetos a pesar de los
cambios en la iluminación. Esta constancia funciona porque el porcentaje de luz que refleja un
objeto es más o menos el mismo aunque cambie la cantidad absoluta de la luz.
74
Por otro lado, cuando las expectativas influyen en la percepción, el fenómeno se llama
procesamiento descendente. Este consiste en aplicar sus experiencias, conocimientos,
motivaciones y antecedentes culturales a la percepción del mundo. Con el procesamiento
descendente, las funciones mentales superiores influyen en nuestra comprensión de objetos y
hechos. Esta actividad se conoce también como procesamiento conducido por conceptos o
hipótesis porque los conceptos que uno guarda en la memoria repercuten en la itnerpretación e
los datos de los sentidos. Ejemplo, los dibujos droodles, que sin designaciones carecen de
significado, pero cuando son identificados es fácil encontrar su sentido.
La restauración fonémica ocurre cuando aprovechamos los procesos descendentes para
suplir los fonemas faltantes. Ejemplo: cuando estamos charlando en una fiesta muy ruidosa y, en
ese contexto, no es probable que todos los signos físicos que uno produce lleguen sin
ambigüedades a los oídos de nuestro conocido, sino que parte de lo que se dice queda oscurecido
por toses, música o carcajadas. Sin embargo, rara vez nos damos cuenta de que existen lagunas en
la señal física que percibimos, y este fenómeno es la restauración fonémica. Los escuchas no saben
decir si oyen una palabra donde un ruido reemplaza parte de la señal original o si oyen una
palabra con un ruido sobrepuesto a una señal intacta.
INFLUENCIA DEL CONTEXTO Y LAS EXPECTATIVAS
El contexto, expectativas y disposiciones de percepción guían el reconocimiento de datos
incompletos o ambiguos en una dirección y no en otra igualmente posible.
Este es otro aspecto descendente de la percepción: los contextos y las expectativas
influyen en nuestras hipótesis sobre lo que hay en el mundo. El contexto espacial y temporal en el
que se reconocen los objetos es una fuente importante de información porque despierta
expectativas acerca de qué es posible y qué no es posible ver en un ambiente.
La identificación perceptual depende de las expectativas tanto como de las propiedades
físicas de los objetos que uno ve: la identificación de objetos es un proceso constructivo,
interpretativo. La identificación varía según lo que sepamos, dónde estemos y qué otras cosas
veamos.
Los investigadores han documentado los efectos del contexto y las expectativas en la
percepción al estudiar la disposición, que es la presteza temporal para percibir o reaccionar a un
estímulo de determinada manera. Existen tres formas de disposición: motriz, mental y perceptual.
La disposición motriz es la presteza para dar una respuesta rápida y preparada. Una disposición
mental es la presteza para enfrentar una situación de cierto modo determinado por reglas
aprendidas, instrucciones, expectativas o tendencias habituales. La disposición mental llega a
impedir la solución de un problema si las reglas no corresponden a la situación nueva. La
disposición perceptual es la presteza para detectar un estímulo en cierto contexto
Muchas veces una disposición orilla a operar un cambio en la interpretación de un
estímulo ambiguo. Por tanto, es evidente que todos los efectos del contexto en la percepción
exigen que la memoria esté organizada de manera tal que la información pertinente para
determinadas situaciones esté a la mano en el momento oportuno. En otras palabras, para
generar expectativas apropiadas (o inapropiadas), debemos ser capaces de aprovechar los
conocimientos guardados en la memoria. A veces uno “ve” con la memoria tanto como con los
ojos.
75
Encuadres posibles para el estudio de pensamiento:
1. Pensamiento como discurrir de la conciencia
2. Pensamiento como solución de problemas
Intentaremos responder la pregunta ¿Qué es el pensamiento? Desde dos ámbitos:
- El ámbito del discurso diario, de la vida cotidiana
- El ámbito de la investigación científica
En el discurso diario no habría nada incierto o difícil acerca del significado del término
“pensamiento”. Pero el pensamiento también es objeto de indagación científica, es un concepto
fundamental en ciencia psicológica y como tal es objeto de investigación y teorización.
El concepto “pensamiento” es tan abarcativo, completo y, tal vez, tan poco definido que torna
difícil la tarea de hallar una metodología adecuada para estudiarlo.
Pondremos algunos ejemplos de la vida cotidiana que implican pensamiento
a. “Pienso que ya es hora de irnos”. Creencia
b. “Me da temor pensar en cambiarme de escuela”. Anticipación
c. “Lo hice sin pensar”. Dar cuenta
d. “pensaba en nuestro viaje del verano pasado”. Recuerdo
e. “¿Puedes pensar lo que significaría ser rico?”. Imaginación
f. “Pienso que lo que dijiste antes se contradice con lo que decís ahora”.
Razonamiento
76
Lo importante de esta perspectiva, es que al pensamiento se lo considera un ensayo mental más o
menos consciente, cuya intencionalidad es la de resolver (a nivel simbólico o concreto) una
situación problemática.
No siempre el pensamiento está dirigido a metas específicas, no siempre podemos conceptualizar
que pensamos para solucionar problemas, no siempre los fenómenos mentales están dirigidos de
manera consciente; sin embargo, sobre muchos de estos fenómenos sería muy difícil predicar que
no son “pensamientos”.
Por ejemplo, la fantasía diurna, de la libre asociación de ideas, cuando vamos en el colectivo
mirando el paisaje y nuestra mente está ocupada en determinadas ideas. En esos casos no
estamos dirigidos a solucionar problemas específicos, pero ¿podríamos afirmar que no hay
pensamiento?
La perspectiva que considera al pensamiento como una actividad dirigida a la solución de
problemas es limitada, señala un conjunto de fenómenos psicológicos fundamentales, como son
todos aquellos procesos de pensamiento que, efectivamente, sí tienden a la solución de
problemas y están dirigidos conscientemente.
Gagné afirma que en cada ejemplo de pensamiento, probablemente la presentación de un
problema y los intentos de solución, ocurren algunos componentes seriados de categorización, de
formulación de hipótesis y de toma de decisiones.
Haber habla de acciones internas o implícitas en los procesos que se efectúan antes de que la
persona está pensando, ejecute.
Piaget va a definir al pensamiento como acción interiorizada. Sobre lo que no hay coincidencia es
respecto de cómo describir e intentar explicar esos procesos.
Otra característica en la que muchos autores convergen es que el pensamiento sería un agente
causal de la conducta. Newell hace una clara distinción entre “conducta”, identificada
exclusivamente como respuesta motora o ejecución y los “procesos cognitivos internos”, de
carácter intrapsíquico que tienen lugar en el sujeto y que serían los procesos fundamentalmente
causantes de ducha conducta.
Esta posición implicaba que el pensamiento podía explicarse mediante mecanismos asociativos y
se manifestaba (al igual que el habla) mediante una actividad muscular y neuronal, la cual
entonces era la responsable del lenguaje subvocálico correspondiente.
Parte de lo que gobierna y desencadena la actividad pensante del ser humano no tendría ninguna
presencia física inmediata.
Algunos teóricos como Bruner han postulado un aquí y ahora interno para explicar estas
características de la actividad pensante. Bruner mismo afirma que el pensamiento implica
manipulación de imágenes ejecutivas o motoras, icónicas o perceptuales y simbólicas o
lingüísticas.
Por último consideraremos el enfoque del modelo de procesamiento de la información
Cuando hablamos de pensamiento, en cierto sentido nos estamos refiriendo a la capacidad que
detenta el ser humano para manipular y transformar información, la más de las veces con el
objetivo de obtener información nueva. En relación a esto, el modelo informacional considera al
pensamiento como un proceso mental de manipulación y transformación de símbolos de acuerdo
a determinadas reglas. Esta hipótesis puede simplificarse de la siguiente manera: los seres
humanos cuando piensan siguen determinadas reglas. Así como la gente cuando habla un lenguaje
sigue reglas formales de gramática, utiliza también reglas formales cuando piensa.
Luego veremos que distintos estudios tratan de inferir la naturaleza de esas reglas, si son reglas
lógicas, reglas sintácticas o reglas de tipo heurístico.
77
Consideraremos como primera aportación del modelo informacional una analogía del campo de la
Inteligencia Artificial, cuyo propósito fuera descubrir los programas (las reglas del computador)
que gobiernan las transformaciones simbólicas, a partir del análisis de los inputs y outputs.
La segunda contribución de dicho modelo es que toma para la comprensión de lo que es el
procesamiento humano de información el esquema estructural de cómo procesa información el
computador y, en tal sentido, se logra un más claro deslindamiento de los mecanismos de la
memoria respecto de los del pensamiento.
El esquema estructural del pensamiento de la información distingue tres componentes esenciales
en el computador: una unidad de memoria, una unidad procesadora y mecanismos de entrada y
salida, es decir, determinadas reglas acerca de cómo introducir la información y de qué manera el
sistema permitirá la extracción de la misma.
El modelo informacional permitirá un mayor deslindamiento conceptual de estas funciones, a
partir del cual podremos establecer más claramente el carácter de las interacciones que
presentan.
Conceptualiza a la unidad procesadora como la encargada de realizar todas las operaciones y
transformaciones, esta unidad procesadora seria asimilable al pensamiento reglado propiamente
dicho.
De manera separada se describen los mecanismos de la unidad de memoria, los que están
referidos a la manera en que se registra, se almacena y se recupera la información y en donde se
conceptualiza una memoria permanente, otra operativa disponible, redes semánticas y otros
conceptos importantes, que servirán, eventualmente, para una mayor comprensión de los
mecanismos actuantes en los procesos mnémicos humanos.
No existe una regla fija respecto de cuál sería el punto óptimo entre cantidad de almacenamiento
y cantidad de procesamiento. Existe si, un compromiso entre ambas funciones que determinara
algo fundamental: la estrategia que se ha de seguir para aprender.
Sobre la base de este conjunto de definiciones formularemos una definición compuesta que tome
los rasgos más distintivos presentes:
1. Un proceso complejo de múltiples facetas.
2. Un proceso sustancialmente interno que implica representaciones simbólicas de eventos y
objetos no presentes en la realidad inmediata
3. Su función es generar y controlar la conducta inmediata.
4. Constituye un ensayo mental más o menos consciente, dirigido a metas específicas y
tendientes a solucionar problemas y adaptar al individuo a su medio.
5. El pensamiento humano puede ser entendido como un proceso de manipulación y
transformación de símbolos, de acuerdo a determinadas reglas formales.
Existen básicamente dos encuadres en el abordaje de los estudios del pensamiento: un primer
enfoque al que llamaremos ENCUADRE A y titularemos como “pensamiento dirigido a metas y
orientado por planes y reglas”.
Por otro lado un segundo enfoque el que llamaremos ENCUADRE B, al que en función de los
fenómenos psicológicos que pueden incluirse dentro del mismo podríamos titularlo “pensamiento
como discurrir de la conciencia”.
En el primer enfoque pueden incluirse estudios sobre la formación de conceptos, razonamiento
(tanto inductivo como deductivo); el pensamiento quimérico (la fantasía y los sueños) y el
pensamiento creativo.
Neisser, refiriéndose a la naturaleza multifacética del pensamiento, dice que el proceso del
“pensar” no siempre está coordinado hacia una meta particular y sigue algún plan estratégico.
78
Señala que la psicología, históricamente, ha reconocido la existencia de dos “modus operandi”,
dos modos de funcionamiento de la organización mental.
El autor, para referirse a esta actividad utiliza una sentencia muy corta pero muy gráfica e
ilustrativa: “Simplemente sucede”, afirma. Con frecuencia pareciera que este segundo tipo de
organización mental no estuviera motivada de la misma manera que lo está el pensamiento
racional orientado conscientemente. Más que dirigida hacia una meta parece estar asociada a una
emoción.
Una serie de estudios indican que las personas cuando se enfrentan a una tarea deductiva no
siguen reglas de la lógica, sino que inferirán conclusiones de acuerdo con sus actitudes,
convicciones, sentimientos, o ideas previas. Es decir que se evidencia en la propia tarea del
razonar la presencia de otros procesos, que en algunos casos dificultan y en otros casos ayudan a
la tarea deductiva.
Adoptaremos una óptica integrativa, la cual nos servirá para ir intentando la formulación de lo que
al comienzo dijimos que carecíamos: una teoría unificada a partir de la cual ya no se hable más de
procesos cognitivos en plural, sino de un solo proceso de pensamiento que dé cuenta de una
manera integradora de estos distintos aspectos.
79
entre los términos o conceptos nuevas relaciones. Todo lo que se va a afirmar en la conclusión ya
está afirmado implícitamente en las premisas.
La conclusión dependerá en cuanto a su grado de verdad o falsedad, de la verdad o falsedad de las
premisas. Podrá predicarse que están inferidas correcta o incorrectamente; es decir que son
válidas o no-válidas. Sobre estas conclusiones podremos realizar análisis lógico-formales que nos
permitirán determinar la validez o no de dichas conclusiones; dado que la conclusión debe surgir
de manera necesaria, de forma implicativa, a partir de las premisas.
Si en la conclusión aparece mayor información, desborda a la información que está presente en las
premisas, o contradice dicha información, podremos afirmar que esta conclusión no es correcta
(bien por indeterminación: en el caso que se afirme más que lo afirmado en las premisas, o bien
por incorrección, en el caso de inconsistencia o contradicción de la información).
En el razonamiento inductivo, en cambio, la conclusión contiene información que desborda a la
presente en las premisas, es decir que ya no se infiere de manera necesaria de las mismas y, en
consecuencia, las conclusiones del razonamiento inductivo adquieren solo un carácter probable.
Cuando estamos frente a un razonamiento inductivo solo podemos afirmar respecto de su
conclusión si es más o menos probable, pero nunca podremos establecer desde un punto de vista
lógico si es correcta o incorrecta (valida o no valida que son sus sinónimos).
En términos generales podemos decir que el razonamiento deductivo va de lo general a lo
particular, y el razonamiento inductivo de lo particular a lo general.
A partir del desarrollo de la ciencia lógica que se dio en el siglo XVII se produjo una confusión a
partir de la interpretación, puesto que no resultaba claro si la lógica describía los procesos de
pensamiento del ser humano y por lo tanto nos indicaba cómo piensa de hecho el ser humano, o
si, como disciplina normativa, nos estaba indicando cómo debería pensar el ser humano.
Boole se propuso construir la disciplina de la lógica en base a variables totalmente simbólicas, es
decir, construir la lógica tomando el modelo de la matemática, con la cual inició una revolución en
la disciplina, que inauguró lo que podría denominarse el período contemporáneo de la lógica.
Se propuso construir un sistema axiomático y simbólico para expresar a la lógica, de tal manera
que esta constituya un cálculo formal.
La idea esencial que Boole desarrolla con toda claridad entonces es la lógica presentada como un
sistema formal. Un cálculo es susceptible de recibir diversas interpretaciones y su validez,
entonces, va a depender con exclusividad de las leyes de combinación de los símbolos que usan,
con independencia de cuál sea la interpretación que se les dé. En la medida en que esto fue
posible, contribuyo para la separación entre la lógica y la psicología.
Boole mostro de hecho la posibilidad de construir la lógica como cálculo de independencia de toda
consideración psicológica.
Lefford sostiene que los principios de la inferencia lógica son técnicos que no forman parte del
patrimonio común de las personas; e incluso llega a distinguir la inferencia lógica de las inferencias
psicológicas que pueden ser realizadas por una persona corriente. Afirma que una inferencia
psicológica no es válida o invalida excepto cuando se la juzga en comparación con una inferencia
lógica. Sobre una inferencia psicológica en sí misma no podríamos decir que es correcta o
incorrecta, sino que es simplemente un hecho.
Los estudios psicológicos del razonamiento están encaminados a descubrir si el ser humano de
manera implícita (sin darse cuenta conscientemente) sigue reglas lógicas o no, si es que puede
postularse una lógica mental o no.
Por un lado decimos que no tenemos que reducir las leyes del pensamiento a las leyes de la lógica
porque estaríamos en un logicismo, pero tampoco se podrían reducir las leyes de la lógica a las del
pensamiento porque entonces caeríamos en un psicologismo. Si es adecuado, habiendo separado
80
el objeto de la lógica de lo que sería el objeto de la psicología, en el ámbito de los estudios del
razonamiento, que nos planteemos cuál es la contribución lógica formal para el estudio del
razonamiento humano.
Los estudios psicológicos del razonamiento se dirigen a INFERIR si el ser humano sigue
IMPLICITAMENTE esas reglas, si es que hay una lógica mental o no, para razonar deductivamente;
o si las personas adoptan implícitamente reglas estadísticas a nivel intuitivo, para razonar
inductivamente.
Stuart Mill destaca el carácter creador del razonamiento deductivo, la conclusión proporciona una
información que estaba contenida en las premisas, pero de la cual el sujeto no era consciente.
Del Val afirma que el hecho de que los razonamientos deductivos no ocupen la mayor parte de la
actividad intelectual de un sujeto no es índice de que no constituyan una actividad típica de los
seres humanos, muchas veces implícita bajo actividades cognitivas más complejas.
Los psicólogos del razonamiento inductivo parecen estar más de acuerdo respecto a que los seres
humanos no siguen reglas estadísticas en sus inferencias. No intentan salvar, a pesar de todo, la
racionalidad del ser humano, como veremos que si ocurre con las teorías lógicas del razonamiento
deductivo.
La correlación es un término estadístico que apunta a establecer el grado de asociación, de
dependencia o independencia que hay entre dos o más fenómenos, es decir, cómo va variando los
estados de un fenómeno en función de cómo va variando los estados de otro fenómeno. La
capacidad de detectar estas variaciones tiene indudables ventajas para los seres humanos,
podemos explicar el pasado, controlar el presente y predecir el futuro. Indudablemente en el
mundo externo existen contingencias y covariaciones, ya sea en el ambiente o entre el ambiente y
la conducta del hombre.
El anhelo de control hace que las personas tiendan a exagerar relaciones contingentes o causales
entre los sucesos externos o entre la conducta y los sucesos. Es decir que esta necesidad de
control hace que las personas establezcan correlaciones ilusorias, creyendo “percibir”
correlaciones allí donde no las hay.
El estudio del razonamiento deductivo se puede reducir en tres enfoques teóricos:
1. Teorías NO-LOGICAS
2. Teorías LOGICAS
3. Teorías ILOGICAS
1. Teorías NO-LOGICAS:
Parte del supuesto de que el ser humano cuando razona no sigue ningún tipo de regla lógica y ni
siquiera atiende a la estructura lógica del problema. Por lo tanto, las inferencias deductivas que
realice el ser humano van a ser independientes de esta estructura lógica y estarán basadas en
otros aspectos.
Woodsworth y Sells formularon la hipótesis del efecto atmosfera, con la finalidad de dar cuenta de
los aspectos que el ser humano tiene en cuenta para razonar.
- Las tareas deductivas que fueron estudiadas fueron:
o Razonamiento silogístico:
El razonamiento silogístico presenta una estructura compuesta por tres proposiciones: a la
primera se la llama premisa mayor, a la segunda premisa menor y a la tercera conclusión.
o Inferencias transitivas (razonamiento en serie de tres términos)
Las inferencias transitivas se refieren a aquellos razonamientos basados en la utilización de lo que
se llama Regla Transitiva. Pueden incluir muchos términos pero las que más se estudiaron son las
de tres términos (Si A es más alto que B y B es más alto que C entonces A es más alto que C).
81
o Razonamientos proposicionales:
Los estudios sobre razonamiento proposicional se dirigen a indagar si los sujetos adquieren,
comprenden y aplican las nociones representadas por las conectivas lógicas.
Estas investigaciones están encaminadas a estudiar de qué manera el hombre, en el razonamiento
natural, comprende y utiliza la conectiva condicional.
La hipótesis del efecto atmosfera se formuló en estudios de razonamientos silogísticos.
Woodworth y Sells trabajaron con este tipo de tarea deductiva y afirman que las características de
las premisas, características en cuanto a si son afirmativas o negativas, o si son universales o
particulares, determinarán la elección de una conclusión por parte del sujeto.
En función de estos dos criterios: de su signo (afirmativas o negativas) y de lo que se denomina
cuantificación de las proposiciones (universales o particulares), podemos considerar cuatro tipos
de proposiciones:
Las proposiciones A son universales y afirmativas, las proposiciones E son universales negativas, las
I particulares y, por último, las proposiciones O son particulares negativas.
A – Todo A es B Atmosfera: Todos si
E – Ningún A es B Atmosfera: Todos no
I – Algún A es B Atmosfera: Algunos si
O – Algún A no es B Atmosfera: Algunos no
Si un silogismo presenta premisas del tipo A crea una atmosfera, que la denominan de “todos sí”,
atmosfera que llevará a los sujetos a elegir una conclusión que también sea universal y afirmativa.
Las proposiciones del tipo E crean atmosfera “todos no”; las proposiciones de tipo I crean
atmosfera de tipo “algunos si”; y las de tipo O, de “algunos no”.
Junto con las hipótesis de la atmosfera, los autores formulan otra a la que denominan hipótesis de
la cautela, la cual dice que cuando hay proposiciones de tipo afirmativo combinadas con
proposiciones de tipo negativo en general se tiende a elegir conclusiones de tipo negativo; o
cuando hay proposiciones de tipo universal combinadas con proposiciones de tipo particular se
tiende a dar conclusiones de tipo particular; dado que en esas elecciones, según los autores, los
sujetos se comprometen menos en sus afirmaciones.
Woodworth describe el efecto atmosfera como la impresión global de afirmación o negación, de
universalidad o particularidad que las premisas de un silogismo producen antes de que se elabore
el patrón exacto de relaciones inherentes a los datos; esto es, antes de que el sujeto capte la
estructura lógica del conjunto de proposiciones.
Es decir que la forma del silogismo crea una atmosfera, en el sentido de una atmosfera psicológica.
Otras investigaciones fueron realizadas por Morgan y Morton, se decidieron indagar la manera en
que influyen las convicciones, las actitudes, los sentimientos, los miedos, es decir, variables de tipo
emocional, afectivo, sobre la corrección o incorrección del razonamiento humano.
En base a esto sostienen que la mayor parte de la gente no responde a los silogismos a través de
un razonamiento claro, sino en base a sentimientos confusos (ellos definen a la atmosfera como
una especie de sentimiento o impresión global creada por los tipos de premisas utilizadas)
derivados de la forma en que se enuncian las premisas.
Estas experiencias fueron importantes pues permitieron establecer que, así como el efecto
atmosfera puede ser un factor explicativo para comprender cómo el ser humano resuelve un
silogismo que viene expresado en términos simbólicos, las convicciones personales, las actitudes y
sentimientos constituyen los aspectos fundamentales en los que se basa una persona para
resolver silogismos que expresan contenidos significativos.
82
Cuando los silogismos no tienen nada que origine una respuesta basada en las convicciones
personales, el factor primordial de elección está dado por el efecto atmosfera, pero cuando
expresan un problema que se relaciona con sus opiniones, actitudes, sentimientos o convicciones,
la distorsión de su razonamiento se desvía del efecto atmosfera hacia dichas variables
emocionales. En uno y otro caso los factores de la lógica desempeñan un papel notablemente
pequeño.
Podemos conceptualizar dos fuentes de error:
- El error producido por la forma del silogismo.
- El error producido por el contenido del silogismo (Morgan y Morton aportaron gran
cantidad de material a este error).
Minna Wilkins se empeñó por investigar la influencia del contenido en los procesos de
razonamiento. Presento problemas con cuatro tipos de contenido: contenido simbólico, concreto
y familiar, contenido científico supuestamente desconocido por los sujetos, y contenido sugerente
que facilitara la adopción de conclusiones erróneas pero aceptables.
La autora infiere que lo temático es un factor que algunas veces dificulta y otras facilita los
procesos inferenciales deductivos de las personas.
2. Teorías LOGICAS:
Mary Henle considera que dada la importancia de las conclusiones de Morgan y Morton, los
experimentos en los cuales se apoyan esas conclusiones merecen exhaustivo y cuidadoso examen;
es decir que en un estudio que pretende evidenciar la influencia distorsionadora de las actitudes y
convicciones sobre el razonamiento, se omite determinar empíricamente cuáles son las actitudes
específicamente detentadas por los sujetos.
Henle afirma que a falta de estudio específico de las actitudes de cada individuo, los autores hacen
referencia a las “convicciones populares”, “opinión general”, “sentimiento popular” o “convicción
ampliamente extendida en el momento en que se pasó la prueba”, etc. La existencia de todas
estas opiniones se da por descontado sin haber sido establecidas o estimadas empíricamente por
los autores.
Henle afirma que el gran error de Morgan y Morton fue el no haber determinado cuales eran esas
actitudes, esas convicciones o esos sentimientos.
La autora concluye que no puede esperarse que las investigaciones de Morgan y Morton arrojen
mucha luz sobre la naturaleza específica de los efectos de las actitudes y sentimientos sobre los
procesos de razonamiento.
Realizó una réplica de las experiencias de aquellos autores, realizando dos modificaciones: en
primer lugar, dado que sus experiencias fueron en el año 1956 se cambió el contenido de los
silogismos, el tema pasó a ser comunismo-anticomunismo en lugar de temas de la Segunda Guerra
Mundial.
La segunda modificación, y la más importante, es que Henle sí estimó a través de un cuestionario
cuáles eran las actitudes particulares de los sujetos integrantes de la muestra respecto de los
temas planteados por los silogismos.
La autora sostiene: el problema de que los sujetos se equivoquen es explicable en términos de que
interpretan de manera distinta a la que el experimentador cree las premisas presentes de cada
silogismo. Es decir que los sujetos están razonando sobre premisas diferentes que el
experimentador de hecho les da. Los sujetos agregan premisas suplementarias, de acuerdo a sus
conocimientos previos, a sus convicciones, agregan tácitamente más información que la que
reciben por silogismo, y en función de todo ese conjunto de información razonan.
Henle entonces sugiere: descubramos de qué manera están interpretando las premisas los sujetos
y descubriremos que, en realidad, razonan lógicamente.
83
Ya sea que interpreten mal, alteren la información o agreguen información puede considerarse
que están razonando sobre otras premisas, diferentes de las que cree el experimentador.
La validez del razonamiento debe ser analizada partiendo de la interpretación real de los sujetos.
Lo esencial de las TEORIAS LOGICAS es que defienden la racionalidad del razonar humano a costa
de todo, incluso de los errores.
Para esta defensa se sirven de un par conceptual, postulados por Chomsky, a estos se los
denomina competencia-actuación. Estos conceptos llevados a los estudios de razonamiento se
utilizan argumentalmente de la siguiente manera: el ser humano tiene un bagaje de reglas lógicas,
que le permite resolver cualquier tipo de problema.
En definitiva afirman: hay una lógica mental que es analogable en sus reglas y pautas a la lógica
formal. Este bagaje está inscripto en el ser humano, es llamado competencia. Lo que ocurre y da
cuenta de los errores, es que factores psíquicos no cognitivos afectan esta competencia, de
manera tal que impiden que se convierta en actuación lógica.
Conceptualmente, la línea de las TEORIAS LOGICAS afirma que el sujeto cuando razona atiende a la
estructura lógica del problema, la interpreta y sigue además las reglas inferenciales necesarias
correspondientes a esa estructura lógica del problema. De modo que sus inferencias siempre van a
ser válidas, si se descubre a partir de qué información están razonando.
Podemos conceptualizar dos fuentes de error: la proveniente de lo que sería la interpretación de
las premisas y la proveniente de los procesos inferenciales propiamente dichos.
- Factor interpretativo.
- Factor operativo.
El factor interpretativo se refiere a cómo cada sujeto interpreta las premisas: correcta o
incorrectamente. Mientas que el factor operativo está haciendo referencia a todas aquellas
operaciones mentales que transforman la información desde las premisas hasta llegar a la
conclusión.
3. TEORIAS ILOGICAS:
Las teorías ilógicas también van a hacer referencia a cuestiones lógicas para tratar de comprender
el razonamiento humano; y eso es lo que las diferencia de las teorías no-lógicas.
Las teorías ilógicas afirman que los sujetos atienden a las estructuras lógicas de los problemas,
pero que adoptan reglas de inferencia que se separan de la lógica formal, es decir: los seres
humanos siguen reglas incorrectas para resolver lógicamente los problemas.
Los estudios de los razonamientos proposicionales están referidos a la adquisición, comprensión y
utilización de parte del sujeto de lo que se denominan conectivas lógicas.
Las conectivas lógicas son la conjunción, la disyunción inclusiva y exclusiva, la negación, entre
otras.
Un estudio de razonamiento condicional fue inventado y formulado por Peter Wasom, se
denominó “el problema de las cuatro tarjetas”; la tarea deductiva consiste en lo siguiente: se
presentan cuatro tarjetas; en una de sus caras las tarjetas tienen letras y en la otra tienen
números. Las cuatro tarjetas que les presento son E, D, 7 y 4.
Mediante este experimento, Wasom pudo deducir que fundamentalmente se evidencia que los
sujetos no agotan todas las posibilidades de análisis cuando realizan razonamientos de tipo
condicional. Este estudio está orientado hacia la tarea deductiva: el razonamiento proposicional.
Más específicamente, el estudio de Wasom está abocado al estudio de las conectivas
condicionales.
Los sujetos estudiados sistemáticamente presentaban errores en su selección. Los mismos tenían
un alto nivel intelectual, con lo que se puede deducir que por más instruidos que estén los sujetos,
fallaban en una tarea aparentemente sencilla.
84
Wasom argumenta que las personas, en la tarea de selección, evidencian un pensamiento falto de
reversibilidad.
Por otro lado lo interpreta como un claro ejemplo y contundente de que muchas veces el razonar
humano no tiene esa característica operatoria, sobre la cual Piaget había trabajado tanto, que es
la reversibilidad del pensamiento.
Generalmente los sujetos van a ver si detrás de “p” encuentran “q”, si no la llegan a encontrar
puesto que aparece “no-q”, dicen que el enunciado es falso. Pero no tienden a buscar detrás del
“no-q” para ver si esta “p”, con lo cual igualmente falsarían el enunciado.
A esto se lo denominó “sesgo confirmatorio” en el razonamiento condicional. Es decir, el ser
humano cuando razona, tanto en el ámbito cotidiano como en el campo científico, tiende a ir a
buscar aquellas evidencias en la realidad que confirmen la hipótesis que tiene, y rara vez
emprende la búsqueda hacia aquellas evidencias que la desconfirmen.
El tipo de material presentado en el experimento afecta la corrección con que los sujetos razonan
en esta especial tarea deductiva. Se descubrió que había un tipo de material específico que era
facilitador del razonamiento, a pesar de que de todas maneras los porcentajes de error seguían
siendo elevados. A este tipo de contenido se lo considero como un factor facilitador, al igual que
otros factores que también inciden sobre la actuación lógica de los sujetos, como, por ejemplo, la
forma lingüística en que están expresados los problemas.
En una nueva versión de este experimento presentado por Johnson-Laird y Legrenzi los sujetos
mejoraron en un alto porcentaje su actuación lógica. Este experimento se denominó “experiencia
de los sobres”, se presentaron 4 sobres, de un lado indicaba si el sobre estaba abierto o cerrado, y
del otro lado aparecían dos valores: 0,5 australes, o 1 austral. Pero solo cuando los valores de los
sellos postales coincidían con los que regulaba el correo, y por tanto, eran por los sujetos
conocidos a través de su experiencia cotidiana. Luego de un tiempo no se obtuvieron los mismos
resultados, ya que el correo no manejaba esos valores.
A partir de estas distintas versiones, disímiles en sus resultados, podemos discriminar entre
algunas características del material, en relación con su efecto facilitador del razonamiento.
Se llegó a postular que el material, más que tener la especificidad de ser un material concreto,
tiene que ser un material realista, en este sentido: en el de estar relacionado con situaciones
cotidianas de las personas, las que entonces pueden utilizar el conocimiento que tienen de las
mismas como facilitador de la tarea deductiva. Parecería que la experiencia real, de una situación
concreta de la vida, representada en el material de la tarea de selección, se constituye en una
condición importante de mejoría de la actuación lógica de los sujetos.
Entonces: ¿de qué manera se produce la acción del factor facilitador?
Griggs y Cox, intentaron responder a esta pregunta y formularon la “hipótesis del recuerdo de
indicios”. Esta hipótesis postula que el contraejemplo de la regla en cuestión, es decir no-q, se
recupera de la memoria de largo plazo en función de la experiencia de los sujetos, y a partir de la
recuperación de dicha información, el proceso inferencial se ve facilitado realizándose con mayor
corrección.
Evans, refiriéndose al experimento de Johnson-Laird afirma que su material era “demasiado”
realista, y que los estudiantes universitarios británicos en esa ocasión habían experimentado
seguramente una regla parecida en su experiencia de la vida real.
Todo esto nos sugiere que la facilitación temática, cuando ocurre, provoca la activación de
esquemas mnémicos que permiten orientar las inferencias, sobre todo evitando el sesgo
confirmatorio. De modo que los resultados parecen consistentes con la hipótesis de que el
material estimular evoca “esquemas” o “estructuras cognitivas” que se representan en la memoria
a largo plazo.
85
La hipótesis de los esquemas es fructífera dado que implica una relación intrínseca entre
razonamiento y experiencia y conlleva a pensar que el razonamiento se basa más en
procedimientos específicos de tareas, en reglas locales, más que en reglas generales de inferencia.
Wasom al respecto formulo la teoría del esquema: la teoría implica
1. Que la experiencia de clases específicas de acontecimientos se almacena en términos de
estructura organizada.
2. Que la puesta en funcionamiento de tales estructuras permite manipular mentalmente los
elementos dentro de ellas.
3. Que las estructuras constituyen una condición necesaria para la aparición de procesos
inferenciales.
Más allá de las distintas interpretaciones de los facilitadores, en ningún caso es plausible que los
sujetos utilicen reglas de inferencias formales y libres de contenido; lo dicho contradice de una
manera contundente lo afirmado por la teoría “piagetiana”, que es una de las teorías lógicas más
importantes y acabadas.
Si un sujeto no consigue entender un problema por el modo como se presenta o el material con
que se realiza, quiere decir que no puede hablarse de operaciones formales en sentido estricto.
Wasom afirma que el problema de las cuatro tarjetas demuestra inequívocamente que los sujetos
(ya adultos) no se manejan con esta lógica mental.
Los problemas de tipo lógico, como son todos los problemas de razonamiento, requieren que se
analicen las distintas alternativas de solución para, entre ellas, elegir la correcta; mientras que
otros tipos de problemas más abiertos, menos estructurados, permiten al solucionador tomar
otros caminos, realizar “atajos cognitivos”, es decir, seguir estrategias que denominaremos
heurísticas (en contraposición a estrategias algorítmicas, que son aquellas que analizan todas las
combinaciones posibles de respuestas).
Para el caso de problemas lógicos bien definidos lo incompleto implica la ilogicidad de la
respuesta.
En la práctica del experimento de Wasom solo se buscan los ejemplos antecedente y consecuente
verdaderos, se busca confirmar el condicional y se desatiende una especial combinación: el
contraejemplo, es decir: partir de un consecuente falso para ver si está implicado en un
antecedente verdadero y esto no es seguir un camino heurístico, es simplemente no evaluar una
crucial combinación.
Hudson le asigno al concepto “pensamiento racional” tres características:
1. No debe contradecirse a sí mismo.
2. Debe estar respaldado por datos relevantes.
3. Debe ser susceptible de ser corregido por estos.
Un sujeto puede tener coherencia interna, puede, a partir de determinadas premisas, realizar
inferencias deductivas que le permitan llegar a conclusiones válidas, sin que exista contradicción
entre los distintos enunciados. Pero esto lo hace basado en determinada información.
Si a esta información se le cambia o alguien le hace ver un aspecto distinto de esa información, el
sujeto supuestamente tendría que cambiar determinadas proposiciones para que pueda
considerarse que continúa siendo racional su actuación en el mundo.
Con la coherencia interna sola no alcanza para tener una conducta que pueda considerarse como
racional.
Esto guarda correlación con el postulado de Henle, en las teorías lógicas: postula la logicidad del
razonar humano respecto al factor operativo, pero en cuanto al factor interpretativo
implícitamente postula una actuación ilógica.
86
Otra pauta de irracionalidad es el seguir insistiendo en conclusiones equivocadas a pesar que los
datos señalaban en dirección al cambio.
Wason concluye diciendo al respecto que los errores no solo eran sistemáticos sino también
resistentes a la corrección. También trato de descubrir si los sujetos habían hecho alguna
interpretación errónea o sesgada de la experiencia.
Analizando cada una de las posibles interpretaciones concluye que ninguna de las respuestas era
compatible con estas distintas posibilidades de interpretación. Además es impensable, dado lo
emocionalmente neutro del material, que factores extracognitivos hayan afectado a la tarea de
manera tal de provocar tan alto porcentaje de errores.
Los aportes de estos estudios son importantes puesto que si el individuo en su razonamiento
neutral no sigue las reglas de la lógica formal, habrá que centrar la cuestión en la formulación de lo
que serían “tablas de verdad psicológicas” (en contraposición a las tablas de verdad lógica), las que
describirían los procesos reales del razonamiento humano.
Wason formuló una tabla a la que denomino “tabla de implicación defectiva” (en contraposición.
El autor afirma que al ser humano le resulta sumamente difícil comprender que partiendo de
antecedentes falsos el proceso inferencial es siempre válido, aun cuando los consecuentes sean
verdaderos o falsos. Wason afirma que esto es contraintuitivo y que para el ser humano los casos
de antecedentes falsos son simplemente irrelevantes en problemas de razonamiento condicional.
Capítulo 4:
Todos los estudios de razonamiento, desde el punto de vista metodológico presentaron
una característica en común, y es que se basaron casi exclusivamente en un recuento de
errores y aciertos.
Los resultados que se recogía eran porcentajes de sujetos que aceptan correctamente
conclusiones validas o que rechazan correctamente conclusiones invalidas; porcentajes de
sujetos que intervenían estas relaciones, respuesta que legaba luego de una cadena o
secuencia de razonamientos que permanecía oculta, siendo uno de los principales
objetivos de la investigación para poder describirlas y comprenderlas.
A partir de los resultados se continuaban teorías acerca de cuáles y como serían los
procesos de inferencias que levaban a los sujetos a aquellas respuestas válidas o
erróneas.
Es así como se llega a la “Teoría de los errores”, a partir de la interpretación de los errores
se diferenciaban las teorías lógicas de la ilógica.
Pero ninguna de estas investigaciones apuntaban al estudio directo de los procesos, es
más los procesos no eran estudiados. Se buscaba entender y explicar procesos pero solo a
partir de respuestas finales.
A partir de la década del 50 la investigación en psicología estaba netamente influenciada
por dos paradigmas predominantes: el conductismo y el psicoanálisis. Ambos paradigmas
le restaban valor científico al fenómeno de la conciencia, los pensamientos y procesos
intelectuales consientes, se los consideraba poco confiables como fuente válida para la
obtención de datos psicológicos que marcaran características de procesos internos.
Como el método de introspección tiene su sustento en la reflexión consciente que el
sujeto realiza de sus propias vivencias se consideraba que no era una adecuada vía de
acceso para la obtención de información válida para comprender los procesos
involucrados en la resolución de problemas o la toma de decisiones.
87
Al desestimar los métodos introspectivos indirectamente se reducía en gran parte la
posibilidad de estudiar de manera más directa algunos aspectos fundamentales del
pensamiento, como las cadenas inferenciales que tienen lugar en la solución de
problemas o el razonamiento lógico.
Dentro del cognitivismo, en sus estudios sobre la solución de problemas, emplean como
técnica central, para examinar las estrategias y los procedimientos que la gente usa,
INFORMES VERBALES. El sujeto intenta analizar de una manera objetiva procesos
mentales implicados en la resolución de una tarea finalizada. Utiliza informes verbales
obtenidos en el cual el sujeto vaya expresando en voz alta lo que piensa acerca de la
situación que le plantea el investigador, verbalizando la estrategia o método de solución
de la tarea. Y atendiendo a las verbalizaciones que el sujeto realiza durante el transcurso
de la tarea.
En el método de autoobservación como en el pensar en voz alta se registran tanto las
expresiones verbales del sujeto como sus acciones con el material sobre el que versa el
problema.
Simon (1978) afirma que existen diferencias entre la conducta de un sujeto solucionando
un problema en silencio y el mismo sujeto solucionando el mismo problema mientras
piensa en voz alta. Ambas son ejemplo de soluciones humanas de problemas y una teoría
adecuada sobre una debería poseer tanto interés para la psicología como una teoría
adecuada sobre la otra. Y agrega que no existen diferencias apreciables entre ambas
actuaciones.
Simon afirma que no existen razones para suponer que la consigna en voz alta determine
cambios importantes en las estrategias de solución, sosteniendo que a la fecha existen
escaso conocimiento sobre la relación entre la información contenida en los protocolos
verbales y los procesos del pensamiento subyacente. Simon concluye que para estudiar la
habilidad de resolver problemas, el estudio de las respuestas finales puede no ser el más
adecuado.
88
El interés de los investigadores de esta área se centra en los procesos de solución más que
en la solución en sí misma. Se intentaba indagar el camino, los pasos que efectúa el
solucionador de problemas.
Concepto de estrategias cognoscitivas:
Gagné (1979) distingue dos tipos de habilidades, a las que denomina de primer y segundo
orden. Las primeras son capacidades (operaciones) referidas al manejo de datos y
conceptos que están involucradas directamente en el procesamiento de la información.
Son habilidades o aptitudes intelectuales diferenciales, entre ellas están las aptitudes
matemáticas, verbal, aptitud del razonamiento lógico, etc. Y están referidas a la
manipulación de información específica y particularizada.
En cambio, las habilidades de segundo orden, son denominadas como estrategias
cognoscitivas. Que afectan y regulan al propio procesamiento de la información,
especifican y actúan sobre los procesos internos de la atención y percepción selectiva,
codifican el material para el almacenamiento, recuperación y solución de problemas.
Las estrategias cognoscitivas, o habilidades de segundo orden, son las que regulan y
dirigen las propias condiciones de aprendizaje. Son las que cuentan del método y del
grado de sistematicidad, del trabajo intelectual. Estas destrezas internas, van a incidir
sobre las maneras en que un sujeto aprende a aprender, recordar y levar a cabo el
pensamiento reflexivo y analítico con el que obtiene más conocimiento del mundo y de si
mismo.
Horacio Rimoldi. Creó una técnica que consiste en presentar problemas cuyas
formulaciones revisten incertidumbre. Entendida esta como información relevante en el
conjunto de los datos. En la Teoría de Problemas con incertidumbre, los planteos
contienen los datos o la información necesaria y suficiente para resolver los incognitos. El
proceso de resolución demanda una recodificación, reordenamiento y/o reestructuración
de la información presentada, es decir que el sujeto debe realizar un proceso puramente
inferencial para llegar a su solución.
El arribo de la solución no depende puramente de inferencias sino que, va a depender de
una determinación del propio sujeto resolutor a actuar dentro del contexto del problema,
en la búsqueda de la información faltante. La estrategia es sistemática, es decir que va
reduciendo la cantidad de opciones posibles. La reducción de soluciones alternativas
89
posibles, se opera a partir del conocimiento de las respuestas a cada pregunta que realiza
el sujeto, es conceptualizada como reducción de la incertidumbre. Los caminos que puede
tomar un sujeto en algunos casos pueden ser más económicos, más racionales y eficientes
para lograr la reducción que otros.
La técnica de Rimoldi contempla la inserción de la incertidumbre como condición
experimental.
Denomina táctica a la secuencia de pasos que el sujeto sigue cuando resuelve un
problema. La táctica es el mapa observable de la actividad mental. Dentro de ciertas
limitaciones experimentales el sujeto debe tener libertad para solicitar la información que
dese y crea conveniente para resolver su problema. La táctica de un sujeto se caracteriza
por las preguntas que el sujeto hace y por el orden en que las hace.
De acuerdo a cuales son las preguntas que selecciona, a cuantas sean y el orden en que
realiza dicha selección se evidenciará la táctica que emplea para resolver el problema.
Indudablemente dicha táctica facilitará la sistematicidad y exhaustiva con que se pueda
seguir un razonamiento.
1. Aportaciones:
A. Conductismo
B. Gestalt
1. A) Conductismo
Thorndike estudia la conducta que adoptan gatos encerrados para escapar de jaulas de
madera. El considerada que el gato enfrentaba una situación (escape) para la cual no tenía
una conducta aprendida.
90
Surge la búsqueda de una solución por ensayo y error, y se arriba a la misma por
“casualidad”. En sucesivos ensayos el tiempo requerido para resolver satisfactoriamente
el problema disminuye de forma gradual.
Thorndike concluye que en función de una resolución exitosa (recompensa: escape) por
puro azar, el gato incorpora la acción y la reproduce. La recompensa entonces refuerza
por vías neuronales y motoras, y este refuerzo consolida nuevas conductas, es decir, que
disponga de nuevos hábitos para nuevas situaciones. A raíz de estos ensayos postuló dos
leyes:
- Ley del ejercicio: el vínculo entre el estímulo y la respuesta se torna más fuerte por
la ejercitación. Así mismo, se complementa con la Ley del Desuso, que establece que la
falta de asociación entre E y R debilita dicha relación.
- Ley del efecto: el aprendizaje se da a partir de la unión entre el estímulo y una
respuesta gratificante. O sea, que la conexión se ve reforzada cuando la respuesta
conduce a una satisfacción.
Las ideas que se desprenden de estos ensayos, base de los postulados de Skinner, Watson
y Hull, fueron fuertemente criticadas por reduccionistas, mecanicistas y antipsicológicas.
Un posible análisis crítico a esta teoría podría encuadrarla en un enfoque mecanicista,
dado que no tiene en cuenta ni el objetivo, ni el sujeto. Toda interpretación está basada
en un molde explicativo estimulo – respuesta.
Köhler critica fuertemente este experimento porque sostiene que en ningún momento el
gato se propone salir de la jaula, desconoce el objetivo, el cual es descubierto de manera
azarosa a posteriori. Entonces, el objetivo no es anterior a la conducta.
Este esquema explicativo E-R, en progresivas reducciones suprime al sujeto, ya que no
contempla la intencionalidad. Suprime fundamentalmente al yo como agente ejecutivo y
causal de la conducta. El conductismo se queda sin un sujeto real que actúe con un
propósito.
Por último, la falacia más grave del pensamiento conductista clásico, seria extrapolar el
esquema de aprendizaje de los animales, al de los humanos, cuando este último implica
una estructura y mecanismo de conductas más complejas e inteligentes.
B) Gestalt
Gracias a estos aportes se pudo virar el enfoque hacia el proceso que lleva a la solución de
problemas, dejando de lado la solución propiamente dicha.
Si bien Köhler realiza sus ensayos con animales, al igual que Thorndike lo que los
diferencia es la perspectiva teórica en la que se encuadra.
91
A partir de las críticas planteadas por Köhler a los ensayos experimentales de Thorndike,
se propone estudiar el comportamiento del animal en situaciones lo más próximas a lo
natural, procurando además plantear problemas que, supuestamente, tengan sentido
para el animal.
Las experiencias de Köhler son de una gran simplicidad, coloca algo en una situación en la
que el chimpancé tiene que dar un simple rodeo para alcanzarlo o coloca alimento fuera
de su alcance, pero con elementos a la vista que el chimpancé deberá relacionar para
alcanzarlo. De estos experimentos concluyó que el animal no emprende una búsqueda de
ensayo y error, y por ende no alcanza la solución por casualidad. Observó un
comportamiento inteligente basado en la percepción de lo que se requiere para
solucionar el problema. La respuesta de solución implica un proceso de reorganización de
los elementos del problema, que incluye tanto la comprensión de la función de cada
elemento, como la relación que existe entre todos ellos.
Cuando el animal llega a la solución, es porque ha logrado producir una reorganización
perceptual, se da cuenta que para alcanzar el alimento tiene que usar los palos, por tanto,
establece relaciones entre los elementos presentes. Esta reorganización es denominada
por Köhler: COMPRENSION SUBITA O INSIGHT. Por ende, el animal no llega por azar a la
solución.
En síntesis, tanto al conductismo como a la Gestalt les interesa el proceso mediante el cual
aparecen conductas nuevas. Sin embargo, mientras que con conductistas se centraron en
la influencia de aquellos aspectos más externos de la conducta (recompensas y castigos),
los gestaltistas anticipándose a lo que 40 años más tarde sería la psi cognitiva, se
interesaron en analizar los aspectos internos de la conducta, es decir, la elaboración de la
información que realiza un sujeto para que aparezca una nueva conducta, para resolver
un problema.
Otra diferencia fundamental es que los gestaltistas no admitían que la solución a un
problema se produzca, en primer instancia, por casualidad y luego se mantenga por
reforzamiento, sino que afirmaban que el sujeto, elabora soluciones posibles al problema,
concibiendo a las mismas como tales, desde el primer momento que las utilizaron.
Para cerrar con los aportes de la Gestalt mencionaremos dos ideas que fueron de gran
fecundidad para los estudios actuales en solución de problemas:
92
no puede explicarse al margen del contexto o estructura general en la que está inmerso.
Afirmaban que los sujetos en función de lo que conocen de cada situación, tienden a
formarse representaciones globales y, en consecuencia, la introducción de cualquier
elemento nuevo determina una restructuración de lo que ya se conoce.
2. Definición de problemas
Sin embargo a pesar de este acuerdo una gran variedad de tareas entrarían dentro de este
concepto: problemas de creatividad, de memoria, de deducción, etc. Siendo posible así
que dichas tareas den lugar a procesos mentales de resolución bastante distintos entre sí.
93
El campo de la resolución de problemas por más que lo delimitemos al ámbito humano y
nos pongamos de acuerdo en una misma definición, sigue siendo ampliamente
heterogéneo. A pesar de que los resultados de los experimentos en “resolución de
problemas” parecen ser bastante sensibles a las características individuales de los sujetos
y al tipo de problemas que deben resolver. Es notable como los investigadores tienden a
sobre generalizar sus hallazgos y a hablar de “resolución de problemas” en general, aun
cuando solo una variante específica de un problema ha sido investigada en relación y con
un determinado tipo de sujeto.
Si bien existen diversas clasificaciones de problemas que intentaron delimitar el área de
alcance de cada investigación, se tomará como base la taxonomía propuesta por Bopurne,
Ekstrand y Dominowski. Estos consideran los siguientes criterios:
1) Grado de definición del problema: Los problemas pueden estar bien o mal
definidos, de acuerdo a las limitaciones que se imponga a la persona que va a
solucionarlos. Un problema bien definido es aquel que tiene una meta claramente
establecida, indicaciones claramente precisas respecto de las operaciones que se pueden
realizar (y, en contraposición, de las que no se pueden realizar) y en el que cualquier
intento de solución puede juzgarse, sin ambigüedad, como correcto o equivocado.
En contraste con esto, existen otros problemas en los que no hay una definición clara
respecto de cuál sería la solución, ni tampoco una especificación respecto de lo que el
solucionador podría hacer (es decir una explicitación de las operaciones licitas e ilícitas).
Una parte importante de la tarea de la persona es definir el problema de una forma
potencialmente afortunada. Con frecuencia se consideran problemas de este tipo a
aquellos que requieren una solución creativa.
La mayoría de los estudios experimentales se han realizado con problemas bien definidos.
Como consecuencia la mayor parte de lo que se sabe acerca de la solución de problemas
está relacionado con el logro de soluciones en situaciones altamente especificadas y en las
que los intentos de solución pueden ser calificados, confiablemente, como correctos o
incorrectos.
94
científico, numérico) o bien a través de materiales concretos. Los datos conocidos indican
que este factor índice sobre las estrategias de resolución.
Una última distinción a tener en cuenta a la hora de clasificar los problemas según su
estructura es la que discrimina entre problemas con o sin incertidumbre.
95
Problemas de certidumbre: incluye la información necesaria y suficiente, tanto de las
operaciones posibles (licitas o ilícitas) como de la meta que aparece explicita y concreta. A
partir de este planteo completo se puede resolver la incógnita a través de procesos
puramente inferenciales y así lograr la solución.
Apreciaciones finales:
Es importante restringir las conclusiones de los diferentes estudios sobre “solución de
problemas” al ámbito específico que se esté estudiando y evitar las generalizaciones de
resultados y conclusiones obtenidos a partir de un tipo particular de problema.
Hasta hoy día sólo se han formulado lo que podemos considerar como micro-teorías, no
obstante, no se puede dejar de destacar que existen algunos fenómenos en los procesos
de resolución que parecen estar presentes, aun ante diferentes tipo de problemas.
La eficacia con la que el sujeto lleve a cabo los PROCESOS DE RESOLUCIÓN va a depender
de
2 factores:
● El 1ro - Del tipo y complejidad del problema (características de los problemas)
96
problema. Siempre es necesario conocer la representación que cada sujeto concluye de la
misma.
Cuando mejor se represente el conjunto total de inconsistencias serán mayores sus
posibilidades de implementación de ESTRATEGIAS adecuadas y eficaces para su
resolución.
Si se enfrenta un sujeto del tipo de los caníbales o misiones a una tarea a solucionar de
ajedrez o tareas
cripto aritméticas, muy probablemente la representación mental que concluya en ellas
incluya lagunas o
Inconsistencias que muy definidamente explicitan dichas tareas. En tal sentido
constituyen lo que hemos denominado como problemas bien definidos.
Sin embargo, en la vida diaria, profesional o científica nos tenemos que enfrentar con
tareas ambiguas, débilmente estructuradas. En tales casos los procesos de solución de
problemas no comienzan con un “problema” ya formulado sino que la cuestión es
precisamente en percatarse de que la situación no es lo bueno que debería ser, que
necesita ser perfeccionada, que presenta alguna inconsistencia. El primer paso es
darse cuenta que existe un problema ósea encontrar el problema. La forma en que
formulemos a estos incidirá sobre la forma en que los solucionemos.
● 2) PENSAMIENTO DIRECTIVO:
Los procesos de pensamiento que intervienen en la resolución de problemas están
direccionados hacia el logro de una meta u objetivo. Va a estar en búsqueda de
alternativas de soluciones adecuadas.
En 2do Lugar: Las limitaciones de la memoria operativa (memoria de corto plazo: dispone
de escasa
Capacidad de almacenamiento)
En 3er Lugar: Las características organizativas y funcionales de la memoria de largo
plazo.
97
A continuación desarrollaremos la teoría del procesamiento de la información en lo que
se refiere a la resolución de problemas
Dichas teorías -Newell y Simon (1972); Lindsay y Norman; Simon (1978)- describen la
conducta del sujeto resolvedor de problema como una INTERACCIÓN entre:
A. Un sistema de procesamiento de la información (el sujeto que soluciona
problemas)
B. Un ambiente de la tarea (representado por la tarea real)
C. Un espacio problema (representación mental que el sujeto tiene del ambiente de
la tarea)
Estos 3 componentes establecen el marco dentro del cual se puede comprender la
conducta de solución de problemas.
Las características generales del sistema de procesamiento de información son suficientes
para determinar que el AMBIENTE DE LA TAREA siempre está representado por un
SUJETO como un ESPACIO PROBLEMA y que la solución del problema se realizará en ese
espacio.
La estructura del AMBIENTE DE LA TAREA en gran parte va a determinar las posibles
REPRESENTACIONES que haga el sujeto, afectará a las posibles a las posibles
estructuraciones del ESPACIO DEL PROBLEMA Y la estructura del espacio problema
determinará las ESTRATEGIAS DE RESOLUCIÓN posibles que el sujeto seleccionara.
El análisis de los procesos nos abre la puerta para el estudio de estilos cognoscitivos.
98
A. Lógico: Se postula como el que procesa inferencialmente la información de manera
racional y como el que más se aproxima a la táctica ideal.
B. Inconsistente: Se supone caracterizado por el predominio de un factor extralógico
(o puramente psicológico) de acumulación de información.
Indiferentes a la información
C. Intuitivo o Adivinatorio: Se supone caracterizado predominantemente por factores
extra lógicos: “Renuncia a buscar información”, “saltos o disrupciones inferenciales”,
“intuición” o “adivinación”, etc.
D. Ineficaz: Se postula con el más desorganizado extralógicamente , además de no
presentar intentos coherentes de búsqueda de mayor información, tampoco manifiesta
un intento de resolver el problema por alguna vía, aunque sea esotérica.
<<A continuación se describen apuntes tomados en clases sobre los capítulos 4, 5 y6>>>
Capítulo 4
Querían investigar qué estrategias sigue el ser humanos para resolver un problema, para ello
había que tipificar las estrategias cognitivas; por ejemplo en el área de educación estas estrategias
muestran donde un sujeto se traba y qué partes son más dificultosas para avanzar hacia la meta;
otra área son los sistemas expertos que investigan en el juego de ajedrez como lo juega el ser
humano, es decir, hacen una investigación cognitiva sobre la forma de razonar estratégicamente.
El objetivo de estas investigaciones es estudiar lo que hace la gente para resolver los problemas,
como lo entienden y cómo actúan en consecuencia.
Otro punto muy importante es la metodología, por eso decidieron estudiar los procesos y no
las respuestas. Los procesos se estudian a través de técnicas introspectivas: por ejemplo, una
maestra pide que adjunten sus alumnos una hoja donde están las cuentas para darse cuenta que
quizás el proceso está bien pero el resultado no. Se plantean dos métodos introspectivos:
● PENSAMIENTO EN VOZ ALTA: es una toma individual, en el que se le da un problema a la
persona junto con un grabador para que, durante todo el tiempo que esté resolviendo el
problema se grabe verbalizando todos sus pensamientos en voz alta. Entonces en la
grabación queda todo lo que pensó el sujeto para resolver el problema, esto es llamado
protocolo introspectivo.
● INFORME RETROSPECTIVO: es una toma grupal, en el que se le da problemas de ingenio
para que resuelvan, pidiéndoles que cuando terminen escriban lo más detalladamente
posible todos los pasos que dio para llegar al resultado. Entonces lo que queda lo
llamamos protocolo retrospectivo, este protocolo deja en evidencia como pensó el sujeto.
Una investigación que comparó ambos protocolos indicó que no son iguales porque el
protocolo retrospectivo es mucho más liviano porque él ya llegó a la solución, entonces lo cuenta
de una forma más lineal. En cambio, el pensamiento en voz alta deja en evidencia todas las vueltas
que se da para llegar al resultado. Sin embargo, el que más se usa es el informe retrospectivo
porque permite tomas masivas.
Estos métodos tuvieron sus críticas:
1) la primera es una crítica general que abarca ambos métodos, la cual dice que estos
métodos no servían porque el sujeto no es consciente de todos los estados de
conocimiento por los que va pasando
99
2) La segunda es una crítica hacia el método de pensar en voz alta, la cual dice que el ser
humano no está acostumbrado a pensar en voz alta, por eso esa descripción va a estar
desfigurada.
Herbel Simon responde a la primer crítica diciendo que es posible que el sujeto no conozca
todos los pasos que realizó para resolver el problema, pero si va a describir gran parte de lo que
hizo, es decir, algunos pasos van a estar excluidos pero la gran mayoría van a estar ahí y sobre eso
se va a reconstruir la estrategia. Luego responde a la segunda crítica diciendo que es cierto pero
que no deja de ser una situación de resolución de problemas donde debe resolver dos problemas:
el problema en sí y pensarlo en voz alta. Además, da cuenta de que mientras se piensa en voz alta
es más deliberada y planificada la conducta, y también más lenta en comparación con la no
verbalizada. También agregan que en los problemas hay una distorsión porque cuesta poner en
palabras lo que resolvimos con imágenes; por eso, para este tipo de problemas no es indicado el
método de pensamiento en voz alta.
En este capítulo se nombra un problema llamado “los caníbales y los misioneros” que no
requiere del uso de la introspección (también llamado hobbits y orcos)
El planteamiento del problema es el siguiente: tres hobbits y tres orcos quieren cruzar un río
pero disponen solo de un bote que puede llevar un máximo de dos personas, no existiendo ningún
otro método de cruzar el río. Los orcos son feroces y carnívoros y por lo tanto en ningún momento
puede haber más orcos que hobbits en ninguna de las dos orillas, ya que se los orcos se comerian
a los hobbits. El problema consiste en trasportar los tres hobbits y los tres orcos a la otra orilla del
rio, de la forma más rápida y sencilla posible, evitando que los hobbits sean devorados por los
orcos.
Para resolverlos es necesario alcanzar determinadas submetas que nos vayan acercando a la
situación final. Dicha secuencia de resolución implica una serie de 11 pasos o movimientos sin
apelar a la introspección.
Capítulo 5 y 6
Los problemas más estudiados son los que tienen una fuerte estructura lógica y una solución
única, es decir que los problemas sociales son los menos estudiados porque no poseen estructura
lógica.
Herbel Simon muestra un método con tres componentes:
● AMBIENTE DE LA TAREA: es el problema tal cual lo da el investigador.
● SISTEMA COGNITIVO HUMANO: es el sujeto que se enfrenta a una tarea, sus
características son:
Pensamiento directriz: se debe suponer que hay un yo ejecutivo que se fija metas y gracias
a eso el sujeto se involucra en la solución de problemas.
Representaciones incompletas: gracias a ellas dudamos.
Deficiencia estructural de la mente: se refiere a todo lo aprendido hasta ese momento.
Operaciones seriales: los procesos de pensamiento que desencadenan luego de resolver
un problema son de tipo serial
● DE LA INTERACCIÓN SURGE EL ESPACIO-PROBLEMA: es la representación mental que el
sujeto se hace del ambiente donde se realiza la tarea.
100
JUICIO EN SITUACIÓN DE INCERTIDUMBRE: HEURÍSTICOS Y SESGOS (TVERSKY Y KAHNEMAN)
A veces, las creencias respecto a hechos inciertos se expresan de forma numérica, en término de
estimaciones de probabilidad o probabilidades subjetivas.
¿Qué determina esas creencias? ¿Cómo evalúa la gente la probabilidad de ocurrencia de un hecho
incierto o el valor de una cantidad incierta? La gente se basa en un número limitado de principios
heurísticos que convierten las tareas complejas de evaluar probabilidades y predecir valores en
operaciones de juicio más simples. Generalmente, estos heurísticos son útiles, pero en otras
ocasiones conducen a errores graves y sistemáticos.
La evaluación de la probabilidad está basada en datos de validez limitada, que se procesan de
acuerdo con las reglas heurísticas. Pero la confianza en estas reglas conduce a errores sistemáticos
(sesgos) en la estimación de la probabilidad.
A continuación se describirán tres heurísticos que se utilizan para evaluar probabilidades y para
predecir valores, enumerando los sesgos a los que esos heurísticos conducen.
Representatividad
La gente se hace preguntas probabilísticas tipo: ¿Cuál es la probabilidad de que el objeto A
pertenezca a la clase B? ¿Cuál es la probabilidad de que el hecho A tenga su origen en el proceso
B? ¿Cuál es la probabilidad de que el proceso B dé lugar al hecho A? Para responder a estas
preguntas, la gente suele confiar en el heurístico de la representatividad, según el cual las
probabilidades se evalúan en función del grado de representatividad de A con respecto a B, es
decir, el grado en el que A se parece a B. Por ejemplo, cuando A es muy representativo de B, se
considera que la probabilidad de que A tenga su origen en B es alta. Por el contrario, si A no tiene
semejanza con B, la probabilidad de que A tenga su origen en B se considera baja.
Este enfoque del juicio de probabilidad lleva a cometer graves errores ya que la semejanza o
representatividad no se ve influida por varios factores que afectarían a los juicios de probabilidad.
Insensibilidad a la probabilidad previa de los resultados
Uno de los factores que no tiene ningún efecto sobre la semejanza o representatividad, pero que
podría tener una influencia importante en la probabilidad, es la probabilidad previa o tasa básica
de frecuencia de los resultados.
Los sujetos son capaces de utilizar correctamente las probabilidades previas cuando no tienen
ninguna otra información.
Esta hipótesis se puso a prueba en un experimento en el que se manipularon las probabilidades
previas. Se presentaron a los sujetos breves descripciones de la personalidad de varios individuos,
diciéndoles que se había tomado al azar de un grupo compuesto por cien profesionales,
concretamente ingenieros y abogados. Se pidió a los sujetos que evaluasen para cada descripción
la probabilidad de que esa persona fuese ingeniero en vez de abogado. En una de las condiciones
experimentales, se informaba a los sujetos que el grupo del que se habían extraído las
descripciones estaba compuesto por setenta ingenieros y treinta abogados. En otra condición, se
les decía que el grupo estaba formado por treinta ingenieros y setenta abogados. La probabilidad
de que cualquier descripción concreta correspondiera a un ingeniero en vez de a un abogado sería
más alta en la primera condición, en la que hay mayor número de ingenieros, que en la segunda,
en la que la mayor parte son abogados. Los sujetos de ambas condiciones realizaban
prácticamente los mismos juicios de probabilidad. Aparentemente, los sujetos evaluaban la
probabilidad de que una descripción en concreto correspondiese a un ingeniero en vez de a un
abogado según el grado de representatividad de esa descripción con respecto a ambos
101
estereotipos, sin prestar ninguna o casi ninguna atención a las probabilidades previas de cada
categoría.
Los sujetos utilizaban correctamente las probabilidades previas cuando no tenían ninguna otra
información. En ausencia de una descripción de la personalidad, consideraban que la probabilidad
de que una persona desconocida fuera ingeniero era 0.7 y 0.3 respectivamente en cada una de las
condiciones de tasa básica. Sin embargo, en cuanto se introducía una descripción, aunque no
resultase en absoluto informativa, las probabilidades previas eran ignoradas sistemáticamente.
Insensibilidad al tamaño de la muestra
Cuando la gente tiene que evaluar la probabilidad de obtener un resultado concreto de una
muestra extraída de una determinada población, suele aplicar el heurístico de la
representatividad. Es decir, evalúa la probabilidad de un resultado de una muestra, por ejemplo, la
probabilidad de que la estatura media en una muestra aleatoria de diez varones sea 1,80 m,
mediante la semejanza entre ese resultado y el parámetro correspondiente (en ese caso la
estatura media de la población de varones). La semejanza entre el estadístico de la muestra y el
parámetro de la población no depende del tamaño de la muestra. Por tanto, si las probabilidades
se evalúan por la representatividad, la probabilidad considerada para un estadístico de una
muestra será básicamente independiente del tamaño de la muestra. De hecho, cuando los sujetos
evaluaban las distribuciones de la estatura media de varias muestras de diverso tamaño producían
distribuciones exactamente iguales. Incluso, los sujetos fueron incapaces de apreciar la influencia
que podía tener el tamaño de la muestra cuando se insistió sobre ella en la formulación del
problema. Es evidente que esta noción fundamental de la estadística no forma parte del
repertorio de intuiciones de la gente.
La insensibilidad ante el tamaño de la muestra se ha observado también en juicios sobre la
probabilidad posterior, es decir, sobre la probabilidad de que una muestra haya sido obtenida de
una población a otra.
Imagínense una urna llena de bolas, de las que 2/3 son de un color y 1/3 de otro color. Una
persona hay sacado cinco bolas de la urna y ha comprobado que cuatro eran rojas y una blanca.
Otra persona ha sacado veinte bolas, doce rojas y ocho blancas. ¿Cuál de estas dos personas
debería estar más segura de que la urna contiene 2/3 de bolas rojas y 1/3 de bolas blancas, y no al
contrario? ¿Qué estimaciones de probabilidad debería hacer cada persona?
En este problema, las estimaciones correctas de probabilidad posterior son de 8 a 1 para la
muestra 4:1 y de 16 a 1 para la muestra 12:8, partiendo de las mismas probabilidades previas. Sin
embargo, la mayor parte de la gente cree que la primera muestra proporciona un apoyo mucho
más claro a la hipótesis de que las bolas que hay en la urna son mayoritariamente rojas, puesto
que la proporción de bolas rojas es mayor en la primera muestra que en la segunda. Nuevamente,
los juicios intuitivos están dominados por la proporción de la muestra y no se ven afectados en lo
más mínimo por el tamaño de muestra, que tiene una importancia decisiva en la determinación de
las probabilidades reales posteriores. Además, las estimaciones intuitivas de las probabilidades
posteriores son bastante menos extremas que los valores correctos. La subestimación del impacto
de los datos se ha observado repetidamente en problemas de este tipo. Esta tendencia ha sido
denominada “conservadurismo”.
Concepciones erróneas del azar
La gente espera que una secuencia de hechos producida por un proceso aleatorio represente las
características esenciales de ese proceso aún cuando la secuencia sea breve. Por ej, si se lanza
repetidas veces una moneda al aire, a cara (A) o cruz (B), la gente cree que es más probable que se
produzca la secuencia A-B-A-B-B-A que la secuencia A-A-A-B-B-B, que no parece deberse al azar, o
que la secuencia A-A-A-A-B-A, que no representa la imparcialidad de la moneda. De esta forma, la
102
gente espera que las características esenciales del proceso estén representadas no sólo
globalmente en la secuencia completa sino también parcialmente en cada uno de sus segmentos.
Sin embargo, una secuencia parcialmente representativa se desvía sistemáticamente de la
expectativa de azar: contiene demasiadas alternancias y muy pocas series continuadas. Otra
consecuencia de la creencia en la representatividad parcial es la conocidísima falacia del jugador.
Por ej, tras observar en la ruleta una larga serie de rojos, casi todo el mundo cree erróneamente
que a continuación, tiene que salir un negro, posiblemente porque si se produce un negro la
secuencia será más representativa que si se produce un nuevo rojo. El azar suele considerarse
como un proceso que se corrige a sí mismo, en el que una desviación en una dirección conduce
necesariamente a una desviación en la dirección opuesta con el fin de restablecer el equilibrio. En
realidad, cuando se produce un proceso al azar las desviaciones no se “corrigen”: simplemente se
diluyen.
Las concepciones erróneas del azar no son exclusivas de los sujetos inexpertos sino también de
investigadores o psicólogos. Entre ellos se reveló una creencia persistente denominada “la ley de
los pequeños números”, según la cual incluso las muestras pequeñas son muy representativas de
las poblaciones a las que pertenecen. Los investigadores depositan demasiada confianza en los
resultados de muestras pequeñas y sobreestiman en exceso la posibilidad de que esos resultados
sean replicables. En el momento de ponerse a investigar, este sesgo conduce a la selección de
muestras de tamaño inadecuado y a una interpretación exagerada de los resultados obtenidos.
Insensibilidad a la predictibilidad
A veces la gente recurre al cálculo de predicciones numéricas, tales como el futuro precio de unas
existencias, la demanda de un artículo o el resultado de un partido de fútbol. Esas predicciones
suelen hacerse por representatividad. Por ej, supongamos que a una persona le damos la
descripción de una empresa y le pedimos que prediga sus beneficios en el futuro. Si la descripción
de la empresa es muy favorable, parecerá más representativa de esa descripción la existencia de
elevados beneficios; si la descripción es mediocre, lo más representativo parecerá un rendimiento
mediocre. El grado en el que una descripción es favorable no se ve afectado en absoluto por la
fiabilidad de esa descripción o por el grado en el que permite una predicción exacta. En
consecuencia, si la gente predice únicamente en función de lo favorable que sea la descripción,
sus predicciones no tendrán en cuenta la fiabilidad de esos datos ni la exactitud esperada de la
predicción.
Esta forma de juzgar viola la teoría estadística normativa en la que la excepcionalidad y la amplitud
de las predicciones están controladas por consideraciones de predictibilidad. Cuando la
predictibilidad es nula, se debería hacer en todos los casos la misma predicción. Por ej, si las
descripciones de las empresas no proporcionan ninguna información relevante sobre los
beneficios, debería predecirse el mismo valor (una especie de beneficio promedio) para todas las
empresas. Si la predictibilidad es perfecta obvio que los valores predichos se corresponderán con
los valores reales de la amplitud de los resultados. En general, cuanto mayor es la predictibilidad
mayor es la amplitud de los valores predichos.
Varias investigaciones sobre la predicción numérica han demostrado que las predicciones
intuitivas violan esta regla y que los sujetos prestan muy poca o ninguna atención a las
consideraciones de predictibilidad.
La ilusión de validez
La confianza que tiene la gente en sus predicciones depende esencialmente del grado de
representatividad (es decir, de la clase de correspondencia que exista entre el resultado
seleccionado y la información recibida), con poca o ninguna consideración de los factores que
reducen la precisión de la predicción. Esta confianza injustificada que se produce al cuadrar
103
perfectamente el resultado predicho y la información recibida puede denominarse ilusión de
validez. Esta ilusión sigue produciéndose aunque el sujeto que realiza el juicio sea consciente de la
existencia de factores que reducen la precisión de sus predicciones.
La consistencia interna de una pauta de informaciones es un determinante fundamental de la
confianza que una persona tiene en las predicciones que realiza sobre la base de estas
informaciones. Suelen observarse con más frecuencia pautas muy consistentes cuando las
variables de la información son muy redundantes o están muy correlacionadas entre sí. Por tanto,
la gente suele tener gran confianza en las predicciones que están basadas en variables de
información redundantes. Sin embargo, un principio elemental de la estadística correlacional
afirma que, dadas unas variables de información de validez determinada, una predicción basada
en varias de esas informaciones resultará más precisa cuando esas informaciones sean
independientes entre sí que cuando se trate de información redundante o correlacionada. En
consecuencia, la redundancia en la información reduce la precisión en la misma medida en que
incrementa la confianza, entonces la gente suele confiar en predicciones que es muy poco
probable que carezcan de una base suficiente.
Concepciones erróneas de la regresión
Tomamos, como caso más general, dos variables X e Y que tengan la misma distribución. Si
seleccionamos unas personas cuya puntuación promedio X se desvía de la media de X en k
unidades, el promedio de sus puntuaciones Y tenderá a desviarse de la media de Y en menos de k
unidades. Se trata de un fenómeno muy general conocido como regresión hacia la media.
En nuestra vida diaria, encontramos muchos casos de regresión hacia la media. Y sin embargo, la
gente no desarrolla intuiciones correctas sobre este fenómeno. En primer lugar, no espera la
existencia de una regresión en muchas situaciones en que se producirá con seguridad. En segundo
lugar, cuando se da cuenta de que se produce la regresión suele inventar explicaciones causales
falsas del fenómeno. Pensamos que el fenómeno de la regresión sigue siendo esquivo a causa de
su incompatibilidad con la creencia de que el resultado predicho debería de ser representativo al
máximo de la información disponible y, en consecuencia, de que el valor de la variable del
resultado debería de ser tan extremo como el valor de la variable de la información.
La incapacidad para reconocer la importancia de la regresión puede tener consecuencias
negativas, como se observa en el siguiente ejemplo. En una situación de adiestramiento de pilotos
de vuelo, instructores experimentados observaron que las alabanzas a un aterrizaje
excepcionalmente suave eran seguidas normalmente por un aterrizaje peor en el siguiente
ensayo, mientras que las críticas duras tras un aterrizaje brusco solían venir acompañadas de una
mejora en el siguiente ensayo. Los instructores concluyeron que los refuerzos verbales positivos
eran perjudiciales para el aprendizaje, mientras que las reprobaciones verbales eran beneficiosas,
contrariamente a lo que sostienen las teorías psicológicas generalmente aceptadas. Esta
conclusión no está justificada, ya que no tiene en cuenta la presencia de la regresión hacia la
media. Como sucede en otros muchos casos en que se realizan exámenes repetidos, una mejora
suele seguir a una actuación pobre y un empeoramiento suele seguir a una actuación brillante,
aunque el instructor no responda de ninguna manera a la actuación del alumno en el ensayo
anterior. Como los instructores han alabado a sus alumnos tras los buenos aterrizajes y les han
reprendido tras los malos, han llegado a la conclusión errónea y potencialmente perjudicial de que
el castigo es más efectivo que el premio.
En la interacción social, al igual que en el aprendizaje, suelen premiarse las buenas conductas y
castigarse las malas. En consecuencia, y teniendo en cuenta únicamente la regresión, es más
probable que la conducta mejore tras un castigo y empeore tras un premio. En consecuencia, si
pensamos sólo en el azar, la condición humana es tal que resulta más frecuente que a uno le
104
premien por castigar a los demás y le castiguen por premiar a los demás. La gente no suele ser
consciente de esta contingencia. De hecho, el papel difícilmente aprehensible de la regresión en la
determinación de las consecuencias aparentes del premio y del castigo parece haber escapado
también a la perspicacia de los especialistas en esta área. #PALO #BARDO
Accesibilidad
Hay situaciones en las que la gente evalúa la frecuencia de una clase o la probabilidad de un
acontecimiento en función de la facilidad con la que le vienen a la mente casos o ejemplos de ese
tipo de clase o acontecimiento. Este heurístico del juicio es llamado accesibilidad. Es útil para
evaluar la frecuencia o la probabilidad, ya que suelen recordarse mejor y con más seguridad los
casos de clases abundantes que los casos de clases poco frecuentes. No obstante, hay otros
factores además de la frecuencia y la probabilidad que afectan a la accesibilidad. La confianza en
ella conduce a sesgos predecibles a los que nos referimos a continuación.
Sesgos debidos a la facilidad de recuperación de los casos
Cuando el tamaño de una clase se valora en función de la accesibilidad de casos conocidos, una
clase cuyos casos conocidos se recuperen con más facilidad parecerá más numerosa que una clase
igualmente frecuente cuyos casos conocidos sean más difíciles de recuperar.
Además de la familiaridad, hay otros factores como la prominencia que afectan a la
recuperabilidad de los casos conocidos. Además, los acontecimientos recientes serán
probablemente más accesibles que los más remotos.
Sesgos debidos al efecto de la disposición [set] de búsqueda
Supongamos que extraemos al azar una palabra (de tres o más letras) de un texto en inglés. ¿Qué
es más probable: que la palabra empiece por r o que la tercera letra sea una r? La gente se
enfrenta a este problema recordando palabras que empiezan con r (row) y palabras cuya tercera
letra es una r (car) y evalúa la frecuencia relativa por la facilidad con la que le vienen a la mente
ambos tipos de palabras. Como es más fácil buscar palabras por su primera letra que por su
tercera letra, casi todo el mundo cree que son más numerosas las palabras que empiezan con una
consonante cualquiera que las palabras cuya tercera letra es esa misma consonante. Y lo creen
incluso para aquellas consonantes como r o k que aparecen con más frecuencia en la tercera
posición que en la primera.
Tareas diferentes ponen en funcionamiento disposiciones de búsqueda diferentes.
Correlación ilusoria
Chapman y Chapman (1967) han descrito un interesante sesgo en la evaluación de la frecuencia
con la que dos acontecimientos co-ocurren. Presentaron a sujetos inexpertos información relativa
a varios supuestos pacientes mentales. Los datos sobre cada paciente consistían en un diagnóstico
clínico y en un dibujo de una persona hecho por el propio paciente. A continuación, los sujetos
estimaban la frecuencia con la que cada diagnóstico (por ej, paranoia o manía persecutoria) iba
acompañado por diversos rasgos del dibujo (por ej, unos ojos peculiares). Los sujetos
sobrestimaron de un modo muy señalado la frecuencia de la co-ocurrencia de asociaciones
habituales, como por ejemplo la manía persecutoria y unos ojos peculiares. Este efecto se
denominó correlación ilusoria. En sus evaluaciones erróneas de los datos que se les habían
presentado, los sujetos inexpertos “redescubrieron” muchos tópicos clínicos, muy extendidos pero
infundados, con respecto a la interpretación del test del dibujo de la figura humana. Este efecto
resultó enormemente resistente a los datos que la contradecían. Se mantuvo incluso cuando la
correlación entre síntoma y diagnóstico era en realidad negativa e impidió que los sujetos
detectasen relaciones que de hecho estaban presentes.
La accesibilidad proporciona una explicación razonable para el efecto de la correlación ilusoria. El
juicio sobre la frecuencia de co-ocurrencia de dos hechos se basaría en la fuerza del vínculo
105
asociativo existente entre ambos. Cuando la asociación es fuerte, es probable que el sujeto
concluya que los hechos están frecuentemente emparejados. En consecuencia, se considerará que
las asociaciones fuertes se han producido juntas con frecuencia. Según esta concepción, la
correlación ilusoria entre manía persecutoria y un dibujo peculiar de los ojos, pongamos por caso,
se debe a que la manía persecutoria se asocia con los ojos más fácilmente que con cualquier otra
parte del cuerpo.
Ajuste y Anclaje
En muchas situaciones, la gente realiza estimaciones a partir de un valor inicial que se ajusta para
producir una respuesta final. El valor inicial, o punto de partida, puede venir sugerido por la
formulación del problema o puede ser el resultado de un cálculo parcial. En cualquier caso, estos
ajustes suelen ser insuficientes. Es decir, puntos de partida diferentes producen estimaciones
diferentes, sesgadas hacia los valores iniciales. Nosotros denominamos a este fenómeno anclaje.
Ajuste insuficiente
El anclaje no se produce sólo cuando el sujeto recibe un punto de partida sino también cuando
basa su estimación en algún cálculo incompleto.
Una investigación sobre la estimación numérica intuitiva nos sirve para ilustrar este efecto. Dos
grupos de alumnos de enseñanza secundaria tuvieron que calcular, en sólo cinco segundos, una
expresión numérica. Un grupo calculó el producto de 8x7x6x5x4x3x2x1. El otro calculó el producto
de 1x2x3x4x5x6x7x8. Para responder a estas preguntas, los sujetos podían ejecutar unos pocos
pasos de cálculo y estimar el resultado final por extrapolación o ajuste. Como los ajustes suelen ser
insuficientes, este procedimiento debería llevar a subestimar el producto final. Además, puesto
que el resultado de los primeros pasos de la multiplicación (realizados de izq a der) es mayor en la
secuencia descendente que en la ascendente, la primera expresión debería de considerarse
superior a la segunda. Ambas predicciones se vieron confirmadas. La estimación media para la
secuencia ascendente fue 512 mientras que la estimación para la secuencia descendente fue
2.250l. La respuesta correcta es 40.320…
Discusión
Los principios estadísticos no se aprenden de la experiencia cotidiana porque los casos relevantes
no se codifican de un modo apropiado.
La falta de un código apropiado explica asimismo por qué la gente no suele darse cuenta de los
sesgos en sus juicios de probabilidad.
El análisis empírico de los sesgos cognitivos tiene implicaciones sobre la importancia, tanto teórica
como aplicada, de las probabilidades juzgadas. La teoría actual de la toma de decisiones considera
la probabilidad subjetiva como la opinión cuantificada de una persona ideal. Concretamente, la
probabilidad subjetiva de un acontecimiento dado se define como el conjunto de apuestas que
sobre ese acontecimiento está dispuesta a aceptar una persona. Puede obtenerse una medición
coherente, o con consistencia interna, de la probabilidad subjetiva para una persona si sus
elecciones entre diversas apuestas satisfacen ciertos principios, esto es, los axiomas de la teoría.
La probabilidad obtenida es subjetiva en el sentido de que diversas personas pueden conceder
probabilidades diferentes al mismo acontecimiento. La principal contribución de este enfoque es
que proporciona una interpretación subjetiva rigurosa de la probabilidad que puede aplicarse a
hechos particulares y que puede situarse en el marco más amplio de una teoría general de la
decisión racional.
106
Es totalmente posible argumentar de forma válida a partir de premisas falsas y hacer deducciones
válidas que procedan de puntos de vista alternativos y quizá incompatibles. La lógica únicamente
suministra un conjunto de procedimientos para comprobar si una conclusión dada sigue de forma
válida a partir de un conjunto de premisas; no te dice qué conclusión en concreto es la que hay
que sacar.
Existe una controversia acerca del razonamiento humano. Algunos teóricos, principalmente
filósofos, defienden que siempre somos racionales; otros teóricos, principalmente psicólogos,
defienden que siempre somos irracionales. Pero estos puntos de vista enfrentados no son
exhaustivos. Queda una tercera posibilidad que está implícita en los escritos de Bartlett: los seres
humanos pueden perfectamente ser racionales en algunas circunstancias y no serlo en otras. Estas
tres alternativas: racionalidad invariable, irracionalidad invariable, y racionalidad variable, cubren
exhaustivamente el universo de posibilidades.
En el experimento de Peter Wason pudo demostrarse que hay una serie de factores que parecen
actuar, que incluirían la duda acerca de si la frase (enunciado) implica su conversa, una tendencia a
considerar de forma adecuada que solo las tarjetas se refieren a los valores explícitamente citados
en la frase, y una propensión a buscar confirmación más que refutación.
Otra fuente de duda acerca de la lógica mental es el problema de su adquisición. Parecería que
para aprender una lógica uno debería ser capaz de razonar de forma válida, pero si se puede
razonar de forma válida no se necesita una lógica, y desde luego lo que exigiría una explicación es
el origen de la capacidad lógica.
Un grave problema de la lógica mental es el hecho de que la gente comete errores. Hacen
inferencias no válidas que no deberían producirse si la deducción estuviera guiada por las reglas
de inferencia.
La opinión de Johnson-Laird es por consiguiente que la noción de que nunca se producen errores
lógicos es falsa o carece de contenido empírico al menos. Para demostrar la existencia de errores
en el razonamiento en condiciones claras, se puede considerar el proceso de inferencia silogística.
El autor propone un razonamiento mediante MODELOS MENTALES:
El principio fundamental de esta teoría es que el razonamiento consiste en la construcción de
modelos mentales basados en las premisas, y la búsqueda de modelos alternativos que pudieran
convertir en falsas las supuestas conclusiones. La teoría se basa en seis supuestos fundamentales:
1. Los sujetos, al razonar, interpretan construyendo un modelo mental integrado. Este
proceso, por supuesto, no es exclusivo del razonamiento sino que puede producirse siempre que
los sujetos interpretan un discurso coherente.
2. La conclusión que se extrae de un modelo mental está basada en la novedad y parsimonia:
relaciona entre sí aquellos ítems que no han sido explícitamente relacionados en las premisas, es
decir que no se han utilizado directamente para establecer el modelo. Una deducción válida no
añade nada al contenido semántico de las premisas, pero los sujetos no son conscientes
inmediatamente de las consecuencias de ese contenido. Por eso sacan conclusiones que subrayan
estas nuevas relaciones pero que se abstienen de repetir las premisas, las cuales pueden darse por
supuestas.
3. El orden en que se expresa la información en una conclusión sigue el principio de que la
memoria en funcionamiento opera sobre la base de <<first-in first-out>> (es decir, “lo primero que
entra, es lo primero que sale”). Resulta más sencillo recordar las premisas en el orden en el que se
han presentado que en el opuesto.
4. Si las premisas están en una figura que no permite integración inmediata, hay que realizar
operaciones suplementarias para hacer posible la integración.
107
Los sujetos pueden construir un modelo de la primera premisa y después dar la vuelta a su
interpretación de la segunda premisa de manera que las dos apariciones del término medio sean
temporalmente contiguas. Pueden, como otra alternativa, construir un modelo de la segunda
premisa, rehacer su interpretación de la primera premisa, y luego darle la vuelta para posibilitar la
integración. O bien, después de haber interpretado inicialmente las dos premisas, pueden rehacer
su interpretación de la primera premisa, dar la vuelta al modelo de ésta, rehacer su interpretación
de la segunda premisa, y añadir su información al modelo.
5. Cuanto mayor es la carga de memoria en funcionamiento, más difícil resulta hacer una
inferencia. Un factor que debería aumentar evidentemente la carga de memoria en
funcionamiento es la necesidad de realizar operaciones adicionales para formar un modelo
integrado en algunas figuras.
6. Los sujetos normales a los que no se les ha enseñado lógica no utilizan las reglas de
inferencia para hacer deducciones válidas. Tienen en cambio un elemento de información
semántica. Saben que una inferencia es válida si la conclusión es verdad en cualquier situación del
problema en el que las premisas sean verdad. Es decir, una conclusión supuesta se sigue de forma
válida de un conjunto de premisas, si es verdadera cuando las premisas son verdaderas y no hay
manera de interpretar las premisas de forma que la conclusión llegue a ser falsa (Esto se debe a
que no existe esta manera de reinterpretar las premisas en el silogismo sencillo por lo que es
válida la conclusión que se extrajo anteriormente).
Las premisas de algunos silogismos dan lugar a un único modelo mental, otras dan lugar a dos
modelos alternativos, y otras incluso a tres modelos. En el supuesto de que un mayor número de
modelos suponga una carga mayor para la memoria en funcionamiento, se podría predecir
claramente una tendencia en la dificultad.
- Razonamiento sin lógica:
La manipulación de los modelos mentales permite realizar inferencias válidas sin recurrir a las
reglas de la lógica. Un sistema de inferencias puede actuar de una forma totalmente lógica incluso
si no emplea reglas de inferencia, esquemas inferenciales, postulados significativos, o ningún otro
tipo de maquinaria de la que normalmente se emplea en un cálculo lógico. Esta teoría es aplicable
a cualquier tipo de inferencia deductiva.
La teoría de los modelos mentales supone que los humanos, al razonar, construyen modelos
mentales y buscan alternativas, no necesariamente de una forma aleatoria, pero tampoco de una
manera totalmente sistemática. Además, dado que incluso los sujetos más inteligentes tienen
dificultad con algunos silogismos, y son conscientes de ello, tienen una motivación clara para
intentar exteriorizar y sistematizar la búsqueda de modelos alternativos para las premisas. La
teoría sugiere una razón evidente para el desarrollo de la lógica como disciplina intelectual.
- Diferencias individuales:
El objetivo que se plantea Johnson-Laird es decidir entre tres hipótesis mutuamente excluyentes
sobre el razonamiento: que es siempre lógico, que es siempre ilógico, y que algunas veces es
lógico y otras veces ilógico.
Para el autor, solo esta última (que algunas veces es ilógico, y otras lógico) parece estar de
acuerdo con los datos; es la única que trata realmente el pensamiento como una habilidad, las
habilidades, por supuesto, tienen que adquirirse, y los sujetos difieren en el dominio que tienen de
ellas.
La teoría de modelos mentales ofrece un marco explicativo que ayuda a dar sentido a las
diferencias en la capacidad de razonamiento. Especifica los componentes independientes que
subyacen a las inferencias y plantea algunas limitaciones a las posibles diferencias entre sujetos. La
108
teoría establece que la inferencia silogística, por ejemplo, depende de tres componentes de
habilidades:
1) Una capacidad de formar un modelo integrado de premisas.
2) Una apreciación de que una inferencia es válida solo si no existen contraejemplos, junto
con una capacidad de poner en práctica este principio.
3) Una capacidad de traducir en palabras las características comunes a un conjunto de
modelos mentales.
- Conclusiones:
Para el autor, el razonamiento consiste en tres habilidades especiales:
a. La capacidad de construir modelos mentales de las situaciones descritas en las frases. Esto
forma parte del proceso de comprensión verbal, y las inferencias implícitas son simplemente el
uso de aspectos del conocimiento general para ayudar en este proceso de construcción de un
modelo mental único.
b. La capacidad de buscar diferentes modelos de las mismas premisas para revisar si una
inferencia es válida. La secuencia y ordenación temporal de las operaciones de integración de las
premisas resultan fundamentales: se manifiestan en los efectos de figura en la forma de las
conclusiones, en el tiempo que lleva hacer una inferencia, y en las oportunidades de llegar a la
conclusión correcta.
c. La capacidad de traducir en palabras la característica común de un conjunto de modelos
mentales. Es realmente raro que el sujeto que puede enfrentarse con la valoración de un conjunto
de modelos que tienen que ser evaluados violando el principio del first-in first-out de la memoria
en funcionamiento.
UNIDAD 6 (EMOCIÓN)
EL CEREBRO EMOCIONAL (LE DOUX)
La evolución trabaja con lo que ya tiene, más que empezar de cero, y según Dawkins, es ineficaz a
escalas cortas de tiempo, sino a través de periodos enormes de tiempo en los que se desarrolla.
El cerebro no tiene una función, es un conjunto de mecanismos, llamado módulos, que tienen
funciones diferentes. La evolución actúa en los módulos individuales, más que en conjunto. Las
adaptaciones cerebrales específicas tienen capacidades determinadas, el aprendizaje del canto de
las aves, memoria de localización del alimento, o la habilidad lingüística del hombre. Aunque
algunas veces la evolución actúe globalmente, pero son menos los ejemplos (aumento del tamaño
del cerebro). En general actúa de forma individual en cada módulo, como la actividad compleja del
pensamiento como la producción de creencias, o más comunes como el respirar. La respiración se
controla por el bulbo raquídeo, parte inferior del cerebro; mientras las creencias, como toda
función cognitiva, ubicada en la zona superior (ático neo-cortical). La forma de comprender cómo
surgen las emociones en el cerebro es estudiándolo parte por parte. Le Doux le interesa la
emoción del miedo y sus diferentes modalidades.
109
Las emociones no son rasgos exclusivamente humanos. Algunos sistemas emocionales del cerebro
son básicamente iguales en muchas especies vertebradas, como mamíferos, reptiles, aves, etc. La
evolución se aferra a conservar las funciones emocionales a través de las especies. Escapar del
peligro es algo común en todos los animales para su supervivencia. El cerebro tiene un mecanismo
para detectar el peligro y reaccionar rápidamente. La conducta particular que se genera depende
de cada especie (correr, volar, nadar).
Darwin observó que los niños se parecen a sus padres, pero también se manifiestan diferencias; y
estaba fascinado con la capacidad que tenían los criadores de a animales domésticos para
conseguir determinados rasgos en las crías, mezclando y seleccionando los padres (vacas que
producen más leche, caballos que corren más rápido seleccionando de antemano a los padres). Y
razonó que podría ocurrir algo parecido en la forma natural.
Resumiendo la teoría de la selección natural, los rasgos que eran útiles para la supervivencia de
una especie en un medio determinado se convirtieron a la larga en rasgos propios de la especie,
pues la selección natural favorece a quienes dejan más crías. Los rasgos propios de las especies
actuales existen porque contribuyeron a la supervivencia de sus antepasados lejanos. Es decir que,
los principales actos de expresión que manifiestan los hombres y otros animales ahora son innatos
o heredados, es decir, el individuo no los ha adquirido. Darwin sostiene que la mente y la conducta
también vienen determinadas por la selección natural. Hay similitud de expresiones en la misma
especie y entre diferentes especies). Expresiones corporales del hombre que tienen cuando se
producen emociones, sobre todo las faciales, son las mismas en todo el mundo (independiente de
diferencias étnicas y culturales). También se encuentran en personas nacidas ciegas (no pudieron
ver y copiar las expresiones), y los niños (no tuvieron mucho tiempo de para aprender a imitarlas).
Darwin enumeró varias expresiones corporales comunes en diferentes especies. Indicó que los
animales de diferentes clases, incluido el hombre, eliminan orina o excremento en situaciones de
peligro extremo, también pelo o vello en estas situaciones amenazantes (dar apariencia feroz).
La expresión del rostro y cuerpo son el primer medio de comunicación entre la madre y el bebé;
ella sonríe en señal de aprobación y el niño es animado a seguir por ese camino, o se muestra
enojada y es señal de desaprobación. También los movimientos de expresiones corporales revelan
pensamientos e intenciones a los demás con más precisión que las palabras (estas se pueden
falsear). Darwin remarca que, las expresiones emocionales a veces pueden disfrazarse con la
fuerza de voluntad, normalmente son actos involuntarios (hay una diferencia entre una sonrisa
auténtica y una fingida).
Dentro de la categoría general de las emociones innatas, Darwin señala que algunas tienen más
antigüedad evolutiva que otras. Observó que nuestros antepasados más lejanos expresaban el
miedo y la rabia casi igual que el hombre actual. En cambio el sufrimiento manifestado en la pena
o la ansiedad, más próximos a los orígenes del hombre.
El instinto básico
Algunos autores mantienen la idea darwinista de un conjunto de emociones básicas innatas,
definidas por expresiones faciales universales similares en muchas culturas diferentes. Algunas
expresiones, sobre todo del rostro, tienen modos universales.
- Sylvan Tomkins planteó 8 emociones básicas: sorpresa, interés alegría, ira, miedo,
aversión vergüenza, angustia.
- Paul Ekman, una de 6 emociones con expresiones faciales universales: sorpresa,
felicidad, ira, miedo, aversión y tristeza.
- Plutchik y Frijda, no hablan exclusivamente de las expresiones faciales, sino de
tendencias a la primacía de acciones más globales, donde intervienen muchas partes
110
del cuerpo. A medida que se desciende en la escala evolutiva, hay menos expresiones
faciales, pero aún hay muchas emociones en las que participan otros mecanismos
físicos.
- Johnson Laird y Oatley hicieron una lista de 5 emociones que coinciden con las 6 de
Ekman, menos la sorpresa.
- Panksepp parte de las conductas observadas en las ratas estimuladas con estimulación
eléctrica en zonas cerebrales, y postula 4 modelos básicos e respuesta emocional:
pánico, ira, expectación y temor.
La mayoría de los teóricos plantean que existen emociones secundarias, que son el resultado de
fusiones de las más básicas. Izard describe a la ansiedad como una combinación entre miedo con
dos emociones más como culpa, interés, vergüenza o rabia. Utiliza un círculo de emociones
análogas el círculo cromático. Cada emoción primaria ocupa un lugar en el círculo, la combinación
compuesta por dos emociones básicas se llaman <díadas>. Las compuestas por emociones básicas
adyacentes del círculo se llaman <díadas primarias>; las compuestas por emociones básicas
separadas entre sí por una tercera se llaman, <díadas secundarias>. El amor es una díada primaria
resultante de una mezcla entre emociones adyacentes: alegría y aceptación. La culpa es una díada
secundaria formada por la alegría y el miedo, que están separadas por la aceptación. Cuanta más
distancia hay entre dos emociones básicas menos probable de mezclarse, y si dos emociones
distantes se mezclan, es probable que surja el conflicto. E miedo y la sorpresa son adyacentes y se
combinan en un estado de alarma, pero alegría y miedo son separadas por la aceptación.
Lázarus plantea que el orgullo, la vergüenza y el agradecimiento son emociones exclusivamente
humanas. La teoría cognitiva plantea objeciones, y ellas afirman que las emociones específicas,
incluso las que se describen como básicas, son elaboraciones psicológicas y no biológicas, similares
a los constructivistas sociales, para los cuales las emociones son producto de la sociedad y no de la
biología.
Averill, defensor del constructivismo social, describe un modelo llamado <ser un cerdo social>, en
una tribu horticultora que habita en Nueva Zelanda, los gururumba. Acá no existen los cerdos
salvajes, pero algún cerdo traviesa temporalmente un periodo salvaje, sin embargo el cerdo puede
volver a domesticarse. Del mismo modo, los gururumba pueden reaccionar de esta forma, se
vuelven violentos y agresivos, saquean y salen a robar, y luego vuelven a sus casas y a su vida de
costumbre. Muchas veces después de estar extraviados varios días en el bosque, vuelven al pueblo
sin recordar nada y los habitantes nunca le recuerdan el suceso. A otros los deben atrapar como a
los cerdos salvajes para que regresen a su antiguo yo. Ellos creen que se trata de un alma fallecida
que los muerde. Como consecuencia desaparecen los controles sociales y se liberan los impulsos
primitivos. Para los gururumba es un modo de liberar la tensión y conservar la salud mental del
poblado. Averill usa el concepto de ser un cerdo salvaje para apoyarse en que la mayoría de las
reacciones emocionales corrientes son modelos de respuesta elaboradas socialmente o
institucionalizados, más que sucesos biológicamente determinados. Los constructivistas sociales
replican que un individuo puede expresar una emoción básica, como rabia, de forma diferente en
situaciones distintas, y se manifieste en forma más abierta hacia aquellos situados en posiciones
jerárquicas sociales más inferiores que a los que se hallan por encima.
Ekman propuso la distinción entre las expresiones emocionales universales (sobre todo faciales),
comunes a todas las culturas, y otros movimientos corporales (como los simbólicos y los
ilustradores). Los movimientos simbólicos tienen un significado verbal específico, como mover la
cabeza para asentir o negar, o encogerse de hombros para indicar incertidumbre ante una
pregunta. Son movimientos que podrían expresarse con palabras pero no se expresan
lingüísticamente. Los movimientos ilustradores están relacionados con el contenido y la fluidez del
111
habla. Acompañan a la cadena del habla, ayudan a explicar las palabras que se dicen (algunas
culturas los utilizan más que en otras). Ekman dice que los constructivistas sociales se centran en
las diferentes maneras de expresión por aprendizaje cultural, mientras que los teóricos de las
mociones básicas se centran en las expresiones universales involuntarias, que son los movimientos
musculares faciales cuando se producen emociones básicas innatas en todas las culturas. Ekman
señala que incluso las expresiones emocionales universales se pueden controlar con el aprendizaje
y la cultura (inhibirse, neutralizarse, exagerarse). Para Ekman, el concepto de emociones básicas
explica la similitud de la expresión emocional básica en todos los individuos y culturas, mientras
que las reglas de expresión dan cuenta de muchas diferencias. Ekman realiza un experimento,
compara a un occidental y a un oriental viendo una película, sus expresiones eran similares; en
cambio al estar en presencia de una persona de bata blanca, los orientales eran más reservados y
expresaban más sonrisas cordiales que los occidentales.
Los científicos cognitivistas como Ortony y Turner se plantean si las emociones básicas pueden
definirse con expresiones faciales universales o cualquier otro medio. Se preguntaron por qué, si
las emociones básicas son tan básicas, existe tanta discrepancia sobre su clasificación, y por qué
hay emociones que son básicas para algunos autores, como el interés y el deseo, para otros no son
siquiera emociones para otros teóricos. Ortony y Turner sostienen que la expresión de las
emociones se elabora escogiendo de un repertorio de elementos determinados biológicamente, y
muchas emociones suelen asociarse, aunque no siempre, al mismo grupo limitado de elementos.
Para Ortony y Turner, la emoción conlleva procesos cognitivos superiores o evaluaciones que
organizan las diferentes respuestas según la situación a las que se enfrenta el organismo. Aceptan
que las respuestas están determinadas biológicamente, pero sitúan la emoción en la esfera del
determinismo psicológico más que biológico. Según esta teoría, el miedo no es una estructura
biológica que se despliega ante el peligro. Es un conjunto de respuestas y experiencias elaborado
psicológicamente y adaptado a situación de peligro particular. La cantidad de emociones
diferentes está limitada por la cantidad de emociones diferentes que uno pueda realizar.
Entonces, si no existen expresiones universales, se invalida la prueba de que las llamadas
emociones básicas están determinadas biológicamente. Y si las emociones no están determinadas
biológicamente, lo estarán psicológicamente. Sin embargo Ortony y Turner parten de dos
supuestos inaceptables. Primero, que una evaluación sea mental no significa que no sea biológica.
Segundo, la condición innata de los elementos de respuesta individuales no excluye a posibilidad
de que niveles superiores de expresión también sean innatos.
Para Darwin, ciertas emociones humanas tienen su origen en nuestros antepasados animales. El
hombre huye del peligro con las dos piernas, pero muchos corren en cuatro miembros. Para
Plutchik, aunque un ciervo huya del peligro corriendo, un pájaro salga volando, y un pez escape
nadando, existe una equivalencia funcional entre los diferentes modelos de conducta, que es
apartar al organismo de aquello que amenaza su supervivencia (huir para salvar su vida). La clase
de cuerpo que un animal posea limita la conducta que pueda tener. La evolución crea soluciones
de conducta singular para resolver el problema de la supervivencia en las diferentes especies.
Para Ekman, las emociones se ocupan de <actos fundamentales de la vida>. Johnson Laird y Oatley
concuerdan con la observación, <cada emoción nos lleva repetidamente por una dirección que en
el curso de la evolución ha funcionado mejor que otras soluciones a circunstancias recurrentes> (la
estructura del pasado condiciona la interpretación del presente).
Desde el punto de vista neuronal, cada unidad emocional puede considerarse un conjunto
coherente de datos de entrada, un mecanismo de evaluación y un conjunto de datos de salida.
Un ejemplo de <estímulos naturales> es el del depredador. Las especies de presa reconocen a los
depredadores la primera vez que los ven. La evolución ha programado el cerebro de la presa para
112
que rasgos del depredador, como el olor, el sonido, la apariencia, sean reconocidos
automáticamente como peligro. Por otro lado, el mecanismo de evaluación tiene la capacidad de
aprender de los estímulos que tienden a asociarse con los estímulos naturales y que predican su
aparición. Estos últimos son < estímulos desencadenantes adquiridos>, por ejemplo el lugar en
que fue visto por primera vez un depredador o el sonido que emitió cuando iba a atacar. Cuando
el mecanismo de evaluación recibe datos de cualquiera de los dos tipos de estímulo,
desencadenan modelos de respuesta que servían a sus antepasados para afrontar situaciones que
solían activar en ellos el mecanismo de evaluación. Diferentes tipos de problemas de
supervivencia tienen diferentes estímulos desencadenantes y precisan diferentes tipos de
respuesta para afrontarlos.
113
mucho más respecto al miedo que los mellizos que han vivido bajo el mismo techo (esta
conclusión se aplica a otros aspectos como la timidez, introversión/extroversión).
El proceso de la emoción:
Habitualmente tienen una causa, siguen un proceso, y tienen consecuencias. Una propuesta
ampliamente aceptada es la de Frijda, quien considera a la emoción como un conjunto de etapas:
Stein, Trabasso y Liwag propusieron un modelo diferente, enfatizando las creencias, inferencias y
planes:
114
1. Se percibe un suceso, casi siempre inesperado, que cambia el estado de una meta.
2. Con frecuencia las creencias resultan desafiadas; esto pude causar cambios fisiológicos y
expresiones.
3. Se formulan planes acerca de qué hacer con respecto al suceso para reinstalar o modificar la
meta, y se consideran los resultados probables de los planes.
Estos autores proponen que la manera en que una persona ve un suceso (el marco que usa, que
depende de las metas y valores de la persona) determina como el suceso será percibido y
recordado. También hallaron que esas mistas características se dan habitualmente en los procesos
emocionales de niños y adultos.
Las etapas propuestas por Frijda y por Stein, Trabasso y Liwag se asemejan. Estas propuestas
constituyen una convergencia de diversos investigadores acerca de etapas de las emociones. Los
títulos de las secciones siguientes siguen el esquema de Frijda.
1. Evaluación [Appraisal]:
La investigación moderna sobre la evaluación puede dividirse en dos enfoques: el enfoque
componencial postula componentes de las emociones, los investigadores suelen solicitar a la
gente que recuerde un episodio de emoción o considere una historia o historieta, y luego le asigne
puntajes en relación con varios rasgos. Ellsworth y Smith propusieron los siguientes rasgos o
componentes de evaluación.
- Agrado
- Esfuerzo anticipado
- Actividad atencional
- Certeza
- Acción humana
- Control de la situación
- Obstáculo percibido
- Importancia
- Predictibilidad
Según el esquema de los autores, la felicidad es una emoción agradable, asociada con un bajo
esfuerzo, alta atención y alta certeza. Estos rasgos constituyen lo central del significado de un
prototipo de felicidad.
El otro enfoque es el de las teorías de la relevancia para metas, que se ha concentrado solo en
causas en relación con metas o preocupaciones. La teoría de Stein, Trabasso y Liwag está dentro
de este grupo, al igual que la de Oatley y la de Johnson Laird.
La investigación sobre la evaluación supone que las emociones son típicamente causadas por
sucesos y son (en un sentido filosófico) intencionales, es decir, tienen un objeto de alguna clase.
Hay algunas dificultades con relación a la idea de evaluación. Una dificultad es que la evidencia
proviene de informes de las personas sobre sí mismas, con frecuencia acerca de episodios del
pasado o historias prototípicas.
Otro problema que algunos investigadores han identificado es que las evaluaciones pueden
parecer “frías”, como una especie de lista de control, mientras que las emociones son “calientes”.
115
Otros autores, siguiendo a Descartes han pensado que hay un pequeño número de emociones
específicas básicas y por ende no reductibles. Los que siguen esta línea de pensamiento
generalmente incluyen al menos la felicidad, la tristeza, el enojo y el miedo como emociones
básicas e irreductibles.
La causación de emociones no necesariamente consciente y las evaluaciones no son tampoco
necesariamente conscientes, ni frías.
Expresión:
116
Desde los tiempos de Darwin, y especialmente a partir del trabajo de Tomkins y sus continuadores
Ekman e Izard, la investigación se ha centrado en el rostro como lugar principal de expresión, que
brinda además la posibilidad de mediciones objetivas. Birdwhistell argumento: “Probablemente no
haya símbolos universales de estados emocionales. Podemos suponer que las expresiones
emocionales son aprendidas y organizadas de acuerdo con la estructura particular de cada
sociedad”. Para establecer la propuesta alternativa de que existen expresiones emocionales que
podrían clasificarse en una taxonomía universal, fueron necesarios varios pasos. El primero fue
determinar que entre todas las expresiones solo algunas expresan emociones. Ekman y Friesen
describieron cinco categorías de expresión no verbal:
(a) “emblemas, generalmente conocidos como gestos, tales como los vulgarmente insultantes,
(b) “ilustradores” que acompañan el habla y que varían según el grado de excitación, tales como
agitar los brazos o apretar los puños;
(c) “reguladores” tales como asentir con la cabeza siguiendo el flujo de la conversación;
(d) “indicadores de afectos”, expresiones como sonreír o fruncir el ceño;
(e) “adaptadores” o manipulaciones corporales de cepillarse, tocarse, etc., que se dan con
frecuencia como lo que los etólogos llaman actividades de desplazamiento, signos de ansiedad y
conflicto interior.
El segundo paso fue hallar si alguna de estas eran típicas de la especie, como reflejos, indicando
emociones: solo los de la categoría (d) (indicadores de afectos) eran potencialmente de esta clase.
El tercer paso que realizaron tanto Izard y sus colegas como Ekman y sus colegas fue producir
sistemas de codificación para clasificar las expresiones faciales de emoción.
Ekman y sus colegas han señalado que la gente que miente puede tratar de enmascarar
sentimientos negativos ejecutando la parte voluntaria de la sonrisa, pero pueden filtrarse huellas
de ansiedad, cabe aclarar que casi nadie puede detectar la mentira solo por el rostro, se requiere
de gran entrenamiento.
Cambio fisiológico:
James respondió a la pregunta “¿Qué es una emoción?” de la siguiente manera: así como tenemos
sistemas de visión, audición, tacto, y demás, que detectan sucesos del mundo externo, hay
también un sistema encargado de los sucesos del interior del cuerpo. Para este autor, sentir no es
una metáfora, una emoción es sentir lo que ocurre dentro de nuestro cuerpo.
La idea de James tenía un atractivo intuitivo y prometía fundamentar las emociones en la
fisiología. Permitió formular predicciones que pudieron ser puestas a prueba: por ejemplo la
predicción de que una disminución de la sensación desde el interior del cuerpo debería disminuir
la intensidad de las emociones. Hohmann entrevisto a 25 hombres adultos para poner a prueba la
primera predicción, los resultados que obtuvo demostraron que junto a disminuciones en las
sensaciones sexuales, miedo y enojo, la mayor parte de los sujetos informo un incremento de lo
que Hohmann denominó sentimentalismo, llanto y nudo en la garganta en situaciones tales como
despedidas.
Dado que los sujetos de Hohmann hablaban con frecuencia de intensas emociones mentales
mientras decían que es aspecto fisiológico había decrecido. La experiencia de las emociones puede
depender de cómo se las interpreta, por ejemplo, en qué medida se cree que la emoción es
afectada por las sensaciones corporales
Por otra parte Zajonc y colaboradores propusieron que algunas expresiones faciales tienen efectos
emocionales por restricción de la circulación en vasos sanguíneos de la cara. A su vez estas
117
restricciones afectan la circulación en partes del cerebro, lo cual produce cambios de temperatura
que se experimentan como positivos o negativos.
Hay pues evidencia que sugiere que los cambios faciales pueden causar o intensificar emociones,
aunque la intensidad de esas emociones permanece baja.
Acción:
Los planes y acciones están estrechamente asociados con las emociones. Algunas clases de acción
emocional son ampliamente reconocidas. Wallbott y Scherer hallaron acciones específicas
correspondientes a emociones, y las diferencias entre respuestas en función de los diferentes
países de los encuestados fueron pequeñas: “avanzar hacia” estaba asociada con alegría; “avanzar
contra” con enojo, y “alejarse” estaba asociada con todas las emociones negativas.
Podría suponerse que en tiempos del conductismo hubo interés por las acciones en relación con
las emociones, pero, por supuesto, en esos tiempos las emociones estaban excluidas.
Las emociones implicadas en patrones de acción son reconocibles para los demás: Sogon y
Masutani filmaron espectadores de las películas que no podían ver sus caras. Las acciones filmadas
ilustraban un amplio rango de emociones (alegría, sorpresa, miedo, tristeza, enojo, asco,
desprecio) y tres “estructuras afectivo-cognitivas” (afecto, anticipación, aceptación), que los
actores actuaban a partir de guiones que se les había dado.
Además de tales acciones individuales, las sociedades también proveen rituales específicos para la
acción comunal en ocasiones emocionales importantes. Los funerales permiten a las personas
afligidas expresar su pesar, apartarse de las acciones acostumbradas y recibir expresiones de
apoyo y reconocimiento de parientes y amigos. La retórica y la música que acompaña a tales
rituales tienen una cualidad de activación y asisten de las emociones apropiadas en grupos de
personas que actúan concertadamente.
118
En otros estudios se halló que cada expresión adoptada está acompañada por un patrón fisiológico
de cierta especificidad. Una baja frecuencia cardiaca era característica en las poses
correspondientes a felicidad, asco y sorpresa. Una alta frecuencia cardíaca era característica de la
tristeza, el enojo y el miedo. Las expresiones de enojo se caracterizaban también por alta
temperatura de la piel, a diferencia de las de miedo y tristeza.
Tras los experimentos con poses, se solicitó a los sujetos que recordaran y revivieran episodios de
las seis emociones, y que asignaran puntajes de intensidad para cada uno de los episodios.
Con el recuerdo no hubo diferencias entre emociones con respecto a la frecuencia cardiaca y a la
temperatura de los dedos, hallándose solo alguna diferenciación en la respuesta galvánica.
Cacioppo y colaboradores revisaron muchos estudios, propusieron ciertos criterios metodológicos,
y llegaron a la conclusión de que no es clara la correspondencia entre cambios fisiológicos
específicos y la experiencia de emociones específicas.
Para la mayor parte de las medidas de cambios fisiológicos no se ha hallado una correspondencia
uno a uno con emociones específicas: la medida más confiable es la frecuencia cardiaca, pero
tampoco respecto de ella los resultados son claros.
Los autores concluyen que se han postulado al menos tres clases de asociación entre cambio
fisiológico y emoción experimentada. La primera, común a los enfoques de James y Tomkins, es la
correspondencia entre cambios fisiológicos específicos y emociones específicas. La segunda es la
idea de Cannon de que la activación fisiológica no es específica sino general, y se desencadenan
cuando el cuerpo se prepara para una vigorosa actividad. La tercera es que algunos patrones de
cambio fisiológico podrían ser ambiguos.
Cacioppo y colaboradores proponen diferentes clases de relación en diferentes fases de
procesamiento: primero puede haber tal vez una activación generalizada positiva asociada con
acercamiento, o una activación generalizada negativa asociada con evitación, luego, con más
procesamiento cognitivo, pueden ocurrir efectos más específicos, o efectos ambiguos.
119
Cada uno de los tres sistemas posee sus propias funciones. La función del sistema cognitivo-verbal
es que cada emoción, como señala Frijda, es un estado de preparación que da prioridad y
compromete con un conjunto de metas y planes en vez de otro.
En contraste, las expresiones faciales y los cambios fisiológicos duran unos pocos segundos, y en
general no los notamos. Además, en general la gente no es precisa cuando informa sobre sus
cambios fisiológicos. Los sistemas fisiológicos tienen sus propias funciones, que pueden incluir
ajustes complejos entre diversos órganos.
Es posible que este cambio sea en parte genético y en parte aprendido. La función de este sistema
es preparar, y regular, los recursos corporales para diferentes clases de acción.
Un enfoque de tres sistemas como el que sugiere Lang ayuda a explicar por qué las emociones
imaginadas o recordadas producen menores y menos diferenciadas respuestas fisiológicas que los
sucesos de la vida real.
El sistema de expresión facial también tiene sus propias funciones: es mayormente social. Si las
funciones de las expresiones son de comunicación de intenciones en la actividad conjunta,
entonces habrá a veces coherencia con las emociones experimentadas, y a veces no.
Para Damasio el sistema de guía es el cuerpo mismo: experimentamos los sucesos emocionales
como reacciones corporales – “marcadores somáticos” como el los llama. Estos marcadores
pueden aprenderse, de modo que al pensar las decisiones posibles, cualquier resultado de una
clase que ha sido mala anteriormente la experimentamos “como una desagradable sensación en el
estómago”. Sobre las bases del condicionamiento aversivo, tendemos a no tomar decisiones que
conduzcan a esta clase de castigo. De manera similar, nos sentimos atraídos hacia eventos que han
sido asociados con recompensa.
Damasio sostiene que si bien el origen de las emociones es corporal, a medida que se van
aprendiendo y estableciendo ocurren completamente en el cerebro, sin necesidad de feedback
corporal. Este aspecto de la hipótesis de Damasio se presta a la controversia, el autor discute más
bien la relación de las emociones con la planificación de la vida.
Simon sostuvo que los humanos estamos limitados por nuestra corporeidad: solo podemos estar
en un lugar en un momento dado. Estamos limitados también porque no somos capaces de
conocer más que un poco acerca del mundo.
Oatley extendió el postulado de Simon, señalando que la racionalidad en la vida humana está
limitada no solo por nuestro conocimiento parcial y recursos limitados, sino también porque
frecuentemente tenemos metas que no pueden conciliarse completamente entre sí: para algunas
personas, por ejemplo, puede plantearse un conflicto entre su progreso laboral y una relación
120
satisfactoria. Aunque los humanos somos buenos para la cooperación con otros, esos otros tienen
con frecuencia metas que no compartimos.
La emoción no se opone entonces a la razón. Las emociones y su potencialidad para guiar y
administrar el pensamiento son más básicas. Complementan las deficiencias del pensamiento. Y,
tal vez lo más importante, las emociones proveen la infraestructura para la vida social: los planes
que sugieren son en gran medida planes que involucran a otros.
Las emociones, por lo tanto, son las estructuras que guían nuestras vidas, especialmente en
cuanto a nuestra relación con los demás.
-Episodios emocionales:
El término “emoción” o “episodio emocional” se utiliza generalmente para estados que duran un
tiempo limitado. Los estados de los que la gente es consciente y puede informar pueden ser
adecuadamente medidos solicitando llevar diarios estructurados de esos episodios, en los que se
registren su duración, intensidad, circunstancias desencadenantes, y demás, o solicitando a la
gente que recuerde episodios y luego haga evaluaciones de rasgos de los mismos. La duración de
las emociones así registradas se suele describir entre algunos minutos y algunas horas.
-Estados de ánimo:
El término “estado de ánimo” [mood] se refiere a un estado emocional que dura habitualmente
horas, días o semanas, a veces como un trasfondo de baja intensidad. Puede ser incierto cuando
comienza o se detiene. Mientras los episodios emocionales tienen típicamente un objeto (son
intencionales en un sentido filosófico), los estados de ánimo son con frecuencia flotantes y
carentes de objeto.
Las emociones implican una excitación fisiológica. Algunas respuestas fisiológicas son obvias (oír el
ruido de una moto y el cuerpo se tensa), pero también el cuerpo se moviliza para entrar en acción
de modos menos aparentes (el hígado segrega más azúcar al torrente sanguíneo para
proporcionar más energía. La respiración se acelera, que suministra más oxígeno para salir
corriendo). El cuerpo está coordinado ante el peligro, para luchar o escapar.
El sistema simpático activa la excitación, haciendo que las glándulas suprarrenales liberen las
hormonas del estrés epinefrina (adrenalina) y norepidefrina (noradrenalina). El incremento de
estos aumenta el ritmo cardíaco la presión sanguínea y los niveles de azúcar en la sangre. Una vez
superada la crisis, los centros neuronales parasimpáticos se activan y se calma el cuerpo.
Aunque suele actuarse mejor con una pequeña excitación, el nivel de excitación para una
actuación óptima varía según la tarea. En las tareas fáciles, la mejor actuación se produce con una
excitación relativamente alta. En las tareas difíciles o improvisadas, la excitación óptima es es
menor. Los estudiantes que sienten ansiedad durante un examen, lo hacen peor que otros más
confiados e igualmente capaces. Enseñar a los alumnos a relajarse antes de un examen ayuda a
mejorar resultados.
Es difícil distinguir las diferencias entre excitación sexual, enfado y temor; pues estas se sienten del
mismo modo (aunque son distintas desde lo cognitivo). Una persona horrorizada puede sentir
presión en el pecho y un nudo en el estómago.
121
Ejemplo: El detector de mentiras o polígrafo no detecta las mentiras, sino que mide las respuestas
de excitación que acompañan a la emoción, como cambios de respiración, pulso, presión
sanguínea, etc. Mientras te relajas, el experimentador mide tus respuestas fisiológicas a medida
que respondes las preguntas. Algunas de ellas, preguntas control, está diseñadas para ponerte
algo nervioso. Si se pregunta, “en los últimos 20 años, ¿tomaste algo ajeno? Mucha gente
responde que no, provocando una excitación que detectará el polígrafo. Si tus reacciones
fisiológicas a las preguntas críticas, ¿robó algo de su jefe? Son más débiles que las de las preguntas
de control, el examinador deduce que dice la verdad. Se supone que un ladrón se pone nervioso
cuando niega un robo. Pero hay un problema, es posible que una persona inocente responda con
mayor tensión a las acusaciones implícitas en las preguntas importantes. Muchas víctimas de
violación “fallan” a los test del detector de mentiras cuando reaccionan emocionalmente al decir
la verdad sobre su agresor. El polígrafo no distingue entre la ansiedad, la irritación y la culpa, pues
todas aparecen como excitación. Por eso un tercio de estos test son erróneos. Con frecuencia
culpan al inocente, cuando la pregunta molesta al sujeto honesto.
Cuando las personas experimentan emociones negativas como asco, el hemisferio derecho
presenta una mayor actividad eléctrica. El hemisferio izquierdo se activa cuando se procesan las
emociones positivas. Las personas con mayor actividad en el derecho suelen ser más alegres y se
sienten deprimidos con menor facilidad.
La comunicación no verbal: la mayor parte de nuestra comunicación se realiza a través del
lenguaje corporal mudo. Por ejemplo, interpretamos el temor y el enfado a partir de los ojos, y la
felicidad a partir de la boca. Algunas personas detectan mejor las emociones que otras. Los
introvertidos interpretan mejor las emociones de los demás. Mientras que los extrovertidos son
más fáciles de interpretar.
Aunque algunos gestos están determinados culturalmente, las expresiones faciales son comunes
en todo el mundo; pueden realizarla supervivencia de otros modos. Si bien las culturas comparten
el lenguaje facial universal para las emociones básicas, se diferencian en el modo y la intensidad
en que se expresan las emociones. En las culturas comunitarias que valoran la interdependencia,
no son frecuentes las muestras intensas de emociones perturbadoras.
Las expresiones no comunican únicamente la emoción sino que además exageran la emoción
sentida y mandan señales al cuerpo para que responda consecuentemente.
122
● TEORÍA DE JAMES - LANGE: sentimos nuestra emoción después de darnos cuenta de
nuestra respuesta fisiológica.
● TEORÍA DE CANNON - BARD: considera poco convincente la teoría de James - Lange. Dice
que sentimos la emoción al mismo tiempo que responden nuestros cuerpos.
● TEORÍA DE SCHACHTER: dice que las emociones están formadas por dos elementos:
excitación física e identificación cognitiva, la excitación elimina la emoción y la cognición la
canaliza
Zajonc coincide en que la cognición es esencial, pero Lazarus no está de acuerdo porque reconoce
que el cerebro procesa grandes cantidades de información y reacciona sin que nos demos cuenta,
y admite que algunas respuestas emocionales no requieren un pensamiento consciente.
CAPÍTULO 2
VOLUNTAD: LA PRIMERA GRAN TEORÍA
Para Descartes, la voluntad iniciaba y dirigía la acción; elegía si actuaba y qué hacer cuando
actuaba. La voluntad resultó ser una facultad de la mente mal comprendida que surgió de un
conglomerado de capacidades innatas, sensaciones ambientales, experiencias de vida y
reflexiones sobre sí misma y sus ideas. Los filósofos descubrieron que la voluntad era tan
misteriosa y difícil de explicar como la motivación que al parecer generaba. Al utilizar la voluntad,
los filósofos debían explicar no sólo la motivación sino también al motivador: la voluntad.
Los psicólogos contemporáneos reconocen que la mente (la voluntad) piensa, planea y forma
intenciones que preceden a la acción. Analizan los procesos mentales como planes, metas y
estrategias, en lugar de la autonegación y la determinación pura de la misteriosa voluntad.
123
heredan una naturaleza dotada con impulsos para actuar , y los reflejos necesarios para producir
dicha acción intencional.
William McDougall, pensaba que los instintos eran fuerzas motivacionales irracionales e impulsivas
que orientaban a una persona hacia una meta particular. La mayor diferencia entre los dos fue la
afirmación de McDougall de que sin instintos los humanos no iniciarían acción alguna.
La lógica subyacente en la teoría del instinto es CIRCULAR. La causa explica el comportamiento,
pero el comportamiento resulta una evidencia para su causa.
No se hacían experimentos empíricos sin que nombraban tipos de conductas.
124
Incentivo: Suceso externo (Estímulo) que energiza y dirige la conducta de acercamiento y
evitación. Nuevas características: Nuevos conceptos motivacionales, idea de que los estados
motivacionales se adquirían por la experiencia, visión de la motivación que resalta el momento de
los cambios.
Excitación: Sinónimo con un estado de pulsión general. Ideas centrales: aspectos del ambiente
afectaban la forma en que se excita el cerebro. Las variaciones en el nivel de excitación tenían una
relación curvilínea con el comportamiento.
Discrepancia (o equilibrio): Existencia de un nivel óptimo de cada estado motivacional. Que los
organismos están motivados para mantener dicho equilibrio.
Tres enfoques históricos que explican el surgimiento de las miniteorías: Los investigadores de la
motivación revaluaron lo juicioso de la idea de que los seres humanos eran inherentemente
receptivos. La motivación al igual que toda la psicología se volvió demasiado cognitiva en su
énfasis. Los investigadores de la motivación se interesaron por problemas socialmente relevantes.
Naturaleza activa: Los psicólogos de la segunda mitad del siglo pasado concebían que el organismo
humano es inherentemente activo y está siempre motivado. En los 70 se adoptó más la noción de
organismo activo. Las ideas actuales tienen menos que ver con motivaciones deficitarias y más con
motivaciones de crecimiento (creatividad, competencia, posibles yo, autorrealización)
Revolución cognitiva: Los debates hicieron hincapié en los constructos cognitivos (expectativas,
metas) y devaluaron los constructos estructurales (incentivos, recompensas)
Investigación aplicada socialmente: Resolver problemas motivaciones en la escuela, el estrés,
revertir depresión, etc.
CAPÍTULO 5
_Motivación intrínseca: Inclinación innata de comprometer los intereses propios y ejercitar las
capacidades personales para buscar y dominar los desafíos máximos. Emerge de manera
espontánea de las necesidades psicológicas orgánicas, la curiosidad personal y los empeños
innatos por crecer. Algo que uno hace por placer, desafío, etc.
125
_Motivación extrínseca: Surge a partir de incentivos y consecuencias ambientales. Significa un
medio para un fin: el medio es la conducta y el fin es alguna consecuencia. Algo que uno hace para
aprobar, ser aplaudido, ganar plata, etc.
La diferencia esencial entre los dos tipos reside en la fuente q energiza y dirige la conducta. En la
intrínseca la motivación emana de necesidades internas y la satisfacción espontánea que la
actividad proporciona. En la extrínseca la motivación surge de incentivos y consecuencias que se
hacen contingentes en el comportamiento observado.
Condicionamiento operante: Proceso mediante el cual una persona aprende la forma de operar de
manera significativa dentro del ambiente. Aprender y comprometerse con aquellas conductas que
producen consecuencias reforzantes y evitar consecuencias desagradables o punitivas.
Incentivos: Es un suceso ambiental que atrae o aleja a una persona respecto de una acción
particular. Siempre preceden a la conducta, crean una expectativa. No causan conducta sino que
afectan la posibilidad de que se fortalezca o debilite una respuesta. Los positivos causan conducta
de aproximación y los negativos de evitación.
Difieren de las consecuencias en cuándo ocurren y cómo motivan el comportamiento. Los
incentivos preceden al comportamiento y refuerzan o debilitan el inicio de la conducta. Las
consecuencias van siempre después del comportamiento y aumentan o disminuyen su
persistencia.
Reforzador: Suceso extrínseco que aumenta la emisión de una conducta (la definición se vuelve
circular).
Definiciones no circulares:
Reforzador positivo: Estímulo que disminuye la pulsión, disminuye la excitación, aumenta la
excitación, objeto ambiental atractivo, estimulación cerebral placentera, oportunidad de realizar
una conducta de alta frecuencia, oportunidad de realizar una conducta prohibida.
Características que determinan qué es o no un reforzador. Un reforzador es efectivo para algunas
personas y no otras. Es efectivo para una persona en un momento y en otro no. Varían en su
intensidad. Las recompensas que los administradores esperan que aumente la conducta con
frecuencia no corresponden a lo que los receptores consideran como reforzador.
Consideraciones que determinan efectividad de reforzador positivo: 1) Su calidad 2)Ssu inmediatez
3) El ajuste persona/reforzador 4) La necesidad del receptor por dicha recompensa en particular.
5) Su intensidad 6) El valor del reforzador percibido por el receptor.
126
Castigo: Cualquier estímulo ambiental que cuando se presenta, disminuye la probabilidad de que
la conducta que produjo tal estímulo ocurra en el futuro.
Confusión con reforzadores negativos: Cuando los padres reprenden a un niño por no limpiar su
cuarto. La reprimenda es un castigo si su intento consiste en suprimir conductas (eliminar el
desorden del cuarto), pero es un reforzador negativo si el niño limpia su cuarto para evitar el
regaño antes que ocurra. Los castigos disminuyen la conducta (indeseable), los reforzadores
negativos aumentan la conducta (escape y evitación).
Castigo positivo: Involucran eliminación de consecuencias positivas para suprimir la conducta en el
futuro. Suspensión de licencia de conducir por manejar ebrio, quitar un juguete a un niño para
eliminar un berrinche, mandarlo a la cama sin que pueda ver su programa favorito.
CAPÍTULO 8
Motivación Intrínseca y tipos de motivación extrínseca
Motivación intrínseca
En la inclinación innata de comprometer los intereses propios y ejercitar las capacidades para, de
esa forma, buscar y dominar los desafíos máximos. La motivación intrínseca emerge de manera
espontánea de las necesidades psicológicas orgánicas, la curiosidad personal y los empeños por
crecer. Al percibir la experiencia de sentirse competitiva y auto determinada experimenta la
motivación intrínseca como una fuerza motivacional natural que energiza el comportamiento en
ausencia de recompensas y pasiones extrínsecas.
Motivación extrínseca
127
Surge a partir de los incentivos y consecuencias ambientales. Siempre que actuamos para obtener
un logro o recompensa o incentivo nuestra conducta es extrínsecamente motivada.
La motivación extrínseca significa un medio para un fin: el medio es la conducta y el fin es
alguna consecuencia.
Con frecuencia, las conductas motivadas en forma intrínseca y extrínseca parecen precisamente
ser iguales. Así como la persona motivada de modo intrínseco también la persona motivada de
manera extrínseca hace lo mismo. Por lo tanto, es difícil con solo observar a alguien, saber si está
motivada de manera intrínseca o extrínseca. La diferencia esencial entre los dos tipos de
motivación reside en la fuente que energiza y dirige la conducta.
Incentivos y consecuencias
El estudio de la motivación extrínseca gira en torno al lenguaje y la perspectiva del
condicionamiento operante. El termino condicionamiento operante se refiere al proceso mediante
el cual una persona aprende la forma de operar de manera efectiva dentro del ambiente. Esto
último, significa aprender y comprometerse con aquellas conductas que producen consecuencias
reforzantes y evitar consecuencias desagradables.
S: R C
Este modelo de tres términos: S, R y C representan señales de situación (incentivos), respuesta
conductual y consecuencia, respectivamente. Los dos puntos entre S y R muestran que la señal
situacional establece la ocasión para la respuesta de la conducta. La flecha entre R y C muestra
que la respuesta conductual causa una consecuencia.
Incentivos: proceso ambiental que puede atraer o alejar a la persona que realizara o no una acción
particular; preceden a la conducta crean en la persona una expectativa de que están por llegar
consecuencias; no causan conducta, en cambio afectan la posibilidad de que se fortalezca o
debilite una respuesta; señal situacional que marca la posibilidad de que una conducta produzca
consecuencias de recompensa o castigo, y realiza un reconocimiento del valor del incentivo de un
estímulo, se aprende mediante la experiencia.
¿Qué es un reforzador? Es cualquier suceso extrínseco que aumenta la emisión de una conducta.
Debe definirse en una forma que sea independiente de sus efectos sobre la conducta. El problema
al definir un reforzador solo en términos de sus efectos sobre la conducta, implica que su
definición se vuelve circular, la causa produce el efecto pero el efecto justifica la causa. Si la única
forma de identificar un reforzador es de hecho suministrar el reforzador y esperar a ver si este
aumenta la conducta, entonces los investigadores y empíricos no cuentas con medios para
identificar un reforzador antes de usarlo. El reto es, por lo tanto, saber antes de tiempo que
reforzador funcionara; esto es, cual aumentara la conducta. Y también consiste en explicar porque
funciono. Para salir de este círculo vicioso, el investigaros necesita seleccionar un suceso
extrínseco jamás empleado antes en una persona particular y saber a priori si aumentara la
conducta deseada y buscada.
En la historia de la investigación de la motivación, se han ofrecido cada una de las siguientes
definiciones de lo que constituye un reforzador positivo:
1) Un estímulo que disminuye la pulsión
2) Un estímulo que disminuye la excitación
3) Un estímulo que aumenta la excitación
4) Un objeto ambiental atractivo
5) Estimulación cerebral placentera
6) La oportunidad de realizar una conducta de alta frecuencia
7) La oportunidad de realizar una conducta prohibida
128
6 consideraciones determinan la efectividad de un reforzador positivo:
1) Su calidad
2) Su inmediatez
3) El ajuste persona/reforzador
4) La necesidad del receptor por dicha recompensa en particular
5) Su intensidad
6) El valor del reforzador percibido por el receptor
Consecuencias
Positivo
Reforzadoras punitivas
Positivo negativo
Negativo
Reforzador positivo
Es cualquier estimulo ambiental que, cuando se presenta aumenta la posibilidad de que la
conducta que produjo tal estimulo ocurra en el futuro. Resulta más probable que la persona que
recibe el reforzador positivo repita la conducta, que una persona que no recibe tal consecuencia
reforzante de la misma conducta.
Reforzadores negativo
Es cualquier estimulo ambiental que, cuando se elimina, aumenta la probabilidad de que la
conducta que quito dicho estimulo ocurra en el futuro. También aumentan la probabilidad
conductual, como los reforzadores positivos. A diferencia de ellos, los reforzadores negativos
repelen estímulos desagradables.
Castigo
Estimulo ambiental que cuando se presenta disminuye la probabilidad de que la conducta que
produjo tal estimulo ocurra en el futuro.
Existe una confusión potencial al discernir entre castigos y reforzadores negativos porque ambos
son estímulos desagradables. La reprimenda es un castigo, su intento consiste en suprimir
conductas. Sin embrago, es un reforzador negativo si el niño limpia su cuarto para escapar o evitar
el regaño, antes de que ocurra. Los castigos disminuyen la conducta y los reforzadores negativos
aumentan la conducta.
Cuando la mayoría de la gente piensa en los castigos, lo que le vienen a al mente son castigos
negativos. Todos ellos, involucran la eliminación de consecuencias positivas para suprimir la
conducta en un futuro. El castigo vía la eliminación de consecuencias positivas constituye en
esencia el retiro de reforzadores positiva
129
el costo oculto de la recompensa porque nuestra sociedad por lo general considera a la
recompensa como un contribuyente positivo y universalmente benéfico para la motivación. La
gente emplea recompensas con la esperanza de obtener el beneficio de incrementar la conducta
de otra persona, pero al hacerlo así, incurren en el costo oculto de minar la motivación intrínseca
de la persona respecto a la actividad.
Las recompensas extrínsecas tienen efectos positivos sobre la motivación y la conducta. Ejercer
coerción en los individuos para comprometerlos a una tarea, incluso cuando se emplean tretas tan
maravillosas y atractivas como el dinero, provoca un cambio en su comprensión de porque
eligieron comprometerse en dicha tarea, abandonan la explicación de la autodeterminación por de
una determinación de la recompensa.
Costo oculto de las recompensas esperadas y tangibles
Recompensas esperadas
La gente suele involucrarse en conductas para recibir una recompensa. Y por lo general se
comprometerá con un comportamiento particular cuando sepa que recompensa recibirá. Sin
embargo, si la persona se compromete en la conducta sin poseer tal conocimiento de una
recompensa, pero aun así recibe una recompensa una vez que la tarea se completó, entonces, la
recompensa resulta inesperada.
RECOMPENSA TANGIBLE
Un segundo factor para comprender cuales son las recompensas que disminuyen la motivación
intrínseca y cuáles no, es la distinción entre recompensas tangibles y verbales. Las tangibles
tienden a disminuir la motivación intrínseca, mientras que las verbales, como el elogio y las
promesas, no lo hacen.
Implicaciones del costo oculto de la recompensa
Los factores limitantes descriptos antes, en relación con la expectativa y el carácter tangible
sugieren que la recompensa disminuye la motivación intrínseca solo cuando se espera o es
tangible, la buena noticia es que la recompensa extrínseca se usa en una forma que no pone en
riesgo la motivación intrínseca, la mala es que nuestra sociedad con mucha frecuencia confía en la
recompensa esperada y tangible para motivar a otros.
Las recompensas esperadas y tangibles también ponen en riesgo algo más que la motivación
intrínseca. Los reforzadores extrínsecos no solo disminuyen la motivación intrínseca, también
infieren con el proceso y la calidad de aprendizaje.
La motivación, según la academia española, es un ensayo mental preparatorio de una acción para
animarse a ejecutarla con interés y diligencia.
Al hablar de motivación es referirnos a aquel proceso que explica el porqué de la acción humana,
es una idea inadecuada. Las razones que determinan una acción no solo son motivacionales, hay
otras causas: lo que sabemos hacer, lo que nos dejan hacer, lo que nos obligan a hacer son
también causas y orígenes de nuestro comportamiento. Hay razones personales que pueden
justificar ciertas actividades, razones que están en la situación concreta en donde se realiza la
acción: en las condiciones físicas y sociales del entorno concreto. También hay otros
determinantes personales como las creencias, los conocimientos y valores que resultan de la
elaboración cognitiva de nuestra experiencia y que sesgan el tipo de acción de cada uno. Para
finalizar el porqué de la acción se destaca un último punto: no basta con conocer, creer, hay que
130
saber usar esos saberes, Nuestras destrezas, nuestras habilidades, lo que sabemos hacer, explican,
obviamente, lo que al final hacemos.
Elementos y fases del proceso motivacional. La motivación humana debe entenderse como un
proceso de activación y orientación de la acción. Como tal proceso, debe contener una serie de
estados o fases que intervienen en su actuación
131
octanaje a esa energía. Cualquier acción voluntaria tendrá un determinado octanaje; cuanto
mayor sea, más moverá al individuo, más satisfecho estará.
La causalidad personal es el énfasis que marca en la importancia de la experiencia personal real de
sentirse uno mismo agente de la acción, según él, es algo más que simplemente creer que se tiene
control sobre esa acción. No obstante, podemos entender la causalidad personal como un
principio general básico para estudiar la motivación. No es un motivo específico, sino que cada
uno prefiere escoger sus medios para obtener un objetivo, fin o meta. Es, por lo tanto, un adjetivo
que sirve para calificar cualquier experiencia humana.
Concepto de motivo: significa aislar algo que no tiene existencia, a nuestro entender, por sí
mismo, que no tiene sentido desgajado fuera del esquema de acción en que se incluye. Este
mismo se refiere a un conjunto de pautas para la acción, emocionalmente cargadas, que implican
la anticipación de una meta u objetivo preferido. Las agrupaciones de motivos relacionados
generarían las grandes tendencias de acción o motivos sociales, como la tendencia a intentar ser
eficaz en las acciones que emprendemos, la tendencia a dirigir de alguna manera el
comportamiento de los otros o la tendencia a buscar en los demás algún grado de reconocimiento
afectivo. Se habla de tendencias porque es un motivo que nos mueve a anticipar metas
determinadas, estas construyen la personalidad del individuo; no es algo estable ni permanente.
Nuestros gustos varían, se forman y hasta se deforman.
132
Concepto de meta: Todo proceso motivacional tiene sentido porque está dirigido a una meta, a un
propósito preferido. El establecimiento de una meta dependerá, entre otras cosas, del significado
social que se atribuya a esa situación, del valor que se le dé, de la dificultad que se perciba, de la
complejidad de las acciones que conlleve satisfacerla, etc. Las metas no se pueden coincidir
aisladas, sino sería más correcto hablar de metas como si fuesen estados entrelazados en
perpetuo flujo.
2) Es un nivel más superficial: se encontrarían toda una serie de esquemas de acción que se
refieren a metas más concretas, más determinadas por situaciones estándar. Sería el caso de los
guiones que formamos y activamos cuando nos sometemos a determinadas acciones sociables
tipias, estudiar un examen concreto, ejecutar un trabajo específico, convencer a otra persona, etc.
Suelen proceder un planeamiento más consiente de todo el proceso motivacional, Estas
situaciones activarían un proceso que implica el uso consciente de motivos, metas, expectativas,
atribuciones, etc. Se nota el papel de lo llamábamos antes el control consiente de la acción, la
forma de planificar la actuación hacia una meta. Están más afectados por el resultado de los
análisis cognitivos que se hagan de las acciones anteriores, como son las atribuciones y las
expectativas. En la mayoría de los casos los motivos superficiales se activan por demandas
explicitas de situaciones sociales. Están por lo tanto, más influenciados por las demandas externas
que interviene en la acción, por el rango de condiciones de posibilidades que permite un entorno
concreto. Es decir, cuando planificamos, damos energía y orientamos una acción de manera
consciente y premeditada, esto es, cuando activamos un motivo más superficial, podemos hacerlo
fijándonos una meta que esté determinada por patrones básicos o que surge de la aceptación o
elección del rango de posibilidades de metas que son propias de una situación social determinada.
Al ser los motivos más superficiales dependientes de una interpretación detallada del escenario de
la acción, en ese caso de conflicto entre motivos de diferente nivel de profundidad, es más normal
que sean los más superficiales los que prevalezcan.
133
CAPÍTULO 6: CULTURA, SOCIEDAD Y MOTIVACIÓN. LOS PRINCIPALES MOTIVOS SOCIALES (TOMAN
EN FINAL)
Motivación: Los motivos sociales son grandes agrupaciones teóricas de metas, de deseos, propios
de un rango amplio de actividades sociales. Las actividades básicas de la sociedad suelen generar
en el sujeto la formación de ciertas categorías de etas que activan y dirigen la acción, s están
volviendo a utilizar los términos de tendencias o motivos directrices. La forma típica de entender
los motivos sociales tiene el inconveniente de que han sido tratados como un rasgo de
personalidad- Los rasgos intentan describir analíticamente la personalidad, es decir, hacen
referencia a una variable o faceta de dicha personalidad. En su concepción más dura, los rasgos
quieren ser uno de los constituyentes de la personalidad y, tan básico, que hasta tienen que
poseer un determinado substrato biológico. Los motivos sociales serán en el individuo grandes
tendencias de acción, guiones motivaciones profundos que hacen referencia a modos de
comportarse y de desear, que se activan en contextos sociales determinados, como los
relacionados con la eficacia personal, el afecto interpersonal y la influencia social. Logro, afiliación
y poder.
La motivación por el logro: Se considera como la tendencia a esforzarse para conseguir algo difícil,
para superar los obstáculos de forma independiente. El motivo de logro es la propensión a ser
eficaz y a conseguir un resultado con un cierto nivel de excelencia. TAT (test de apercepción
temática). El TATA era un instrumento sensible a los cambios, por lo menos, en las necesidades
fisiológicas (experimento hecho con submarinos sometidos a condiciones de privación
alimentaria). Relajación menos contenidos de logro.
Atkinson y McClelland formularon la teoría de la expectativa-valor de la motivación de logro. El
potencial de activación es función de tres factores, de un estado temporal (tendencia de
aproximación al éxito), de las propiedades de la meta (incentivo) y de un factor de aprendizaje
(probabilidad del éxito).
La teoría clásica de la motivación de logro: clásicamente se entiende que la motivación de logro se
constituye en un motivo que incluye dos tendencias: La tendencia de aproximación al éxito, que es
una disposición afectiva que nos lleva a experimentar orgullo con el éxito, con la consecuencia de
un buen resultado. Intervienen tres factores: factor de motivación por el éxito, la probabilidad o
expectativa de éxito y el incentivo del éxito en cada situación. La otra tendencia que compone la
motivación de logro general es la tendencia de evitación al fracaso. Factores que intervienen: El
valor de la motivación por evitar en fracaso, la probabilidad de fracaso y el incentivo de fracaso. La
motivación de logro resultante será la combinación de las dos tendencias y como es lógico, el valor
de la tendencia de evitación se respeta del valor de la tendencia de aproximación. Cuando se
tiende a ser lo más eficaz posible en una actividad se prefieren tareas moderadamente
desafiantes.
Las objeciones a la formulación clásica de la motivación de logro: Hay que decir que existen
bastantes estudios que comprueban que cuando se da una alta tendencia hacia el logro, se busca
adaptar el nivel de dificultad de la tarea a la idea de que uno tiene de sus propias habilidades
implicadas. El problema es que se ha encontrado que también los individuos motivados por la
evitación del fracaso buscan tareas de dificultad intermedia, que no siempre quieren tareas muy
fáciles o muy difíciles. Tendencia de evitación del éxito, una especie de ansiedad que se produce
ante el éxito. Concluyendo, las investigaciones posteriores han demostrado que en la motivación
de logro intervienen otras formas más complejas de concebir esos tres factores principales e,
incluso, sea visto que ciertas variables puramente cognitivas como las expectativas, atribuciones,
134
formas de controlar la tarea, etc. Tienen una participación fundamental en los guiones de logro
que forme una persona en una situación determinada.
La fuerza del motivo depende más del aprendizaje social que de la necesidad.
La socialización de la motivación de logro: McClelland mantiene que el ser humano viene
predeterminado a reaccionar y a activarse diferencialmente ante ciertos indicadores-estímulos o
incentivos naturales. A partir de esto primeros momentos de la vida, el proceso de complica. Estos
incentivos naturales se combinan, forman una compleja red de situaciones, emociones, metas y
cogniciones o expectativas. Todo este proceso se produce en la experiencia, en el aprendizaje
social, en donde intervienen los valores culturales y sociales. En el caso de la motivación del logro,
el autor defiende que su desarrollo comienza en lo que hemos llamado promotivo de variedad o
curiosidad. Según McClelland, este desarrollo tiene que mucho que ver con la insistencia de los
padres en niveles elevados de rendimiento y en su evaluación explicita, es decir, que estos hagan
que el niño empiece a ver lo que queda bien hecho y mal hecho. Para desarrollar el logro, no se
trata tanto de que los niños realicen sus obligaciones, sino de que las hagan solos y puedan
obtener una evaluación realista. No sirve el autoritarismo por parte de los padres, eso suele
derivar en un bajo desarrollo en los niños de motivación de logro.
- No solo se prefieren las tareas moderadamente difíciles, sino que el rendimiento también
es mejor cuando el reto es moderado.
- Se persiste cuando se fracasa en una tarea fácil, pero no en una difícil
- Es la motivación de logro la búsqueda de la eficacia y por ello de la innovación
Los motivos de afiliación: Si estamos hablando de la necesidad afiliativa como algo imprescindible
para el ser humano, entonces es legítimo defender que esta tendencia tiene un origen innato,
típico de nuestra especie. La vida en grupo favorece la identidad personal, la definición de los
propios intereses, permite obtener cierta reputación personal, favorece el intercambio de valores,
ideas y formas de actuar entre sus miembros. El grupo es el medio en el que se construyen y
forman todos los procesos psíquicos típicamente humanos.
La afiliación como una tendencia motivacional: Se entiende esta como un motivo que se
caracteriza por el interés en establecer, mantener o restaurar una relación afectiva positiva con
una o varias personas.
¿Qué nos ocurre cuando nos movemos por la afiliación? Nos preocupamos más por lo que piensan
los demás de nosotros, buscamos más intensamente la evaluación de los demás.
Sincronía interaccional. Esta sincronía es un marcador tan claro de afecto, que aparece en el
primer momento en que se manifiesta en la vida el afecto, en el comportamiento sincronizado de
una madre con su bebé.
El significado empieza a formarse desde el momento en que los demás empiezan a dar contenido
a las emociones y las situaciones en donde aparecen. La interacción social facilita la creación de
patrones para la identificación personal. Lo que se busca en los demás, es la autoevaluación.
-El origen de la afiliación: el miedo y la incertidumbre
Comparación emocional, la afiliación se produce ante la ansiedad. El miedo, la incertidumbre o la
falta de una habilidad conduce a la afiliación como un medio para saber lo que sienten y piensan
personas en la misma situación
La génesis de los motivos de afiliación: La afiliación está más relacionada con la calidad de cada
una de las relaciones sociales que con las características específicas a esas relaciones con los
demás el motivo al rechazo social.
Se puede considerar que el sexo es reúne todas las características funcionales de un motivo.
Motivo básico. El sexo implica unas formas de actuación social que forzosamente se tienen que
aprehender, probar y comprobar, y desde luego, cuesta más que saber beber o comer. El sexo es
135
uno de los comportamientos motivados más sociales, más dependientes de la cultura, en sus
modos y en sus modas.
El amor: No es solo un esquema motivacional; es más, son muchas cosas las que están implicadas
en ese conjunto de relaciones psicosociales que configuran cada uno de los diferentes amores.
Amor de compañeros y amor apasionado. Lo fundamental que los diferencia es el grado de
estabilidad y de intensidad emocional que conllevan. El primero es más estable y menos intenso, y
la pasión, justo lo contrario.
Compromiso-intimidad-pasión
Amor apasionado: Es un complejo funcional que incluye valoraciones o apreciaciones,
sentimientos subjetivos, expresiones. La pasión amorosa es un estado de intenso deseo por la
unión con otra persona, un estado emocional salvaje. Fantasías e idealización.
El amor es un deseo, y como tal conlleva un número determinado de metas. Explicación evolutiva
(el amor es propio de organismos evolucionados que tienen una fuerte estructura social),
motivacional (motivo de intimidad, se entiende como la búsqueda de la calidad de las
interacciones más que de la cantidad, una comunicación íntima con otra persona),fisiológica
(hormona oxitocina, según varios autores, el aumento de esta hormona en ciertos animales se ha
visto relacionada con aumentos de conductas afectuosas, relacionadas con el cuidado y con el
deseo sexual), emocional ( el amor es una emoción que surge de ciertas condiciones sociales que
generan excitabilidad, es un proceso momentáneo que aparece y desaparece, muy relacionado
con el placer, emoción muy centrada en el yo) y sociocultural.
Los motivos de poder: interés por ejercer impacto, control o influencia sobre otra persona, un
grupo o el mundo en general. Se refiere, en general a cualquier meta que pretenda cierto grado de
control sobre lo que le rodea. El motivo de poder tiene un polo de aproximación y otro de
evitación. Se distingue entre esperanza de poder y temor al poder. Parece que a los niños que se
les tolera, que se les permite asociar actividades relacionadas con el sexo y la agresión, desarrollan
más el motivo de poder.
Poder y agresividad: A mayor tendencia hacia al poder mayor tendencia a comportamientos
agresivos.
Poder y liderazgo: Lo que se entiende por motivo de poder reúne solo algunas de las
características de liderazgo, pero no todas.
136