Вы находитесь на странице: 1из 234

Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

BLOQUE 1: INTRODUCCIÓN

Capítulo 1: El estudio del lenguaje

1. Introducción

El objetivo primordial del lenguaje es comunicarse, pero también se puede usar para expresar una
emoción, para la interacción social, para utilizar los sonidos, para intentar controlar el entorno, para
registrar los hechos, para pensar y para expresar identidad. Incluso jugamos con el lenguaje, gran parte
del humor depende de ser capaz de manipular el lenguaje.

La lingüística estudia el propio lenguaje. La psicolingüística es el estudio de los procesos


psicológicos implicados en el lenguaje. Los psicolingüistas estudian la comprensión, producción y
recuerdo del lenguaje, y de aquí que se ocupen de la capacidad de escuchar, leer, hablar, escribir y
recordar el lenguaje. También están interesados en la forma en que se adquiere el lenguaje y en la forma
en que se relaciona con otros sistemas psicológicos.

La moderna psicolingüística está estrechamente relacionada con otros campos de la psicología


cognitiva y depende del mismo tipo de métodos experimentales.

2. ¿Qué es el lenguaje?

“Sistema de símbolos y reglas que nos permiten comunicarnos”. Los símbolos son cosas que
representan otras cosas, las palabras, ya sean escritas o habladas, son símbolos. Las reglas especifican las
formas en que se ordenan las palabras para construir frases. No es fácil tener una definición estricta del
lenguaje.

El lenguaje se puede describir de diversas maneras, y para ello se han utilizado distintas apelaciones:
Fig.: 1.1
 Semántica: es el estudio del significado del lenguaje.
 Sintaxis: el estudio de las reglas sobre el orden de las palabras.
 Morfología: el estudio de cómo se construyen las palabras y su formación a partir de morfemas
 Pragmática: el estudio de la utilización del lenguaje, de las facetas del significado que no afectan a la
verdad literal de lo que se está diciendo. Hace referencia a cosas como la elección de las palabras con
el mismo significado, las cuestiones implícitas en una conversación y el mantenimiento de la
coherencia en la misma.
 Fonética: el estudio de los sonidos; el detalle acústico de los sonidos de un discurso y cómo se
articulan.
 Fonología: el estudio de los sonidos y de cómo se relacionan con los idiomas; la fonología describe las
categorías de sonidos que utiliza cada lenguaje para dividir el espacio de los posibles sonidos.

La morfología se ocupa de la manera en que se crean palabras complejas a partir de las unidades más
sencillas, morfemas (unidad de significado más pequeña). Hay dos tipos de morfología:
 Morfología inflexiva: se ocupa de los cambios de una palabra que no alteran su significado subyacente
o su categoría sintáctica. Estudio de las inflexiones. Ej.: pluralización, cambios de tiempos verbales.

1
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Morfología derivativa: se ocupan de los cambios de una palabra que alteran su significado subyacente
o su categoría sintáctica. El estudio de las inflexiones derivativas. Ej.: desarrollo, desarrollado.

La definición del diccionario de la palabra es “la unidad gramatical más pequeña que tiene significado
por sí misma”. La palabra se puede analizar en distintos niveles: los sonidos constituyen el nivel más
bajo, o por letras si es una palabra escrita. Los sonidos se combinan para formar sílabas.

Los psicólogos creen que se almacenan representaciones de las palabras en un diccionario mental,
denominado lexicón. El lexicón incluye toda la información de que disponemos sobre una palabra,
incluyendo sus sonidos, significado, apariencia escrita y los papeles sintácticos que puede adoptar. Los
psicolingüistas están interesados en los procesos de acceso léxico y cómo se representan las cosas.

2.1 ¿Cómo ha evolucionado el lenguaje a lo largo del tiempo?

No se sabe si todos los lenguajes humanos descienden de un ancestro común o si derivan de


antepasados distintos. De todas formas, se puede afirmar que hay muchos idiomas que están relacionados
entre sí.

Análisis detallados han demostrado que la mayoría de los idiomas de Europa y partes de Asia
occidental derivan de una fuente común llamada protoindoeuropeo. Todos los idiomas que han derivado
de esa fuente común se denominan indoeuropeos.

Los idiomas indoeuropeos tienen una serie de ramas principales: el romance, el germánico y los
idiomas indios. Ver Fig. 1.2. Hay idiomas que son europeos pero no forman parte de la familia
indoeuropea. El finlandés y el húngaro provienen de la rama ugrofinesa de la familia de los idiomas de los
Urales. Además también existen otras muchas familias de idiomas además de los indoeuropeos. En total,
los lingüistas han identificado más de cien familias de idiomas aunque algunos pocos idiomas, como el
vasco, parecen no pertenecer a ninguna familia. Se desconoce el grado en que estas grandes familias
pudieron estar relacionadas en antaño.

Los idiomas también cambian en períodos de tiempo relativamente breves. Se acuñan nuevas palabras
o nuevas acepciones de viejas palabras cuando es necesario. Tomamos prestadas palabras de otros
idiomas; a veces se crean palabras por error.

Existe un importante núcleo central de los mecanismos psicológicos que parecen ser comunes al
procesamiento de todos los idiomas. Al mismo tiempo es de suponer que los que hablan distintos idiomas
pueden tener rasgos distintivos a la hora de procesar la palabra, sobre todo la escrita o la impresa.

2.2 ¿Para qué sirve el lenguaje?

El lenguaje se utiliza para comunicarse. El lenguaje es una actividad social, y como tal, es una forma
de acción conjunta en la que los individuos colaboran para lograr una meta común.

Aunque la principal función del lenguaje es la comunicación, es posible que haya adquirido (o incluso
derivado) de otras funciones; es posible que el lenguaje haya desempeñado un papel en los procesos
cognitivos que inicialmente no era lingüísticos. La versión más extrema es la idea de que la forma de
nuestro lenguaje conforma nuestra percepción, perspectiva conocida como la hipótesis de Sapir –Whorf;

2
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

algunos han afirmado que el lenguaje evolucionó para permitirnos pensar y que la comunicación fue tan
sólo un efecto secundario útil.

3. La historia y métodos de los psicolingüistas

3.1 Una breve historia de la psicolingüística

Los comienzos del estudio científico de la psicología del lenguaje suelen remontarse a la conferencia
realizada en Cornell, EEUU (1951) y el término psicolingüística se utilizó por primera vez en el libro de
Osgood y Sebeok (1954). Anteriormente se había estudiado la psicología del lenguaje, Ej.: Galton (1879)
estudio cómo la gente crea asociaciones entre palabras, en Alemania (1895) se analizaron los lapsus
linguae, etc.

La infancia de la moderna psicolingüística se encuentra alrededor de la figura de Noam Chomsky, en


torno a la revisión que hizo del libro Verbal Behavior de Skinner (1960). Los psicolingüistas intentaron
relacionar el procesamiento del lenguaje con la gramática transformacional de Chomsky.

La psicolingüística tiene sus raíces en dos disciplinas: la psicología y la lingüística. La lingüística es


el estudio del propio lenguaje, de las normas que lo describen, y de nuestro conocimiento sobre las
normas del lenguaje.

La lingüística comparativa, se ocupaba de comparar y buscar los orígenes de los distintos idiomas. En
particular, la tradición norteamericana del lingüista bloomfield ponía de relieve los estudios comparativos
de los idiomas indígenas de los indios de Norteamérica; lo que levo a poner énfasis en el estructuralismo:
aquí el objetivo primordial de la lingüística consistía en ofrecer un análisis de las categorías adecuadas de
descripción de las unidades del lenguaje.

En la lingüística moderna, los principales datos utilizados por los lingüistas son intuiciones sobre lo
que constituye una frase aceptable o no. (Ver Ej.: de frase incorrecta).

Los primeros enfoques psicológicos del lenguaje consideraban que el procesador del lenguaje era un
sencillo dispositivo que podía generar y comprender frases pasando de un estado a otro. Hay dos ramas en
estos primeros trabajos:
 Derivados de la teoría de la información (Shannon y Weaver): ponía de relieve el papel de la
probabilidad y la redundancia en el lenguaje, y se desarrolló a partir de las exigencias de la industria de
las telecomunicaciones. Su elemento central era averiguar cuál era el final más probable de una frase a
partir de determinado punto.
Esta teoría también era importante dada su influencia en el desarrollo de la psicología cognitiva.
 Derivados del conductismo, ponían de relieve la relación entre una entrada (o estímulo) y un resultado
(respuesta), y cómo se creaban estas asociaciones a partir del condicionamiento y el refuerzo. Los
constructos intermedios (mente) eran considerados innecesarios. La única materia objeto de estudio era
la conducta, y el lenguaje era una conducta como cualquier otra. Así, su adquisición y utilización se
podían explicar con las habituales técnicas del refuerzo y el condicionamiento. Su máximo apogeo
llegó con el libro de Skinner “Verbal behavior” (1957).

Chomsky con su revisión demostró que el conductismo era incapaz de abordar el lenguaje natural.
Afirmó que había una nueva teoría lingüística, llamada gramática transformacional, que proporcionaba

3
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

tanto una explicación de la estructura subyacente del lenguaje como de los conocimientos que tiene la
gente de su idioma; la influencia de la lingüística alcanzó su cima a finales de la década de 1960 y
principios 1970. Es una teoría limitada en cuanto a los procesos implicados en el proceso del habla y de la
comprensión.

En la década de 1970 la psicolingüística fue absorbida por la corriente principal de la psicología


cognitiva: en este enfoque el procesamiento de la información era lo principal. Estos enfoques
consideraban la mente como una computadora. La mente utiliza reglas para traducir una entrada, como un
discurso o una visión, en una representación simbólica: la cognición es un procesamiento simbólico. El
procesamiento podía representarse como diagramas de flujo. Los diagramas de flujo ilustran niveles de
procesamiento, y muchos trabajos de la época intentaron demostrar cómo se transformaba un nivel de
representación del lenguaje en otro. La metáfora computacional ha tenido una clara influencia en la
moderna psicolingüística puesto que la mayoría de los modelos se definen en términos de la descripción
de los niveles de procesamiento y de las reglas o procesos que determinan qué es lo que ocurre en el
medio.

Gracias a la influencia de la metáfora computacional, los psicolingüistas lograron una identidad


independiente de la lingüística. La psicolingüística moderna es fundamentalmente una ciencia
experimental y, al igual que la psicología cognitiva, los experimentos miden el tiempo de reacción. Los
psicólogos intentan dividir el procesamiento del lenguaje en sus elementos constitutivos y mostrar cómo
se relacionan esos elementos entre sí.

3.2 El enfoque de la “ciencia cognitiva”

Este concepto se utiliza para abarcar el enfoque multidisciplinar del estudio de la mente, y estas
disciplinas incluyen la psicología de los adultos y del desarrollo, la filosofía, la lingüística, la
antropología, las neurociencias y la inteligencia artificial. La filosofía desempeña un papel importante en
la comprensión del significado; La Inteligencia artificial recurre a la utilización de computadoras para
hacer cosas que aparentemente requieren inteligencia, como comprender una historia o un discurso. A
parte de las aplicaciones tecnológicas de la inteligencia artificial, se espera aumentar la comprensión de
cómo hacen los humanos dichas tareas.

La ejecución de un modelo con un programa informático tiene la gran ventaja de que hay que ser
explícito sobre todos los aspectos (no hay supuestos ocultos en estos modelos). La obligatoriedad de lo
explícito también tiene un inconveniente significativo: debido a que los que definen el modelo tienen que
ser explícitos sobre todos los aspectos del modelo, a menudo tienen que hacer supuestos muy arriesgados
sobre los procesos y representaciones, y simplificar el contexto o el alcance del modelo hasta un grado en
que su utilidad resulta dudosa. No obstante, los modelos informáticos, tienen muchas ventajas y han
adquirido una importancia creciente. (Programa ELIZA y SHRDLU Pág. 9-10). Los primeros
analizadores sintácticos de la inteligencia artificial carecían de la potencia de cálculo necesaria para
analizar el lenguaje humano. La influencia de la IA en la psicolingüística alcanzó su cima en la década de
los 70.

El conexionismo (o procesamiento distribuido en paralelo, o redes neuronales) ha adquirido fuerza en


todos los campos de la psicolingüística. Las redes conexionistas incluyen muchas unidades, parecidas a

4
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

las neuronas, muy sencillas y conectadas entre sí, que trabajan juntas sin ningún plan director explícito.
Sin embargo, surgen normas y conductas a partir de las interacciones entre esas unidades simples.

Un concepto central en los modelos conexionistas (así como en otros) es la idea de activación, se
puede considerar como una cantidad de energía poseída por algo. Cuanto más activado está algo más
probable es que se produzca. La idea de que la mente utiliza algo parecido a la activación, y que el grado
de activación de las unidades puede influir sobre los niveles de activación de elementos similares es una
idea importante.

3.3 Los métodos de la psicolingüística moderna

Utiliza ejemplos de estudios observacionales y de intuiciones lingüísticas, así como la utilización de


los errores que cometen las personas. Se puede aprender mucho de los modelos informáticos, pero el
grueso de los datos proviene de los experimentos de psicología, sobre todo de los que generan tiempos de
reacción. La ventaja de estos experimentos es que es muy fácil ejecutarlos en las modernas computadoras.
E incluso en muchos se puede automatizar por completo la recogida de datos.
Técnicas experimentales:
 priming: afectación de una respuesta a una diana presentando anteriormente un ítem relacionado
(prime); el priming puede tener efectos facilitadores o inhibidores.
Ha sido utilizada en casi todos los campos de la psicolingüística. La idea general es, que si dos cosas
son parecidas entre sí y están implicadas juntas en el procesamiento, o bien se ayudarán o bien se
obstaculizarán entre sí, pero si no están relacionadas entre sí, no tendrán efecto alguno. Tipos de
priming:
 priming semántico: Este tipo de priming, es normalmente facilitador, se obtiene mediante la
presentación de un estímulo con significado relacionado.
- Se habla de facilitación, cuando la priming hace que se acelere el procesamiento.
- Se habla de inhibición, cuando el priming hace que se ralentice el procesamiento. De todas
formas la inhibición tiene 2 aplicaciones. En cuanto al procesamiento significa que lo ralentiza,
el priming de lugar a una inhibición. En cuanto a la comprensión, está estrechamente relacionada
con la idea de supresión. En cuanto a las redes hace referencia a la forma en que algunas
conexiones reducen la cantidad de activación de la unidad objetivo.

4. El lenguaje y el cerebro

La neurociencia cognitiva estudia cómo se relacionan entre sí el cerebro y la conducta. Los últimos
avances en la generación de imágenes neuronales permiten ver el cerebro en acción durante el
procesamiento normal.

4.1 Los estudios sobre lesiones

La neuropsicología cognitiva ha generado importantes avances en la comprensión de la


psicolingüística en los últimos 30 años. La neurología tradicional y la neuropsicología se han encargado
de preguntas sobre qué partes de nuestro cerebro controlan distintos tipos de conducta, es decir, la
localización de la función, y de averiguar cómo se ajustan las conductas complejas a los flujos de
información mediante las estructuras cerebrales. (Fig. 1.3)

5
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 El modelo Wernicke –Geschwind, uno de los modelos neurológicos tradicionales más conocido; los
procesos del lenguaje fluyen fundamentalmente de la parte trasera del hemisferio izquierdo a la parte
delantera, produciéndose los procesos semánticos y de planificación en la parte trasera, en lo que se
conoce como área de Wernicke, y la recuperación de sonidos y articulación de bajo nivel en la parte
delantera, en lo que se conoce cómo área de Broca, estando conectadas las dos regiones por un tracto de
fibras denominado fascículo arqueado (Fig. 1.4)

El énfasis de la neuropsicología cognitiva tiene por objeto relacionar la conducta de un cerebro


dañado con los modelos del procesamiento normal. Shallice afirmó que se puede diferenciar la
neuropsicología cognitiva de la neuropsicología tradicional en 3 aspectos cruciales:
 Ha constituido un avance teórico a la hora de relacionar los desórdenes neuropsicológicos con los
modelos cognitivos.
 Ha constituido un avance metodológico al poner de relieve la importancia de casos de estudio
concretos, en vez de los estudios de grupos de deficiencias neuropsicológicas. Es decir, se pone de
relieve la descripción y explicación detallada de pacientes individuales.
 Ha aportado un programa de investigación en tanto en cuanto pone de relieve cómo se pueden informar
los modelos del procesamiento normal estudiando la conducta de cerebros dañados. La neuropsicología
cognitiva ha contribuido en gran medida a nuestra comprensión del idioma.

Shallice consideró que a veces este enfoque de la neuropsicología fue demasiado lejos, en aspectos
como: 1) su afirmación de que los estudios de grupos no pueden proporcionar ninguna información
adecuada para construir modelos cognitivos, 2) al afirmar que la información sobre la localización de la
función es irrelevante para comprender la conducta, 3) subestima la información clínica sobre los
pacientes; por todo ello a esta posición extrema la denominó neuropsicología ultracognitiva.

Seidenberg señalo que la neuropsicología cognitiva pone demasiado énfasis en revelar la arquitectura
funcional de los sistemas implicados. Es decir, se pone de relieve la organización de los elementos
constitutivos a costa de explorar los procesos realmente implicados, lo que da lugar a la construcción de
diagramas de cajas y flechas con pocos avances en nuestra comprensión de lo que ocurren dentro de las
cajas, o de cómo vamos de una caja a otra. En la actualidad se está poniendo mayor énfasis en lo que
ocurre dentro de los elementos constituyentes, sobre todo desde que se ha aplicado los modelos
conexionistas a la neuropsicología cognitiva.

Un concepto importante tanto en la neuropsicología cognitiva como en la tradicional es el de doble


disociación: un patrón de disociaciones por el que un paciente puede hacer una tarea pero no otra,
mientras que el otro paciente muestra el patrón opuesto. (Fig. 1.5). La interpretación tradicional de una
doble disociación es que a cada tarea subyacen procesos distintos.

Aunque la interpretación tradicional de una doble disociación es que hay dos rutas independientes
implicadas en un proceso, los modelos conexionistas han demostrado que es posible que no siempre sea
así. Pueden surgir dobles disociaciones aparentes en sistemas complejos distribuidos de una única ruta.

Es necesario prestar atención, cuando se hacen inferencias a partir de los datos neuropsicológicos.
Suele haber un importante solapamiento entre los pacientes, y los casos más puros suelen estar asociados
con daños cerebrales menores. Finalmente, las cosas no suelen mantenerse en un estado fijo tras

6
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

producirse un daño cerebral; los procesos intactos se reorganizan, y suele producirse cierta recuperación,
incluso en adultos.

4.2 Creación de imágenes neuronales

Las nuevas técnicas de creación de imágenes cerebrales están adquiriendo paulatinamente más
precisión y son más accesibles. Los rayos X tradicionales, tienen una aplicación limitada.
 Los EEG (Electroencefalogramas) y ERP (potenciales evocados, evento-relacionados o respuesta a
estímulos), miden la actividad eléctrica del cerebro. Estas técnicas tienen una resolución temporal
muy buena, pero una resolución espacial muy baja.
o El EEG es un medio para medir los potenciales eléctricos en el cerebro colocando electrodos en el
cuero cabelludo.
o El ERP es un medio para medir la actividad eléctrica en el cerebro tras determinados sucesos. Un
ERP es una onda eléctrica compleja relacionada en el tiempo con un determinado suceso, medido
por un EEG. Estos miden los cambios de voltaje en el cuero cabelludo relacionándolos con la
presencia de un estímulo. Los puntos álgidos del ERP se clasifican en función de su polaridad (+ o -
) y su latencia en milisegundos, tras el inicio del estímulo:
 El N400 es un punto álgido que se produce tras una frase con un final semánticamente
incongruente (leer en vez de con un final, la misma frase con “un calcetín”).
 El P300 son generados por cualquier estímulo que requiera de una decisión binaria (si/no). La
variación negativa contingente es un potencial negativo lento que se desarrolla en el cuero
cabelludo cuando una persona se está preparando para realizar una acción motriz o procesar un
estímulo sensorial.
 La MEG (Magnetoencefalografía) presenta la ventaja de tener una buena resolución tanto
temporal como espacial, pero es más difícil de realizar y mucho más cara, ya que requiere de
dispositivos superconductores llamados SQUIDS, un enfriamiento externo utilizando helio
líquido y escudos magnéticos.
 La TAC (tomografía axial computerizada) produce imágenes de resolución media integrando un
elevado número de imágenes de rayos X tomadas desde muchos ángulos distintos de la cabeza.
 Las MRI (Imágenes obtenidas por resonancia Magnética) utilizan ondas de radiofrecuencia y
generan imágenes de mayor resolución que el TAC. Estas técnicas han permitido estudiar la
estructura del cerebro.
 Los equipos de PET (Tomografía por emisión de positrones) generan imágenes de la actividad del
cerebro. Se inyecta en la sangre una forma de glucosa radiactiva, el combustible metabólico que
utiliza el cerebro, y los detectores alrededor de la cabeza miden la glucosa que se está utilizando.
Así, se puede averiguar cuáles son las partes del cerebro más activas cuanto éste está
desempeñado una determinada tarea.
 La fMRI (Resonancia magnética funcional), miden la energía que liberan las moléculas de
hemoglobina en la sangre y a continuación determinan cuáles son las áreas del cerebro que han
recibido mayores cantidades de sangre y oxígeno. Por lo tanto, dicen cuáles son las partes del
cerebro que están más activas en un determinado momento. Ofrecen una resolución temporal y
espacial muy superior a las imágenes PET, aunque la resolución temporal sigue siendo
ligeramente inferior al EEG.

7
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 LA TMS (estimulación magnética transcraneal), es, de alguna manera, lo contrario a crear una
imagen: en vez de observar el cerebro, se hace que parte de él haga algo. Se utiliza un conjunto de
imanes muy potentes para estimular directamente la parte del córtex de un participante y, a
continuación, se registra que es lo que hace o experimenta el participante.

La neuroimagen del cerebro sigue siendo cara y la resolución espacial y sobre todo, la temporal,
tienen mucho que mejorar. Un problema más significativo de la creación de imágenes cerebrales es que
los resultados son difíciles de interpretar; las imágenes nos dirán dónde se está produciendo, pero no nos
dicen cómo, qué o por qué.

En el contexto de la teoría del procesamiento del lenguaje, la creación de imágenes podría


proporcionarnos pistas sobre lo que está ocurriendo. El método utilizado en la creación de imágenes del
cerebro es el:
 Proceso de sustracción: el participante desempeña una tarea, y después una variante de dicha tarea, y
se sustraen las imágenes de una de la otra. Así se puede identificar dónde se encuentra la diferencia
crítica entre ambas tareas. En la práctica, este método suele ser difícil encontrar condiciones de
comparación adecuadas. Con mucha frecuencia la diferencia es muy sutil y requiere de interpretación
teórica.

Las técnicas de creación de imágenes suelen mostrar la activación de áreas corticales que no se
solapan para tareas similares lo que, de nuevo, resulta difícil de interpretar. Los estudios de imágenes
también sugieren que los procesos cognitivos están más localizados que lo que indicaban otros métodos,
porque las técnicas de creación de imágenes revelan las numerosas áreas que se encuentran activas
durante el desempeño de una tarea, independientemente de que esas áreas estén desempeñando un papel
importante o no. Por lo general, las técnicas de creación de imágenes no dicen qué significa una gran
actividad en distintas partes del cerebro en cuanto a procesamiento.

Las imágenes cerebrales juegan un papel diagnóstico importante en el análisis de los efectos que
tienen los daños cerebrales y los trastornos cerebrales.

5. Temas y controversias en la psicolingüística contemporánea

Hay 10 temas recurrentes (Fig. 1.7) de los que se analizaran 5 de ellos:


 Descubrir los procesos reales implicados en la producción y comprensión del lenguaje.
 Discernir si los procesos de lenguaje aparentemente distintos están relacionados entre sí. (lectura-
habla). Tema de la modularidad.
 Descubrir si los procesos del lenguaje operan independientemente unos de los otros, o si interactúan.
 ¿Qué parte del lenguaje es innata?
 ¿Hay que referirse a reglas explícitas cuando se analiza el procesamiento del lenguaje?
 ¿son los procesos que se examinan específicos al lenguaje o son aspectos del procesamiento cognitivo
general reclutados a veces para el lenguaje?
 ¿Hasta qué punto son sensibles los resultados de los experimentos a las técnicas concretas utilizadas?,
es decir, ¿se obtienen respuestas distintas a la misma pregunta si se hacen los experimentos de forma
ligeramente distinta?
 ¿Qué se puede aprender analizando el lenguaje de aquellos individuos que tienen dañadas las partes
del cerebro que controlan el lenguaje?

8
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 ¿Qué diferencia marca el hecho de hablar otro idioma?


 ¿Cómo se puede aplicar a la vida cotidiana el estudio del lenguaje?

5.1 ¿Hasta qué punto es modular el sistema del lenguaje?

El concepto de modularidad es un concepto importante en psicolingüística. El procesamiento parte


de una entrada sobre la que actúan uno o más niveles de procesamiento para generar una salida. Ej.:
cuando decimos una palabra, tenemos que identificar y procesar la forma visual de la palabra y acceder a
los sonidos de la misma. Hay menos acuerdo en la forma en que estos niveles están conectados entre sí.

Un modulo es un conjunto de procesos autocontenidos: convierte una entrada en una salida, sin
ninguna ayuda externa en lo que ocurre entre medias; decimos que los procesos dentro de un módulo son
independientes de los procesos de fuera. Otra forma de describirlo es afirmando que el procesamiento
depende exclusivamente de los datos. Los modelos en los que los procesos se producen de ésta manera se
denominan autónomos.

Procesamiento interactivo, la interacción incluye la influencia de un nivel de procesamiento en la


operación de otro, pero aquí hay 2 conceptos entremezclados:
 En primer lugar está la cuestión del solapamiento del procesamiento entre etapas:
o Modelo de las etapas discretas: en este tipo de modelo solo puede empezar a funcionar un nivel de
procesamiento cuando el anterior ha terminado su propia tarea.
o Modelo en cascada: se permite que fluya la información de un nivel al siguiente antes de que haya
culminado su procesamiento. Si se solapan las etapas es posible que haya múltiples candidatos
activados en el nivel de procesamiento más bajo.
 El segundo aspecto de la interacción hace referencia a si existe un flujo inverso de la información, o
feedback, cuando la información de un nivel inferior alimenta a un nivel anterior. Una cascada natural,
va exclusivamente de arriba abajo.
 Procesamiento de abajo arriba: procesamiento que depende exclusivamente de los datos. Nos
encontraríamos con un modelo interactivo de reconocimiento de palabras, desde la representación
conceptual de la palabra hasta la representación mental).
 Procesamiento de arriba abajo: procesamiento que utiliza el conocimiento proveniente de niveles
superiores (como predicción de una palabra a partir del contexto). Nos encontraríamos con un modelo
interactivo de la generación de palabras, de la representación mental hasta el sonido de la palabra.

Fodor afirmó que muchos procesos psicológicos son modulares. Según muchos investigadores, los
procesos son modulares no interactivos. Hay dos razones fundamentales para este supuesto:
 Los modelos modulares suelen ser más sencillos: implican un menor número de procesos y de
conexiones entre los sistemas.
 Creencia generalizada de que la evolución fomenta un sistema modular.

Es posible encontrar una hipótesis auxiliar o salvadora para salvar la hipótesis de la modularidad. En
las teorías de reconocimiento de palabras los investigadores han introducido la idea de los procesos
posteriores al acceso; en la sintaxis y el análisis gramatical han propuesto un procesamiento en paralelo
con una toma de decisiones diferida.

9
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Tanto Fodor como Pinker, exponentes líderes de la opinión de que el lenguaje es muy modular y tiene
una base innata significativa, ofrecen una visión filosófica más general: la modularidad es inconsistente
con el relativismo, la idea de que todo es relativo respecto a todo lo demás y que cualquier cosa es posible
(sobre todo ciencias sociales). Los modelos proporcionan un marco fijo en el que estudiar la mente.

La existencia de una disociación neuropsicológica entre dos procesos suele aceptarse como
demostración de la modularidad de los procesos implicados. Cuando se analiza la neuropsicología de la
modularidad, se puede hablar de:
 Modularidad física: si están localizados los procesos psicológicos en una parte del cerebro.
 Modularidad del procesamiento: en principio, una serie de procesos podrían estar distribuidos por
todo el cerebro y, sin embargo, tener un papel modular en el modelo de procesamiento.

Es posible que los dos tipos de modularidad estén relacionados entre sí, de forma que los módulos
cognitivos se corresponden con los modelos neuropsicológicos.

Farah criticó este supuesto de “localidad” y afirmó que se podían explicar las disociaciones
neuropsicológicas en términos de sistemas distribuidos conexionistas.

Chomsky afirmó que el lenguaje es una facultad especial que no se puede reducir a procesos
cognitivos. Piaget afirmó que el lenguaje es un proceso cognitivo, como cualquier otro, y que el
desarrollo de la lingüística depende del desarrollo cognitivo general.

Incluso teniendo en cuenta que el lenguaje fuera un módulo de autocontenido, tendría que
relacionarse con el resto del sistema cognitivo. Hablamos de lo que pensamos, nuestros pensamientos se
producen frecuentemente en forma verbal, discurso interno, e integramos lo que oímos en nuestra
memoria a largo plazo. El lenguaje desempeña un papel central en nuestra memoria de trabajo, el almacén
de la información a corto plazo.

En cada caso en el que la modularidad constituye un problema, tiene que analizar los datos y
preguntarse si la hipótesis auxiliar es más plausible que la alternativa no modular.

5.2 ¿Es innata alguna parte del lenguaje?

La modularidad también tiene repercusiones más generales. Los investigadores que defienden la
modularidad de los procesos del lenguaje, también defiende que hay una parte significativa de nuestra
capacidad del lenguaje que es innata. El argumento afirma que debe haber en el cerebro módulos bien
definidos o configurados y, por tanto, programados de forma innata, y sistemas complejos y desordenados
que reflejan los efectos del aprendizaje.

Así es, tiene que haber algunos prerrequisitos a la adquisición del lenguaje, aunque sólo sea una
capacidad de aprendizaje general. La pregunta es qué parte tiene de innata.

Los modelos conexionistas sugieren formas en las que las propiedades generales del sistema de
aprendizaje pueden desempeñar el papel de un conocimiento innato específico al lenguaje, y muestran
cómo surge la conducta de interacción entre la naturaleza y la educación a todos los niveles.

10
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

5.3 ¿Utiliza reglas el sistema del lenguaje?

En la lingüística tradicional, gran parte del conocimiento estaba encapsulado en forma de reglas
explícitas.

En los modelos conexionistas, el procesamiento se produce mediante la interacción de muchas


unidades sencillas interconectadas entre sí. Los modelos conexionistas que pueden aprender son
particularmente importantes. En estos modelos se aprende por repetición; las conexiones entre unidades
cambian para codificar las regularidades del entorno. La idea general subyacente al aprendizaje puede
resumirse con el aforismos de Hebb: “las células que se disparan juntas se configuran juntas”: la
activación simultanea de las células (unidades) genera una mayor fortaleza (conexión) sináptica.

¿Qué significa la parte de “modelo” del Modelo Conexionista? Los “modelos” nos indican principios
importantes de cómo funciona la mente. Se puede aprender de ellos. Su conducta no es siempre
totalmente predecible, puede variar algo de una situación a otra. El modelado es una idea importante de la
psicolingüística contemporánea.

¿Qué hace que los modelos conexionistas resulten tan atractivos? Resultan más creíbles que la IA,
desde el punto de vista neuronal. Se basan a grandes rasgos en una metáfora del cerebro. Segundo, los
conexionistas suelen intentar minimizar la cantidad de información configurada del sistema, poniendo en
relieve el hecho de fijar la atención en lo que emerge del modelo. En tercer lugar, el conexionismo tiene
la virtud, de que al escribir un programa informático, uno está obligado a ser explícito en sus supuestos.

El conexionismo tiene 3 grandes consecuencias:


 Hace que se preste atención a los procesos que se producen dentro de las cajas de nuestros modelos.
En algunos casos (Ej.: adquisición del tiempo verbal pasado) esta nueva atención ha generado una
reevaluación detallada de la evidencia que motivó los modelos.
 El conexionismo ha obligado a analizar con detalle las representaciones utilizadas por el sistema del
lenguaje. En concreto, se pueden contrastar los enfoques conexionistas con los enfoques basados en
reglas. En los modelos conexionistas las reglas no están codificadas de forma explícita, sino que
emergen como consecuencia de las generalizaciones estadísticas de los datos de entrada.
 El cambio de énfasis de las reglas de aprendizaje al aprendizaje mediante muchas repeticiones de
casos concretos ha dado lugar a un incremento de los modelos probabilistas de la adquisición y
procesamiento del lenguaje. Los modelos probabilistas han resultado particularmente influyentes en
la adquisición del lenguaje mediante el análisis de estadísticos o de distribución de lo que oyen, más
que mediante reglas de aprendizaje explícitas.

5.4 ¿Son los procesos del lenguaje específicos de cada idioma?

Las ideas sobre lo innato, la modularidad, las reglas y el procesamiento específico del lenguaje están
relacionadas entre sí. Existe una división dentro de la psicolingüística entre los que afirman que hay
modelos innatos específicos al lenguaje que utilizan ampliamente reglas y aquellos que afirman que gran
parte de todo el procesamiento es una adaptación de procesos cognitivos más generales.

11
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

5.5 ¿Tenemos alguna certeza en psicología?

Una cuestión importante que hay que resaltar es que hay muy pocos temas en la psicolingüística en
los que podemos afirmar que conocemos la respuesta a las preguntas con total certidumbre. Tenga la
certeza de que se encontrará con incertidumbre cuando se intenta comprender la psicología del lenguaje.

12
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Capítulo 2: Descripción del lenguaje

1. Introducción

2. Cómo se describen los sonidos del habla

La acústica es el estudio de las propiedades físicas de los sonidos. Una de las formas de describir la
información acústica sobre los sonidos es un espectrograma de sonido (Fig. 2.1), su gráfico muestra la
cantidad de energía en un sonido cuando se representa gráficamente la frecuencia durante el tiempo.

Formantes son los picos de energía en determinadas frecuencias, su estructura es una característica
importante de los sonidos en el habla. Todas las vocales, y algunas consonantes tienen formantes. El
patrón de los formantes es particularmente importante para distinguir las vocales.

Podemos distinguir los sonidos del habla en dos niveles:


 La fonética describe el detalle acústico de los sonidos del habla (sus propiedades físicas) y cómo se
articulan.
 La fonología describe las categorías de sonidos que utiliza cada idioma para dirigir el espacio entre
los posibles sonidos. Existen idiomas en que la aspiración marca la diferencia en el significado de
las palabras.
o Sonidos aspirados: un sonido que se produce con una exhalación audible (Ej.: la “p” de la
palabra inglesa “pin”).
o Sonidos no aspirados: un sonido que se produce sin la exhalación audible (Ej.: la “p” de la
palabra inglesa “spin”)

Un fonema es una unidad básica de sonido de un determinado idioma; el cambio de un fonema puede
alterar el significado de una palabra. Se dice que dos fonos son distintos, cuando son una expresión de un
mismo fonema en determinado idioma si la diferencia entre ambos nunca marca una diferencia en el
significado de las palabras.
 Los fonos distintos que se comprenden como el mismo fonema en un idioma se denominan alófonos.

Se utiliza una notación especial para diferenciar entre fonos y fonemas, corchetes para los fonos y
barras diagonales para los fonemas. La fonética es el estudio de los fonos y la fonología el estudio de los
fonemas. Existen tres tipos de fonética en función de lo que se quiera poner en relieve:
 Fonética articulatoria: pone de relieve cómo se hacen los sonidos.
 Fonética auditiva o perceptiva: pone de relieve cómo se perciben los sonidos.
 Fonética acústica: pone de relieve la forma de la onda de sonido y las propiedades físicas.

Pares mínimos: dos palabras de un idioma que sólo difieren en significado sólo cuando se cambia un
sonido (“beso” y “peso”). También se puede hablar de conjuntos mínimos de palabras que difieren todas
en un solo fonema en la misma posición. Como se puede ver, la sustitución de un fonema por otro genera,
un cambio de significado, sin embargo, cambiar un fono por otro (“p” aspirada o sin aspirar” no tiene por
qué cambiar necesariamente el significado.

El Alfabeto Fonético Internacional (AFI) es un método normalizado para representar los sonidos.
(Tabla 2.1). La Pronunciación Recibida (PR) es el acento supuestamente bien educado y de gran prestigio.

1
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

La ventaja del alfabeto AFI es que es posible representar las distintas formas de pronunciar lo mismo (Ej.:
Inglés Británico y estadounidense).

Se habla moviendo partes del tracto vocal, incluyendo los labios, los dientes, la lengua, la boca y la
laringe. (Fig. 2.2). La principal fuente de sonidos es la laringe, que modifica el flujo de aire proveniente
de los pulmones y produce un intervalo de frecuencias más altas denominadas armónicas. A continuación
se producen sonidos distintos cambiando la forma del tracto vocal:
 Las vocales se generan modificando la forma del tracto vocal, que permanece más o menos abierto
cuando se está produciendo éste sonido. La posición de la lengua modifica el intervalo de armónicas
producidas por la laringe.
 Las consonantes (como p, b, t, d, k, g) se producen cerrando o restringiendo parte del tracto vocal al
principio o al final de una vocal. Esta descripción sugiere que la forma de analizar la relación entre los
sonidos consiste en fijarse en su lugar de articulación., es decir el lugar donde se cierra o restringe el
tracto vocal. Las distintas características de contraste que se necesitan para describir los sonidos se
denominan características distintivas.

2.1 Vocales

Las vocales se generan con un flujo de aire relativamente libre. La naturaleza de la vocal viene
determinada por la manera en que la forma de la lengua modifica el flujo del aire. (Tabla 2.2). Se pueden
combinar dos sonidos de vocales para crear un diptongo.

2.2 Consonantes

2.3 Las consonantes se forman cerrando o restringiendo parte del tracto vocal al pasar el aire. Se
clasifican las consonantes en función de (Tabla 2.3):

 Lugar de articulación, independientemente de que se pronuncien o no. Es la parte del tracto vocal que
se cierra o constriñe durante la articulación. Ej.: /p/ y /b/ bilabiales.
Para comprender la diferencia entre /b/ y /p/, se tiene que introducir el concepto de fonación, las
consonantes producidas con la vibración de las cuerdas vocales:
Consonantes sonoras: /b/ cuando las cuerdas vocales están cerradas y vibran desde el momento en que
se abren los labios.
Consonantes áfonas (o sin voz o sordas): /p/ hay un breve lapso, mientras las cuerdas vocales se
separan al pasar primero el aire entre ellas; de aquí que requieren cierto tiempo para vibrar.
Tiempo de comienzo de la voz (Voice onset time –VOT-): tiempo entre que se libera la constricción
del flujo de aire cuando producimos una consonante y el momento en que empiezan a vibrar las
cuerdas vocales.
Consonantes alveolares: pronunciadas /d/ y áfonas /t/: estos sonidos se hacen poniendo la parte
delantera de la lengua en el arco alveolar.
Consonantes dentales: // y //: se forman poniendo la punta de la lengua detrás de los dientes
frontales superiores.
Consonantes labiodentales /f/ y /v/: se forman poniendo el labio interior contra los dientes superiores.

2
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Consonantes postalveolares /r/ entre otras: se hacen poniendo la lengua hacia la parte delantera de la
parte dura del cielo de la boca, el paladar, cerca del arco alveolar.
Consonantes palatales /j/ y /y/ se hacen poniendo la lengua en medio del paladar.
Consonantes velares /k/ y /g/ se producen poniendo la lengua contra el velo.
Consonantes sin utilizar la lengua, la glotis es el nombre del orificio entre las cuerdas vocales y la
laringe.
Consonante áfona fricativa gutural /h/: la constricción de la laringe en la glotis.
Golpe de glotis: un sonido que se produce al cerrar y abrir la glotis (apertura entre las cuerdas
vocales)
 Forma en que se articulan: es la forma en que se constriñe el flujo de aire al hablar.
Oclusivas /p/, /b/, /t/, /d/: cuando el flujo de aire queda totalmente interrumpido por un breve periodo
de tiempo.
Fricativas /f/, /v/, /s/: Se forman restringiendo el flujo de aire de forma que el aire pasa con un sonido
sibilante.
Africadas son una combinación de una breve parada del flujo de aire seguida de una constricción.
Líquidas /l/, /r/: se producen permitiendo que fluya el aire en torno a la lengua al tocar el arco
alveolar.
Nasales /n/, /m/: cuando con el velo elevado se permite que el aire salga por la nariz.
Deslizantes o semivocales /w/, /y/ del inglés: son sonidos de transición producidos por la lengua al
moverse de la posición de una vocal a otra.

2.4 Estructura de nivel superior de los sonidos.

Las palabras se dividen en unidades rítmicas denominadas sílabas. Monosílabas: tienen una sola
sílaba. Las sílabas se pueden analizar en función del:
 Ataque o arranque: es una consonante o grupo inicial.
 Rima: compuesta por un núcleo que es la vocal central y una, coda, que incluye las consonantes
finales.

Características suprasegmentales: características de palabras y sílabas que pueden contener más de un


fonema, como la entonación, la acentuación y el ritmo. La entonación y la acentuación determinan el
ritmo de un idioma. Los idiomas difieren mucho en cuanto a su ritmo.

Compás de acentuación: se dice que el inglés es de este tipo, las silabas acentuadas se producen en
períodos de tiempo aproximadamente iguales.

Compas de sílabas: francés, las sílabas se producen en un flujo continuo.

Idiomas tonales: los idiomas que utilizan el tono para contrastar significados.

3. Enfoques lingüísticos de la sintaxis

La obra del lingüista norteamericano Noam Chomsky ha sido influyente en la detección de las
limitaciones de la potencia del lenguaje humano, y cómo debe describirse mejor.

3
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

3.1 La teoría lingüística de Chomsky

La obra de Chomsky parte de dos ideas: 1) las relaciones entre lenguaje y cerebro, y cómo adquieren
los niños el lenguaje; 2) una descripción técnica de la estructura del lenguaje. Afirmó que el lenguaje es
una característica especial que es innata, específica a cada especie y biológicamente programada, y es una
facultad independiente de otras estructuras cognitivas.

Para Chomsky, el objeto de estudio consiste en la gramática, es decir, en describir el conjunto de


reglas sintácticas del lenguaje; lo que nos permite producir y comprender el lenguaje. Distingue entre:

 Competencia: es nuestro conocimiento de nuestro idioma. La competencia lingüística es a lo que


recurre nuestra intuición para ver que frases son aceptables. La competencia hace referencia a nuestro
conocimiento abstracto de nuestro idioma, a la valoración que haríamos sobre el lenguaje si
tuviéramos suficiente tiempo y capacidad de memoria.
 Conducta lingüística real: se trata de las frases que utilizamos realmente. Está muy limitado por los
factores de la competencia. Las frases que producimos realmente suelen utilizar las construcciones
gramaticales más sencillas.

En trabajos más recientes Chomsky diferenciaba entre:


 Lenguaje externalizado (E-language): la lingüística de este lenguaje debe recopilar muestras del
lenguaje y comprender sus propiedades; en concreto, se trata de describir las regularidades de un
lenguaje en el formato de una gramática.
 Lenguaje internalizado (I-Language): trata de lo que saben las personas sobre su propio idioma. Para
Chomsky, el principal objetivo de la lingüística moderna debería ser especificar el lenguaje
internalizado: se trata de producir una gramática que describe nuestro conocimiento del lenguaje. La
competencia es una faceta del lenguaje internalizado.

El lenguaje internalizado se ocupa de fenómenos mentales mientras que el lenguaje externalizado se


ocupa de los fenómenos sociales.

De forma generalizada, se puede decir que la psicolingüística está más interesada en la conducta
lingüística, y la lingüística en la competencia. De todas formas, la lingüística proporciona el marco
conceptual para describir y reflexionar sobre la sintaxis, y sus teorías imponen posibles restricciones a la
adquisición del lenguaje.

Gramática generativa: un conjunto finito de reglas que producirá o generará todas las frases de un
idioma, pero no frases sin sentido. Chomsky afirmó que una gramática debe poder explicar la estructura
sintáctica subyacente de las frases. Las estructuras de las frases que crea una gramática deben capturar
nuestras intuiciones sobre cómo se relacionan las frases y los fragmentos de las frases. La teoría de la
lingüística debería explicar cómo adquieren los niños estas reglas.

El tema central de la teoría de Chomsky es que el idioma está basado en reglas, y nuestros
conocimientos sintácticos se pueden capturar en un número finito de reglas sintácticas. El lenguaje
implica reglas, incluso si no siempre somos conscientes de las mismas.

4
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

3.2 Descripción de la sintaxis y de la gramática sintagmática

Chomsky propuso que las Reglas sintagmáticas son un elemento esencial de nuestra gramática,
aunque no son el único componente. En el lenguaje se pueden construir frases combinando palabras
siguiendo reglas.

Las reglas sobre la estructura de los sintagmas describen como deben combinarse las palabras, y
proporcionan un método para describir la estructura de una frase. La idea central es que las frases se crean
jerárquicamente a partir de unidades más pequeñas utilizando reglas de reescritura, este conjunto de
reglas constituye una gramática de la estructura de los sintagmas. Las reglas de reescritura son
sencillamente reglas que traducen un símbolo en el lado izquierdo de la regla en uno de los lados del
derecho. En una gramática sintagmática hay dos tipos de símbolos:
 Elementos terminales: compuestos de elementos del vocabulario o palabras.
 Elementos no terminales: el resto, todos los demás.

Las reglas de la gramática se ocupan de categorías de palabras que comparten propiedades


gramaticales. Existen diferentes clases:
 Sustantivos: para nombrar objetos o ideas, tanto concretas como abstractas.
 Adjetivos: para describir.
 Verbos: para describir estados o acciones, o una aseveración.
 Adverbios: palabras que califican verbos.
 Determinantes: determinan el número de sustantivos a los que modifican.
 Preposiciones: palabra gramatical que expresa una relación.
 Conjunciones: una parte del discurso que conecta las palabras dentro de una frase.
 Pronombres: clase gramatical del palabras que pueden sustituir a los sustantivos o conjunciones
nominales.

Se pueden diferenciar dos tipos de palabras:


 Palabras de contenido: realizan la mayor parte del trabajo semántico del lenguaje, es decir, transmiten
la mayor parte del significado de una frase: sustantivos, verbos, adjetivos, adverbios. Las palabras de
contenido son lo mismo que las palabras de clase abierta frente a las palabras funcionales.
 Palabras funcionales: un limitado número de palabras que realizan el trabajo gramatical del lenguaje:
los determinantes, conjunciones, preposiciones y pronombres. Son lo mismo que las palabras de
clase cerrada frente a las palabras de contenido.

Las palabras se combinan para crear fases o sintagmas:


 Las frases expresan una única idea. Se combinan para formar oraciones, e incluyen:
o Sujeto: palabra o sintagma sobre el cual trata la frase: sobre lo que se predica (afirma) algo. El
sujeto del verbo: quién o qué esta haciendo algo. Más formalmente es una categoría gramatical del
sintagma nominal inmediatamente debajo del nodo de la frase en el árbol de la estructura del
sintagma; aquello sobre lo que se afirma algo.
o Predicado: la parte del la oración que da información sobre el sujeto.
 Sintagma nominal: sintagma gramatical basado en un sustantivo, abreviado a SN.

5
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

La idea esencial de la gramática sintagmática es el análisis de las frases en sus elementos


componentes de nivel inferior, como sintagmas nominales, sintagmas verbales, sustantivos y los verbos.
Este enfoque se conoce a veces como, el análisis basado en constituyentes, que son los elementos que
componen construcciones más grandes.

Otros dos conceptos sintácticos importantes:


 Objeto de una frase: la persona, cosa o idea sobre la que actúa el verbo. Los objetos pueden ser
directos o indirectos: en la frase “dio el perro al hombre” perro es el objeto directo y hombre objeto
indirecto.
 Sujeto de una frase: es el sintagma nominal que esta inmediatamente dominado por el elemento de
mayor nivel, el nodo de la frase. El sintagma que actúa como sujeto es el que tiene que cambiar de
posición para formular la pregunta.

Hay distintos tipos de verbos, y cada uno requiere un papel sintáctico distinto para crear estructuras
aceptables:
 Verbos transitivos: requieren un único sintagma nominal denominado Objeto directo. “Besa” es
Verbo Transitivo. Ej. Vampiro Besa a la Bruja.
 Verbos intransitivos: un verbo que no requiere de otro sintagma nominal. “El hombre se ríe”.
 Verbos ditransitivos: requieren dos Sintagmas Nominales llamados Objeto directo y Objeto Indirecto:
“el vampiro da el anillo a la bruja”.

Frase Pasiva: El objeto de la forma activa se ha convertido en el sujeto gramatical en la forma pasiva.
“El vampiro está siendo pateado por la bruja”

Frases sintácticamente ambiguas: frases que tienen más de una interpretación “Vi a las brujas volando
a América”

Una gramática sintagmática también nos permite describir la estructura sintáctica de una frase
mediante un diagrama de árbol. Fig. 2.4 Los diagramas de árbol son muy importantes en el análisis de la
sintaxis. La estructura subyacente de una frase u oración se denomina, a veces, estructura de la oración o
marcador sintagmático. Las reglas sobre la estructura de los sintagmas nos proporcionan la estructura
sintáctica subyacente de las frases que producimos y comprendemos. Podemos construir frases más
complejas introduciendo conjunciones, Ej.: “El vampiro que ama a Boris se está riendo”

La Recursividad se produce cuando una regla utiliza una versión de sí misma en su definición. Las
reglas recursivas permiten a las frases incluir ejemplos del mismo tipo de frase. Una de las aplicaciones
más importantes de la recursividad consiste en insertar una frase en otra, produciendo frases insertadas en
el medio. “El vampiro al que el hombre lobo odiaba amaba a Ghul”. Este proceso de insertar en el medio
podría proseguir y seguir siendo gramaticalmente correcto, sin embargo sería difícil de comprender. Esta
observación refleja la diferenciación entre competencia y conducta.

La iteración nos permite seguir repitiendo la misma regla de manera indefinida. Ej.: “El simpático
vampiro ama al fantasma, y el fantasma ama al vampiro, y el amable fantasma ama al vampiro, y…”

Hay distintos tipos de gramáticas sintagmáticas:

6
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Gramáticas libres de contexto: sólo incluyen reglas que no son específicas a determinados contextos.
En este tipo, el símbolo del lado izquierdo siempre se puede volver a escribir con el lado derecho
independientemente del contexto en el que se produce, Ej.: la escritura de un verbo en su forma
singular o plural depende del sintagma nominal precedente.
 Gramáticas sensibles al contexto: pueden tener reglas que sólo se pueden aplicar en determinados
casos.

 Transformaciones

Chomsky afirmó que la gramática sintagmática no es capaz de capturar nuestra competencia


lingüística.

La gramática sintagmática no es capaz de capturar algunas relaciones. Chomsky demostró que el


conocimiento de estas relaciones podría indicarse mediante la introducción de reglas de reescritura
especiales conocidas como transformaciones. Las transformaciones son tan centrales en su teoría que todo
el enfoque terminó siendo conocido como la gramática transformacional. Una transformación es un tipo
especial de regla de reescritura que parte de una serie de símbolos en el lado izquierdo, y vuelve a escribir
esta serie como otra serie en el lado de la derecha (transformación de una frase activa en una pasiva)

Un auxiliar es un verbo especial, un verbo vinculante utilizado con otros verbos Ej.: “tienes que haber
hecho eso”, “tienes” y “haber” son auxiliares.

Chomsky postuló muchos tipos de transformaciones, Ej. Se puede transformar la declaración


afirmativa de una frase en una pregunta o forma interrogativa, o en forma negativa.

Las transformaciones no sólo capturan nuestras intuiciones sobre cómo están interrelacionadas entre
sí las frases, sino también permiten que se simplifique la gramática, fundamentalmente porque las reglas
que nos permiten volver a reescribir series de palabras como otras series capturan muchas de las facetas
de las dependencias entre palabras.

 Estructura superficial y profunda

Chomsky (1965) presentó una profunda revisión de la teoría, denominada habitualmente teoría
estándar. Los cambios hacían referencia sobre todo a la estructura del sistema lingüístico y a la naturaleza
de las reglas sintácticas. En el nuevo modelo había tres componentes fundamentales:
 Un componente semántico: asignaba significado a las series sintácticas.
 Un componente fonológico: convertía las series sintácticas en series fonológicas.
 Un componente sintáctico: se ocupaba del orden de las palabras. Este a su vez tenía dos componentes:
o Conjunto de reglas básicas: equivalentes a grandes rasgos a las anteriores reglas sintagmáticas.
o Reglas transformacionales.

La ampliación más importante de esta teoría fue la introducción de la diferenciación entre estructura
profunda y superficial, aunque en cierto grado esta diferenciación se encontraba en el modelo anterior. El
modelo revisado establecía que cada frase tenía una estructura profunda y una superficial. Y todas las
transformaciones pasaron a ser obligatorias en tanto en cuanto sus marcadores están representados en la
estructura profunda.

7
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

En la Teoría estándar, el componente sintáctico generaba:


 Estructura profunda: era el resultado de las reglas básicas y constituía el elemento de entrada en el
componente semántico.
 Estructura superficial: era el resultado de las reglas transformacionales y el elemento de entrada de
las reglas fonológicas.

La descripción de las frases en cuanto a su estructura profunda tiene dos ventajas:


 Algunas estructuras superficiales son ambiguas en tanto en cuanto tienen dos estructuras profundas
distintas.
 En la estructura superficial no suele estar claro qué constituye el sujeto y qué constituye el objeto de
la frase.
Ej: La frase “la caza de los vampiros era horrible” ambigua en cuanto a estructura superficial. En la
estructura profunda parafraseada, no hay ambigüedad: “la forma en que cazaban los vampiros era
horrible” y “Fue horrible que se cazara a los vampiros”.
También puede darse una misma estructura superficial y estructuras profundas totalmente distintas:
“Es fácil complacer a Vlad” y “Es fácil que Vlad complazca”.

 Teoría de principios y parámetros, y minimalismo

La “nueva versión estándar de la teoría” se conoció originalmente como la Teoría de la rección y el


ligamiento, pero la expresión teoría de los parámetros y principios se utiliza más en la actualidad. Esto
pone de relieve que hay principios comunes a todos los idiomas y parámetros que varían en cada idioma.

Ha habido una serie de cambios en las versiones más recientes de la teoría:


 El número de transformaciones disminuyó de forma continua.
 La importancia de la estructura profunda también menguó.
 Cuando se mueven los componentes de un lugar a otro, se supone que dejan rastro de su posición
original.
 Se pone un énfasis especial en la palabra más importante de cada frase,
 La teoría revisada permite interponer unidades intermedias entre los sustantivos y los sintagmas
nominales, y entre los verbos y las locuciones verbales. Las reglas se pronuncian en términos de “X-
barra”, expresan X. Las unidades intermedias se pronuncian “Nombre barra” N y “Verbo barra” V, y
se componen de la cabeza de una frase más cualquier argumento esencial. Bajo este enfoque se
diferencian los argumentos esenciales y los añadidos opcionales o modificadores. También existen
argumentos obligatorios y modificadores opcionales en los verbos. El argumento debe estar más cerca
de la cabeza que el añadido.

En la más reciente remodelación de sus ideas, el paradigma minimalista intenta simplificar la


gramática todo lo posible. El principio de economía requiere que todos los procesos y representaciones
lingüísticas sean todo lo económicas posible: el aparato teórico y descriptivo necesario para describir el
lenguaje debería minimizarse al máximo; cuanto menos compleja sea una gramática, más fácil será de
aprender el idioma.

En el minimalismo, el papel de las reglas gramaticales generales y abstractas queda totalmente


abolido. Por el contrario, el lexicón incorpora muchos aspectos de la gramática, Ej.: información sobre la

8
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

manera en que los verbos transitivos adoptan papeles sintácticos se almacena con los verbos en el lexicón
en vez de almacenarse como una regla gramatical abstracta. Las categorías se fusionan para construir
categorías más grandes. Las representaciones léxicas de las palabras especifican características
gramaticales que controlan la fusión de las categorías.

 Teoría de la optimidad y lingüística cognitiva

El minimalismo, aunque importante para los lingüistas no ha tenido repercusión en psicolingüística.

La teoría de la optimidad se ha aplicado a la fonología, la morfología, la semántica y la sintaxis; la


idea principal es que la forma superficial de una expresión emana de la resolución de los conflictos entre
representaciones subyacentes. Comparte mucho con los enfoques conexionistas del lenguaje; con ella
elegimos la interpretación óptima disponible en el contexto utilizando todos los datos.

La lingüística cognitiva es el nombre que se le ha dado al enfoque general que pone de relieve el
lenguaje como una faceta de la cognición general. Frente al enfoque de la gramática generativa de
Chomsky, la lingüística cognitiva no considera que exista una facultad del lenguaje separada, y afirma
que procesamos el lenguaje utilizando el mismo tipo de procesos cognitivos que utilizamos en cualquier
otra faceta de la cognición.

3.3 El poder formal de las gramáticas: la teoría de autómatas

La teoría autómata revela algo sobre la dificultad de la tarea que tiene un niño cuando está intentado
aprender a hablar. El estudio de los distintos tipos de gramática y de los dispositivos necesarios para
producirla forma parte de la rama de la lingüística matemática o teoría computacional, denominada teoría
del autómata. Un autómata es un dispositivo que incluye una gramática y que puede producir frases
coherentes con la misma. Parte de una entrada y realiza algunas operaciones elementales, siguiendo
determinadas instrucciones especificadas anteriormente, para generar una salida. – si sabemos cuál es la
complejidad de un lenguaje natural, podemos esperar que imponga ciertas restricciones al poder de la
gramática necesaria para explicarlo.

Se ha definido una gramática como un dispositivo que puede generar todas las frases de un lenguaje,
pero no frases sin sentido. El lenguaje no está restringido al lenguaje natural: puede ser un lenguaje
artificial. Hay muchas gramáticas posibles que se encuentran en un reducido número de categorías
distintivas, cada una con una potencia distinta. Cada gramática se corresponde con un tipo particular de
autómata, y cada tipo produce lenguajes de distinta complejidad.

Para ser capaces de producir un número infinito de frases, nuestra gramática debe incorporar reglas
iterativas y de recursividad. Algunas reglas tienen que ser sensibles al contexto en que se produce la
manipulación de los símbolos. Los lenguajes libres de contexto y los sensibles al contexto, difieren en
cuanto a su necesidad de reglas que se pueden especificar de manera independiente al contexto en que se
producen los elementos.

El tipo autómata más sencillo que conocemos es un dispositivo de estado finito. Se trata de un
dispositivo que pasa de un estado a otro en función sólo de su estado actual y su entrada actual, y produce
lo que se conoce como un lenguaje de tipo 3. El estado actual de un dispositivo de estado finito viene
determinado por algunos números finitos de símbolos previos (palabras). Las gramáticas tipo 3 también

9
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

se conocen como gramáticas lineales a la derecha Fig. 2.25 El dispositivo de estado finito siempre parte
del estado F y, a continuación, lee las palabras de la categoría correspondiente para pasar al siguiente
estado, antes de pasar al siguiente. Termina produciendo frases cuando alcanza el estado final. Se pueden
producir frases más largas si se permite la iteración.
Autómata con pila: es más potente que un dispositivo de estado finito porque tiene memoria; sin
embargo, la memoria es limitada en tanto en cuanto es solo una pila; es un tipo especial de memoria
donde sólo se puede recuperar el último elemento apilado sobre el montón. Genera gramáticas del tipo 2:
se pueden analizar gramaticalmente lenguajes libres de contexto.
Autómata linealmente acotado: Gramáticas tipo 1: tienen una memoria limitada pero puede recuperar
cualquier cosa de la misma. Analizan gramaticalmente lenguajes sensibles al contexto.
Maquina de turing: el autómata más potente, no tiene limitaciones y produce una gramática tipo 0.

Chomsky demostró que no se puede describir el lenguaje natural mediante un dispositivo de estado
finito. En concreto, un dispositivo de estado finito no puede producir arbitrariamente largas secuencias de
múltiples estructuras insertadas en el centro en las que la secuencia de injertos podría prolongarse
indefinidamente. Sólo se puede producir este tipo de frases si el autómata tiene una memoria para
recordar lo que se ha producido hasta ahora. En aquella época las teorías del lenguaje estaban dominadas
por el conductismo y la teoría de la información, y se pensaba que el conocimiento de los estados previos
era todo lo que se necesitaba para explicar el lenguaje humano. Chomsky:
 Demostró que un dispositivo de estado finito no podría producir o comprender el lenguaje natural.
 Una ampliación importante de ese argumento es que los niños no pueden aprender el lenguaje sólo
mediante el condicionamiento.
 Afirmó que ni las gramáticas libres de contexto ni las sensibles al contexto permitían explicar el
lenguaje humano.
 Afirmó que es necesario añadir transformaciones a una gramática sintagmática; la gramática
resultante es Tipo 0 y sólo se puede producir con la máquina de Turing.
 Simplificó las reglas de la estructura de los sintagmas necesarias y proporciona un tratamiento más
elegante del lenguaje.
 Finalmente, existe cierta evidencia lingüística que parece demostrar que la gramática libre de
contexto o la sensible al contexto podrían explicar determinadas construcciones que se encuentran en
el lenguaje natural.

Por lo tanto parece que el lenguaje humano natural sólo puede ser producto de los tipos de gramática
más potentes. Esta conclusión fue desautorizada tras un tiempo por:
 No está claro que todas las dependencias complejas entre las palabras descritas por Chomsky y Postal
sean necesariamente gramaticales.
 Hay una sorprendente demostración formal de Peters y Richie de que se puede tener en cuenta el
contexto sin superar la potencia de una gramática libre de contexto.
 Gazdar, Klein, Pullum y Sag demostraron que los lenguajes libres de contexto pueden explicar
fenómenos del lenguaje natural que se pensaba que requerían la sensibilidad al contexto si se
incorporan categorías sintácticas más complejas a la gramática. Así pues, mientras que un dispositivo
de estado finito es demasiado débil para describir el lenguaje humano, es posible que la Máquina de
Turing se innecesariamente potente.

10
Capítulo 3: Los fundamentos del lenguaje
1. Introducción

2. ¿De dónde provino el lenguaje?


No existe un registro arqueológico del lenguaje y por tanto es imposible saber con certeza en qué
momento se originó. Es posible que algunas palabras fueran onomatopéyicas, que tuvieran un sonido
parecido al que representan (como “cucú” para la llamada de los pájaros). Esta idea general de que el
lenguaje apareció por mimetismo o imitación se denomina teoría del ding-dong, heave-ho o bow-wow.

Se puede proponer que el lenguaje es un producto de la selección natural, o que sería un efecto
secundario de otras adaptaciones exitosas como el incremento del tamaño del encéfalo y con él de la
inteligencia en general. Varios argumentos apoyan la hipótesis del efecto secundario:

No ha habido suficiente tiempo para que algo tan complejo se haya desarrollado en el poco tiempo que ha
pasado desde la separación del hombre de la rama de los otros primates.

No puede existir una gramática intermedia. O hay gramática o no la hay.

Puesto que la posesión de una gramática compleja no proporciona una ventaja selectiva importante, la
evolución no podría haberla seleccionado.

Sin embargo, la hipótesis de la selección natural es la que ha tomado más fuerza. Resulta evidente que la
gramática evolucionó para comunicar representaciones cognitivas existentes y que el sistema de
comunicación basado en una gramática confiere una gran ventaja evolutiva.

La capacidad de un lenguaje (y con él el manejo de símbolos) debió surgir al aumentar el tamaño y la


complejidad del cerebro hace entre 2 millones de años y 300 mil años, cuando el homo sapiens se diferenció
de otras especies. En los primeros homínidos ya existía el área de Broca. La forma de la calavera humana ha
cambiado a lo largo del tiempo, Ej.: el Neanderthal no tenía la agilidad de la lengua para hablar que tuvieron
sus primos sapiens, y a la vez los sapiens, al tener el aparato fonador que tienen corren más riesgo de morir
asfixiados al tragar que otros simios, por lo que la ventaja del lenguaje supera el riesgo.

Bickerton ha defendido la idea de un protolenguaje entre los primates y los humanos, de hecho se le
asigna esta capacidad al homo erectus. El protolenguaje tiene etiquetas vocales relacionadas con los
conceptos, pero no tiene una sintaxis correcta. Se diferencia del lenguaje por la potencia de la sintaxis. Los
simios a los que se les enseña lenguaje de signos, niños muy pequeños o los que no tienen una estimulación
lingüística temprana tienen este tipo de lenguaje.

La configuración social de los primeros humanos tuvo que desempeñar un papel en la evolución del
lenguaje, pero muchos otros animales, tienen organizaciones sociales complejas y, aunque los primates
también tienen un rico repertorio de llamadas y gestos de alarma, no desarrollaron un lenguaje.

Es improbable que el lenguaje haya evolucionado en un solo paso o que dependa de un único gen. La
evidencia empírica sugiere que algunos aspectos del lenguaje (especialmente de la gramática), han
evolucionado junto con la mutación de un gen específico, el FOXP2. En los animales, este gen está
involucrado en la coordinación de la información sensorial y motriz y con movimientos complejos
habilidosos. En los humanos, cuando se daña el gen FOXP2 se generan dificultades en la adquisición normal
del lenguaje. La mutación en los humanos surgiría hace unos 100 mil años, lo que aumentaría el tamaño del
área de Broca y posibilitaría la comunicación sin depender de gestos, dejando libres las manos.

Paget propuso que el lenguaje había evolucionado en íntima conexión con la utilización de gestos
manuales, de forma que los gestos vocales se desarrollaron para ampliar el repertorio disponible. Corballis
afirmó que la evolución del lenguaje liberó a las manos, de tener que hacer gestos para comunicarse, de
manera que se podían utilizar herramientas de manera simultánea con la comunicación. Afirma que el
lenguaje surgió de los gestos de los primates. La evidencia empírica proviene de los estudios de imágenes
que demuestran que los cerebros de los simios están especializados de forma muy parecida a las de los
humanos.

Los chimpancés y los gorilas, al igual que los humanos, tienen los hemisferios asimétricos, teniendo el
área 44 de Brodmann más grande en el izquierdo, probablemente involucrada en la producción de los gestos
y que corresponde al área de Broca de los humanos. Por tanto los humanos disponían de una especialización
en la producción de gestos lateralizada, lo que permitió que el lenguaje evolucionara desde esos gestos, que
cada vez permitieron la incorporación de vocalizaciones, provocando la laterización y especialización de la
mano derecha en humanos (no todos los animales tienen esta especialización en la mano derecha, la mayoría
no presentan dominio en la realización de gestos) La relación entre evolución y lenguaje pudo haber sido
más compleja:

Elman propone que el lenguaje surge de continuos ajustes y reajustes que interactuaron entre sí.

Deacon afirma que lenguaje y cerebro evolucionaron conjuntamente de forma interactiva, convergiendo
hacia una solución común a problemas cognitivos, sensoriales y motores que tenía que afrontar el
organismo. Los gestos simbólicos y las vocalizaciones precedieron al lenguaje a gran escala. A medida
que el córtex frontal se agrandaba, el procesamiento simbólico adquirió más importancia y se hicieron
necesarias las habilidades lingüísticas para gestionar el procesamiento de símbolos, lo que llevó a la
evolución del aparato del habla para ejecutar esas habilidades, lo que a su vez llevó a más capacidad para
el procesamiento simbólico.

Fisher y Marcus proponen que el lenguaje no fue una única innovación a gran escala, sino una compleja
reconfiguración de varios sistemas que se adaptaron para formar el lenguaje.

3. ¿Tienen los animales lenguaje?


3.1 Sistemas de comunicación animal

La comunicación es la transmisión de una señal que envía información, a menudo de tal manera que el
emisor se beneficia de la respuesta del receptor.

El canal es el medio que transmite la información (como un color o un sonido). Se puede distinguir entre:

Señales comunicativas (con un elemento de diseño o intencionalidad en ellas) y

Señales informativas (que no tienen ese diseño ni la intencionalidad). Si toso informo de que tengo un
resfriado, pero eso no es comunicación, si lo digo ya sería comunicación.

Existen una amplia variedad de métodos para transmitir información:


Las hormigas recurren a mensajeros químicos, las feromonas.

Las abejas producen la “danza de la abeja”; un baile en forma de 8 donde el eje central indica dónde está
el néctar con respecto al sol y el ritmo representa la distancia.

Los primates utilizan señales visuales, auditivas, táctiles y olfativas. Usan una amplia variedad de
llamadas para simbolizar una serie de características del entorno y sus estados emocionales. Tienen una
llamada para serpientes, otra para águilas y otra para leopardos. Cada una de ellas genera respuestas
distintas en sus compañeros y estas señales sólo se producen en presencia del estímulo. Pero además se
comunican sobre estímulos que aún no disponen de una señal fija, por lo que se piensa que emplean la
creatividad a la hora de comunicarse.

Se suele decir que los delfines y las ballenas tienen un lenguaje, pero esto no se ha demostrado. Los
delfines usan secuencias de subunidades para comunicarse, pero se ha visto que este sistema es explicable
en términos de condicionamiento, se produce aunque no haya otros delfines cerca. Las ballenas cantan
una canción con subpartes ordenadas, pero no se conoce su función.

3.2 Definición del lenguaje

El diccionario define el lenguaje como “el habla humana… un sistema artificial de señales y símbolos
con reglas para crear comunicaciones inteligibles para su uso, por ejemplo en una computadora”. Es difícil
definir la palabra lenguaje; hasta cierto punto, el objetivo de la lingüística teórica moderna consiste en
ofrecer una respuesta a esta pregunta.

Se plantea la cuestión de que la diferencia entre comunicación animal y lenguaje sea una mera cuestión
de grado.

 Características del diseño

Hockett, en 1960, evitando dar una definición de lenguaje, elaboró una lista con 16 propiedades generales
o características del diseño del lenguaje humano hablado:

Tabla 3.1

1) Canal vocal auditivo (la comunicación se produce cuando el emisor habla y el receptor escucha).

2) Transmisión difundida y recepción direccional (una señal sale en todas direcciones de la persona
que habla pero puede ser localizada en el espacio por la persona que escucha)

3) Desaparición rápida (una vez dicho, la señal desaparece rápidamente y ya no está disponible
para ser inspeccionada)

4) Intercambiabilidad (los adultos pueden ser tanto emisores como receptores)

5) Retroalimentación completa (los que hablan pueden acceder a todo lo que producen)

6) Especialización (la cantidad de energía en la señal no es importante; una palabra significa lo


mismo se diga en un susurro o a gritos)
7) Semántica (las señales significan algo: están relacionadas con las características del mundo)

8) Arbitrariedad (estos símbolos son abstractos; excepto por unas pocas excepciones
onomatopéyicas, no se parecen a lo que representan)

9) Discrecionalidad (el vocabulario está compuesto por unidades discretas)

10) Desplazamiento (se puede usar el sistema de comunicación para hacer referencia a cosas
distantes en el tiempo y en el espacio)

11) Apertura (capacidad de inventar nuevos mensajes)

12) Tradición (se puede enseñar y aprender el lenguaje)

13) Dualidad de los patrones (sólo tienen significado las combinaciones de unidades que, de lo
contrario, carecen de significado; se puede considerar que esto es aplicable tanto a los sonidos y
las palabras como a las palabras y frases)

14) Duplicidad (el lenguaje proporciona la capacidad de mentir y engañar)

15) Reflexividad (podemos comunicarnos sobre el propio sistema de comunicaciones)

16) Capacidad de ser aprendido (la persona que domina un lenguaje puede aprender otro)

El énfasis de estas características está puesto en el lenguaje hablado. No todas son definitorias (se puede
prescindir de algunas y sigue existiendo el lenguaje). Como las más importantes podemos destacar;
semántica, arbitrariedad, desplazamiento, apertura, tradición, dualidad de los patrones, duplicidad y
reflexividad. Todas ellas hacen referencia a que el lenguaje tiene que ver con el significado y nos
proporcionan la capacidad de comunicarnos sobre cualquier cosa.

La sintaxis tiene cinco propiedades importantes:

El lenguaje es un sistema combinatorio discreto: cuando se combinan las palabras creamos un nuevo
significado: los significados de las palabras no sólo se fusionan sino que mantienen su propia identidad.

Las frases bien ordenadas dependen de la ordenación sintáctica de categorías de palabras (como
sustantivos y verbos) en la secuencia correcta.

Las frases se construyen en torno a los verbos, que especifican qué va con qué.

Podemos diferenciar palabras que realizan el trabajo semántico del lenguaje de aquéllas que
desempeñan el trabajo sintáctico del lenguaje.
La recursividad (oraciones que incluyen ejemplos de sí mismas) nos permite construir un infinito
número de frases a partir de un número finito de reglas.

Ningún sistema de comunicación animal posee estas propiedades. Muchos animales poseen sistemas de
comunicación simbólicos ricos que les permiten transmitir mensajes a otros miembros de la especie, que
afectan a su conducta y que cumplen muchos de los requisitos de Hockett. Pero estos sistemas carecen de la
riqueza del lenguaje humano, que se manifiesta en nuestra capacidad ilimitada de hablar de cualquier cosa
usando un número finito de palabras y reglas para combinarlas. Por tanto no se puede hablar de grados en las
diferencias entre lenguaje humano y sistema de comunicación animal, es un salto cualitativo, los sistemas de
comunicación no humanos son bastante distintos del lenguaje.

3.3 ¿Podemos enseñar el lenguaje a los animales?

Es posible que algunos animales tengan el aparato biológico y cognitivo necesario para adquirir el
lenguaje pero no hayan tenido que hacerlo en sus nichos evolutivos. El planteamiento alternativo es que los
animales son incapaces de aprender un lenguaje. Algunos creen que los perros y los loros conocen algunas
facetas del lenguaje.

Los perros reaccionan a órdenes. Uno llamado Rico conocía el nombre de 200 objetos y era capaz de
ir a por ellos en una casa ante órdenes de su amo aunque no lo estuviera viendo (eliminando el efecto del
“Listo Hans”, que dice que los perros en realidad se guiaban por señales emitidas por sus amos). Cuando se
le decía un nuevo nombre Rico interpretaba que se trataba de un objeto nuevo, no que ese nombre pudiera
ser un sinónimo de otro que ya conocía (este principio: “un nuevo nombre equivale a una nueva categoría”
es un principio que usan los niños para aprender nuevas palabras). Pero a diferencia de los niños, Rico sólo
conocía el nombre de algunos objetos y no era capaz de relacionar entre sí el significado de las palabras (que
muñeca y pelota son distintos nombres de juguetes). No obstante, este desempeño sugiere que los
mecanismos de aprendizaje general (más que específicos al lenguaje) podrían tener mucho que ver con el
primer aprendizaje de las palabras en la infancia.

Los loros pueden imitar el habla humana. Pepperberg sometió a su loro Alex a un programa de
entrenamiento. 13 años después el animal tenía un vocabulario de unas 80 palabras incluyendo nombres,
adjetivos y algunos verbos. Podía incluso reproducir y comprender secuencias cortas de palabras. Podía
clasificar 40 objetos por colores y composición, comprender conceptos como igual y distinto y contar hasta
seis. Demostró ser capaz de combinar categorías discretas y utilizar adecuadamente categorías sintácticas.
Pero conocía pocos verbos y no era muy capaz de relacionar objetos con verbos, además de que conocía
pocas palabras funcionales, por lo que su competencia era muy limitada.

Se pudo enseñar un lenguaje artificial a delfines negros, un lenguaje basado en elementos visuales con
los brazos y piernas del instructor y otro con una base acústica usando sonidos generados por computadoras
y transmitidos con altavoces submarinos. Sin embargo este trabajo sólo ponía a prueba la capacidad de
comprensión, y no la de producción. Los delfines mostraron tener una capacidad sintáctica limitada, y fueron
incapaces de usar palabras funcionales.

La mayor parte de trabajos sobre enseñanza de lenguaje a los animales incluyen a otros primates, sobre
todo a chimpancés, ya que son los más inteligentes y más parecidos a nosotros. Una característica esencial
del lenguaje humano es que incluye tanto la asociación de un número finito de palabras con determinados
significados o conceptos como la utilización de un número finito de reglas para combinar esas palabras en un
número potencialmente infinito de frases.
3.4 ¿Cuáles son las otras capacidades cognitivas de los chimpancés?

Las capacidades cognitivas de los simios son similares, en términos generales a las de los niños
pequeños. La diferenciación de las habilidades lingüísticas y de otras habilidades cognitivas entre los niños y
los simios tiene importantes repercusiones:

Para muchas tareas básicas, no es imprescindible disponer de un lenguaje.

Existen algunos prerrequisitos no cognitivos del desarrollo lingüístico.

Las limitaciones cognitivas en sí mismas podrían no ser capaces de explicar el fracaso de los simios a la
hora de adquirir un lenguaje.

 Chimpancés parlantes: Gua y Viki

El primer intento de enseñar el lenguaje a los chimpancés fue el de Kellogg y Kellogg en 1933, que
criaron a Gua junto a su propio hijo (este tipo de crianza se denomina educación conjunta o custodia
conjunta). Gua sólo comprendía unas pocas palabras y nunca produjo una sola reconocible.

Hayes crió en 1951 a Viki como a un niño humano. Al cabo de seis años el chimpancé sólo podía
producir 4 palabras mal articuladas, usando sus labios, pero de una manera gutural, por lo que sólo Hayes y
su familia podían entenderla fácilmente. Al final logró comprender más palabras y algunas combinaciones.

La principal limitación de estos primeros estudios es que los tractos vocales de los chimpancés no se
adecuan a la producción del habla y sólo eso podría explicar la falta de progresos. Por tanto no se puede
concluir nada sobre la capacidad lingüística de los primates a partir de estos estudios.

 Washoe

Los intentos posteriores de enseñar a los simios el lenguaje se basaban en sistemas que utilizaban el
lenguaje de signos, o la manipulación de signos creados artificialmente, evitando así el problema del tracto
vocal en los chimpancés.

Washoe fue capturada en la selva cuando tenía un año y fue criada como un niño humano. Aprendió a
comer, a ir al retrete, jugar y otras actividades sociales. También se le enseñó el Lenguaje de Signos
Americano (ASL), que también tiene una sintaxis y palabras. Con 4 años podía producir unos 85 signos y
comprendía más. Unos años más tarde su vocabulario había aumentado hasta los 200 signos, que eran
sustantivos, adjetivos, negaciones, verbos y pronombres.

Cometía errores de exceso de generalización, como los niños pequeños (como llamar “flor” a todos los
olores parecidos a las flores o “daño” para tatuaje). Cuando desconocía un signo, se inventaba uno nuevo,
como cuando vio un pato por primera vez e hizo los signos de “pájaro” y “agua”, creando una frase. Además
combinaba signos y los usaba correctamente en series de hasta 5 palabras (como “por favor abre puerta
rápido”). Podía contestar preguntas de las denominadas WH en inglés (who?, when, what?, where?...) y era
sensible a cierta colocación de las palabras (como “yo cosquillas a ti” o “tú cosquillas a mí”).

Además Washoe enseñó algunos signos a Louis (su hijo adoptado), y Louis aprendía espontáneamente
signos de su madre. Esto podría ser mera transmisión cultural, no queda claro de si se está enseñando un
lenguaje o un mero sistema de comunicación como el de la selva.
 Sarah

Premack (1971-1986) adoptó un planteamiento distinto. Sarah era una chimpancé enseñada en un
laboratorio a manipular pequeños símbolos de plástico que variaban en cuanto a forma, tamaño y textura.
Estos símbolos se podían ordenar siguiendo una serie de reglas. Juntos los símbolos y las reglas formaban un
lenguaje denominado premaqués; Ventajas:

Se necesita una cantidad menor de memoria ya que el animal tiene ante sí toda la gama de símbolos a
usar.

Sarah produjo fundamentalmente conceptos léxicos sencillos (series de artículos juntos que describían
objetos o acciones sencillas) y podía generar nuevas series de símbolos, pero estas series las formaba
cambiando unas palabras por otras (de “Randy da una manzana a Sarah” a “Randy da un plátano a Sarah”).
Producía frases bastante complejas (como el uso de “si… entonces”) y mostró una sensibilización
metalingüística (reflexividad) en tanto que podía hablar sobre el propio sistema de lenguaje usando símbolos
como “es el nombre de…”. Sin embargo había escasa evidencia de que Sarah estuviera usando los símbolos
para formar unidades sintácticas correctas.

 Nim y otros

Nim fue enseñado a usar el ASL y aprendió 125 signos, registrando los investigadores más de 20.000
expresiones en dos años, muchas de ellas con dos o más significados en combinación. Había una regularidad
en el orden de las expresiones de dos palabras: el lugar se solía mencionar en segundo lugar pero desaparecía
en las expresiones más largas, que se caracterizaban más por repeticiones (yo plátano comer plátano comer),
que por una estructura sintáctica. Nim apenas hacía el 10% de sus expresiones de manera espontánea, el
resto eran respuestas a instrucciones y hacían referencia a actividades inmediatas como comer, beber y jugar.
El 40% eran repeticiones de los signos que acababan de hacer los experimentadores. Se dijo que el entorno
de instrucción podía haber afectado a su desempeño, ya que era mejor en un contexto de conversación.

También se ha intentado enseñar a los primates el lenguaje mediante símbolos controlados por una
computadora. Eran estructurados y seguían una sintaxis inventada (llamada Yerkish). Los símbolos que
sirven de palabras se denominan lexigramas.

 Evaluación de los primeros intentos de enseñar un lenguaje a los simios

Todas las características del diseño importantes de Hockett parecen presentes:

Discrecionalidad: signos específicos para representar determinadas palabras.

Desplazamiento: hacer referencia a objetos que no están a la vista.

Reflexividad: podía hablar sobre el propio sistema de símbolos.

Apertura: se podían combinar los símbolos de manera novedosa.

E incluso tradición.

Aún más importante es la afirmación de que se siguen determinadas reglas sintácticas de ordenación, es
decir, que aparentemente han adquirido una gramática.
Hasta aquí esto apoya las tesis de diferencia de grados entre el lenguaje humano y el de otros animales.
Pero hay muchísimos problemas metodológicos, argumentos y contrargumentos y problemas de
contrastación utilizados y cómo se deben interpretar los resultados. Ha habido dos fuentes de debate:

Críticas metodológicas: El ASL no es arbitrario, ya que muchos signos reflejan realmente lo que
representan (por ejemplo “conducir” es hacer el gesto de girar un volante). Al ser esto así se podría
rechazar la investigación por irrelevante ya que los simios no están empleando un lenguaje simbólico.
Sin embargo los signos de Premack sí lo son, y en el caso del ASL no todos los signos siguen esa regla
de no arbitrariedad. Pero sí al menos el ASL es un lenguaje condensado, donde se omiten los artículos
(y esto podría afectar positivamente al desempeño de los chimpancés). También se ha dicho que los
investigadores pudieron exagerar las interpretaciones de que los simios estuvieran realizando gestos con
significado cuando en realidad no lo hacían. Ya que había personas sordas que ante los signos de los
chimpancés veían “menos” cosas que los investigadores. Cuando a Sarah le cambiaron de investigador
su desempeño disminuyó considerablemente.

Procedimientos de contrastación utilizados, y la discusión de cómo deberían ser interpretados

En estas primeras investigaciones no llegó ningún chimpancé a saber todo el lenguaje de signos, sólo en
parte. La repetición de palabras era una constante “tú plátano mi plátano dar plátano” lo que sin repeticiones
hubiera sido un logro mucho mayor y hubiera sido más parecido al lenguaje infantil. Abundan las
imitaciones de signos realizados inmediatamente antes por los humanos, mientras que son raras las
realizaciones de signos auténticamente creativas.

Tabla 3.2 Diferencias entre lenguaje de


los simios y los seres humanos:

SIMIOS NIÑOS

Las expresiones hacen referencia Las expresiones pueden implicar desplazamiento


fundamentalmente al aquí y ahora temporal

Ausencia de estructura sintáctica Clara estructura y coherencia sintáctica

Escasa comprensión de las relaciones sintácticas Capacidad de identificar relaciones sintácticas entre
entre unidades unidades

Necesita una formación explícita para utilizar No necesita formación explícita para utilizar símbolos
símbolos

No puede rechazar frases mal formadas Pueden rechazar frases mal formadas

Rara vez plantea preguntas Pregunta con frecuencia

No se utilizan símbolos como referencia de forma Se usan como referencia los símbolos de manera
espontánea espontánea

Finalmente no está claro que los simios usen el


lenguaje para ayudarlos a razonar
Por tanto se puede concluir que tras las primeras investigaciones las capacidades lingüísticas de los simios
son cuanto menos limitadas.

 Kanzi

Forma parte de la investigación reciente con chimpancés pigmeos, que se cree que es más inteligente
que el común, una vida social más amplia y un repertorio comunicativo natural más amplio.

Adquirió primero los símbolos observando la educación de su madre en el Yerkish de lexigramas (no
fue entrenado con refuerzos de manera formal). Después se relacionó con personas en la vida cotidiana y fue
expuesto al inglés. Su capacidad para comprender tanto el Yerkish como el inglés ha sido comparada con la
de niños pequeños (de hecho tuvo indicadores de desempeño similares, o incluso superiores a los de un
niño de 2 años). Con poco menos que 46 símbolos aprendidos y 800 combinaciones. Era sensible al orden de
las palabras y comprendía el significado de los verbos (de “coge” la pelota a “lleva la pelota” así como que
diferenciaba entre “pon la pelota encima del sombrero” y “pon el sombrero encima de la pelota”). El
lenguaje espontáneo suponía el 80% de todas sus expresiones.

Se han puesto en duda tanto sus capacidades semánticas como las sintácticas; Kanzi no muestra indicios
de poseer palabras funcionales, que en realidad al decir fresa no se sabe si quiere comer, ir a donde están…;
No parece capaz de utilizar la morfología: no modula su lenguaje en función del número; y no hay evidencia
de que utilice estructuras gramaticales recursivas.

Kanzi estuvo expuesto al idioma desde bien pequeño, lo que hace pensar en un período crítico de
aprendizaje también el los chimpancés, como pasa con los humanos.

 Evaluación de la enseñanza del lenguaje a los simios

¿Qué se les ha enseñado exactamente a los simios? Es evidente que asocian nombres con acciones y
objetos, pero el lenguaje es más que esto.

Los humanos tenemos un conocimiento amplio y relacionado de los nombres. Los humanos aparte de
nombrar palabras, también conocemos su significado. Sabemos que “árbol” es una palabra que designa todo
un conjunto de características y lo podemos relacionar con otra como “planta”, o que necesita tierra y agua
para crecer, que “hoja” está igualmente relacionada y “raíz” también. Es decir, sabemos cómo se relaciona
conceptualmente la palabra “árbol” con otras palabras. Los humanos no necesitamos utilizar palabras
diferentes en función del contexto.

El simio Nim sabía qué símbolo representaba “manzana” y “plátano” cuando estas frutas le eran
presentadas por separado, pero al hacerlo conjuntamente no sabía qué respuesta dar, lo que sugiere que no
comprende el significado de las palabras de la misma manera que los humanos. En resumen, mientras que
los chimpancés han aprendido claramente las asociaciones entre los símbolos y el mundo, y entre los propios
símbolos, es debatible que hayan aprendido el significado de los símbolos. Sin embargo, Kanzi y otros
simios con exposición temprana y natural podían aprender muy deprisa con sólo unas pocas exposiciones,
además de que podían hacerlo por observación, sin necesidad de apuntar hacia el objeto cada vez que se
decía su nombre.

También, aunque usen en apariencia una sintaxis muy básica, se ha propuesto que el aprendizaje es
mediante “marcos” (por mero condicionamiento), pero no son capaces de un uso creativo de esa sintaxis para
ordenar las palabras. No hay evidencia de que los simios empleen la recursividad. La gramática que usan es
básica, pero no pueden aprender gramáticas complejas humanas, que usan estructuras jerárquicas en las que
existen dependencias a larga distancia entre palabras (entre el “si” y el “entonces” puede haber un montón de
palabras y frases).

Pueden aprender secuencias simples de sonidos (sobre todo en gramáticas inventadas) que tienden a
repetirse juntas (tipo ABABABA), pero son incapaces de aprender secuencias sofisticadas con estructura
jerárquica, que depende del uso de la recursividad (por la que las frases pueden incluir frases del mismo tipo)
que los simios no pueden usar.

Se ha llegado a afirmar que la recursividad es el único componente exclusivamente humano, un recurso


además muy potente. Pero hay otras opciones que rechazan esta teoría, como las características humanas del
tracto vocal y el gen FOXP2, exclusivo humano y además no relacionado con la recursividad, de hecho hay
lenguas humanas (como la de los Piraha), que no usan la recursividad.

Por tanto, sólo los humanos hacen una representación sofisticada del significado, los simios, a los
sumo, han adquirido un protolenguaje.

¿Por qué es tan importante esta cuestión?

El debate ha llevado a una comprensión más profunda de la naturaleza del lenguaje y de lo que es
importante para él.

Aunque las capacidades cognitivas de los niños pequeños y las de los chimpancés no son muy
distintas, sus capacidades lingüísticas si lo son. Lo que sugiere que los procesos del lenguaje, son en
cierta medida, independientes de los procesos cognitivos.

Chomsky afirmo que el lenguaje humano es una facultad especial, independiente de otros procesos
cognitivos, con una base biológica específica y que sólo ha evolucionado en los humanos. El lenguaje
surgió porque el cerebro superó determinado umbral en cuanto al tamaño “el lenguaje es específico a
la especie y tiene base innata”; aunque una expresión mejor sería “Algunos componentes del lenguaje
son específicos a la especie”. Solo los humanos poseen un “dispositivo de adquisición del lenguaje” –
DAL- (Chomsky).

La capacidad de utilizar reglas sintácticas recurrentes, que es lo que da al lenguaje toda su potencia, es
exclusiva de los humanos. Mientras que los niños adquieren un lenguaje, a los simios hay que
enseñárselo.

4. La base biológica del lenguaje

4.1 ¿Están localizadas las funciones del lenguaje?

El cerebro está dividido en 2 hemisferios, cada uno de ellos especializado en unas tareas:

El hemisferio izquierdo se ocupa principalmente del procesamiento analítico basado en el tiempo.

El hemisferio derecho se ocupa del procesamiento holístico con base espacial.
Para el 96% de las personas diestras, las funciones del lenguaje se localizan fundamentalmente en el
hemisferio izquierdo, y se le llama dominante. Señalar que esta localización de la función no está vinculada
solo con el habla, ya que personas que usan lengua de signos activan las mismas zonas que los hablantes.

 Primeros trabajos sobre la ubicación del lenguaje

La mayor parte de la evidencia sobre la localización de las funciones del lenguaje proviene de los
estudios de los efectos de las lesiones cerebrales. Una deficiencia en la producción o comprensión del
lenguaje debida a una lesión cerebral se denomina afasia.

Broca, en 1860, empezó a estudiar a pacientes con lesiones en el córtex del lóbulo frontal izquierdo que
habían perdido la capacidad de expresarse a pesar de tener el tracto vocal intacto y a pesar también de que
entendían perfectamente. Este patrón de conducta o síndrome, se ha llamado afasia de Broca y la parte que
este médico identificó como la dañada se ha llamado área de Broca.

En 1874, Wernicke identificó otra zona del cerebro relacionada con el lenguaje, situada más allá en el
hemisferio izquierdo, en el giro temporal del lóbulo temporal, se le llama área de Wernicke, cuya disfunción
provoca afasia de Wernicke, caracterizada por un lenguaje fluido sin sentido y una gran incapacidad para
comprender el lenguaje, aunque el oído esté perfectamente.

 El modelo de Wernicke –Geschwind

Wernicke presentó uno de los primeros modelos de cómo se organiza el lenguaje en el cerebro. Afirmó
que las “imágenes de los sonidos” de los nombres de los objetos se almacenan en el área de Wernicke.
Cuando hablamos se envía esa información a lo largo de una vía de fibras llamada “fascículo arqueado”
hacia el área de Broca, en la corteza frontal inferior izquierdo, donde se transforman esas imágenes en
movimientos para controlar el habla. Los modelos modernos siguen esta guía aunque son más sofisticados.

El modelo de Wernicke-Geschwind es una mejora del esquema de Wernicke. Geschwind describió


cómo fluye la generación del lenguaje de las áreas de la parte de atrás a la parte frontal del hemisferio
izquierdo:

Cuando oímos una palabra, se transmite la información de la parte del córtex responsable del
procesamiento de la información auditiva hasta el área de Wernicke.

 Si, a continuación, decimos esa palabra en voz alta, la información fluye al área de broca donde se activa
la información articulatoria y pasa a continuación al área motriz responsable del habla.

Si se va a deletrear, el patrón auditivo se transmite al giro angular.

Si se lee una palabra, el área visual del córtex activa el giro angular y, después, el área de Wernicke.

El área de Wernicke desempeña un papel central en la comprensión del lenguaje. Una lesión del
fascículo arqueado provoca dificultades en la repetición del lenguaje, mientras que la comprensión y la
producción del mismo no sufren alteración alguna. Este patrón es un ejemplo de un síndrome de
desconexión. La desconexión se produce cuando la conexión entre dos áreas del cerebro está dañada sin que
se haya producido una lesión en las propias áreas. Por su parte el giro angular desempeña un papel central en
la mediación entre el lenguaje visual y el auditivo.
Este modelo se considera ahora demasiado sencillo por varias razones:

Aunque la mayoría de las funciones del lenguaje están localizadas en el hemisferio izquierdo, no se
limitan al mismo. Algunas funciones están en el derecho: el trastorno de dislexia profunda que desempeña
facetas importantes en el reconocimiento visual de las palabras y que está implicado en aspectos de la
producción del habla, fundamentalmente la prosodia (entonación, volumen, ritmo y tono del habla).
También algunas funciones están localizadas en regiones subcorticales, como parece ser que lo pueden
estar las reglas generales del lenguaje (pacientes con lesión en la corteza podían recordar verbos
irregulares, que son excepciones a la norma, pero tenían dificultades con los regulares, sujetos a las reglas
que en teoría están en el córtex). En el cerebelo derecho se encuentra mucha activación cuando
procesamos el significado de las palabras.

Del hemisferio izquierdo, no sólo las áreas tradicionales cumplen una función del lenguaje, sino las
adyacentes también, parece que todo el giro temporal superior (de la que Wernicke es sólo una parte)
cumple una importante función.

Las lesiones no tienen un efecto tan bien definido como predice el modelo: rara vez la destrucción total de
las áreas descritas producen las afasias permanentes que podrían esperarse. También rara vez se
encuentran trastornos exclusivos de la producción o de la comprensión (por ejemplo pacientes sin Broca
también pueden presentar dificultades de comprensión). Los distintos tipos de afasia tienen agrupaciones
variables de síntomas que tienden a producirse juntos, y que no están claramente relacionadas con áreas
como la de Broca o la de Wernicke.

Casi todas las personas con afasia padecen además anomia (dificultad para encontrar los nombres de las
cosas), independientemente del lugar de la lesión.

La estimulación eléctrica de las áreas de Broca o Wernicke desde el exterior no producen los efectos que
cabrían esperarse.

 Modelos recientes de cómo se relaciona el lenguaje con el cerebro

Modelo D/P (declarativo/procedimental) de Ullman

Afirmó que el lenguaje depende de dos sistemas cerebrales:

El diccionario mental o lexicón, que depende de la memoria declarativa localizada fundamentalmente en
el lóbulo temporal izquierdo.

La gramática mental que depende de la memoria procedimental que conforman varias regiones: lóbulos
frontales, ganglios basales, cerebelo y partes del lóbulo parietal izquierdo.

Esta distinción hace referencia a la separación entre las reglas lingüísticas, o sintaxis y las palabras.

El procesamiento del lenguaje utiliza, en cierta medida, procesos cognitivos y estructuras que no están
dedicadas exclusivamente al lenguaje. Algunas partes del cerebro son más importantes que otras, pero no es
fácil localizar procesos concretos asociados a áreas concretas. Es probable que haya múltiples rutas para la
producción y comprensión del lenguaje. Las técnicas de neuroimagen han dado datos que sugieren que las
regiones implicadas en el lenguaje son mucho más de las que se pensaba (como el caso del giro temporal,
más allá del área de Wernicke, muy implicada en la comprensión).

 Explicación de gran alcance de Hickok y Poeppel (2004)

Dan una explicación a la relación entre lenguaje y cerebro y basan sus argumentos en datos de
neuroimagen y de lesión centrándose en el tema de la comprensión auditiva.

Afirman que las primeras etapas de la percepción del habla implican al giro temporal superior
bilateralmente (aunque hay más activación en el izquierdo). El sistema de procesamiento cortical diverge en
dos sentidos:

 Corriente ventral: hacia la parte delantera e inferior del cerebro. Se ocupa fundamentalmente de
convertir el sonido en algo con significado y es la mayor parte de lo que se entiende como “percepción
del habla”.

 Corriente dorsal: hacia la parte trasera y superior del cerebro. Se ocupa de hacer un mapa del sonido
convirtiéndolo en una representación que implica articulación y que relaciona la percepción del habla
con la producción de la misma. El producto de la corriente dorsal es una integración de la información
auditiva y motriz y es muy importante cuando nos centramos en los sonidos de las palabras implicadas
(por ejemplo al aprender a hacer los sonidos de las palabras, al analizar los sonidos de las palabras o al
repetir palabras inexistentes)

Aunque se puede apuntar a regiones concretas del cerebro (sobre todo en los lóbulos frontal y temporal)
que desempeñan papeles importantes en el lenguaje, los estudios de lesiones y las imágenes neuronales
muestran que los sistemas subyacentes del lenguaje son variables, flexibles y se distribuyen en muchas
regiones del cerebro.

4.2 Diferencias de género y lenguaje

Parece que las niñas tienen mayor capacidad verbal que los niños y que éstos son mejores en
matemáticas y tareas espaciales. Sin embargo esto resulta simplista y ha de ser acotado (por ejemplo parece
que las mujeres tienden a tener una mayor memoria visual). También resulta difícil hacer una distinción clara
entre lo biológico y lo cultural al establecer causas de estas diferencias.

Las niñas: desde una edad muy temprana son mejores en algunas tareas verbales, además de que
empiezan a hablar de media un mes antes que los niños. Tienen mejor memoria verbal, son mejores
lectoras y cometen menos faltas de ortografía. Su lateralización es menor. Tras una lesión del hemisferio
izquierdo, las niñas se recuperan más deprisa. Las imágenes cerebrales han demostrado que el área de
Broca se activa de distinta manera; en las niñas, cuando realizan una tarea lingüística de decidir si dos
palabras riman o no, se activan los córtex derecho e izquierdo. Parece que un cerebro menos lateralizado
genera una ventaja para el procesamiento del lenguaje, tal vez porque pueden utilizar ambos hemisferios.
Quizás por esto también las afasias en mujeres tienen consecuencias menos graves.

Los niños: muestran mayor ventaja del hemisferio izquierdo y del oído derecho a la hora de percibir
sonidos, por lo tanto una mayor lateralización. En las tarea de decidir si dos palabras riman o no, en los
niños sólo se activa el hemisferio izquierdo, lo que a la hora de una afasia tiene repercusiones mayores.
En la edad adulta también persisten las diferencias. Sin olvidar los factores culturales:

Es más probable que un hombre interrumpa a otra persona.

Es más probable que la mujer sea interrumpida.

Las mujeres producen más palabras, frases más largas, con menos errores y con mayor fluidez que los
hombres.

Es mucho más probable que un hombre padezca un trastorno como el tartamudeo.

4.3 ¿Existe un período crítico para el desarrollo del lenguaje?

Al igual que ocurre con otros animales (como el canto del pinzón, al que debe ser expuesto un recién
nacido para desarrollarlo), en los humanos se da este período crítico para el lenguaje. La hipótesis del
período crítico incluye dos ideas relacionadas:

 Determinados sucesos biológicos relacionados con el desarrollo del lenguaje sólo se pueden producir
en un período crítico temprano. En concreto, la especialización hemisférica, que si se pasa determinado
período se pierde la flexibilidad para que se produzca.

 Determinados sucesos lingüísticos deben producirse en el niño durante ese período para que el
desarrollo sea normal. Esto hace referencia a la eficiencia en el lenguaje, que será mayor cuanto más se
ajusten esas condiciones necesarias al período crítico.

La evidencia de un período crítico del desarrollo lingüístico de los humanos proviene de una serie de
fuentes:

 Evidencia del desarrollo de la lateralización

Tras el nacimiento se produce la maduración, que implica cambios en el desarrollo de la estructura del
cerebro y que puede llegar hasta la adolescencia. El córtex (fundamentalmente) ofrece mayores posibilidades
de reestructuración por ejemplo tras una lesión, cuando las funciones se pueden reorganizar y no llegar a
perderse (esto puede pasar hasta en la edad adulta).

La lateralización se produce durante la infancia y lesiones en el hemisferio izquierdo durante la infancia


no siempre provocan una perturbación permanente de la capacidad del lenguaje. Explicaciones de cómo
surge la lateralización:

 Hipótesis de la equipotencialidad; afirma que en un principio los dos hemisferios presentan la


potencialidad de adquirir los procesos responsables del lenguaje, madurando el izquierdo para
especializarse en las funciones del lenguaje.

 Hipótesis del determinismo irreversible (o invarianza): afirma que el hemisferio izquierdo estaría
especializado al nacer y el derecho asume funciones del lenguaje sólo si el izquierdo presenta daño en un
área grande, daño que implique tanto regiones anteriores como posteriores. Afirma que el izquierdo tiene
una afinidad natural por el lenguaje por su estructura anatómica innata y no lo abandonará a no ser que un
centro quede totalmente destruido.
La diferencia entre equipotencialidad y determinismo irreversible: en la primera cualquier hemisferio
puede terminar especializado en el lenguaje, en la segunda, el hemisferio izquierdo se especializa en el
lenguaje salvo que haya una razón de peso para que no sea así.

 Explicación emergentista; aúna las anteriores y dice que los dos hemisferios poseen una estructura
innata diferenciada que caracteriza un tipo determinado de procesamiento (el izquierdo estaría
involucrado en procesamiento de secuencias complejas), de manera que el izquierdo sería dominante y el
lenguaje se adaptaría más a ese tipo de procesamiento (Los datos que manejaron Dennis y Whitaker les
hicieron concluir que los niños a los que se les extirpaba el hemisferio izquierdo por completo no eran
capaces de comprender una sintaxis compleja con el derecho sólo, algo que apoyaría esta hipótesis,
aunque fueron muy criticados por tener pocos sujetos en el estudio y que midieran con el cociente
intelectual, ya que habría que haber hecho ajuste en este CI para afirmar que los efectos de las
puntuaciones más bajas se debían a la hemidecorticación). Pero en realidad los dos hemisferios
desempeñan un papel en la adquisición del lenguaje.

La hipótesis del período crítico de Lenneberg (1967)

La hipótesis de Lenneberg es la versión más conocida de la hipótesis de la equipotencialidad. Lenneberg


afirmó que al nacer ambos hemisferios son equipotenciales y que no hay asimetría cerebral al nacer. La
laterización se produciría debido a la maduración y se desarrolla rápidamente entre los 2 y los 5 años,
después se ralentiza y se detiene cuando llega la pubertad. Afirmó que el cerebro tiene una flexibilidad tal
que si fuera necesario, crearía las funciones en localizaciones alternativas.

Examinó cómo afectaba la edad del niño a la recuperación tras una lesión cerebral. Cuanto más joven se
es, mayor probabilidad de que la función perdida se recupere en otra parte del cerebro. De hecho toda la
función del izquierdo la puede asumir el derecho si se es lo suficientemente joven, como demuestran una
serie de casos de hemidecorticación, que es un tratamiento drástico si se sufre epilepsia, excepcionalmente
grave, durante períodos críticos (en un adulto supondría la pérdida del lenguaje), supone una recuperación
casi completa. Otra evidencia empírica del período crítico es la afasia cruzada, en el que una lesión en el
hemisferio derecho en niños pequeños supone una disfunción del lenguaje (prueba de la lateralización
progresiva, ya que en un adulto una lesión en el derecho no afectaría al lenguaje)

 Evidencia de los estudios sobre la lateralización en niños muy pequeños

En contra de la hipótesis del período crítico, hay evidencia de que se produce especialización
hemisférica en edades muy tempranas, incluso desde el mismo nacimiento.

Entus estudió a bebés de 3 semanas con el paradigma de habituación al chupeteo. Descubrió un cambio
más marcado en el ritmo de chupeteo cuando se presentaban estímulos al oído derecho (ventaja del
hemisferio izquierdo) y una ventaja para un estímulo distinto del habla cuando se presentaba en el oído
izquierdo.

Molfese midió los potenciales evocados en bebés y encontró diferencias hemisféricas del habla y del
sonido en bebés de una semana, con preferencia del izquierdo para el habla. Los niños muy pequeños
también muestran un período sensible a la percepción fonética que desaparece a los diez o doce meses.

Mills y otros midieron los potenciales evocados en bebés de entre 13 y 20 meses con el sonido de
palabras conocidas y palabras desconocidas. Los dos tipos de palabras despertaban potenciales similares por
todo el cerebro en los niños de 13 a 17 meses, pero de ahí a los 20 meses los potenciales se concentraban en
las regiones centrales del hemisferio izquierdo (por tanto la especialización sería durante la maduración pero
antes de la horquilla 2-5 años propuesta por Lenneberg). Los datos anteriores sugieren que el hemisferio
derecho también cumple su función en el lenguaje, ya que éste se activaba también ante las palabras
desconocidas, por lo que actuaba ante estímulos novedosos pero significativos. Ésta interpretación está
avalada por el hecho de que lesiones en el hemisferio derecho entre los 10 y 17 meses provocan retraso en el
desarrollo de las habilidades de comprensión de las palabras en mayor medida que si la lesión es en el
izquierdo.

Estas diferencias podrían estar relacionadas con el lenguaje. Los niños que muestran mayor activación y
por tanto mayor procesamiento del hemisferio izquierdo ante estímulos fonológicos, muestran mejores
habilidades del lenguaje varios años después. Como conclusión se podría decir que existe un período crítico
(sobre los 17-20 meses), que hay una afinidad del hemisferio izquierdo con el lenguaje desde el
nacimiento (no equipoten.) y que sí hay especialización del hemisferio izquierdo en tareas del lenguaje.

 Evidencia de la adquisición de un segundo idioma

Dos hipótesis afirman que la capacidad de aprender el primer idioma es mucho mayor a edades
tempranas (muy tempranas), que en la infancia tardía o más adelante. (Johnson y Newport):

Hipótesis del estado de maduración: la capacidad de adquirir el primer idioma disminuye a medida que
avanza la maduración, independientemente de otros factores. Predice que los niños serán mejores
aprendiendo un segundo idioma que los adultos, porque la capacidad disminuye con la edad.

Hipótesis del ejercicio: afirma además que, salvo que se ejercite esta capacidad a una edad temprana, se
pierde. Predice que si ese primer idioma se ha adquirido en la infancia, la capacidad para adquirir otros
permanecerá intacta y se podrá usar a cualquier edad. Según esta hipótesis, siendo todo lo demás
constante, un adulto podría aprender un idioma más rápido que un niño, dadas sus mayores habilidades de
aprendizaje (más recursos, experiencia, etc.).

La investigación ha abordado el tema de si existe un bloqueo relacionado con la edad para aprender un
segundo idioma, ya que hasta ahora se ha pensado que los niños eran mejores aprendiendo segundos idiomas
que los adultos.

Snow afirma no sólo que los adultos no son peores, sino que pueden ser incluso mejores. Se piensa que
los niños son mejores pero pasan muchísimo tiempo expuestos y aprendiendo el lenguaje, más que los
adultos, lo que dificulta la comparación. Comparó a niños de entre 3 y 4 años y adultos ingleses en Holanda
y el desempeño de los pequeños fue claramente peor. La ventaja atribuida a los niños por el tema del período
crítico podría estar en realidad en el tipo y cantidad de información disponible, del aprendiz. Entre adultos
también hay mucha variedad, pudiendo algunos alcanzar un nivel casi nativo mientras otros quedar más
abajo. Aunque la capacidad en la sintaxis conversacional está correlacionada con la duración de la
exposición al segundo idioma, esto sólo sugiere que la duración total de exposición es importante, y dado
que los niños tienen más tiempo, su exposición es mayor y más rápido su avance. No existen pruebas claras
de que haya un corte en la pubertad en las capacidades de adquirir una segunda lengua.

Las personas adultas que aprenden un segundo idioma tendrán acento extranjero persistente, de aquí que
el desarrollo fonológico sí que pueda ser un aspecto asociado a un período crítico y aunque parece que los
adultos tienen una ventaja inicial, el desempeño final de los niños será de mejor calidad.

Johnson y Newport realizaron uno de los experimentos más detallados sobre los posibles efectos de un
período crítico sobre el desarrollo sintáctico. Descubrieron cierta evidencia de un período crítico para la
adquisición de la sintaxis del segundo idioma. Preguntaron a inmigrantes coreanos y chinos en EE.UU. sobre
si ciertas frases eran correctas gramaticalmente:

Los que llegaron entre los 0 y los 16 años resolvieron mucho mejor esta cuestión que los que tenían entre
17 y 40, sin que hubiera grandes diferencias en este grupo de mayores entre ellos.

La varianza entre los que habían llegado siendo más mayores era muy elevada.

Concluyeron que hay distintos factores que actúan en la adquisición del lenguaje antes y después de los 16
años: Propusieron que se produce un cambio en el estado de maduración, de la plasticidad a un estado
estable, aproximadamente a los 16 años. Algunos autores bajan ese nivel a los 5 años.

Etman et al. No hablan de corte sino de relación curvilínea, con un decaimiento progresivo de la
plasticidad hacia la estabilidad. Birdsong y Molis, en un estudio parecido con hispanoparlantes aprendiendo
inglés descubrieron que no había corte alguno a los 16 y que incluso algunos de los mayores desarrollaron un
desempeño cercano al de los nativos, algo imposible si la hipótesis del período crítico fuera correcta.

En resumen, parece demostrada la existencia de un período crítico en algunas facetas del desarrollo
sintáctico pero es más acuciado todavía en aspectos fonológicos. Sin embargo, aprender un segundo idioma
no puede ofrecer pruebas contundentes ya que se hacen sobre personas que ya conocen y dominan su propio
idioma, que alcanzaron habiendo pasado por el período crítico. Pero ¿qué pasaría si no hubieran adquirido un
idioma durante ese supuesto período crítico?

 Evidencia de niños que oyen, hijos de padres con deficiencias auditivas

La privación en estos casos nunca es absoluta, por lo que orientan pero no se pueden obtener certezas. En
el caso de JIM, un niño de padres sordos que no oyó más que la TV hasta que fue a la guardería y sus
padres no se comunicaban con él mediante el lenguaje de signos. Su entonación era plana, su articulación
muy mala, algunas de sus expresiones indescifrables y su gramática muy idiosincrásica. Usaba cosas como
“Una casa, dos casa, no una casa, esa dos casa”. Tenía el concepto de pluralidad pero no lo hacía con la
inflexión <<-s>>. Su gramática no era correcta pero existía, lo que indica una necesidad de elaborar una
sintaxis (decía por ejemplo yendo casa un camión de bomberos). Tampoco comprendía el lenguaje
adecuadamente. Tras una intervención, al cabo de unos pocos meses el lenguaje de Jim era casi el adecuado
para su edad.

Este ejemplo muestra que la exposición al lenguaje no es suficiente para aprenderlo, sino que debe darse
en un contexto social, interactivo y apropiado. También pone de relieve la imperiosa necesidad humana de
usar el lenguaje.

Ocurre lo mismo con el lenguaje de signos, si se aprende pronto se desarrolla una gran competencia, pero
si se hace en la edad adulta el uso por ejemplo de verbos complejos no se realiza correctamente. Estas
observaciones también respaldan la hipótesis del período crítico.

 ¿Qué ocurre si se priva a los niños de una exposición lingüística durante el período crítico?

En el año 1500 el rey Jaime I de Escocia abandonó a dos niños en un bosque y cuando crecieron afirmó
que habían aprendido hebreo perfectamente. Después el famoso niño salvaje de Aveyron, llamado Víctor,
que nunca dijo más de dos palabras tras intensivo entrenamiento. Sin embargo estos casos no sirven para
plantear hipótesis, porque se desconocen las causas de los abandonos, que probablemente fueran por retraso
mental y que esa sería la causa de que no lograran hablar cuando fueron encontrados y entrenados. Se trata
de casos no documentados.

Un caso documentado es el de Genie una niña aparentemente normal que desde los 20 meses hasta los
casi 14 años estuvo atada en una habitación privada del lenguaje. En su casa no se hablaba y ella era
castigada si emitía algún sonido. Sólo su madre la veía unos minutos al día para darle comida. Se trataba
de una privación física, social, nutritiva y lingüística extrema. Pasó de no tener competencia lingüística
alguna a poder desarrollar alguna, pero su sintaxis siempre fue muy mala con respecto al vocabulario.
Usaba pocas palabras interrogantes, menos palabras gramaticales aún y hacía el negativo poniendo un
“no” al principio de las frases. No era capaz de usar la morfología reflexiva (modificar el número y usar
tiempos verbales), no podía pasar de activa a pasiva ni usar verbos auxiliares. Era diestra y mostraba
dominio del hemisferio derecho, quizás porque el izquierdo había asumido otras funciones o porque el
derecho había inhibido al izquierdo, o sencillamente que el izquierdo había degenerado). Esto viene a
demostrar que adquirir un lenguaje tras el período crítico es posible, pero de manera muy limitada. Sin
embargo tampoco esta afirmación puede ser categórica, ya que Genie tenía otras muchas privaciones más
importantes que pudieron afectar a la lingüística, además de que existe la posibilidad de retraso antes del
encierro (lo que afirmaba su padre, aunque esto no se demostró después del rescate).

Isabelle pasó recluida con su madre sordomuda hasta los 6 años, pero después pasó por las fases
normales del desarrollo y tras dieciocho meses su inteligencia era normal y su capacidad lingüística
también.

En resumen, la evidencia no es clara. Parece que hay desarrollo si la exposición es temprana y que si no
lo es, la competencia se puede desarrollar con claros déficits en la sintáctica sobre todo. También es bastante
difícil separar los efectos de la privación lingüística de otras privaciones.

 Evaluación de la hipótesis del período crítico

Hay dos razones para rechazar la hipótesis del período crítico, en su versión fuerte: los niños pueden
adquirir cierto lenguaje fuera del período crítico y la laterización no se produce totalmente durante el mismo.
Pero existe una versión débil de la hipótesis; la hipótesis del período sensible: existe un período sensible para
el lenguaje, pero parece confinado al desarrollo de la competencia sintáctica.

Por otra parte el período crítico no se limita al lenguaje hablado. Newport encontró un período similar
en sordos congénitos que aprendían el lenguaje de signos, ya que al hacerlo tarde tenían deficiencias en la
utilización de signos inflexionados morfológicamente. También identificó un declive paulatino de la
capacidad, no un corte. Además los adultos pueden aprender este lenguaje de signos pero suelen ser menos
eficientes.

Explicaciones dadas a la existencia de un período crítico:

Explicación Nativista: existe un período crítico porque el cerebro está preprogramado para adquirir el
lenguaje al principio del desarrollo. Bever afirma que esto es una propiedad normal del crecimiento, que
surge de una pérdida de la plasticidad a medida que los procesos y las neuronas se van especializando y
haciéndose más independientes. Locke dice que este período surge de la interrelación de sistemas
neuronales especializados que se están desarrollando, también por la primera experiencia perceptiva y
por las discontinuidades del desarrollo lingüístico. La ausencia de una activación adecuada durante el
desarrollo actúa como una lesión física en algunas zonas del cerebro.
Explicación de la maduración: es que se pierden ventajas a medida que el sistema neurológico y
cognitivo del niño madura. Lo que podría parecer una limitación inicial del sistema cognitivo podría
resultar una ventaja para el niño que empieza a hablar. Por ejemplo podría ser ventajoso ser capaz de
tener un número limitado de datos en la memoria a corto plazo y un número limitado de asociaciones
entre palabras específicas, recordando únicamente las correspondencias más globales. Podría haber en
realidad una ventaja en lo pequeño, porque a través de los árboles (lo pequeño), los niños ven el bosque.
Relacionado con el lenguaje, al ir asumiendo pequeñas cosas poco a poco (“menos es más”) por
limitaciones cognitivas propias de la maduración, van sumando los nuevos conocimientos a los antiguos
y van construyendo el lenguaje adecuadamente. Una variante relacionada con la maduración es que el
cerebro, a medida que madura, agota sus posibilidades de aprendizaje ya que va destinando circuitos a
tareas específicas.

El modelo conexionista, en la adquisición del tiempo verbal pasado sugiere que las redes (el cerebro) van
perdiendo plasticidad a medida que aprende más.

Las principales diferencias entre estas posturas son el grado en que las restricciones subyacentes al
período crítico son lingüísticas o más generales, y el grado en el que el momento de adquisición está
controlado genéticamente. Con las ideas de modelización conexionista, la explicación de la maduración ha
recibido recientemente la mayor atención. Sin embargo, tal vez los dos enfoques no sean realmente
contradictorios. Un sistema que madura y es más eficiente para aprender el lenguaje tendrá una ventaja
evolutiva.

5. La base cognitiva del lenguaje: la hipótesis de la cognición


Piaget es una de las figuras más influyentes en la Psicología del desarrollo y según él el desarrollo pasa
por una serie de fases bien definidas siendo cada una de ellas consecuencia de la anterior y supone una
ventaja sobre la precedente. Para alcanzar determinada fase del desarrollo, el niño debe haber pasado por las
4 fases. Fig. 3.9:

Las cuatro fases del


desarrollo cognitivo
de Piaget.

Período Fase preoperacional Fase de las operaciones Fase de las operaciones


sensoriomotor concretas formales

Hasta los 2 años. Hasta los 6-7 años. Hasta los 12 años. De los 11-12 años en
adelante.
Se alcanza el logro Caracterizado por el El niño puede adoptar El individuo puede
cognitivo de egocentrismo (los niños puntos de vista razonar de forma
“permanencia de no piensan que los otros alternativos, como abstracta y lógica sobre
objeto” (los objetos tienen puntos de vista demuestra la tarea de la sucesos potenciales o
existen aunque no los diferentes al suyo y no conversación; ideas abstractas.
vea) cambian su punto de
vista).

La conducta se Se divide a su vez en se vierte agua de un vaso


organiza en torno a Preconceptual (2 a 4 pequeño y ancho a otro
procesos sensoriales y años) e Intuitiva (de 4 a fino y largo. El niño
motrices. El niño se 7). En esta fase el preoperacional dirá que
relaciona con el pensamiento está el vaso fino tiene más
entorno manipulando dominado por la agua, el operacional
objetos, lo que supone percepción, pero el niño concreto dirá que los dos
su inteligencia en avanza en pensamiento tienen la misma cantidad
acción. simbólico. Se produce el de agua. Aún así el niño
desarrollo del lenguaje y sigue razonando
el niño sigue estando exclusivamente sobre
bajo el dominio de su objetos concretos que se
propia percepción del pueden ver o son reales.
ambiente.

Piaget propuso dos mecanismos para el desarrollo cognitivo: la asimilación es la información sobre el
mundo se debe ajustar a estructuras existentes en ese momento, y la acomodación es la forma en que las
estructuras se ajustan para acomodar información que de otra manera sería incompatible.

Para él no hay nada extraordinario en el lenguaje, sería un proceso social y cognitivo como cualquier
otro y sujeto a las mismas reglas. Depende por tanto, de los prerequisitos cognitivos previos y su desarrollo
sigue las fases propuestas para el desarrollo general. El primer lenguaje sería egocéntrico y el del adulto sería
un lenguaje socializante y con un propósito de comunicación. Para Piaget el egocentrismo cognitivo y social
estaban relacionados entre sí.

Para Piaget hay tres tipos de habla egocéntrica:

Repetición o ecolalia: repetición de lo que dicen los demás o ellos mismos.

Monólogos: se hablan a sí mismos simplemente expresando sus ideas en voz alta.

Monólogos de grupo o colectivos: donde dos o más niños se expresan respetando turnos pero usan el
monólogo realmente.

La hipótesis de la cognición es una afirmación de las ideas de Piaget sobre el lenguaje y afirma que el
lenguaje necesita ciertos precursores para desarrollarse. Por ejemplo, hasta que el niño no logra la
“permanencia de objeto”, no podrá empezar a adquirir conceptos sobre objetos o nombres. De aquí que la
explosión en el volumen de vocabulario a los 18 meses se pueda explicar por el concepto de permanencia de
objeto.

Sin embargo Corrigan demostró que no había correlación entre “permanencia de objeto” y “desarrollo
lingüístico” si se tenía en cuenta la edad del niño. Además hay que señalar que los niños comprenden los
nombres 6 meses antes de alcanzar la permanencia de objeto. De hecho el disponer de nombres únicos para
los objetos podría ayudar a los niños a alcanzar la fase de permanencia del objeto. Xu concluyó que el tener
dos nombres diferenciados para los objetos distintos promovía las capacidades discriminatorias de los niños
de 9 meses (pero tener dos tonos diferentes o dos expresiones faciales no ayudaban a esa capacidad).

Al final parece que las relaciones entre adquisición del lenguaje y permanencia de objeto son más
complejas. Las primeras palabras son relacionales (“no”, “arriba”, “más”, “ya está” “no está” o “gone” en
inglés) y deberían depender de que surja el conocimiento sobre cómo se pueden transformar los objetos de
un estado a otro (al final del período sensoriomotor). En efecto así pasa, las primeras palabras que surgen son
las relacionadas con cambios en el objeto mientras éste está presente (“arriba”, “mueve”…), otras de tipo
relacional con objetos ausentes surgen después (“gone”, “no está”).

5.1 El desarrollo del lenguaje en niños con dificultades del aprendizaje

Una contrastación evidente de la hipótesis de la cognición consiste en analizar las capacidades


lingüísticas de los niños con dificultades del aprendizaje. Si el desarrollo cognitivo impulsa el desarrollo
lingüístico, un desarrollo cognitivo deficiente debería quedar reflejado en un lento desarrollo lingüístico. La
evidencia sugiere que el lenguaje y la cognición están separados en cierta medida:

Por un lado está el caso de las personas con Síndrome de Down: la mayoría de estos niños no son
competentes al 100% en el lenguaje. Hasta los 4 años su competencia lingüística se ajusta a su edad
mental, pero a partir de ahí la edad mental avanza a un ritmo mayor que la lingüística. Su desarrollo
léxico es lento y no logran competencia absoluta con la morfología y la sintaxis compleja. Esto apoya la
separación de ambos procesos por sus diferentes velocidades.

Por otro lado hay varios tipos de desarrollos cognitivos deficientes que no dan lugar a deficiencias
lingüísticas claramente definidas:

- Laura era una niña con un CI de 41 pero su competencia lingüística era casi normal. A pesar de que le
resultara muy difícil establecer jerarquías con tareas no lingüísticas, las estructuras jerárquicas de la
lengua las dominaba. Igualmente, a pesar de tener una memoria a corto plazo muy pequeña podía
construir frases sintácticamente complejas. Pero no todo era perfecto y tenía serias dificultades en
formas morfológicas complejas. El investigador concluyó que no eran necesarias estructuras cognitivas
previas al lenguaje y que los procesos cognitivos y los del lenguaje son independientes.

- Otro estudio de caso único: un hombre con capacidad no verbal menor de 70 que poseía una capacidad
verbal intacta y podía hablar varios idiomas.

- Síndrome de Williams: raro síndrome que padecen “niños con cara de duende” y un CI bajo, en torno a
50. Sin embargo el habla de estas personas es fluida y gramaticalmente correcta. Aprecian
especialmente las palabras poco habituales y su capacidad de adquirir nuevas palabras o repetir palabras
inexistentes es también buena.

- Niños con autismo: presentan dificultades para comunicarse socialmente y su lenguaje es idiosincrásico,
como hablar de cosas diferentes y usar palabras de forma extraña. Sus habilidades gramaticales están
casi intactas y sus problemas con el lenguaje se pueden deber a que no poseen una “teoría de la mente”
de los demás, sobre qué piensan y sienten los otros, más que a una falta de desarrollo de las capacidades
lingüísticas.

Las pruebas están a favor de una separación parcial, que no absoluta, entre las habilidades lingüísticas y
las capacidades cognitivas generales, como el razonamiento y el juicio.

5.2 Evaluación de la hipótesis de la cognición

No hay evidencia clara que respalde una versión fuerte de esta hipótesis, ya que los niños alcanzan
ciertas habilidades del lenguaje antes de la permanencia de objeto. Bruner afirmó que hay facetas de esa
permanencia de objeto que se ven fomentadas por el lenguaje. Sinclair-de-Zwart, contrastó la posibilidad de
que la formación lingüística pudiera mejorar el desempeño de la tarea de la conservación, concluyó que la
formación del lenguaje sólo tenía un pequeño efecto y que por tanto la formación lingüística no afecta a
procesos cognitivos, pero ayuda a describir y centrar las facetas relevantes de la tarea.

Los procesos cognitivos siguen evolucionando más allá de la infancia. Por ejemplo la capacidad de la
memoria de trabajo, que avanza de los 2 elementos a los 2-3 años hasta los 7 de la edad adulta. También los
niños más pequeños practican menos que los niños más mayores. Es posible que los cambios de la memoria
de trabajo tengan repercusiones para algunos procesos lingüísticos, sobre todo en cuanto a la comprensión
del aprendizaje del vocabulario.

Hay poca investigación sobre el enfoque de Piaget y sí bastante sobre los precursores comunicativos del
lenguaje y los que dan lugar a la explicación de la interacción social. Pero a la vez resulta imprescindible que
para que estas explicaciones sociales sean posibles el niño debe desarrollar una “teoría de la mente”, que
además puede devenir del propio desarrollo cognitivo pero verse influenciado o potenciado lingüísticamente
(aquí es vital la influencia de haber adquirido los verbos que permiten expresar afirmaciones complejas sobre
las creencias, la verdad y la falsedad de forma relativamente sencilla, como “saber”, “creer”, “pensar” y
“querer”)

6. La base Social del lenguaje


Casos como el de Jim (hijo de padres sordos) sugieren que los niños tienen que ser expuestos al lenguaje
en situaciones con significado social, así como que es necesario algo más que la mera exposición. Los
adultos hablan con los niños sobre el aquí y el ahora, sucesos que acaban de ocurrir, y sobre objetos
presentes, lo que resulta muy ventajoso a la hora de asociar nombres a objetos (Jim miraba la tele y no
alcanzó ese conocimiento tan eficientemente). Este tipo de situaciones implican que el niño tiene que
comprender y traducir el lenguaje.

Para ser eficaz el aprendizaje del lenguaje tiene que implicar interacción. Los interaccionistas sociales
ponen de relieve la importancia del desarrollo del lenguaje mediante la interacción con otras personas.
Aunque puedan ser necesarios ciertas condiciones biológicas y procesos cognitivos previos, no son
suficientes, ha de haber interacción social con significado.

Bruner comparte ideas con Piaget pero afirma que el contexto social es importante para adquirir el
lenguaje. El contexto social defendido por Bruner comienza con la díada madre-hijo, que ayuda al niño a
desentrañar el significado de las expresiones a las que son expuestos (influye también la forma de decir estas
expresiones, el habla dirigida al niño, pero menos que la díada). Por ejemplo, la importante distinción entre
agentes (realizan la acción) y objetos (reciben la acción), queda patente en la toma de turnos (y los juegos
basados en la toma de turnos), que llevan a cabo madre e hijo. Los procesos como las miradas mutuas, mirar
a la misma cosa y la atención conjunta a objetos y acciones son también importantes para permitir al niño
descubrir la referencia de las palabras. Bruner sugirió que estas habilidades sociales y la forma en que se
usan pueden ser innatas. Describió el desarrollo del lenguaje como: “un desarrollo que se produce en el
contexto de un sistema de socialización y adquisición del lenguaje (LASS en inglés)”.

Hay otras facetas del contexto social también importantes:

 Retroalimentación de los adultos sobre la eficiencia comunicativa de los niños.

 El contexto socio-comunicativo, podría facilitar la tarea de aprender la gramática del lenguaje. Esto
puede ser central para adquirir el significado de las palabras al restringir el dominio del discurso a
aquello sobre lo que se está hablando. Ha habido un gran debate sobre el papel de la influencia de la
evidencia negativa (decirle a un niño que algo no es correcto) en la adquisición del lenguaje y se han
usado sus limitaciones para defender ciertos principios innatos. Aunque es posible que los padres no
proporcionen una evidencia negativa explícita (no corrijan directamente), sí hay una evidencia negativa
implícita (por ejemplo los padres tienden a repetir más las expresiones incorrectas que las correctas y
tienden a responder ante una frase incorrecta con una pregunta en vez de seguir con la conversación;
“Manolito quitó coche mío ayer en el recreo”, en vez de seguir a lo del robo del coche los padres dicen
“¿quitó coche mío?”, no lo corrigen directamente pero sí indirectamente). También habría diferencias
locales entre evidencia negativa, por ejemplo diferencias socio-económicas entre corregir
explícitamente más o menos.

6.1 Toma de turnos en las primeras conversaciones

El aprendizaje de cómo se aprende un lenguaje acarrea más que el aprendizaje del significado de las
palabras, además implica manejar una gramática y aprender a utilizarlo. Las conversaciones tienen una
estructura. Como poco los niños tienen que aprender a escuchar y a prestar cierta atención cuando se les está
hablando. Parece ser que esta habilidad se desarrolla a edad muy temprana.

Schaeffer propuso que esta habilidad se adquiere con la alimentación. El chupeteo, los niños lo hacen
con ráfagas intercaladas con pausas que sirven de señal para que las madres jueguen con los bebés, los
abracen y les hablen. También observó que rara vez madres e hijos emiten sonidos a la vez. Snow observó
que las madres responden a las vocalizaciones de sus bebés, como si sus eructos o bostezos fueran
expresiones. Los precursores de estas habilidades de conversación parecen por tanto poco relacionadas con
el propio lenguaje sino con otras actividades. Como la mirada entre la madre y el niño, que parece
igualmente correlacionada; en concreto, la madre mira rápidamente cualquier cosa que mire el bebé. Surge la
cooperación a una edad temprana. Aunque en estos casos es la madre la que se muestra sensible a las pautas
del niño, hay evidencia adicional de que los bebés de tan sólo unas pocas semanas son diferencialmente
sensibles a las características de su entorno. Trevarthen descubrió que los bebés hacen un seguimiento visual
e intentaban agarrar objetos inanimados, pero responden de distinta manera a las personas, incluyendo
saludos con la mano y pequeños movimientos con la boca que denominó prehabla. No está claro el papel
exacto del prehabla, pero no hay duda de que al final de los seis meses son patentes los precursores de las
habilidades sociales y conversacionales, y los bebés han desarrollado la capacidad de obtener respuestas
comunicativas.

6.2 Evaluación de las explicaciones de la interacción social

Para ser eficaz, el lenguaje ha de darse en un contexto social significativo. Se ha demostrado que la
adquisición del lenguaje tiene un componente innato importante. Hasta ahora una desventaja del enfoque de
la interacción social era que las explicaciones eran vagas en cuanto a los detalles de cómo influyen las
interacciones sociales en el desarrollo. Los procesos cognitivos median en las interacciones sociales y la
clave de una teoría sofisticada se encuentra en explicar detalladamente esta relación.

6.3 Trastornos del uso social del lenguaje

Trastorno semántico-pragmático (Bishop): Es una deficiencia del lenguaje que tiene la apariencia de una
versión muy suave del autismo. Estos niños suelen tener dificultades en conversaciones en las que tienen que
hacer inferencias. Dan respuestas muy literales a las preguntas y no parecen capaces de tomar en cuenta el
contexto social y de la conversación anterior. Ej.:

-¿Me puedes hablar de la fiesta?

-Sí.

Aunque no se comprende bien este trastorno, resulta evidente que sus orígenes son complejos. Mientras
que se podrían explicar otros trastornos relacionados en términos de una limitación de la memoria o de
negligencia social, este semántico-pragmático se explica mejor afirmando que estos niños tienen dificultades
para representar el estado mental de otras personas, que a su vez puede deberse a una anomalía cerebral
innata o del desarrollo. Resulta difícil desenmarañar los factores biológicos, cognitivos y sociales.

7. El desarrollo del lenguaje de niños con deficiencias visuales o auditivas


Si la cognición impulsa el lenguaje, un niño con dificultad visual, que probablemente muestre un
desarrollo cognitivo diferente a otro con visión normal, también debería tener un desarrollo lingüístico
diferente. Por otro lado, si el lenguaje impulsa al desarrollo cognitivo, niños con dificultades auditivas
deberían tener un desarrollo cognitivo diferente a niños con audición normal.

7.1 Niños con deficiencias visuales

El desarrollo cognitivo de los niños con deficiencias visuales es más lento que el de los niños de visión
normal. Esto se explica por un menor número de experiencias que el niño disfruta, una relativa falta de
movilidad, menores oportunidades de relación social y menor control del niño sobre su propio cuerpo. Para
alcanzar la “permanencia de objeto” dependen del oído y el tacto, lo que necesariamente lleva a la creación
de un concepto distinto.

Los primeros estudios sugerían que el desarrollo del lenguaje en niños ciegos difería del de niños
videntes en que su forma de hablar era más egocéntrica, estereotípica y menos creativa. Cutsford llegó a
afirmar que las palabras de estos niños carecían de sentido, pero ahora se sabe que estas afirmaciones son
generalizaciones excesivas y, probablemente, totalmente incorrectas.
Se dice que algunos niños ciegos tardan más en decir sus primeras palabras. Pero Bigelow encontró que
las 50 primeras palabras las adquieren los niños ciegos entre 1 año y 4 meses y el año y 9 meses, cuando
niños con visión las tienen sólo un mes antes. Estas primeras palabras sí diferían entre unos y otros, aunque
tampoco mucho. Los niños ciegos:

Usan menos palabras referidas a nombres de objetos que son prominentes en el mundo visual y no se
pueden tocar (como “luna”)

o usan menos nombres de animales.

Usan más nombres de objetos del mundo auditivo o táctil (como “tambor” o “suciedad”)

usan más palabras para referirse a acciones (más a las suyas propias que a las de los demás).

La utilización de las primeras palabras también parece diferir:

Los niños ciegos usan las primeras palabras para comentar sus propias acciones o para imitar más que
para comunicarse, lo que ha servido para que Dunlea afirme que los niños ciegos no estén usando las
palabras más allá del contexto en el que las aprendieron por primera vez, lo que conlleva un retardo en
adquirir la función simbólica de las palabras; el uso simbólico de las palabras queda retrasado, la
adquisición de vocabulario suele ser más lenta y la comprensión de determinadas palabras será distinta.

La comprensión de las palabras es distinta. Landau y Gleitman demostraron que los niños ciegos podían
aprender el significado de palabras como “mirar” y “ver” sin una experiencia sensorial directa. Es posible
que los niños infieran el significado observando su posición en las frases y las palabras que las acompañan.

Los pronombres. Donde hay controversia y se afirmaba que adquirían un correcto uso de los mismos
más tarde (tendían a usar “tu” por “mi”), pero hoy parece demostrado que eso no es así.

Existen diferencias en el desarrollo fonológico. Los niños ciegos tardan más en adquirir un sonido
adecuado sobre todo en sonidos que tienen una marcada pronunciación bucal (como /b/) y esto ha hecho
pensar en la importancia de la visión de la modulación de la boca para poder alcanzar un buen sonido. Sin
embargo, aunque tarden más también lo hacen a la perfección, por lo que el análisis aislado del sonido
también lleva a una buena ejecución.

El desarrollo sintáctico está marcado por mucha más repetición de la que se identifica normalmente y la
utilización de frases repetidas se prolonga más durante el desarrollo. También usan menos preguntas del tipo
¿qué es eso? Y menos modificadores como “bastante”. Esto viene explicado por el lenguaje con el que sus
padres se dirigen a estos niños, adaptado a sus cualidades y en el que predominan las denominaciones
espontáneas. El retraso en el uso de auxiliares como “tener” o “poder” se explica por el mismo mecanismo,
los padres usan más las órdenes directas como “coge la muñeca” que preguntas como “¿puedes coger la
muñeca?”. También los niños ciegos empiezan a usar las palabras funcionales del idioma (las que realizan el
trabajo gramatical), más tarde que los niños con visión.

Por tanto, el desarrollo lingüístico de los niños ciegos es distinto del de los niños con visión, pero existe
poca evidencia que respalde la idea de que una deficiencia en el procesamiento cognitivo provoca una
deficiencia en el procesamiento sintáctico:
Por ello no se puede concluir que los procesos cognitivos precedan a los lingüísticos.

Tampoco se puede concluir que el lenguaje de los niños ciegos sea deficiente respecto al de los niños con
visión.

Tampoco parece que el primer lenguaje de los niños ciegos sea menos funcional que el de niños con
visión, ya que el que los niños ciegos emiten (excesivas repeticiones y habla estereotípica) cumple la
función social de mantener el contacto con los demás.

Los niños ciegos usan más el lenguaje y tienen una memoria verbal mayor que los que ven. Además los
estudios con niños ciegos son más complejos y con menos participantes, por lo que sus datos han podido
ser poco exactos y haber infravalorado las capacidades de estos niños.

7.2 Niños con deficiencias auditivas

El desarrollo del lenguaje en estos niños sí es claramente más difícil. Está comprobado que cuando no
disponen de palabras para expresarse usan movimientos cada vez más complejos para expresarse, aunque no
conozcan el lenguaje de signos (lo que muestra una necesidad comunicativa en los humanos). Tras una
formación adecuada, la adquisición del lenguaje de signos corre paralela a la que sería una normal
adquisición del lenguaje hablado (en algunos aspectos es hasta más rápido). Pasan por las mismas etapas al
mismo tiempo. (Meier).

La investigación sobre las consecuencias cognitivas de la sordera:

En un principio existen diferencias en la codificación de tareas memorísticas, pero esto viene explicado
por el carácter fonológico y acústico del procesamiento en la memoria a corto plazo más que por un
retardo en el desarrollo de estos niños causado por ausencia de lenguaje hablado. De hecho se ha visto
que la destreza en resolver tareas piagetianas es similar en ambos grupos de niños.

Furth encontró que los adolescentes sordos tenían más problemas a la hora de resolver tareas de
razonamiento lógico simbólico (esto implica un retardo de los procesos cognitivos, que según la tarea de
la conversación se han obtenido resultados de entre 1-2 años de retraso o bien no han dado diferencias),
pero estas diferencias las explicó en base a una falta de experiencias y en diferencias en la formación de
niños sordos.

En definitiva, un niño sordo de padres sordos aprenden el lenguaje de signos igual que un hablante
adquiere el lenguaje hablado. Las diferencias en otros casos son aplicables al contexto. Los niños del primer
caso tienen un desempeño igual a niños hablantes en tareas piagetianas.

7.3 Evaluación de la evidencia sobre niños sordos y ciegos

Existen diferencias en el desarrollo cognitivo, pero no son evidentes las diferencias lingüísticas. El
desarrollo cognitivo de los niños sordos se produce mejor de lo que debería si el lenguaje fuera primario, y el
desarrollo lingüístico de los niños ciegos se produce por lo general mejor de lo que debería si la cognición
fuera primaria. Por tanto, el desarrollo lingüístico de los niños sordos y el desarrollo cognitivo de los niños
ciegos se producen mejor de lo que cabría esperar si uno impulsara al otro. Las conclusiones, en todo caso,
respaldan más la teoría de Chomsky de la independencia. Lo que sí es importante es el factor social. Los
factores biológicos, cognitivos y sociales cooperan para el desarrollo del lenguaje, el déficit en un área se
puede ver compensado con cualquiera de las otras.
8. ¿Cuál es la relación entre el lenguaje y el pensamiento?
Muchos animales son capaces de resolver problemas sin tener un lenguaje, lo que sugiere que el
lenguaje no es esencial para la resolución de problemas o para pensar, aunque esto pudiera parecer obvio, no
siempre ha sido así.

Los conductistas pensaban que el pensamiento no era nada más que un discurso. Los niños pequeños
expresan sus pensamientos en voz alta; después se internaliza, pasando a ser un discurso oculto, el
pensamiento no sería más que movimientos motores del aparato vocal. Watson afirmo que los procesos del
pensamiento son hábitos motores de la laringe. Jacobsen reforzó esta teoría ya que el pensamiento suele
venir acompañado de un discurso oculto. Detectó actividad eléctrica en los músculos de la garganta cuando
se pedía a los participantes que pensaran. Smith realizó un experimento en el que se paralizó con curare los
músculos de la garganta y después informó de que había sido perfectamente capaz de pensar y solucionar
problemas, por lo que el pensamiento no sería meramente movimientos del aparato vocal.

Hay que diferenciar cómo pensamiento y lenguaje se influyen mutuamente desde el punto de vista del
desarrollo y desde el adulto desarrollado:

La postura de Piaget al respecto, el desarrollo cognitivo determina la adquisición del lenguaje, la postura
de Chomsky, lenguaje completamente independiente, ambas vistas con anterioridad.

Faltan por ver la postura de Vygotsky, lenguaje y cognición tienen orígenes independientes pero terminan
fuertemente entrelazados en una relación compleja, y la hipótesis de Sapir-Whorf, el lenguaje determina
la cognición.

8.1 La interdependencia del lenguaje y el pensamiento

Vygotsky estudió el discurso interno, el discurso egocéntrico y los monólogos infantiles. Propuso que el
discurso y el pensamiento tienen distintas raíces ontogénicas (distintos orígenes en el individuo).

Al principio, el habla tiene una fase preintelectual (las palabras no son símbolos de los objetos que
denotan, sino propiedades reales de los mismos). Aquí los sonidos del habla no están adscritos a un
pensamiento y al mismo tiempo, los pensamientos no son verbales. Así, hasta cierto punto y hasta la edad de
3 años, son procesos independientes que a partir de ese momento pasan a estar conectados y ser
interdependientes, el pensamiento se convierte en verbal y el habla pasa a ser representativa. Cuando se
produce la interdependencia los monólogos de los niños pasan a interiorizarse como discurso interno.

Vygotsky puso a prueba sus teorías en contraposición con las de Piaget, pero en experimentos no
controlados completamente y que no se han repetido hasta hoy, por lo que sus teorías no se han sometido a
falsación. También el discurso egocéntrico desempeñaría la función de autoguía que se va interiorizando, y
al estar los límites entre el niño y los demás poco definidos, el discurso de autoguía sólo se puede producir
en un contexto social, afirmando esto porque vio que el discurso egocéntrico disminuye cuando se reduce la
sensación del niño de ser comprendido (cuando su interlocutor está en otra mesa el niño produce menos
discurso egocéntrico)
Comparación Piaget/Vygotsky

8.2 La hipótesis de Sapir-Whorf

La idea central es que la forma de nuestro lenguaje determina la estructura de nuestros procesos de
pensamiento. El lenguaje afecta a la forma en la que recordamos las cosas y cómo percibimos el mundo.
Whorf trabajaba en una aseguradora y vio que muchos accidentes se producían por entender mal las
palabras.

Esta hipótesis incluye dos ideas relacionadas:

 Determinismo lingüístico: la forma del lenguaje determina la forma en la que pensamos, recordamos
y percibimos.

 Relativismo lingüístico: puesto que los idiomas describen el mundo de distinta manera, distintos
idiomas generan distintas estructuras cognitivas en los que los hablan.
Miller y McNeill diferencian 3 versiones de la hipótesis:

Versión fuerte: el lenguaje determina el pensamiento

Versión más débil que la primera: el lenguaje sólo afecta a la percepción. Lo difícil aquí es el término
percepción y su difícil separación entre “hecho de procesamiento sensorial” o como “clasificación”.

Versión débil: las diferencias del lenguaje afectan al procesamiento de determinadas tareas donde la
codificación lingüística es importante. Ésta es la más fácil de contrastar y la que tiene más apoyo.

 Evidencia antropológica

Hace referencia a la posibilidad de traducir entre sí los distintos idiomas. Whorf estudió varios idiomas
de los indios americanos, el hopi, el nootka, el apache y el azteca. Defendía que cada idioma impone una
visión del mundo a quienes lo hablan. Ej.: como el hopi no tenía estructuras gramaticales o palabras relativas
al tiempo, sus hablantes debían tener una concepción del tiempo particular y distinta a la nuestra. Sus datos
eran poco fiables y además la traducción puede resultar equívoca.

Ej.: nuestra forma de decir “clara fuente goteante”, en apache es “noto ga” (ga: verbo que indica que se es blanco,
incluyendo en blanco incoloro, claro, etc. no: prefijo que indica hacia abajo; To: nombre que significa agua y fuente. Todo
esto Whorf lo traduce como “clara fuente goteante, pero esta traducción es muy idiosincrásica y no deja claro que los apaches
interpretaran el mundo como él defiende, además de que su análisis se basó en análisis gramatical y no en conversaciones
con nativos, por lo que la traducción también podría ser la de “es una clara fuente goteante”, construcción mucho más
parecida a la nuestra y que echa por tierra la interpretación de Whorf).

Lenneberg y Roberts señalaron además la circularidad del razonamiento de que, puesto que los idiomas
difieren, los patrones de pensamiento difieren debido a las diferencias en los idiomas. Sería necesaria una
medición independiente de los patrones de pensamiento antes de poder extraer una conclusión causal.

 Diferenciación del vocabulario

En los distintos idiomas hay diferencias en cómo se nombran los objetos. En inuit (esquimal), hay varias
palabras para designar a la nieve (como nieve que está en el aire, o nieve que está en el suelo). A pesar de
que se discute si son más o menos el número de términos en inuit para nieve (entre 2 y más de 100), lo que
se ha concluido es que el número de términos de un concepto tiene más implicaciones prácticas que
cognitivas. Ej.: un esquiador experto tendrá más conocimiento sobre tipos de nieve (dura, blanda, etc.) y ese
conocimiento le servirá para saber si debe o no salir a esquiar y en qué condiciones o con qué material, pero
no afecta a estructuras cognitivas. Parece que en concreto las diferencias de vocabulario pueden afectar a la
percepción en la medida que acabamos de ver con el esquiador, que a medida que conoce más tipos de nieve
“verá” más o menos que otro que no tenga tanto conocimiento.

Sin embargo hay aspectos, como el que haya varias palabras para cada suceso numérico que sí pueden
afectar a destrezas cognitivas. Los miembros de la tribu Piraha en el Amazonas tienen tres palabras para
contar; “uno”, “dos” y “muchos”. Por tanto, mientras que nosotros podemos asignar cantidades numéricas a
diversos sucesos y operar con ellos con exactitud, ellos sólo pueden hacer estimaciones, por lo que su
desempeño en tareas numéricas es muy pobre.
 Diferencias gramaticales entre idiomas

Carroll y Casagrande analizaron las diferencias gramaticales entre el inglés y el navajo. En el idioma
navajo el verbo “llevar” hace referencia tanto al hecho de acarrear algo como al material que se transporta, si
es un palo o una cuerda las terminaciones del verbo son diferentes y dependen de la dureza de ese material.
La hipótesis de partida es que los niños navajos debían prestar más atención a las propiedades del objeto que
los que hablaban inglés, y por tanto deberían agrupar los objetos en función de su forma (que es lo que
determina la terminación del verbo) que en base a cualquier otra característica. El estudio se hizo con niños
bilingües navajo-inglés y los dos grupos fueron “mayor predominio del navajo” y “mayor predominio del
inglés”. Comprobaron que efectivamente los niños del grupo navajo clasificaban más los objetos en base a su
forma que por ejemplo en base al color. El problema vino cuando se tomó un grupo control de niños con un
idioma, el inglés, y se vio que ellos también clasificaban más los objetos en función de su forma, como se
esperaba de los niños navajos. Por tanto aquí no hay conclusiones claras.

Razonamiento contrafactual. Un tipo de razonamiento del tipo “si hubiera ido a la biblioteca, hubiera
visto a Pedro”, que se sirve del modo subjuntivo para expresarse. El chino por ejemplo no tiene esta
construcción y en general tienen más problemas para hacer un razonamiento contrafactual que los
angloparlantes que sí lo tienen. Sin embargo esta dificultad podría deberse a que en chino, para hacer
afirmaciones como la anterior, se necesitan estructuras más largas, como “la señora Wong no habla inglés, si
la señora Wong hablara inglés, podría leer el New York Times”. Si en realidad esa mayor dificultad fuera
por esta razón de la longitud de la estructura, sería una prueba del efecto sutil que tiene la forma lingüística
sobre la capacidad de razonamiento.

Género. El uso de género en un idioma (puede ser ninguno como inglés, masculino y femenino como en
castellano o masculino, femenino y neutro como en alemán) puede afectar a las tareas que requieran de su
uso. Por ejemplo, a la hora de valorar la similitud de tres nombres “elefante-jirafa-burro”, que compartan
género será determinante para valorar su grado de similitud. Sin embargo esto afecta sobre todo a la
categoría animales, a otra categoría como artefacto no le afecta. Esto confirmaría una versión débil de la
hipótesis de Sapir-Whorf, la que afirma que el lenguaje puede afectar al desempeño en algunas tareas que lo
utilizan.

 Efectos indirectos del lenguaje sobre la cognición

Son más abundantes las pruebas de efectos indirectos sobre la cognición, sobre todo en tareas donde es
importante la codificación lingüística. Carmichael y otros hicieron un estudio en el que presentaban una
serie de símbolos ambiguos a dos grupos y luego a cada grupo le ponían una etiqueta verbal (les decían que
era tal o cual):

GRUPO A ESTÍMULO GRUPO B

Fusil Escoba

Después se hacía una tarea de memoria en la que se pedía a los participantes que dibujaran el estímulo
presentado. Ellos hacían dibujos que se parecían más a fusiles o a escobas, dependiendo del grupo en el que
hubieran estado, y menos al estímulo original, por lo que concluyeron que el apelativo que relacionaban los
participantes con las imágenes afectaba al recuerdo de las imágenes. (En definitiva que la percepción no es
un proceso neutro sino que está influido por el conocimiento).
Duncker analizó el fenómeno de la fijación funcional usando el problema de la caja y la vela: en el que
los participantes tienen que construir un dispositivo utilizando una serie de materiales comunes de forma que
una vela pueda arder hasta el final atada a la pared. El procedimiento más simple sería usar la caja que sirva
como sostén a la vela, pero los sujetos piensan demasiado tiempo porque fijan su atención en la caja como
contenedora de clavos (que es su función más común), y no contemplan otras posibilidades, de ahí la fijación
funcional. Además se ha encontrado que la apelación explícita de los objetos (llamar caja a la caja
explícitamente) puede aumentar o debilitar el efecto de fijación funcional dependiendo de lo adecuado que
fuera el apelativo. Se ve aquí la influencia lingüística sobre el razonamiento.

Hoffman hizo otro experimento con bilingües chino-inglés. Les daba descripciones de personas que se
ajustaban a los estereotipos del chino y del inglés. Los que pensaban en chino aplicaron el estereotipo del
chino y los que pensaban en inglés aplicaron los de la personalidad inglesa. El idioma que usaron para llevar
a cabo procesos cognitivos influyó por tanto en las inferencias que hicieron.

Estos trabajos sirven de argumentos a la versión débil de la hipótesis, en la que la codificación


lingüística influiría en procesos cognitivos como la memoria o la resolución de problemas en tareas que
precisan de este tipo de codificación.

 Sistemas numéricos

Dependiendo de cómo el lenguaje exprese los números, sus hablantes podrán desarrollar más rápido y
mejor o peor habilidad numérica (se habla de influencia sutil sobre la habilidad numérica). En inglés hay 13
elementos básicos (de 0 a 12), después una serie de nombres complejos especiales (de 13 a 19, los “teens”) y
desde el 20 se sigue una regla. Los niños en inglés presentan dificultades a la hora de aprender los “teens”.
El chino por ejemplo tiene una base de 11 elementos que son los que hay que aprender (de 0 a 10), a partir
de ahí sólo hay que seguir una regla. Los niños aprenden rápido esta secuencia.

En galés, por ejemplo, los números son iguales que en inglés pero la pronunciación de las sílabas es más
larga y se tarda más tiempo en pronunciarlos, por lo que participantes bilingües tuvieron un peor desempeño
en tareas de repetición de cifras si lo hacían en galés en vez de en inglés. También hubo una mayor tasa de
errores en tareas aritméticas mentales si usaban el galés.

 Códigos de colores y memoria para los colores

La forma más fructífera de investigar la versión fuerte de la hipótesis de Sapir-Whorf ha sido el análisis
de la forma en que nombramos y recordamos los colores. Brown y Lenneberg estudiaron el recuerdo de
“fichas de colores”, que diferían en tono, brillo y saturación. Los colores codificables (que se corresponden
con los nombres de los colores normales) se recuerdan más fácilmente; por ejemplo un “rojo ideal” se
recuerda mejor que un mal ejemplo de rojo. El concepto “precisión de la comunicación” determina qué se
puede describir con facilidad.

Estos primeros trabajos parecían respaldar la hipótesis de Sapir-Whorf, pero hay un supuesto básico del
que partir y es que la división del espectro de colores es algo arbitrario, lo que viene a decir que si no fuera
por mero accidente histórico se podría estar llamando al morado (mezcla entre rojo y azul)=”roaz”, o “verul”
a un color entre el verde y azul. ¿Este supuesto es correcto, es arbitrario?

Berlin y Kay compararon los términos básicos de los colores usados en distintos idiomas. Los idiomas
difieren en cuanto al número de apelativos de que disponen para los colores, pero ellos concluyeron que en
todos los idiomas se presentan los términos básicos de los colores en una jerarquía:
Jerarquía de los colores:

Nivel 1 NEGRO, BLANCO

Nivel 2 ROJO

Nivel 3 AMARILLO, VERDE, AZUL

Nivel 4 MARRÓN

Nivel 5 MORADO, ROSA, NARANJA, GRIS

Para Berlin y Kay, si un idioma sólo tiene dos términos de colores básicos, estos han de ser los del nivel
1 (blanco y negro), si tienen tres términos se le añade el del segundo nivel, si tienen cuatro serán los de los
niveles 1 y 2 y se le sumará otro más del nivel 3. Los cinco niveles dan los 11 términos básicos para los
colores, que por ejemplo el idioma inglés posee. También “demostraron” que los colores típicos a los que
hacían referencia los términos de los colores básicos, denominados colores focales, tienden a ser constantes
en todos los idiomas.

Heider analizó el recuerdo que tienen los individuos de los colores focales. Los colores focales son los
mejores ejemplos de un color que se corresponde con un término básico (serían los mejores ejemplos de los
colores de la jerarquía de arriba). La tribu Dani de Nueva Guinea sólo tiene dos términos para los colores:
“mili” para el negro y los oscuros y “mola” para el blanco y los claros. Cuando se les enseñó nombres
arbitrarios para el resto de colores, aprendieron más rápido los que están en la lista, los focales, que los no
focales. Igual ocurrió en tareas de recuerdo, recordaban más los focales que los no focales.

Los niños de 3 años también prefieren los colores focales, los agrupan con más precisión, les prestan
más atención y tienen más probabilidades de elegirlos como ejemplos de un color que los no focales.

Por tanto a primera vista la división del espectro de colores no parece arbitraria, sino que tiene su base
en la fisiología del sistema de visión de los colores. Los seis puntos más sensibles del sistema visual
(fisiología de los receptores) corresponden a los seis primeros colores focales (blanco y negro luz total o
nula; y los pares rojo-verde y amarillo-azul, con sus respectivas sensibilidades a longitudes de onda, esto de
percepción), las diferencias se deben a cuestiones biológicas más que a lingüísticas.

Bornstein realizó trabajos con niños prelingüísticos. Vio que los niños de 4 meses se acostumbraban con
más facilidad a los colores que se encuentran en el centro de las categorías rojo y azul que a los colores que
se encuentran fuera de los límites. También encontró una influencia del entorno en la asimilación de estos
términos de los colores. Observó que en sociedades cercanas al Ecuador, los nombres de los colores con
longitud de onda pequeña (azul y verde), se identificaban cada vez más entre sí y en el extremo, con el
negro. Explicó esto como una adaptación al medio de estas personas para protegerse del exceso de rayos
ultravioletas, por lo que han desarrollado una pigmentación amarilla en los ojos, que hace que les proteja de
la luz de onda corta, a costa de una menor sensibilidad del verde y al azul. Por tanto la explicación de
Bornstein a las diferencias culturales en el nombramiento de los colores vendría dada por cuestiones
biológicas y no lingüísticas.
Brown dice lo mismo, que el nombre de los colores no aporta claridad ni evidencia a la hipótesis de
Sapir-Whorf. Los datos de Bornstein ponen de relieve la importancia de factores biológicos en el desarrollo
del lenguaje.

Problemas detectados en los estudios de Berlin y Kay: de los 20 idiomas analizados, 19 de ellos fueron
obtenidos de personas bilingües que vivían en EE.UU. y hay que decir que las categorías de colores de las
personas bilingües difieren sistemáticamente de las de las personas que sólo hablan un idioma (los
bilingües clasifican de manera parecida a la segunda lengua, y “olvidan” la clasificación de su lengua
materna, sea cual sea ésta). También parece que de los 92 idiomas que estudiaron más tarde, obviaron
algunos nombres de colores básicos en muchos idiomas, además de usar criterios sospechosos para
clasificar los colores como básicos.

Problemas detectados en los estudios de Heider: Los colores focales se pueden discriminar más desde el
punto de vista perceptivo que los colores no focales usados en la gama de Berlin y Kay, ya que desde el
punto de vista perceptivo estaban más lejos de sus vecinos. Al corregir esta artificialidad de los
materiales, otros investigadores han concluido que los focales no se recuerdan mejor que los no focales.
Por otra parte, una medida de la precisión de la comunicación permitía predecir el desempeño
memorístico. Esta conclusión sugiere que tener un apelativo conveniente del color, puede ayudar a
recordarlo. Por tanto concluyeron que el reconocimiento del color estaba afectado por el vocabulario
sobre los colores (no había por tanto ventaja de reconocimiento).

Ahora también resulta evidente que los colores básicos tampoco son iguales en cuanto a facilidad de
adquisición. Por ejemplo en inglés “marrón” y “gris” son los colores menos preferidos, los menos usados
entre adultos dirigiéndose hacia niños y los que más tardan en aprenderse.

Como conclusión: parece haber efectos tanto biológicos como lingüísticos en el recuerdo de los colores,
por lo que éstos no serían un buen instrumento de contrastación de la hipótesis de Sapir-Whorf por varias
razones:

 Tarea muy sensible al método usado y a los materiales empleados.

 Cuanto más básico es el proceso cognitivo o perceptivo, es probable que haya menor margen de la
influencia arriba-abajo del lenguaje. La percepción del color es de un nivel de procesamiento muy bajo.
Por lo que pensar que, aunque el lenguaje sea muy importante, puede modificar las células de los
ganglios, es absurdo.

 Y a pesar de todo parece haber influencia del lenguaje en el procesamiento del color, pero no afecta a
categorías biológicas y si a categorías más lingüísticas.

 Diferencias lingüísticas en la codificación del espacio y del tiempo

Boroditsky afirma que hay varios casos en los que las diferencias en la codificación en los distintos
idiomas generan diferencias en el desempeño de las personas que los hablan. Ej.: los distintos idiomas
codifican los elementos espaciales de distinta manera:

 Sistema relativo de codificación del espacio: empleado por la mayoría de los idiomas, utilizan
términos relativos como delante de, detrás de, a la derecha de, a la izquierda de, etc., para designar la
posición de los objetos en el espacio.

 Sistema absoluto de codificación del espacio: empleado por algunos idiomas, Ej.: el Tzetal (Maya).
(es parecido a nuestro sistema para describir los puntos cardinales Ej.: hacia el norte).

 Los que utilizan el sistema absoluto y sistema relativo interpretan y tienen resultados muy distintos
en tareas de orientación no lingüística.
 Ambos se aprenden igual de rápido y a la misma vez en la infancia dependiendo de la cultura. Para
evaluarlos se presenta la tarea de orientación no lingüística. Ver Pág. 81

Codificación del tiempo: cada idioma codifica el tiempo a su manera.

 Patrón metafórico “delante-atrás” utilizado en el inglés, (mirar hacia delante, caerse hacia atrás, sacar
una reunión adelante…). Construyen líneas temporales horizontales.

 Patrón metafórico “arriba abajo” utilizado en el Mandarín, donde arriba se corresponde con lo último
y abajo con lo siguiente. Las personas que hablan mandarín tienen más probabilidades de construir líneas
temporales verticales para pensar sobre el tiempo. si un mandarín acaba de ver una serie de objetos
verticales confirman más rápido que marzo va antes que abril que si han visto una serie de objetos
horizontales. Los angloparlantes mostraron el patrón opuesto.

Se pueden encontrar diferencias análogas del desempeño en la forma en que los idiomas codifican la
forma de los objetos y el género gramatical.

Codificación del movimiento: El inglés codifica la dirección del movimiento con un modificador
(“desde”, “hacia”) y el tipo de movimiento con un verbo (“correr”, “andar”). En griego es al revés, la
dirección con un verbo y el tipo de movimiento con un modificador. Al ser puestos a prueba niños ingleses y
griegos sobre tareas relacionadas con movimientos (lingüísticas y no lingüísticas, como fotos de animales en
movimiento), sólo encontraron diferencias en el desempeño de las lingüísticas.

Recientemente se ha debatido sobre si las diferencias lingüísticas reflejan la presencia o ausencia de


“pistas externas” y si afectan al desempeño de todas las tareas o sólo al de las tareas lingüísticas. Por ejemplo
Li y Gleitman tacharon los estudios sobre la codificación del espacio como artificiales, y defendieron que los
resultados dependían de pistas en el entorno. Cogieron a un grupo de angloparlantes nativos y repitieron la
tarea pero introduciendo una nueva variable; utilizaron marcos de referencia absolutos o relativos, la
presencia o ausencia de pistas externas (en una condición tenían las persianas de la sala subidas, por lo que
se podía ver el exterior, y en otra las tenían cerradas). Los sujetos respondieron de manera diferente. Si
podían ver el mundo exterior era más probable que respondieran con marcos absolutos. Si NO podían ver lo
de fuera tendían a responder más con marcos relativos. Aunque claro, hay otros investigadores que repitieron
esta tarea y además la ampliaron con condiciones dentro y fuera de la sala y no encontraron estas diferencias.

Conclusión: hay evidencia de que la forma en que los distintos idiomas codifican cosas como el tiempo,
el espacio, el género, la forma o el movimiento influye en cómo piensan las personas que los hablan. Esto
sugiere que nuestro idioma podría determinar cómo realizamos tareas que, a primera vista, no parecen
implicar al lenguaje para nada, aunque esta afirmación sea controvertida.
 Evaluación de la hipótesis de Sapir – Whorf

La versión débil parece estar de nuevo en auge. Hay evidencia de que el lenguaje puede afectar a
procesos cognitivos, incluso los de percepción y memoria. Además la investigación sobre
Percepción/Categorización muestra la influencia sobre el procesamiento superior en la creación de
características visuales de bajo nivel al principio del procesamiento visual.

Si una idea se puede expresar en un idioma y no en otro, esa diferencia ha de tener alguna consecuencia
en cuanto a la facilidad con la que se pueden adquirir y realizar procesos cognitivos.

Si para un concepto se tiene una palabra y no una frase, esto repercutirá en la cantidad de memoria que
se deberá poner en marcha.

Las diferencias en los sistemas numéricos influyen igualmente en promover estilos cognitivos.

El grado en que se considera que la hipótesis de Sapir-Whorf es posible depende del grado en que se
considera que el lenguaje es un mecanismo evolutivo tardío que se limita a traducir nuestros pensamientos
en un formato adecuado para la comunicación más que entenderlo como un sistema simbólico rico que
subyace a la mayor parte de la cognición. También es más posible en un sistema cognitivo con una amplia
retroalimentación de los niveles posteriores a los anteriores del procesamiento.

8.3 Lenguaje y pensamiento: conclusión

Existe entre ellos una relación compleja. El entorno y la biología determinan conjuntamente nuestra
arquitectura cognitiva básica. Dentro de los límites que impone esta arquitectura, los idiomas pueden variar
sobre la forma de diseccionar el mundo y en aquello que ponen de relieve, lo que a su vez puede influir sobre
facetas de la percepción o la cognición.

El lenguaje es un medio importante de pensamiento y conceptualización y una gran parte de nuestra


vida mental se lleva a cabo con un lenguaje.

 Una perspectiva potente es que el lenguaje es esencial para el pensamiento conceptual y es el medio
con el que se realiza.

 Otra perspectiva, más débil, es que el lenguaje es el medio del pensamiento consciente proposicional
(frente al visual).

 Y una visión aún más débil es que el lenguaje es necesario para adquirir muchos conceptos, e influye
sobre la cognición de la forma que se ha visto.

 Otra visión es que no existe ninguna relación aunque el lenguaje pueda, evidentemente, expresar
pensamientos.

 Carruthers afirma que el lenguaje es el pegamento de la cognición y sirve para poder pasar
información de un módulo a otro, es decir, que el lenguaje es el medio del pensamiento consciente.

Hay también diferencias culturales. En Occidente el lenguaje y el discurso interno, se supone que
ayudan a pensar, en Oriente se supone que el habla interrumpe el pensamiento. Esto conlleva diferencias en
el desempeño, pensar en voz ayuda a occidentales a resolver problemas de razonamiento, pero no hace lo
mismo con los orientales.

La influencia del pensamiento sobre el lenguaje tiene consecuencias importantes, por ejemplo respecto
al género:

Que la palabra “hombre” se use para designar a toda la humanidad puede hacer pensar en la superioridad
de éste sobre la mujer. “Chairman” (hombre al cargo, presidente) se usa en inglés para los presidentes de
las compañías, lo que hace que se les suponga de antemano hombres, ya que no se usa simplemente
“Chair” o “chairperson”.

Los sustantivos con un género estereotipado (“cirujano” o “enfermera”), crean expectativas sobre el
género. Se ha demostrado que se tarda más en leer cuando hay una incongruencia entre lo leído y lo
esperado en este tema, como cuando se hace referencia a un cirujano y el pronombre que se usa es “ella”.

Por último, es evidente que podemos pensar sin lenguaje. Algunos animales razonan y resuelven
problemas, los bebés tienen ricas capacidades cognitivas, igual que personas que por daño cerebral no tienen
capacidades lingüísticas, si tienen capacidades cognitivas. También influye la cultura en nuestra forma de
pensar.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Capítulo 4: Reconocimiento visual de las palabras


1. Introducción
El reconocimiento implica la identificación de un elemento como algo con lo que estamos familia-
rizados, no sólo estamos interesados en descubrir cómo decidimos que una serie de letras impresas nos
resulta familiar o no, sino también cómo se accede a toda la información relacionada con una palabra. Por
ejemplo, cuando ve la serie de letras «f a n t a s m a», sabe algo más que el simple hecho de que forman
una palabra. En el acceso léxico, accedemos a la representación de un elemento a partir de su
representación perceptual y, en ese momento, se encuentra disponible este tipo de información.

Balota denominó al momento en que una persona ha reconocido una palabra pero todavía no ha
accedido a su significado «el momento mágico». En los modelos con un momento mágico, sólo se puede
acceder al significado de una palabra cuando ya se ha reconocido. Johnson-Laird propuso que la
profundidad del acceso léxico puede variar. Observó que, en ocasiones, apenas recuperamos información
sobre una palabra. Gerrig amplió esta idea, y afirmó que hay distintos «modos de acceso léxico» en
distintos contextos.

Aunque la gran mayoría de los seres humanos ha utilizado el lenguaje hablado durante mucho tiempo,
la alfabetización es un acontecimiento relativamente reciente. Ha habido una gran cantidad de
investigación sobre el reconocimiento visual de las palabras, en parte debido a su comodidad.

2. Métodos básicos y conclusiones básicas

2.1 El estudio de los movimientos oculares en la lectura

El estudio de los movimientos oculares ha adquirido importancia para ayudarnos a comprender tanto la
forma en que reconocemos las palabras como la forma en que procesamos unidades más largas de lenguaje
impreso. Hay una serie de técnicas disponibles para investigar los movimientos oculares:
 Técnica seguimiento del limbo ocular: Se refleja un haz infrarrojo en el globo ocular haciendo un
seguimiento del límite entre el iris y el blanco del ojo (el limbo ocular). Aunque es un buen sistema para
hacer un seguimiento horizontal del movimiento del ojo, no es muy bueno para hacer un seguimiento de
los movimientos verticales.
 El sistema de Purkinje, es una de las técnicas más utilizadas que hace un seguimiento preciso tanto de
los movimientos horizontales como de los verticales. El sistema calcula los movimientos del centro
exacto de la pupila.

Cuando leemos, no movemos los ojos de manera homogénea, los ojos presentan sacudidas y fijaciones:
 Sacudidas: los ojos se desplazan en saltos de una duración de entre 20 y 60 ms.
 Fijaciones: entre las sacudidas se dan intervalos de entre 200 y 250 ms en los que el ojo se para.

Cuando el ojo se está moviendo en una sacudida se está asimilando muy poca información. La
información que se pueden asimilar durante una fijación es limitada: quince caracteres a la derecha y tan
sólo entre tres y cuatro a la izquierda para los angloparlantes. Esta asimetría se revierte en el caso de las
personas que leen en hebreo, que leen de derecha a izquierda. Las personas con una gran habilidad de
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

lectura pueden asimilar más información en una fijación (tienen un mayor alcance) que los lectores menos
adiestrados. La información de las regiones más alejadas de la distancia de alcance se utiliza para guiar los
siguientes movimientos oculares.

La fóvea es la parte más sensible del campo visual y corresponde aproximadamente a los siete
caracteres centrales de un texto de tamaño medio. La fóvea está rodeada de la parafóvea donde la agudeza
visual es más reducida; más allá se encuentra la periferia, donde la agudeza visual es aún peor. Extraemos
la mayor parte del significado de lo que leemos de la zona de la fóvea. Rayner y Bertera mostraron con
una máscara móvil que si se tapaba la región de la fóvea, era posible leer con la región inmediatamente
circundante a la fóvea (parafóvea), pero a un ritmo mucho más lento (sólo 12 palabras por minuto). Si se
tapaban tanto la fóvea como la parafóvea, era imposible leer.

A veces cometemos errores, o tenemos que repasar el material anterior, y tenemos que mirar atrás.
Estos movimientos oculares hacia atrás al material anterior, denominados regresiones, son a veces tan
breves que no somos conscientes de ellos. El estudio de estos movimientos oculares regresivos proporciona
importante información sobre cómo aclaramos el material ambiguo.

El modelo más influyente del control del movimiento ocular es el modelo E-Z Reader. En este modelo,
la atención, el procesamiento visual y el control oculomotor determinan conjuntamente cuándo y a dónde
se mueven los ojos cuando leemos. La idea central de este modelo es que, cuando leemos, nos fijamos en
un punto, y después la atención visual progresa avanzando por la línea de texto hasta que se alcanza un
punto donde las limitaciones de la precisión del sistema visual dificultan extraer más información y
reconocer las palabras. A continuación se desplaza la atención y se programa un movimiento ocular en el
sistema oculomotor para moverse al punto de dificultad. A continuación se produce una sacudida a la
nueva localización, y se repite el proceso. Las sacudidas están programadas en dos etapas: Hay una primera
fase lábil cuando se puede cancelar la sacudida prevista si resulta que ya no es necesaria; tras esta primera
fase inicial lábil no se pueden cancelar las sacudidas. El supuesto central, y más controvertido, del modelo
es que se presta atención de una palabra a otra de forma estrictamente serial, cambiando únicamente
cuando se ha identificado cada palabra. Este supuesto asegura que las palabras se procesan en el orden
correcto. La «identificación» de las palabras se produce en dos fases:
 Comprobación de la familiaridad (¿conozco esta palabra? ¿Es probable que pueda utilizarla?). La
culminación de la primera fase puede desencadenar la programación de una sacudida.
 El acceso léxico pleno, en el que se recupera el significado y la representación de la palabra integrada
con la estructura lingüística emergente. La culminación de la segunda fase desencadena un cambio de la
atención que pasa a la siguiente palabra.

Por tanto, en este modelo las sacudidas y la atención están separadas, y tienen distintas fuentes de
control (familiaridad e identificación). El procesamiento lingüístico puede afectar a los movimientos
oculares; por ejemplo, si resulta que un análisis es incorrecto, podemos volver a una localización anterior.
En el modelo, los procesos de nivel superior intervienen en el impulso general hacia adelante sólo cuando
algo ha salido mal.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

2.2 Tiempo de reacción y otras mediciones

En la tarea de denominación se presenta a los participantes una palabra de forma visual que tienen que
nombrar, midiéndose el tiempo que tarda el participante en empezar a pronunciar la palabra en voz alta (la
latencia del nombramiento). La latencia del nombramiento suele ser de aproximadamente 500 ms desde el
momento en que se presenta la palabra.

En la tarea de decisión léxica el participante tiene que decidir si una serie de letras es una palabra o una
palabra inexistente. En el método de presentación visual más frecuente se muestra la serie de letras en la
pantalla de una computadora (también existe una versión auditiva de esta tarea). Por ejemplo, el
participante debe apretar una tecla en respuesta a la palabra «enfermera» y otra tecla en respuesta a la
palabra inexistente «entermera». El experimentador mide el tiempo de reacción y las tasas de error. Los
experimentadores tienen que ser muy sensibles al problema del intercambio entre velocidad y precisión
(cuanto más rápido contesta el participante, más errores comete). Por tanto, los investigadores suelen tener
que analizar tanto los tiempos de reacción como el número de errores.

En los experimentos que miden el tiempo de reacción no resulta particularmente útil medir el tiempo
absoluto necesario para responder. Lo que importan son las diferencias entre condiciones. Suponemos que
nuestras manipulaciones experimentales sólo alteran determinados aspectos del procesamiento, y que todo
lo demás permanece constante y, por lo tanto, queda cancelado.

En la identificación taquistoscópica se muestran palabras a los participantes durante un periodo de


tiempo muy breve. Los investigadores utilizaron en el pasado un instrumento denominado taquistoscopio;
ahora se utilizan computadoras, pero se sigue utilizando el nombre para hacer referencia a la metodología
general. El experimentador registra los umbrales a los que los participantes ya no pueden identificar
elementos con seguridad. Si la presentación es suficientemente breve, o si se interfiere con los procesos de
percepción normales cuando se presenta un segundo estímulo muy deprisa después del primero, podemos
encontrar, en ocasiones, lo que se conoce comúnmente como percepción subliminal. En este caso, la
conducta de los participantes se ve afectada, aunque no son conscientes de que se haya presentado algo.

La tarea de clasificación semántica requiere que el participante tome una decisión que utiliza procesos
semánticos. Por ejemplo, ¿la palabra «manzana» hace referencia a una «fruta» o a una «verdura»? ¿Es el
objeto al que hace referencia determinada palabra mayor o menor que una silla?

Las distintas técnicas no siempre proporcionan los mismos resultados. Utilizan distintas facetas del
procesamiento.

Una de las ideas más importantes en el reconocimiento de las palabras es la de priming o primado.
Implica presentar material antes de presentar la palabra para la que se quiere una respuesta. Uno de los
paradigmas más comunes consiste en presentar una palabra antes de presentar la palabra objetivo para la
que se quiere que se dé una respuesta (como nombrarla o tomar una decisión lógica).

La primera es la palabra prime y la palabra para la que se quiere una respuesta es la palabra objetivo,
diana o target. El tiempo que transcurre entre que se presenta por primera vez la palabra prime (el
comienzo) y el inicio de la palabra diana se denomina asincronía del comienzo del estímulo o ACE.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

2.3 ¿Qué facilita (o dificulta) el reconocimiento de las palabras?

Muchos de los fenómenos que vamos a ver a continuación también se aplican al reconocimiento de la
palabra hablada. En concreto, los efectos de frecuencia y el priming semántico se encuentran en ambos
tipos de reconocimiento.

 Interferencia de la identificación

Podemos ralentizar la identificación de las palabras haciendo que sea más difícil reconocer el estímulo,
se puede conseguir de distintas formas:
 Degradación del estímulo: consiste en degradar su apariencia física. Se puede conseguir separando las
letras que forman la palabra, reduciendo el contraste entre la palabra y el fondo sobre la que se presenta
o rotando la palabra presentándola en un ángulo extraño.
 Enmascaramiento hacia atrás: La presentación de otro estímulo inmediatamente después del objetivo
interfiere con el proceso de reconocimiento. Hay dos formas distintas de hacerlo: Fig. 4.2
o Enmascaramiento por energía (o iluminación, o ruido aleatorio): Cuando el enmascaramiento del
estímulo no está estructurado (p. ej., si es solamente un montón de puntos negros situados de manera
aleatoria, o sencillamente un resplandor de luz). Sus efectos actúan sobre el nivel de detección de la
característica visual provocando escasez de las características visuales y dificultando su
identificación.
o Enmascaramiento con patrón (o enmascaramiento de las características): Cuando el enmascaramiento
del estímulo está estructurado (p. ej., si incluye letras o partes aleatorias de letras). Estos dos tipos de
enmascaramiento tienen efectos muy distintos. Sus efectos crean interferencias a nivel de las letras y
limita el tiempo disponible para procesar.

El enmascaramiento se utiliza en los estudios de una de las mayores controversias de la


psicolingüística, la de la percepción sin conciencia. La percepción sin conciencia es una forma de
percepción subliminal. Investigadores como Allport y Marcel descubrieron que las palabras que se han
enmascarado hasta el punto de que los participantes afirman que no son conscientes de su presencia
pueden, no obstante, producir una activación del sistema de identificación de las palabras, incluso hasta el
nivel del procesamiento semántico. Es decir, podemos acceder a información semántica sobre un elemento
sin ser conscientes de su presencia. Han surgido críticas metodológicas. Hasta la fecha, no está claro si
podemos identificar y acceder a información relacionada con el significado de las palabras sin una
sensibilización consciente, aunque la balanza de la evidencia se decanta probablemente por la respuesta
afirmativa.

Otra forma informativa con la que podemos interferir en el reconocimiento de las palabras consiste en
presentar una palabra, pero en retrasar la presentación de una o dos letras al inicio de la palabra
enmascarando esas letras hacia atrás. En inglés, tras 60 ms no hay gran diferencia pero, antes de eso, el
retraso de las consonantes perturba el reconocimiento visual de las palabras mucho más que el retraso de
una vocal. Por tanto, la identificación de las consonantes es particularmente importante al principio para
reconocer una palabra. En inglés, las consonantes tienen una correspondencia más regular de la apariencia
visual al sonido, mientras que las vocales no. En italiano, que tiene una correspondencia mucho más
regular de las vocales, no hay una ventaja de las consonantes. Por tanto, los lectores que leen distintos
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

idiomas hacen un uso diferencial temprano de la información que es probable que los ayude a identificar
una palabra.

 Frecuencia, familiaridad y edad de la adquisición

La frecuencia de una palabra es un factor muy importante en su reconocimiento. Las palabras que se
utilizan comúnmente son más fáciles de reconocer y se responde más rápidamente ante ellas que ante
palabras menos comunes.

El efecto de la frecuencia no es meramente el resultado de diferencias entre palabras frecuentes e infre-


cuentes (p. ej., «año» frente a «herejía») donde cabría esperar una diferencia, sino también entre palabras
comunes y palabras ligeramente menos comunes (p. ej., «rain», lluvia, frente a «puddle», charco). Por
tanto, es esencial controlar la frecuencia en los experimentos psicolingüísticos, asegurando que se tienen en
cuenta las distintas condiciones. Evidentemente, hay diferencias entre distintas versiones del inglés (p. ej.,
«pavement» y «sidewalk», dos palabras para acera) y entre la frecuencia de la palabra escrita y hablada.
Por ejemplo, el pronombre «yo» es diez veces más frecuente en el inglés hablado que en el escrito. La base
de datos CELEX que está almacenada electrónicamente, se utiliza para comprobar dicha frecuencia.

Hay otras varias variables correlacionadas con la frecuencia. Por ejemplo, las palabras frecuentes
tienden a ser más cortas. Si quiere demostrar un efecto sin ambigüedades de la frecuencia, debe tener
cuidado para tener en cuenta estos otros factores.

La frecuencia está particularmente entremezclada con la edad de la adquisición. La edad de la adquisi-


ción de una palabra es la edad a la que aprendió una palabra por primera vez. En conjunto, los niños
aprenden las palabras más comunes primero, pero hay excepciones: por ejemplo, «gigante» suele
aprenderse a una edad temprana aunque es una palabra con una frecuencia relativamente baja. Las palabras
que se aprenden a una edad temprana se nombran más deprisa y con más precisión que las que se aprenden
posteriormente, en toda una serie de tareas, incluyendo el nombramiento de objetos, nombramiento de
palabras y la decisión léxica. Cuanto más tardía es la edad de adquisición de un nombre, más difícil será
que la produzca un individuo con una lesión cerebral.

Se ha sugerido que todos los efectos de la frecuencia son, realmente, efectos de la edad de la
adquisición. Los efectos de la edad de la adquisición persisten incluso cuando se tiene en cuenta la
frecuencia acumulativa (frecuencias de palabras percibidas en toda la vida). Es probable que tanto la
frecuencia como la edad de la adquisición tengan un efecto sobre el procesamiento de las palabras. Es
posible que las distintas tareas difieran en su sensibilidad a la edad de la adquisición y a las distintas
mediciones de la frecuencia; la edad de la adquisición afecta particularmente a la lectura de las palabras,
mientras que la frecuencia acumulada tiene un efecto en todas las tareas.

Por otra parte, Zevin y Seidenberg proporcionan simulaciones que demuestran que las tareas que
implican redundancia y regularidad en la correspondencia entre los elementos de entrada y de producción
(p. ej., la lectura, donde las letras se convierten en sonidos de forma muy predecible) son menos proclives a
los efectos de la edad de la adquisición y sólo son sensibles a la frecuencia acumulada, pero las tareas con
menos redundancia y regularidad (como aprender los nombres de objetos o caras) sí muestran efectos de la
edad de la adquisición.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Los efectos de la edad de adquisición podrían surgir a consecuencia de la pérdida de plasticidad de los
sistemas en desarrollo. En vez de entrenar a una red conexionista para que aprenda simultáneamente todos
los elementos, Ellis y Lambón Ralph introdujeron elementos en el régimen de entrenamiento en distintos
momentos. Los elementos aprendidos al principio tenían una ventaja, independientemente de su frecuencia
de aparición. A medida que una red aprende más elementos, se hace menos plástica y los últimos elementos
no están representados tan eficientemente, o con tanta potencia, como los que se aprendieron al principio,
porque es más difícil diferenciarlos de los elementos que ya se han aprendido. Los elementos que se han
aprendido al principio tienen una ventaja que les permiten desarrollar representaciones más fuertes en la
red. Los elementos que se han aprendido tarde sólo pueden desarrollar fuertes representaciones si se pre-
sentan con una frecuencia muy alta.

 Longitud de la palabra

Gough afirmó que durante el reconocimiento de las palabras se sacan las letras de una pequeña
memoria visual a corto plazo, una a una. La tasa de transferencia es más lenta en los lectores menos
expertos. Por tanto, no sería nada sorprendente que fuera más difícil identificar las palabras largas que las
cortas. Sin embargo, resulta muy difícil identificar un efecto de la longitud independiente de la frecuencia.
Una complicación es que hay tres formas distintas de medir la longitud de las palabras: por el número de
letras que hay en la palabra, por el número de sílabas y por el tiempo que se tarda en decir la palabra. Fig.
4.3

Chumbley y Balota encontraron efectos de la longitud en la decisión léxica cuando las palabras
existentes e inexistentes tenían la misma longitud y regularidad en su pronunciación.

Weekes determinó que la longitud de la palabra (medida por el número de letras) tenía un escaso efecto
en el nombramiento de las palabras cuando se tenían en cuenta otras propiedades de las mismas (como el
número de palabras parecidas a la palabra objetivo), aunque la longitud tenía cierto efecto en la lectura de
las palabras inexistentes. Parece que el número de letras de una palabra tiene poco efecto en el caso de las
palabras cortas, pero cierto efecto para palabras con entre cinco y doce letras. Además, los efectos de la
longitud de la palabra en el nombramiento reflejan probablemente el mayor número de palabras parecidas
con una pronunciación similar en el caso de las palabras más cortas.

El tiempo de nombramiento aumenta en función del número de sílabas en una palabra. Existe al menos
cierta contribución de la preparación para articular estas sílabas, además de cualquier efecto de la
percepción. Encontramos un efecto similar en el nombramiento de imágenes. Tardamos más tiempo en
nombrar imágenes de objetos descritos con palabras largas en comparación con las imágenes de objetos
descritos con palabras cortas, y tardamos más en leer números que tienen más sílabas en su pronunciación.

 Efectos de la vecindad

Algunas palabras tienen un gran número de palabras parecidas a ellas mientras que otras palabras de
frecuencia similar tienen pocas palabras que se parezcan. Coltheart y cols. definieron el estadístico N como
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

el número de palabras que se puede crear cambiando la letra de una palabra objetivo (vecinos ortográficos).
N es un indicador del tamaño del vecindario (o densidad).

El tamaño del vecindario afecta al reconocimiento visual de las palabras, más fácil reconocer las
palabras cuando con un elevado N se tienen en cuenta otros factores. El desempeño en tareas de
nombramiento y decisión léxica es más rápido para las palabras de baja frecuencia que tienen muchos
vecinos ortográficos. Las partes que riman de los vecinos parece particularmente importante para producir
la facilitación.

Además del tamaño del vecindario, la frecuencia de los vecinos también podría ser importante aunque,
en una revisión de la literatura, Andrews concluyó que el tamaño del vecindario tiene más efectos que la
frecuencia de los vecinos. Por otra parte, es sorprendente que tener muchos vecinos provoque una
facilitación, en vez de competencia.

 Diferencias entre palabras existentes e inexistentes

Por lo general se responde más deprisa a las palabras existentes que a las palabras inexistentes. Las
palabras inexistentes más inverosímiles se rechazan más deprisa que las palabras inexistentes verosímiles.
Por tanto, en una tarea de decisión léxica somos relativamente lentos cuando tenemos que rechazar una
palabra inexistente como «sunto» (que podría haber sido una palabra y, de hecho, se parece mucho a una,
«santo»), pero rechazamos rápidamente una palabra como «tnszv». Las palabras inexistentes verosímiles
(es decir, que comprendan reglas de formación de las palabras del idioma en tanto en cuanto no incluyen
series de letras inaceptables) se denominan, en ocasiones, pseudopalabras.

 Priming por repetición

La técnica de facilitar el reconocimiento repitiendo una palabra se conoce como priming por repetición.
Cuando ha identificado una palabra, es más fácil identificarla en la siguiente ocasión. La repetición facilita
tanto la precisión de la identificación perceptiva como los tiempos de respuesta a la decisión léxica. La
repetición tiene un efecto sorprendentemente duradero (varias horas, o incluso más).

En una tarea de decisión léxica, los efectos del priming por repetición son más potentes con las
palabras de baja frecuencia que con las de alta frecuencia, un efecto conocido como el de la atenuación de
la frecuencia. Forster y Davis también enmascararon con patrones la palabra prime en un intento de borrar
cualquier posible memoria episódica de la misma. Concluyeron que los efectos de repetición tienen dos
componentes: un efecto muy breve de acceso léxico y un efecto episódico a largo plazo, y sólo éste último
es sensible a la frecuencia.

Ha habido un considerable debate sobre si el priming por repetición se produce debido a la activación
de la representación almacenada de un elemento o si se debe a la creación de un registro de todo el
procesamiento, incluyendo la memoria episódica. Una evidencia importante que respalda la visión episó-
dica es el descubrimiento de que normalmente logramos la facilitación mediante priming por repetición
únicamente dentro de un campo (como la modalidad visual o auditiva) pero el priming semántico (por
significado o asociación) también funciona entre campos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Priming basado en la forma

Cuando dos palabras comparten letras, se dice que están ortográficamente relacionadas y este
fenómeno se conoce como priming ortográfico o basado en la forma. Podríamos esperar que ver una
palabra como CONTRASTE facilite el reconocimiento de CONTRATE, porque hay un solapamiento entre
sus formas físicas.

El priming basado en la forma sólo es eficaz con primes enmascaradas con ACE cortas, de forma que
no se percibe conscientemente la prime. Las palabras primes relacionadas con la forma pueden incluso
tener un efecto inhibidor, ralentizando el reconocimiento de la palabra objetivo, debido a que las palabras
semejantes visualmente están en competencia durante el proceso de reconocimiento, de forma que, en
algunos casos, las palabras parecidas en apariencia se inhiben entre sí. El priming basado en la forma es
mucho más fácil de obtener si se enmascara la prime, tal vez porque el priming cubierto es una forma más
«pura» de priming que no tiene contribución del procesamiento consciente.

 Priming semántico

El priming semántico implica que la identificación de una palabra puede quedar facilitada mediante
una exposición anterior a una palabra con un significado relacionado. Por ejemplo, afirmamos más deprisa
que «doctor» es una palabra si va precedida de la palabra «enfermera» que si va precedida de una palabra
sin un significado relacionado, como «mantequilla» o que si se presenta de manera aislada.

La palabra priming se reserva mejor para la metodología de investigar lo que ocurre cuando una
palabra precede a otra. La primera palabra (el prime) podría acelerar el reconocimiento de la segunda
palabra (la diana), en cuyo caso hablamos de facilitación. A veces, el prime ralentiza la identificación de la
palabra diana, en cuyo caso hablamos de inhibición.

Con intervalos de tiempo muy pequeños, se puede producir el priming si la palabra prime sigue a la
diana. Esto sugiere que las palabras se procesan en cierta medida en paralelo si el tiempo entre las mismas
es suficientemente breve.

El priming semántico es un tipo de efecto del contexto. Se puede ver que el efecto podría tener ciertas
ventajas para el procesamiento. Rara vez se leen (u oyen) las palabras de manera aislada ni tampoco se
yuxtaponen las palabras de manera aleatoria. Las palabras con un significado relacionado pueden aparecer
juntas en las frases. Por tanto, es posible que se acelere el procesamiento si se logra facilitar el acceso a
palabras relacionadas con la palabra que está leyendo actualmente, puesto que es más probable que sea la
siguiente palabra que otra palabra aleatoria.

 Otros factores que afectan al reconocimiento de palabras

Hay otros factores que hay que mencionar, incluyendo la categoría gramatical a la que pertenece la
palabra. Es posible que la facilidad de crear una imagen, el significado y lo concreto de una palabra
también tenga un efecto sobre su identificación.

Rubin concluyó que la frecuencia, implicación emocional y facilidad de pronunciación eran los mejores
elementos de predicción del desempeño en las tareas experimentales utilizadas comúnmente. Whaley que
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

la frecuencia, el significado y el número de sílabas tenían un mayor efecto sobre los tiempos de decisión
léxica, aunque recientemente la edad de la adquisición ha pasado a estar al frente como variable im-
portante. En un estudio de un gran número de palabras, Balota y cobls. concluyeron que la contribución de
las variables dependía en gran medida de la tarea. Las variables semánticas son particularmente
importantes, sobre todo en la decisión léxica. Finalmente, el contexto sintáctico afecta al reconocimiento de
la palabra.

2.4 Procesos atencionales en el reconocimiento visual de las palabras

Leer es un proceso obligado. Cuando ve una palabra escrita, no puede dejar de leerla. La evidencia para
respaldar esta introspección se obtiene de la tarea de Stroop.

Fig. 4.5 Procesamiento automático frente a procesamiento atencional


Procesamiento automático Procesamiento atencional (o controlado)
 Rápido  Es lento
 Paralelo  En serie
 No es proclive a interferencias de otras tareas  Sensible a las interferencias de tareas competitivas
 No requiere espacio en la memoria de trabajo  Utiliza espacio en la memoria de trabajo
 No se puede prevenir/impedir  Se puede prevenir/impedir
 Siempre es facilitador  Puede implicar inhibición
 No está directamente disponible en la consciencia  Sus resultados suelen estar directamente disponibles,
aunque no necesariamente, en la consciencia.
Neely utilizó la tarea de la decisión léxica para investigar los procesos atencionales en la priming
semántico. Concluyó que el patrón de resultados dependía de las ACE. Con ACE pequeñas, una palabra
inesperada pero con relación semántica, quedaba facilitaba respecto a la condición de base, mientras que
los participantes tardaban aproximadamente el mismo tiempo en responder a la palabra esperada, pero sin
relación semántica. Para ACE largas, al contrario.

Neely interpretó estos resultados como demostrativos de dos procesos distintos que actúan con ACE
cortas y largas:
 Con ACE cortas, se produce una rápida facilitación de corta duración de los elementos con relación
semántica, que no se puede impedir, independientemente de cuáles sean las expectativas de los
participantes. Esta facilitación se basa en las relaciones semánticas entre palabras. No hay ningún tipo
de inhibición con ACE cortas. Esto es lo que se conoce como priming automático.
 Para ACE largas, se produce una lenta acumulación de la facilitación que depende de las expectativas de
los participantes. Esto provoca una inhibición de las respuestas para los elementos inesperados, con el
coste de que, si tiene que responder ante estos elementos, su respuesta se verá retrasada. Esta es la
priming atencional.

Normalmente estos dos tipos de priming se producen juntos. En una tarea de priming semántico con
ACE intermedias (unos 400 ms) tanto el priming automático como el atencional pueden estar cooperando
para acelerar la respuesta. También se puede concluir a partir de este experimento, en función de la
condición de elemento inesperado con relación semántica, que se accede de manera automática a los
significados de las palabras.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Más evidencia a favor de un modelo de priming de dos procesos

Antos utilizó asociaciones entre caso particular y categoría (p. ej., «BRAZO-CUERPO»), que son
extremadamente predictivas. Encontró posteriormente evidencia de inhibición (respecto a la base) en la
condición de elemento inesperado pero semánticamente relacionado con ACE más cortas (200 ms), lo que
sugiere que es posible que la inhibición no surja únicamente de los procesos de atención, sino que puede
que tenga un componente automático.

Una segunda fuente de evidencia sobre los efectos atencionales en la priming proviene de los estudios
que manipulan la validez predictiva (validez de los indicios) de las palabras primes. La cantidad de priming
observado aumenta a medida que aumenta la proporción de palabras relacionadas utilizadas en el
experimento. Esto es lo que se conoce como el efecto de la proporción. Si el priming fuera totalmente auto-
mático, entonces la cantidad encontrada debería mantenerse constante para todas las proporciones de pares
de palabras asociadas. El efecto de la proporción refleja el efecto de manipular las expectativas de los
participantes variando la proporción de primes válidas. Si hay un montón de primes que no están realmente
relacionadas con las palabras objetivo, los participantes aprenden rápidamente que las palabras primes no
resultan muy beneficiosas. Esto atenuará a continuación la contribución del priming atencional. No
obstante, en aquellos casos en los que las palabras primes están relacionadas con las palabras diana, el
priming automático sigue produciéndose. Cuantas más primes relacionadas haya en el experimento, más
reconocen los participantes su utilidad, y más aumenta la contribución de la priming atencional.

 Evaluación de los procesos atencionales en el reconocimiento de las palabras

Hay dos procesos atencionales que actúan en el priming semántico: un proceso facilitador automático
de corta duración que no podemos evitar que ocurra, y un proceso atencional que depende de nuestras
expectativas y que es mucho más lento en su inicio. Sin embargo, los beneficios de la priming no carecen
de costes:
 No hay duda de que el priming atencional implica una inhibición de las alternativas inesperadas y si una
de éstas es, en efecto, la palabra objetivo, su reconocimiento quedará retrasado.
 Es probable que también haya un coste de inhibición relacionado con el priming automático. El priming
automático actúa probablemente mediante una propagación de la activación.

Podemos ampliar nuestra distinción entre procesos automáticos y atencionales al propio reconocimien-
to de las palabras. Como hemos visto, debe haber un componente automático en el reconocimiento, porque
este procesamiento es obligatorio. La intuición sugiere que también hay un componente atencional. Si lee-
mos mal una frase, podemos decidir conscientemente volver hacia atrás y volver a leer determinada
palabra. Llevando esto un paso más lejos, si identificamos provisionalmente que una palabra parece
incompatible con el contexto, es posible que comprobemos que la hemos identificado correctamente. Estos
procesos atencionales actúan después de que hayamos contactado primero con el lexicón y, por tanto,
también hablamos de un acceso léxico automático y de efectos de acceso posterior no automático. Los
procesos atencionales son importantes en el reconocimiento de las palabras y pueden desempeñar distintos
papeles en las tareas utilizadas para estudiarlo.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

2.5 ¿Se obtienen distintos resultados con las distintas tareas?

En las tareas de nombramiento o de decisión léxica, no sólo estamos estudiando un reconocimiento


puro de las palabras: estamos estudiando el reconocimiento de las palabras más los efectos de la tarea de
medición. Aún peor, las tareas interactúan con lo que se está estudiando.

La decisión léxica es criticada por ser demasiado sensible a los efectos del acceso posterior, refleja
demasiado las estrategias de los participantes, más que los procesos automáticos del acceso léxico.

¿Cuál es la evidencia de que el nombramiento de las palabras recurrirá probablemente menos a las
estrategias de los participantes que la decisión léxica?
 Los efectos de inhibición son pequeños o inexistentes en las tareas de nombramiento. Se cree que la
inhibición surge de los procesos atencionales, por lo que su ausencia en las tareas de nombramiento
sugiere que el nombramiento no implica procesamiento atencional.
 El priming mediado se encuentra de forma mucho más fiable en la tarea de nombramiento que en la
decisión léxica. El priming mediado es la facilitación entre pares de palabras que sólo están conectadas
mediante un intermediario (p. ej., «perro» prima a «gato» que prima a «ratón» en el par prime-diana
«perro-ratón»). Es mucho más probable que sea automática que impulsada por la expectativa, porque es
improbable que los participantes sean capaces de generar un número suficientemente elevado de
posibles palabras objetivo a partir de la palabra prime en el tiempo suficiente mediante cualquier otro
medio. El priming mediado no se suele encontrar en la decisión léxica porque, normalmente, los
participantes aceleran el procesamiento utilizando la comprobación de acceso posterior. Es posible
demostrar el priming mediado en la decisión léxica manipulando los materiales experimentales y el
diseño, de forma que se desalienta la comprobación posterior al acceso. Por ejemplo, observamos un
priming mediado si sólo están mediados todos los elementos relacionados («perro» y «ratón»), sin que
haya entremezclados pares directamente relacionados semánticamente (p. ej., «perro» y «gato»). No
obstante, la decisión léxica parece implicar rutinariamente una comprobación de acceso posterior.
 En la tarea de decisión léxica se identifica el priming semántico hacia atrás de palabras que sólo están
relacionadas en una dirección pero no en la otra pero no se suele encontrar en la de nombramiento. De
nuevo, es más posible que surja este tipo de priming mediante una comprobación posterior al acceso que
mediante una propagación automática de la activación.

Estos resultados sugieren que la tarea de nombramiento es menos sensible a los procesos posléxicos.
Sin embargo, la tarea de nombramiento tiene un componente de producción que no existe en la decisión
léxica. En concreto, el nombramiento implica ensamblar una pronunciación para la palabra que podría
evitar por completo el lexicón (utilizando lo que se conoce como una ruta subléxica). También hay algunos
posibles efectos estratégicos en el nombramiento: la gente no está dispuesta a verbalizar palabras que
podrían ser incorrectas de alguna manera.

Evidentemente, tanto la decisión léxica como el nombramiento tienen inconvenientes. Por ello, muchos
investigadores prefieren ahora utilizar un análisis de los movimientos oculares. Afortunadamente, los
resultados de los distintos métodos suelen converger. Schilling, Rayner y Chumbley concluyeron que,
aunque la tarea de decisión léxica es más sensible a la frecuencia de las palabras que el nombramiento y la
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

duración de la mirada, existe no obstante una significativa correlación entre el efecto de frecuencia y el
tiempo de respuesta en las tres tareas.

 El centro del efecto de frecuencia

El efecto de la frecuencia podría surgir de dos maneras. Es posible que una palabra sea más accesible
porque vemos (u oímos) las palabras frecuentes más de lo que vemos (u oímos) las palabras menos
frecuentes, o porque decimos (o escribimos) palabras frecuentes más a menudo. Por supuesto, la mayor
parte del tiempo estas dos posibilidades están entremezcladas; al hablar utilizamos fundamentalmente las
mismas palabras a las que estamos expuestos al escuchar. Otra forma de decirlo consiste en preguntarse si
los efectos de la frecuencia se producen en la producción o en el reconocimiento. Morton desenredó estos
dos factores. Concluyó que se pueden explicar mejor los datos con modelos en los que la ventaja de las
palabras de alta frecuencia es que necesitan menos evidencia para alcanzar determinado umbral para su
identificación. El efecto de la exposición repetida a una palabra es, por tanto, que se reduce este umbral. El
reconocimiento posterior de la palabra queda facilitado cada vez que estamos expuestos a la misma, ya sea
al hablar, escribir, leer o escuchar. Por tanto, la frecuencia de la experiencia y la frecuencia de la
producción son, ambas, importantes.

La mayoría de las explicaciones del efecto de la frecuencia suponen que surge como una especie de
práctica: cuanto más frecuentemente hacemos algo, mejor se nos da. Esta idea ha sido puesta en duda re-
cientemente por Murray y Forster, que demuestran que el tiempo que hace falta para identificar las palabras
está linealmente relacionado con la frecuencia, en vez de variar como una función logarítmica, como cabría
esperar si la frecuencia se basara en el aprendizaje que, a su vez, se basa en repeticiones multitudinarias.
(Al final, se terminan obteniendo rendimientos decrecientes al repetir las cosas más veces.)

Balota y Chumbley afirmaron que la frecuencia de las palabras no tienen ningún efecto en la
clasificación semántica. Se trata de una tarea que debe implicar el acceso al significado de la palabra
objetivo. Concluyeron que cuando la frecuencia tenía un efecto sobre el reconocimiento de las palabras, lo
tenía debido a los mecanismos de acceso posterior, como la comprobación en la decisión léxica y la
preparación para la articulación en el nombramiento.

 Evaluación de las diferencias entre tareas

La decisión léxica y la denominación de las palabras no siempre ofrecen los mismos resultados. Las
diferencias se deben a que hay otras tareas que incluyen facetas del procesamiento no automático. Los
tiempos de nombramiento incluyen el ensamblaje de un código fonológico y la articulación, y los tiempos
de la decisión léxica incluyen la preparación de la respuesta y la comprobación posterior al acceso. Por
tanto, las diferencias de los tiempos de reacción entre las tareas pueden reflejar distintas explicaciones del
acceso posterior, más que de los procesos de acceso. Puesto que el objetivo de la lectura es el de extraer un
significado, es cuestionable el grado en que la decisión léxica o la denominación lo consiguen.

2.6 ¿Hay un sistema dedicado exclusivamente al reconocimiento visual de las palabras?

Es improbable que haya habido tiempo para que evolucione un sistema específico para el
procesamiento visual de las palabras. Parece más probable que el sistema de reconocimiento de las palabras
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

haya aprovechado otros procesos cognitivos y perceptivos. Sin embargo, las palabras son muy particulares:
estamos muy expuestos a ellas, tienen una relación muy arbitraria con su significado y, lo más importante,
al menos en los sistemas de escritura alfabética, están compuestas por unidades que corresponden a
sonidos.

¿Es el sistema de procesamiento de las palabras diferente de otros sistemas de reconocimiento? Se


puede analizar esto más sencillamente en el contexto de nombrar imágenes de objetos, la tarea de
denominación de imágenes. Una forma importante de fijarse en esto consiste en analizar el grado en el que
la presentación de las palabras impresas afecta al procesamiento de otro tipo de materiales, como las
imágenes. Las imágenes facilitan las palabras con una relación semántica en una tarea de decisión léxica.
Sin embargo, la magnitud del efecto de priming es sustancialmente inferior que el tamaño del efecto de
priming dentro de la modalidad (imágenes que priman a imágenes, o palabras que priman a palabras). Estas
conclusiones sugieren que los sistemas de denominación de imágenes y reconocimiento de palabras son
independientes, aunque es una afirmación controvertida. Los resultados son sensibles a las peculiaridades
de las tareas utilizadas.

Parte del córtex visual ventral izquierdo en torno a la circunvolución fusiforme responde más a las
palabras y pseudopalabras que a series de consonantes. Los estudios de imágenes fMRI demuestran que
este área es sensible a las propiedades ortográficas, más que perceptivas, de las palabras; las series de
palabras en las que se alterna la mayúscula con la minúscula (mAyUsCuLa) resultan poco familiares desde
el punto de vista perceptivo, pero siguen activando esta zona del cerebro. Estos datos de las imágenes
sugieren que existe una región exclusiva del cerebro, a menudo denominada área de formación visual de las
palabras, que procesa las palabras a un nivel de representación abstracta. Puesto que esta región también
responde a las pseudopalabras, debe estar recogiendo algo implicado con la regularidad ortográfica de una
secuencia de letras abstractas. La idea de un área dedicada en exclusiva a la formación visual de las
palabras está, sin embargo, siendo objeto de controversias porque el área no responde a palabras
inexistentes parecidas a palabras existentes y otros objetos con los que estamos familiarizados.

Farah afirmó que hay dos procesos de reconocimiento visual fundamentales que subyacen a todo tipo
de procesamiento visual:
 El procesamiento holístico de representaciones perceptivas no descompuestas: Propuso que el
reconocimiento de caras solo depende de este procesamiento.
 El procesamiento paralelo de múltiples partes complejas: el reconocimiento de las palabras.
 El reconocimiento de otros tipos de objetos implica ambos tipos de procesamiento en distintos grados,
dependiendo del objeto específico en cuestión.

Puesto que el reconocimiento de los objetos depende tanto del procesamiento holístico como del
procesamiento de las partes, nunca se debería poder encontrar un déficit de reconocimiento de objetos
(llamado agnosia) sin encontrar también, o bien un déficit de reconocimiento de las caras (llamado
prosopagnosia) o de reconocimiento de las palabras (dislexia). Si una persona tiene prosopagnosia y
dislexia, entonces también debería tener agnosia.

Aunque se trata de una propuesta interesante, no está claro que la percepción de las caras sea holística,
que el reconocimiento de los objetos sea dependiente tanto del estado como de las partes, y que el reconoci-
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

miento de las palabras dependa únicamente de las partes. Además, Humphreys y Rumiati describieron el
caso de MH, una mujer con indicios de una atrofia cortical general. A MH se le daba muy mal el reconoci-
miento de los objetos, aunque era relativamente buena en el procesamiento de palabras y caras. Éste es el
patrón que Farah predijo que no debería producirse jamás. Lambon y cobls., describen un caso de estudio
de un paciente que puede reconocer palabras y objetos (como familiares o no familiares, en una tarea de
decisión léxica o de objetos) pero padece un trastorno selectivo a la hora de recuperar los significados de
las palabras. Esta conducta se puede explicar si existe un área concreta de formación visual de las palabras
pero se ha desconectado del sistema semántico.

En resumen, existe una considerable evidencia de que hay una región del cerebro dedicada en
exclusiva a procesar la información sobre las palabras escritas.

3. Facilitación basada en el significado y reconocimiento visual de las palabras

3.1 Tipos de “priming semántico”

Cuanto más se aproxime el significado de dos palabras, mayor es la magnitud del efecto de priming
observado. Podemos diferenciar entre priming asociativo e priming semántico no asociativo:
 Priming asociativo, tarea de asociación de palabras: Se dice que dos palabras están asociadas, si en una
tarea de asociación de palabras, los participantes producen una en respuesta a la otra.
Es importante destacar que no todas las asociaciones son iguales en las dos direcciones. Algunas
palabras se producen como asociadas de otras que no tienen ningún significado relacionado: un ejemplo
podría ser «espera» generada en respuesta a «hospital». El priming mediante asociados se conoce como
priming asociativo; las dos palabras asociadas pueden, o no, tener también una relación semántica.
 Priming semántico no asociativo: Se trata de priming mediante palabras que tienen una relación
semántica pero no asociativa.
Las palabras no asociativas relacionadas semánticamente son aquellas que siguen teniendo una relación
en cuanto a su significado con la palabra objetivo, pero que no se producen como palabras asociadas.
Analicemos el caso de «baile» y «patinaje». Tienen una clara relación en cuanto a significado, pero
«patinaje» surge en muy pocas ocasiones como palabra asociada a «baile». «Pan» y «tarta» son un
ejemplo de otro par de palabras con relación semántica pero no asociadas. Los nombres de categorías
superiores (p. ej., «animal») y los casos particulares (p. ej., «zorro») tienen una clara relación semántica,
pero no siempre están fuertemente asociadas. Las palabras pertenecientes a la misma categoría (p. ej.,
«zorro» y «camello» son ambos animales) están claramente relacionadas, pero no siempre están asocia-
das.

La evidencia del priming asociativo automático es bastante clara, y la mayor parte del esfuerzo de
investigación se ha centrado en la cuestión de si podemos encontrar un priming semántico no asociativo
automático.

Muchos de los primeros estudios no encontraron ninguna evidencia de una facilitación semántica auto-
mática pura. En ellos se sugiere que la priming automático parece producirse únicamente dentro del lexicón
debido a las conexiones asociativas entre las palabras que se producen juntas con frecuencia. Moss y
Marslen-Wilson concluyeron que las asociaciones semánticas (p. ej., pollo-gallina) y las propiedades
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

semánticas (p. ej., pollo-pico) tienen distintos efectos de priming en una tarea de priming multimodal. Las
palabras diana asociadas se primaban independientemente del contexto, mientras que las palabras objetivo
con propiedades semánticas estaban afectadas por el contexto de toda la frase que las rodeaba. Moss y
Marslen-Wilson concluyeron que el priming asociativo no refleja la actuación de las representaciones
semánticas, sino que es un proceso automático intraléxico de bajo nivel.

Por otra parte, Hodgson no encontró un priming para los pares con relación semántica en una tarea de
nombramiento, pero un priming significativo para los mismos pares en la tarea de decisión léxica. Tanto
Fischler como Lupker encontraron cierto efecto de priming de relación semántica sin asociación, también
en una tarea de decisión léxica. La tarea de decisión léxica parece ser una medición menos pura del
procesamiento automático que la tarea de nombramiento y, por ello, esta priming podría haber surgido a
través de medios no automáticos.

Los resultados sugieren que el priming automático en tareas de reconocimiento visual de bajo nivel de
las palabras que utilizan los procesos del acceso léxico puede explicarse por las asociaciones entre las
palabras más que por la mediación basada en el significado de las palabras. «Doctor» prima a «enfermera»
porque estas palabras se producen juntas con frecuencia, lo que lleva a un fortalecimiento de sus
conexiones en el lexicón, más que porque haya un solapamiento en su significado, o por la activación de un
elemento en un nivel de representación superior. En efecto, la concurrencia puede no ser ni siquiera
necesaria para que las palabras terminen asociadas: puede que baste con que dos palabras tiendan a ser
utilizadas en el mismo tipo de contexto. Por ejemplo, tanto «doctor» como «enfermera» tienden a ser
utilizadas en el contexto de «hospital» por lo que podrían terminar asociadas incluso si no se producen
juntas directamente.

McRae y Boisvert pusieron en duda esta conclusión. Utilizaron pares de palabras que tenían una
relación más estrecha pero que aún así no estaban asociadas (p. ej., «esterilla» y «alfombra», «yate» y
«barco») y encontraron una clara facilitación. Ahora parece probable que al menos algunas facetas de la
relación semántica puedan producir una facilitación automática.

El patrón de resultados observado también depende de la naturaleza exacta de las relaciones semánticas
implicadas. Moss y cols. concluyeron que tanto los elementos relacionados semánticamente como los
relacionados asociativamente producían priming de las palabras diana en una tarea de decisión léxica
auditiva. Además, los elementos relacionados semánticamente producían un «impulso» de la magnitud del
priming si también tenían una relación asociativa. Sin embargo, se observó un patrón de resultados distinto
en una versión visual de la tarea de decisión léxica. Aquí, el que se observara un priming semántico puro
(no asociativo) o no dependía del tipo de relación semántica. Las palabras coordinadas de una categoría (p.
ej., «cerdo-caballo») no producían un priming automático sin asociación, mientras que las relaciones
instrumentales (p. ej., «escoba-suelo») sí. Esto sugiere que la información sobre el uso y propósito de un
objeto se activa de forma inmediata y automática.

Finalmente, es necesario señalar que el priming semántico puede tener distintos resultados en el
reconocimiento y la producción de las palabras. Por ejemplo, Bowles y Poon demostraron que el priming
semántico tiene un efecto inhibidor en la recuperación de una palabra dada su definición (una tarea de
producción), mientras que, como acabamos de ver, en una decisión léxica (una tarea de reconocimiento) el
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

priming semántico tiene un efecto facilitador.

3.2 ¿Afecta el contexto de las frases al reconocimiento visual de las palabras?

El priming a partir del contexto de la frase es la cantidad de priming aportado además de los efectos
asociativos de las palabras individuales de la frase. El principio de la frase: «Debes lavarte los dientes todos
los ___» facilita el reconocimiento de una palabra como «día», que es un final predecible de la frase, en
comparación con otra palabra como «años», que no lo es. El contexto de la frase facilita el reconocimiento
a pesar de que no existe una relación semántica entre «días» y otras palabras de la frase.

Fischler y Bloom demostraron que la facilitación sólo se produce si la palabra objetivo es una
continuación extremadamente probable de la frase. Un contexto adecuado tiene un efecto facilitador en
palabras congruentes altamente predecibles respecto a otra palabra congruente pero improbable, y un efecto
inhibidor de las palabras anómalas o incongruentes.

Stanovich y West concluyeron que los efectos contextúales son mayores para aquellas palabras que son
más difíciles de reconocer cuando están aisladas. La facilitación contextual era mucho mayor cuando se
degradaban las palabras objetivo al presentar un menor contraste. En condiciones claras, encontramos
fundamentalmente una facilitación contextual de las palabras probables; en condiciones de degradación de
la palabra objetivo, encontramos una inhibición contextual de las palabras anómalas. Los niños que, por
supuesto, son menos expertos a la hora de leer palabras aisladas que los adultos, también muestran una
mayor inhibición contextual. Las distintas tareas arrojan resultados distintos. Las tareas de denominación
tienden a suscitar una mayor facilitación de las palabras congruentes, mientras que las tareas de decisión
léxica tienden a suscitar más inhibición de las palabras incongruentes. Es más probable que se produzca la
inhibición porque la decisión léxica está, de nuevo, aprovechando procesos atencionales de acceso
posterior. Es probable que estos procesos impliquen una integración de los significados de las palabras
alcanzadas con un nivel de representación de la frase más elevado.

West y Stanovich afirmaron que los efectos de facilitación identificados en la tarea de nombramiento
se deben a un simple priming asociativo de las palabras anteriores de la frase. Si esta explicación es
correcta, cualquier facilitación identificada es, sencillamente, resultado de una imprimación asociativa de
las demás palabras de la frase. El contexto de la frase actúa por inhibición del acceso posterior de las
palabras incongruentes con el contexto anterior, y esto es más probable que se pueda detectar con tareas del
tipo de la decisión léxica que son más sensibles a los mecanismos de acceso posterior.

Un problema de esta conclusión es que la relación léxica no siempre basta por sí sola para producir
facilitación en función del contexto de la frase. Esto sugiere que la facilitación observada proviene de la
integración del material en una representación de texto de nivel superior. Forster observó que la utilización
del contexto puede exigir una gran cantidad de recursos cognitivos. Esto sugiere que los efectos
conceptuales deberían, al menos en algunas ocasiones, no ser automáticos. Tal vez el beneficio potencial es
demasiado pequeño para que merezca la pena que el procesador del lenguaje utilice el contexto de manera
rutinaria. El contexto de las frases podría ser de ayuda práctica únicamente en circunstancias difíciles,
como cuando se ha degradado el estímulo.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

El análisis de los movimientos oculares sugirió que el acceso léxico y el procesamiento conceptual
dependiente del contexto no podrían separarse en las primeras etapas del procesamiento de las palabras. La
máscara afectaba a la frecuencia y a la previsibilidad de manera distinta, sugiriendo que existe un
componente automático temprano del acceso léxico, y un procesamiento posterior no automático, que
requiere esfuerzos y necesita el contexto. Por tanto, es posible que el contexto tenga algunos efectos
tempranos, pero el acceso léxico y el procesamiento conceptual surgen posteriormente como dos procesos
independientes. Este experimento también es un respaldo adicional a la idea de que el temprano
procesamiento léxico es automático, mientras que los efectos posteriores del contexto implican un
componente atencional.

Van Petten analizó los potenciales evento-relacionados (ERP) de frases semánticamente anómalas. Una
ventaja de la técnica de ERP es que permite examinar el curso temporal del reconocimiento de las palabras
antes de que se dé una respuesta explícita (como decir la palabra o apretar un botón). Los efectos del
contexto léxico y de la frase eran diferenciables en los datos de ERP, y los efectos del contexto de la frase
eran más prolongados. Van Petten concluyó que había, en efecto, un efecto del contexto de la frase que no
se podía atribuir al priming léxico. Además, parece que los efectos de priming empiezan al mismo tiempo,
lo que va en contra de un modelo de serie estricto donde la priming léxica precede al priming del contexto
de la frase. Finalmente, Altarriba, Kroll, Sholl y Rayner (1996) analizaron los tiempos de denominación y
movimientos oculares en el experimento en el que pidieron a personas perfectamente bilingües en inglés y
español que leyeran frases en las que se mezclaban los dos idiomas. Encontraron que el contexto de la frase
actuaba tanto mediante el priming intraléxico como mediante el priming de alto nivel. Las restricciones
contextúales siguen actuando entre idiomas, aunque los resultados estaban moderados por una variable
léxica, la frecuencia de la palabra.

Está claro que los resultados son variables, y parecen depender de la tarea. En el discurso real, es
posible que los efectos del contexto global sean más importantes.

En resumen, el contexto de la frase puede tener, o bien un efecto perceptivo temprano, o bien un efecto
de percepción posterior tardío. Podemos observar efectos tempranos, pero sólo en determinadas tareas,
particularmente en aquellas que se asemejan a la lectura de frases completas y un discurso más que dé
respuesta a palabras aisladas.

3.3 Resumen de los estudios de priming basados en el significado

Podemos distinguir entre priming semántico asociativo, priming no semántico asociativo y priming
semántico no asociativo. Todos los tipos de priming tienen tanto componentes automáticos como
atencionales, aunque ha habido un considerable debate sobre cuál es el estatus del priming semántico no
asociativo automático.

Los procesos atencionales incluyen la comprobación de que el elemento accedido es el correcto, la


utilización de expectativas conscientes y la integración de la palabra con representaciones semánticas y
sintácticas de nivel superior de la frase que se está analizando. La pregunta que queda por contestar es el
grado en que el contexto de la frase tiene un componente automático. Los investigadores se muestran
divididos al respecto, pero hay una cantidad de evidencia razonable de que lo tiene. Los modelos
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

conexionistas sugieren un mecanismo por el que el contexto de las frases podría tener un efecto. En un
sistema interactivo, el contexto de la frase proporciona otra restricción más que actúa sobre el
reconocimiento de la palabra de la misma manera que las variables léxicas, facilitando el reconocimiento
de las palabras más predecibles.

¿Cómo se produce el priming? La teoría dominante afirma que el priming semántico se produce
mediante la propagación de la activación. La activación es una propiedad continua, como el calor, que se
propaga por una red. Los elementos que están estrechamente relacionados estarán muy juntos en la red. La
recuperación de algo de la memoria corresponde a activar los elementos adecuados. Los elementos que
están cerca de un elemento en las redes recibirán activación por su propagación desde una única fuente.
Cuanto más alejados estén otros elementos de la fuente, menor activación recibirán. La idea central de la
activación que se propaga es que la activación puede penetrar cierta distancia en la red y que esta
penetración requiere tiempo. Cuanto más lejos se propaga la activación, más tiempo tiene que pasar, y
puede resultar muy difícil detectar algunos de estos efectos muy pequeños.

Unos pocos investigadores afirman que la activación no se propaga y, por el contrario, proponen una
teoría de claves complejas (Ratcliff y McKoon), el priming implica la búsqueda en la memoria con un
indicio complejo que contiene tanto a la palabra prime como a la palabra objetivo. Esta teoría predice que
el priming sólo se puede producir si los dos elementos están directamente vinculados en la memoria. Por
tanto, no puede explicar un priming mediado en la que dos elementos que no están vinculados directamente
pueden primarse mediante un intermediario. Además, ahora hay evidencia de que pasa el tiempo mientras
se propaga la activación y que, cuanto más distantes son dos cosas relacionadas, más tiempo pasa.

4. Morfología: procesamiento de palabras complejas


¿Cómo se almacenan en el lexicón las palabras morfológicamente complejas? ¿Hay una lista exhaustiva
de todas las derivaciones de una palabra, de forma que existen entradas para «beso», «besaba», «besa» y
«besando»? Esto se conoce como la hipótesis de la lista exhaustiva. ¿O almacenamos únicamente la raíz
(«bes-»), y producimos o descodificamos los elementos derivados aplicando una regla? Puesto que el inglés
contiene un gran número de derivaciones irregulares, necesitaríamos entonces una lista independiente de
las excepciones, de forma que almacenaríamos una regla general y una lista de excepciones. Esto se conoce
como la hipótesis de la descomposición obligatoria. Existe una posición intermedia, denominada la
hipótesis de la vía doble. Aunque no resulta económico hacer una lista de todas las palabras derivadas,
algunas palabras derivadas frecuentes y comunes tienen sus propias listas.

Según la hipótesis de la descomposición obligatoria, para reconocer una palabra morfológicamente


compleja primero tenemos que deshacernos de sus sufijos, un proceso conocido como eliminación de
sufijos. En una tarea de decisión léxica, se tarda más en reconocer las palabras que parece que tienen un
prefijo pero que, de hecho, no lo tienen (p. ej., «interés», «resultado, que las palabras de control. Es como si
los participantes estuvieran intentando eliminar los sufijos de estas palabras pero después son incapaces de
encontrar una palabra que se ajuste en su lexicón y tienen que volver a analizarla. En una tarea en la que se
pide a los participantes que valoren si una palabra escrita se pronuncia igual que otra (es decir, si la palabra
es homófona), Taft observó que la gente tenía dificultades con palabras como «fined» (multado) que tienen
una estructura morfológica distinta de su pareja homófona (aquí «find», encontrar). Taft afirmó que la
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

dificultad de estas palabras surge del hecho de que las palabras derivadas están representadas en el lexicón
como una raíz más su sufijo. Finalmente, analicemos el caso de palabras como «seeming» (pareciendo) y
«mending» (arreglando); tienen frecuencias superficiales muy similares; es decir, esas formas concretas
aparecen con aproximadamente la misma frecuencia en inglés. Sin embargo, las raíces tienen frecuencias
de base muy distintas: «seem» y todas sus variantes (seems, seemed) es más frecuente que «mend» y sus
variantes (mends, mended). ¿Cuál determina la facilidad del reconocimiento: la frecuencia superficial o la
frecuencia de base? Resulta que, en conjunto, la decisión léxica es mucho más rápida, y hay un menor
número de errores, en el caso de las palabras con elevadas frecuencias de base, lo que de nuevo sugiere que
las palabras complejas se descomponen y se reconocen en función de su raíz. Sin embargo, el efecto de la
frecuencia de la base no se encuentra para todas las palabras. Esta conclusión sirve de prueba a favor de la
hipótesis de la vía dual, aunque el debate sigue abierto, con Taft que afirma que los efectos de la frecuencia
de base y de superficie se producen en distintas fases del procesamiento, de forma que la ausencia de un
efecto de la frecuencia de base no constituye una prueba en contra de la descomposición obligatoria.

Las palabras compuestas cuyo significado no trasluce de sus componentes (p. ej., «buttercup»,
ranúnculo, formado por butter, mantequilla, y cup, taza) también se almacenarán por separado. Así pues, ni
«leche» ni «cucharilla» en inglés facilitarán el reconocimiento de «buttercup» entre los angloparlantes.

Marslen-Wilson, Tyler, Waksler y Older (1994) analizaron la forma en que procesamos complejas
palabras derivativas en inglés. El patrón de los resultados era complicado y demostraba que el grado de
priming identificado depende de las ideas sobre transparencia fonológica y transparencia semántica. La
relación entre dos palabras morfológicamente relacionadas es fonológicamente transparente si la parte
compartida suena igual. Por tanto, la relación entre «friendly» (amigable) y «friendship» (amistad) es
fonológicamente transparente («friend» suena igual en ambas palabras), pero no en «sign» (señal) y
«signal» (señalizar) (el componente «sign» tiene distintas pronunciaciones). Una palabra morfológicamente
compleja es semánticamente transparente si su significado resulta evidente a partir de sus partes: por tanto,
«unhappiness» (infelicidad) es semánticamente transparente al estar compuesta de la manera previsible por
«un-», «happy» y «-ness». Una palabra como «department», a pesar de estar compuesta por morfemas
reconocibles, no es semánticamente transparente. El significado de «depart» (partir) en «department» no
está relacionado de forma evidente con el significado de «depart» en «departure» (partida). Es
semánticamente opaca.

La transparencia semántica y fonológica afecta a la forma en que se identifican las palabras. Las formas
semánticamente transparentes se descomponen morfológicamente, independientemente de si son
fonológicamente transparentes o no. Sin embargo, las palabras semánticamente opacas no se descomponen.
Además, las palabras con sufijos y prefijos se comportan de forma distintas. Las palabras derivadas con
sufijos y prefijos se priman entre sí, pero los pares de palabras con sufijo producen interferencias. Esto se
debe a que, cuando oímos una palabra con un sufijo, primero oímos la raíz. Se activan todas las formas con
sufijos, pero en cuanto se tiene evidencia de sólo una de ellas, se suprimen las demás. Por tanto, si
posteriormente se presenta una de esas, observamos inhibición.

Los estudios más recientes han concluido que los efectos del priming morfológico son independientes
de la similitud del significado; es decir, no hay diferencia en los efectos de priming de las derivaciones
semánticamente transparentes y opacas. Estos resultados sugieren que la priming morfológico se obtiene,
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

por lo general, debido a la estructura morfológica, y no a un solapamiento semántico entre elementos


similares.

5. Modelos de reconocimiento visual de las palabras


Todos los modelos del reconocimiento de las palabras tienen que abordar cuatro preguntas
fundamentales:
 ¿es el procesamiento autónomo o interactivo; en concreto, existen efectos de arriba a abajo en el reco-
nocimiento de las palabras?
 ¿el acceso léxico es un proceso en serie o paralelo?
 ¿puede caer en cascada la activación de un nivel de procesamiento a otro posterior, o desde el
procesamiento en la fase posterior sin esperar a que se haya culminado el procesamiento en la fase
anterior?
 ¿cómo encontramos los elementos? ¿Los encontramos buscando en el lexicón, o podemos localizarlos
porque su localización en la memoria está definida por su contenido, una faceta conocida como el
direccionamiento por contenidos?

Carr y Pollatsek utilizan el término modelos de casos léxicos para los modelos que tienen en común
que hay un sencillo acceso perceptivo a un sistema de la memoria, el lexicón, donde se almacenan las
representaciones de los atributos de las palabras individuales y no tienen ningún otro componente adicional
basado en reglas que convierten cada letra en sonidos. Podemos distinguir dos grandes tipos de modelo de
casos léxicos. Estos difieren en cuanto a si utilizan una búsqueda en serie a través de una lista o una
activación directa múltiple de las unidades. El mejor ejemplo de un modelo de búsqueda es el modelo de
búsqueda en serie. Los modelos de acceso directo basados en la activación incluyen el modelo de
logogenes, los modelos conexionistas localistas, así como una serie de modelos del reconocimiento de la
palabra hablada. Resulta más difícil incorporar a este sencillo esquema los modelos híbridos o de
verificación (que combinan el acceso directo y la búsqueda en serie) y los modelos conexionistas
distribuidos (que, aunque son muy parecidos al modelo de logogenes, carecen por completo de unidades
léxicas simples).

5.1 El modelo de búsqueda autónoma en serie de Foster

El modelo es un modelo en dos etapas; Forster propuso que identificamos las palabras mediante una
búsqueda en serie en el lexicón. En este modelo, el sistema de catálogo se corresponde con lo que se deno-
minan archivos de acceso y la estantería llena de libros con el archivo maestro.

En el modelo de búsqueda en serie, el procesamiento perceptivo viene seguido de una búsqueda


secuencial de los archivos de acceso que apuntan a una entrada en el lexicón. Los archivos de acceso son
específicos a cada modalidad: hay archivos distintos para las fuentes ortográficas, fonológicas y sintáctico-
semánticas (utilizadas en la producción de un discurso). Estos archivos de acceso ofrecen indicadores a un
archivo maestro en el lexicón que almacena toda la información relacionada con una palabra, incluyendo su
significado. Para acelerar el procesamiento, estos archivos de acceso están subdivididos en cubos separados
en función de la primera sílaba o de las primeras letras de una palabra. Los elementos que hay en estos
cubos están ordenados en función de su frecuencia, de forma que primero se examinan los elementos más
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

frecuentes. Por tanto, se accederá antes a los elementos más frecuentes que a los más infrecuentes. Esta
búsqueda en función de la frecuencia es una característica importante del modelo. El priming semántico se
produce debido a las referencias cruzadas entre entradas en el archivo maestro. Fig. 4.6

La búsqueda no se ve afectada por la información sintáctica o semántica, que es por lo que se dice que la
búsqueda es autónoma. El único tipo de contexto que puede actuar en el acceso léxico es el priming
asociativo dentro del archivo maestro. No hay un papel temprano para el efecto del contexto de la frase; el
contexto de la frase sólo puede tener un efecto mediante los mecanismos de acceso posterior, como la
comprobación.

La repetición puede cambiar temporalmente el orden de los elementos en los cubos, (priming por
repetición). Se pueden rechazar las palabras inexistentes ilegales al principio del proceso de selección de
los cubos, pero las palabras inexistentes legales sólo se rechazan tras una búsqueda exhaustiva en el cubo
pertinente.

 Evaluación del modelo de búsqueda en serie

La crítica más significativa al modelo de búsqueda en serie hace referencia a la posibilidad de que haya
un mecanismo de búsqueda en serie. Aunque la introspección sugiere que el reconocimiento de las palabras
es directo, más que a través de una búsqueda en serie, no podemos fiarnos de este tipo de datos. El hacer un
gran número de comparaciones en serie requeriría mucho tiempo, pero el reconocimiento de las palabras es
notablemente rápido. El modelo explica los datos fundamentales sobre el reconocimiento de las palabras, y
hace una potente predicción de que los efectos del priming deberían estar limitados al priming asociativo
dentro del lexicón. No debería haber una implicación de arriba a abajo de conocimientos extra-léxicos en el
reconocimiento de las palabras. Por último, el modelo no explica de manera convincente cómo
pronunciamos las palabras inexistentes.

Forster introdujo un elemento de paralelismo al sugerir que se busca simultáneamente en todos los cu-
bos. La subdivisión del sistema en cubos acelera en gran medida la búsqueda, y hace que sea posible
concluir que una serie de letras es una palabra inexistente mucho más deprisa de lo que se podría si hubiera
que buscar en todo el lexicón.

El modelo de búsqueda en serie también proporciona una explicación de los efectos de la frecuencia de
las palabras en el acceso léxico. Inicialmente se pensó que el efecto de la frecuencia era aproximadamente
logarítmico, de forma que la diferencia de los tiempos de acceso entre una palabra frecuente y una palabra
ligeramente menos frecuente es mucho menor que entre una palabra infrecuente y una palabra ligeramente
más infrecuente. En el modelo de búsqueda en serie sólo la frecuencia relativa de las palabras dentro de un
cubo tiene efectos sobre el tiempo de acceso, y no la frecuencia absoluta. Esta idea se conoce como la
hipótesis del rango. La mayor parte de la evidencia sugiere que la frecuencia relativa es más importante
para determinar el tiempo de acceso que la frecuencia absoluta. El detallado análisis experimental de los
tiempos de decisión léxica y de las tasas de error para las palabras con un gran intervalo de frecuencias
muestra que los tiempos de reacción se ajustan mejor a una función lineal (tal y como predice la hipótesis
del rango donde todo lo que importa es la frecuencia relativa) que a una función logarítmica (donde lo
importante es la frecuencia absoluta). En concreto, los extremos de la distribución no se comportan como
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

cabría esperar: tanto las palabras de frecuencia muy alta como las de frecuencia muy baja reciben una
respuesta más lenta e imprecisa de lo que predeciría la función logarítmica.

El modelo de búsqueda en serie ha resultado ser muy influyente y constituye una norma con la que com-
parar otros modelos. ¿Podemos justificar la utilización de mecanismos de acceso léxico más complejos que
la búsqueda en serie?

5.2 El modelo de logogén

En este modelo cada palabra que conocemos tiene su propio contador de características simples, llamada
logogén. Un logogén acumula evidencia hasta que se alcanza su nivel umbral individual. Cuando se
alcanza, se reconoce la palabra. Por tanto, el acceso léxico es directo, y se produce de manera simultánea y
en paralelo para todas las palabras. Propuesto por Morton, el modelo de logogenes se relacionó con la idea
del procesamiento de información de las características y los demonios, donde los «demonios» hacen el
seguimiento de una entrada perceptiva buscando «características» específicas; cuanta más evidencia existe
de que hay determinada característica en el elemento de entrada percibido, más alto gritan los demonios
correspondientes. El modelo fue formulado originalmente para explicar cómo afecta el contexto al
reconocimiento de las palabras con una exposición muy breve a la palabra, pero ha sido ampliado para
explicar muchos de los fenómenos del reconocimiento de las palabras.

Cada unidad logogénica tiene un nivel de activación en reposo. A medida que va recibiendo evidencia
que corrobora que corresponde al estímulo presentado, aumenta su nivel de activación. Por tanto, si se
identifica en la entrada la letra «t», aumentan los niveles de activación de todos los logogenes
correspondientes a palabras que contienen la letra «t». Si el nivel de activación consigue superar
determinado umbral, se dispara el logogén y se «reconoce» la palabra. Tanto la evidencia sensorial como la
contextual aumentan el nivel de activación. Es decir, no hay diferenciación entre la evidencia de una pa-
labra de fuentes externas e internas. El contexto aumenta el nivel de activación de un logogén de la misma
manera que lo incrementan los datos sensoriales relevantes. Cualquier utilización del logogén dará lugar a
una facilitación posterior al rebajar el umbral de ese logogén. Los elementos más frecuentes tienen
umbrales inferiores. Las palabras inexistentes serán rechazadas si no se ha disparado ningún logogén
transcurrido cierto tiempo límite. Los logogenes calculan códigos fonológicos a partir de un análisis
auditivo y visual de las palabras, y también pasan la entrada, tras la detección, al sistema cognitivo. El
sistema cognitivo hace todo el trabajo restante, como utilizar la información semántica. Las conexiones son
bidireccionales, puesto que la información semántica y contextual del sistema cognitivo puede afectar a los
logogenes.

 Problemas del modelo de logogenes original

En el modelo de logogenes original, (Fig. 4.7) un único logogén realizaba todas las tareas del lenguaje
de determinada palabra, independientemente de la modalidad. Es decir, se utilizaba el mismo logogén para
reconocer las palabras presentadas visualmente y habladas y, para hablar y para escribir. El modelo predice
que la modalidad de la fuente de activación de un logogén no debería importar. Por ejemplo, el
reconocimiento visual de una palabra debería estar igual de facilitado por una palabra prime hablada que
por una palabra prime visual. Los experimentos posteriores contradijeron esta predicción.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Winnick y Daniel demostraron que la lectura previa en voz alta de una palabra impresa facilitaba el
reconocimiento taquistoscópico de esa palabra. Sin embargo, el nombramiento de una imagen, o la
producción de una palabra en respuesta a una definición, no producía una facilitación posterior del
reconocimiento taquistoscópico de esas palabras. Entonces, Morton dividió el sistema de reconocimiento
de las palabras en distintos conjuntos de logogenes para distintas modalidades (p. ej., input, entrada, y
output, salida o producción). Morton (1979b) también demostró que, aunque la modalidad de la respuesta
parecía inmaterial (leer o decir una palabra en la fase de entrenamiento), la modalidad de entradas sí
importaba. El modelo fue revisado de forma que, en vez de tener un logogén para cada palabra, hubiera
dos, específicos a cada modalidad (Fig. 4.8). La consecuencia de este cambio garantizaba que sólo las
entradas visuales pudieran facilitar la posterior identificación visual de las palabras, y que las palabras
primas presentadas auditivamente no facilitarían las palabras objetivo presentadas visualmente en el
reconocimiento taquistoscópico. La evidencia posterior sugiere que son necesarios cuatro sistemas de
logogenes: uno para la lectura, otro para la escritura, otro para la escucha y otro más para hablar.

La evidencia neuropsicológica respalda la división del sistema de logogenes, y éste es el planteamiento


dominante en la actualidad.

 Interacción de las variables en el modelo de logogenes

Los efectos del contexto y de la calidad del estímulo (que se degrade el estímulo o no) deberían
interactuar si el modelo de logogenes fuera correcto. Además, la frecuencia y el contexto actúan de la
misma manera en el modelo de logogenes y, por tanto, debería mostrar patrones parecidos de interacción
con cualquier otra variable. Por ejemplo, la calidad del estímulo debería tener los mismos efectos cuando se
combina con las manipulaciones del contexto y de la frecuencia. Se requiere menos información perceptiva
para reconocer una palabra de alta frecuencia que una de baja frecuencia, y se necesita menos información
para reconocer una palabra en un contexto que fuera de contexto. Las conclusiones son complejas y
contradictorias. Algunos investigadores han identificado una interacción; Meyer, Schvaneveldt y Ruddy
concluyeron que, cuanto menos legible es el estímulo, más beneficiosos son los efectos del contexto. Otros
han concluido que son aditivos. Experimentos posteriores realizados por Norris clarificaron estos
resultados. Concluyó que la frecuencia y la calidad del estímulo podían interactuar entre sí, pero que la
interacción entre la calidad del estímulo y el contexto es mayor y más robusta.

En definitiva, resulta muy difícil extraer conclusiones a partir de esta investigación. Las cuestiones
implicadas son complejas y los resultados de los experimentos suelen ser contradictorios.

El modelo de logogenes ha sido superado por los modelos conexionistas del reconocimiento de las pala-
bras y, en muchos sentidos, se puede considerar como el precursor de los mismos.

5.3 Modelos de reconocimiento de las palabras de activación interactiva

McClelly y Rumelhart desarrollaron un modelo denominado activación interactiva y competencia


(interactive activation y competition, IAC). Es uno de los primeros modelos conexionistas. El propósito
original de este modelo era explicar los efectos del contexto de la palabra en la identificación de las letras.
Reicher y Wheeler demostraron que en el reconocimiento taquistoscópico era más fácil reconocer las
letras en las palabras que cuando se veían de forma aislada. Esto se conoce como el efecto de la
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

superioridad de las palabras. Sin embargo, se puede considerar que el modelo es un componente de un
modelo general del reconocimiento de las palabras.

El modelo de activación interactiva y competencia está compuesto de muchas unidades de


procesamiento sencillas ordenadas en tres niveles. Existe un nivel de entrada de las unidades de
características visuales, un nivel donde se corresponden estas unidades con letras individuales y un nivel de
salida en el que cada unidad corresponde a una palabra. Cada unidad está conectada a cada unidad del nivel
inmediatamente anterior y posterior a la misma. Cada una de estas conexiones es, o bien excitadora (es
decir, positiva o facilitadora) si es la adecuada, o inhibidora (negativa) si es inadecuada. Por ejemplo, la
letra «T» excitaría unidades de palabras como «TAKE» y «TASK» en el nivel superior, pero inhibiría
«CAKE» y «CASK». Las conexiones excitadoras hacen que las unidades de destino estén más activas,
mientras que las conexiones inhibidoras las hace menos activas. Cada unidad está conectada a cada una de
las otras unidades dentro del mismo nivel mediante una conexión inhibidora. Esto introduce el elemento de
competencia. Fig. 4.9

Cuando se activa una unidad, envía una activación en paralelo a lo largo de las conexiones a todas las
demás unidades con las que se conecta. Si está conectada por una conexión facilitadora, tendrá como efecto
el incremento de la activación en la unidad al otro lado de la conexión, mientras que si está conectada por
una conexión inhibidora, tendrá como efecto la reducción de la activación en el otro extremo. Por tanto, si
se activa la unidad correspondiente a la letra «T» en la posición de letra inicial, aumentará el nivel de
activación de las unidades de palabras correspondientes a «TAKE» y «TASK», pero reducirá el nivel de
activación de «CAKE». Pero, puesto que las unidades están conectadas a todas las demás unidades en el
mismo nivel de conexiones inhibidoras, en cuanto se activa una unidad (p. ej., una palabra), empieza a
inhibir todas las demás unidades a ese nivel. Por tanto, si el sistema «ve» una «T», se activarán «TAKE»,
«TASK», y «TIME» y se empezará inmediatamente a inhibir palabras sin la «T» en ellas, como «CAKE»,
«COKE», y «CASK». Puesto que la activación también se envía a los niveles inferiores, todas las letras en
las palabras que empiecen con «T» están un poco activadas y, por tanto, será «más fácil» «verlas».
Además, puesto que las letras en el contexto de una palabra reciben activación de las unidades de palabras
por encima de ellas, son más fáciles de ver en el contexto de una palabra que cuando se presentan de
manera aislada, donde no reciben ningún apoyo de la activación de arriba a abajo: de aquí el efecto de la
superioridad de las palabras.

Supongamos que la siguiente letra que se presenta es una «A». Esto activará «TAKE» y «TASK» pero
inhibirá «TIME», que entonces también quedará inhibida a su vez por la inhibición dentro del mismo nivel
de «TASK» y «TAKE». La «A» también activará, por supuesto, «CASK» y «CAKE», pero estas dos
palabras ya estarán detrás de las palabras que empiecen con una «T». Si la siguiente letra es una «K»,
entonces «TAKE» será claramente la líder. El tiempo se divide en una serie de fragmentos denominados
ciclos de procesamiento. A lo largo del tiempo, el patrón de activación se estabiliza o relaja en una
configuración estable de forma que sólo permanece activa «TAKE», y por tanto es la palabra que se «ve» o
conoce.

El alcance del modelo es ilimitado y no ofrece ninguna explicación de los papeles del significado y del
sonido en el procesamiento visual de las palabras. La potencia de la conexión tiene que codificarse a mano.
Los modelos en los se aprende la potencia de la conexión se han hecho más populares.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

5.4 Modelos híbridos

Los modelos híbridos combinan el paralelismo (como en los modelos de logogenes y conexionistas) con
la búsqueda en serie (como en el modelo de Forster). En el modelo de verificación de Becker, los procesos
perceptivos, impulsados por el estímulo, de abajo a arriba, no pueden reconocer una palabra por sí solos. El
proceso de comprobación o verificación de arriba a abajo tiene la última palabra. El procesamiento
perceptivo burdo genera un candidato o conjunto sensorial de posibles elementos léxicos. Este conjunto
sensorial está ordenado en función de la frecuencia. El contexto genera un conjunto semántico o contextual
de posibles candidatos. Tanto el conjunto sensorial como el semántico se comparan y comprueban
mediante un análisis detallado de las características visuales de la palabra. El conjunto semántico se
comprueba primero; la verificación se hace en serie. Si no se encuentra una correspondencia, el proceso de
equiparación pasa al conjunto sensorial. Este proceso generará una clara ventaja para las palabras
presentadas en el contexto adecuado. Cuanto menos concreto sea el contexto, mayor será el conjunto
semántico y más lento será el proceso de verificación. Puesto que el contexto precede a la palabra objetivo,
el conjunto semántico está preparado antes de que lo esté el conjunto sensorial. Se pueden ampliar los
modelos de verificación para incluir cualquier modelo en el que haya una verificación o comprobación de
que el producto de los procesos de acceso léxico de abajo a arriba es correcto. Norris afirmó que los
mecanismos de comprobación de acceso posterior comprueban el resultado del acceso léxico en función
del contexto y resuelven cualquier ambigüedad existente.

5.5 Comparación de los modelos

Hay dos dicotomías que se pueden utilizar para clasificar estos modelos: La primera es entre modelos
interactivos y modelos autónomos. La segunda dicotomía es entre si se accede directamente a las palabras o
si se accede a las mismas mediante un proceso de búsqueda. Los modelos de logogenes y de activación
interactiva son ambos modelos interactivos de acceso directo; el modelo de búsqueda en serie es autónomo
y, evidentemente, basado en una búsqueda. La mayoría de los investigadores se muestra de acuerdo en que
las fases iniciales del acceso léxico implican un acceso directo en paralelo, aunque es posible que los
procesos en serie actúen posteriormente para comprobar las respuestas preparadas. Hay menos acuerdo en
cuanto al grado en que el contexto afecta al procesamiento. Todos estos modelos pueden explicar el
priming semántico, pero el modelo de búsqueda en serie no tiene ningún papel para el contexto de la frase.

6. Resolución de la ambigüedad léxica


La ambigüedad del lenguaje surge de diversas maneras. Hay ambigüedades relacionadas con la
segmentación del habla. Analice las frases habladas «grey tape» (cinta gris) y «great ape» (gran simio), y
«ice cream» (helado) y «I scream» (yo grito) o, por poner un ejemplo totalmente en español, «ser afín» y
«Serafín»: si uno habla a una velocidad normal suenan igual. Algunas frases tienen más de una
interpretación sintáctica aceptable. Hay una serie de tipos de ambigüedades léxicas:
 Las palabras homónimas son palabras con distintos significados que suenan igual. Algunos ejemplos de
homónimas puras son «banco» (una entidad bancaria o un lugar en el que sentarse) y «don» (de señor o
de cualidad).
 Las palabras homónimas homófonas no homógrafas suenan igual, pero se escriben de distinta manera (p.
ej., «vaya» del verbo ir y «valla», y «baca» y «vaca»).
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Las homófonas homógrafas son ambiguas cuando están escritas, y algunas sólo se pueden discernir en
función del contexto (como delfín de animal, o de heredero o sucesor).
 Las más interesantes son las palabras polisémicas, que tienen múltiples significados Ej.: banco. Algunas
palabras también son sintácticamente ambiguas, por ejemplo «como» puede actuar como verbo o como
conjunción.

Frazier y Rayner diferenciaron entre palabras con múltiples significados (p. ej., los significados en
inglés de «bank» o «ball»), y palabras con múltiples sentidos, donde sólo los sentidos tienen relación (p.
ej., «film» puede ser el rollo físico o toda la película que se proyecta en la pantalla o se ve en televisión,
«giro» puede ser la acción de girar, la dirección que se da a una conversación, el estilo de una frase, o la
traslación de caudales por medio de letras, libranzas, etcétera, donde todos los significados están
relacionados entre sí). No siempre resulta fácil decidir si una palabra tiene múltiples significados o
sentidos.

Somos más rápidos tomando decisiones léxicas sobre palabras ambiguas comparadas con palabras
equivalentes no ambiguas; esta ventaja se denomina la ventaja de la ambigüedad. Sin embargo, sólo se
encuentra esta ventaja para las decisiones léxicas. Para las demás tareas, no hay una ventaja, o incluso una
desventaja (p. ej., en mediciones del movimiento ocular). Tal vez las palabras ambiguas se beneficien de
tener múltiples entradas en el léxico. Es necesario matizar esta observación: mientras que los múltiples
sentidos de una palabra confieren una ventaja, los distintos significados múltiples no. La mayor parte del
tiempo, es probable que ni siquiera seamos conscientes de la ambigüedad de las palabras ambiguas; de
alguna manera utilizamos el contexto de la frase para desambiguarla.

6.1 Primeros trabajos sobre la ambigüedad léxica

 Primeros modelos sobre la ambigüedad léxica

Los primeros investigadores trabajaron en el marco conceptual de tres tipos de modelo de resolución de
la ambigüedad léxica:
 Modelo de acceso léxico de lectura única guiado por el contexto. Según este modelo, el contexto limita de
alguna manera el proceso de acceso, de forma que sólo se accede al significado relevante. Un problema
de este modelo es que no está claro cómo puede el contexto proporcionar una restricción tan inmediata.
 Modelo de acceso ordenado: Se accede a todos los sentidos de una palabra en orden, a partir de las
frecuencias de cada significado individual. Por ejemplo, en inglés, el sentido de «instrumento de escri-
tura» de la voz «pen» es más frecuente que el sentido de «lugar donde encerrar a animales». A
continuación se comprueba cada sentido en serie respecto al contexto para ver si es adecuado. Primero
comprobamos el sentido más común respecto al contexto para ver si es coherente. Sólo si no lo es
probamos con el significado menos común.
 Modelo de acceso múltiple. Según este modelo, cuando nos encontramos con una palabra ambigua se
activan todos sus sentidos, y a continuación se elige el adecuado en función del contexto.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Primeros experimentos sobre el procesamiento de la ambigüedad léxica

Los primeros experimentos parecían demostrar que accedemos de forma rutinaria a todos los
significados de las palabras ambiguas. Esta interpretación parte de la premisa de que, si es más difícil
procesar una palabra ambigua según determinada medida que el procesamiento de una palabra ambigua de
control, incluso en un contexto con un gran sesgo, esto sugiere que se ha detectado la ambigüedad en algún
nivel del sistema de procesamiento del lenguaje. Por ejemplo, MacKay utilizó una tarea de terminar una
frase en la que los participantes tienen que terminar el principio de la frase (9 o 10) con un final adecuado:
 (9) After taking the right turn at the intersection, I...///Tras girar a la derecha en el cruce/en el cruce correcto (yo). . .
 (10) After taking the left turn at the intersection, I...///Tras girar a la izquierda en el cruce (yo). . .

Los participantes tardaron más en completar (9) que (10) debido a la ambigüedad de la palabra
«derecha» en inglés (right), que puede significar «lo contrario que la izquierda» o «lo correcto». Esta
conclusión sugiere que se están teniendo en cuenta ambos sentidos, y el retraso se produce porque el
participante tiene que elegir entre ambos.

En estas frases la ambigüedad no se resuelve con el contexto: en este caso los dos sentidos de
«derecha/cruce pertinente» eran correctos. ¿Nos resultan más difíciles las palabras ambiguas incluso
cuando el sesgo del contexto nos lleva a determinada interpretación? Analicemos el caso de las frases (11)
y (12). Aquí, el contexto de «agricultor» crea un fuerte sesgo hacia el sentido agrícola de «paja» más que al
de artilugio con el que beber. Foss utilizó una técnica conocida como monitorización de fonemas para
demostrar que se tarda más en procesar las palabras ambiguas incluso cuando el contexto genera un gran
sesgo. En esta tarea, los participantes tienen que hacer un seguimiento de un discurso hablado buscando
determinado sonido o fonema, y apretar un botón cuando lo detectan. En estas frases el objetivo es /b/. Los
participantes tardaron más en detectar /b/ en (11) que (12), supuestamente porque se ven ralentizados al
tener que desambiguar la palabra anterior.
 (11) The farmer put his straw beside the machine {el granjero puso la paja al lado de la máquina).
 (12) The farmer put his hay beside the machine (el granjero puso la alfalfa al lado de la máquina).

La tarea de monitorización del fonema es sensible a otras variables lingüísticas, como la longitud de la
palabra anterior. Las palabras cortas nos dan poco tiempo para procesarlas, mientras que se suele identificar
y procesar las palabras largas antes de que terminen; es como si el procesamiento de las palabras cortas
siguiera durante la siguiente palabra. Esta continuación del procesamiento retrasa la identificación del
fonema que están monitorizando los participantes. Mehler, Segui y Carey demostraron que este efecto
desaparece si se controla adecuadamente la longitud de las palabras ambiguas. Resulta que, en inglés, las
palabras ambiguas tienden a ser más cortas que las palabras sin ambigüedad.

En la tarea de escucha dicotómica se presentan distintos mensajes al oído izquierdo y derecho. Se dice
a los participantes que presten atención a uno e ignoren el otro. En los experimentos realizados por Lackner
y Garrett (1972) y MacKay (1973) el mensaje al que se tenía que prestar atención era (13), y los mensajes a
los que no había que prestar atención eran, o bien (14) o (15):
 (13) The spy put out the torch as a signal to attack (El espía apagó/sacó la antorcha como señal de ataque).
 (14) The spy extinguished the torch in the window (El espía apagó la antorcha en la ventana).
 (15) The spy displayed the torch in the window (El espía mostró la antorcha en la ventana).
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Después se pidió a los participantes que repitieran el mensaje al que habían prestado atención. Su
interpretación estaba afectada por el mensaje al que no debían haber prestado atención que permitía
desambiguar la locución ambigua «put out» (sacar/apagar).

Los experimentos analizados hasta ahora sugieren que se accede en paralelo a todos los significados de
una palabra ambigua. Hogaboam y Perfetti demostraron que el tiempo que se necesita para acceder al sig-
nificado depende de la frecuencia de uso. Utilizaron una tarea de detección de la ambigüedad que medía
sencillamente el tiempo que tardaban los participantes en detectarla. La gente tarda en detectar la
ambigüedad cuando las palabras aparecen en su sentido más frecuente. Esto se debe a que en (16) los
participantes acceden automáticamente a la interpretación frecuente de «pen», integrándolo en el contexto
y después tienen que volver a analizar para detectar la ambigüedad. En (17) los participantes prueban el
sentido más frecuente de la palabra, no consiguen integrarlo en el contexto y acceden a continuación al
segundo sentido. Por tanto, en este caso, la ambigüedad se detecta mediante un procesamiento rutinario.
 (16) The accountant filled his pen with ink (el contable llenó de tinta la estilográfica).
 (17) The farmer put the sheep in the pen (el granjero puso a las ovejas en el corral).

Schvaneveldt et al. utilizaron una tarea de decisión léxica sucesiva, en la que los participantes ven
palabras individuales que se presentan en un flujo continuo, y tienen que tomar decisiones léxicas sobre
cada palabra. En este caso, los participantes son mucho menos conscientes de las relaciones entre las
sucesivas palabras. El principal punto de atención del experimento eran los tiempos de decisión léxica de
triadas de palabras como las de (18), (19), y (20):
 (18) save bank money (ahorrar/ingresos/dinero)
 (19) river bank money (río/orilla/dinero)
 (20) day bank money (día/banco/dinero)

El tiempo de reacción más rápido a la palabra «money» (dinero) era en (18) donde se había primado el
significado adecuado de «bank» (ingresar, pero también banco y orilla) con la primera palabra «save»
(ahorrar). El tiempo de reacción fue intermedio en la condición de control (20), pero más lento en (19)
donde se había imprimado el sentido incorrecto. Si todos los sentidos de la voz inglesa «bank» fueran
accedidos automáticamente cuando se mencionaba por primera vez, «money» tendría que haber sido
imprimada por «bank» independientemente de cual fuera la primera palabra. Por tanto, este resultado
respalda el acceso selectivo.

 El experimento de Swinney

Parte de la primera evidencia respaldaba al acceso múltiple, y parte al acceso selectivo. Los resultados
que encontramos dependen en gran medida de la tarea. Además, las tareas son, o bien tareas desconectadas,
en el sentido de que reflejan tiempos de procesamiento muy posteriores al momento en que se haya
procesado la ambigüedad (como en la detección de la ambigüedad, la escucha dicotómica y la terminación
de las frases), o bien tareas conectadas, como la monitorización de los fonemas, que son muy sensibles a
otras variables. Necesitamos una tarea que nos diga lo que está ocurriendo inmediatamente cuando nos
encontramos con una palabra ambigua. Swinney realizó este experimento. Utilizó una técnica de priming
multimodal en la que los participantes tienen que responder a una tarea de decisión léxica visual mientras
escuchan un material auditivo correlacionado.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 (21) Rumour had it that, for years, the government building had been plagued with problems. The man was not surprised
when he found several (spiders, roaches, y other) bugs] in the corner of his room. (Dicen las malas lenguas que, durante
años, el edificio público ha estado lleno de problemas. Al hombre no le sorprendió encontrar varios bichos (arañas,
cucarachas y otros) en la esquina de su habitación).

En (21) la palabra ambigua es «bugs» (bichos/micrófonos ocultos). La frase «arañas, cucarachas y


otros» es un contexto desambiguador que crea un fuerte sesgo en los participantes a favor del sentido de
«insecto» de «bug» en vez de «micrófono o dispositivo electrónico». Sólo la mitad de los participantes vio
esta potente frase de desambiguación. Había una tarea de decisión léxica visual que se presentaba
inmediatamente después (en el punto 1) o ligeramente después (tres sílabas después de la palabra crítica, en
el punto 2). La palabra objetivo de decisión léxica era, o bien «hormiga» (relacionada con el sentido del
sesgo), «espía» (relacionada con el sentido irrelevante) o «cosía» (una palabra de control neutra). Swinney
encontró una facilitación en el punto 1 para los dos significados de «bugs», incluyendo el significado
irrelevante, pero sólo encontró facilitación para el significado relevante en el punto 2. Esto sugiere que,
cuando nos encontramos por primera vez con una palabra ambigua, accedemos automáticamente a todos
sus significados. Sólo utilizamos el contexto a posteriori para tomar una decisión muy rápida entre las
alternativas, dejando activo únicamente el sentido coherente.

El experimento de Swinney demostró que el contexto semántico no puede limitar el acceso inicial.
Tanenhaus y cols. realizaron un experimento análogo basado en una tarea de denominación en vez de una
decisión léxica. Utilizaron palabras sintácticamente ambiguas (p. ej., «watch» en inglés, que puede ser un
verbo (mirar) o un sustantivo (reloj). Concluyeron que inicialmente se activaban los dos sentidos de la
palabra en frases como «Boris began to watch» (Boris empezó a mirar) y «Boris looked at his watch» (Bo-
ris miró su reloj). De nuevo, el significado dependiente del contexto se desvanecía transcurridos 200 ms.
Por tanto, el contexto sintáctico no puede limitar tampoco el acceso inicial. Tanenhaus y Lucas afirmaron
que hay buenas razones para esperar que el acceso léxico inicial no esté restringido por el contexto
sintáctico. La retroalimentación de pertenencia a un conjunto tiene poca utilidad a la hora de decidir si una
palabra pertenece o no a determinada categoría sintáctica: dicho de otra manera, la probabilidad de adivinar
correctamente cuál es la palabra que se presenta dada únicamente su categoría sintáctica es muy baja.

En definitiva, los datos disponibles hasta la fecha sugieren que, cuando oímos o vemos una palabra
ambigua, accedemos de forma inconsciente e inmediata a todos sus significados, pero utilizamos el
contexto para rechazar muy rápidamente todos los sentidos inadecuados. Este proceso puede empezar
aproximadamente tras 200 ms. Los significados menos frecuentes necesitan más tiempo de acceso porque
se necesita más evidencia para traspasar su umbral y ser considerados como adecuados al contexto. Esto
sugiere que los procesos de acceso léxico son autónomos, o encapsulados informativamente, y que todos
los sentidos de la palabra ambigua aparecen en el resultado, pero se utiliza muy rápidamente la información
semántica para elegir cuál es el sentido adecuado. Esto, a su vez, sugiere que la construcción de la
representación semántica de las frases se está produciendo más o menos siguiendo cada palabra.

McClelly afirmó que estas conclusiones son coherentes con las teorías interactivas. Afirmó que el
contexto podría tener un efecto desde un primer momento, pero que la ventaja que confiere es tan pequeña
que no se hace patente en estos experimentos. Es difícil falsear este enfoque por lo que, por ahora, la mejor
interpretación de estos experimentos es que accederemos a todos los significados.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

6.2 Investigación más reciente sobre la ambigüedad léxica

En la actualidad existe un acuerdo en que, cuando nos encontramos con una palabra ambigua, se
activan todos los significados y se utiliza el contexto a continuación para seleccionar rápidamente cuál es el
correcto. La investigación reciente ha utilizado técnicas conectadas, fundamentalmente del priming
multimodal y las mediciones del movimiento ocular, para refinar estas ideas. La investigación se ha
centrado en tres temas fundamentales:
 ¿qué efectos tiene la frecuencia relativa de los distintos significados de la palabra ambigua en el
procesamiento?
 ¿qué efecto tiene presentar un contexto de desambiguación potente antes de presentar la palabra ambigua?
 ¿cómo afecta el contexto al acceso a las propiedades semánticas de las palabras?

 Los efectos de la frecuencia del significado y del contexto anterior

Existe una controversia sobre si las frecuencias relativas de los significados afectan al acceso inicial.
Recientemente se ha recurrido mucho al estudio de los movimientos oculares, que se cree que reflejan el
procesamiento conectado. Los estudios que utilizan esta técnica demuestran que el tiempo que pasan los
participantes mirando a las palabras ambiguas depende de si los significados alternativos de la palabra
ambigua son relativamente iguales o muy discrepantes en cuanto a su frecuencia. Simpson denominó a los
dos tipos de palabras ambiguas palabras equilibradas y desequilibradas respectivamente.

En la mayoría de los estudios que hemos analizado hasta ahora el contexto desambiguador se presenta
después de la palabra ambigua. La evidencia converge hacia la idea de que se accede inmediatamente a
todos los significados, pero se utiliza rápidamente el contexto para elegir uno de ellos. ¿Qué ocurre cuando
el contexto desambiguador viene antes de las palabras ambiguas? Se han propuesto tres modelos para
explicar lo que ocurre:
 Modelo del acceso selectivo, el material desambiguador anterior limita el acceso de forma que sólo se
accede al significado adecuado.
 Modelo del acceso reordenado, el material desambiguador anterior afecta a la fase de acceso en tanto en
cuanto aumenta la disponibilidad del significado adecuado de la palabra. Se trata de un modelo híbrido
entre los modelos autónomos e interactivos, donde la influencia que puede tener el contexto es limitada.
Duffy et al. analizaron el efecto del contexto anterior sobre las palabras ambiguas equilibradas y
desequilibradas, sesgando con el contexto siempre hacia el significado menos común en el caso de las
palabras desequilibradas. El tiempo de procesamiento de las palabras equilibradas y de sus palabras de
control era el mismo, pero los participantes pasaban más tiempo mirando las palabras desequilibradas que
las palabras de control. Duffy et al. afirmaron que el contexto desambiguador aumentaba la disponibilidad
de los significados adecuados, tanto de las palabras equilibradas como de las desequilibradas. En el caso
de las palabras equilibradas, el significado indicado por el contexto era accedido antes de los demás
significados. En el caso de las palabras desequilibradas con un contexto sesgado, se accedía al mismo
tiempo a los dos significados, necesitándose a continuación un tiempo de procesamiento adicional para
elegir el significado subordinado adecuado. Este tiempo adicional se conoce como efecto del sesgo su-
bordinado. Un contexto sesgado puede reordenar la disponibilidad de los significados, de forma que el
significado subordinado está disponible al mismo tiempo que el significado dominante.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Modelo del acceso autónomo, el contexto anterior no tiene ningún efecto sobre el acceso; se accede de
manera exhaustiva a todos los significados. En una versión de este modelo, conocido como al modelo de
integración, la integración con éxito de un significado con el contexto anterior da por finalizada la
búsqueda de significados alternativos de esa palabra. Por tanto, se produce un acceso selectivo (a un
único significado) cuando la integración del significado dominante es rápida (debido al contexto) pero la
identificación del significado subordinado es lenta.

Dopkins, Morris y Rayner realizaron un experimento para diferenciar entre el modelo de acceso
reordenado y el de integración. En su experimento, una palabra ambigua era tanto precedida como seguida
por un contexto relevante al significado de la palabra. El contexto que seguía a la palabra ambigua casi
siempre la desambiguaba de manera concluyente. La principal manipulación en este experimento era el
grado en que el contexto anterior era consistente con los significados de la palabra ambigua. En la
condición positiva, la palabra ambigua estaba precedida por material que ponía de relieve un aspecto de su
significado subordinado, aunque el contexto también era coherente con el significado dominante (véase
22). En la condición negativa, la palabra estaba precedida por material que era inconsistente con el
significado dominante, pero no contenía ningún sesgo fuerte hacia el significado subordinado (véase 23).
En la condición neutra, la palabra ambigua estaba precedida por un contexto que no respaldaba ninguno de
sus significados (véase 24).
 (22) Having been examined by the king, the page was soon marched off to bed. (Habiendo sido examinado por el rey, el
paje fue llevado enseguida a la cama) [condición positiva]1
 (23) Having been hurt by the bee-sting, the page was soon marched off to bed. (Dolorido por la picadura de abeja, el paje
fue llevado enseguida a la cama) [condición negativa]
 (24) Just as Henrietta had feared, the page was soon marched off to bed. (Justo como se temía Henrietta, el paje/we
llevado enseguida a la cama) [condición neutra]

¿Qué predicen los dos modelos? La condición crítica es la condición positiva. El modelo de integración
predice que el contexto no tiene ningún efecto sobre la fase de acceso inicial. Los significados de las
palabras ambiguas serán accedidos en una estricta secuencia temporal independiente del contexto,
accediendo siempre primero al significado dominante. Si se puede integrar este significado con el contexto,
se seleccionará; en caso contrario, el procesador intentará integrar el siguiente significado por el contexto, y
así sucesivamente. En las condiciones positiva y neutra, el contexto puede no tener ninguna prueba de que
el significado dominante es inadecuado, por lo que el procesador logrará integrar este significado, se
detendrá antes de acceder al significado subordinado y seguirá adelante. Cuando se encuentra con el
material posterior, el procesador se da cuenta de su error y tiene que volver hacia atrás. En la condición
negativa, el contexto anterior indica que el significado dominante es inadecuado, por lo que el procesador
tendrá que pasar tiempo accediendo al significado subordinado. El contexto posterior no generará conflicto
alguno. El modelo de integración predice que los tiempos de procesamiento de la palabra ambigua serán
más largos en la condición negativa que en las condiciones positiva y neutra, pero el tiempo de pro-
cesamiento del contexto desambiguador posterior será más largo en las condiciones positiva y neutra que
en la negativa.

1
En inglés, el significado dominante de la palabra page es «página» y el subordinado, paje. (N. deIT.)
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

El modelo de acceso reordenado predice que el contexto anterior tendrá un efecto sobre el acceso
inicial de la palabra ambigua en la condición positiva, pero no en la condición negativa o en la neutra. En la
condición positiva, el contexto hace que se acceda antes al significado subordinado. Esto significa que
cuando se ve el contexto después de la palabra, el procesador no tiene que volver a evaluar nada, por lo que
el procesamiento en la región de desambiguación será más rápido. En las condiciones negativa y neutra el
contexto anterior no incluye ninguna evidencia a favor del significado subordinado, y las predicciones son
parecidas a las del modelo de integración.

Por tanto, la condición clave es la positiva, que favorece el significado subordinado pero también es
consistente con el significado dominante. El modelo de acceso reordenado predice que los tiempos de
procesamiento de la región de desambiguación posterior serán relativamente rápidos, mientras que el
modelo de integración predice que serán relativamente lentos. Los resultados respaldan al modelo de
acceso reordenado. Dopkins et al. concluyeron que los tiempos de lectura del material desambiguador eran,
en efecto, relativamente rápidos en la condición positiva.

El modelo de acceso reordenado encuentra un mayor respaldo en un experimento realizado por Folk y
Morris (1995). Examinaron los tiempos de fijación de la lectura y los tiempos de nombramiento cuando se
leían palabras semánticamente ambiguas (p. ej., «calf» que puede ser ternera o pantorrilla), con la misma
pronunciación pero significados distintos y distinta ortografía (p. ej., «break» y «brake»), o con múltiples
códigos semánticos y fonológicos (p. ej., «tear» que se pronuncia de distinta manera según quiera decir
rasgar o lágrima). Concluyeron que las restricciones semánticas, fonológicas y ortográficas tenían, todas,
un efecto temprano, influyendo sobre el orden de la disponibilidad de los significados.

Hasta ahora, pues, los datos respaldan al modelo de acceso reordenado respecto a uno estrictamente
autónomo, como el modelo de integración. Se puede utilizar la información contextual para restringir el
acceso a los significados. Sin embargo, en el modelo de acceso reordenado el papel del contexto está
limitado por la frecuencia de los significados. En concreto, el contexto sesgado a los subordinados no
puede inhibir que esté disponible el significado dominante. La investigación reciente ha analizado el grado
en que es así. Un modelo alternativo es el modelo sensible al contexto, donde la frecuencia de significado y
el contexto sesgado actúan juntos, dependiendo de la fortaleza del contexto. Este es el grado de restricción
que impone el contexto en una palabra ambigua. Según este modelo, el efecto de sesgo del subordinado que
motiva al modelo de acceso reordenado sólo surge en contextos débilmente sesgados. Si el contexto es
suficientemente potente, sólo está disponible el significado subordinado.

Si el modelo sensible al contexto es correcto, entonces un contexto suficientemente fuerte debería


abolir el efecto del sesgo del subordinado por el que pasamos más tiempo mirando a una palabra ambigua
cuando el contexto apunta hacia su significado menos frecuente. Esta idea fue puesta a prueba en un
experimento por Martin et al. Variaron la potencia del contexto: (25) es un contexto débilmente sesgado
hacia el significado subordinado, pero (26) es un contexto muy sesgado hacia el mismo; (27) y (28)
muestran los contextos de control de los significados dominantes.
 (25) The scout patrolled the area. He reported the mine to the commanding officer (el soldado patrulló la zona. Informó
de la mina al oficial al mando). [Contexto débil a favor del significado subordinado]
 (26) The gardener dug a hole. She inserted the bulb carefully into the soil (la jardinera cavó un agujero. Insertó el bulbo
cuidadosamente en la tierra). [Contexto fuerte a favor del significado subordinado]
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 (27) The farmer saw the entrance. He reported the mine to the survey crew (el granjero vio la entrada. Informó de la
situación de la mina a los prospectores). [Contexto débil a favor del significado dominante]
 (28) The custodian fixed the problem. She inserted the bulb into the empty socket. (La encargada de mantenimiento
arregló el problema. Puso la bombilla en la lámpara) [Contexto fuerte a favor del significado dominante]

Según el modelo del acceso reordenado, siempre se generará el significado dominante


independientemente del contexto, por lo que hará falta tiempo para resolver el conflicto. Por tanto, habrá un
efecto de sesgo del subordinado y los tiempos de lectura de la palabra ambigua deberían ser los mismos, y
mayores que el tiempo de lectura de los significados dominantes, independientemente de la potencia del
contexto. Según el modelo sensible al contexto, sólo debería haber conflicto y, por tanto, un efecto del
sesgo de subordinado en la condición del contexto débil; por ello, los tiempos de lectura de la palabra
ambigua deberían ser más rápidos con el contexto muy sesgado en comparación con el contexto débil. Los
datos de una tarea de lectura a ritmo libre respaldaban el modelo sensible al contexto. Un contexto
suficientemente potente puede eliminar el efecto del sesgo del subordinado de forma que los tiempos de
lectura de una palabra con, o bien el significado subordinado, o bien un significado dominante indicado
enérgicamente, son iguales.

Rayner, Binder y Duffy criticaron los materiales de este experimento. También afirmaron que el
modelo de acceso reordenado predice que, con contextos muy potentes, es posible que se acceda antes al
significado subordinado que al dominante. No obstante, el acceso es exhaustivo: siempre se sigue
accediendo al significado dominante, salvo que el contexto contenga una fuerte relación con el significado
pretendido. Por tanto, Rayner et al. afirman que los datos de Martin et al. no son contrarios al modelo de
acceso reordenado. Como réplica, Vu y Vellas, aun admitiendo que había problemas con algunos de sus
estímulos, afirmaron que estos problemas no podían haber provocado resultados erróneos.

 Acceso a las propiedades selectivas de las palabras

Tabossi utilizó una tarea de priming multimodal para demostrar que el contexto de la frase que limita
específicamente una propiedad de la palabra prime provoca una facilitación selectiva. Defendió una versión
modificada de la dependencia del contexto: no todas las facetas del contexto semántico-pragmático pueden
limitar la búsqueda de los posibles significados, pero las características semánticas que restringen
propiedades semánticas específicas pueden proporcionar esas restricciones. Por ejemplo, el contexto en
(29) sugiere claramente la propiedad «amarga» de «limón». Tabossi observó una facilitación cuando se
presentaba visualmente la palabra diana «amargo» en una tarea de decisión léxica inmediatamente después
de la palabra prime («limón»), respecto tanto al mismo contexto pero con un sustantivo distinto (30) como
respecto a un contexto distinto con el mismo sustantivo (31).
 (29) The little boy shuddered eating the lemon (el niño se estremeció al comerse el limón).
 (30) The little boy shuddered eating the popsicle (el niño se estremeció al comerse el polo).
 (31) The little boy rolled on the floor a lemon (el niño dejó rodar el limón por el suelo).

En efecto, Tabossi afirmó que hay importantes diferencias en la eficacia de los distintos tipos de indicios
contextúales. Si el contexto limita débilmente, observamos un acceso exhaustivo, pero si limita
enérgicamente, observamos un acceso selectivo. Sin embargo, Moss y Marslen-Wilson señalaron que la
compensación acústica de la palabra prime podría producirse demasiado tarde como para medir un efecto,
dado que el acceso léxico inicial se produce muy pronto, antes de que se terminen las palabras. Tabossi
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

utilizó palabras de dos sílabas, y es posible que estas palabras fueran suficientemente largas como para
permitir un acceso exhaustivo inicial produciéndose la selección antes de la presentación de la palabra
objetivo. Tabossi y Zardon analizaron esta posibilidad es una tarea de decisión léxica multimodal
presentando la palabra objetivo 100 ms antes del final de la palabra prime ambigua. Siguieron encontrando
que sólo se activaba el significado dominante relevante cuando el contexto estaba muy sesgado hacia ese
significado. Tabossi y Zardon también concluyeron que si el contexto sesgaba enérgicamente la
interpretación hacia el significado menos frecuente, tanto el significado dominante (debido a su dominio)
como el significado menos dominante (debido al efecto del contexto) estaban activos al cabo de 100 ms.

Moss y Marslen-Wilson analizaron también la forma en que se puede acceder selectivamente a facetas
del significado. Midieron el acceso léxico muy al principio, antes de terminar la presentación de la palabra
prime. Las palabras objetivo con una relación semántica estaban primadas independientemente del
contexto, mientras que el acceso a las palabras objetivo con propiedades semánticas estaba afectado por el
contexto semántico. No se accedía de forma automática a las propiedades semánticas cuando se
escuchaban, pero se podían modular en función del contexto anterior, incluso en la posición más temprana.
Por tanto, esta conclusión indica de nuevo que ni el acceso exhaustivo ni el selectivo pueden ser totalmente
correctos en tanto en cuanto lo que encontramos depende de la detallada relación entre el contexto y los
significados de la palabra.

 Evaluación del trabajo sobre la ambigüedad léxica

Al principio hubo dos enfoques básicos sobre cómo terminamos eligiendo el sentido adecuado de las
palabras ambiguas. Según la perspectiva autónoma, accedemos automáticamente a todos los sentidos de
una palabra, y utilizamos el contexto para elegir la interpretación adecuada. A continuación se utiliza la
información semántica para acceder al sentido correspondiente de la palabra. Según la perspectiva
interactiva, el contexto permite un acceso selectivo de los sentidos adecuados de la palabra ambigua. Los
experimentos utilizados en este campo son muy sensibles a las propiedades de la palabra objetivo y a la
longitud del contexto. Cuando encontramos un priming sensible al contexto en estos experimentos
multimodales, depende de los detalles de la relación semántica entre la palabra prime y la diana. Los
primeros experimentos utilizando tareas con desconexión encontraron resultados contradictorios tanto para
el acceso múltiple como para el acceso específico al contexto. Los experimentos posteriores, utilizando un
priming multimodal más sofisticado, indicaban un acceso múltiple con rápida resolución.

Los experimentos más recientes sugieren que el patrón de acceso depende de las frecuencias relativas
de los sentidos alternativos de la palabra ambigua y del grado en que el contexto de desambiguación limita
el número de alternativas. Todos los modelos recientes de desambiguación incorporan un elemento de
interactividad: la pregunta ahora es hasta qué punto es limitada. ¿Puede un contexto semántico
suficientemente limitado impedir la activación del significado menos dominante de una palabra? Así pues,
la forma en que abordamos la ambigüedad léxica depende tanto de las características de la palabra ambigua
como del tipo de contexto de desambiguación.

Todavía quedan varias preguntas por responder. En concreto, ¿cómo ejerce el contexto su influencia en
la elección del significado correcto? ¿Cómo se produce la integración semántica? MacDonald y cols.,
abordan esta cuestión, y también la relación entre la ambigüedad léxica y la sintáctica. Proponen que ambas
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

se resuelven utilizando mecanismos análogos basados en un lexicón enriquecido. Kawamoto construyó un


modelo conexionista de resolución de la ambigüedad léxica. El modelo demostraba que, incluso en un
sistema interactivo, se activan múltiples candidatos, incluso cuando el contexto favorece claramente a un
significado. (Esto se produce debido a que la relación entre la forma perceptiva de una palabra y sus
significados es mucho más fuerte que la relación entre el significado y el contexto.) Esto sugiere que el
acceso múltiple no diagnostica necesariamente la modularidad.

Aunque parece que las palabras ambiguas provocan dificultades para el sistema del lenguaje, hay
algunos casos en los que las palabras ambiguas presentan una ventaja. Es posible que nombremos más
rápidamente palabras ambiguas en comparación con las no ambiguas, y tienen una ventaja en la decisión
léxica. Hay una serie de explicaciones de esta posible ventaja, pero todas giran en torno a la idea de que la
disposición de múltiples significados objetivo acelera el procesamiento de la palabra. Por ejemplo, si el
significado de cada palabra se corresponde con un detector como un logogén, entonces una palabra con dos
significados tendrá dos detectores. La probabilidad de que una palabra ambigua active alguno de estos
múltiples detectores será mayor que la probabilidad de que una palabra no ambigua active su único
detector.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Capítulo 5: Lectura
1. Introducción
Cuando leemos en voz alta, debemos recuperar los sonidos de las palabras. Pero, al leer para
nosotros mismos, lo hacemos para extraer el significado, pero la mayor parte del tiempo
experimentamos los sonidos de las palabras como un discurso interno.

2. El sistema de escritura
La unidad básica del lenguaje escrito es la letra. El Grafema se utiliza para designar a la letra o
combinación de letras que representan un fonema. Cada idioma, a la hora de traducir palabras o
sonidos, utiliza diferentes principios:
 Escrituras alfabéticas (inglés y otros idiomas europeos): La unidad básica representada por un
grafema es un fonema.
 Escritura consonántica (Hebreo, Árabe): No se representan todos los sonidos, de forma que no se
escriben las vocales.
 Escritura silábica (Cherokee, Japonés Kana): las unidades escritas representan sílabas.
 Escritura logográfica/Ideográfica (Chino, Japonés Kanji): Cada símbolo representa una palabra
completa.

3. Un modelo preliminar de la lectura


Podemos distinguir distintos tipos de palabras:
 Palabras regulares: La correspondencia escritura-sonido, se da cuando los grafemas se
corresponden con fonemas de forma totalmente regular; no necesita de ningún conocimiento
especial de la palabra para saber cómo se pronuncia.
 Palabras irregulares: aquellas en las que la correspondencia entre grafema y fonema es irregular.
Son las excepciones.
 Palabras inexistentes pronunciables ó pseudo-palabras: aquellas que, a pesar de ser novedosas
para nosotros, tenemos claro cómo pronunciarlas.

Es evidente que somos capaces de pronunciar tanto pseudo-palabras como palabras irregulares,
por ello se sugiere la posibilidad de la existencia de un modelo de ruta dual.

El Modelo Clásico de Ruta Dual (Fig. 5.1) establece que para convertir las palabras en sonidos,
existen 2 rutas:
 Acceso directo o Ruta léxica: se necesita para las palabras irregulares. Esta ruta debe implicar un
vínculo directo entre la letra impresa y el sonido, es decir entrada de una palabra al Lexicón, y
posteriormente ya somos capaces de recuperar el sonido de esa palabra.
Es decir, la ruta es: palabra – Lexicón – sonido (pronunciación)
 Ruta Subléxica de conversión de grafema a fonema, ruta indirecta o no léxica: Se utiliza para leer
palabras inexistentes. Esta ruta realiza la recodificación fonológica. Esta no atraviesa el lexicón.
Es decir, la ruta es: palabra – Conversión de grafema a fonema- sonido (pronunciación).
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Dado que ninguna de las 2 rutas, por separado, son capaces de explicar cómo leemos, se sugiere
que cuando leemos utilizamos ambas:
 Los lectores expertos tirarán, normalmente, de ruta léxica, echando mano de la ruta sub-léxica
cuando se encuentran con una palabra poco familiar.

3.1 Relación del modelo de doble ruta con otros modelos

La ruta dual es la versión más sencilla de una serie de modelos con múltiples rutas, o de
codificación paralela, de los cuales algunos postulan que hay más de dos rutas de lectura.

El que sean necesarias o no dos rutas para la lectura constituye una cuestión importante del tema
relativo a la lectura. La mayoría de los investigadores considera que existe una ruta directa de la
palabra impresa al sonido, y una ruta directa a través de la semántica; se debate el papel de la ruta
indirecta en la lectura normal.

4. Los procesos de lectura normal


Según el modelo de doble ruta, existen dos rutas independientes cuando se nombra una palabra y
se accede al lexicón: Ruta de acceso directo o léxica y una ruta subléxica o de conversión grafema a
fonema.

4.1 Lectura de las palabras inexistentes

Según el modelo de doble ruta las palabras inexistentes se pronuncian por la ruta indirecta (sub-
léxica, de grafema a fonema). Y según esto, todas las palabras inexistentes deberían ser muy
parecidas. Pero la realidad es que no es así: no todas las palabras inexistentes pronunciables son
similares.

 El efecto pseudohomófono

Se dice que una palabra inexistente (ej. “yelo”) es pseudohomófona de otra palabra que es real
(“hielo”) si ambas suenan igual al pronunciarlas. Los pseudohomofonos se pueden confundir más
con palabras de verdad que otros tipos de palabras inexistentes.

Todos los que lo han investigado están de acuerdo en que este efecto se debe al parecido visual,
somos sensibles a la apariencia visual de las unidades ortográficas de las palabras.

Por ello, el efecto pseudohomófono sugiere que no se procesan todas las palabras inexistentes de
la misma manera. La importancia de la apariencia visual de las palabras inexistentes sugiere que hay
algo más implicado en la recodificación fonológica.

 El experimento de Glushko (1979): los efectos léxicos sobre la lectura de las palabras
inexistentes

Glushko en sus experimentos demostró que las latencias de nombramiento de las palabras
inexistentes eran significativamente diferentes de unas a otras. Los tiempos de reacción de las
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

palabras inexistentes que tienen vecinos reales con correspondencias ortográficas irregulares de la
ortografía al sonido son más lentos que los de otras palabras inexistentes de control.

Concluyó que la pronunciación de palabras inexistentes se ve influida por la pronunciación de


palabras parecidas, y que las palabras inexistentes no son iguales entre sí. La investigación posterior
ha demostrado que la proporción de pronunciaciones regulares de las palabras inexistentes aumenta a
medida que aumenta el número de vecinos ortográficos. En resumen, existen efectos léxicos sobre el
procesamiento de las palabras inexistentes.

 Más sobre la lectura de las palabras inexistentes

Kay y Marcel demostraron que la pronunciación de una palabra puede verse afectada por la
pronunciación de una palabra prime anterior “bead” “yead”.

Los efectos de las palabras inexistentes son sensibles a muchos factores, como la pronunciación
de las palabras circundantes en la lista. Lo que sugiere que la pronunciación de las palabras
inexistentes implica algo más que una mera conversión de grafemas a fonemas.

 Evaluación de la investigación sobre la lectura de las palabras inexistentes

La pronunciación de las palabras inexistentes se ve afectada por la pronunciación de palabras


visualmente parecidas. Es decir, existen efectos léxicos en el procesamiento de palabras inexistentes;
la ruta léxica parece afectar a la ruta no léxica.

4.2 Procesamiento de las palabras

El modelo de doble ruta dice que accedemos a las palabras a través de la ruta directa (a través del
lexicón). Esto implicaría que todas las palabras tuvieran el mismo tratamiento respecto a la
regularidad de sus correspondencias entre ortografía y sonido. Según experimentos, esta predicción
no es sostenible.

 En Tareas de Nombramiento, se demostró que la regularidad de la pronunciación afectaba a los


tiempos de repuesta. Y se pudo concluir que existe una relación entre regularidad y frecuencia:
- La regularidad tiene pocos efectos sobre la pronunciación de las palabras de elevada frecuencia.
- Las palabras regulares de frecuencia baja se nombran más deprisa que las palabras irregulares de
frecuencia baja
- Las palabras de frecuencia elevada pueden ser sensibles a la regularidad, es decir se pueden dar
diferencias, pero su efecto surge por el número y frecuencia de sus “amigas” y “enemigas”
(palabras con pronunciaciones parecidas o conflictivas), es decir a la influencia de la regularidad
del vecindario
 En Tareas de Decisión Léxica, no se ha podido demostrar si influye o no la regularidad.

La conclusión de que la regularidad afecta al nombramiento podría parecer problemática para el


modelo de ruta dual, pero como se sabe existe una interacción entre regularidad y frecuencia, si
tenemos en cuenta que dicho modelo postula que la pronunciación de palabras comunes (regulares)
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

se recupera por la ruta directa, antes de que la ruta indirecta construya una pronunciación conflictiva.
El conflicto surge cuando:
 la ruta léxica es lenta (por ej. Si la palabra es de baja frecuencia)
 la palabra de baja frecuencia generada por la ruta léxica se tropieza con la que genera la ruta
subléxica.

 El experimento de Glushko (1979): resultados de las palabras

Glushko descubrió que las palabras se comportan de forma parecida a las palabras inexistentes
porque los tiempos de nombramiento de las palabras están afectados por la consistencia fonológica
de sus vecinas: El nombramiento de una palabra regular se ve ralentizado respecto al de una palabra
control de frecuencia similar si la palabra puesta a prueba tiene vecinos irregulares.

 Pronunciación de las palabras vecinas

Brown afirmó que el número amigos (vecinos que se pronuncian de forma consistente) determina
los tiempos de nombramiento, más que el que una palabra tenga enemigos. En la actualidad se piensa
que tanto el número de amigos como de enemigos afectan a los tiempos de nombramiento.

Andrews identificó los efectos del tamaño del vecindario tanto en tareas de nombramiento como
en tareas de decisión léxica: Las respuestas a las palabras con grandes vecindarios eran más rápidas
que a las palabras con vecindarios pequeños.

Patterson y Morton proporcionaron otra clasificación más satisfactoria y compleja. Tabla. 5.1 Esta
clasificación refleja dos factores:
 La regularidad de la pronunciación respecto a las reglas de la correspondencia ortografía a sonido.
 El acuerdo con otras palabras que comparten el mismo cuerpo.

 No todas las palabras existentes se comportan de la misma manera, tampoco lo hacen todas las
palabras.
 La regularidad de la pronunciación de una palabra afecta a la facilidad con la que la nombramos. La
pronunciación de los vecinos de la palabra puede afectar también al nombramiento.
 El número de amigos y enemigos afecta a la facilidad con la que se nombra una palabra.

 El papel del sonido en el acceso al significado: la mediación fonológica

El sonido de una palabra podría tener cierta influencia en el acceso a su significado. En una tarea
de decisión sobre la categoría, los participantes tienen que decidir si una palabra diana que se
presenta visualmente pertenece, o no, a determinada categoría.

Lesch y Pollatsek encontraron evidencia de interferencia entre homófonas en una tarea de


relaciones semánticas. Tardamos más en contestar a las palabras homófonas en una tarea de decisión
léxica, supuestamente porque las homófonas están provocando una confusión en el acceso léxico.

Existe evidencia de que el reconocimiento de una palabra puede estar influido por su fonología.
Sobre esto hay 2 perspectivas:
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Perspectiva fonológica débil: Aunque el reconocimiento de la palabra depende fundamentalmente


de la ruta (o rutas) directas, esta perspectiva asume que la influencia de la fonología en el
reconocimiento de la palabra se debe a la ruta indirecta.
 Perspectiva fonológica fuerte: Propone el concepto de Mediación Fonológica: “obtenemos el
reconocimiento de la palabra a través del Sonido.” O lo que es lo mismo: “No podemos reconocer
visualmente una palabra si no tenemos en cuenta su sonido”.
 Folk a través del análisis de los movimientos oculares descubrió que las palabras homófonas se
leían con una mayor duración de la mirada, es decir, se procesaban como si fueran léxicamente
ambiguas, aunque la ortografía tendría que haberlo impedido.
 Jared y Seidenberg demostraron que la fonología sólo desempeña un papel en el acceso a los
significados de las palabras de baja frecuencia. Concluyeron, que los malos lectores tienen más
probabilidades de tener que acceder a la fonología para poder acceder a la semántica, mientras que
los lectores expertos activan sobre todo la semántica primero.
 Taft y Van Graan utilizaron una tarea de clasificación semántica, observaron que no hubo
diferencias en los tiempos de decisión entre las palabras definibles regulables y las palabras
definibles irregulares, aunque se demostró un efecto de regularidad en una tarea de nombramiento
de palabras. Lo que sugiere que no hace falta acceder al sonido de una palabra para acceder a su
significado.
 El sonido de una palabra suele ser percibido en una etapa temprana, sin embargo, la recodificación
fonológica no puede ser obligatoria para acceder al significado de la palabra. Algunos pacientes
tienen una fonología interna preservada y una comprensión en la lectura preservada, pero cometen
errores al leer en voz alta.

¿Cómo podemos explicar los datos que demuestran que se produce una mediación fonológica?
 Aunque la recodificación fonológica previa al acceso al significado podría no ser obligatoria, puede
que se produzca en algunas circunstancias. Puesto que se produce una carrera entre la ruta léxica y
la subléxica en el modelo de ruta dual. Si por alguna razón, la ruta léxica es lenta al producir una
salida, la ruta subléxica podría tener tiempo para ensamblar una representación fonológica
contrapuesta.
 Es posible que se produzca una retroalimentación del sistema de producción del habla al sistema
semántico, o que la ruta de acceso directo del discurso interno interfiera con el procesamiento.
 Es posible que la decisión léxica se base en información fonológica.

 Lectura en silencio y discurso interno

Al leer en silencio parece que se accede de forma rutinaria a algún tipo de código fonológico tras
acceder al significado. (Discurso interno)

Este discurso interno no puede implicar los mismos procesos que el discurso abierto. Cuando
leemos parece que accedemos a un código fonológico que experimentamos como un discurso
interno. Es decir, cuando accedemos a la representación de una palabra en el lexicón, quedan
disponibles todos sus atributos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Parece que el discurso interno facilita la comprensión; si se reduce, se ve afectada en todos los
materiales menos en los más sencillos. McCutchen y Perfetti afirmaron que independientemente de
cual sea la ruta que se utilice para el acceso léxico en la lectura, se accede de forma automática, al
menos, a una parte del código fonológico de cada palabra, en concreto, accedemos a los sonidos de
los principios de las palabras. La lectura en voz baja genera cierto tipo de código fonológico. Es
posible que la ruta directa del “discurso interno” interfiera con el procesamiento.

 El papel del significado al acceder al sonido

La mediación fonológica significa que es posible que estemos accediendo al significado a través
del sonido. A veces, hay que acceder al significado antes de poder acceder al sonido de una palabra.
Este es el caso para las palaras homógrafas. Así hay casos en los que tenemos que acceder al
significado de la palabra antes de que podamos elegir la pronunciación adecuada que la decisión
léxica se base en información fonológica.

Por lo tanto, en ocasiones hay que acceder antes a la representación semántica de una palabra para
poder acceder a su fonología (Ej.: con las palabras homógrafas). Conclusión: “Mediación
Fonológica” es acceder al significado por medio de sonidos, pero hay veces que accedemos primero
al significado, y luego al sonido.

 ¿Funciona la lectura rápida?

Just y Carpenter concluyeron que los que utilizaban la técnica de lectura rápida sólo tuvieron una
puntuación ligeramente superior a la de un grupo de personas que miró por encima los fragmentos.
Las personas que utilizaban la lectura rápida obtuvieron la misma puntuación que los que hicieron la
lectura normal en los aspectos normales del texto, pero tuvieron peor puntuación en los detalles. Las
personas que utilizaron la técnica de lectura rápida no pudieron contestar a las preguntas cuyas
respuestas estaban localizadas en los lugares en los que sus ojos no habían quedado fijos.

La lectura rápida no es más que una rápida revisión por encima de un escrito, si tiene suficiente
información previa sobre el material, su nivel de comprensión general puede ser bastante bueno.

Si se hace una lectura rápida y luego una lectura normal, el nivel de comprensión y de retención
pueden ser mejores a los que obtendría si sólo leyera el texto de la forma normal. Es una técnica útil
para prepararse para leer un libro o un artículo de forma estructurada.

4.3 Evaluación de los experimentos sobre la lectura normal

Hay dos problemas fundamentales en el modelo de doble ruta sencillo:


 Hay efectos léxicos de la lectura de las palabras inexistentes, que tendrían que leerse mediante una
ruta no léxica insensible a la información léxica.
 Existen efectos de la regularidad de la pronunciación al leer las palabras, que deberían ser leídas
mediante una ruta léxica directa insensible a la recodificación fonológica.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Los efectos de la regularidad surgen cuando las rutas directa e indirecta producen una salida
aproximadamente al mismo tiempo, de forma que se produce un conflicto entre la pronunciación
regular propuesta por la ruta subléxica.

Los lectores expertos tienen cierto grado de control atencional o estratégico sobre las rutas léxica
y subléxica de forma que pueden prestar atención de forma selectiva a la información léxica o
subléxica.

Zevin y Balota encontraron que las palabras primes inexistentes producen una mayor dependencia
del procesamiento subléxico. Coltheart y Rastle sugirieron que el acceso léxico se realiza tan deprisa
para las palabras de alta frecuencia que hay poco margen para que se utilice el procesamiento
subléxico, pero con las palabras de baja frecuencia, o en condiciones difíciles, la gente puede prestar
más atención a una ruta o a la otra.

5. La neuropsicología de los trastornos de la lectura en los adultos: la dislexia


adquirida
Debemos diferenciar entre trastornos adquiridos y trastornos del desarrollo, los trastornos de la
lectura (Dislexia) y los trastornos de la escritura (disgrafía) pueden encontrarse tanto en un tipo
como en otro de trastornos. Nosotros vamos a estudiar los trastornos adquiridos de la Dislexia
Central.

Las lesiones en el hemisferio izquierdo suelen dar lugar a una dislexia pero, como estos mismos
lugares están implicados en el habla, la dislexia suele venir acompañada de dificultades para procesar
el lenguaje hablado.

En función del nivel de los procesos de lectura de que se trate, se pueden diferenciar dos clases de
dislexia:
 Dislexia Central: implica procesos centrales de alto nivel
 Dislexia Periférica: implica procesos de nivel inferior (dislexias: visual, atencional, lectura letra a
letra, negligente) que perturban todas, la obtención de información visual de la página.

Si el modelo de doble ruta es correcto, cabe esperar que exista una doble disociación de las rutas
de lectura:
 Pacientes con lesión en la ruta léxica pueden seguir leyendo utilizando la ruta sub-léxica.
 Pacientes con lesión en la ruta sub-léxica pueden seguir leyendo utilizando la ruta léxica.

5.1 Dislexia superficial

La dislexia superficial es la dificultad al leer palabras excepcionales (irregulares), pero sí son


capaces de leer palabras regulares e inexistentes. Además, comprenden perfectamente el significado
de la palabra. Errores que cometen estos pacientes:
 Al leer en voz alta palabras irregulares, cometen errores de excesos de regularización.
 También cometen confusiones “homófonas”.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Su capacidad de leer palabras regulares y palabras inexistentes no se ve afectada, tampoco se ve


afectada la comprensión del significado de la palabra. En términos del modelo de doble ruta, estos
pacientes sólo utilizan la ruta indirecta o no léxica (sub-léxica), o lo que es lo mismo: la dislexia
superficial es un trastorno de la ruta de procesamiento léxico (acceso directo).

Es posible que la dislexia superficial no sea una categoría unitaria, Shallice y McCarthy,
diferenciaron entre 2 tipos de dislexia superficial:
 Tipo 1: leen mal palabras excepcionales, pero leen con precisión palabras regulares y
pseudopalabras.
 Tipo 2: también leen mal palabras excepcionales, pero además leen mal palabras regulares e
irregulares. Es posible que su lectura este afectada por variables léxicas de forma que pueden leer
mejor las palabras de alta frecuencia y muy imaginables, pueden leer mejor los sustantivos que los
adjetivos, y los adjetivos que los verbos, asimismo pueden leer mejor las palabras cortas que largas.
Deben tener otro trastorno moderado adicional de la ruta no–léxica, no obstante el modelo de ruta
dual puede seguir explicando este patrón.

5.2 Dislexia fonológica

Las personas con dislexia fonológica tienen un trastorno selectivo de su capacidad para leer
palabras inexistentes pronunciables (pseudopalabras). Además, tienen más dificultad para leer
palabras irregulares que regulares, lo que sugiere que, según el modelo de doble ruta, el trastorno se
debe a fallos en la ruta no léxica. También tienen dificultad en leer palabras de baja frecuencia y baja
imaginabilidad. También tienen dificultad al leer palabras con inflexión (modificación sintáctica).
Cometen errores:
 De derivación, leyendo una palabra como un familiar gramatical en vez la palabra objetivo (ej.
Leen “desempeño” en vez de “desempeñando”)
 Visuales, por los que se lee una palabra como si fuera otra con una apariencia visual parecida. Ej.:
Leer perform (desempeñar) como parfum (perfume).

Derouesné y Bearvois, sugirieron que la dislexia fonológica puede deberse a un deterioro, o bien
del procesamiento ortográfico, o bien del fonológico:
 Deterioro del Procesamiento Ortográfico: pacientes que leen peor las palabras inexistentes
complejas grafémicamente que las palabras inexistentes sencillas grafémicamente. En las palabras
pseudohomófonas no hay diferencias. Su deterioro está en el análisis sintáctico grafémico.
 Deterioro del Procesamiento Fonológico: pacientes que leen mejor las palabras pseudohomófonas
que las no pseudohomófonas, y no se ven influídos por la complejidad ortográfica.

Por otra parte, Friedman, distinguió entre 2 tipos de dislexia fonológica: 1) por deterioro del
Procesamiento Ortográfico Fonológico (los que leen mal las palabras funcionales) y 2) por deterioro
del Procesamiento Fonológico general (contrario al anterior).

Como consecuencia de estas distinciones de tipos de dislexia, surge un modelo de procesamiento


subléxico en 3 fases:
 1ª Fase.- Análisis de Grafema : dividir la serie de letras en grafemas
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 2ª Fase.- Conversión de escritura a sonido: asignar fonemas a los Grafemas.


 3ª Fase.- Fusión fonémica: ensamblaje de los sonidos en una representación fonológica.

Por otra parte: ¿Por qué algunos disléxicos fonológicos tienen problemas para leer palabras
funcionales (determinantes, preposiciones, conjunciones)?

Habitualmente, el problema está, sobre todo, al leer palabras funcionales aisladas (sin un
contexto). Por lo que se sugiere que la causa esté en problemas en el procesamiento sintáctico, de
forma que cuando al paciente se le presenta palabras funcionales de forma aislada es incapaz de
acceder a la información sintáctica.

Los estudios llevados a cabo sugieren que la dislexia fonológica no está relacionada con la
ortografía, y se ha propuesto, sobre todo desde el paradigma conexionista, que la dislexia fonológica
es consecuencia de un problema general del procesamiento fonológico.

La idea de que la dislexia fonológica está provocada por un déficit fonológico general es central
en la explicación conexionista de la dislexia.

5.3 Dislexia profunda

La dislexia profunda se parece a la dislexia fonológica. Los pacientes tienen mucha dificultad para
leer palabras inexistentes y una dificultad considerable para leer palabras funcionales gramaticales.
Cometen los mismos errores que los disléxicos fonológicos: 1) de derivación y 2) visuales
Pero lo que caracteriza a un disléxico profundo es que comete un error semántico denominado
paralexia semántica: el paciente, en vez de pronunciar la palabra correcta, produce una palabra con
un significado parecido a esa palabra. Ej: decir “hija” en vez de “hermana”; o decir “rosa” en vez de
“flor”). La imaginabilidad de una palabra es un determinante importante de la probabilidad de éxito
en la lectura cuando se padece este tipo de dislexia: Cuanto más fácil es crearse una imagen mental
de una palabra, más fácil es leerla.

Coltheart, hizo una lista de 12 síntomas de la dislexia profunda:


1) Errores semánticos.
2) Errores visuales.
3) Sustituyen con palabras funcionales incorrectas las palabras diana.
4) Errores de derivación.
5) No pronuncian palabras inexistentes.
6) Efecto de imaginabilidad.
7) Leen mejor sustantivos que adjetivos.
8) Leen mejor adjetivos que verbos.
9) Leen peor palabras funcionales que las de contenido.
10) Problemas para escribir.
11) Problemas en la memoria auditiva a corto.
12) Su capacidad de lectura depende del contexto de una palabra.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Shallice, diferenció 3 tipos de dislexia profunda que varían en los trastornos específicos
implicados:
 Dislexia profunda de Entrada: dificultades para efectuar, durante la lectura, una representación
semántica exacta de la palabra.
Tienen más comprensión auditiva que comprensión lectora.
 Dislexia profunda Central: dificultades para leer y para comprender auditivamente.
 Dislexia profunda de Producción: sí pueden representar semánticamente las palabras, pero la
dificultad viene después, ya que les es difícil producir el sonido adecuado.

En la práctica, es verdaderamente difícil asignar un paciente a uno u otro tipo de dislexia profunda.

 La hipótesis del hemisferio derecho

La hipótesis del hemisferio derecho consiste en:


 Probablemente, los pacientes con dislexia profunda NO siempre utilizan el hemisferio izquierdo
para leer.
 Probablemente, los pacientes con dislexia profunda utilizan el hemisferio derecho.

Se han llevado a cabo experimentos que demuestran que los pacientes con dislexia profunda leen de
forma similar (igual de mal) que los pacientes con cerebro dividido, cuando se les presentaban
palabras al campo visual izquierdo (o sea, al hemisferio derecho).

Sin embargo, y a pesar de muchas evidencias empíricas, la hipótesis del hemisferio derecho no ha
sido aceptada por todos, por varias razones:
 Es una hipótesis negativa (si la hipótesis fuera correcta, la dislexia profunda no nos aportaría
nada sobre la lectura normal).
 Los disléxicos profundos leen mejor que los que tienen el cerebro dividido.

 Resumen de la investigación sobre la dislexia profunda

En términos del modelo de doble ruta, tendría que haber una lesión tanto en el sistema semántico
(para explicar las paralexias semánticas y los efectos de la imaginabilidad) como de la ruta no léxica
(para explicar las dificultades con las palabras inexistentes.

Si la hipótesis del hemisferio derecho fuera correcta, la dislexia profunda nos diría poco sobre la
lectura normal.

La dislexia profunda sugiere que, normalmente, podemos leer de alguna manera a través del
significado, es decir, utilizando la representación semántica para obtener su fonología.

5.4 Lectura no semántica

Los pacientes con dislexia de lectura no semántica:


 Pueden leer palabras sin comprender su significado
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 No pueden leer palabras inexistentes, aunque sí pueden leer palabras irregulares aún sin
entenderlas.

Este tipo de dislexia sugiere que tengamos una ruta de acceso directo que va de la ortografía a la
fonología, sin pasar por la semántica.

5.5 Resumen de la interpretación de las dislexias adquiridas

Hemos visto cuatro tipos de dislexia central en los adultos: superficial, fonológica, profunda y de
lectura no semántica. El modelo de ruta dual explica:
 La dislexia superficial como un trastorno de la ruta de acceso léxico;
 La dislexia fonológica como un trastorno de las rutas de recodificación fonológica no léxica.

La lectura no semántica sugiere que el modelo de doble ruta requiere un refinamiento. En


concreto, la ruta directa debe ser dividida en dos:
 Ruta de acceso directo no semántica: que recupera la fonología dada la ortografía pero que no pasa
primero por la semántica.
 Ruta de acceso directo semántica: que pasa por la semántica y permite elegir los sonidos adecuados
de las palabras homógrafas no homófonas.

En la lectura no semántica, la ruta directa semántica ha sido suprimida, pero la ruta directa no
semántica está intacta. Fig. 5.2

 Dislexia adquirida en otros idiomas

En español existe la dislexia fonológica y la dislexia profunda, pero no existe la dislexia


superficial.

6. Modelos de denominación de palabras


Tanto el modelo clásico de doble ruta como el modelo de ruta única, adolecen de una serie de
problemas:
 Existen efectos léxicos de las palabras inexistentes y efectos de regularidad de las palabras reales y,
por tanto, la lectura no puede ser sólo una cuestión de conversión automática de grafemas a
fonemas en las palabras inexistentes y de acceso directo automático para todas las palabras reales.
 Los modelos de ruta única, no parecen poder explicar la pronunciación de palabras inexistentes, y
todavía está por demostrar cómo afectan los efectos del vecindario a la pronunciación de una
palabra.
 Cualquier modelo debería ser capaz de explicar el patrón de disociaciones que se encuentra en la
dislexia. Aunque la dislexia superficial y fonológica indican que son necesarios dos mecanismos,
otros desórdenes sugieren que no bastan éstos por sí solos.

Por todo lo anterior, hubo otros estudios que trataron de explicar esos problemas. Fueron los
modelos siguientes
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

6.1 El modelo de doble ruta revisado

Morton y Patterson describieron un modelo de tres rutas (Fig. 5.3):


 Ruta no léxica: para ensamblar las pronunciaciones a partir de la conversión subléxica de
grafema a fonema. Esta ruta está compuesta por dos subsitemas:
o Mecanismo de conversión grafema a fonema estándar complementado con un
Subsistema del cuerpo que utiliza la información sobre las correspondencias entre
rimas ortográficas y fonológicas. Este subsistema se necesita para explicar los efectos
léxicos de la pronunciación de las palabras inexistentes.
 Ruta directa: que se divide en una ruta directa semántica y otra no semántica.

El modelo de tres rutas: los efectos léxicos de las palabras inexistentes y los efectos de la
regularidad de las palabras reales se explican por una comunicación de doble sentido entre la ruta
léxica y la no-léxica. Son posibles dos tipos de interacción:
 Interferencia durante la recuperación
 El conflicto en la resolución de múltiples formas fonológicas tras la recuperación.

Según el modelo,
 la dislexia superficial es la pérdida de capacidad de lograr un contacto directo con el lexicón
ortográfico,
 la dislexia fonológica es la pérdida de la ruta indirecta.
 La lectura no semántica es una pérdida de las rutas semántico-léxicas.
 La dislexia profunda, sigue siendo misteriosa;
o Los pacientes sólo pueden leer a través de las rutas semántico-léxicas.
o Sigue sin explicar las paralexias semánticas
o La idea alternativa es que las paralexias son resultado de una lesión adicional del propio
sistema semántico.

Modelos de múltiples rutas, en ellos se combinan múltiples niveles de correspondencias de


ortografía a sonidos al determinar la pronunciación de una palabra. En el modelo de múltiples niveles
de Norris, se combinan distintos niveles de información de ortografía a sonidos, incluyendo fonema,
rima y correspondencias a nivel de la palabra en una red de activación interactiva para determinar la
pronunciación final de la palabra.

El modelo de doble ruta en cascada o DRC de Coltheart es un modelo computacional basado en la


arquitectura del modelo de ruta dual. Realmente se basa en el modelo de tres rutas, con un sistema de
regla léxica de grafema a fonema y un sistema léxico que, a su vez, se divide en una ruta que pasa
por el sistema semántico y una ruta no semántica que no pasa por el mismo.
 Utiliza el procesamiento en cascada en cuanto se produce una activación a nivel de la letra, la
activación pasa al nivel de la palabra.
 El modelo computacional puede simular el desempeño tanto en tareas de decisión léxica como en
las de nombramiento, mostrando los efectos adecuados de frecuencia, regularidad,
pseudohomófonos, vecindario e priming.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 La regularidad es una motivación central del modelo.


 Se tarda más en pronunciar palabras irregulares que regulares porque la ruta léxica y la no léxica
producen pronunciaciones contrapuestas.
 Explica la dislexia superficial haciendo que las entradas en el lexicón ortográfico estén menos
disponibles.
 Explica la dislexia fonológica lesionando la ruta de conversión de grafema a fonema.

En la hipótesis de la suma de Hillis y Caramazza la única ruta directa es la lectura mediante la


semántica. La idea es que el acceso al sistema semántico no está totalmente obstaculizado. Se
combina (o se “suma”) la activación de la ruta subléxica con la activación proveniente de la ruta
semántica directa lesionada para garantizar la pronunciación correcta.

6.2 El modelo de analogías

El Modelo de Analogías de Glushko et al., es un modelo de ruta única que proporciona un


mecanismo explícito para explicar cómo pronunciamos las palabras inexistentes. Es el precursor de
los modelos conexionistas.

Postula que las personas pronunciamos palabras inexistentes y palabras nuevas por “analogía” con
otras palabras. Cuando se presenta una palabra (inexistente) se activan sus vecinos y todos ellos
influyen sobre su pronunciación.

Para nombrar por analogía, hay que encontrar palabras candidatas que contengan los cimientos
ortográficos pertinentes; obtener la representación fonológica de los segmentos; y ensamblar la
fonología completa. Estos modelos tienen una serie de problemas:
 No dejaban claro cómo se segmenta el elemento de entrada de forma adecuada.
 Hacen predicciones incorrectas sobre cómo deberían pronunciarse algunas palabras inexistentes.
Especialmente problemáticas las basadas en bandas.
 Hace predicciones incorrectas sobre cuanto tardamos en cometer errores de pronunciación.
 Por último, no está claro como explican las disociaciones que se producen en la dislexia adquirida.

6.3 Modelos conexionistas

El modelo original de Seidenberg y McClelland evolucionó en respuesta a las críticas.

 El modelo de lectura de Seidenberg y McCelland (1989)

Abreviado con frecuencia como modelo SM. Comparte muchas características del modelo de
activación interactiva del reconocimiento de letras.

Este primer modelo simulaba una ruta de un modelo más general del procesamiento léxico (Fig.
5.4). La lectura y el habla implican tres tipos de códigos: 1) ortográfico, 2) de significado, 3)
fonológico. Estos tres están conectados mediante conexiones de retroalimentación. Por ello se llama
Modelo triangular.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

En el modelo triangular como en el modelo de doble ruta revisado, hay una ruta de la ortografía a
la fonología a través de la semántica. La característica clave del modelo es que hay otra ruta de la
ortografía a la fonología, sin pasar por la semántica; no hay una ruta que implique reglas de
correspondencia grafema a fonema (en el modelo de doble ruta revisado sí).

El modelo tiene tres niveles, cada uno compuesto por múltiples unidades simples: 1) capa de
entrada (input), 2) capa oculta (output), 3) capa de salida. (Fig. 5.5) Cada una de las unidades en estas
capas tiene un nivel de activación, y cada unidad está conectada a todas las unidades del siguiente
nivel en una conexión ponderada, (o bien excitadora o bien inhibidora).

Una característica importante es que las conexiones son aprendidas, no son determinadas por el
modelado. La red aprende a asociar la producción fonológica con la entrada ortográfica al recibir una
exposición repetida a pares de palabra y pronunciación. Utiliza como algoritmo la propagación hacia
atrás, que implica una lenta reducción de la discrepancia entre el producto deseado y el producto real
de la red alterando las ponderaciones de las conexiones.

La facilidad con la que la red aprende una palabra, y el efecto que tiene sobre las palabras
similares, depende en cierta medida de su frecuencia. Se necesitan aproximadamente ciento
cincuenta mil pruebas de aprendizaje para minimizar las diferencias entre producción real y deseada.

Tras el entrenamiento, se puso a prueba la red presentando series de letras y calculando las
puntuaciones de errores:
 Las puntuaciones de error fonológico: se generaban aplicando la entrada de las unidades
ortográficas y se media por la salida de las unidades fonológicas; se interpretaba como un
indicador del desempeño en una tarea de nombramiento.
 Las puntuaciones del error ortográfico: se obtienen comparando el patrón de activación de la
entrada de las unidades ortográficas con el patrón producido mediante la retroalimentación
proveniente de las unidades ocultas, y se interpretaba como un indicador que reflejaba el
desempeño del modelo en una tarea de decisión léxica. Por lo tanto son indicador de familiaridad
ortográfica.

Puesto que el modelo utiliza una representación distribuida, no existe una correspondencia de uno
a otro entre las unidades ocultas y los elementos léxicos; cada palabra está representada por un patrón
de activación en las unidades ocultas. Según este modelo,
 La memoria léxica no consiste en entradas para cada palabra individual.
 Los vecinos ortográficos no influyen sobre la pronunciación de una palabra directamente en el
momento en que se está procesando.
 Los efectos de la regularidad en la pronunciación derivan de las regularidades estadísticas de las
palabras del cuerpo de la formación (todas las aprendidas) que quedan reflejadas en las
ponderaciones de las conexiones en la simulación.
 El procesamiento léxico implica la activación de la información, y no es un suceso de todo o nada.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

 Evaluación del modelo SM original

Besnet et al., proporcionaron una crítica detallada del modelo de Seidenberg y McClelland, en
concreto afirmaron:
 El modelo sigue teniendo un lexicón, en el que en vez de que una palabra corresponda a una unidad
corresponde a un patrón de activación.
 El modelo “lee” las palabras inexistentes bastante mal. En concreto, sólo producía la pronunciación
regular correcta. Por tanto, el desempeño con las palabras inexistentes es defectuoso.
 La explicación del modelo de la decisión léxica es inadecuada en tanto en cuanto comete
demasiados errores, acepta demasiadas palabras inexistentes, en concreto con palabras inexistentes
que tienen patrones ortográficos poco habituales.
 La explicación que hace de la dislexia superficial es problemática y no explica la dislexia
fonológica.

Foster señalo que el demostrar que un modelo de red puede aprender con éxito a realizar una tarea
compleja como la lectura no significa que ésa sea la forma en la que lo hacemos las personas.

Norris afirmó que un obstáculo fundamental es que no podía explicar la capacidad que tienen los
lectores de cambiar estratégicamente de utilizar la información léxica a utilizar información
subléxica.

 El modelo conexionista revisado: PMSP

Este modelo proporciona una buena explicación de la lectura normal y de dislexia superficial.

El modelo PMSP utiliza representaciones más realistas de los elementos de entrada y salida. Las
representaciones fonológicas estaban basadas en fonemas con restricciones fonotácticas (limita los
sonidos que pueden ir juntos en el lenguaje) y las representaciones ortográficas basadas en grafemas
con restricciones grafotácticas (limita las letras que pueden ir juntas en el lenguaje).

En el modelo PMSP revisado, las letras y los fonemas activan las mismas unidades,
independientemente del contexto. La respuesta a una serie de letras no es lineal, en tanto en cuanto
se producen rendimientos decrecientes. Esto explica la interacción entre la consistencia de palabras y
la frecuencia.

 Acceso a la semántica

Según el modelo PMSP podemos acceder a la semántica:


 Directamente, a través de la OS (ortografía – semántica)
 Indirectamente, a través de la OFS (ortografía – fonología – semántica)

En el modelo completo, todas las partes del sistema funcionan de manera simultánea y
contribuyen a la activación del significado. La activación del sistema semántico está impulsada por
ambas rutas (OS y OFS). Dada la interactividad del sistema, la activación del sistema semántico
activa las correspondientes representaciones fonológicas que, a su vez, afectan al sistema semántico.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Las simulaciones demuestran que las contribuciones relativas a las dos vías (OS y OFS) están
moduladas por una serie de factores: 1) habilidad – la información fonológica más importante al
principio del entrenamiento, correspondiente a los lectores menos diestros - 2) frecuencia de las
palabras – para las palabras de alta frecuencia el camino OS más eficiente- y 3) tiempos de respuesta.

Su conclusión clave es que la semántica influye claramente en la lectura normal y en la lectura


deteriorada.

6.4 Modelos conexionistas de la dislexia

El conexionismo está contribuyendo a dar explicaciones a las dislexias superficial y profunda.

 Modelado de la dislexia superficial

Patterson, Seidenberg y McClelland, “lesionaron” artificialmente la red, tras la fase de aprendizaje


destruían las unidades ocultas o las ponderaciones de las conexiones, y a continuación observaron el
comportamiento del modelo. Los resultados demostraron que ninguna lesión hizo que el modelo
tuviera un desempeño selectivamente peor con las palabras inexistentes. El comportamiento del
modelo lesionado reflejaba el de una persona con dislexia superficial.

Hay tres problemas fundamentales respecto a esta explicación:


 El modelo original de Seidenberg y McClelland era relativamente malo produciendo palabras
inexistentes antes de ser lesionado. Se podría decir que el modelo original funcionaba como un
paciente con dislexia fonológica. Sin embargo, los pacientes con dislexia superficial no tienen
problemas para leer palabras inexistentes.
 El modelo no hace realmente un exceso de regularización, sólo cambia el sonido de la vocal de las
palabras.
 Berhman y Bub, demostraron que el desempeño del paciente con dislexia superficial con palabras
irregulares variaban en función de la frecuencia de las palabras. Interpretaron este efecto de la
frecuencia como un problema para los modelos conexionistas.
 Patterson et al. Fueron muy explícitos en la simulación de la dislexia superficial, su modelo no
incluye la dislexia fonológica.

 Análisis de la participación semántica en la lectura

El modelo revisado PSMP proporciona una mejor explicación de la dislexia. Patterson y Hodges
propusieron que la integridad de las representaciones léxicas depende de su interacción con el
sistema semántico, hablaron de la hipótesis del pegamento semántico: las representaciones
semánticas unen a las representaciones fonológicas con un pegamento. Los pacientes se ven
obligados a recurrir a la ruta subléxica o de lectura mediante correspondencias de grafema a fonema,
lo que provoca errores de dislexia superficial. Además tienen problemas para repetir las palabras
irregulares cuyo significado han perdido si el sistema está suficientemente estresado pero pueden
repetir listas de palabras cuyo significado está intacto.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

El modelo PMSP demostró que la causa de la dislexia superficial es el deterioro o daño de la vía
semántica participante en la lectura. En la dislexia superficial la vía semántica está dañada, y la vía
fonológica aislada se revela como una dislexia superficial.

El modelo revisado tiene en cuenta las diferencias individuales entre las personas, y muestra cómo
una pequeña diferencia de estrategias de lectura puede provocar distintas consecuencias tras una
lesión cerebral.

 Modelado de la dislexia fonológica

El modelo triangular es la mejor explicación conexionista de la dislexia fonológica. Ve a la lectura


como un proceso que se produce entre las tres rutas conceptualizadas en el modelo SM original
(rutas: ortografía a fonología, ortografía a semántica y semántica a fonología Ver Fig. 5.3).

Este modelo se basa en la hipótesis del trastorno fonológico, que establece que la dislexia
fonológica se produce debido a dificultades en las representaciones a nivel fonológico, más que en la
conversión grafema a fonema. Las personas con dislexia fonológica siguen pudiendo leer palabras
porque se puede acceder a sus representaciones fonológicas debilitadas a través del nivel semántico.

Un problema de la hipótesis del déficit fonológico es que no está claro que pueda abordar
correctamente la forma en que los pacientes de dislexia fonológica leen los pseudohomófonos mejor
que otros tipos de palabras inexistentes.

 Modelado de la dislexia profunda

Hinton y Shallice lesionaron otro modelo conexionista para simular la dislexia profunda. Se entrenó
a su modelo mediante propagación hacia atrás para que relacionara la pronunciación de las palabras
con una representación del significado de las mismas.

La representación semántica subyacente de una palabra se especifica como un patrón de


activación en todas las unidades de características semánticas. Se puede considerar como unidades
atómicas de significado. Estas unidades permiten unas interdependencias más complejas entre las
unidades semánticas que hay que aprender, y tienen como efecto que producen una estructura en la
capa de salida. Esto da lugar a un espacio semántico más rico donde hay fuertes atractores. Se puede
considerar que un atractor es como un punto en el espacio semántico al que se ven atraídos los
estados vecinos de la red.

Los resultados de los estudios demostraron que cuanto más cerca estaba la lesión del sistema
semántico, más efecto tenía. El tipo de lesión y su localización interactuaban. Por tanto, la red
lesionada se comporta como un paciente de dislexia profunda, en concreto al cometer paralexias
semánticas. Las paralexias se producen porque los atractores semánticos hacen que se acceda a las
agrupaciones de características cercanas a los significados de las palabras relacionadas con la palabra
objetivo. Las lesiones modifican el espacio semántico de forma que las palabras con un parecido
visual se ven atraídas a distintos atractores semánticos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

La explicación de Hinton y Shallice es importante para los neuropsicólogos cognitivos por


diversas razones:
 Proporciona un mecanismo explicito por el que las características de la dislexia profunda pueden
derivarse de un modelo de lectura normal.
 Demuestra que el sitio real de la lesión no tiene una importancia fundamental. Esto se debe a las
características en cascada de estas redes. Cada fase del procesamiento está activando
continuamente la siguiente, y no depende de que se termine el procesamiento en la fase previa.
Los efectos de las lesiones en un punto de la rede pasan rápidamente a otros lugares circundantes.
 Demuestra por qué los síntomas que anteriormente se consideraban conceptualmente
independientes tienen que producirse necesariamente de manera conjunta. Los errores semánticos
y visuales pueden provenir de la misma lesión.
 Reaviva así la importancia de los síndromes como concepto neuropsicológico. Si los síntomas se
producen conjuntamente debido a cualquier lesión de determinado sistema, tiene sentido buscar
esas ocurrencias conjuntas.

Plaut y Shallice demostraron que cuando se lesiona una red con atracción similar a la de Hinton y
Shallice, se leen mejor las palabras concretas que las palabras abstractas (las de mucha
imaginabilidad mejor). Esta red puede explicar tanto el mejor desempeño habitual de los pacientes de
dislexia profunda con palabras completas como también la rara excepción en que se produce lo
contrario. También demostraron:
 Las lesiones más cercanas a las unidades de los grafemas tendían a producir más errores visuales.
 Las lesiones más cercanas a las unidades semánticas tendían a producir más errores semánticos.

El modelado conexionista ha hecho avanzar en la dislexia profunda y comprender los déficits


neuropsicológicos en general.

6.5 Comparación de los modelos

Modelo sencillo de ruta dual Modelos de analogía Modelización conexionista


Explicación inadecuada de la lectura Su funcionamiento detallado es Proporciona un modelo de ruta
y requiere, al menos, una ruta léxica vago y no parecen poder explicar única explícito que cubre la mayoría
adicional a través de la semántica todos los datos. de los hechos fundamentales.
imaginable. Su contribución ha planteado el
Cuanto más complejo es el modelo reto de que sólo se necesita una ruta
mayor es la preocupación por la para leer palabras reales e
posibilidad de que se estén inexistentes, y que los efectos de la
introduciendo rutas de manera regularidad en la pronunciación se
arbitraria para explicar determinados deben a las regularidades
hechos. estadísticas de las palabras de un
idioma.
En la actualidad dos alternativas: Un modelo conexionista; Modelo triangular y una variante del
modelo de doble ruta, el modelo de doble ruta en cascada.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED

Modelo triangular Modelo de doble ruta en cascada


 No existe división del trabajo  Existe división del trabajo entre la ruta léxica (con
 Pone de relieve la consistencia de las rimas y de otras conocimiento de las palabras individuales) la ruta
unidades, lo que constituye el concepto estadístico. léxica con reglas de ortografía.
 No serían fáciles de pronunciar las palabras regulares  Pone de relieve la regularidad: o bien cumple con las
y consistentes. reglas de ortografía a sonido o no cumple con ellas
 Este modelo es capaz de explicar las diferencias  Según este modelo deberían ser fáciles de pronunciar
individuales en la pronunciación de las palabras palabras regulares y consistentes.
inexistentes.
La dislexia profunda sugiere que es posible acceder al significado sin haber identificado
correctamente la palabra, mientras que la lectura no semántica sugiere que podemos reconocer las
palabras sin acceder necesariamente al significado.

El acceso léxico único es un requisito previo para activar el significado en los modelos como el
modelos de logogenes y el modelo de búsqueda enserie, los modelos conexionistas en cascada
permiten una activación paulatina de la información semántica mientras se siguen acumulando
evidencias a partir del procesamiento preceptivo.

Todos estos modelos (en especial conexionistas) están limitados en tanto en cuanto se han
centrado en el reconocimiento de palabras morfológicamente simples, y, a menudo, monosilábicas.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Capítulo 6: Comprensión del habla


1. Introducción
La percepción del habla trata de cómo identificamos o percibimos los sonidos del lenguaje,
mientras que el reconocimiento de la palabra hablada trata del proceso de nivel superior
consistente en reconocer las palabras que conforman los sonidos. Esta separación es artificial, ya
que es posible que no identifiquemos todos los sonidos de una palabra y después los pongamos
juntos para reconocerla, o tal vez el reconocer la palabra nos ayude a identificar sus sonidos
constituyentes. También puede darse que no necesitemos oír todos los sonidos de una palabra
antes de poder identificarla.

2. Reconocimiento del habla


Podemos distinguir entre:
 Código preléxico: representación del sonido utilizada antes de la identificación de la palabra.
Una tarea importante es que se debe tratar de especificar la naturaleza de este código.
 Código posléxico: información que sólo está disponible tras el acceso léxico.

Se debe estudiar si los fonemas están representados explícitamente o no en esta representación


y el papel de las sílabas en la percepción del habla.

2.1 ¿Por qué es tan difícil la percepción del habla?

Hay diferencias entre la percepción de la palabra hablada y la palabra escrita:


 Las palabras habladas se presentan sólo de forma muy breve. Sólo se tiene una oportunidad
para reconocerlas.
 La palabra escrita está ahí, delante de uno, durante todo el tiempo que uno quiera para
analizarla. La persona puede volver atrás y comprobarla tantas veces como quiera.

El proceso de reconocer el habla es automático, no se puede detener ni obligarse a no


comprender, se produce sin esfuerzo, rápido y sin dificultad aparente. Cuando se empieza a
percibir el habla en un contexto, se empiezan a reconocer sonidos a los 200ms de haber empezado
el mensaje y se pueden comprender hasta 20 fonemas por segundo (a veces más). Si los sonidos
que se nos presentan son una secuencia de “pitido, siseo, tono y vocal” sólo se pueden distinguir el
orden de los sonidos a un ritmo inferior a 1,5 sonidos por segundo.

Los sonidos del habla parecen tener ventaja sobre los sonidos que no son habla cuando se oyen
con ruido circundante. Cuantos más sonidos haya que identificar dentro de un conjunto mayor
tiene que ser la señal respecto al ruido. Bruce demostró que, con ruido de fondo:
 las palabras en un contexto significativo se reconocen mejor que las palabras fuera de contexto
 se necesita el doble de tiempo para reconocer una palabra presentada de forma aislada que si se
presenta en el contexto de la frase.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

En resumen, hay ventaja al reconocer palabras en un contexto en comparación con sonidos del
habla fuera de contexto o con sonidos que no son habla.

 Señales acústicas y segmentos fonéticos: ¿cómo segmentamos el habla?

Las propiedades acústicas de los fonemas no son fijas, sino que varían con el contexto en que
se encuentran e incluso varían acústicamente en función del ritmo del habla. El sonido /b/ difiere
en “ball”, “bill”, “able” o “rob”. Esta variabilidad acústica hace que la identificación de fonemas
sea una tarea compleja, puesto que no existe un “ejemplo perfecto” de ese fonema, llamado
patrón, sino que hay distintos fonos que se corresponden con un solo fonema.

Si nos fijamos en la señal acústica física y los sonidos que transmite la señal, resulta evidente
que la relación entre ambos es compleja. Miller y Jusczyk señalaron que esta complejidad surge
debido a dos características que deben actuar como restricciones fundamentales de las teorías
sobre la percepción del habla. Estas dos características son facetas de la falta de identidad o
isomorfismo entre el nivel acústico y el fonético del lenguaje. Se conocen como el problema de
segmentación y la invarianza.

 El problema de la invarianza: el mismo fonema puede tener un sonido distinto en función del
contexto en el que se produce.

La invarianza acústica se produce debido a que los detalles de la realización de un fonema


varían en función del contexto de sus fonemas circundantes. Los fonemas adoptan parte de las
propiedades acústicas de sus vecinos, un proceso conocido como asimilación. Por ejemplo el
fonema /i/ no tiene una cualidad nasal, pero al acompañarse de un fonema como /n/, lo adopta, ya
que el tracto vocal anticipa la forma que tiene que tomar para el siguiente fonema, por eso en
“pin” la /i/ adquiere una cualidad nasal. Es decir, se producen efectos de coarticulación, ya que el
tracto vocal, cuando emitimos un sonido, ya ha adoptado la forma que necesita para el siguiente.
Este hecho tiene ventajas tanto para el que habla como para el que escucha:
 El que habla puede hacerlo más rápido que si tuviera que adoptar su tracto vocal la forma
precisa y por separado ante cada fonema.
 El que escucha puede repartir la información sobre la identidad de los segmentos fonéticos
entre varios segmentos acústicos, por tanto no se recopila información de un fonema en un
momento dado, sino que se tiene información sobre los sonidos circundantes (característica
conocida como transmisión paralela), nos indica qué se dirá a continuación.

 El problema de la segmentación: es que los sonidos se producen conjuntamente y no se pueden


separar fácilmente.

Los sonidos del habla se producen juntos (excepto las consonantes nasales y las pausas). Esto
no se aplica sólo a las palabras en sí, sino que las palabras también van unidas entre ellas. El
ejemplo inglés “I scream”-“ice cream”-> suenan igual. Los segmentos acústicos visibles en un
espectrograma no ofrecen ninguna correspondencia fácil con los segmentos fonéticos.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Una restricción o vía de segmentar el habla es que preferimos segmentar el habla de forma que
cada segmento se corresponda con una sola palabra, a lo que se llama “restricción de la palabra
posible”. No nos gusta que algún segmento libre se corresponda con una sílaba sin unir a una
palabra. Cualquier segmentación del habla que deje sola sonidos de consonantes será más
probablemente rechazada (la segmentación de “fill a green bucket” será preferida a “filigree n
bucket”, donde una “n” queda fuera)

Otras estrategias dependen del idioma en el que se crezca. Las sílabas fuertes van acentuadas y
nunca se acortan a sonidos de vocales neutras sin acentuar, mientras que las sílabas débiles no
están acentuadas y suelen acortarse a sonidos de vocales neutras sin acentuar. (En inglés las sílabas
fuertes suelen ser además las que están en palabras del contenido fundamental del mensaje, mientras que las
débiles suelen ser sílabas que no están al principio de la palabra o en el inicio de palabras funcionales ). Una
estrategia que usa este tipo de información es la conocida como “estrategia de segmentación
métrica”. Esto se puede manipular en las tareas experimentales, haciendo que las expectativas no
se cumplan en los materiales presentados a los participantes. Cutler y Butterfield describen cómo
un participante al que se le había dado este conjunto de palabras impredecibles “conduct ascents
uphill” (conducta asciende colina arriba), entendió “the doctor sends the bill” (el doctor presenta
la factura) y otro entendió “a duck descends some pill” (un pato se traga cierta píldora). Los
oyentes han insertado erróneamente delimitaciones de palabras antes de las sílabas fuertes y han
eliminado delimitaciones antes de las sílabas débiles. Este tipo de segmentación, por el que los
oyentes segmentan el habla identificando las sílabas acentuadas, se denomina “segmentación en
función de la acentuación”. En inglés, que sigue esta estrategia, la delimitación de las sílabas no
están claras y la identificación de las mismas no es fiable.

Una alternativa es la “segmentación en función de las sílabas”, basado en detectar sílabas, se da


en idiomas como el francés, donde las sílabas son muy claras y poco ambiguas. La forma del
idioma, por tanto, determina la estrategia de segmentación precisa que se utiliza.

Para los bilingües la estrategia de segmentación viene determinada por su idioma dominante.
Cutler y otros pusieron a prueba a bilingües inglés/francés segmentando materiales en ambos
idiomas usando la “tarea de monitorización de las sílabas”, en la que los participantes tenían que
decir lo más rápido posible si oían una determinada secuencia de sonidos. A los franceses les
pusieron las palabras “balance” (empieza por la sílaba “ba”) y “balcon” (que empieza por “bal”),
les fue fácil detectar las sílabas por las que comenzaban ambas palabras, pero tardaron más cuando
la secuencia estaba segmentada con “bal” como primera sílaba para “balance” y cuando “ba” era
la primera sílaba de “balcon” porque, aunque estos sonidos están representados, no se
corresponden con las sílabas de esas palabras. A los ingleses les pusieron “balance” y “balcony”,
pero la estructura en sílabas de estas palabras no está tan clara como en francés. La “L” de “bal”
en ambas palabras puede pertenecer a la primera o la segunda sílaba, por lo que no hubo
diferencias en el tiempo de detección de ambas secuencias, ya que el inglés no utiliza sílabas.

Las personas que hablaban en inglés como idioma primario segmentaron en función de la
entonación con el material inglés y nunca en función de las sílabas. Los franceses segmentaron en
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

sílabas sólo con el material en francés. Es como si la estrategia de segmentación quedara fijada a
una edad muy temprana y sólo se usa esa. Por tanto todas las personas bilingües son monolingües
desde el punto de vista de la segmentación, pero esto no es una desventaja, ya que descartan
procesos de segmentación ineficaces y usan otros procesos analíticos más generales.

 Percepción categórica

A pesar de la variabilidad en las formas de expresar un fonema, no observamos esas


diferencias, clasificamos los sonidos del habla como un fonema u otro, sin término medio, lo que
se conoce como percepción categórica de los fonemas.

Liberman y otros usaron un sintetizador de palabras para crear un continuo de sílabas


artificiales que diferían en su lugar de articulación. Los participantes colocaban estas sílabas en 3
categorías bastante distintas, /b/, /d/ y /g/. Otro ejemplo de esto es el tiempo de comienzo de la voz
(VOT: tiempo que tarda la vibración de las cuerdas vocales cuando se cierra el tracto vocal):
 para las consonantes sordas (como /p/ y /t/) es de 60 ms.
 Para las sonoras (como /b/ y /d/), el retardo es 0.
 Los pares [/p/-/b/] y [/t/-/d/] (una sonora y otra sorda en cada par), sólo difieren en esta
característica.

Aunque se pueden crear sonidos con características intermedias entre ellas, como un VOT de
30 ms, la percepción sigue siendo categórica, se elige una u otra, sonora o sorda (que puede
cambiar según el momento de la clasificación o el propio individuo, hablándose de individuos
sesgados hacia un extremos del continuo o el otro).

También se puede medir esto con la “técnica de la adaptación selectiva”: donde se “cansa” a
los receptores de características supuestamente responsables de la percepción categórica para
cambiar la percepción hacia el extremo opuesto del continuo. Para ello se expone repetidamente al
sujeto a un sonido. Por ejemplo se expone a un participante al sonido “ba”, se habitúa a los
receptores de /b/-sonora y en la siguiente exposición de un sonido entre el par [/b/-/p/] se tenderá a
seleccionar /p/-sorda. Por tanto; aunque los estímulos puedan ser físicamente continuos, la
percepción es categórica.

Las delimitaciones entre categorías no son fijas, sino que son sensibles a factores contextuales,
como el ritmo del habla. El sistema perceptivo parece capaz de ajustarse a ritmos rápidos del habla
de forma que, por ejemplo un sonido con un VOT breve que debería ser percibido como /b/-
sonora, se percibe como /p/-sorda. Un intervalo corto (un VOT breve) en términos absolutos
puede ser considerado como relativamente largo si el habla que lo rodea es suficientemente rápida.
Los bebés también son sensibles al ritmo del habla, por lo que no puede hablarse de un fenómeno
aprendido. Son capaces de interpretar la duración relativa de los componentes de frecuencia del
habla en función del ritmo.

Al principio se pensó que los oyentes eran incapaces de distinguir entre miembros ligeramente
distintos dentro de una categoría de fonemas, pero no parece que sea así. Pisoni y Tash
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

determinaron que los participantes tardaban menos en calificar como iguales dos sílabas /ba/ si los
sonidos de la /b/ eran acústicamente idénticos que si diferían ligeramente en el VOT.

Se dice que los oyentes son sensibles a diferencias dentro de las categorías, por lo que la
importancia de la percepción categórica se ha puesto en entredicho. Es posible que muchos
fenómenos de la percepción del habla se expliquen mejor en términos de percepción continua y no
categórica. Y aunque nuestra experiencia fenoménica de la identificación del habla es que los
sonidos pertenecen a categorías distintivas, la evidencia de que el temprano procesamiento
sensorial es realmente categórico es mucho más débil. Massaro afirmó que la aparente mala
discriminación entre categorías no deriva de un temprano procesamiento perceptivo, sino que
surge de un sesgo de los participantes a afirmar que los elementos de la misma categoría son
idénticos.

 ¿Cuál es el carácter del código preléxico?

Savin y Bever pidieron a los participantes que respondieran en cuanto oyeran determinada
unidad que era, o bien, un único fonema, o bien una sílaba. Determinaron que respondían más
lentamente a los fonemas que a las sílabas y concluyeron que la identificación de los fonemas es
posterior a la de las sílabas. Propusieron que los fonemas no son perceptivamente reales de la
misma manera en que lo son las sílabas. No reconocemos las palabras mediante sus fonemas
individuales, sino en base a la percepción de unidades más fundamentales como la sílaba. Foss y
Swinney dijeron que esto no tenía por qué ser así, que el hecho de que en la consciencia apareciera
la sílaba (unidad superior) antes que el fonema no quería decir que su procesamiento fuera
también anterior.

Foss y Blank propusieron la teoría del código dual en la que el procesamiento del habla utiliza:
 Código preléxico o fonético: se computa directamente a partir del análisis perceptivo de la
información acústica de entrada.
 Código posléxico o fonémico: se deriva de la información que emana de las unidades de nivel
superior como las palabras.

En la “tarea de monitorización de fonemas” los sujetos tienen que apretar un botón en cuanto
oyen determinado sonido. Foss y Blank demostraron que los tiempos de monitorización del
fonema ante los fonemas objetivo en palabras reales e inexistentes eran los mismos. En este caso
los participantes deberían estar respondiendo utilizando el código preléxico o fonético, puesto que
las palabras inexistentes no pueden tener códigos fonológicos (no se corresponden con ninguna
regla de producción de sonidos del idioma). La “frecuencia” de la palabra objetivo tampoco
influía en los tiempos de monitorización del fonema.

Por otra parte, la manipulación del contexto semántico de una palabra hace que las personas
respondan desde el código posléxico. Según Foss y Blank se responde:
 con el código preléxico cuando se facilita la tarea de monitorización del fonema,
 con el posléxico cuando la tarea es más difícil (cuando la palabra objetivo es más difícil).
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

No encontraron después evidencia experimental que apoyara el código dual. El incremento en


la carga de procesamiento de los participantes, haciéndoles responder ante varios objetivos, no les
llevó a responder desde el código posléxico. Concluyeron que, por lo general, las personas
contestan en una tarea de monitorización del fonema a partir del código preléxico, y sólo en
circunstancias excepcionales utilizan el código posléxico. Los resultados sugieren que los fonemas
forman parte del código preléxico.

Marslen-Wilson y Warren proporcionaron una extensa evidencia experimental en una serie de


tareas en las que no hace falta terminar la clasificación de los fonemas antes de que pueda
empezar la activación léxica. Las palabras inexistentes que se construyen a partir de palabras
reales son más difíciles de rechazar en una tarea de decisión léxica que las palabras inexistentes
construidas a partir de palabras inexistentes. En este experimento se parte se “smog” (palabra real)
y se va cambiando la última letra para crear palabras inexistentes como “smod”, “smob”…
Aunque puede que inicialmente suenen igual, es más difícil rechazar la versión inexistente de
“smog” porque la información de coarticulación de la vocal es consistente con una palabra real. Se
identificaron estos efectos en toda una serie de tareas distintas. Si la representación fonética de la
vocal hubiera sido traducida a un fonema antes del acceso léxico, la información de la
coarticulación se hubiera perdido y los dos tipos de palabras inexistentes hubieran planteado la
misma dificultad. Ellos afirmaron que se accede directamente a las representaciones léxicas a
partir de información en la señal de sonido. La información de coarticulación de las vocales se
utiliza enseguida para identificar la consonante siguiente y, por tanto, para identificar la palabra.

Existe controversia sobre si necesitamos identificar los fonemas antes de reconocer una
palabra, la mayoría de los datos dicen que, aunque es posible que se computen los fonemas
durante el reconocimiento de la palabra, no tenemos que culminar la identificación del fonema
antes de que se pueda empezar a reconocer la palabra. Parece que somos menos conscientes de los
fonemas que de los otros elementos fonológicos constituyentes del habla, como las sílabas. Morais
y Kolinsky propusieron 2 representaciones distintas de los fonemas:
 Sistema inconsciente: actúa en el reconocimiento y la producción del habla.
 Sistema consciente: desarrollado en el contexto del desarrollo de la alfabetización (escritura y
lectura)

2.2 ¿Cuál es el papel del contexto en la identificación de los sonidos?

Las investigaciones tratan de aclarar si el reconocimiento del habla es un proceso puramente de


abajo arriba (de los sonidos a la interpretación) o si el procesamiento arriba abajo (el conocimiento
y las estructuras previas influyen en la mera percepción de los sonidos):
 Se habla de influencia arriba abajo en la percepción del sonido si se puede demostrar que la
palabra en la que se produce un sonido, o incluso el significado de toda una frase, puede influir
sobre el reconocimiento de dicho sonido. Y entonces se podrá afirmar que la percepción es un
proceso interactivo; ya que el conocimiento sobre las palabras está influyendo sobre la
percepción de sus sonidos constituyentes.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Los distintos tipos de contextos podrían tener un efecto en cada uno de los niveles de
procesamiento fonológico y los efectos podrían ser distintos en cada nivel.

La primera evidencia relevante parte de la percepción categórica de los sonidos. Ganong varió
un fonema ambiguo a lo largo de un continuo (de /k/ a /g/) e insertó estas variaciones delante de un contexto
proporcionado por el final de una palabra, “-iss”. Los participantes pusieron la variación de sonidos del lado de
/k/, algo que no harían normalmente, por el mero hecho de que así se construía una palabra (“kiss” es una palabra
y “giss” no lo es). Concluyó que el contexto afectaba al “punto de cambio perceptivo” o cambio de
identificación léxica, así, el contexto de una palabra influye en nuestra clasificación de los
sonidos.

Connine y Clifton, usando esta misma técnica, reforzaron que el conocimiento léxico (la
información sobre las palabras), está disponible para la percepción categórica de elementos
ambiguos. Así, se logran otras ventajas del procesamiento de estímulos ambiguos cuando se
invoca el conocimiento léxico, pero no en los extremos del continuo donde la información
perceptiva, por sí sola, basta para tomar una decisión.

Los estudios posteriores utilizando un método de análisis llamado “detección de la señal”


también sugieren que el cambio de identificación léxica en una tarea de percepción categórica es
auténticamente perceptivo. La teoría de la detección de señales proporciona un medio para
describir la identificación de estímulos “imperfectamente discriminables”. El contexto léxico no es
sensible a las manipulaciones (fundamentalmente el grado en el que se recompensan las respuestas
correctas y se castigan las incorrectas) que se sabe que influyen sobre los procesos posperceptivos.
Connine determinó que el contexto de la frase (proporcionado por el significado de toda la frase)
se comporta de forma distinta al contexto léxico (contexto proporcionado por la palabra en la que
se produce el fonema ambiguo). En concreto, el contexto de la frase tiene un efecto análogo al del
efecto posperceptivo evidente de la cuantía de la recompensa monetaria, donde determinadas
respuestas dan lugar a mayores recompensas. Por tanto, concluyó que el contexto de la frase tiene
efectos posperceptivos.

Efecto de la restauración del fonema: es una conclusión psicolingüística clásica que parece ser,
a primera vista, una prueba de la participación del contexto en la identificación del sonido. Warren
et al. presentaron a los participantes frases como: “the State governors met with their respective
legi*latures convening in the capital city”. En el punto marcado con un * se había cortado un fragmento de 0,12
segundos de la frase (donde falta la /s/), y se había metido una tos (el efecto era igual si el sonido era una tos, un
pitido o un zumbido). Los participantes no pudieron detectar que faltaba un sonido de la frase.
Parecían restaurar el sonido /s/. Una vez informados de que faltaba un sonido, los participantes
seguían diciendo que los percibían todos, además tampoco podían localizar correctamente dónde
estaba la tos en la frase. También se encuentra este efecto en omisiones más largas, como en vez de
“legi*latures”, poner “le***latures”. Warren y colbs., afirmaron que los participantes, en su
procesamiento del habla, están usando, más allá de los fonemas individuales, información
semántica y sintáctica. El efecto desaparecía si en vez de toses, pitos o zumbidos, se introducía un
silencio, que era detectado fácilmente.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

El ejemplo más drástico que hizo que Warren y colbs., afirmaran que la información semántica
y sintáctica influía en la percepción fue este: propusieron a los participantes 4 frases, donde a una
de las palabras se le omitía un fonema (siempre en la misma), pero el final de la frase cambiaba en
todas las oraciones (sólo la palabra final).Todo lo demás permanecía igual. Los participantes
introdujeron sonidos diferentes dependiendo del contexto.
1) “It was found that the *eel was on the orange”; aquí metieron una /p/ para crear “peel”, piel, que le pega
más a naranja.
2) “It was found that the *eel was on the axle”; aquí metieron /w/ para crear “wheel”, que encaja más con
axle/eje.
3) “It was found that the *eel was on the shoe”; aquí metieron /h/ para crear “heel”, tacón, que le va más a
zapato.
4) “It was found that the *eel was on the table”; aquí metieron /m/, para crear “meal”, que le pega más a mesa.

Los participantes restauraban un fonema que mejor fuera con la palabra según el contexto.

Aunque a primera vista parece que la percepción del habla está limitada por una información
de nivel superior (como restricciones semánticas y sintácticas), en estos experimentos no está
claro cómo se está produciendo la restauración. ¿Perciben realmente los participantes el fonema
ausente? Fodor investigó si la restauración se producía a un nivel de procesamiento fonológico
(bajo), o a un nivel superior, ya que era posible que los participantes simplemente adivinaran qué
fonema faltaba, cosa que no tenía por qué ser necesariamente consciente. La pregunta era si el
contexto afectaba al procesamiento perceptivo o al posperceptivo (de carácter superior).

Hay evidencia de que, en ciertas circunstancias, la restauración de fonemas es un auténtico


efecto perceptivo. Samuel analizó los efectos de añadir ruido al segmento, en vez de sustituirlo:
 Si la restauración del fonema es realmente perceptiva, los participantes no deberían ser capaces
de detectar ninguna diferencia entre estas condiciones; en cada caso, pensarán que oyen un
fonema más un sonido.
 Por otra parte, si el efecto es posterior a la percepción, debería haber una buena discriminación
entre estas dos condiciones.

Samuel concluyó que el contexto léxico da lugar a una auténtica restauración del fonema y que
el efecto era preléxico. También concluyó que el contexto de la frase no afecta al reconocimiento
del fonema y sólo afecta al procesamiento posléxico. En conclusión: sólo la información sobre
determinadas palabras afecta a la identificación de las palabras; la información sobre el
significado de la frase afecta a una fase de procesamiento superior.

Samuel analizó la sugerencia de que los sujetos adivinaban el fonema en la tarea de


restauración, en vez de restaurarlo de verdad perceptivamente, y combinó esta tarea con una de
adaptación selectiva para ponerlo a prueba. Los oyentes identificaban sonidos del continuo /bi/-/di/ en el
que los sonidos que actuaban como adaptadores eran la 3ª sílaba de las palabras que empezaban, o bien con /b/
(alphabet), o bien con /d/ (academic). Tras oír 40 veces alphabet, habiendo sido habituados los “receptores” de
/b/, los sujetos tenían menos probabilidades de clasificar como /b/ un sonido posterior. Si en vez de alphabet se
les ponía 40 veces alpha*et, siendo * un ruido potente, quedaban habituados igualmente al sonido /b/. Esto
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

indica que el sonido queda restaurado realmente y que estos “fonemas restaurados” pueden actuar
como los auténticos y causar adaptación.

Sin embargo otros autores han afirmado que se pueden explicar estas conclusiones sin
“interacción” si el código fonológico restaurado se crea por un contexto léxico de arriba abajo en
vez de que se provea simplemente por el código léxico. El contexto léxico no parece mejorar la
perceptibilidad del fonema (la sensibilidad), sino que sólo afecta a cómo responden los
participantes (el sesgo). En este sentido, la información de arriba abajo no está afectando
realmente a la sensibilidad del reconocimiento de la palabra. Tal vez los oyentes aprenden a
reconocer el ruido como el sonido /b/ y por tanto provoca adaptación de la misma manera que la
provocaría una auténtica /b/.

El contexto arriba abajo tiene, en el mejor de los casos, un papel limitado en la identificación
de los sonidos. Hay poca evidencia de que el contexto de la frase afecte al procesamiento del
habla.

2.3 El curso temporal del reconocimiento de la palabra hablada

Los términos “reconocimiento del habla” y “acceso léxico” se usan para hacer referencia a dos
procesos distintos. Podemos identificar 3 fases de la identificación: (Frauenfelder y Tyler) Fig.
6.1:

 Contacto inicial: el reconocimiento de la palabra hablada empieza cuando cierta representación


de la entrada sensorial hace un contacto inicial con el léxico. La “representación de contacto”
activa las entradas léxicas almacenadas. La activación puede ser: a) “todo o nada” (como en el
modelo original de cohortes), b) puede haber niveles de activación relativa que dependen de
ciertas características como la frecuencia, c) puede que la activación sea proporcional a la
bondad actual del ajuste con los datos sensoriales (como en el modelo de TRACE o en el más
actualizado de cohortes)
 Fase de selección léxica: la activación sigue acumulándose hasta que se elige una entrada
léxica. El reconocimiento de la palabra es el punto final de esta fase.
 Fase de reconocimiento de la palabra: se reconoce la palabra y el punto de reconocimiento
(momento en el que realmente se reconoce la palabra) suele producirse antes de que se haya
oído la palabra completa. En el caso más sencillo, el punto de reconocimiento se corresponde
con su punto de singularidad (la secuencia inicial de la palabra es común a esa palabra y a
ninguna otra). Con frecuencia se retrasará el reconocimiento hasta después de haber alcanzado
el punto de singularidad y, en principio, podríamos reconocer la palabra antes de su punto de
singularidad, por ejemplo, en contextos muy sesgados. Si ocurre esto, este punto en que se
produce el reconocimiento se llama punto de aislamiento (punto de una palabra en el que una
proporción de oyentes identifica la palabra, aunque es posible que haya dudas sobre esta
decisión). Al llegar al punto de aislamiento, el oyente ha aislado una palabra candidata, pero
sigue monitorizando la entrada sensorial hasta alcanzar cierto nivel de confianza, éste es el
punto de reconocimiento.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

El acceso léxico hace referencia al punto en el que se encuentra disponible toda la información
sobre una palabra (fonológica, semántica, sintáctica, pragmática) tras su reconocimiento. El
“proceso de integración” que se produce a continuación marca el inicio del proceso de
comprensión propiamente dicho, donde se integran las propiedades semánticas y sintácticas de la
palabra en la representación de la frase de nivel superior.

 ¿Cuándo afecta la frecuencia al reconocimiento de la palabra hablada?


La frecuencia tiene un efecto mucho más temprano en el reconocimiento de la palabra hablada.
Dahan y otros analizaron los movimientos oculares de personas cuando miraban imágenes en una pantalla. Los
participantes tenían que seguir instrucciones habladas sobre el objeto de la escena en el que tenían que hacer
click con el ratón. Los participantes tendían a mirar primero a los objetos con un nombre alta frecuencia, en
comparación con una imagen competidora con un nombre de frecuencia inferior pero con los mismos sonidos
iniciales (por ejemplo, la palabra hablada era “bench”, y había una imagen de un banco, pero a su lado había una
imagen de una campana “bell”, de baja frecuencia, y otra de una cama “bed” de alta frecuencia). Los
participantes también necesitaban mirar durante menos tiempo los objetivos con nombres de
mayor frecuencia. La frecuencia de las palabras es importante desde las primeras etapas de
procesamiento y estos efectos persisten durante cierto tiempo.

2.4 Efectos del contexto en el reconocimiento de palabras

El contexto es toda la información que no se encuentra en la señal sensorial. Incluye


información disponible de la entrada sensorial previa (el contexto anterior) y de fuentes de
conocimiento superiores (información semántica, sintáctica y pragmática). La naturaleza del
contexto que se está analizando también depende del nivel de análisis, como puede ser el contexto
de una palabra que opera en la identificación de un fonema o el contexto de una frase que opera en
la identificación de una palabra.

Para demostrar que el contexto afecta al reconocimiento, tenemos que demostrar que existen
influencias de arriba abajo en el procesamiento de abajo arriba de la señal acústica. Ya se ha visto
si el contexto afecta al reconocimiento en el nivel inferior, ahora se va a ver si el contexto de la
frase afecta al procesamiento de palabras. También se debe ver qué tipo de contexto afecta, en qué
etapa o etapas tienen efecto y cómo tienen ese efecto. Hay dos posturas opuestas sobre el papel del
contexto en el reconocimiento:
 Postura autónoma: el contexto no puede tener un efecto previo al reconocimiento de la palabra,
sólo puede contribuir a la evaluación e integración del resultado del procesamiento léxico, no a
su generación. En estos modelos se permite el flujo lateral de información (se permite un flujo
de información dentro del lexicón, pero no del lexicón a los procesos inferiores como la
identificación del fonema.)
 Postura interaccionista: permite que los distintos tipos de información interactúen entre sí. Se
puede producir una retroalimentación de los niveles posteriores de procesamiento a los
anteriores. Por ejemplo, la información sobre el significado de la frase o del contexto
pragmático podría influir en la percepción.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Tal vez habría que considerar estas dos posturas como extremos de un continuo de posibles
modelos. Puede que en los modelos interaccionistas haya algunas restricciones de interacción
posible, por ejemplo, el contexto puede proponer candidatos de la palabra a la que podría
corresponder el estímulo antes de que haya empezado el procesamiento sensorial, o puede que el
contexto se limite a descartar candidatos y no a proponerlos.

Al haber tantas diferencias entre los modelos, es difícil hacer pruebas entre ellos. Una fuerte
evidencia a favor de la perspectiva interaccionista es si el contexto tiene un efecto antes o durante
las fases de acceso y selección. En un modelo autónomo, el contexto sólo puede tener influencia
cuando una palabra ha emergido como el mejor ajuste a la entrada sensorial.

Frauenfelder y Tyler distinguen dos tipos de contexto:


 Contexto no estructural: puede ser considerado como información proveniente del mismo nivel
de procesamiento en el que se está procesando actualmente. Un ejemplo es la facilitación del
procesamiento que surge del contexto intraléxico, como una relación asociativa entre dos
palabras, como doctor y enfermera. Se puede explicar en términos de relaciones dentro de un
único nivel de procesamiento, por lo que no tiene por qué incumplir el principio de autonomía
en cuanto a la divulgación de la actividad dentro del lexicón. Pero también se puede considerar
que la facilitación se debe a potentes conexiones entre cosas similares en el mismo nivel. Según
teóricos de la autonomía, este es el único tipo de contexto que afecta a los procesos antes del
reconocimiento.
 Contexto estructural: afecta a la combinación de palabras en unidades de un nivel superior, e
implica un mayor nivel de información. Es un procesamiento arriba abajo. Hay una serie de
posibles tipos de contexto estructural. Se puede usar el conocimiento de las palabras (contexto
léxico) para ayudar a identificar los fonemas y el conocimiento a nivel de la frase (contexto de
la frase y sintáctico), para ayudar a identificar palabras individuales. Los tipos de contexto
estructural más interesantes son los basados en el significado, distinguieron dos tipos:
o Semántico: se basa en los significados de la palabra. Gran evidencia de que este contexto
afecta al procesamiento de la palabra. Se responde más rápidamente a las palabras que son
adecuadas al contexto que a las que no lo son, en toda una serie de tareas. Pero no está claro
si se pueden distinguir efectos del contexto estructural semántico y el contexto no
estructural, o en qué fases se producen. Además es necesario estudiar estos efectos usando
tareas que minimizan la posibilidad de que actúen los factores posteriores a la percepción.
Por ello, el retraso entre el estímulo y la respuesta no debe ser demasiado largo, de lo
contrario los sujetos tendrían ocasión de reflexionar o de alterar sus decisiones, lo que
reflejaría mecanismos de acceso posterior de una fase más tardía.
o Interpretativo: implica más información de nivel superior, como la información pragmática,
la información del discurso y el conocimiento del mundo. Hay cierta evidencia de que el
contexto no lingüístico puede afectar al reconocimiento de palabras. Se analizaron los
movimientos oculares de los participantes cuando estaban examinando una escena visual al
tiempo que siguiendo instrucciones. Se determinó que el contexto visual puede facilitar el
reconocimiento de la palabra hablada. Por ejemplo “candy” (caramelo) suena parecida a
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

“candle” (vela) hasta la mitad de la palabra. Ante la instrucción “pick up the candle” (coge
la vela), los sujetos movían los ojos más rápido hacia el objeto mencionado cuando sólo
había una vela en la escena que cuando había una vela y un caramelo. Cuando no había
objeto que generara confusión, los participantes identificaban el objeto antes de oír el final
de la palabra. Este resultado sugiere que el contexto interpretativo puede afectar al
reconocimiento de las palabras.

3. Modelos de reconocimiento del habla


Antes de que podamos acceder al lexicón, tenemos que traducir el resultado de los nervios
auditivos a un formato adecuado. La percepción del habla se encarga de esta primera fase del
procesamiento.

Los primeros modelos de reconocimiento del habla analizaron la posibilidad de hacer


correspondencias entre patrones. Se almacenan palabras objetivo como patrones, y se produce la
identificación cuando se encuentra una correspondencia. Sin embargo en el habla hay demasiada
variación como para que esta posibilidad sea verosímil, excepto en los campos más restringidos.
Las personas difieren en cuanto a su dialecto, su tono básico, la velocidad básica a la que hablan.
Una misma persona puede producir un mismo fonema de varias formas diferentes, si habla muy
alto o más rápido de lo normal. El número de patrones que habría que almacenar sería muy
elevado. En general los modelos de patrones no se consideran posibles en psicolingüística.

 Análisis por síntesis: fue uno de los primeros modelos de la percepción del habla. Su base era
que reconocemos el habla mediante referencia a las acciones necesarias para producir un sonido.
La idea importante que subyace a este modelo es que, cuando oímos hablar, producimos o
sintetizamos una sucesión de sonidos del habla hasta que encontramos una correspondencia con
lo que oímos.
El sintetizador crea la mejor conjetura inicial restringida por las pistas acústicas de la entrada y
después intenta minimizar las diferencias entre esta conjetura inicial y la entrada, no genera
aleatoriamente candidatos que comparar con la entrada; Este planteamiento tiene varias ventajas:
 Utiliza nuestra capacidad de producir el habla también para el reconocimiento de la misma.
 Asume fácilmente las diferencias entre distintos hablantes, porque los oyentes están
generando sus propias palabras candidatas.
 Es fácil demostrar cómo podrían tener efecto las restricciones de todos los niveles; el
sintetizador sólo genera palabras posibles. No generará secuencias de palabras imposibles.

 Una variante del modelo de Análisis por síntesis, La teoría del motor, propone que el sintetizador
del habla modeliza el aparato articulatorio y los movimientos motores de la persona que habla.
Computa cuáles habrían sido los movimientos necesarios para producir los sonidos que se han
escuchado.
La evidencia de este modelo es que la forma en que se hacen los sonidos proporciona una
descripción perfecta de los mismos; por ejemplo, en inglés todas las /d/ se hacen golpeando la
lengua contra el arco alveolar. La especificación de los movimientos motores debe ser bastante
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

abstracta; las personas mudas pueden comprender el habla perfectamente y podemos comprender
cosas que se han dicho que no podemos producir nosotros mismos (como el habla de un
tartamudo o un acento extranjero).

 Los modelos de análisis por síntesis padecen dos problemas:


 No hay una forma evidente de traducir la hipótesis articulatoria, generada por el sistema de
producción, al mismo formato que el habla oída para poder valorar la correspondencia
potencial.
 Somos buenos reconociendo palabras claramente articuladas que son improbables en su
contexto, lo que sugiere que el reconocimiento del habla es un proceso impulsado
fundamentalmente por los datos.
 En resumen: Esta teoría está inespecificada y tiene poco poder predictivo.

No obstante, en los últimos años las teorías motoras de la percepción han resurgido. Siguen
teniendo la ventaja de que la correspondencia de la señal auditiva con representaciones motoras
para producir nuestra propia lengua proporciona un medio para clasificar la señal acústica;
algunos investigadores afirman que estas representaciones motoras tienen un papel significativo
en el procesamiento del lenguaje y que la percepción del habla se parece a la percepción de los
gestos motores, en el sentido de que el objetivo de la percepción del habla es reconocer cuáles son
los movimientos del tracto vocal que dan lugar a sonidos, más que la identificación más abstracta
de los propios sonidos. Las neuroimágenes demuestran que las áreas motoras del cerebro se
activan durante la percepción del habla aunque esta activación no demuestre un papel causal en la
percepción. Pero sí parece al menos que los procesos motores desempeñan algún papel.

3.1 El modelo de cohortes de reconocimiento de palabras


Presentado por Marslen-Wilson y Welsh (1978, 1984 y 1987). La idea central del modelo es
que, cuando oímos hablar, generamos una cohorte de posibles elementos que podrían ser la
palabra que oímos. A continuación, se van eliminando elementos de este conjunto hasta que sólo
queda uno, que es el elemento que se acepta como la palabra que se está intentando reconocer. Es
necesario distinguir entre dos versiones del modelo;
 La primera; permitía una mayor interacción
 La revisada; en la que el procesamiento es más autónomo y el sistema de reconocimiento
estaba más capacitado para recuperarse si los principios de las palabras estaban degradados.

En el modelo hay 3 fases del procesamiento:


Fig. 6.2 Modelo de cohortes en el reconocimiento de palabras
FASE DE ACCESO: se usa la representación perceptiva para activar elementos léxicos y
PRELEXI

generar un conjunto de candidatos, este conjunto se denomina cohorte. El principio de la


palabra es muy importante para genera la cohorte.
FASE DE SELECCIÓN: sólo se elige un elemento dentro del conjunto. Se selecciona un
CA

elemento de la cohorte.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

POSLEXCA FASE DE INTEGRACIÓN: se utilizan las propiedades semánticas y sintácticas de la


palabra elegida, por ejemplo, al integrar la palabra en una representación completa de toda la
frase.

Modelo de los logogenes Modelo original de cohortes


 Se basa en un acceso directo, paralelo e  Se basa en un acceso directo, paralelo e
interactivo interactivo
 Acumulan pasivamente evidencia positiva.  Las palabras buscan activamente ser
eliminadas
 Al presentarse el principio de una palabra, se
constituye una “cohorte de inicios de palabras”
con las palabras candidatas, luego se van
eliminando activamente estas palabras con
todos los medios posibles, incluyendo más
evidencia fonológica y un contexto semántico
y un contexto sintáctico. A medida que se van
oyendo fragmentos adicionales de la palabra se
van eliminando candidatos.

Recordamos que el “punto de singularidad” es el punto en el que se puede distinguir de forma


singular una palabra de todas las palabras similares. En torno al “punto de singularidad” se
produce el procesamiento más intenso.

1) /t/
2) /tr/
3) /tre/
4) /tres/
5) /tresp/
6) /trespass/
Cuando se escucha /t/, la cohorte es enorme, ya que hay muchas palabras que comienzan con ese fonema.
Con /tr/ se reducirá la cohorte, aunque seguirá siendo muy grande. Con /tre/ se reduce aún más la cohorte, pero
sigue habiendo una serie de elementos posibles, como “trespass”, “trestle”, “trend” o “trench”. Con /tres/ sólo
quedan 3 candidatas; “trespass”, “tress” y “trestle”. Pero sólo con /tresp/ se reduce la cohorte a una palabra (a un
morfema raíz), este es el punto conocido como “punto de singularidad”.

El “punto de reconocimiento” no tiene por qué coincidir con el de “singularidad”. Si la frase


contexto de esa palabra fuera “the poacher ignored the sign not to tres-“, no haría falta llegar hasta
el punto de singularidad de esa palabra (/tresp/), porque con sólo escuchar /tres/, sabríamos qué
palabra va en esa frase. Así, la primera versión del modelo permitía estas interacciones, donde el
contexto está afectando claramente a la fase de selección preléxica.

Por otra parte, si la información sensorial es mala, podría no alcanzarse el punto de


reconocimiento hasta mucho después de haber alcanzado el punto de singularidad. Es probable
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

que sólo lleguen a coincidir el punto de singularidad y de reconocimiento en el caso de alguna


palabra aislada muy clara.

En el modelo revisado, el contexto sólo afecta a la fase de integración. El modelo tiene una
prioridad de “abajo arriba”, lo que significa que no se puede usar el contexto para restringir cuáles
son los elementos que conforman la cohorte inicial.
 La prioridad abajo arriba está presente en los dos modelos, pero en el revisado no se puede usar
el contexto para eliminar candidatas en una etapa temprana.
 En el revisado la eliminación de palabras de la cohorte deja de ser un proceso de todo o nada,
que sirve para explicar que aunque no se haya entendido bien el comienzo de la palabra se
puedan superar esas distorsiones. Por ejemplo si oímos la frase “la comida estaba beliciosa”,
podemos recuperar e identificar esa palabra como “deliciosa”, aunque se tarde más tiempo.
 En el modelo revisado el grado de solapamiento es elevado, aunque el principio de las palabras
sea muy importante para generar la cohorte.
 También cambia respecto del anterior que a medida que las palabras de la cohorte no se ven
favorecidas por información positiva, van decayendo hasta quedar de nuevo en estado de
reposo. Se pueden reactivar con información positiva posterior. El nivel de activación de las
palabras candidatas inadecuadas en el contexto decae, por lo que el contexto dispone, pero no
propone. Los candidatos adecuados se integran en el siguiente nivel de representación superior
de la frase.
 El contexto de la frase sólo tiene un efecto tardío y no puede invalidar la hipótesis de la
percepción, cuando una candidata está empezando a emerger como probable ganadora.
 La frecuencia de una palabra afecta al nivel de activación de las candidatas en las primeras
etapas del acceso léxico. El tipo de ganancia de la activación es mayor para las palabras de
mayor frecuencia.
 Hay efectos de frecuencia relativa dentro de la cohorte inicial, de forma que pertenecer a la
cohorte no es una cuestión de todo o nada sino que los elementos varían a lo largo de un
continuo de activación.
 La versión más reciente pone de relieve el acceso directo de las entradas léxicas en función de
un análisis acústico de la señal del habla entrante.

 Pruebas experimentales del modelo de cohortes


El experimento de Marlsen-Wilson y Welsh tiene 3 variables de interés:
 Magnitud de la discrepancia entre la palabra objetivo y la palabra errónea. Esta discrepancia se
medía en función de una serie de características distintivas alteradas en el error (“trachedy” en
vez de “tragedy”)
 Restricción léxica; reflejaba el número de candidatos disponibles en distintas posiciones de una
palabra manipulando la posición de la sílaba en la que se localizaba el error (primera o tercera
sílaba)
 Contexto; la palabra objetivo era continuación probable o improbable del inicio de la frase,
podía ser de restricción alta “aun así, se quería fumar un ----“ (muy probablemente fuera
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

“cigarrillo” la palabra), o de restricción baja (“fue su ---------- que estuvieran parados”, donde
“mala suerte” cabe pero hay otras posibilidades)

 La técnica de seguimiento (shadowing): se utiliza para analizar cómo interactúan la sintaxis y la


semántica en el reconocimiento de palabras. En la prueba los participantes tienen escuchar un
discurso y repetirlo lo antes posible (con un retardo de 250ms). Los discursos tienen errores
deliberados, que son sonidos distorsionados de forma que se pronuncian mal algunas palabras. El
50% de las veces los participantes repiten el discurso como debería haber sido, sin los errores de
pronunciación. A esto se le llama “restauraciones fluidas”. Cuanto más distorsionado está un
sonido, más probable es que se obtenga una repetición exacta.
 Conclusiones/Resultados:
 Las restauraciones más fluidas se hacían con distorsiones leves, de la última sílaba y cuando
era predecible por el contexto (restricción alta).
 La mayoría de reproducciones más exactas con una mayor distorsión se daban cuando la
palabra estaba poco restringida por el contexto, si la restricción es adecuada, se restaura la
fluidez mejor, aunque las desviaciones sean muy grandes.
 Interpretaron los resultados como una demostración de que la percepción inmediata es el
producto tanto de la entrada perceptiva de abajo arriba como de las restricciones contextuales
de arriba abajo.
 El análisis sintáctico y semántico empieza muy poco después de haber empezado a escuchar la
frase, no se aplazan hasta haberla escuchado entera.

 Detección de pronunciaciones erróneas (Cole y Jakimik): en esta tarea, los participantes


escuchan un discurso donde hay un sonido distorsionado (cambio de “bota” por “pota”) y se
detectan esos cambios. Los participantes son más sensibles a los cambios al principio de las
palabras. No préstamos la misma atención a todas las partes de la palabra, al inicio de la misma
se le presta más atención.
Los fragmentos que se corresponden con el comienzo de una palabra son un prime casi tan eficaz como la
palabra misma. “capi-” sería un prime tan bueno para la palabra diana “barco” como lo sería “capitán”. Por otra
parte, los fragmentos de la rima producen muy poco priming, por ejemplo ni “cattle” (una palabra), ni “yattle”
(una palabra derivada) serían buenas primes para “battle”.

 Tarea de activación paulatina (gating): tarea que consiste en revelar progresivamente más
fragmentos de una palabra, como en el caso de /trespass/ de antes. Con ella se pueden identificar
los puntos de aislamiento, pero con cierto grado de duda. Esta tarea demuestra la importancia del
contexto adecuado, como “en el zoo, los niños montaron en el …” para la palabra “camello”.
Estos estudios también demostraron que las palabras candidatas se generan de forma que son
compatibles con la representación perceptiva hasta cierto punto, pero no con el contexto (que no
propone). Las fuertes restricciones semánticas y sintácticas no impiden que se acceda, al menos
al principio, a palabras candidatas compatibles con la entrada sensorial pero no con el contexto.
El contexto no puede tener un efecto temprano.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

 El contexto no influye en la generación de palabras candidatas, pero sí puede eliminarlas. El


priming multimodal permite medir los efectos del contexto en distintos momentos de
reconocimiento de una palabra: los participantes escuchan un discurso en unos auriculares al
tiempo que miran a la vez a una pantalla para realizar una tarea de decisión léxica ante las
palabras que se le presentan visualmente. Se puede variar sistemáticamente la relación entre la
palabra en la pantalla y el discurso oído, y el momento en el que ambos pueden coincidir.
Zwitserlood demostró que el contexto puede ayudar a elegir las palabras candidatas
semánticamente adecuadas antes de alcanzar el punto de reconocimiento de la palabra.
Ejemplo con la palabra “capitán”. Los participantes oían distintas cantidades de la palabra antes de que
apareciera en la pantalla, o bien oían una palabra relacionada o bien una palabra control. En el momento de oír
sólo “cap”, la palabra no es todavía única, puede seguirse con opciones igualmente válidas, como “capitán”
pero también “capital”. Zwitserlood identificó una facilitación para palabras relacionadas como “barco”, pero
también hubo facilitación para las relacionadas con capital, como “dinero”. Sin embargo, al terminar la palabra
“capitán”, sólo se podían primar las palabras relacionadas con ella. También había un priming mayor de
la palabra candidata más frecuente que de las menos frecuentes, como predice el modelo de
cohortes. El contexto no tiene ningún efecto al principio de la palabra: incluso si el contexto
favorece enérgicamente una palabra (también con competidoras poco verosímiles). Pero una vez
que se ha pasado el punto de aislamiento sí influye el contexto, cuyo efecto es fomentar el nivel
de activación de la palabra respecto al de sus competidoras.
Estos resultados respaldan las ideas de que el contexto no puede anular las hipótesis perceptivas
y que el contexto de la frase tiene un efecto tardío sobre la interpretación de una palabra y su
integración con la sintaxis y la semántica de la frase. El contexto acelera la integración.

Experimento de Van Petten et al., sugiere que la integración semántica puede empezar cuando
el sistema sólo tiene información incompleta sobre la identidad de la palabra. Los estudios que
usan potenciales evocados han demostrado que todas las palabras crean un pico máximo de
activación a los 400 ms de haber empezado el estímulo, lo que se conoce como N400. El N400 es
mayor en amplitud cuando la palabra está en un contexto incongruente. Van Petten encontró N400
diferenciales a palabras semánticamente adecuadas e inadecuadas antes del punto de aislamiento
de la palabra.

 La influencia de las vecinas léxicas


En el modelo de cohortes, el número de competidoras o el tamaño de la cohorte, en un
momento dado no deberían tener ningún efecto sobre el reconocimiento de la palabra objetivo.
Pero los datos son contrarios.

 Los resultados de Luce y otros sugieren que el tamaño de la cohorte sí afectaba al curso temporal
del reconocimiento de una palabra. Concluyeron que la estructura del vecindario de una palabra
afecta a la velocidad y a la precisión en una serie de tareas. El número de las características de
las competidoras de una palabra (como su frecuencia), son muy importantes. Por ejemplo, somos
menos capaces de identificar palabras de alta frecuencia con muchos vecinos léxicos de gran
frecuencia que de identificar palabras con menor frecuencia o con vecinos menos frecuentes.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Ellos afirmaron que el número de vecinos o “densidad del vecindario” influyen sobre la decisión.
Se tarda más y se cometen más errores al identificar palabras con muchos vecinos léxicos debido
a la competencia.

 Marslen-Wilson analizaron el efecto de la frecuencia de las palabras competidoras en el


reconocimiento. Concluyó que el reconocimiento de una palabra como “speech” no sólo depende
del punto de singularidad de sus competidoras (como “speed”, o “specious”), sino también de la
frecuencia de esas competidoras. Se identifica más rápidamente una palabra de alta frecuencia
con vecinas de frecuencia baja que lo contrario. El incremento de la activación en una palabra de
alta frecuencia es mucho mayor que en el caso de una de poca frecuencia.

El vecindario fonológico no es el único factor que puede afectar al reconocimiento auditivo. El


vecindario ortográfico también, pero lo hace de forma facilitadora. Se identifican más deprisa las
palabras habladas con muchas vecinas de parecido visual que las palabras habladas con pocas
vecinas. Esto puede pasar porque en alguna parte del sistema hay unidades subléxicas, o unidades
de palabras, o ambas, de distintas modalidades vinculadas entre sí.

 Evaluación del modelo de cohortes


El modelo ha cambiado a lo largo de los años y a la luz de los datos más recientes, pone menos
énfasis en el papel del contexto.
 En la primera versión el contexto no podía afectar a la fase de acceso, pero sí a las de selección e
integración.
 En la posterior sólo afectaba a la integración.
 En la revisada los elementos no están ni “encendidos” ni “apagados”, sino que tienen un nivel de
activación proporcional a la bondad del ajuste entre el elemento y la entrada acústica, de forma
que se puede analizar a continuación con más detalle una serie de palabras candidatas en
paralelo. Esto permite una decaída paulatina de las candidatas más que su eliminación inmediata.

El modelo no distingue entre identificación provisional y definitiva, hay algunos aspectos


probabilísticos del reconocimiento de palabras. La versión posterior, al sustituir la eliminación
“todo o nada” por una eliminación paulatina, también explica mejor la capacidad que tiene el
sistema para recuperarse de los errores. Un problema persistente del modelo de cohortes es su
dependencia del conocimiento de cuando empiezan las palabras sin tener un mecanismo explícito
para identificar el inicio de una palabra.

3.2 TRACE
El modelo TRACE es un modelo muy interactivo del reconocimiento de la palabra hablada,
derivado del Modelo de activación interactiva de las letras y de identificación visual de las
palabras de McClelland.

La característica más importante de TRACE es que pone de relieve el papel del procesamiento
arriba abajo (el contexto) en el reconocimiento de las palabras. El contexto léxico puede ayudar
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

directamente al procesamiento acústico-perceptual y la información por encima del nivel de la


palabra (semántico, sintáctico y pragmático), puede ayudar al reconocimiento de la misma.

TRACE es un modelo conexionista y está compuesto de muchas unidades simples de


procesamiento conectadas entre sí. El modelo supone un procesamiento temprano y bastante
sofisticado de la señal acústica. Estas unidades se ordenan en 3 niveles de procesamiento:

 Unidades de entrada:
 Representa características fonológicas. Éstas están conectadas a las unidades de fonemas que,
a su vez, están conectadas a las unidades de salida que representan palabras. (Fig. 6.3)
 Están provistas de energía o “activadas”, esta energía se propaga por las conexiones
(quedando activada al final una sola unidad de salida)
 Unidades fonemas
 Se produce una percepción categórica a causa de una inhibición dentro del mismo nivel entre
las unidades de fonemas
 Conforme una activación proporcionada por una entrada antigua va circulando por el tiempo,
la inhibición mutua entre ellas, da lugar a que se clasifique la entrada con en un extremo u
otro del continuo.
 Unidades de salida: representan palabras.
 De los datos del nivel anterior y su combinación surge la palabra identificada.

 Del primer nivel por tanto surgen energía que se propaga por la red excitando e inhibiendo de
manera tal que al final sólo queda una unidad de salida, la palabra que ha reconocido la red.
Las unidades en distintos niveles que son mutuamente consistentes tienen conexiones
excitadoras.
 Todas las conexiones entre los niveles son de doble sentido en tanto que la información fluye
entre ellas en ambos sentidos. Esto permite tanto el procesamiento abajo arriba como el arriba
abajo.
 Hay conexiones inhibidoras entre las unidades dentro de cada nivel, lo que implica que una vez
que una unidad se ha activado, tiende a inhibir a sus compañeras de nivel. Por tanto este
mecanismo pone de relieve el concepto de la competencia entre unidades del mismo nivel.
 El modelo tiene en cuenta el tiempo simulándolo como porciones discretas. Las unidades se
representan de manera independiente en cada porción de tiempo. El modelo se ejecuta en forma
de simulaciones informáticas y se comparan las series de simulaciones con lo que ocurre en el
procesamiento del habla en humanos.
 Muestra cómo el conocimiento léxico puede ayudar a la percepción; por ejemplo si se da una
entrada ambigua entre /p/ y /b/ y se sigue con una terminación LAN, el modelo “reconoce” /p/
(para formar “plan”).
 En el modelo se produce una percepción categórica a consecuencia de una inhibición dentro
del mismo nivel entre las unidades de fonema. A medida que una activación proporcionada por
una entrada antigua va circulando por el tiempo, la inhibición mutua entre las unidades de
fonemas da lugar a que se clasifique la entrada como en un extremo u otro del continuo.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

 El modelo TRACE explica los efectos de la posición en el reconocimiento de las palabras (los
sonidos al inicio de las palabras desempeñan un papel importante) porque la entrada se va
desvelando a lo largo del tiempo, de forma que los sonidos del principio de la palabra
contribuyen mucho más a las estimaciones de los nodos de la palabra que los sonidos del final
de la misma.

 Evaluación del modelo TRACE


 Ventajas:
 TRACE trata muy bien los efectos del contexto en la percepción del habla.
 Puede operar con cierta variación acústica y explica fenómenos como el efecto de la
restauración del fonema y los efectos de la coarticulación.
 Explica los efectos del contexto léxico y es bueno para encontrar las limitaciones de las
palabras y opera bien con entradas con ruido, que se aproximan más al lenguaje natural. Las
cuestiones que constituyen un problema para los modelos antiguos, como los efectos de la
coarticulación en los modelos de patrones, facilitan de hecho el procesamiento mediante un
procesamiento de arriba abajo.
 TRACE es explícito, como todos los modelos informáticos.

 Presenta varios problemas:


 Hay muchos parámetros que se pueden manipular en el modelo y se pueden rebajar las
críticas de que TRACE es demasiado potente en tanto que puede acomodar cualquier
resultado.
 Al ajustar algunos de los parámetros se puede hacer que el modelo simule cualquier dato de
los experimentos sea lo que fuere lo que indiquen los datos reales en las tareas.
 El tratamiento del tiempo como porciones discretas es inverosímil.

Massaro planteó una serie de problemas de TRACE. En una prueba de decisión forzosa puso a los
participantes un continuo de sonido entre /l/ y /r/, y tenían que decir cuál habían percibido en tres contextos
diferentes; “s_i” (más proclive a /l/, ya que hay algunas palabras en inglés que empiezan con “sli”), “”t_i”
(proclive a /r/) y “p_i” (proclive a /r/ y /l/). Así se vio que ocurría con humanos, dándose un 50% de elecciones
en la condición “p_i” entre /r/ y /l/, que difería de los resultados de TRACE. En TRACE el contexto tiene un
efecto mayor cuando la señal es menos ambigua, pero en humanos el contexto afecta de manera
constante respecto a la ambigüedad de la señal del habla. Massaro quería que el resultado de
TRACE fuera más estocástico (o probabilista), pero aun cuando se introdujo en el programa esta
modificación para hacerlo más probabilista, los resultados siguieron siendo erróneos en este
aspecto.

Massaro defiende un modelo en el que el reconocimiento fonético utiliza características que


actúan como una entrada de la estrategia de decisión que implica combinaciones variables de las
características perceptivas llamadas prototipos difusos.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

TRACE se ocupa del curso temporal del acceso léxico y el modelo lógico difuso se ocupa más
de la toma de decisiones y los procesos de producción de resultados.

El principal problema de TRACE es que se basa en la idea de que el contexto afecta de arriba
abajo al proceso de reconocimiento, y el grado en que esto puede pasar es controvertido. De hecho
existe evidencia experimental en contra del efecto del procesamiento arriba abajo que TRACE
predice: los efectos del contexto sólo aparecen ante estímulos degradados desde el punto de vista
de la percepción.

Elman y McClelland encontraron que los procesos entre-niveles podían afectar a los procesos
intra-nivel a un nivel inferior, lo que respaldaba el modelo TRACE. En concreto, demostraron que
los fonemas ilusorios creados por el conocimiento léxico de arriba abajo (análogos a la
restauración del fonema) pueden afectar a la coarticulación (influencia de un sonido sobre el
vecino) que opera al nivel de percepción básica del sonido de la forma en que lo predecía TRACE.
Se puede ver en el ejemplo de los pares de palabras “English dates/gates” y “copiuos dates/gates”, donde el
fonema inicial de la segunda palabra es ambiguo, en un punto entre /g/ y /d/ . Los efectos de coarticulación
del sonido final de la primera palabra afectan a la forma exacta en que producimos el primer
sonido de la segunda palabra. Los oyentes son sensibles a estos efectos (lo que se conoce como
compensación de la coarticulación). Es más probable que identifiquemos el fonema ambiguo como /d/ si va
seguido de una /sh/, pero más probable que sea identificado como /g/ si va seguido de /s/. Los sujetos tendían
más a entender “English dates” y “copious gates”, incluso cuando el sonido final de English fue modificado para
dejarlo en un sonido a medio camino entre /s/ y /sh/.

A primera vista estos datos respaldan más un modelo interactivo que uno autónomo. Parece
que el lexicón está influyendo sobre un efecto preléxico (compensación). Sin embargo hay
explicaciones de los datos compatibles con un modelo autónomo:
 No es necesario invocar al lexicón, ya que de por sí algunas combinaciones de sonidos son más
probables. Pitt y McQueen demostraron que se puede usar esta secuencia en la percepción del
habla. Encontraron el efecto de compensación de la coarticulación en la clasificación de
consonantes oclusivas cuando iban precedidas de sonidos fricativos ambiguos al final de
palabra inexistentes. Por ejemplo, la secuencia de fonemas inexistente “der?” está sesgada hacia una
terminación /s/, mientras que la secuencia “nai?” lo está hacia una /sh/. En realidad el fonema “?” era uno a
medio camino entre /s/ y /sh/. Estas palabras iban seguidas del principio de una palabra con el sonido de una
oclusiva entre /t/ y /k/, de “tapes” a “cakes”. La identificación de la oclusiva estaba influida por la
fricativa ambigua anterior dependiendo del contexto de la fricativa de la palabra inexistente.
Puesto que la palabra anterior era inexistente, no se podía usar el conocimiento léxico. El hecho
de que siguiera identificándose una compensación sugiere que se estaba usando el
conocimiento secuencial sobre cuáles son los fonemas que se producen juntos.
 TRACE tampoco ofrece un buen rendimiento para detectar errores de pronunciación. Es un
modelo de salida única; el único modo que tiene de identificar fonemas consiste en ver cuáles
son los fonemas que se identifican en el nivel de los fonemas. Pero si se presenta una palabra
mal pronunciada ese nivel activará los fonemas que mejor correspondan. Este nivel a su vez
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

activará al anterior, el de los fonemas, de forma que se activan los fonemas de mejor
correspondencia. La mala pronunciación tiene un efecto adverso sobre el rendimiento.

A diferencia de TRACE, que es un modelo de salida única, Race es un modelo de salidas


múltiples, donde el análisis preléxico almacenado y mantenido sobre la palabra y la entrada léxica
de la palabra compiten por el resultado. La decisión se toma en función de la ruta que produce la
primera respuesta, de aquí lo de “carrera” (race). Puesto que hay dos salidas, la léxica y la
preléxica, debería ser posible poner de relieve una sobre otra cambiando la atención. Se deberían
maximizar los efectos lexicón sobre el procesamiento del fonema cuando las personas prestan
especial atención a la salida léxica y deberían quedar minimizados cuando prestan atención a la
salida preléxica. Este patrón es exactamente el que se observa y los modelos de toma única tienen
problemas para explicarlo. Por ejemplo, la magnitud del efecto léxico en las tareas de
monitorización del fonema depende de la composición de los demás elementos de relleno
utilizados en el experimento.

McQueen et. al., afirmaron que nunca es necesaria la retroalimentación en el reconocimiento


del habla. Así, la influencia arriba abajo en reconocimiento sólo obstaculizaría el proceso. La
retroalimentación no puede mejorar la precisión del procesamiento (en efecto, puede anular la
detección de los errores de pronunciación y de hecho, reducir la precisión); sólo puede acelerar el
procesamiento. El coste de este incremento de la velocidad es un intercambio con la precisión.

Finalmente, existe evidencia empírica contra otros supuestos del modelo. Frauenfelder et.al., no
encontraron ninguna prueba de una inhibición de arriba abajo en los fonemas en una tarea que
implicaba la monitorización de fonemas inesperados al final de una palabra en comparación con
palabras inexistentes de control. TRACE predice que, una vez que se ha accedido a una palabra,
los fonemas que no están en la misma deberían ser objeto de una inhibición arriba abajo. También
predice que los fonemas objetivos (como /t/) en las palabras inexistentes derivadas de palabras
alteradas (como “vocabutario”) deberían ser identificados más lentamente que los fonemas
objetivo en las palabras inexistentes de control (socabutario) porque el fonema real compite con el
fonema de la palabra dada (/l/ contra /t/ en vocabutario) debido a la retroalimentación arriba abajo.
Sin embargo no hubo diferencia entre las dos condiciones de palabras inexistentes.

Cutler y Norris concluyeron que las “latencias de monitorización de fonemas” eran más rápidas
ante los fonemas del principio de la palabra real que de la inexistente. Según TRACE no debería
haber diferencia en esto puesto que la activación no ha tenido tiempo de acrecentarse y volver a
alimentar al nivel de fonema.

TRACE tampoco es capaz de explicar las conclusiones de los experimentos de “falta de


correspondencia subcategórica”. Marslen-Wilson examinaron el efecto de la división en la
decisión léxica (¿es una palabra?) y en la clasificación de fonemas (¿qué tipo de sonido ha oído?).
El efecto de la división cruzada en palabras inexistentes era mucho mayor cuando el material
dividido provenía de una palabra (por ejemplo en un elemento como “smob”; “sm-“ viene de la
palabra real “smog”) de forma que el desempeño era peor cuando la palabra inexistente con
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

división cruzada provenía de una palabra real, pero la división no marca una gran diferencia en el
procesamiento de las palabras. El modelo TRACE no ofrece buenos resultados porque no puede
utilizar los datos sobre la falta de correspondencia entre los dos elementos.

TRACE es bueno para explicar los efectos del contexto, pero es débil en el grado en que sus
predicciones no están respaldadas fehacientemente por los datos.

 Otros modelos conexionistas del reconocimiento del habla


Las redes recientes utilizan “conexiones recurrentes” de la capa oculta a un contexto para
almacenar información sobre estados previos de la red. Fig. 6.6

Esta modificación permite a las redes codificar información sobre el tiempo, por lo que ofrecen
una explicación mucho más verosímil del carácter temporal del procesamiento del habla que un
modelo TRACE, que usa unidades basadas en tiempos fijos y esto da problemas a la hora de
asimilar variaciones del ritmo del habla.

Gaskell y Marslen-Wilson: ampliaron el modelo de cohortes para modelizar el proceso que


hace correspondencias entre la información léxica y la fonológica. Construyeron un modelo
conexionista que pone de relieve el carácter distribuido de las representaciones léxicas (a
diferencia de TRACE, que usa representación local), de forma que se distribuye la información
sobre una palabra cualquiera entre un gran número de unidades de procesamiento.

Otra diferencia con otros modelos conexionistas es que la información del habla de bajo nivel,
representada por características fonéticas, recibe directamente una correspondencia en forma
léxica. No hay niveles adicionales de procesamiento fonológico implicados (aunque hay una capa
de unidades ocultas que media entre las entradas de características y las capas de salida semántica
y fonológica).

Este modelo de Gaskell y Marslen-Wilson simulaba varias facetas importantes del


procesamiento del habla:

 Ofrecía una buena explicación del curso temporal del acceso léxico, demuestra que es posible
que se activen múltiples candidatos en paralelo. La palabra objetivo sólo se diferencia
energéticamente de sus competidoras cerca de su punto de singularidad.
 El modelo simulaba con éxito los datos experimentales.
 A diferencia de los modelos conexionistas como el TRACE, y como los humanos, el modelo
muestra muy poca tolerancia. Como en el experimento de los autores, una palabra inexistente como
“smob”, (que tiene una gran correspondencia con una real, “smog”, de la que sólo difiere en su lugar de
articulación del segmento final) que se construye de forma que las vocales sean consistentes con la palabra
objetivo, de hecho no activa demasiado la representación léxica de la palabra real “smog”. La red requiere
gran cantidad de detalle fonético para acceder a las palabras, como los humanos. Gaskell
propone que esta característica del modelo es una consecuencia de la forma realista en que se
presentan las entradas (con palabras incorporadas en un flujo de habla) y del entrenamiento de
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

la red en un gran número de formas fonológicas similares. Estas características obligan a la red
a ser intolerante sobre la clasificación de los elementos de entrada.
 Puesto que las palabras están representadas de tal manera que se solapan los elementos
similares en sus representaciones, la competencia entre elementos similares es una parte
esencial del procesamiento. La activación simultánea de más de una palabra candidata crea
conflicto. Wilson presenta una serie de experimentos utilizando un priming multimodal que muestra que la
competencia reduce la magnitud del efecto de priming semántico. Cuando una palabra sigue siendo ambigua,
como “capt-”, que puede ser capitán o cautivo (captive), no es particularmente efectiva a la hora de primar
“barco”; sólo lo es relativamente tarde, después de haber alcanzado el punto de singularidad de la palabra. No
bastante, “capt-” sigue produciendo cierto priming; puede acceder al significado antes del punto de
singularidad, lo que permite cierta facilitación de las palabras relacionadas semánticamente, pero como no
puede lograr un acceso completo, el priming semántico es más débil que después de pasado el punto de
singularidad.
 El modelo explica el distinto patrón de efectos que se encuentran en el priming por repetición
multimodal y en el priming semántico multimodal. Ellos afirman que la cantidad de
competencia entre las palabras depende de la coherencia del conjunto competitivo.
o Las palabras candidatas activadas por un sonido parcial sonarán necesariamente similares,
por lo que serán coherentes. Por el contrario, las propiedades semánticas de las palabras
candidatas no estarán relacionadas entre sí. Por tanto, el priming por repetición puede hacer
un uso directo del conjunto de candidatas léxicas activadas directamente por la entrada. (Ej.:
“capt-” está relacionada con captain y captive).
o El priming semántico no puede hacerlo puesto que genera múltiples elementos candidatos
no relacionados entre sí, por lo que son incoherentes (de “capt-“ saldrían “barco” y
“prisionero”, que en su sonido no tienen nada que ver).
Además, con conjuntos incoherentes más competencia habrá, mientras que en los coherentes no
importa el número de candidatas y el tamaño afectará menos al priming. Por tanto, se
determinó que los efectos de la competencia y los efectos del tamaño de la cohorte serían
mayores en el priming semántico que en el priming por repetición.

Norris creó el modelo SHORTLIST: Demostró que las redes recurrentes pueden identificar
palabras habladas en su punto de singularidad y también pueden asimilar variaciones en el ritmo
del habla. Pero, a diferencia de TRACE, no se pueden recuperar si identifican incorrectamente
partes de una palabra. No se pueden deshacer las decisiones.

El modelo SHORTLIST intenta reunir lo mejor de los modelos con una arquitectura híbrida
donde una red recurrente proporciona los elementos de entrada de una red de activación
interactiva. Este modelo es totalmente abajo arriba y parte de un vocabulario de decenas de miles
de palabras. En esencia considera que el reconocimiento de palabras es una carrera abajo arriba
entre palabras similares. Se crea una “red de competencia al vuelo” desde la salida de una red de
reconocimiento en la que las palabras candidatas detectadas en el flujo de entrada pueden competir
entre sí. Sólo hay unas pocas palabras recientemente activas para ser utilizadas en la lista
(shortlist=lista reducida). El principal inconveniente de este modelo es la viabilidad de crear una
nueva red competitiva en cada momento.
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

Norris, McQueen y Cutler crean el modelo MERGE (fusión): Es también un modelo


completamente dependiente de los datos (abajo arriba) y también es un modelo de competencia-
activación. Aquí, la activación fluye del nivel preléxico al lexicón y los nodos de decisión del
fonema. No hay retroalimentación entre los nodos léxicos y los preléxicos. Sin embargo, la
información léxica puede influir sobre los nodos de decisión de los fonemas. Las decisiones se
toman a partir de la fusión de estos dos elementos de entrada. Algunos dicen que fusión es igual
que interacción, puesto que los nodos de decisión del fonema están influidos por la información
léxica (lo que implicaría influencia de los arriba abajo). MERGE es en realidad un modelo que
explica las tareas de decisión de los fonemas más que un modelo general del reconocimiento del
habla.

3.3 Comparación de los modelos de reconocimiento de la palabra hablada

Vamos a ver de nuevo las 3 fases de reconocimiento del habla a ver qué ha dicho cada modelo
de ellos.

Cuando oímos hablar tenemos que hacer dos cosas: 1.-Dividir el flujo del habla en palabras y
2.-Reconocer las palabras. La cantidad de habla necesaria para computar la representación de
contacto determina cuándo se puede producir el contacto inicial. El contacto inicial se puede
producir apenas transcurridos 10 ms. Es evidente que los modelos que utilizan sílabas para
localizar posibles comienzos de las palabras, y que necesitan unidades de habla más largas,
requerirán más tiempo para acceder al lexicón. Los distintos modelos también ponen de relieve la
forma en que hacen contacto las representaciones con el lexicón. Por tanto, en el modelo de
cohortes se utiliza el principio de la palabra (los primeros 150 ms) para hacer el primer contacto.
En otros modelos se usa la parte más prominente o fiable de la palabra, como la sílaba de mayor
acentuación. Todos estos modelos en los que se utiliza el contacto inicial para generar un
subconjunto de entradas léxicas tienen la desventaja de que es difícil recuperarse de un error. Los
modelos como TRACE, en los que no hay un único contacto para cada palabra, no padecen estos
problemas. Cada fonema identificado (la palabra completa) contribuye al conjunto de entradas
léxicas activas. El coste es que estos conjuntos pueden ser muy grandes, lo que puede resultar caro
en cuanto a computación.

El modelo de cohortes revisado niega el problema de la recuperación de errores catastróficos


permitiendo una activación paulatina de las palabras candidatas en vez de una activación todo o
nada. Además, aunque los principios de las palabras son importantes en el acceso léxico, las partes
de la rima no producen priming. Por otra parte, la evidencia a favor de la cantidad de interacción
que implica el modelo TRACE es limitada.

El modelo de Gaskell y Marlsen-Wilson es muy parecido al SHORTLIST de Norris. Ambos


difieren del modelo TRACE al utilizar menos la inhibición arriba abajo y usar más la información
abajo arriba. SHORTLIST combina las ventajas de redes recurrentes y de TRACE. Estos tipos de
modelos conexionistas demuestran cómo es probable que se desarrollen los modelos de
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

reconocimiento del habla, aunque SHORTLIST padece actualmente el problema de que no está
claro cómo se pueden crear “al vuelo” redes de activación interactiva.

Todos los modelos de reconocimiento de la palabra consideran que el reconocimiento de la


palabra hablada incorpora un elemento de competencia entre la palabra objetivo y sus vecinos. El
priming de una palabra debería retrasar el reconocimiento de otra que comparta los mismos
sonidos iniciales. Por desgracia la investigación ha demostrado o bien una facilitación o bien
ningún efecto de priming de los elementos fonológicamente relacionados, en vez de la inhibición
esperada. ¿Por qué? Monsell y Hirsh señalaron que, en estos estudios, el retraso entre el prime y
el elemento de incitación era muy breve. Es posible que cualquier efecto de inhibición quede
cancelado por el efecto de facilitación de acción inmediata generado por otros factores como el
procesamiento de elementos subléxicos compartidos (como fonemas y rimas). Si fuera así,
entonces la inhibición debería resultar patente en retrasos más largos, cuando los efectos de
facilitación inmediata han tenido tiempo de desaparecer. Esto fue lo que observaron ellos. En una tarea
de decisión léxica auditiva, con retrasos temporales de 1 a 5 minutos entre la prime y la palabra diana, el tiempo
de respuesta de una palabra monosilábica precedida por una palabra que comparte su comienzo y una vocal
(“chat” y “champ”) aumentaba con respecto a una palabra de control sin primar . Análogamente el tiempo de
respuesta aumentaba para las palabras con múltiples sílabas precedidas por otra que compartía la
primera sílaba (“beacon” y “beaker”). El efecto estaba limitado a las palabras primas existentes,
las primas inexistentes (“chass” y “beacal”) no producían esta inhibición. Por tanto el priming de
competidores fonológicos retrasa el reconocimiento posterior de los elementos, pero el efecto sólo
se manifiesta cuando se han dado los efectos de facilitación a corto plazo.

Finalmente, usamos otro tipo de información cuando comprendemos el habla. Incluso las
personas con un sentido del oído normal pueden leer los labios en cierto grado. Este efecto sugiere
que la percepción del habla es el resultado de las mejores conjeturas de todo sistema de
percepción, utilizando múltiples fuentes de información entre las que el habla suele ser la más
importante.

4. La neuropsicología del reconocimiento de la palabra hablada


En los adultos con una perturbación de las funciones del lenguaje tras una lesión cerebral suele
ser frecuente que tengan dificultades en el reconocimiento del habla. Varney informó que el 18%
de estos pacientes tenía problemas para discriminar los sonidos del habla. Las lesiones cerebrales
pueden afectar a la mayoría de los niveles del proceso de reconocimiento del habla, incluyendo el
acceso a los códigos léxico y preléxico.

Hay muchos casos de pacientes que tienen dificultades para construir el código preléxico. Una
lesión cerebral puede afectar a las diversas etapas del procesamiento acusticofonético de las
características, como el VOT, o las etapas posteriores que implican la identificación de sonidos en
función de esas características. La evidencia neuropsicológica sugiere que las vocales y las
consonantes son procesadas por sistemas distintos. Se vio en dos pacientes: AS producía
fundamentalmente errores con las vocales, mientras que el paciente IFA lo hacía con las
Lenguaje 3º GRADO Aitziber Laguardia

Curso 2011-2012 UNED

consonantes. Estas diferencias persistían incluso cuando se tenían en cuenta otros factores que
podían llevar a engaño (como el grado de sonoridad; la cantidad de energía acústica de un sonido)

Los pacientes con sordera de palabra pura pueden hablar, leer y escribir con normalidad, pero
no pueden comprender el habla, a pesar de que oyen con normalidad. No pueden repetir el habla y
tienen una comprensión auditiva muy pobre. Tienen dificultades en tareas como la diferenciación
de las consonantes oclusivas entre sí. Por otra parte, el paciente de Saffran podía identificar
instrumentos musicales y ruidos distintos al habla, y podía identificar el género y el idioma de una
voz grabada. Este patrón de desempeño sugiere que estas personas padecen una perturbación de
un mecanismo de procesamiento acústico preléxico. Una variante muy poco frecuente y
controvertida es la sordera de significado de la palabra. Los pacientes con este trastorno muestran
los mismos síntomas que los anteriores pero tienen intactas las capacidades de repetición. Esto
demuestra que podemos reproducir palabras sin tener que comprenderlas.

Sólo una paciente (EDE) mostraba el procesamiento acusticofonético intacto (y con él la


capacidad de construir un código preléxico), pero también hay que decir que tenía dificultades con
el acceso léxico. Esta paciente tuvo buen rendimiento en todas las pruebas de la discriminación de
fonemas de procesamiento acústico, pero cometió muchos errores al decidir si esos fonemas
constituían palabras o no. Aún así tenía relativamente buena comprensión del lenguaje rutinario y
sus errores en esta tarea se explicaron como un déficit en la memoria a corto plazo más que una
dificultad de acceso léxico. Hasta ahora no hay datos de pacientes con el sistema de procesamiento
fonético intacto pero que no puedan acceder al código posléxico.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Capítulo 7: Comprensión de la estructura de las frases


1. Introducción
El objetivo de la interpretación de una frase es asignar papeles temáticos a las palabras de la
frase que se está procesando: quién le está haciendo qué a quién. Tabla 7.1

Es probable que las personas identifiquen las frases como parecidas a partir del verbo principal
más que a partir del sujeto de la frase, siendo especialmente importante la estructura del
argumento.

El primer paso del análisis sintáctico consiste en determinar cuál es la categoría sintáctica a la
que pertenece cada palabra de la frase. A continuación combinamos estas categorías para crear
locuciones o sintagmas.

Un paso importante del análisis sintáctico es determinar cuál es el tema de la frase. A partir de
esa información sobre las palabras individuales se empieza a construir una representación del
significado de la frase.

2. La ambigüedad estructural
El estudio de la ambigüedad sintáctica es una forma excelente de descubrir cómo funciona el
procesamiento de una frase.

 Nos pasamos más tiempo leyendo la parte ambigua de las frases que las partes no ambiguas de
frases de control pero, a menudo, pasamos más tiempo leyendo la parte de desambiguación.
 Cuando se utilizan los distintos tipos de información. Hay dos árboles de análisis sintáctico
alternativos que se pueden construir:
1. Modelo de representación en serie: Base puramente sintáctica y ha continuación se decide
utilizar la información semántica para ver si tiene sentido o no. Si tiene sentido aceptamos la
representación, si no tiene sentido, volvemos hacia atrás y volvemos a probar.
2. Modelo autónomo en paralelo: Se construyen todas las representaciones sintácticas posibles
en paralelo, utilizando, de nuevo, exclusivamente la información sintáctica, y después
utilizar la información semántica, o de otro tipo, para elegir la más adecuada.
3. Modelo interactivo: Podríamos utilizar información semántica de las fases anteriores para
guiar el análisis sintáctico de forma que sólo pudiéramos construir representaciones
sintácticas semánticamente plausibles o se podrían activar las representaciones de todos los
análisis posibles, quedando el nivel de activación afectado por la plausibilidad de cada una.

 Ambigüedad permanente (o global): cuando se llega al final de la frase, sigue siendo


sintácticamente ambigua.

 En las frases que son ambiguas localmente, la ambigüedad queda desambiguada gracias al
material posterior.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 A veces, nos damos cuenta de que nuestro análisis inicial era incorrecto y tenemos que volver
atrás y volver a analizar.

 Oración relativa reducida: una oración relativa es una que modifica el sustantivo principal y
está reducida porque carece del pronombre relativo.

 Las frases que llaman a engaño son las herramientas favoritas de los investigadores interesados
en el análisis sintáctico.

 La eliminación del complementador “que” también puede producir resultados engañosos.

 Hay evidencia de que una puntuación adecuada, como la inserción de comas, puede reducir la
magnitud del efecto de engaño mejorando la sensibilización que tienen el lector de la estructura
de la frase.

 Las interrupciones influyen en la forma en que la gente interpreta las frases engañosas. Pueden
ayudar, pero sólo siempre que estén en el lugar adecuado. Son correctas cuando apuntan
correctamente al sujeto.

 Hipótesis del diseño para la audiencia: quiénes hablan pretenden dar pistas prosódicas con el
propósito explícito de ayudar al oyente (no siempre es así)

 McKoon y Ratcliff: demostraron que las frases con oraciones relativas reducidas con verbos
como “race” se producen en el lenguaje natural con una probabilidad cercana a 0 (se
consideran inaceptables para la mayoría de la gente).

 A primera vista, nuestra experiencia de estas frases es la evidencia a favor de un procesador


autónomo en serie. No obstante, ha habido gran cantidad de investigación tratando de averiguar
qué tipo de factores han sido engañosos, si los sintácticos o los semánticos:
 Según el modelo autónomo en serie, se experimenta el efecto del engaño porque la
representación sintáctica singular que se esta construyendo en función de la sintaxis resulta
incorrecta.
 Según el modelo autónomo en paralelo, una representación está mucho más activa que las
otras debido a la potencia de las pistas sintácticas, pero resulta incorrecta.
 Según el modelo interactivo, varias fuentes de información respaldan el análisis más que su
alternativa. Sin embargo, la información posterior es incoherente con los niveles de
activación inicial.

3. Primeros estudios sobre el análisis sintáctico


Se basaban en la teoría de Chomsky de la gramática generativa; los psicólogos pusieron a prueba
la idea de que la comprensión de las frases implica la recuperación de la estructura profunda.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

3.1 Prueba psicolingüística de la teoría lingüística de Chomsky

 Teoría derivativa de la complejidad (DTC): cuanto más compleja es la derivación sintáctica


formal de una frase (más transformaciones hacen falta para formarla) más complejo es el
procesamiento psicológico necesario para comprenderla y producirla. Esto significa que las
frases de transformación compleja deberían ser más difíciles de procesar que las menos
complejas. Esto debería ser detectable con una medida como por ej.: los tiempos de reacción.
 Autonomía de la sintaxis: las reglas sintácticas deben estar especificadas independientemente
de otras restricciones, para implicar que los procesos sintácticos operan de forma independiente
de otros. Lo que significa que los procesos sintácticos deberían ser autónomos respecto a los
procesos semánticos. Chomsky distinguió entre dos tipos de transformaciones:
 Transformaciones obligatorias: aquellas sin las que la frase no sería correcta
gramaticalmente.
 Transformaciones optativas.

Chomsky definió un subconjunto de frases: Frases nucleares: en las que sólo se han aplicado
transformaciones obligatorias.

Miller y McKean: cuantas más transformaciones hay una frase, más difícil es procesarla. Su
resultado respaldó a la realidad psicológica de la gramática transformacional.

Savin y Perchonock concluyeron que las frases que tenían más transformaciones requerían más
espacio de memoria. Cuanto mayor era la complejidad transformacional de una frase, menos
elementos podían recordar simultáneamente.

Melher descubrió que cuando los participantes cometían errores recordando las frases, tendían
a hacerlo en el sentido de olvidar las etiquetas de transformación, en vez de añadirlas.

 Problemas en la interpretación psicológica de la gramática transformacional

Las tareas que respaldaban la realidad psicológica de la gramática transformacional utilizaban


todas las mediciones indirectas del procesamiento del lenguaje.
 Lo que recordamos de una frase no tiene por qué tener una relación con la forma en que la
procesamos realmente.

Slobin: analizó el procesamiento de lo que se denominan frases pasivas reversibles e


irreversibles. Los resultados de Miller et al., sólo se podían obtener en el caso de las pasivas
reversibles. La Teoría derivativa de la complejidad no siempre funciona:
 La profundidad de procesamiento sintáctico se ve afectada por consideraciones semánticas
como la reversibilidad- va en contra de la idea de autonomía de la sintaxis (fue controvertida,
otros autores encontraron resultados contrarios).
 Lo que observamos depende de los detalles de las tareas utilizadas, pero tanto los factores
sintácticos como los semánticos tienen un efecto sobre la dificultad de las frases.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Wason: analizó la relación entre la estructura de una frase y su función. Y llego a la conclusión
de que el tiempo que se tarda en procesar una construcción sintáctica como una formación
negativa depende del contexto semántico.

Los primeros estudios que respaldaban las ideas de la complejidad derivativa eran, prematuros
o simplemente erróneos, el grado en el que los procesos sintácticos y semánticos son
independientes es uno de los temas más controvertidos e importantes de la psicolingüística.

 Chomsky tenía a mano una retirada: las teorías lingüísticas describen nuestra competencia
lingüística más que nuestro rendimiento lingüístico. Esto ha llevado a una separación de la
lingüística y la psicolingüística, por la que cada disciplina busca objetivos distintos.
 Miller terminó creyendo que todo el tiempo que se utiliza en el procesamiento de una frase se
dedica a operaciones semánticas.

3.2 Los primeros trabajos de la psicolingüística sobre el análisis sintáctico

La sintaxis propone y la semántica dispone. El enfoque más sencillo considera que la sintaxis
es un módulo de procesamiento independiente o autónomo: sólo se utiliza la información
sintáctica para construir el árbol sintáctico.

 ¿Qué tamaño tienen las unidades del análisis sintáctico?

La frase es una unidad de procesamiento fundamental.

La oración también es una unidad importante. Una oración es una parte de una frase que tienen
tanto un sujeto como un predicado.

La gente considera que es más fácil leer de línea en línea si cada línea se corresponde con un
elemento constituyente principal.

Cuando se recuerdan las palabras se produce un efecto de delimitación de las oraciones: es más
fácil recordar las palabras de una oración que se está procesando actualmente, independientemente
del nº de palabras en la oración.

La carga de procesamiento es máxima al final de la oración, y las fijaciones de los ojos son más
largas en la última palabra de una oración.

Técnica de desplazamiento del clic: las unidades de procesamiento fundamental se resisten a


una interrupción: terminamos lo que estamos haciendo, y después procesamos otro material en la
primera oportunidad adecuada. La migración del clic se produce en la fase de Respuesta.

Hay acuerdo en torno a que el análisis sintáctico es, en gran medida, un proceso incremental:
intentamos construir estructuras de palabra en palabra (no permanecemos inactivos esperando a
que se acabe la cláusula). Muchos estudios han demostrado que el análisis sintáctico y semántico
son incrementales:
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 La gente intenta anticipar que viene a continuación.


 La gente hace movimientos oculares anticipatorios hacia los probables objetos siguientes
 La gente anticipa una gran cantidad de información, incluso con estructuras verbales más
complejas.
 El procesador utilizada distintas fuentes de información, de las cuales algunas no son
lingüísticas.

El procesador del lenguaje opera de forma incremental: construye rápidamente un análisis


sintáctico para un fragmento de una frase, asignándole una interpretación semántica, y
relacionando esta interpretación con el conocimiento de las palabras.

 Estrategias de análisis sintáctico basadas en las pistas de la estructura superficial

La estructura superficial de las frases proporciona una serie de pistas evidentes sobre la
representación sintáctica subyacente. Bever y Fodor y Garrett detallaron una serie de estrategias
de análisis sintáctico que sólo utilizaban pistas sintácticas:
 En la mayoría de las frases que oímos o leemos, el 1º sustantivo es el sujeto, y el 2º el objeto
(estrategia de la frase ortodoxa)
 1º Probamos con las estrategias más sencillas y, si no funcionan, con otras, si se agotan,
tenemos que probar con otra cosa.

Para ello el Análisis Sintáctico buscaba recuperar la estructura profunda subyacente de una frase.

Hay poca evidencia de que la estructura profunda esté representada mentalmente de forma
independiente del significado. No obstante, el principio general de que cuando hacemos análisis
sintáctico utilizamos las pistas de la estructura superficial sigue siendo influyente y se ha
formalizado.

 Dos primeras explicaciones del análisis sintáctico

Kimball afirmó que la estructura superficial proporciona pistas que permiten desvelar la
estructura sintáctica subyacente:
 Propuso 7 principios del análisis sintáctico para explicar el comportamiento del mecanismo
humano del Análisis Sintáctico de las frases
 Primero computamos la estructura superficial de una frase guiados por reglas que se basan en
las restricciones psicológicas, como la minimización de la carga de la memoria.
 Estos principios explican por qué se asigna la estructura que se asigna a la frases, porqué unas
son más fáciles de analizar que otras, y porque cometemos sesgos.

 Principios:
 El AS es un proceso de arriba abajo, excepto cuando aparece una conjunción (partimos del
nodo de la frase y predecimos sus elementos constituyentes)
 Asociación a la derecha, se relacionan preferentemente las nuevas palabras con el nodo más
bajo posible de la estructura construida hasta ahora.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Nuevos nodos, las palabras funcionales indican el comienzo de un nuevo sintagma.


 El procesador sólo puede trabajar con nodos asociados con dos nodos de frases en un
momento dado.
 De cierre, el procesador prefiere cerrar una locución lo antes posible.
 Estructura fija, una vez cerrada una oración es muy costoso abrirla (explica nuestra
dificultad con las frases que llaman a engaño)
 De procesamiento, cuando se cierra una oración, sale de la MCP y pasa a una 2º fase de
procesamiento semántico más profundo.

Estos principios explican bien una serie de propiedades del procesador, pero tal vez se podía
simplificar el modelo, ya que el de procesamiento subyace a otros muchos.

La investigación sobre la fijación de los ojos demuestra que es posible que no miremos
directamente a algunas palabras funcionales: con frecuencia se saltan las palabras muy cortas,
aunque puede procesarse parafovealmente.

Frazier y Fodor simplificaron a Kimball, proponiendo un modelo: máquina de embutidos, con


2 fases:
 Empaquetador preliminar de oraciones, PPP: tiene una visión limitada a unas 6 palabras.
 Supervisor de la estructura de la frase, SSS: ensambla los paquetes producidos por el PPP, pero
no puede deshacer su trabajo

Esta idea operacionaliza el principio de procesamiento de Kimball

Warner señalo problemas del modelo de la máquina de los embutidos: no puede explicar la
preferencia de la asociación a la derecha en algunas frases de 6 palabras.

Para explicarlo añadieron un nuevo principio: la asociación a la derecha actúa cuando la


asociación mínima no puede determinar dónde debe ir un elemento constituyente. Evolucionó
hasta convertirse en el modelo de la vía muerta

4. Procesamiento de la ambigüedad estructural

4.1 Modelos de vía muerta frente a modelos basados en restricciones del análisis
sintáctico

 El modelo de la vía muerta

El Análisis Sintáctico se produce en 2 fases:


 El procesador sólo utiliza información sintáctica. Si el material entrante es ambiguo sólo se
crea una estructura. La adjudicación inicial sólo está determinada por las preferencias
sintácticas dictadas por los 2 principios de adjudicación mínima y el cierre tardío.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Si los resultados del A anterior son incompatibles con la información sintáctica, pragmática o
semántica es necesario este 2º análisis. En esta fase se utiliza la información temática sobre los
papeles semánticos:
 Adjudicación mínima: se debe adjudicar el material entrante al marcador de la oración que
se está construyendo, utilizando el menor nº de nodos posible.
 Cierre tardío: se debe incorporar el material entrante a la frase u oración que se está
procesando actualmente.
 Si hay conflicto entre ambos, predomina la adjudicación mínima

 Modelos de análisis sintáctico basados en restricciones

 Es un tipo de modelo interactivo, en el que el procesador utiliza múltiples fuentes de


información incluyendo información sintáctica, semántica, del discurso y basada en la
frecuencia, denominada restricciones.
 La construcción más respaldada por estas múltiples restricciones es la que está más activada,
aunque es posible que también permanezcan activas las alternativas menos plausibles.
 Se genera una “vía muerta” cuando el análisis correcto de una ambigüedad local recibe una
escasa activación.

4.2 Evidencia de la autonomía en el procesamiento sintáctico


El modelo de la vía muerta afirma que podemos resolver la ambigüedad utilizando la
asignación mínima y el cierre tardío sin ayuda semántica.

Ferreira y Clifton: describieron un experimento que sugiere que los factores semánticos no nos
pueden evitar que seamos engañados. La información semántica no impide ni causa una “vía
muerta” pero puede acelerar la recuperación del engaño. La dificultad planteada por la
ambigüedad tiene una duración muy breve y se resuelve cuando se lee la palabra que sigue al
verbo.

Mitchel: la etapa inicial sólo utiliza la información de parte de la oración, y la información


detallada del verbo sólo afecta a la 2º fase evaluadora de procesamiento.

Van Gompel y Pickering: sus estudios junto con los de Mitchel sugieren que la primera fase del
análisis sintáctico es miope y no utiliza la información semántica o temática.

Ferreira et al: la información del verbo no afecta al análisis sintáctico inicial, aunque es posible
que guíe la 2º fase de reanálisis.

Podemos manipular la relación semántica de sustantivos y verbos en contextos en los que son
adecuados o inadecuados sintácticamente.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Los resultados sugieren que el análisis sintáctico precede al análisis semántico y es


independiente del mismo. Los datos de tareas de nombramiento sugieren que el análisis sintáctico
es previo a la integración semántica e independiente de la misma.

Un potencial evento-relacionado (ERP) negativo, identificado a las 400 ms (N400) de


producirse un suceso, es particularmente sensible al procesamiento semántico, y particularmente
indicativo de los incumplimientos de la expectativa semántica. Se identifica una oleada positiva a
los 600 ms (P600) del incumplimiento sintáctico.

Los datos ERP sugieren que el procesamiento sintáctico y semántico son procesos diferentes.

El cerebro responde de distinta manera a las anomalías sintácticas y semánticas, y la respuesta


a cada tipo de anomalía no se ve afectada por la presencia del otro tipo. Hay debate sobre la
fortaleza de esta afirmación, para ello resulta útil diferenciar entre:
 Modularidad representacional: el conocimiento semántico y sintáctico se representan por
separado (no es una cuestión demasiado controvertida).
 Modularidad del procesamiento: ¿está restringido el procesamiento inicial a la información
sintáctica, o pueden todas las fuentes de información influir en las fases de procesamiento más
tempranas? (aquí se centra el debate)

4.3 Evidencias sobre la interacción en el procesamiento sintáctico


Taraban y McClelland: concluyeron que las violaciones del proceso puramente sintáctico de las
palabras añadidas a una representación estructural en desarrollo no ralentizan la lectura, pero las
violaciones del proceso semántico de la asignación de las palabras a los papeles temático sí.

También concluyeron que los estudios anteriores que parecían respaldar la adjudicación
mínima habían confundido, de hecho, la simplicidad sintáctica con el sesgo semántico.

Milne: Los factores semánticos, más que los sintácticos, nos engañan. ¿Cómo explican los
factores semánticos nuestra dificultad con las oraciones relativas reducidas?

Crain y Steedman: utilizando la tarea de evaluación gramatical demuestran que un contexto


semántico inadecuado puede eliminar las vías muertas:
 En una tarea de evaluación gramatical acelerada, los sujetos tienen, más probabilidad de
identificar erróneamente las frases que llaman a engaño como frases incorrectas
gramaticalmente en este tarea que en el caso de frases que no llaman a engaño
 No hay nada parecido a un contexto totalmente neutro desde el punto de vista semántico.
 Todas las alternativas sintácticas son analizadas en paralelo y las consideraciones semánticas
seleccionan rápidamente entre ellas.
 La dificultad semántica se basa en la cantidad de información que hay que suponer: cuantos
más supuestos hay que hacer, más difícil resulta procesar la frase.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Altmann y Steedman: pusieron de relieve que el procesador construye una representación


sintáctica de forma paulatina, de palabra en palabra: En cada palabra se generan en paralelo
interpretaciones sintácticas alternativas y, a continuación, se toma una decisión utilizando el
contexto.
 Este enfoque es conocido como Teoría referencial del Análisis Sintáctico el procesador
construye un análisis en paralelo y utiliza el contexto el discurso para desambiguarlo de
inmediato.
 Es la naturaleza inmediata de esta desambiguación la que diferencia a la teoría referencial
de los modelos de la vía muerta.
 Como hay muchos factores que guían el análisis sintáctico, deben ser las consideraciones
semánticas las que en este caso nos llevan a engaño.

¿Es posible diferenciar las teorías basadas en restricciones de la teoría referencial? Son
similares porque niegan que el Análisis Sintáctico esté limitado a utilizar información sintáctica.

En las teorías basadas en restricciones se utilizan todas las fuentes de información semántica,
incluyendo el conocimiento general del mundo, para desambiguar, pero en la teoría referencial
sólo es importante la complejidad referencial dentro del modelo del discurso.
 Se utiliza de inmediato la información semántica-referencial, pero el conocimiento más general
del mundo tarda más tiempo en estar disponible.
 El conocimiento del mundo dependía de la capacidad de la memoria de trabajo, mientras que
los principios semánticos-referenciales no.
 Los principios referenciales se utilizan de inmediato para resolver la ambigüedad, la
información sobre la plausibilidad semántica de las interpretaciones se utiliza más tarde.

Pickering La teoría referencial no puede ser una explicación exhaustiva del Análisis Sintáctico
porque sólo se puede aplicar a ambigüedades que involucran sintagmas nominales sencillos y
complejos.

Algunos contextos sesgarán al procesador hacia una interpretación de oración relativa e


impedirán la vía muerta:
 Cuando la información sintáctica provoca una ambigüedad y es posible una vía muerta, el
procesador procede a construir una representación sintáctica a partir de la mejor conjetura
semántica.
 Evidencia a favor de los modelos basados en restricciones de la conclusión de que se puede
utilizar información temática para eliminar el efecto de la vía muerta en estas frases relativas
reducidas.
 Trueswell et al: si las restricciones semánticas eran suficientemente fuertes, las oraciones
relativas reducidas no eran más difíciles que las construcciones sin reducir.
 Ferreira y Clifton al contrario que Trueswell encontraron evidencia de una mayor dificultad
con materiales parecidos. Trueswell et al afirmaron que el sesgo semántico en su experimento
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

era demasiado débil; si la restricción semántica no es suficientemente fuerte, se producirá una


vía muerta.
 Sesgo del verbo: idea importante de los modelos basados en restricciones; que afirma que,
aunque algunos verbos pueden aparecer en una serie de estructuras sintácticas, algunas de sus
estructuras sintácticas son más comunes que otras.
 Las frecuencias relativas de las interpretaciones alternativas de los verbos predicen si la
gente tendrá dificultades o no para comprender las oraciones relativas reducidas.
 Su información esta disponible de inmediato en cuanto se reconoce el verbo.
 Los verbos con un sesgo hacia las oraciones complementarias no provocaban dificultades
en el procesamiento, mientras que sí lo hacían los verbos con un sesgo al Objeto Directo.
 Su información interactúa con la posibilidad de que un sustantivo temporalmente ambiguo
sea un Objeto Directo.
 Según el modelo de vía muerta, no debería haber ningún efecto temprano de la
verosimilitud y del sesgo del verbo.
 Hay controversia sobre si sus efectos son reales: algunos estudios han determinado que no
existe un efecto de la información de la frecuencia del verbo.
o Pickering et al determinaron que los lectores experimentaban dificultades con las
oraciones de complemento de las frases temporalmente ambiguas incluso cuando los
verbos estaban sesgados hacia ese análisis.
o Kennison encontró que las estructuras ambiguas provocaban dificultades
independientemente del sesgo del verbo.
o Pickering y Van Gompel: la información del sesgo del verbo tiene cierta influencia
sobre el procesamiento sintáctico, pero con frecuencia no la suficiente como para
impedir que tengamos problemas con las frases temporalmente ambiguas.
o Garnsey et al: la experiencia anterior de la gente con determinados verbos guía su
interpretación de la ambigüedad temporal

En los modelos basados en restricciones se termina resolviendo la ambigüedad sintáctica


mediante la competencia:
 Las restricciones activan distintos análisis en distinta medida; si 2 o más análisis están muy
activados, la competencia es fuerte y hay graves dificultades de procesamiento.
 Tabor y Tanenhaus: se resuelve la competencia acomodándose en una cuenca de atracción en
una red de atractores similar a la postulada para explicar el reconocimiento de las palabras.
 McRae et al: propusieron un modelo de tipo conexionista de resolución de la ambigüedad
denominado de competencia- integración: La competencia entre estructuras alternativas
comprueba esencialmente su estructura preferida tras cada nueva palabra.
 La evidencia a favor de los modelos de competencia en paralelo proviene de los estudios que
demuestran que, cuanto más compromiso asume la gente con una elección de Análisis
Sintáctico, más difícil resulta que se recupere, un efecto denominado digging in o
atrincheramiento.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Otra faceta importante de los modelos basados en restricciones es que la ambigüedad sintáctica
y léxica se resuelve de forma parecida debido a la importancia que tienen las restricciones léxicas
en el Análisis Sintáctico:
 Las ambigüedades sintácticas surgen debido a las ambigüedades en el nivel léxico.
 Aunque las restricciones contextuales rara vez son lo suficientemente fuertes como para limitar
la activación de la alternativa adecuada, proporcionan información útil para distinguir entre las
alternativas candidatas.
 Se computa una representación sintáctica de una frase mediante vínculos entre elementos en un
lexicón rico.

Parte de la dificultad de diferenciar entre teorías autónomas e interactivas basadas en


restricciones proviene de la dificultad de obtener pruebas de lo que está ocurriendo en las primeras
fases de la comprensión:

 Estudio Tanenhaus et al: el análisis de los movimientos oculares sugería que la gente procesaba
las instrucciones de forma incremental, moviendo los ojos hacia los objetos inmediatamente
después de la instrucción relevante.

La mejor evidencia a favor de la independencia del Análisis Sintáctico proviene de la lectura de


los estudios de frases con breves ambigüedades sintácticas en las que los oyentes tienen claras las
preferencias por determinadas interpretaciones, incluso cuando el contexto lingüístico anterior
respalda una interpretación alternativa:
 Experimento Tanenhaus et al: analizaron la interpretación de frases temporalmente ambiguas
en el contexto de una exposición visual de forma que la información esta disponible de
inmediato. Es una potente demostración de que las personas utilizan la información contextual
de inmediato para establecer una referencias y procesar las frases temporalmente ambiguas.

 Sedivy et al: la gente tienen en cuenta muy rápidamente el contexto cuando interpreta los
objetivos. A partir de aquí afirmaron:
 El procesamiento sintáctico es incremental; se construye la representación semántica al muy
poco tiempo de presentarse el estimulo de entrada.
 La gente intenta integrar de inmediato los objetos. En un modelo semántico incluso cuando
no tienen un significado Central estable.

 Los estudios de imagen cerebral con fMRI demuestran que el cerebro procesa las frases
ambiguas y no ambiguas de distinta manera:
 Niveles superiores de activación cerebral con las frases ambiguas pero también durante la
lectura de las estructuras más complejas y estructuras no preferidas.
 Mayor activación al leer frases ambiguas cuando se resolvía la ambigüedad a favor de la
construcción sintáctica preferida.
 La mayor carga de trabajo se repartía por la circunvolución temporal superior y la
circunvolución frontal inferior, sugiriendo que hay múltiples procesos implicados en la
resolución de la ambigüedad:
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

oEl área de Broca podría estar implicada en la generación de marcos sintácticos abstractos
o El área de Wernicke en la interpretación y elaboración de estos marcos con información
semántica.

Estas conclusiones son más consistentes con los modelos en paralelo donde se mantienen
abiertos múltiples análisis al mismo tiempo.

 Diferencias multilingüísticas en la adjudicación

Los hispanohablantes no interpretan mediante el cierre tardío el mismo tipo de frases, sino que
pueden aplicar una estrategia de cierre temprano. Otros idiomas también muestran una preferencia
por adjudicar la cláusula relativa a la 1º locución nominal (francés, holandés, etc.)

El cierre tardío parece no ser una estrategia general común en todos los idiomas. Las
preferencias del Análisis Sintáctico podrían reflejar la frecuencia de las distintas estructuras dentro
de un idioma.

 Se pueden explicar estos resultados de 3 formas:


 Es posible que no se produzca el cierre tardío debido a las ventajas del procesamiento y que la
elección de la estrategia sea fundamentalmente una elección arbitraria en los distintos
idiomas.
 El cierre tardío podría tener una ventaja de procesamiento, y podría ser la estrategia habitual
pero, en algunos idiomas, en algunas circunstancias, es posible que dominen otras estrategias.
 El Análisis Sintáctico no utiliza en absoluto los principios lingüísticos. Los resultados de la
interpretación dependen de la interacción de muchas restricciones que son relevantes en el
procesamiento de la frase.

Hipótesis del ajuste: pone de relieve el papel de la exposición al idioma. Las decisiones del
Análisis Sintáctico están influidas por la frecuencia con la que se utilizan los análisis alternativos.
Dicho de otra manera, la gente resuelve las ambigüedades de una forma que ha tenido éxito
anteriormente. Las preferencias de adjudicación pueden variar de un idioma a otro, y de un
individuo a otro y, de hecho, pueden incluso variar para una misma persona en distintos
momentos. Es decir, se encontraron diferencias individuales en las preferencias de la adjudicación.

4.4 Comparación de las teorías de vía muerta y las teorías basadas en restricciones
En los Modelos de dos fases en serie, como el modelo de vía muerta, el análisis inicial esta
restringido utilizando sólo la información sintáctica y las preferencias, y una segunda fase
utilizando la información semántica.

En los modelos basados en restricciones en paralelo, se activan múltiples análisis desde el


principio, y se utiliza tanto la información sintáctica como la no sintáctica en combinación para
activar la representación alternativa.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Lo defensores del modelo de la vía muerta afirman que los efectos que se supone que respaldan
a los Modelos Basados en Restricciones surgen porque la segunda fase del Análisis Sintáctico
empieza muy deprisa, y muchos experimentos que se supone que están analizando la primera fase,
de hecho, están fijándose en realidad en la del análisis sintáctico; además estos experimentos
tienen fallos metodológicos y no consiguen explicar todos los datos disponibles.

Los defensores de los Modelos basados en restricciones afirman que las técnicas que utilizan
los defensores de las Teorías de la vía muerta no son los suficientemente sensibles como para
detectar las interacciones implicadas, o que las restricciones no sintácticas utilizadas son
demasiado débiles.

4.5 Otros modelos de análisis sintáctico


Teoría de la vía muerta se puede describir como un modelo de elección fija (no tiene un elemento
probabilístico en su toma de decisiones) en 2 fases.

Modelos basados en restricciones son modelos de elección variable en una fase. Se resuelve la
ambigüedad sintáctica mediante una competencia.

Sintagma preposicional: una locución que empieza con una preposición (p.ej., “con el telescopio”,
“por la chimenea”)

Van Gompel et al: analizaron como resolvemos la ambigüedad, si con reanálisis o competencia;
los resultados no respaldaron ninguna de las 2 opciones. Sólo un modelo de elección variable en 2
fases puede explicar este patrón de resultados: modelo de carrera sin restringir.

 Modelo de competición sin restricciones:


 Se utilizan todas las fuentes de información tanto sintácticas como semánticas, para elegir entre
estructuras sintácticas alternativas.
 Las alternativas se construye en paralelo y en una carrera en la que el ganador es el análisis que
se construye más deprisa y se adapta como interpretación sintáctica del fragmento.
 En contra de las Teorías basadas en restricciones sólo se adopta un análisis de cada vez
 Si el análisis es inconsistente con la información posterior, el procesador tienen que volver a
analizar, a un coste considerable.
 También es un modelo de dos fases.
 Es un modelo de elección variable, puesto que el análisis inicial se ve afectado por las
características particulares del fragmento de la frase.
 La conclusión crítica y sorprendente que este modelo explica es que, a veces, las frases
ambiguas son menos difíciles que las frases desambiguadas.

Bever, Sanz y Townsed: Sugieren que la semántica viene primero. Afirman que se utilizan
estrategias con base estadística para proponer una representación semántica inicial. Después esta
representación restringe el cálculo detallado de la representación sintáctica.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

La frecuencia con la que se producen las representaciones sintácticas restringe la fase inicial
del procesamiento sintáctico.

En cualquier momento, el procesador asigna la interpretación más probable estadísticamente


del material entrante.

Christianson, Hollingworth, Halliwell y Ferreira afirman que no siempre se construye una


estructura sintáctica e idealizada: La gente no intenta hacer un análisis perfecto sino que, por el
contrario, se contenta con interpretaciones que parecen suficientemente buenas

Algunos investigadores creen ahora que la gente utiliza heurísticas sencillas al procesar el
lenguaje, además de un procesamiento sintáctico detallado y completo.

McKoon y Ratcliff: Las propias construcciones sintácticas acarrean significado, más allá del
significado de las palabras que las componen:
 Una sintaxis distinta transmite un significado distinto.
 Las construcciones relativas reducidas transmiten un significado particular, sólo se pueden
combinar con determinados tipos de sustantivos y verbos (no se pueden utilizar para hablar de
determinadas cosas).
 Las relativas reducidas con verbos denotan sucesos provocados internamente son realmente
incorrectas gramaticalmente, que es la razón por la que la gente tiene tantos problemas con
ellas.
 La gente sólo produce relativas reducidas con verbos de causación externa (si el control es
interno, se utilizan construcciones no reducidas).
 Denominan a este enfoque: significado a través de la sintaxis, que estaría en conflicto con las
Teorías basadas en restricciones:
o Según la Teorías basadas en restricciones el procesador del lenguaje conoce las estadísticas
sobre la utilización, no los significados y las reglas.
o Según la sintaxis por significado, el procesador del lenguaje conoce los significados y las
reglas, pero no las estadísticas.
 La información estadística sobre los verbos derivada de un cuerpo de habla real no predice los
tiempos de lectura de las frases que incluyen estos verbos.

McRae, Hare y Tanenhaus criticaron el enfoque del significado a través de la sintaxis:


 La dificultad de las relativas reducidas se explica mejor, no mediante una distinción entre
fuentes interna y externa, sino a partir de la dificultad del procesamiento temporal resultante de
la ambigüedad.
 Las construcciones sintácticas pueden, en ocasiones, forzar o cohesionar una interpretación
particular independientemente del significado del verbo
 Las construcciones de las frases sí acarrean un sig. independientemente de los verbos que las
componen
 Resulta difícil ver cómo podría el enfoque de la sintaxis por significado Sustituir a las teorías
alternativas sobre la dificultad del Análisis Sintáctico
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

4.6 Procesamiento de la ambigüedad sintáctica por categorías


Una palabra puede estar en más de una categoría sintáctica. Proporciona una prueba útil de la idea
de que la ambigüedad léxica y la sintáctica son facetas de una misma cosa y se procesan de
manera análoga.

La ambigüedad léxica por categorías se resuelve mediante un mecanismo de demora:


 El procesador retrasa la selección hasta que se encuentra una información definitiva
desambiguadola más adelante en la frase.
 La ventaja de esta estrategia es que ahorra una gran cantidad de computación porque
normalmente la palabra siguiente a la ambigüedad léxica por categorías proporciona suficiente
información de desambiguación.
 Frazier y Rayner proporcionan cierto respaldo experimental a esta estrategia:
 Concluyeron que los tiempos de lectura de la región crítica ambigua eran más breves en la
condición ambigua que en las condiciones no ambiguas; sin embargo, en la condición
ambigua los tiempos de lectura eran más largos en el material de desambiguación que
apareció posteriormente en la frase.
 Cuando el procesador se encuentra con la ambigüedad inicial se produce muy poco análisis.
Por el contrario, se retrasa el procesamiento hasta que se llega a la información posterior
desambiguadola cuando se necesita un trabajo adicional.

Teorías basadas en restricciones: no hay disintinción real entre la ambigüedad léxico-semántica


y la ambigüedad léxica por categorías. En cada caso se activa las alternativas en paralelo en
función de la fortaleza del apoyo que reciben de múltiples fuentes de información.

¿Cómo explican las conclusiones de Frazier et al? Según McDonald, los tiempos de lectura
relativamente rápidos en la región ambigua de la condición experimental se debían a que los
tiempos de lectura comparables en la condición de control eran bastantes lentos, puesto que los
lectores tenían que tomar distancia ante la infrecuente aplicación de “this” y “these”

 Efectos del sesgo semántico:


 Según el modelo de demora, incluso un fuerte sesgo semántico no debería afectar a la
resolución inicial, porque se retrasan todas las decisiones hasta que se alcanza la región de
desambiguación: los tiempos de lectura deberían ser los mismos independientemente de que el
sesgo esté respaldado o no.
 Modelo basado en restricciones: un fuerte sesgo semántico debería tener un efecto inmediato, si
la interpretación resulta correcta, los tiempos de lectura de las frases ambiguas no deberían
diferir de las de la condición de control sin ambigüedad. Los tiempos de lectura de la frase
ambigua sólo deberían aumentar cuando la interpretación favorecida por el sesgo semántico es
incorrecta. El sesgo semántico tiene un efecto inmediato:
 Cuando identificamos una palabra, no nos limitamos a acceder a su categoría sintáctica,
activamos otros conocimientos que desempeñan un papel inmediato en el AS, como el
conocimiento sobre la F de las estructuras sintácticas alternativas
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 La conclusión de que el contexto tiene un efecto posterior requiere una modificación de las
teorías estándar basadas en restricciones.

5. Brechas, huellas y dependencias sin restricciones


El Análisis Sintáctico de las frases sugiere que, en ocasiones, se ha movido o borrado un
elemento constituyente. Brecha: parte vacía de la construcción sintáctica que está relacionada con
un relleno (lo que rellena la brecha)

Se pueden mover partes de la frase a otra parte de la misma. Cuando se mueven dejan un tipo
de brecha especial conocido como huella.

Dependencia sin restricciones: los elementos constituyentes asociados están separados el uno
del otro (y pueden, en principio, estar separados por una distancia infinita).

Las brechas y huellas pueden ser importantes en el Análisis Sintáctico, pero si afectarán a este,
habría que localizar la brecha y después rellenarla, existe evidencia a favor de ello:
 Las huellas gravan (tensan) la memoria
 Se puede detectar el procesamiento de la huella midiendo la actividad eléctrica del cerebro.
 Todos los idiomas parecen utilizar una estrategia de relleno reciente por la que, en casos de
ambigüedad, se rellana la brecha con el relleno más reciente gramaticalmente plausible.

 Estrategia de relleno activo: cuando el procesador detecta una brecha la rellena con el
elemento más activo y está preparado para volver a analizar si es necesario.
 Estrategia del relleno reciente: el procesador detecta una brecha, y la rellena con un relleno
que es elemento constituyente más reciente que ha sido potencialmente desplazado.

Puede resultar difícil distinguir ambas estrategias pero, en cada caso, la detección de la huella
desempeña un papel importante en el Análisis Sintáctico:
 Parece que las huellas pueden primar el reconocimiento de constituyentes desplazados o de
antecedentes con los que están asociados (el relleno de la brecha se reactiva semánticamente en
la brecha)
 Cuando nos encontramos una huella, parece que recuperamos su antecedente asociado, un
proceso conocido como vinculación del elemento desplazado al rastro, haciéndolo así más
accesible.
 Otras investigaciones sugiere que las huellas no son importantes en el procesamiento
conectado.
 Un planteamiento alternativo a la idea de que activamos los filtros cuando llegamos a una
brecha es que la interpretación está impulsada por los verbos, más que por la detección de las
brechas, de forma que postulamos argumentos esperados de un verbo en cuanto llegamos a él
(hipótesis demostrada por Boland et al)

En resumen, la mayor parte de la evidencia sugiere que los rellenos se postulan activando la
estructura del argumento de los verbos.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

6. La neurociencia del análisis sintáctico


Los déficits del Análisis sintáctico pueden no siempre resultar evidentes, porque la gente suele
recurrir a las pistas semánticas para obtener el significado. El déficit se hace patente cuando se
eliminan estas pistas y el paciente se ve obligado a recurrir al procesamiento sintáctico.

Hay evidencia de que las funciones sintácticas tienen lugar en determinadas partes del cerebro
dedicadas en exclusiva a estas funciones

6.1 La capacidad de comprensión de los afásicos agramaticales


Agramatismo: Es un desorden del procesamiento sintáctico tras una lesión en el área de Broca:
 Su característica más evidente es un deterioro en la producción del habla, pero muchas
personas también tienen problemas para comprender frases sintácticamente complejas.
 La capacidad de encontrar la correspondencia de frases con imágenes cuando se eliminan las
pistas semánticas está deteriorada.
 Tienen especialmente problemas para comprender construcciones pasivas reversibles y con
objeto relativo cuando no hay pistas semánticas.
 Posibles explicaciones de estos problemas:
 La lesión cerebral ha deteriorado su capacidad de analizar sintácticamente.
 Son incapaces de acceder correctamente a los elementos gramaticales.
 No se procesan correctamente las huellas sintácticas y los nodos terminales de los árboles
sintácticos que se corresponden con las palabras funcionales no están formados de forma
adecuada.

Hipótesis de la supresión de la huella: afirma que la gente que tiene un déficit de comprensión
agramatical tiene problemas para computar la relación entre los elementos de una frase que se han
desplazado mediante una transformación gramatical y su origen, así como para construir las partes
superiores del árbol sintáctico (problema: la evidencia de la existencia de huellas en el Análisis
Sintáctico es cuestionable)

La evidencia contra la idea de que las personas con agramatismo tienen cierta discapacidad del
Análisis Sintáctico: proviene de la tarea de valoración de la corrección gramatical.
 Schwartz, Linebarger, Saffran y Pate: los pacientes con agramatismo podían aislar los
argumentos del verbo principal de frases que contenían materiales extraños pero tenían
problemas utilizando la sintaxis para asignar papeles temáticos. Los pacientes no han perdido
necesariamente el conocimiento sintáctico, sino que son incapaces de utilizarlo
correctamente.

Hipótesis de la asignación: es la idea de que la perturbación de la compresión se produce


porque, a pesar de que los procesos de AS de bajo nivel están intactos, las personas agramaticales
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

están limitadas en lo que pueden hacer con los resultados de estos procesos (en concreto, tienen
problemas para asignar papeles temáticos):

 Compensan, al menos en parte, utilizando restricciones semánticas, aunque Saffran et al, han
demostrado que el recurso a estas restricciones puede, en ocasiones, despistarlos aún más.

Aunque cabría esperarse su existencia, nadie a descrito el caso de una persona que conozca los
significados de las palabras pero sea incapaz de asignarlos a papeles temáticos.

Un planteamiento opuesto postulaba que el déficit de la comprensión sintáctica se debe a un


deterioro de la memoria general:
 El deterioro depende del grado de reducción de la capacidad del lenguaje y de la complejidad
estructural de la frase que se está procesando.
 Los recursos computacionales limitados implican que las personas que tienen un déficit de
comprensión sintáctica padecen una disponibilidad de materiales restringida.
 Las personas que tienen un déficit de comprensión sintáctica se encuentran únicamente en un
extremo de un continuo de una capacidad ejecutiva central comparadas con la población
normal. El conocimiento sintáctico sigue intacto, pero no se puede utilizar adecuadamente
debido a este deterioro de la memoria de trabajo.
 La evidencia adicional a favor de esta idea proviene de los informes propios de los pacientes
afásicos que sugieren que tienen otros recursos computacionales limitados y, análogamente,
que un habla más lenta facilita la comprensión sintáctica en algunos pacientes afásicos.
 El incremento del tiempo proporciona más oportunidades para utilizar los recursos limitados; la
falta de tiempo o un rápido declive de los resultados del procesamiento sintáctico podrían jugar
un papel causal en el déficit de comprensión sintáctica y en la producción agramatical.
 Esta es una idea interesante que ha provocado una gran cantidad de debate

Una reducción general de la capacidad de memoria de trabajo parece que no puede


provocar el déficit sintáctico en el agramatismo.

 ¿Se procesan de distinta manera las palabras de contenido y las palabras funcionales?

Las palabras de contenido son sensibles a la frecuencia en una tarea de decisión léxica, pero no
las palabras funcionales. El patrón anterior no se da en el agramatismo: son sensibles a la
frecuencia de las palabras funcionales y a la frecuencia de las palabras contenido. ¿Por qué?
 La lesión cerebral implica que las palabras funcionales ya no pueden ser accedidas por un
conjunto especial de procesos y deben ser accedidas como otras palabras de contenido.
 Quizá esta dificultad de activar las palabras funcionales explique la dificultad de comprensión
de los pacientes con agramatismo.

No hay una clara evidencia neuropsicológica de que se trate de forma especial a las palabras
funcionales en el Análisis sintáctico.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

6.2 ¿Está deteriorado el procesamiento automático o atencional en el agramatismo?


Tyler proporcionó cierta evidencia de que al menos algunos déficit en algunos pacientes surgen
debido a un déficit del procesamiento atencional: Los resultados de sus estudios sugieren que los
procesos del Análisis Sintáctico automáticos están intactos pero los procesos atencionales estaban
deteriorados.

Evidentemente, algunos de los déficits que observamos se deben a factores atencionales: la


pregunta es, ¿cuántos son?

6.3 Evaluación de los trabajos sobre la neuropsicología del análisis sintáctico


Gran parte del trabajo tiene un carácter técnico y está relacionado con las teorías lingüísticas de
la representación sintáctica. Es improbable que haya una única causa para la diversidad de los
déficits observados.

Friederici describe un modelo de procesamiento de frases donde las regiones temporales


izquierdas identifican los sonidos y las palabras; el córtex frontal izquierdo está involucrado en las
secuencias y la formación de relaciones estructurales y semánticas:
 El Hemisferio Derecho está implicado en la identificación de la prosodia.
 La creación de imágenes y los datos sugieren que el procesamiento de las frases se produce en
3 fases:
 1º Fase: (100-300 ms) se forma la estructura sintáctica iniciada a partir de la información
sobre la categoría de las palabras.
 2ºFase: (300-500 ms), los procesos léxico-sintácticos que tienen lugar generan una
asignación de los papales temáticos.
 3ºFase: (500-1000 ms), se integran los distintos tipos de información.

Los procesos sintácticos y semánticos sólo actúan en la fase 3.


Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Capítulo 8: El significado de las palabras


1. Introducción
La derivación de un significado es el objetivo último del procesamiento del lenguaje, y el
significado es el inicio del proceso de producción. Se pueden disociar las representaciones
fonológica y ortográfica de las palabras de sus significados.

Tulving diferenció entre, memoria episódica y memoria semántica.

No debemos confundir una perdida de información semántica con la incapacidad de acceder o


utilizar dicha información:
 La idea de significado está estrechamente relacionada con la clasificación en categorías. Un
concepto determina cómo se relacionan las cosas entre sí o como se clasifican. Es una
representación mental de una categoría.
 Roch: La forma en que clasificamos el mundo no es arbitraria, sino que está determinada por
dos características importantes de nuestro sistema cognitivo:
 Las categorías que formamos están determinadas, en parte, por la forma en que percibimos la
estructura del mundo.
 La estructura de las categorías podría estar determinada por una economía cognitiva. Lo que
significa que la memoria semántica se organiza de forma que se evitan las duplicaciones
excesivas. Una desventaja de está sería un incremento del tiempo de recuperación, puesto que
tenemos que buscar en nuestra memoria donde se almacenan los hechos pertinentes.

Las relaciones jerárquicas entre categoría son una forma clara en que se pueden relacionar las
palabras en cuanto a su significado, pero hay otras formas que son igualmente importantes.

La semántica es algo más que asociaciones; las palabras pueden tener un significado
relacionado sin estar asociadas, por lo que cualquier teoría sobre el significado de las palabras no
puede recurrir sencillamente a la asociación entre palabras. Las palabras con significados
parecidos tienden a producirse en contextos parecidos:
 Lund et al: demostraron que las palabras con un parecido semántico son intercambiables en una
frase; la frase resultante, aunque pueda no ser plausible pragmáticamente, sigue teniendo
sentido.

Las asociaciones surgen entre palabras que se producen juntas con regularidad, mientras que,
las relaciones semánticas surgen de contextos compartidos y relaciones de nivel superior.

La semántica también es el interfaz entre el lenguaje y el resto de la percepción y la cognición:


 Jackendoff: propuso una teoría de la conexión entre la semántica y otros procesos cognitivos,
perceptuales y motores. Propuso 2 restricciones sobre una teoría general de la semántica:
 Restricción gramatical: deberíamos preferir una teoría semántica que explique lo que, de lo
contrario, serían generalizaciones arbitrarias sobre la sintaxis y el lexicón. La sintaxis y la
semántica deberían estar relacionadas de forma sensata.

1
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Restricción cognitiva: hay un nivel de representación en el que la semántica debe tener un


interfaz con otras representaciones psicológicas, como las que se derivan de la percepción.

2. Enfoques clásicos de la semántica


Resulta útil diferenciar de inmediato entre denotación de una palabra y su connotación. La
gente se suele mostrar de acuerdo con la denotación, pero las connotaciones pueden diferir en
función de cada individuo.

Teoría referencial del significado: las palabras significan aquello a lo que hacen referencia. Es
una de las teorías más antiguas y presenta una serie de problemas:
 No esta claro cómo trata está teoría los conceptos abstractos. (“justicia, verdad”).
 Existe una disociación entre una palabra y las cosas a las que puede hacer referencia

Frege: diferenció entre sentido de una palabra y su referencia:


 Sentido (intensión) de una palabra: es su especificación abstracta que determina cómo se
relaciona su significado con el de otras palabras. Específica propiedades que debe tener un
objeto para pertenecer a una clase. El sentido se deriva de combinar las intensiones de las
palabras constituyentes y especificar las condiciones que se deben cumplir para que la frase sea
verdadera.
 Referencia (extensión): aquello que representa la palabra en el mundo; es decir, los objetos
designados por esa intensión. La referencia de una frase es su auténtico valor.

Semántica de la teoría de modelos o semántica de la verdad teórica: son complejos sistemas del
significado que configuran modelos lógicos (enfoque semántico formal). Ayudan a refinar lo que
podría ser el significado, pero parecen decir muy poco sobre la forma en que representamos o
computamos el significado en el mundo real.

3. Redes semánticas
Para los conductistas, la palabra obtiene su significado en una red de asociaciones; sin
embargo, una red asociativa no era suficiente para poder captar todas las facetas del significado,
ya que en una red asociativa no hay una estructura, no hay relación entre palabras, jerarquía de la
información, ni economía cognitiva.

En una red semántica se obtiene este poder adicional haciendo que las conexiones entre
elementos hagan algo: no son meramente asociaciones que representan la frecuencia de la
concurrencia, sino que sí tienen un valor semántico. Es decir, en una red semántica, los vínculos
entre los propios conceptos tienen significado.

3.1 El modelo de red semántica de Collins y Quillian

2
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Surgió de un intento de desarrollar un “comprensor del lenguaje enseñable” para ayudar a la


traducción informática entre idiomas.
 Es particularmente útil para representar información sobre los términos de la clase natural. El
esquema atribuye importancia fundamental a su carácter inminentemente jerárquico. Se trata de
un método muy económico para almacenar información. Ej.: Pág. 221 columna 1
 En la red, los nodos están conectados por vínculos que especifica la relación entre los nodos
conectados: el vínculo más común ES UN (el nodo de nivel inferior “es un” tipo de nodo de
nivel superior). Ver Fig. 8.1 Los atributos se almacenan en el nodo más bajo posible en el que
son verdaderos para todos los nodos inferiores de la red. Ej: alas, es exclusivo de la categoría
pájaros, por lo que se almacena en ese nivel.

 La tarea de verificación de frases

Se presentan a los participantes “hechos” sencillos y tiene que apretar un botón si la frase es
cierta, y otro si es falsa. El tiempo de reacción es un índice de la dificultad de la decisión,
existiendo una relación lineal. Ej.: Pág. 289

 Según este modelo los participantes producen respuestas partiendo del nodo de la red que
constituye el sujeto de la frase y desplazándose por la red hasta que encuentran la información
necesaria.
 La cantidad de tiempo es fija para cada vínculo, por lo tanto, cuanto más lejana esté la
información más lento será el tiempo de respuesta.
 La característica de herencia de la propiedad también muestra el mismo patrón de tiempos de
respuesta, porque tenemos que desplazarnos a lo largo de vínculos para recuperar la propiedad
del nivel correspondiente.

Estos datos respaldaban el modelo de Collins y Quillian

 Problemas del modelo de Collins y Quillian

 Es evidente que no toda la información se representa fácilmente en forma jerárquica.


 Los materiales en la tarea de verificación de la frase confunden la distancia semántica con lo
que se denomina frecuencia conjunta. Cuando está se tiene en cuenta, se debilita la relación
lineal entre la distancia semántica y el tiempo. En particular, ya no se pueden encontrar
defectos jerárquicos para verificar las afirmaciones sobre los atributos aunque persisten para la
inclusión de la clase.

Estas conclusiones sugieren una interpretación alternativa de los resultados de la verificación


de la frase, es que las frases que tienen unos tiempos de verificación más rápidos contienen
palabras que están más estrechamente asociadas.

Otra posible confusión en los experimentos de verificación tiene que ver con el tamaño de la
categoría: la clase de “animales” es mayor que la clase de “pájaro” por lo que, tal vez, hace falta
más tiempo para buscar en ella.

3
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 La estructura de la memoria no siempre refleja la estructura de las categorías lógicas.


 El efecto del grado de relación: cuánto más están relacionadas dos cosas, más difícil es
desenredarlas incluso si, en última instancia, no pertenecen a la misma clase. Por lo que no
rechazamos todas las afirmaciones inciertas con la misma lentitud.
 Efecto del prototipo se denomina a la ventaja de los elementos más típicos. Implica que no se
responde a todas las afirmaciones ciertas en las que hay una misma distancia semántica con la
misma rapidez. Ej: un canario y una avestruz vuelan. Es más prototípico el canario.

En la clasificación se tienen en cuenta las características que no son imprescindibles. Cuando


se pide a la gente que ofrezca una lista de las características de determinado concepto, incluyen
propiedades que no son poseídas por todos los ejemplos del concepto. Las listas de las
características están correlacionadas con los tiempos de clasificación: podemos clasificar más
deprisa cada caso cuantas más características comparte con un concepto.

De todas estas conclusiones problemáticas, los efectos del prototipo y del grado de relación son
particularmente importantes.

Las redes semánticas no capturan el carácter gradual del conocimiento semántico.

 Revisiones del modelo de la red semántica

Collins y Loftus propusieron una revisión basada en la idea de propagación de la activación.


 La estructura de la red se hizo más compleja, con vínculos entre nodos que variaban en cuanto
a potencia o distancia Ver Fig. 8.2.
 La estructura no es fundamentalmente jerárquica, aunque las relaciones jerárquicas siguen
formando parte de la red.
 El acceso y la priming en la red se producen a través de un mecanismo de propagación de la
activación.
 Los conceptos de activación y de muchas unidades sencillas conectadas juntas de formas
complejas son importantes.
 Ha sido influyente en los modelos más recientes del significado (p.ej: modelos conexionistas).

4. Características semánticas
El significado de una palabra no está determinado por la posición de la palabra en una red de
significados, sino por la descomposición en unidades de significado más pequeñas. Estas unidades
de significado más pequeñas se conocen como características semánticas.

Las Teorías composicionales son aquellas que utilizan las características semánticas.

Las características semánticas funcionan muy bien en algunos campos sencillos en los que hay
una clara relación entre los términos (ej: parentesco), Tabla 8.1

4
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Se puede llevar más lejos la idea de las características semánticas y representar los significados
de todas las palabras en función de combinaciones del menor nº de características semánticas
posible. Cuando se utilizan las características de esta manera es como si se convirtieran en
“átomos de significado” y es lo que se conoce como primitivos semánticos.

Este enfoque ha sido particularmente influyente en la inteligencia artificial:


 Schank: se puede representar el significado de las frases mediante las dependencias
conceptuales entre los primitivos semánticos que subyacen a las palabras de la frase. Se pueden
analizar todos los verbos comunes en función de 12 acciones primitivas que hacen referencia al
movimiento de los objetos, las ideas y las relaciones abstractas.
 Wierzbicka: todos los lenguajes naturales comparten un núcleo común de aproximadamente 60
primitivas conceptuales que existen en todos los idiomas.
 Una posibilidad es que todas las palabras estén representadas en términos de combinaciones de,
únicamente, primitivas semánticas.
 Otra posibilidad es que las palabras estén representadas como combinaciones de características,
de las cuales no todas tienen por qué ser primitivas. Estas características no primitivas podrían
terminar siendo representadas en otra parte de la memoria semántica como combinaciones
primitivas (Jackendoff y Laird describieron modelos de este tipo).

4.1 Primeras teorías composicionales: Katz y Fodor


Fue una de las primeras teorías composicionales. Esta teoría mostraba cómo se puede derivar el
significado de una frase mediante la combinación de características semánticas de cada palabra
individual de la frase. Ponía de relieve la forma en la que comprendemos las palabras ambiguas y
para resolver la ambigüedad:
 Se descomponen los significados de las palabras individuales en la frase en sus características
semánticas constituyentes (marcadores semánticos)
 La combinación de características esta gobernada por restricciones particulares denominadas
restricciones selectivas.

Uno de los problemas de este tipo de enfoques es que para la mayoría de las palabras, es
imposible proporcionar una lista exhaustiva de todas sus características.

4.2 Teorías de las listas de características y verificación de las frases: comparación de


características

Rips et al: propusieron que hay dos tipos de características semánticas:


 Características definitorias: son esenciales al significado subyacente de una palabra y están
relacionadas con las propiedades que deben tener las cosas para pertenecer a esa categoría.
 Características distintivas: suelen ser válidas para todos los casos de la categoría, pero no son
necesariamente válidas.

5
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Verificación de la frase y teorías de la lista de características

Según Rips et al. La verificación de la frase implica hacer comparaciones de las listas de
características que representan los significados de las palabras en 2 fases. Por ello, este enfoque
particular se conoce como Teoría de comparación de las Características:
 1º Fase: Se compara la similitud característica general de las 2 palabras, incluyendo tanto sus
características definitorias como distintivas. Si hay un gran solapamiento se responderá
Verdadero, si hay poco solapamiento Falso. No es muy detallada, pero es muy rápida.
 2º Fase Si la magnitud del solapamiento no es ni muy elevada ni muy baja, tenemos que pasar a
esta 2º fase, donde sólo tenemos en cuenta las características definitorias. Es necesaria una
correspondencia exacta entres estas características para responder Verdadero. Requiere más
tiempo.

 Un problema del modelo de la lista de características es que está muy estrechamente


relacionado con el paradigma de la verificación de frases.
 Un problema más general es que muchas palabras no tienen características definitorias
evidentes.

Smith y Medin modernizaron la Teoría de las Características con el modelo probabilístico de


las características. En este enfoque hay una importante distinción entre: Fig. 8.3
 Descripciones centrales: incluye las características definitorias esenciales del concepto y captura
las relaciones entre conceptos.
 Procedimientos de identificación: hacen referencia a aquellos aspectos del significado que están
relacionados con la identificación de casos particulares del concepto. En el caso de los objetos
físicos, las características perceptivas constituyen una parte importante del mismo. Se ponderan
las características semánticas en función de una combinación de su predominancia y de la
probabilidad de que sean verdaderas en una categoría

En una tarea de verificación de la frase, un caso particular candidato es aceptado como un caso
particular de una categoría si supera una determinada suma ponderada crítica de características.

El modelo revisado tiene la ventaja de poner de relieve la relación entre significado e


identificación, y puede explicar todos los datos de tiempos de verificación. Las categorías que
tienen delimitaciones “borrosas o poco claras ya no son problemáticas. Resulta difícil distinguir
empíricamente entre este modelo y el de prototipos.

4.3 Evaluación de las teorías composicionales


En todos los sentidos, podemos considerar que los modelos de redes son un tipo de Modelo
composicional. Por otra parte, las teorías composicionales:

6
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Tienen un atractivo intuitivo y estipulan de forma explícita cómo inferimos a partir del
significado de las palabras.
 Son muy económicas, al reducir el significado a un pequeño nº de primitivas.
 Resulta difícil construir representaciones composicionales de incluso algunas de las palabras
más comunes. Algunas categorías no tienen características definitorias evidentes que sean
comunes a todos los miembros.
 Incluso cuando aparentemente podemos definir palabras, las características que encontramos
no son particularmente atractivas o intuitivamente obvias; cabe suponer que se podría generar
un conjunto alternativo con la misma facilidad. Ni siquiera está claro que nuestras definiciones
sean completas.
 Tenemos más conocimiento sobre el significado de la palabra del que se puede representar en
una lista de características.

Hay algunos problemas con los experimentos de Rips et al: el grado de relación semántica y a
la familiaridad de los estímulos fueron confundidos en los materiales experimentales originales.

Loftus: demostró que, si se revierte el orden de los sustantivos en las frases utilizadas en la
verificación de las frases, encuentra efectos que no se prevén en la teoría. Si sólo comparamos
listas de características para los sustantivos de clases y casos particulares. Concluyo con sus
experimentos que el orden de los sustantivos es importante.

Holyoak y Glass: demostraron que la gente puede tener estrategias específicas para
desconfirmar frases, como pensar en un determinado contraejemplo, más que realizar una amplia
computación.

No es fácil distinguir empíricamente entre características definitorias y distintivas: Hampton


demostró que, en la práctica, las características definitorias no siempre definen la pertenencia a
una categoría.

El modelo no explica fácilmente la conclusión de que algunas categorías tienen delimitaciones


poco claras o borrosas. Labov mostró que no hay clara delimitación entre la pertenencia y no
pertenencia a una categoría par un sencillo objeto físico.

Es importante recordar que las características semánticas o primitivas no tienen que tener
contrapartes lingüísticas inmediatas. Algunas características semánticas pueden ser perceptivas, o
al menos no verbales.

 ¿Es obligatoria la descomposición semántica?

Desde una perspectiva psicológica hay dos importantes cuestiones:


 Si representamos los significados de las palabras en términos de características.
 Si utilizamos esas características en la comprensión.

7
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

La descomposición automática obligatoria es una teoría cuya contrastación empírica resulta


muy difícil. Fodor, Fodor y Garrett: observaron que algunas palabras tienen un elemento implícito
negativo en su definición. Los denominaron negativas definitorias puras.
 Tras sus estudios, concluyeron que no se accede automáticamente a las categorías y, por el
contrario, propusieron una explicación no composicional en la que el significado de las
palabras está representado como un conjunto.
 Problema de este estudio: resulta difícil generar buenos controles.

Fodor et al analizaron la representación de las palabras denominadas causativas léxicas (son


verbos que aportan o causan nuevos estados). No encontraron ninguna prueba de que los
participantes descompongan las causativas léxicas. Fig. 8.14

Gergely y Bever pusieron en duda esta conclusión. Proporcionaron evidencia experimental para
respaldar su afirmación concluyendo que no se puede utilizar la técnica de intuiciones sobre el
grado de relación de las palabras para contrastar la complejidad subyacente relativa de las
representaciones semánticas

Las frases complejas que se cree que incluyen más primitivos semánticos no son menos fáciles
de recordar o más difíciles de procesar que frases más sencillas que supuestamente incluyen
menos primitivos. Estos experimentos confundían el nº de primitivos con otros factores.

Aunque Fodor et al afirmaron que la complejidad semántica debería ralentizar el


procesamiento, lo más probable es que la complejidad semántica acelere el procesamiento:
 Modelo de dislexia profunda de Hinton y Shallice: las palabras muy imaginables tienen ricas
representaciones características que las hacen más robustas. Las características también
proporcionan margen para las interconexiones. Las frases que contienen características que
facilitan las interconexiones entre sus elementos se recuerdan mejor que las que no.
Aunque las tareas de memoria no siempre son reflejo del momento del procesamiento, hay otra
evidencia a favor de la descomposición semántica:
 Los individuos con afasia tienden a tener más éxito en la recuperación de los verbos con
representaciones semánticas ricas en comparación con los verbos con representaciones menos
ricas.
 Los errores del habla de sustitución de palabras semánticamente relacionadas siempre muestran
una relación característica entre la palabra objetivo, y las palabras que se producen.

En resumen, es probable que representemos los significados de las palabras como


combinaciones de características semánticas, aunque es muy difícil contrastar estas ideas:
 McNamara y Miller sugirieron que los niños pequeños descomponen automáticamente las 1ª
palabras en primitivos semánticos pero, a medida que se van haciendo mayores, las
descomponen fundamentalmente, en características no primitivas.
 Vigliocco et al: hipótesis de las características y del espacio semántico unitario: modelo
actualizado basado en las características que afirma que las palabras de objeto y acción están

8
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

representadas mediante combinaciones de características basadas en la percepción y


organizadas en función de la modalidad.

5. Parecido familiar y clasificación


Muchas categorías parecen definidas por un parecido familiar entre los miembros más que por
la especificación de características definitorias que deben poseer todos los miembros.

5.1 Teorías de prototipos


Un prototipo es un miembro promedio de una familia. Los miembros potenciales de la
categoría se identifican en función de lo mucho que se parecen al prototipo o miembro promedio
de la categoría. El prototipo es el mejor ejemplo de un concepto, y suele ser un ejemplo
compuesto inexistente.

Un prototipo es un tipo especial de esquema. Un prototipo es un esquema en el que todas las


ranuras se han rellenado con valores medios. Para esta teoría las delimitaciones de las categorías
no están claras, o son “borrosas”.

La Teoría de prototipos esta respaldada por una gran cantidad de evidencia frente a la Teoría de
características. Una serie de resultados demuestran la ventaja de procesamiento de un prototipo
respecto a los casos particulares. Los miembros prototípicos pueden sustituir a los nombres de las
categorías en las frases, mientras que lo no prototípicos no pueden.

Los prototipos comparten más características con otros casos particulares de la categoría, pero
minimizan el solapamiento de las características con las categorías relacionadas. Cuánto más
próximo esté un elemento al prototipo, más fácil es procesarlo.

La teoría de los prototipos no tiene por qué ser inconsistentes con las teorías de las
características. Los nuevos conceptos son problemáticos para las teorías no composicionales. Una
sugerencia, es que todos los conceptos, incluyendo los complejos, son innatos.

 Niveles básicos

Rosch: El compromiso entre la economía cognitiva y la máxima capacidad de información da


lugar a un nivel de clasificación básico que tiende a ser el nivel por defecto en el que clasificamos
y pensamos, salvo que haya una razón particular para no hacerlo. Es el nivel que tienen los
atributos más distintivos y proporciona el ordenamiento más económico de la memoria semántica.

Hay una gran ganancia en distintividad del nivel básico a los niveles superiores, pero sólo una
pequeña ganancia al pasar a los niveles inferiores. Los objetos a nivel básico se diferencian en
seguida los unos de los otros, pero los objetos en niveles inferiores al nivel básico no se
diferencian tan fácilmente entre si. Los objetos al mismo nivel básico comparten contornos
perceptivos; se parecen entre sí más de lo que se parecen a los miembros de otras categorías

9
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

similares. El nivel básico es la categoría general para la que se puede formar una imagen concreta
de toda la categoría. Ej.: Ver Pág. 298 2ª columna.

Es el nivel de descripción que tiene más probabilidad de ser utilizado de forma espontánea por
los adultos; los niños adquieren antes estos términos, los nombramos más deprisa, etc…

 Problemas del modelo de prototipos.

Hampton: no todos los tipos de conceptos tienen prototipos, los conceptos abstractos, se ajustan
difícilmente a este esquema. Así el modelo de los prototipos:
 No explica por qué hay coherencia en las categorías.
 No puede explicar por qué varían sistemáticamente las valoraciones de lo típico en función del
contexto.
 Corre el riesgo de ser circular, para evitarlo, debería explicar en qué se parecen los elementos,
y no lo hace demasiado bien.
 La caracterización del nivel básico como el más fundamental psicológicamente no está tan
clara (la cantidad de información que podemos recuperar de los niveles subordinados varía en
función de nuestra pericia); aunque el nivel básico original sigue manteniendo un estatus
privilegiado.

5.2 Teorías de los casos particulares (o Teoría de los ejemplares)

La teoría de los casos particulares representa los ejemplares sin abstracción: cada concepto
representa un caso particular determinado que se ha encontrado anteriormente. Hacemos juicios
semánticos mediante comparaciones con los casos particulares concretos almacenados.

Hay distintas variedades en función del nº de casos particulares que se almacenan y de la


calidad de los mismos. Este enfoque proporciona una mayor riqueza informativa a costa de la
economía cognitiva.

Resulta difícil diferenciarla con la teoría de prototipos. Ambos tipos de teorías predicen que la
gente procesa a los miembros centrales de la categoría mejor que a los periféricos. Las teorías
basadas en casos particulares predicen que los casos particulares concretos deberían afectar al
procesamiento de otros casos particulares independientemente de si están próximos o no, a la
tendencia central. Las teorías de abstracción predicen correctamente que la gente infiere
tendencias que no se encuentran en ningún caso concreto específico. El poder de predicción de los
modelos basados en casos particulares aumenta a medida que aumenta el nº de casos particulares
considerados. Tanto las teorías basadas en la abstracción como las teorías basadas en casos
particulares han sido puestas en práctica en modelos conexionistas.

Los modelos basados en casos particulares proporcionan una explicación ligeramente mejor
que los modelos de Prototipos.

10
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Principio de ejemplificación: una categoría incluye información detallada sobre un rango de


casos particulares. Representa un cambio del énfasis en la economía cognitiva. Se puede
incorporar también a la teoría de prototipos. Nosofsy y Palmeri: las decisiones sobre la
pertenencia a una categoría se toman recuperando casos particulares de la memoria semántica, de
uno en uno, hasta que se toma una decisión. En este caso, cuántos más casos particulares tenga
almacenados, más deprisa podrá responder.

5.3 La teoría de teorías


Según la teoría de las teorías, la gente representa categorías como teorías en miniatura
(miniteorías) que describen hechos sobre esas categorías y sobre por qué son coherentes a los
miembros.

Las miniteorías son conjuntos de creencias sobre qué es lo que constituye un miembro
particular de cada categoría, y una idea sobre cuáles son las propiedades normales que debería
poseer un caso particular de una categoría.

El desarrollo de los conceptos a lo largo de la infancia es un argumento a favor por el hecho de


que un niño desarrolla teorías de categorías que se van haciendo cada vez más parecidas a las que
utilizan los adultos.

5.4 Evaluación de los trabajos de clasificación


La batalla actual se produce entre las teorías de los casos particulares y la teoría de teorías. Las
teorías basadas en los casos particulares tienen una especial dificultad para explicar cómo
comprendemos conceptos novedosos formados mediante la combinación de palabras, mientras
que la teoría de las teorías lo hace bastante mejor.

6. Combinación de conceptos
Rips señala que las teorías basadas en casos particulares tienen dificultades obvias para
proporcionar una explicación de cómo combinamos conceptos.

La teoría de las teorías tiene menos problemas para explicar la combinación de conceptos, pero
sigue teniendo algunas dificultades: las miniteorías por sí solas no pueden explicar la forma en que
combinamos los conceptos, deben estar combinadas con algún otro mecanismo:
 Rips propone un enfoque doble que combina las miniteorías con un símbolo atómico fijo para
cada categoría. El enfoque doble permite hacer un seguimiento de los cambios de las
miniteorías y proporciona la capacidad de poder darse cuenta de cuándo entran en conflicto
entre sí algunas de nuestras creencias.

Para comprender la combinación sustantivo-sustantivo hay tres categorías:


 Relación temática: entre dos entidades: “un águila que apresa a petirrojo”
 Vínculo de la propiedad entre las dos: “un águila con un pecho rojo como un petirrojo”

11
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Hibridación: el complejo es una combinación o conjunción de 2 constituyentes. “Canario


petirrojo”

La mayor parte de la investigación se ha centrado en las interpretaciones temáticas y de las


propiedades. Hay un supuesto general en la literatura de la investigación que afirma que la gente
prueba 1º con una relación temática y si está no logra generar un combinación plausible prueba
con una interpretación en función de las propiedades (poco comunes en contextos comunicativos
naturales), estrategia del último recurso.

Sin embargo, Wisniewski y Love demostraron que en determinadas circunstancias, la gente


prefiere comprender las combinaciones de sustantivos en función de las relaciones entre
propiedades. Una gran similitud entre los elementos constituyentes de una combinación facilita la
producción de las relaciones de propiedades. La gente busca a continuación una diferencia crítica
entre ellas que pueda servir de base de la interpretación.

A la gente también le influye lo que se podría describir como un historial de combinaciones de


un sustantivo: la forma en que se ha combinado anteriormente una determinada palabra con otras.
La exposición a un par de palabras relacionadas de forma similar hace que sea más fácil
comprender un nuevo par de palabras.

La interpretación de nombres compuestos depende de una serie de factores, incluyendo la


experiencia anterior, la similitud y si existen relaciones plausibles entre estímulos. No se puede
decir en modo alguno que las relaciones de propiedades sean poco frecuentes y, en algunas
circunstancias, constituyen la estrategia preferida.

7. Procesamiento del lenguaje figurativo


Los seres humanos recurren en gran medida a un lenguaje no literal o figurativo. Vamos a ver
varios tipos fundamentales de lenguajes figurativos:
 Metáfora: cosiste en hacer una comparación o establecer un parecido. Cacciari y Glucksberg
afirmaron que no hay ninguna dicotomía entre la utilización literal y la metafórica, por lo
contrario, lo que hay es un continuo. La teoría estándar afirma que procesamos el lenguaje
figurativo o no literal en 3 fases:
 1ª Fase: Derivamos el significado literal de lo que oímos
 2ª Fase: Contrastamos el significado literal con el contexto para ver si es consistente con el
mismo.
 3ª Fase: Si el significado literal no tiene sentido dado el contexto, buscamos un significado
metafórico alternativo. Fig. 8.5
Una predicción de este modelo de 3 fases es: la gente debería ignorar los significados no
literales de las afirmaciones siempre que el significado literal tenga sentido; pero hay cierta
evidencia, de que la gente es incapaz de ignorar los significados no literales.
El significado metafórico parece procesarse de forma simultánea al literal.

12
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Glucksberg et al: las metáforas se interpretan mediante un análisis pragmático de la misma


manera que procesamos las implicaciones de una conversación: suponemos que lo que
leemos transmite la máxima información posible.
El modelo de inclusión en una clase afirma que las metáforas tienen la intención de ser
interpretadas literalmente como afirmaciones de pertenencia a una categoría.
 Modismos: pueden ser considerados como metáforas congeladas. Los modismos son una forma
fija y se utilizan de manera general. Su significado suele estar poco relacionado con el
significado de sus palabras constituyentes.
 Gibbs: la gente analiza los sentidos idiomáticos de las expresiones antes de derivar la
interpretación literal no convencional.
Cutler et al: la gente tarda lo mismo comprendiendo los modismos con los que están
familiarizados que frases comparables utilizadas de forma no idiomática.

La producción de chistes y de las metáforas es una faceta de nuestra habilidad metalingüística


de la que la sensibilización fonológica es tan solo un elemento constitutivo.

8. La neuropsicología de la semántica
¿Podemos diferenciar entre un déficit semántico “central”, cuando un concepto está realmente
perdido y un deterioro del “acceso” semántico, en el que la dificultad se produce en la
consecución del acceso al concepto?

Warrington et al analizaron 5 criterios que podían distinguir los problemas relacionados con la
pérdida de una representación de los problemas para acceder a ella:
 El rendimiento debe ser consistente en las distintas pruebas, si se ha perdido permanentemente
un elemento no debería ser posible acceder a él jamás. Si un elemento está disponible en unas
pruebas pero no en otras, la dificultad debe estar produciéndose en el acceso.
 Tanto para los almacenes degenerados como para los trastornos del acceso, debería ser más
fácil obtener la categoría superior que nombrar el elemento, porque esa información está muy
fuertemente representada; pero, una vez obtenido el elemento superior, será muy difícil obtener
ninguna información adicional en un almacén degenerado:
 La información sobre los elementos de categoría superior tiende a preservarse mejor que la
información sobre casos particulares específicos.
 El acceso deteriorado debería afectar de la misma manera a todos los niveles
 Se deben perder antes los elementos de baja frecuencia. Los elementos de baja frecuencia
deben ser más susceptibles a una pérdida, mientras que los problemas de acceso deberían
afectar de la misma manera a todos los niveles.
 El priming no debería seguir siendo eficaz, puesto que es evidente que no se puede primar a un
elemento que se ha perdido.

 Si se ha perdido el conocimiento, entonces el rendimiento debería ser independiente del ritmo


de presentación, mientras que las perturbaciones del acceso debería ser sensibles a la tasa de
presentación del material.

13
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Ha surgido un debate considerable sobre la fiabilidad de estos criterios para distinguir entre
trastornos de acceso y trastornos de pérdida, y cuántos pacientes muestran todas estas facetas.

Ya se han identificado claramente a una serie de pacientes con un déficit de acceso semántico y
otros pacientes muestran elementos de ese déficit. Warrington et al., presentan un modelo
conexionista que sugiere que los déficits centrales y de acceso se deben a distintos tipos de
lesiones neurológicas subyacentes. Tipos:
 Lesión al sistema neuromodulatorio cuya función habitual consiste en mantener y potenciar las
señales neuronales.
 Lesión al sistema neuronal que codifica la información semántica. Por tanto, la idea es que se
produce anormalmente una “refractariedad”, una reducción de la capacidad de utilizar el sistema
semántico de la misma manera durante cierto período de tiempo tras la respuesta inicial.

8.1 ¿Cuántos sistemas semánticos existen?


La Hipótesis del almacén unimodal establece que sólo existe un almacén semántico. Es la idea
de que tenemos un almacén central del significado al que podemos acceder desde distintas
modalidades (visión sabor, olor, tacto y sonido).

Paivio propuso una hipótesis del doble código de la representación semántica. Compuesto por:
 Código perceptivo: codifica las características perceptivas de un concepto.
 Código verbal: codifica las facetas abstractas, no sensoriales.
 Las pruebas experimentales de está hipótesis ofrecieron resultados no concluyentes. Cierto
respaldo son los estudios de imágenes cerebrales que demuestran que se procesan de distinta
manera las palabras concretas que las abstractas.

Las ideas de múltiples almacenes semánticos o específicos de modalidades, por la que el


material verbal y el material no verbal están separados, ha disfrutado de cierto resurgimiento
debido a los datos provenientes de los pacientes con lesiones cerebrales. Razones:
 Se han identificado efectos de priming que se ha determinado que están limitados al material
verbal.
 Algunos casos de estudio muestran perturbaciones limitadas a una sola modalidad sensorial.
 Los pacientes con déficits semánticas no siempre tienen el mismo deterioro con el material
verbal que con el visual.

Coltheart et al propusieron que la memoria semántica está organizada en subsistemas:


 Hay un subsistema para cada modalidad sensorial y un subsistema para el conocimiento
semántico no sensorial.
 Este subsistema no sensorial se divide, a su vez, en subsistemas para las categorías semánticas
como los seres vivos y las cosas no vivas.
 Este enfoque lleva al extremo el fraccionamiento de la memoria semántica.

 Evaluación de los modelos con múltiples almacenes

14
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Se han ofrecido explicaciones alternativas a estos estudios:


 Riddoch et al: afirmaron que los pacientes que tienen un mejor rendimiento con el material
verbal podrían tener un sutil impedimento del procesamiento visual complejo. La disociación
inversa del mejor rendimiento con los materiales visuales se puede deber a la abundancia de
indicios visuales indirectos en las imágenes.

Estudios de distintos autores sugieren la idea de la existencia de distintos sistemas semánticos.


Finalmente, la evidencia a favor proviene de una anomia específica:
o Afasia óptica: los pacientes tienen dificultades para nombrar estímulos presentados visualmente
pero sin una anomia o agnosia visual general.
 Son incapaces de nombrar objetos cuando se presentan visualmente, pero pueden hacerlo si
están expuestos a ellos mediante otras modalidades, o si se les da la definición de la palabra.
 La interpretación, es que podemos acceder a distintos almacenes específicos de cada
modalidad, habiendo sido borrado uno de los almacenes.
 Riddoch et al afirmaron que es un trastorno del acceso a un sistema semántico unitario a
través del sistema visual, más que una perturbación de un sistema semántico visual específico
a la modalidad.
 Caramazza et al afirmaron que hay cierta confusión sobre lo que significan los términos
“semántica” y “almacenes semánticos” cuando se utilizan en contextos neuropsicológicos.
Distinguieron 4 versiones de la hipótesis de los almacenes múltiples:
o Explicación de los elementos de entrada: se duplica un mismo sistema semántico que lo
incluye todo para cada modalidad de entrada. Hay poca evidencia a favor de esta idea.
o Hipótesis del contenido específico para cada modalidad: existe un almacén semántico para
cada modalidad de entrada. Cada almacén incluye información relevante de esa
modalidad, pero en un formato abstracto o neutral respecto a la modalidad.
o Hipótesis del formato específico para cada modalidad: el almacén esta en el formato del
elemento de entrada.
o Contexto específico para cada modalidad: la semántica visual y verbal hace referencia a la
información adquirida en el contexto de objetos o palabras presentadas visualmente.
Estas hipótesis difíciles de diferenciar, hacen tres predicciones:
- Predicen que el acceso desde determinada modalidad siempre activa primero el almacén
semántico adecuado.
- La activación de las representaciones fonológicas y ortográficas está mediada por la
semántica verbal.
- Sólo se puede acceder directamente a la información a través de la modalidad de entrada
adecuada.

 Caramaza et al afirmaron que los datos no respaldan las predicciones, sólo dicen que existe una
relación entre la modalidad de entrada y el tipo de contenido semántico; pero no tienen por qué
estar en un formato específico a la modalidad. Propusieron un modelo alternativo, denominado,
OUCH:
 Las imágenes de los objetos tienen un acceso privilegiado a un almacén unimodal.

15
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Algunas conexiones semánticas son más importantes que otras.


 El OUCH no puede explicar los casos de pacientes que tienen más problemas con las imágenes
que con las palabras. No está claro que una distinción entre un sistema y un subsistema
semántico sea una distinción significativa.

 Otras explicaciones de la afasia óptica:


 El sencillo modelo canónico del significado, no puede ser correcto, porque que la gente con
afasia óptica tiene acceso a la semántica y por tanto, al nombre.
 Los modelos de múltiples almacenes específicos para cada modalidad la explican postulando
una desconexión entre la semántica verbal y la visual, produciéndose el nombre correcto a
partir del acceso a ésta.
 Según OUCH: observamos la afasia óptica cuando la representación semántica que se
computa a partir de la entrada visual basta para respaldar los patrones de acción pero no el
nombramiento.
 Las ideas de Shallice y Riddoch et al, señalan que los objetos visuales evocan posibilidades o
ramificaciones.
 Sitton: la afasia óptica surge de una lesión en múltiples localizaciones en un modelo unitario.
Afirman que las lesiones de las vías que llevaban el elemento de entrada visual a la
semántica, y también de las que van de la semántica a los nombres, pueden explicar la afasia
óptica si las lesiones son lo que se denomina superaditivas. Fig. 8.6

 Caplan hipótesis de la identificación de la semántica:


 Supone un compromiso entre las teorías de almacenes múltiples y de almacén unitario por el
que sólo hay un subconjunto de información semántica dedicado a modalidades específicas.
 La información perceptiva necesaria para identificar y nombrar un objeto es sólo un
subconjunto del significado de un concepto. Si esta información esta intacta y hay un trastorno
del almacén asociativo amodal, es posible que una persona sea capaz de nombrar un objeto,
pero no de acceder a su información semántica.

Lauro-Grotto et al, argumentan con contra de la hipótesis anterior, afirman que estos tipos de
información (los postulados por Caplan) se almacenan en la semántica visual más que en un
componente amodal de la memoria semántica.

8.2 Trastornos semánticos de categorías específicas


A veces las lesiones cerebrales deterioran el conocimiento en determinadas categorías
semánticas, dejando otras relacionadas intactas

Las dificultades con determinada categoría semántica no están restringidas a nombrar


imágenes de sus miembros.

 Trastornos de categorías específicas y cuestiones metodológicas

16
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Hay problemas metodológicos para estudiar los trastornos semánticos de categorías


específicas. Es importante medir y tener en cuenta la familiaridad, la complejidad de la
característica visual y la similitud visual de las imágenes.

Se observa una doble disociación entre las categorías de los seres vivos y las cosas no vivas.
Aparece una distinción entre objetos grandes y pequeños.

El rendimiento de los pacientes no puede ser descartado como un problema debido al tipo de
experimento, porque están teniendo dificultades con miembros de la categoría que deberían ser los
más fáciles de procesar si todo lo que importa es la complejidad visual y la familiaridad.

 ¿Qué explica la disociación entre seres vivos y cosas no vivas?

 Hay 3 posibles explicaciones de los trastornos de categorías específicas:


 Los distintos tipos de información semántica se localizan en distintos lugares del cerebro,
por lo que una lesión cerebral destruye algunos tipos pero no otros. La diferenciación entre
cosas no vivas y seres vivos sería un principio organizativo fundamental de la memoria
semántica. Según Farah este enfoque no explica por qué tiende a producirse conjuntamente
los déficits de determinadas categorías.
 Las categorías que están deterioradas comparten ciertas propiedades incidentales que las
hacen susceptibles a padecer pérdidas.
 Las diferencias entre las categorías están mediadas por alguna otra variable, de forma que los
elementos que se pierden comparten alguna propiedad más abstracta.

 La teoría sensorial-funcional

Las cosas no vivas se diferencian entre sí fundamentalmente en cuanto a sus propiedades


funcionales, mientras que los seres vivos tienden a diferenciarse fundamentalmente en cuanto a
sus propiedades perceptuales. Esta diferenciación es consistente con la organización del cerebro
que tiene distintas vías de procesamiento para la información perceptual y motriz.

Farah et al: si los atributos visuales son más difíciles de procesar que los funcionales, entonces
las categorías que dependen más de éstos serán más susceptibles de padecer perdida. Esto explica
por qué observamos una pérdida de información sobre los seres vivos con más frecuencia que una
pérdida de información sobre las cosas no vivas.

Hay cierto respaldo de los trabajos con neuroimágenes a favor de esta hipótesis (se activan más
las regiones posteriores del córtex temporal izquierdo cuando trabajamos con información
perceptual y se activan más las regiones medias cuando trabajamos con información funcional).

 Efectos específicos de modalidad y de categoría

17
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Farah et al afirmaron que existía una relación entre los efectos específicos de modalidad y los
específicos de categoría. Construyeron un modelo conexionista y demostraron que la lesión de un
sistema de memoria semántica específico a la modalidad podía provocar déficits específicos de
categoría:
 La arquitectura de su modelo comprendía 3 conjuntos de unidades:
o De entrada
o Producción verbales (unidades de nombres)
o De memoria semántica (unidades visuales/unidades funcionales)
 Resultados:
o Las lesiones en las Unidades Semánticas Visuales deterioraban fundamentalmente el
conocimiento de los seres vivos.
o La lesión de las Unidades Semánticas Funcionales deterioraba fundamentalmente el
conocimiento sobre las cosas no vivas.
o Cuando se había deteriorado una categoría, se perdía el conocimiento de ambos tipos de
atributos.

La Teoría sensorial-funcional afirma que el conocimiento de los objetos animados se deriva de


la información visual, mientras que el conocimiento de los objetos inanimados se deriva de la
información funcional. Las cosas no vivas no tienen necesariamente más atributos funcionales
que perceptuales, pero tienen relativamente más que los seres vivos.

 Retos para la teoría sensorial-funcional

Caramazza y Shelton, pusieron en duda la perspectiva predominante de que la distinción entre


seres vivos y cosas no vivas sólo refleja una dependencia diferencial subyacente de la
información sensorial y funcional. Se centraron en el patrón de categorías asociadas en los
trastornos específicos. Afirmaron que si está teoría fuera correcta, un paciente con dificultades
con los seres vivos debería tener dificultades en tareas que incluyan seres vivos y siempre deberá
tener problemas con los instrumentos musicales, tejidos, alimentos y piedras preciosas, sin
embargo, esto no es así. Afirmaron que el concepto de información funcional no está bien
definido.

Esta teoría también predice que la gente con un deterioro selectivo de los seres vivos debería
mostrar una dificultad desproporcionada con las propiedades visuales. Esto no siempre es así.

Las imágenes de PET y fMRI sugieren que el conocimiento sobre los animales se almacena en
áreas occipito-temporales, mientras que el conocimiento sobre las herramientas se almacena en
las áreas témporo-parietal-occipitales laterales

Caramazza y Shelton propusieron una explicación alternativa, la hipótesis del conocimiento


específico del dominio (DSKH): Afirmaron que los mecanismos neuronales específicos innatos
para distinción entre seres vivos y cosas no vivas han evolucionado debido a la importancia de
esta distinción. Evidencias:

18
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Los niños muy pequeños (1ºs meses de vida) pueden diferenciar entre seres vivos y no vivos. Lo
que sugiere que esta habilidad es innata.
 Los estudios de los lugares de las lesiones y los de imágenes cerebrales sugieren que las
distintas partes el cerebro podrían estar dedicadas a procesar cosas no vivas y seres vivos. Los
seres vivos asociados al lóbulo temporal y los objetos con la región dorsal de los lóbulos
temporal, parietal y frontal.

En la actualidad la mayoría del apoyo es para la hipótesis sensoriofuncional.

8.3 La estructura de la memoria semántica: datos de los estudios sobre demencia


Demencia es un apelativo general del deterioro generalizado del funcionamiento cognitivo que
se suele encontrar a una edad avanzada. En la demencia la memoria y la información semántica
son particularmente proclives a los trastornos. La demencia más común es la enfermedad de
Alzheimer.

Un subtipo de demencia es, la demencia semántica: en ella la pérdida de la información


semántica es desproporcionadamente mayor respecto a la pérdida de otras funciones cognitivas,
como la memoria episódica. Esta marcada por una atrofia que empieza particularmente en la
región temporal anterior izquierda del cerebro, con una lesión temprana mucho menor del
hipocampo. Estos pacientes tienen un deterioro del nombramiento y una pérdida del significado
pero una sintaxis preservada.

La Enfermedad de Alzheimer suele empezar con una atrofia del lóbulo temporal medial,
incluyendo el hipocampo.

Los estudios sugieren que el córtex temporal inferior y medio izquierdo del cerebro
desempeñan un papel particularmente importante en el acceso y representación del significado.

 Alteraciones de la memoria semántica en la demencia

Se van a ofrecer sólo unos cuantos ejemplos de las conclusiones de los problemas que suelen
tener las personas con demencia:
 Suelen tener dificultades en tareas de fluidez en las categorías
 Tienen problemas para hacer una lista de los atributos que son compartidos por todos los
miembros de una categoría.
 Tienen problemas para diferenciar entre elementos de la misma categoría.
 Tienden a clasificar a los elementos como parecidos a elementos distintos más que los
participantes control.
 Tienen problemas para evaluar la coherencia semántica de afirmaciones sencillas.

 Dificultades en la denominación de imágenes

19
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Hay evidencia de que el déficit semántico esta involucrado en el nombramiento de imágenes.


 El desempeño en el nombramiento en la demencia se ve afectado en ocasiones por la variable
semántica de la imaginabilidad.
 Hay cierta evidencia de que el procesamiento visual está deteriorado en la demencia, y que los
pacientes tienen problemas para reconocer los objetos. Fig. 8.8
 Webb et al, tras un estudio, concluyeron que la claridad perceptiva del estímulo afectaba al
desempeño del nombramiento. También muestran déficits en la modalidad auditiva.
 Dos grandes líneas de evidencia sugieren que los individuos con demencia también tienen un
déficit a nivel fonológico:
- Tienen dificultades particulares para nombrar objetos de baja frecuencia.
- El priming fonológico de la palabra diana mejora su denominación.

Hay 3 posibles explicaciones de esta conclusión:


 Podría haber heterogeneidad entre los pacientes. Locus del deterioro distinto, por lo que cada
tipo de deterioro podría dar lugar a un déficit de denominación.
 Podría haber múltiples lugares de deterioro dentro de cada paciente.
 Un único locus de deterioro podría provocar todos los deterioros observados.

Los modelos conexionistas respaldan la hipótesis del lugar único:


 Tippett y Farah describieron un modelo computacional de facetas importantes del
nombramiento en la demencia:
- Demostraron cómo los aparentes déficit visuales y léxicos pueden surgir exclusivamente de
una lesión de la memoria semántica
- Los vínculos bidireccionales conectan a las unidades de entrada visual con las unidades
visuales ocultas, que se conectan con las unidades semánticas, las cuáles se conectan a su vez
con las unidades ocultas de nombramiento que, a su vez, están conectadas con las unidades
de entrada de los nombres. Fig. 8.9
- Los vínculos bidireccionales, junto con la activación en cascada, implican que el modelo sea
extremadamente interactivo.
- Las lesiones exclusivamente en las unidades semánticas hacían que la red fuera más sensible
a las manipulaciones en los niveles visuales y de nombres. Los vínculos bidireccionales
implicaban que la lesión en un nivel tenía repercusiones también en otros niveles:
 La lesión en el nivel semántico implicaba que la red se hacía más sensible a la
degradación visual de las unidades de entrada visual.
 La red lesionada también tenía problemas para producir nombres de baja frecuencia.
 El nombramiento tras la lesión mejoró mediante un priming fonológico.

En resumen, este modelo muestra que las lesiones de sólo el sistema semántico pueden
explicar la variedad de trastornos semánticos, visuales y léxicos de la demencia. Esto se debe a
que una lesión en un nivel de una red muy interactiva puede tener consecuencias en todas las
demás.

20
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

8.4 Evaluación de la investigación sobre la neuropsicología de la memoria semántica


Sigue existiendo un notable desacuerdo en este campo.

9. Enfoques conexionistas de la semántica


Hinton et al incorporaron la representación semántica de las palabras en un modelo de la ruta
semántica del reconocimiento semántico de la palabra. Este enfoque dio lugar a la idea de que la
memoria semántica depende de microcaracterísticas semánticas.

9.1 Microcaracterísticas semánticas


En los modelos conexionistas que hemos analizado, la representación semántica no tiene una
correspondencia con una unidad semántica concreta, sino con un patrón de activación de todas las
unidades semánticas.

Una microcaracterística es una unidad activa individual; el prefijo “micro” pone de relieve que
estas unidades están implicadas en procesos de bajo nivel más que en el procesamiento simbólico
explícito. Una microcaracterística semántica es simplemente una característica semántica. Las
microcaracterísticas:
 Median entre la percepción, la acción y el lenguaje, y no tienen necesariamente ninguna
contraparte lingüística directa.
 Pueden corresponder a simples características semánticas y también pueden tener una
correspondencia con algo mucho más abstracto.
 Pueden codificar el conocimiento en un nivel muy bajo de la representación semántica, o de una
forma muy abstracta que no tienen una correspondencia lingüística directa.

Los modelos conexionistas suponen que la memoria semántica humana está basada en
microcaracterísticas.

En el modelo de dislexia profunda de Hinton y Shallice el significado estaba representado


como un patrón de activación de una serie de unidades de características semánticas, o sememes:
 Las características semánticas están agrupadas juntas, de forma que las características que se
excluyen mutuamente se inhiben entre sí, y sólo puede haber una activa en un momento dado.
 Las unidades de limpieza modulan la activación de las unidades semánticas.
 Los significados de las palabras concretas, se denominan atractores, este tipo de red se conoce
como red de atractores.

Si los significados están representados como un patrón de activación distribuido sobre muchas
características, entonces tiene menos sentido hablar de pérdida de elementos individuales en el
modelo. Por el contrario, la pérdida de las unidades dará lugar a la pérdida de
microcaracterísticas.

21
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

9.2 Explicación de la pérdida de lenguaje en la probable enfermedad de Alzheimer:


la hipótesis de la pérdida de las microcaracterísticas semánticas

Si se pierden las Microcaracterísticas Semánticas se produce una distorsión del espacio


semántico, de forma que es posible que se pierdan por completo algunos atractores semánticos, y
puede que otros queden inaccesibles para algunas tareas debido a la erosión de las delimitaciones
de las cuencas de los atractores. En función de la importancia de la microcaracterística perdida
para determinado elemento en determinado paciente, el patrón de rendimiento observado variará
en función de cada paciente y de cada tarea.

La pérdida de una característica podría implicar que las unidades codificadas lingüísticamente
pertenecientes a un nivel superior desaparecen de forma permanente pero alternativamente, podría
significar únicamente que las unidades de nivel superior tienen un acceso más difícil. Por tanto,
hay una faceta probabilística de si una palabra o atributo desaparecerá de forma consistente o no.

Los pacientes de Alzheimer tienen un rendimiento relativamente bueno en tareas muy


restrictivas.

9.3 Modelado de los trastornos de categorías específicas en la demencia


Los modelos conexionistas de trastornos de categorías específicas nos dicen cosas sobre el
progreso de la enfermedad y sobre la estructura de la memoria semántica.

Los déficits de categorías específicas son más esquivos en la demencia. Gonnerman et al


concluyeron que los pacientes muestran trastornos selectivos en tareas que implican tanto a seres
vivos como a objetos, dependiendo del grado de gravedad de la enfermedad:
 Al principio hay un ligero déficit relativo al nombramiento de los objetos, seguido
posteriormente por un déficit de nombramiento de los seres vivos, seguido de un rendimiento
malo del nombramiento en todas las categorías

McRae et al afirmaron que hay distintos tipos de características semánticas, en función del
grado en que se relaciona cada característica con las demás: Fig. 8.10
 Características Interrelacionadas: tienden a producirse conjuntamente.
 Características distintivas o diferenciadoras: permiten distinguir entre los miembros de una
categoría.
 Los objetos tienden a no estar representados por muchas características interrelacionadas, sino
más bien por muchas características diferenciadoras.

Norgan y McRae demostraron que las características distintivas tienen un estatus privilegiado
en la memoria semántica; se activan con más energía que las características compartidas no
distintivas.
 Una lesión de poca magnitud de la red semántica, tendrá pocos efectos sobre los seres vivos
(las características interrelacionadas, con ricas interconexiones, se apoyan entre sí). Por lo
tanto, al principio en las tareas que hay seres vivos parecen no estar afectadas.

22
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

 Cuando se pierde una masa crítica de características diferenciadoras, se produce un fallo


catastrófico del sistema de memoria.
 El incremento de la lesión da lugar a una pérdida paulatina de un creciente nº de elementos en
distintas categorías, más que a la pérdida catastrófica observada con los seres vivos (esta
pérdida es de naturaleza probabilista).
 Garrand et al, no lograron encontrar ninguna interrelación entre la gravedad de la enfermedad
y la dirección de la disociación.

9.4 Análisis semántico latente


El Análisis semántico latente (LSA) es un medio para adquirir conocimiento sobre la
concurrencia de la información. Es un modelo que no necesita un conocimiento lingüístico previo.

Las restricciones sobre la concurrencia de las palabras proporcionan un inmenso nº de


interrelaciones que facilitan el desarrollo semántico. El LSA aprende de ellas mediante un
mecanismo de inducción. El algoritmo intenta minimizar el nº de dimensiones necesarias para
representar toda la información sobre la concurrencia. Este tipo de modelo se suele conocer como
el enfoque de memoria de alta dimensión (HDM).

Landauer y Dumais analizaron cómo puede explicar el LSA las facetas de adquisición del
vocabulario:
 Este enfoque de tipo estadístico tardío es muy bueno para explicar el aprendizaje tardío del
vocabulario, donde la instrucción directa es muy infrecuente. Inferimos los significados de las
nuevas palabras a partir del contexto.
 El LSA muestra cómo podemos llegar a un acuerdo sobre la utilización de las palabras sin un
referente externo.

Una crítica a estos modelos HDM es que se preocupan demasiado del contexto en el que se
producen las palabras.

9.5 Evaluación de los modelos conexionistas de la memoria semántica


Los modelos conexionistas de los déficits neuropsicológicos resultan particularmente
prometedores. Los datos y trabajos de modelado sugieren que los déficit del lenguaje que
aparecen en enfermedades como la demencia se deben a una pérdida paulatina de las
microcaracterísticas semánticas.

9.6 Cimentación: conexión del lenguaje con el mundo


El significado es una forma de crear correspondencias del lenguaje con el mundo externo. En
algún momento, el sistema semántico tiene que interactuar con los sistemas perceptuales: esta
interacción se conoce a veces como cimentación. ¿Cómo se produce?

23
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia

Curso 2011-2012 UNED

Rogers et al describen un modelo que proporciona una explicación de cómo están conectados
el lenguaje y la percepción. Su modelo crea correspondencias entre las representaciones de los
objetos específicas a la modalidad y sus descripciones verbales. Las representaciones semánticas
median entre estos dos tipos de representaciones de salida. Ver Fig. 8.11 En su modelo:
Un nivel semántico media entre las características visuales y los descriptores verbales que, a su
vez, incluye nombres, los descriptores perceptivos, los descriptores funcionales y los
descriptores enciclopédicos.
El modelo aprende a asociar entradas con salidas. La estructura semántica interna está
restringida tanto por salidas verbales como visuales; por tanto entradas con una similitud visual
dan lugar a representaciones internas con estructura similar.
Las representaciones semánticas no tienen porqué codificar directamente características
semánticas; sólo tiene que ser suficientemente buenos para hacer el trabajo.

Como señalan Rogers et al, este enfoque computacional, aunque parecido a grandes rasgos al
modelo basado en características, tiene varias ventajas:
 No tenemos que preocuparnos sobre cuáles son las características que deberíamos utilizar y si
son arbitrarias o no.
 El modelo computacional nos obliga a ser explícitos sobre cómo se realiza cada tarea semántica
o perceptiva
 El modelo proporciona una explicación de la demencia semántica.

 No contradice al modelo HAL (hiperespacio análogo al lenguaje) o el modelo LSA. Todos ellos
demuestran que extraemos y abstraemos información semántica de grandes cuerpos de
información.

Aunque los modelos HAL o LSA dependen de entradas verbales, este enfoque computacional
vincula la información verbal con la perceptiva. El modelo computacional también vincula el
procesamiento semántico con la neuropsicología.

Se parece al modelo de OUCH (la representación semántica es unitaria y amodal). En efecto,


la memoria semántica podría ser considerada más bien como un sistema que media entre distintos
sistemas perceptivos, más que como un almacén de hechos proposicionales. Las regiones
anteriores de los lóbulos temporales desempeñan un papel particularmente importante en este
proceso.

24
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Capítulo 9: Comprensión
1. Introducción
Uno de los temas centrales del estudio de la comprensión es si se trata de un proceso
constructivo o de un proceso mínimo. En la comprensión construimos un modelo de lo que
pensamos que se está comunicando.

Algunas nociones que debemos tener claras antes de proseguir son:


 El texto es material impreso o escrito, normalmente más largo que una frase.
 La historia es un tipo de texto particular, autocontenido. Puede ser muy breve, de tan solo dos
frases.
 El discurso es el equivalente hablado de un texto.
 Las conversaciones son intercambios donde un tema puede cambiar a medida que avanza,
tienen sus propios mecanismos de “reglas” para controlar quien habla.
Resulta útil diferenciar entre procesamiento semántico y referencial, en el semántico
trabajamos con la averiguación del significado de las palabras y frases, en el referencial por el
contrario tenemos que relacionar esa información con un modelo que o bien hace que este se
modifique o como alternativa, la nueva información se integra al “modelo previo” de alguna
manera.

La mayor parte de las investigaciones se han realizado sobre la comprensión de textos. Una
característica importante tanto del texto como del discurso es que son coherentes:
 La coherencia referencial alude a la consistencia entre la persona y aquello que se está
hablando, un ejemplo no coherente sería una persona Judía promoviendo el movimiento
antisemita.
 La coherencia temporal se refiere a la consistencia en el momento en que se produjeron los
hechos, un ejemplo de 2 incoherencias aquí serían: “Ayer por la tarde al volver del trabajo,
amaneceré con sol”. Como se puede comprobar, tanto el tiempo verbal como el transcurso
temporal del episodio confunden el significado global de la interpretación.
 Coherencia de localización: relativo a donde se producen los sucesos, no puede atraparte un
tiburón en lo alto del Everest.
 Coherencia causal: En referencia al por qué ocurren los sucesos. Ejemplo no coherente: Cómo
se puso el abrigo del revés las flores olían bien.
Los textos deben ser coherentes a nivel general, haciendo referencias a las mismas entidades en
frases sucesivas.

2. Recuerdo de un texto e inferencias


Tanto las declaraciones de los testigos oculares como la memoria literal, al pie de la letra, son
dos opciones relativamente poco fiables. El recuerdo solo es preciso en referencia al tema general
de las conversaciones y aunque algunos datos sí que pueden ser ciertos, como las personas

1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

implicada en el delito, no lo eran otros como por ejemplo, en la forma exacta en que el testigo
afirmó que habían actuado los susodichos. (Basado en el Ej.; del libro)

A pesar de que las personas creemos lo contrario sólo recordamos la esencia de las
conversaciones, abstraemos la información y tenemos tendencia a recordar cosas que no
ocurrieron nunca. Como aval a dichos argumentos, encontramos que estas conclusiones han sido
reproducidas en diversas ocasiones con los mismos resultados. Ej.: Libro Pág. 255

¿Qué determina lo que olvidamos y lo que recordamos? ¿Somos capaces de recordar material
exactamente como se nos presentó?

Se ha comprobado que las personas olvidamos rápidamente el orden de las palabras, sólo nos
quedamos con el significado: Experimento de Sachs: Se presenta los participantes una historia
con las frases objetivo insertadas en ella, posteriormente se les pide que las distingan de otras
similares. Ver Pág. 255

Esta prueba fue realizada tras diferentes intervalos temporales, y los resultados sugieren que:
 La capacidad para detectar los cambios en el orden de las palabras, así como en la sintaxis
disminuye velozmente,
 Los cambios en el significado se pueden seguir distinguiendo a pesar del tiempo, o sea, somos
capaces de recordar la esencia de los textos pero olvidamos rápidamente los detalles sobre su
presentación.

Nuestra memoria empieza depurando los detalles de las últimas frases que hemos escuchado,
así como se demostró en otro experimento que se realizó (Jarvella). Ver Pág. 255.

Potter y Lombardi descubrieron que el priming sintáctico por parte del material diana facilita lo
que se mantiene en la memoria inmediata. Esto quiere decir que tendemos a utilizar las mismas
estructuras y palabras que se nos presentaron originalmente, sin embargo es posible modificar la
codificación con una frase alternativa, esto es consistente con la idea de que el recuerdo inmediato
se genera con la representación de los significados en vez de utilizar una memoria literal. No
obstante los detalles de la primera presentación no siempre se pierden, cuando la información
superficial tiene significación podemos reconocer las palabras exactas a pesar de que haya pasado
una hora, aunque evidentemente el resultado es mejor cuanto menos tiempo transcurra.

Varios estudios han demostrado que las conversaciones utilizadas en experimentación


muestran notables diferencias si las comparamos con una conversación “natural”, muchas veces,
detalles que aparentemente no son relevantes, en realidad desempeñan una función particular. Por
ejemplo, utilizar sustantivos o pronombres influye en la atención que se otorga al referente.

En muchas ocasiones somos capaces de recordar las palabras exactas si son importantes o si
nos afectan emocionalmente.

Cuando interpretamos una información, creamos un modelo, y los conceptos que le


incorporemos serán los que más fácilmente rememoremos. Ver Ej. Pág. 256

2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Todavía no está claro porque en algunas ocasiones recordamos la forma superficial exacta y en
otras no lo hacemos, evidentemente no siempre descartamos la información superficial de forma
inmediata, y también podemos estar procesando una frase mientras almacenamos detalles de otra.

2.1 Importancia
Recordamos mejor lo que consideramos que son los aspectos más importantes de una información.
También las frases con alto contenido interactivo (implicación personal) se recuerdan mejor que
las que presentan poca interacción. Según los estudios de movimientos oculares, pasamos más
tiempo leyendo lo que consideramos importante en un texto, pero no implica que sea la causa de
un mejor recuerdo.

Muth y Glynn, manipularon los tiempos de lectura haciendo que los participantes dedicasen el
mismo tiempo al material importante y a los detalles irrelevantes, los resultados siguieron
indicando que se recordaban mejor los aspectos que consideramos importantes, lo que sugiere que
existe un efecto real del significado a la hora de codificar la información en nuestra memoria.

Cuanto más importante es una oración, más probable es que se recuerde. Las teorías sobre el
procesamiento del texto deberían predecir por qué algunas ideas son más importantes que otras.

2.2 ¿Cuáles son los efectos del conocimiento previo?


Bransford y Johnson presentaban una historia a los participantes, con instrucciones de leerla
atentamente. Los sujetos sin contexto (contexto era una imagen) o presentado después del texto
recordaron pocas ideas en la prueba de memoria (3.60 sobre 14 ideas). Al grupo que se le mostró
la imagen antes del texto incrementó el grado de comprensión y número de ideas recordadas (8
sobre 14).
El contexto (dibujo) proporciona un marco para comprender y recordar mejor la información. Ver
Pág. 257
 El no saber de qué va un texto, dificulta la comprensión e influye en el recuerdo posterior.
 Dependiendo de la perspectiva, se almacenan mejor unos detalles que otros. Se recuerdan
mejor los detalles relevantes.
 Las perspectivas pueden sesgar el contenido de la información que almacenamos. Si nuestra
perspectiva después de leer cambia, si la recuperación es inmediata a la presentación del
material sí que influye, pero si el recuerdo es posterior, lo que influye en la recuperación es la
perspectiva de cuando se codificó la información, y no las posiciones posteriores.
 El conocimiento previo facilita la comprensión y adquisición de nueva información y permite
crear asociaciones entre el material nuevo y el antiguo, potenciando nuestra memoria.
Asimismo, facilita su recuperación, pero este conocimiento “anterior” interfiere con la nueva
información, lo que da lugar a equívocos.

2.3 Inferencias

3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Hacemos una inferencia, cuando vamos más allá del significado literal del texto. Hacemos una
deducción de conocimiento adicional de unos hechos que ya sabemos, cosa que nos puede llevar a
error. Intentamos mantener la coherencia ante lo que se nos presenta y para ello recurrimos a
conocimientos previos, y aunque ello puede ayudar a recuperar la información posteriormente,
también nos hace recordar cosas que no han ocurrido nunca. Ej. De Sulin y Dooling Pág. 260

Hay 3 tipos de Inferencias fundamentales:


 Inferencia lógica: Se derivan de los significados de las palabras. Ej.: Antonio es un cura.
Antonio es un hombre (Inferencia).
 Inferencia-Puente (o conectiva): Nos ayudan a relacionar la información nueva y antigua. Por
ejemplo, a que están haciendo referencia los sustantivos. (…) el coche estaba aparcado detrás
de la casa (…) El coche de Juana, la casa de su amiga (Inferencias).
 Inferencia Elaborativa: Cuando ampliamos lo que está en el texto con el conocimiento general
que tenemos. Como ejemplo sirve el relato anterior de Martín Vs Hitler Pág. 260

Todo lo que hemos visto hasta ahora, sugiere que debe ser muy difícil diferenciar entre las
inferencias que hacemos y lo que hemos oído/leído/observado realmente.
En conjunto, las inferencias que no son lógicas se denominan, a veces, inferencias pragmáticas.

Barclay y Franks demostraron que tras una breve demora no se podía distinguir la frase diana
de la inferencia válida que también se les presentó en la fase de prueba. 1-. Tres tortugas descansaban
sobre un tronco flotante, y un pez nadó debajo de ellas. (Diana). 2.- Tres tortugas descansaban sobre un tronco
flotante, y un pez nadó debajo de él. (Inferencia). Sin embargo, cuando se cambiaba el significado de la
frase: Tres tortugas descansaban sobre un tronco flotante, y un pez nadó al lado de él. Sí que eran capaces de
darse cuenta del cambio, en este caso sería una inferencia no válida ya que no sería cierta.
(Volvemos a la primacía del significado).

 ¿Cuándo se hacen inferencias?

Es más probable que las personas, que comprenden un texto, hagan inferencias relacionadas
con los elementos importantes, más que con los detalles (recordemos el tema de la perspectiva).
Los personajes principales, sus objetivos y las acciones relacionadas con el argumento central
suelen considerarse como elementos de mayor relevancia.

Según la visión construccionista el procesamiento del texto está impulsado por la necesidad de
saber, la persona se forma objetivos cuando está leyendo o escuchando, y sobre ellos construye el
modelo que más tarde recordará.

La hipótesis minimalista, sostiene que utilizamos inferencias-puente automáticamente y que


usamos el mínimo de inferencias elaborativas, las suficientes para mantener la cohesión del
discurso, la mayoría de estas se generan a la hora de recordar. El procesamiento del texto está
impulsado por los datos y la activación por lo que está almacenado en la memoria.

Según varios estudios, las inferencias-puente se hacen de manera automática, pero no las
elaborativas. Parece probable que las inferencias-puente (automáticas) solo se utilicen en la

4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

comprensión, para mantener la cohesión, sin embargo las elaborativas se generan durante el
recuerdo y no de forma automática.

Garrod y Terras, diferenciaron entre dos tipos de información que ayudaría a realizar las
inferencias-puente:
 Factores léxico-semánticos, como por ejemplo, en la frase: Los niños no dejaban de escribir con las
tizas. La pizarra estaba llena de letras. Utilizamos la inferencia de que “las letras de la pizarra, las
habían escrito los niños.” El factor léxico-semántico es que los niños “escribían con tizas”, cosa
que suele hacerse en una pizarra. En este ejemplo se dice que “pizarra” desempeña un papel
abierto en el discurso y se mantiene vinculado al material anterior por una inferencia-puente
encargada de mantener la coherencia.
 Factor información contextual provenientes de antecedentes generales, como por ejemplo:
tener un conocimiento previo de que los niños suelen escribir en esa pizarra.

Garrod y Tetras basándose en los resultados de varios estudios, propusieron un modelo de dos
etapas de cómo resuelve la gente los papeles abiertos en el discurso:
 Creación de vínculos: Los elementos sugeridos por el contexto léxico se activan
automáticamente y se vinculan al verbo (En la frase anterior, TizaEscribir).
 Resolución: Se compara si el vínculo creado anteriormente (relleno) encaja con el contexto
general. Esto se desarrolla con una combinación de proceso automático (abajo-arriba) y un
procesamiento contextual no automático.

 Repercusiones prácticas de la investigación sobre inferencias

Hay dos grandes áreas en el que las inferencias elaborativas son especialmente importantes, los
testimonios de los testigos oculares y los métodos de publicidad.

Según los trabajos de Loftus, las declaraciones de los testigos oculares son poco fiables, pues la
forma en la que se hacen las preguntas interfiere en la generación de un recuerdo. La utilización de
(un) o (el) afecta a la comprensión. Ej. A testigos accidente se les pregunta: ¿Vio usted el
semáforo roto?, ¿Vio usted un semáforo roto? En realidad, no hay ningún semáforo roto, pero el
determinante “el” hace suponer que sí lo hay. A algunos participantes a los que se les pregunto
con esta estructura respondieron afirmativamente. Por lo tanto La forma en que utilizamos las
palabras puede influenciar a la gente y por lo tanto a su forma de responder.

Aunque se advierta de ello a los participantes (diferencia entre información explícita o


implícita) parece que no influye en los resultados. También se ha constatado que a las personas
nos cuesta diferenciar entre implicación y afirmación en los anuncios publicitarios, no obstante si
se nos indica que lo hagamos antes de la presentación y se nos pregunta inmediatamente después,
la tarea parece estar facilitada.

3. Referencia, correferencia y ambigüedad

 Referencia: Aquello a lo que se dirigen las cosas.

5
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

 Correferencia: Dos o más sintagmas nominales con la misma referencia. Ejemplo: “Ganímedes
dibujó una primavera, él soñaba con ella”, aquí los correferentes serían: Ganímedes/él, y por
otra parte, también lo serían primavera y ella.
 Antecedente: El referente de la anáfora.
 Anáfora: Expresión lingüística relacionada exclusivamente con el antecedente. Ejemplo: “Ana
está encantada con su desayuno, a ella le encantan las tostadas”. Aquí el antecedente sería
“Ana” y la anáfora “ella”.

Las personas debemos averiguar a qué hacen referencia las anáforas, cuáles son sus
antecedentes, esto es conocido como Resolución de la anáfora, y se trata de una inferencia hacia
atrás para mantener la cohesión.

3.1 ¿cómo resolvemos la ambigüedad anafórica?


En algunos casos en los que solo hay un antecedente posible, la resolución de la anáfora se
hace de manera directa. Cuando hay más de un antecedente posible decimos que es ambigua, y
utilizamos varias estrategias para resolverla:
 Función Paralela: Preferimos unir las anáforas y los antecedentes que tienen la misma
importancia, en el caso de que un texto no siguiese esa estructura la comprensión sería más
difícil.
 Estrategias de significado: dependen del significado real de la palabra o de su papel en la frase.
Por ejemplo: “Ella esperó”, aquí “ella” expresa un género femenino, por lo que la
relacionaríamos con una chica. Si encontramos un antecedente congruente la relación se hace
de forma automática, si por el contrario es incongruente necesitamos más tiempo y utilizamos
la atención para lograr una coherencia (integración tardía).
 Estrategias de discurso emergente: Dependen de los posibles referentes que encontramos en el
modelo del texto. Normalmente suele ser más fácil localizar los antecedentes que están más
cerca de sus referentes. También podemos experimentar sesgos al prestar mayor valía al
referente que más se mencione en el texto. Muchas veces eliminamos las posibles alternativas
utilizando los conocimientos previos que teníamos (inferencia elaborativa).
Se dice que los elementos que están en el foco de atención explícito están en primer plano, y
han sido mencionados en el texto precedente. Los pronombres que tienen el antecedente en
primer plano (referente a la situación de la que se está hablando) se leen más rápidamente.

Almor propuso que el procesamiento para la resolución de la anáfora viene determinado por la
carga de información esta información debe servir o bien para identificar al antecedente o bien
para aportar información sobre el mismo. Cuando es repetitiva y no aporta aspectos novedosos
resulta difícil de interpretar.

Badecker y Straub afirmaron que todas las claves potenciales contribuyen a la elección del
antecedente adecuado. Proponen un modelo de restricción paralela interactivo en el que hay
múltiples restricciones que influyen sobre la activación de las entidades candidatas. Cuanto más

6
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

conflicto existe, más candidatas hay, y más posibles son cada una de ellas, por lo que más difícil
será la elección del antecedente.

3.2 Accesibilidad
Algunos elementos son más accesibles que otros. Somos más rápidos recuperando el referente
de los antecedentes más accesibles. Dos Hipótesis de la búsqueda de referentes para tener más
accesibilidad:
 Hipótesis de la búsqueda restringida: la búsqueda inicial de referentes está restringida a los
conocimientos comunes que tienen (o creemos que tienen) los participantes de una
conversación. Así no vamos a pensar que alguien cuando mantiene un dialogo se refiere a cosas
que los que le escuchan no tienen en cuenta. Según esta hipótesis las cosas que se encuentran
en el “terreno común” tienen más accesibilidad.
 Hipótesis de la búsqueda sin restringir: La búsqueda de referentes no solo tiene en cuenta los
conocimientos de los participantes. Los resultados de los experimentos apoyan esta hipótesis.

La información o personajes que se mencionan antes en un texto son más accesibles que los
que se mencionan en segundo lugar, esto parece contradecir la lógica de que lo último debería
recordarse mejor, la explicación construccionista de este efecto es que con la primera información
creamos un marco de referencia, y posteriormente vamos integrando en él los diferentes
componentes para crear una representación coherente. Lo reciente sólo es importante cuando se
está desarrollando la estructura, si se nos pregunta inmediatamente después, la proximidad facilita
la tarea, pero si por el contrario transcurre un intervalo temporal, la primera mención es la más
importante y tiene un efecto más duradero en referencia a la accesibilidad.

 El contrato entre lo dado y lo nuevo

Cuando mantenemos una conversación, o escribimos/leemos un texto, se supone de manera


implícita que hay una forma de facilitar la comprensión (contrato entre lo dado y lo nuevo). Hay
una mayor facilidad en la asimilación cuando la frase hace referencia y contiene ideas semejantes
a la antecedente, esto no ocurre cuando hay que inferir la relación.

La Teoría centrante, desarrollada por los modelos de inteligencia artificial, mantiene que cada
expresión de un discurso coherente tiene un único centro que mira hacia atrás que se relaciona con
la expresión anterior, y uno o más centros que miran hacia adelante y que ofrecen vínculos
potenciales con la siguiente expresión.

4. Modelos de representación y procesamiento de textos


De cómo representamos y procesamos los textos. La inteligencia artificial ha influido en los
modelos de compresión.

7
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

4.1 Modelos de redes proposicionales para la representación del texto


Se puede representar el significado de un texto mediante una red en la que las intersecciones
representen el significado de las palabras y las conexiones sus relaciones. Estos modelos, primero
analizan las frases como proposiciones (la menor unidad de conocimiento que se vale por sí sola):

 Tienen un valor de verdad, es decir, podemos decir si es verdadera o falsa.


 Están conectadas entre sí en redes proposicionales. Fig. 9.3

Modelo de Anderson y Bower, denominado HAM, luego pasó a denominarse ACT y después
ACT:
 Incluyen un modelo de activación propagadora de la memoria semántica, combinado
posteriormente con un sistema de producción para ejecutar operaciones de nivel superior.
 Ofrece una buena explicación de la recuperación de hechos en historias breves. Cuántos más
hechos hay asociados con un concepto, más lenta es la recuperación de cualquiera de esos
hechos, lo que se denomina efecto ventilador
 Cuando se presenta un estimulo, la activación se propaga a todos sus asociados.
 Hay un límite a la cantidad de activación total, de forma que cuantos más elementos se
propaga, menos activación puede recibir cada elemento individual.

La teoría de la dependencia conceptual, Schank es otro modelo de red por el que se puede
descomponer el significado en pequeñas unidades atómicas, que están relacionadas entre sí
mediante una red.

 Evaluación de los modelos de red proposicional

 No hay acuerdo sobre los tipos de papeles y conexiones exactas que hay que utilizar.
 Estos modelos muestran como se podría representar le conocimiento, pero tienen poco que
decir sobre cómo o cuándo hacemos inferencias, o cómo se mantienen algunos elementos en
primer plano, cuando extraemos la esencia del texto.
 No son adecuadas por sí solas como un modelo de comprensión, pero constituyen la base de
modelos más complejos

4.2 Gramáticas de historias


Las historias poseen estructuras: principio, parte central y final. Estas estructuras poseen
contextos, temas, argumentos y desenlaces.

Así como las frases, las historias poseen unas reglas sobre la estructura de los sintagmas, por
ejemplo, cuando se posee un contexto es posible crear un episodio.

Según esta gramática las personas suelen dar más importancia a los elementos de la historia
según su posición jerárquica y se pasa más tiempo leyendo las frases que están en la parte alta de
la estructura.

8
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Cuando se cambia el orden de la gramática en las historias (por ejemplo, poniendo antes el
final) la comprensión es más difícil.

 Evaluación de las gramáticas de historias

Un problema de estás es lograr un acuerdo sobre cuáles deberían ser sus elementos, reglas y
elementos terminales. Estás teorías tampoco aportan nada sobre la compresión por lo que
actualmente no son influyentes.

4.3 Teorías basadas en esquemas


Esquema: paquete de conocimientos organizados que nos permite extraer sentido de un nuevo
conocimiento. Proporciona una activación organizada del conocimiento que implica que el todo es
más que la suma de las partes.

Formación del Esquema:


1.- Se eligen las facetas pertinentes del estímulo entrante.
2.- Se abstrae el significado y se resuelven los detalles sintácticos y léxicos.
3.- Se activa el conocimiento anterior para interpretar el significado actual.
4.- Se integra la información en una representación holística.

Proporcionan un medio para organizar el conocimiento, y explica porque recordamos la esencia


del texto, pero no aclara como hacemos inferencias, escogemos un material en primer plano o
porque a veces recordamos la información de forma literal.

 Guiones

El guión es un tipo de esquema especial que representa nuestro conocimiento de acciones


rutinarias y secuencias familiares repetidas. Incluyen información sobre los papeles habituales, los
objetos y la secuencia de los eventos que se encontrarán en la acción. Permiten hacer planes, e
inferencias elaborativas.

Los elementos centrales de guión se comprenden más fácilmente que los que están en la
periferia, aunque los primeros no se hayan mencionado de manera explícita, por ejemplo, en el
guión del restaurante: el concepto de “mesa” viene implícito, sin embargo el “recoger los abrigos”
sería un elemento periférico.

Las distracciones que interrumpen el propósito del guión deben ser más prominentes que los
sucesos rutinarios, y por lo tanto se recuerdan mejor. Los acontecimientos que son irrelevantes
para el propósito (por ejemplo, el color de los zapatos del camarero) presentan una probabilidad de
recuerdo muy baja.

Schank afirma que la memoria es una estructura dinámica impulsada por sus fallos, los guiones
estarían formados por varios paquetes de organización en la memoria (MOP) denominados
escenas, y que están relacionadas con un determinado objetivo, por ejemplo, en el guión de ir al
médico, tendríamos: La escena de entrar, la escena de la sala de espera, la escena de pedir

9
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

información, la escena en la consulta… etc. Estas escenas constituyen el nivel inferior de la


memoria (que estaría formada por varios niveles).

A un nivel superior encontramos los puntos de organización temática (TOP) que se ocupan de
la información abstracta independiente del contexto.

Hay evidencia experimental de esta organización en “paquetes”, por ejemplo, se ha


comprobado que el priming actúa sobre los guiones o esquemas. Se ha constatado el priming
independientemente de que hubiese sido presentada para la historia objetivo u en otra distinta
(siempre que compartiese el esquema o paquete de información), sin embargo esto no ocurría
cuando, en las historias, el paquete de organización se correspondía con diferentes esquemas.

 Evaluación de los enfoques basados en esquemas y guiones

Se les acusa de no ser más que nuevas descripciones de los datos. Ross y Bower sugirieron que
los esquemas tienen una capacidad organizadora que va más allá de sus elementos constituyentes,
pero aún está por demostrar así como los guiones. No está claro como se activan determinados
guiones.

Los esquemas no pueden proporcionar todavía una explicación completa del procesamiento de
textos.

Tienen poco que decir sobre cómo se hacen las inferencias, cómo se resuelven las anáforas o
cuáles son los elementos que se ponen en 1º plano.

4.4 Modelos mentales


Las personas crean modelos de lo que ven, leen u oyen. Si la información está representada en
un modelo análogo al que se presenta, se dice que se corresponde con un modelo mental.

Mientras que los esquemas contienen información abstraída sobre muchos casos particulares,
los modelos mentales construyen un prototipo específico para representar toda la información a
partir de los datos en general.

Estos modelos crean imágenes mentales, que incluyen información sobre la posición en el
espacio de los actores u objetos, la accesibilidad a la memoria depende más de donde estén
ubicados espacialmente, que de las proposiciones hipotéticas que se podrían utilizar para
representar esas posiciones. Por ejemplo, creamos un modelo mental en el que nos imaginamos
muy cerca de una botella, bien, esa botella se recordará más fácilmente que si simplemente se nos
hubiesen informado que la botella estaba cerca pero no la hubiésemos “visto mentalmente”.

No obstante estos modelos no solo aportan información espacial, sino que son
multidimensionales y nos aportan 5 tipos de datos: espacial, causal y temporal sobre los objetivos
de las personas, e información sobre las características de las personas y objetos, cada tipo de
información se codifica de manera independiente, por ejemplo la posición de los objetos se
almacena en la memoria visual y los aspectos causales en la verbal.

10
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Este enfoque de los modelos es una visión constructivista extrema, la forma en que se produce
esta construcción y la naturaleza exacta de las representaciones, no está clara todavía.

 Actualización del modelo

El procesamiento de textos es dinámico, a medida que se incorpora nueva información, se debe


ir actualizando el conocimiento.

Según el modelo del aquí y el ahora, (Zwaan y Madden) la información que es relevante, para
el protagonista del texto, permanece más accesible que la que no lo es.

Según el modelo de la resonancia, (Myers y O’brien) los datos nuevos “resuenan” con toda la
información que hay en la memoria, y no se puede evitar la activación pasiva del material antiguo
aunque no sea relevante, solamente es necesario que esté relacionado de alguna manera.

El tiempo, tanto absoluto como relativo, es un determinante muy importante en la construcción


del modelo mental.

El tiempo relativo puede afectar a la accesibilidad de las entidades, cuanto más largo es el
intervalo entre el ahora y el pasado referido, más tiempo necesitan las personas para acceder a él,
sin embargo este efecto sólo se observa entre eventos consecutivos. Prestamos mayor atención a
las expresiones que nos informan de un tiempo relativo, sobre todo a las que indican un cambio
temporal, las locuciones como: “más tarde” o “dos días después” se conocen como marcadores
de segmentación, y su función es informar de una discontinuidad temporal y/o potencial cambio
de tema. Cuando leemos la primera frase tras un cambio de tema, tardamos más; esto es conocido
como el efecto delimitación, sin embargo este efecto se puede evitar si usamos marcadores de
segmentación.

4.5 El modelo de construcción-integración de Kintsch


Este modelo combina aspectos de los enfoques de redes, de los basados en esquemas y de
modelos mentales.

Construimos una representación de una historia con dos entradas: la propia historia y los
objetivos del lector, estos objetivos están representados por el esquema objetivo, y hacen cosas
como determinar qué es lo relevante o realizar inferencias que no están explícitas en el texto.

La representación se hace a base de diagramas de coherencia y se constituye jerárquicamente, y


tiene tanto una microestructura como una macroestructura:
 Microestructura: red de proposiciones conectadas. Las proposiciones están relacionadas
semánticamente cuando comparten argumentos. Cuando procesamos un texto, trabajamos con
él en ciclos de entrada que se suelen corresponder con una frase, con un tamaño medio de 7
proposiciones.
 Macroestructura: Nivel de descripción superior, los esquemas relevantes se recuperan, en
paralelo, de la memoria a largo plazo. La memoria a largo plazo está constituida por una red

11
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

asociativa. Hay unas Macroreglas que se utilizan para hacer inferencias, para borrar
proposiciones de la microestructura y resumir proposiciones, un ejemplo es cuando estas
Macroreglas se usan para rellenar “huecos en un texto”, en esta fase se utiliza información tipo
guión. En el modelo de situación final se representa al texto desprendido de su individualidad e
insertado en una estructura mayor.

En un procesamiento de texto encontramos la:


 Fase de construcción: se activan los significados de las palabras, se forman las proposiciones y
se hacen las inferencias. Las fases iniciales del procesamiento son de abajo-arriba
 Fase de integración: se integra la red de elementos relacionados en una estructura coherente,
cualquier contradicción se resolverá en esta fase, mediante una activación que se detendrá
cuando se localice una estabilidad consistente.

La información está representada en 4 niveles: 1) la microestructura del texto, 2) la estructura


local, 3) la macroestructura y 4) el modelo de situación que integra la micro y macro estructura
junto con el resultado de las inferencias.

 Evaluación del modelo de contrucción-integración

El modelo de construcción-integración explica muchas evidencias experimentales:


 Cuánto mayor es el nivel de una proposición mayor es la probabilidad de su recuerdo.
 Se confunden las inferencias con el material original porque se codifican juntas.
 Explica las diferencias entre los buenos y malos lectores, así como los efectos de la legibilidad
y la dificultad del texto. Vinpond
 La participación de los microprocesos predice el rendimiento de los lectores menos expertos,
y tienen una mayor influencia en las respuestas a las preguntas, reconocimiento y localización
en el texto.
 La participación de los macroprocesos predice el rendimiento de los lectores más hábiles, y
tienen una mayor influencia en la integración y retención a largo plazo.

Fetcher analizó 8 estrategias para mantener las proposiciones en la MCP:


Estrategias locales Estrategias globales

1.- Proposición más reciente. 1.- Seguir un guión.


2.- Sistema más reciente (primer agente u 2.- Corresponder a las principales categorías de
objeto mencionado en la historia). la historia.
3.- Más reciente con el argumento más 3.- Implicar el objetivo o plan de un personaje.
frecuente. 4.- Partes del tema del discurso más reciente.
4.-Vanguardia (combinación proposición +
reciente y + importante).
No hay una preferencia en el uso de unas u otras estrategias, dependen de varios factores.

12
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Este modelo también predice la calidad de la memoria para el texto y la influencia del
conocimiento previo.

4.6 Comparación de modelos


La gramática de las historias tiene una serie de problemas: resulta difícil ponerse de acuerdo en
cuáles son las categorías terminales y no terminales y cuáles deberían ser las reglas de la
gramática.

Las redes proposicionales y los modelos de esquemas, aunque proporcionan constructores


útiles, no son en sí suficientes como para explicar todos los fenómenos del procesamiento de
textos.

El Modelo de Kintsch es el más detallado y prometedor, y el que más atención a recibido,


combina lo mejor de los enfoques basados en esquemas y los basados en redes para constituir una
teoría bien especificada de los Modelos Mentales.

5. Diferencias individuales en las habilidades de comprensión


Las personas menos habilidosas al procesar un texto hacen menos inferencias cuando procesan
un texto o un discurso, y también son menos capaces de integrar el significado entre distintas
expresiones. La memoria de trabajo está implicada en estas dificultades. Una medida útil para la
capacidad de la memoria de trabajo es el alcance de la lectura, está relacionado con la capacidad
de responder preguntas en los textos, la precisión de la resolución de los pronombres y con
mediciones generales de inteligencia verbal.

Las personas más hábiles en la comprensión son buenas en eliminar material irrelevante, y
discriminar homónimos.

Hay que diferenciar entre Inhibición y Supresión. La supresión es la atenuación de la


activación, mientras que la inhibición es el bloqueo de la activación. La supresión requiere que
material esté activado para que se pueda suprimir.

Hay evidencias de que la gente joven es más eficaz a la hora de relacionar ideas en el texto, así
como muestran una mayor facilidad para eliminar material irrelevante.

5.1 Cómo ser mejor lector


Puede mejorar su capacidad de lectura proporcionándose a usted mismo un marco. Uno de los
mejores métodos es el llamado método PQ4R:
 Pone de relieve la identificación de los puntos clave de lo que está leyendo, y la adopción de un
enfoque activo hacia el material.
 Permite procesar el material con más profundidad y reflexionar sobre sus implicaciones.
 Maximiza la retención memorística.

13
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

El método PQ4R (Anderson, Thomas y Robinson): consiste en: vista previa, preguntar, leer,
reflexionar, recitar y revisar. (Preview, Questions, Read, Reflect, Recite, Review):
 Vista previa: Se debe leer el tema o capítulo, documentándose sobre datos como, los objetivos
y temas centrales.
 Preguntar: Produciendo sus propias preguntas sobre el tema.
 Leer: el material detenidamente, extrayendo las ideas principales.
 Reflexionar: Para reflexionar sobre un tema es conveniente realizar comparaciones, ejemplos e
imágenes mientras se lee. (Inferencias).
 Recitar: Hacer un recuento desde el principio sin ver el libro o las notas de apuntes de forma
oral o escrita.
 Revisar: La revisión debe ser objetiva y acumulativa, tratando de responder a las preguntas
importantes sin consultar el texto, es ventajoso trabajar con un compañero(a) y examinarse uno
a otro.

En resumen, debemos asegurarnos en tener un conocimiento basado en hechos, conceptos e


ideas.

6. La neuropsicología del procesamiento del texto y el discurso


Se sabe mucho menos de la psiconeurología del procesamiento de texto, que de otras áreas del
lenguaje, ya que este procesamiento depende de diversas interacciones y no todas están
relacionadas específicamente con el lenguaje e implican una gran parte del córtex.
 Los individuos con afasia receptiva tienen problemas en la comprensión del significado de las
palabras.
 La gente con trastornos del procesamiento sintáctico tienen problemas para analizar las frases
sintácticamente.
 Algunos pacientes con afasia de wernicke tienen problemas para mantener la coherencia del
discurso.
 Los niños con trastorno específico del lenguaje tienen problemas para comprender los cuentos
y hacer inferencias.
 Las personas que presentan lesiones cerebrales en el hemisferio derecho tienen problemas para
comprender los chistes y hacer inferencias adecuadas.
 Los niños con desorden semántico-pragmático tienen problemas para seguir las conversaciones
ya que no pueden representar el estado mental de los demás.
 La memoria a corto plazo afecta a la capacidad de comprender un texto o discurso.
 La demencia reduce la capacidad de compresión y de mantener una conversación coherente.

14
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Capítulo 10: Producción del lenguaje


1. Introducción
El proceso de producción del habla se clasifica en conceptualización, formulación y
codificación: Fig. 10.1

El proceso de conceptualización, es el nivel más alto, implica determinar lo que se va a decir.


Durante la conceptualización, las personas que hablan conciben una intención y eligen la
información relevante de la memoria, o del entorno, para preparar la construcción de la expresión
pretendida. El producto de la conceptualización es un mensaje preverbal. Levelt diferenció el
proceso de conceptualización en: macroplanificación: implica la elaboración de un objetivo
comunicativo en subobjetivos y la recuperación de la información, y microplanificación: implica
asignar la forma proposicional correcta a los grupos de información y decidir sobre cuestiones
como cuál es el tema o centro de atención.

 Los procesos de formulación implican traducir la representación conceptual a forma


lingüística. La formulación tiene dos componentes:
- Lexicalización: elegir las palabras que queremos decir. En la producción del habla, pasar de
la semántica al sonido.
- Planificación sintáctica: juntar las palabras para hacer la frase.
 Los procesos de ejecución o codificación fonológica implican convertir las palabras en sonidos
en el orden correcto, la velocidad correcta y la prosodia adecuada (entonación, tono, volumen
y ritmo). Es necesario que se produzcan los sonidos en la secuencia correcta y se especifique
cómo hay que mover los músculos del sistema articulatorio.

Las técnicas empleadas en el estudio de la producción han sido las siguientes: Análisis de
transcripciones de cómo eligen los sujetos lo qué y cómo decir, simulaciones informáticas, análisis
de las pausas y de los errores y lapsus linguae. En los últimos años, los estudios experimentales de
nombramiento de imágenes.

2. Errores del habla y qué es lo que nos dicen


Hasta hace poco los estudios se basaban en el análisis de los errores. El habla está llena de
errores como el retruécano que implica cambiar las consonantes iniciales entre palabras, lapsus
freudiano, etc.

El Método para estudiar errores consiste en pedir que hable y cuando cometa un error, parar y
preguntarle que quería decir realmente. El problema es un posible sesgo del observador. Son muy
frecuentes los errores de sustitución de palabras y de sustitución y anticipación de sonidos.

Hay muchos tipos de errores del habla. Se pueden clasificar analizando las unidades
lingüísticas en el error y el mecanismo de error implicado. Fromkin afirmo que la existencia de
errores que implicaban determinada unidad demuestra que estas unidades son psicológicamente
reales. Ver Tabla 10.1

1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

2.1 ¿Qué nos pueden enseñar los errores del habla?

En el habla se puede poner énfasis primario y secundario, el énfasis de las frases (ver Ej.: Pág.
290) no cambia con los errores, lo que sugiere que el énfasis surge independientemente las
palabras utilizadas. Este tipo de error se denomina acomodación al entorno fonológico, si nos
dejamos una “s” se mantiene pese a cambiar el orden de la palabras, se dice que se ha quedado
encallado.

Un modelo completo sobre la producción del habla debería ser capaz de explicar tantos los
errores del habla como los experimentales. Podemos corregir nuestros errores antes, durante o
después de cometerlo. También podemos no darnos cuenta nunca de nuestro error.

Errores de denominación: no surgen por precipitación de lo que se va a decir ni por falta de


comprobación de lo que va a decirse, tal y como muestran los experimentos de movimientos
oculares. Estos experimentos demuestran que se pasa el mismo tiempo mirando al objeto que se va
a nombrar se cometa posteriormente o no el error. En efecto, tras cometer el error si se aprecia
mas tiempo mirando al objeto porque supuestamente va a reparar su error.

2.2 El modelo de Garret de producción del habla

Garret defendió que producimos el habla mediante una serie de niveles de procesamiento discretos
en serie que no interactúan
entre sí. El modelo diferencia Fig. 10.2
dos fases fundamentales en la Conceptualización Nivel del mensaje
Nivel funcional
planificación sintáctica:
Formulación: Nivel posicional
 Nivel funcional: en este Nivel de sonido
Articulación: Instrucciones articulatorias
nivel todavía no está
representado
explícitamente el orden de
las palabras. Se específica y asigna el contenido semántico de las palabras al sujeto y objeto. En
este nivel se eligen las palabras de contenido.
 Nivel posicional: Se ordenan las palabras. En este nivel se eligen las palabras funcionales.

Tabla 13.2 Ejemplo de cómo producimos una expresión basada en la producción del habla (ampliado
con texto)
 Partimos de qué queremos decir (conceptualización o nivel del mensaje).Que decir y como decirlo.
 Especificación semántica abstracta donde se especifican las relaciones funcionales. Y se hace
posteriormente la correspondencia con las funciones sintácticas nivel funcional de la planificación
sintáctica de la formulación).Se establecen los papeles funcionales de las palabras, no sus posiciones
absolutas.
 Se crea un marco sintáctico para la frase planificada.
 Acceso al lexicón para obtener la fonología de las palabras de contenido.
 Las representaciones se insertan en el marco de planificación sintáctica donde se especifican las
posiciones finales. (nivel posicional de la planificación sintáctica de la formulación).
 Especificación fonológica de las palabras funcionales y otros elementos gramaticales para dar la
representación en el nivel del sonido.

2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

2.3 Evidencia a favor del modelo de producción de Garret

Los afijos pueden ser prefijos o sufijos. Los morfemas ligados pueden ser derivativos o
inflexivos. Si se comete el error de mover el morfema libre pero se deja el morfema ligado se
denomina encallamiento del fonema.

Disociación: un proceso es disociable de otros si una lesión lo trastorna dejando a los otros
intactos.

El análisis de los errores sugiere que:


 Cuando hablamos creamos un plan sintáctico o marco para una frase que se compone de
ranuras en las que se insertan las palabras de contenido. Los intercambios de palabras se
producen cuando se ponen las palabras de contenido en una ranura equivocada.
 Solo se intercambian palabras del mismo nivel de procesamiento: palabras funcionales por
funcionales y de contenido por otras de contenido. Esto indica que ambos tipos de palabras
provienen de vocabularios computacionalmente distintos que se procesan en distintos niveles.
 Los errores de intercambio de palabras indican palabras de contenido y están restringidos por
factores sintácticos. los errores de sonidos están restringidos por la distancia.

2.4 Evaluación del modelo de Garret

Explica mucha evidencia empírica sobre los errores del habla, aunque hay facetas en las que su
modelo no es correcto:
 No esta claro que la producción del habla sea un proceso en serie. Hay cierta evidencia de que
se produce al menos, un procesamiento local paralelo puesto que encontramos errores de
combinación de palabras, que se tienen que explicar por el hecho de que se estén recuperando
simultáneamente dos (o más) palabras del lexicón. Lo que sugiere que se están procesando en
paralelo dos mensajes alternativos del nivel de mensaje al nivel fonológico.
 Se observan dos tipos de errores de intrusión cognitiva: 1) El nivel del mensaje puede
entrometerse en la expresión y 2) en los niveles de procesamiento inferiores y errores internos
no planificados.
o Los errores internos no planificados suelen estar facilitados fonológicamente, lo que
significa que es mas probable que se produzcan errores si la palabra objetivo y la intrusión
tienen un sonido parecido.
o Los nombres de los objetos o palabras del entorno no externo también pueden entrometerse
en el habla, produciendo una contaminación del entorno.
o Los errores de sustitución de palabras en el habla están restringidos por la similitud entre la
palabra objetivo y la entrometida.
 Bock concluyó que la disponibilidad de palabras afecta a la planificación sintáctica, lo que de
nuevo sugiere que los niveles de procesamiento interactúan con la planificación sintáctica.
Estas conclusiones sugieren, que los niveles de procesamiento no pueden ser independientes
entre sí, sino que deben interactuar.

3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

 La diferenciación entre palabras de contenido y funcionales se confunde con frecuencia, ya que


las funcionales incluyen algunas de las palabras más comunes del lenguaje, puede que las
diferencias de procesamiento reflejen este hecho en vez de que sean procesadas por sistemas
distintos

3. Planificación sintáctica
Bock y colbs., analizaron los procesos sintácticos, una conclusión importante a la que llegaron
es que el orden de las palabras en el habla está determinado por una serie de factores interactivos
entre sí. Por lo general los experimentos demuestran que el componente de asignación del papel
gramatical de la planificación sintáctica esta controlado por factores semántico-conceptuales mas
que por las propiedades de las palabras como su longitud.

Los estudios de los movimientos oculares indican que la mirada es un indicador fiable de lo
que la gente está pensando y planificando, y de cuándo lo piensa y lo planifica.

3.1 Priming sintáctico


La repetición de la estructura sintáctica se denomina priming estructural o persistencia
sintáctica.

El priming sintáctico es facilitador, se ha observado en la comprensión, producción y


bidireccionalmente, en la comprensión y producción.

Los estudios de priming sintáctico demuestran que los hablantes utilizan determinado orden en
las palabras si la frase prime utilizaba ese orden. La magnitud del priming no depende del tiempo
verbal, número o aspecto del verbo. Se llama refuerzo léxico a la repetición del verbo. Es la
estructura sintáctica subyacente la que importa para lograr el priming sintáctico y no la forma
superficial de las palabras.

El priming estructural puede mantenerse hasta con 10 frases intermedias. El priming sintáctico
también afecta a algo más que la memoria a corto plazo y puede tener cierto componente de
aprendizaje a largo plazo.

Los hablantes tienden a volver a utilizar construcciones sintácticas de otros hablantes; se


encuentra este efecto de imprimación sobre la estructura del sintagma nominal si el sintagma
objetivo y el sintagma de priming están relacionados semánticamente, pero no si tienen una
relación fonológica. (Ej.: Pág. 295 2ª columna). Lo que sugiere que, aunque la codificación
sintáctica se ve afectada por la representación semántica, no se vea afectada por la
retroalimentación proveniente de la representación fonológica.

Se puede dar priming en pacientes con trastornos de la planificación sintáctica en frases


pasivas, pero no en construcciones dativas o de objeto indirecto.

4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Evidencia de que los marcos de las frases son representaciones sintácticas independientes del
significado de lo que codifican.

El Modelo conexionista de producción de frases de Bock explica el priming estructural. En la


producción se usan 2 tipos de información:
 Estadística para predecir lo que obtiene a continuación
 También utiliza información semántica sobre el mensaje que se va a decir y los sucesos
Este modelo tienes dos ventajas:
 Estudios recientes dicen que el significado tiene cierto efecto sobre la imprimación.
 El modelo puede explicar el resultado gracias a la ruta basada en el significado.
Funciones imprimación sintáctica:
 Permite coordinar y alinear la información entre hablantes.
 Se debe a un aprendizaje implícito de cómo usa la gente la sintaxis.

 Cómo abordar las dependencias

Los errores de concordancia de número son bastante comunes en el habla. Vigliocco y Nicol,
la codificación gramatical tiene tres funciones:
 asignación de funciones gramaticales,
 construcción de estructuras jerárquicas sintácticas para reflejarlo
 ordenación de los constituyentes en un orden lineal.

Los errores de concordancia de número no dependen tanto de la proximidad superficial del


sustantivo respecto del verbo como de su proximidad en la estructura sintáctica subyacente.

Según Bock, Eberhard y Cutting, se necesitan dos procesos para garantizar que la
concordancia de número se produce sin contratiempos:
 Marcado: una especificación del número de cosas de las que estamos hablando y
 Adaptación morfológica: evitar el marcado teniendo en cuenta la morfología del sujeto.

La concordancia de número podría implicar distintos procesos para pronombres y verbos: los
verbos están controlados por el número gramatical (un proceso sintáctico) y los pronombres por
lo que se conoce como número nocional.

 ¿Es gradual la planificación sintáctica?

Meyer concluyó que el tiempo que tardaban los participantes en empezar a hablar era más
largo cuando el elemento de distracción estaba relacionado semánticamente con el primer o
segundo sustantivo, pero el distractor sólo tenía un efecto cuando estaba relacionado, facilitando
la iniciación, con el primer sustantivo. Este resultado sugiere que preparamos el significado de
oraciones cortas y elegimos las palabras adecuadas antes de hablar, pero sólo recuperamos el
sonido de la primera palabra.

Smith y Wheeldon hicieron que los participantes describieran imágenes en movimiento,


observando latencias de inicio más largas para las frases de una única oración con un sintagma

5
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

nominal complejo que para frases similares con una oración simple. Esto sugiere que no se
planifica toda la estructura sintáctica de las frases complejas de forma anticipada, Smith y
Wheeldon sugieren que cuando la gente empieza a hablar ha completado el acceso al lemma para
la primera oración de una expresión y ha empezado a procesar el resto.

Schnur, Costa y Caramazza concluyeron que el tiempo para empezar a producir una frase era
más rápido en presencia de un distractor fonológico relacionado. Esto sugiere que la planificación
fonológica tiene bastante anticipación y puede cruzar los límites entre frases. La planificación
sintáctica es gradual, vamos planificando sobre la marcha. Cuando hablamos mantenemos
múltiples componentes de la frase en la memoria, planificamos y hablamos de manera simultánea
y lo hacemos sobre la marcha, más que planificar un fragmento de una vez y sólo producirlo
cuando se ha culminado la planificación.

¿Cómo se relaciona la planificación gradual con el procesamiento sintáctico y semántico?


Solomon y Pearlmutter tras contrastar dos enfoques sobre la planificación de la producción y la
coordinación de múltiples sintagmas, establecen que cuando hablamos mantenemos múltiples
componentes de la frase en la memoria; planificamos y hablamos de manera simultánea.

 Producción de la morfología: formas regulares e irregulares

¿Cómo producimos las formas irregulares? Un modelo es que tenemos una regla para las
versiones regulares y aprendemos de memoria las excepciones irregulares que almacenamos en
nuestro lexicón. Hay evidencia neural de esto, el mecanismo basado en las reglas generales en la
parte delantera del hemisferio izquierdo y un lexicón de almacén de los verbos irregulares en
regiones más posteriores.

4. Lexicalización
La lexicalización es el proceso de producción del habla por el que convertimos los pensamientos
que subyacen a las palabras en sonidos, desde la representación semántica (significado) de la
palabra de contenido a su sonido.

4.1 ¿Cuántas fases hay en la lexicalización?


La lexicación tiene dos etapas: Selección léxica: basada en el significado, en la selección de la
palabra y Codificación fonológica.

Levelt, teoría de los lemmas, cada palabra está representada por un lemma. El lemma está
especificado sintáctica y semánticamente, pero no fonológicamente:
 La primera fase de especificación en forma abstracta es la selección del lemma
 La segunda fase de especificación de forma fonológica concreta de la palabra se conoce como
selección de la forma fonológica o lexema, que es la forma fonológica de la palabra en un
formato en el que está representada la fonología. Fig. 10.3

6
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

El acceso a la sintaxis léxica se produce antes de que se produzca el acceso a la forma


fonológica.

 Evidencia de los errores del habla

Fay y Cutler crean un modelo de cómo producimos palabras y como hacemos sustituciones.
Diferencian 2 tipos de errores del habla de sustitución de toda la palabra:
 Sustituciones semánticas
 Sustituciones basadas en la forma o malapropismos.

Estos dos tipos de errores sugieren que los procesos de producción y comprensión usan el
mismo lexicón pero en sentidos opuestos.

Los elementos del lexicón se ordenan fonológicamente, de modo que las palabras que tienen un
sonido similar están próximas.

Durante la producción se accede al lexicón atravesando una red semántica o árbol de decisión:
 Los errores semánticos se producen cuando se está recorriendo el árbol de decisión,
 Los errores fonológicos se producen cuando se elige la forma fonológica final.

La idea es que las sustituciones fonológicas y semánticas se producen como resultado de los
errores en las distintas partes del proceso de recuperación de la palabra.

Butterworth explico la recuperación de las palabras en dos fases, primero una entrada en el
lexicón semántico que ofrece un indicador a una entrada en un lexicón fonológico separado.

Según Fay y Cutler, los procesos semánticos y fonológicos son independientes.

Los errores de sustitución de palabras aunque respaldan por lo general al modelo de dos fases,
no dicen nada sobre la existencia de lemmas amodales especificados sintácticamente.

 Evidencia experimental

La evidencia experimental de la división del acceso al lexicón en dos fases proviene de:
 Descripción de escenas sencillas.
 Investigación sobre priming por repetición en la lexicalización: el priming por repetición se
produce por el refuerzo de las conexiones entre los lemmas y las formas fonológicas.

Kempen y Huijbers afirmaron que la gente no empieza a hablar hasta que se ha identificado
totalmente el contenido que se va a expresar, no producimos la primera palabra hasta que no
hemos accedido a todos los lemmas.

Tanto las formas fonológicas como el significado tienen que estar activados para que se
produzca priming por repetición en la producción.

7
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

La evidencia a favor de las dos fases, proviene de una fase de activación semántica temprana en
la selección léxica, y de una fase posterior de la activación fonológica, proviene de estudios de
interferencias entre palabras e imágenes.

Paradigma de la interferencia semántica: los sujetos deben nombrar imágenes en las que se
superponen palabras de distracción que tienen que ignorar; los tiempos de nombramiento son mas
largos cuando existe una relación entre imagen y palabra.

 Evidencia de la neurociencia

Indefrey y Levelt, al producir palabras se activan secuencialmente distintas regiones del


cerebro. La selección conceptual se asocia a la activación de la parte intermedia de la
circunvolución temporal media izquierda, el acceso al código fonológico está asociado al área de
Wernicke y la codificación fonológica de preparación de sílabas, sonidos y prosodia se asocia con
la activación del área de Broca.

El proceso visual y conceptual dura 175 ms, el lemma que mejor se ajusta se recupera entre
150-225 ms, las representaciones fonológicas se recuperan entre 250-330 ms y los detalles de los
sonidos de la palabra se producen a los 450 ms.

 Evidencia del fenómeno de tener algo en la punta de la lengua

El estado de tener algo en la punta de la lengua (TPL) es una dificultad temporal observada en
el acceso léxico.

Las otras palabras que vienen a la cabeza se llaman palabras intrusas.

¿Qué nos indica el fenómeno TPL? Que se puede ser consciente del significado de una
palabra sin serlo de sus sonidos constituyentes y, además, que las representaciones fonológicas no
son entidades unitarias.

Dos hipótesis del TPL:


 La hipótesis de la activación parcial en la que los elementos-objetivo no están accesibles
porque tienen una representación débil en el sistema, conexiones débiles entre sistema
semántico y fonológico.
La causa del fenómeno es el déficit en la transmisión de la activación del nivel semántico al
fonológico. La evidencia de esta hipótesis se sustenta en que los bilingües sufren más el
fenómeno.
 La hipótesis del bloqueo o interferencia en que el elemento objetivo está suprimido por un
competidor más fuerte. La tarea de bloqueo fonológico nos deja ver que se produce el
fenómeno cuando hay una vecina fonológica, no semántica.
Harley y Bown demostraron que es más probable que se produzca el fenómeno de TLP:
- Con las palabras de baja frecuencia con pocos vecinos fonológicos cercanos.
- Mejor explicado y mas convincente desde la hipótesis de la activación parcial.

8
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

- El TLP se explica como el éxito de la primera fase de la lexicalización y el fracaso de la


segunda fase. (Ej.: de ser capaz de dar detalles del género gramatical de palabras que no podía
producir). La información sintáctica y la fonológica son independientes.

 Problemas del modelo de lemmas

Poco acuerdo de la existencia de lemmas como nivel de representaciones amodales


sintácticamente especificadas que median entre los conceptos y formas fonológicas.

La producción de homófonas, no es una evidencia a favor clara del modelo de dos fases.

En resumen, aunque hay discrepancias sobre la naturaleza de las dos fases, y hasta que punto
hay lemmas amodales sintácticamente especificados, Hay un consenso de que la recuperación
léxica se produce en 2 fases: fase semántico-léxica seguida de una léxico-fonológica.

4.2 ¿Es interactiva la lexicalización?

¿Cómo se relacionan entre sí las dos fases de la lexicalización? La interacción implica la


influencia de un nivel sobre el otro. Comprende dos ideas:
 Discreción temporal ¿son temporalmente discretas las fases o se solapan? El argumento por el
que los niveles de procesamiento se solapan se conoce como procesamiento en cascada. Si se
solapan las fases, puede haber muchos candidatos activos en la segunda fase y la activación
caerá en cascada hasta el nivel fonológico. El resultado es que, según la hipótesis del
solapamiento, tenemos filtraciones entre niveles, de forma que se activan fonológicamente los
lemas no-objetivo.
 Flujo de información inverso parte de que la información de un nivel inferior se introduce en el
nivel anterior. El solapamiento y el flujo de la información inverso son facetas distintas de la
interacción. Los errores del habla evidencian un solapamiento o interacción entre las dos fases.

 El curso temporal de la lexicalización: ¿procesamiento discreto o en cascada?

¿Cómo se relacionan las dos fases? ¿Son independientes o se solapan? ¿Empieza la segunda
fase de especificación fonológica cuando se ha culminado la primera de recuperación del lemma o
empieza cuando sigue activa la primera fase?
 600ms tardamos en empezar a decir una palabra cuando vemos un objeto.
 La evidencia proveniente de los errores del habla establece que si se da solapamiento entre
ambas fases.

Los Modelos independientes o modulares establecen que antes de decir la palabra oveja solo
queda activo un elemento antes de empezar a acceder a las formas fonológicas.

Los Modelos interactivos o de solapamiento establecen que antes de decir la palabra oveja
pueden estar activos cualquier número de elementos (así, cuando queremos decir oveja es posible
que este activa la forma fonológica de cabra).

9
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

El experimento de Levelt sobre el efecto de imprimación mediada demuestra que no se solapan


ni interactúan. Según el modelo interactivo si debería producirse la imprimación mediada, y según
el modelo independiente no debería producirse. Peterson y Savoy si encuentran imprimación
mediada.

En resumen, se demuestra que la selección de la palabra precede a la codificación fonológica y


que si hay solapamiento. Poca evidencia se ha encontrado totalmente a favor del modelo de
independencia de las fases.

Solo el modelo en cascada predice claramente el resultado encontrado de que los tiempos de
nombramiento son más breves para las palabras cognadas entre las personas bilingües. Según el
modelo en cascada, la activación cae en cascada desde los nodos léxicos no seleccionados (los
cognados) hasta sus segmentos fonológicos, así como desde los nodos-objetivo. El resultado de
esa activación adicional de los segmentos fonológicos es que se acelera el nombramiento.

 ¿Existe una retroalimentación en la lexicalización?

Los modelos basados en los datos sobre errores consideran la producción del habla como un
proceso interactivo que implica retroalimentación, ya que los errores del habla dan evidencia de
restricciones múltiples, como un sesgo léxico y efectos de la similitud:
 Sesgo de la familiaridad: tendencia a que los errores produzcan secuencias de fonemas
familiares.
 Sesgo léxico: tendencia de que los errores del habla al nivel de los sonidos, como los
retruécanos, den lugar a una palabra más que a una palabra inexistente con más frecuencia de la
que se produciría por pura suerte. Dell y Reich demostraron la interacción entre el proceso
léxico y fonológico.
 Efectos de similitud: cuando el error es más parecido a la palabra objetivo según determinado
criterio de lo que seria por pura suerte.
 En las Sustituciones mezcladas: la intrusión está relacionada tanto semánticamente como
fonológicamente con la palabra objetivo.

 Flujo de información horizontal

En el flujo de información vertical, como hemos visto: la evidencia empírica respalda el


modelo en cascada; las palabras están activas simultáneamente en múltiples niveles de
información. La producción del habla es un proceso incremental; es decir, vamos planificando a
medida que vamos hablando.

El flujo de información horizontal es que unas palabras afectan a otras de la frase. Este flujo
horizontal nos permite escribir con humor, lirismo, chistes o poesía.

4.3 El modelo de lexicalización de activación interactiva


Los teóricos creen que se puede describir la lexicalización mediante modelos de propagación
de la activación.

10
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

 El modelo interactivo de producción del habla de Dell (1986)

Dell propuso un modelo interactivo de lexicalización basado en el mecanismo de propagación


de la activación. Se introducen los elementos en marcos en cada nivel de procesamiento. Las
unidades de procesamiento especifican las propiedades sintácticas, morfológicas y fonológicas de
las palabras. Desde el nivel frase, la activación se propaga hacia abajo donde se codifican los
elementos en función de sus propiedades sintácticas hasta un nivel morfológico y un nivel
fonológico. En cada nivel se introduce el elemento de mayor activación en la ranura activa en el
marco.

El modelo explica los errores del habla, ya que puede haber activas varias unidades en cada
nivel en un momento y si hay suficiente ruido aleatorio, un elemento puede ser sustituido por
otro. Hay realimentación entre niveles, la realimentación entre el léxico y el nivel fonológico da
lugar al sesgo léxico y a restricciones de similitud.

4.4 Evaluación del trabajo sobre lexicalización


Existe un consenso de que la lexicalización en la producción del habla se produce en dos fases,
también de que la información cae en cascada entre niveles y los datos son consistentes con los
modelos en cascada no discretos.

5. Codificación fonológica
El principal problema de la codificación fonológica consiste en garantizar que los sonidos de
las palabras salen en el orden y prosodia adecuada. Dos explicaciones:
 La codificación fonológica se basa en la distinción entre estructura y contenido. Las
estructuras lingüísticas crean marcos con ranuras y luego recuperamos el contenido para
rellenar estas ranuras. En el mecanismo de escáner-copiadora se recuperan los segmentos de
sonidos por separado de este marco y se insertan en las ranuras correspondientes en un marco
silábico.
 La lista competitiva es un modelo conexionista donde los elementos a introducir forman una
cola ordenada controlada por los procesos de activación e inhibición. Dos unidades de control,
una de iniciación y otra al final. Los sonidos del principio de una palabra tienen fuertes
conexiones con la unidad que controla el inicio del habla, y los sonidos del final la tienen con
la unidad que controla el final de la secuencia.

Dell utilizó una red conexionista llamada red recurrente para asociar palabras con sus
representaciones fonológicas en una secuencia sin representación explícita de la distinción de
estructura y contenido con el objetivo de aprender secuencias. Esto lo consigue mediante una capa
adicional de unidades de contexto que almacenan información de los estados anteriores de la red.

5.1 Codificación fonológica en el modelo de lemmas y el papel de las sílabas en la


codificación fonológica

11
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Levelt et al idearon el modelo de codificación fonológica WEAVER++, un modelo discreto en


dos fases sin interacción entre niveles: Fig. 10.9

Los conceptos eligen a los lemmas potenciando el nivel de activación del concepto que domina
al lemma. La activación se propaga por la red con la restricción de no permitir un proceso en
cascada, de modo que la activación de la correspondiente palabra solo empieza cuando se ha
seleccionado un único lemma.

Se recupera un código fonológico para cada lemma. Se unen luego los morfemas para formar
silabas (silabificacion). Las silabas no se almacenan en el lexicón, sino que se crean sobre la
marcha.

La composición de las silabas, forman el último paso de la codificación, la codificación


fonética, donde se forman los detalles de los sonidos, y actúan como elemento de entrada del
aparato circulatorio.

Silabario mental: almacén de gestos silábicos muy practicados que impulsan la articulación; a
medida que se produce la silibificacion, se recuperan los correspondientes patrones silábicos para
ser ejecutados.

5.2 ¿Con qué antelación planificamos?


Tenemos que preparar la palabra fonológica antes de empezar a hablar. La palabra fonológica
es la unidad prosódica más pequeña del habla: es una sílaba acentuada fuerte y cualesquiera otras
sílabas asociadas no acentuadas. El tiempo en preparar una frase depende del número de palabras
fonológicas en la frase.

6. El análisis de vacilaciones
El análisis de las vacilaciones se ocupa de la distribución de las pausas u otras faltas de la
fluidez del habla. Una pausa sin rellenar es un momento de silencio. Una vacilación rellenada es
una pausa rellena con sonidos como “eh”, una repetición, un falso comienzo o una observación
como “vale o ¿sabes? Fig. 10.10

6.1 Pausas antes de palabras individuales


Goldman-Eisler concluyó que se producen vacíos entre giros de la conversación, lo que se
conoce como pausas de cambio:
 Las pausas son de mayor duración ante palabras menos predecibles.
 Se utilizan gestos pertinentes durante las vacilaciones.
 De los errores de recuperación podemos deducir un modelo en dos fases del acceso léxico en
la producción, primero una especificación semántica de lo que queremos decir y luego una
recuperación fonológica.

12
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Pues bien, parece que la pausa refleja el éxito en la primera fase y un retraso en la segunda
fase. Esto es similar al efecto de TPL, el cual es un ejemplo extremo de pausas de
microplanificación.

6.2 Pausas y planificación de la frase


Goldman-Eisler afirmó que en algunas pausas planificamos el contenido de lo que estamos a
punto de decir. Las pausas adicionales sirven para hacer una planificación adicional. La
planificación no abarca frases enteras porque los tiempos de reacción al tono no eran más largos
al final de las frases, lo que sugiere que la gente no está planificando la frase siguiente al final de
la anterior.

¿Qué se planifica exactamente durante las pausas? Fundamentalmente la semántica más que la
sintáctica. Goldman afirmó que el tiempo de las pausas no se ve afectado por la complejidad
sintáctica, por lo que concluye que la planificación es fundamentalmente semántica más que
sintáctica. Esta conclusión es actualmente controvertida.

Henderson, Goldman et al propusieron que en la planificación del habla hay ciclos cognitivos:
fases de habla muy vacilantes que se alternaban con fases de un habla más fluida. Se cree que la
mayoría de la planificación se produce durante la fase vacilante, y en la fase fluida nos limitamos
a decir lo que acabamos de planificar en la anterior fase vacilante.

Butterworth defendió que un ciclo corresponde a una idea. Las personas miran menos a sus
oyentes en la fase de planificación, manteniendo mayor contacto visual en la fase de ejecución. Se
tiende a utilizar gestos más tónicos (para dar énfasis) en la fase vacilante y gestos más icónicos
(relacionado con el objeto asociado) en la fase fluida.

6.3 Evaluación de la investigación sobre falta de fluidez


Algunas faltas de fluidez tienen otra función que la de indicar dificultad temporal del
procesamiento. A veces, se usan para facilitar la tarea del oyente (llamadas pausas de disyuntiva,
que marcan las grandes delimitaciones sintácticas).

Good et al proporcionan evidencia experimental de que las vacilaciones pueden ser utilizadas
para lograr cierta meta interactiva, además de reflejar la carga cognitiva del hablante, pueden
servir para lograr cierta meta interactiva.

Los distintos tipos de pausas podrían tener distinta causa: Las micropausas (pausas <250ms)
reflejan dificultades de la articulación, aunque se ha puesto en duda esta perspectiva.

Aunque los primeros trabajos demostraron que las pausas reflejan una planificación semántica,
esta idea esta muy lejos de estar clara. Es probable que sea reflejo de dificultades en la
microplanificación y en la macroplanificación.

13
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Puede darse conflicto entre macroplanificacion y microplanificacion: Si pasamos mucho


tiempo en la macroplanificación habrá menos recursos para la microplanificación, lo que genera
un incremento de pausas y reducción de fluidez.

7. La neuropsicología de la producción del habla

7.1 Afasia
Las vías de los procesos implicados al decir una palabra que se ha oído presentan una
activación primero en el área de Wernicke (lóbulo temporal posterior), que pasa a través del
fascículo arqueado hasta el área de Broca (lóbulo frontal).

 La afasia de broca

Afasia de Broca: habla no fluida, vacilante, lenta, poca entonación o disprosodia y dificultad
de articular o apraxia. También incapacidad de ordenar las palabras y dificultad con la secuencia
de las unidades del lenguaje.

 La afasia de Wernicke

Afasia de Wernicke: frases bien formadas, con gran número de elementos y prosodia normal pero
la comprensión es mala y hay dificultad en encontrar los contenidos fundamentales, con muchas
sustituciones y palabras inventadas.

 Comparación entre las afasias de Broca y Wernicke

Fig. 10.13
Afasia de Broca Afasia de Wernicke

 Comprensión del habla relativamente buena  Sordera pura de las palabras, dificultades en la
 Anomia, agramatismo, errores de pronunciación. comprensión de las palabras.
 Lesión del área de Broca en el lóbulo frontal  Habla fluida pero sin sentido
izquierdo y en las partes contiguas del lóbulo  Lesión del área de Wernicke, dentro del lóbulo
frontal y la sustancia blanca subcortical. temporal izquierdo

En la actualidad se considera más útil la distinción entre afasia fluida, habla fluida pero a veces
sin sentido, y entre afasia no fluida. O distinguir entre los que pueden comprender y los que no.

Todos los pacientes (incluso los afásicos agramaticales de Broca) tienen


dificultad para encontrar palabras (anomia)

7.2 Agramatismo
Agramatismo: es un tipo de afasia que se caracteriza por un trastorno del procesamiento
sintáctico. Tres componentes:
 Déficit de construcción de las frases: capacidad disminuida de producir palabras en un orden
correcto.
 Algunas partes del habla se preservan mejor que otras:

14
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

o Mejor preservadas: las palabras de contenido


o Peor preservadas: las palabras funcionales y terminación de las palabras
 Algunas partes del habla se preservan mejor que otras y dificultad para comprender frases
sintácticamente complejas.

Por lo tanto, si un déficit es significativo, deberíamos encontrar que el déficit de construcción


de frases, la pérdida de elementos gramaticales y el déficit de comprensión sintáctica deberían
producirse siempre juntos.

 Explicaciones del agramatismo

 Dificultad de articulación. Es posible que dejen de lado las palabras funcionales debido a la
dificultad de articulación.
o Explicación no convincente puesto que en el agramatismo también hay déficit de construcción
de frases y de comprensión sintáctica en la mayoría de casos.
 Teorías que buscan una única causa a los 3 componentes.

Una sugerencia es que el Área de Broca como responsable del procesamiento de las palabras
funcionales y otros elementos gramaticales.

Hay diferencias entre las palabras funcionales y de contenido: nunca se producen sustituciones
intercambiándose entre sí y se presentan mediante diferentes rutinas de procesamiento.

Según la Hipótesis de un único déficit fonológico: Omiten elementos que son componentes no
acentuados de las palabras fonológicas. Por ello las palabras de contenido quedan preservadas,
y se pierden los afijos y las palabras funcionales. Problema de la hipótesis: no explica el déficit
de construcción de la frase ni los patrones de disociación encontrado. Sólo explica la perdida de
elementos gramaticales.

Además, es debatible la idea de que las palabras funcionales y de contenido se procesan de manera
diferente:
 Según Stemberger: la causa del agramatismo es la versión extrema de los errores del habla
normal. En los sujetos agramaticales hay un aumento del ruido aleatorio y del umbral necesario
para que se produzca el acceso.
 Según Harley: la causa del agramatismo implica marcos gramaticales mal construidos y que se
pueden explicar por excesivas sustituciones.

Estas dos explicaciones no explican todas las características del agramatismo.

Schwartz relacionó el agramatismo con el Modelo de Garret:


 No se consigue ningún marco de la frase y no se puede recuperar ningún elemento gramatical.
 No explica el déficit de comprensión, que según esta hipótesis, surgiría de una lesión de otros
sistemas.

15
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

7.3 Afasia de la jerga o jergafasia


Afasia de la jerga: tipo de afasia fluida extrema en la que la sintaxis está intacta pero el habla está
marcada por gran dificultad para encontrar las palabras. Se enfadan cuando la gente no
comprende lo que dice. La dificultad de encontrar palabras está marcada por las sustituciones de
contenido o parafasias y palabras inventadas o neologismos.

7.4 Anomia
Anomia: es un trastorno de recuperación de los nombres de los objetos. Todos los tipos de
afasia tienen cierto grado de anomia. El modelo de lexicalización en dos fases sugiere que hay dos
cosas que pueden salir mal en una tarea de denominación:

 Anomia léxico-semántica

La Anomia léxico-semántica implica problema al recuperar el lemma en la especificación


semántica, supone una incapacidad para usar la representación semántica para elegir el lemma
pertinente. Ej.: a veces se ven personas que pueden nombrar a los miembros de una categoría
semántica (x ejemplo objetos inanimados) mejor que a los de otros (objetos animados).

 Anomia fonológica

La anomia fonológica implica problema al recuperar la forma fonológica de una palabra tras
haber accedido a su lemma. Problema similar al fenómeno de TPL.

Evaluación de la investigación sobre anomia

La existencia de dos tipos de anomia respalda la idea del procesamiento semántico y el


fonológico en la producción del habla. La mejor evidencia de 2 fases en la lexicalización viene del
estudio de pacientes anómicos en idiomas que usan el género.

7.5 Modelos conexionistas de la afasia


Las modelos conexionistas se ha centrado en las dificultades de la recuperación léxica. Harley
y MacAndrew contrastaron 4 hipótesis:
 Martin y Saffran propusieron que un incremento patológico del ritmo de decaimiento provoca
más parafasias y neologismos.
 Harley afirmó que la pérdida de conexiones inhibidoras dentro de un mismo nivel provocaría
un procesamiento trastornado; si había unidades léxicas implicadas, se producirían
neologismos y parafasias, mientras que si se perdían las conexiones entre las unidades
sintácticas, se producían parapragmatismos.
 Stemberg afirmó que los errores normales del habla se deben al ruido de una red de activación
interactiva: es posible que los errores afásicos se deban a un excesivo ruido aleatorio.
 Miller y Ellis afirmaron que los neologismos se deben al debilitamiento de las conexiones
entre unidades semánticas y léxicas.

16
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Harley y MacAndrew concluyeron que las conexiones semántico-léxicas debilitadas se ajustan


mejor a los datos de los errores: el debilitamiento del valor del parámetro que gobierna el ritmo de
propagación de la activación de las unidades semánticas a las léxicas suele dar lugar a que los
elementos léxicos competitivos con la palabra objetivo tengan un nivel de activación elevado
análogo al de la palabra objetivo.

En la actualidad, el modelo computacional de afasia más exhaustivo se basa en el modelo de


producción del habla de Dell. Se afirmo que los errores semánticos de la repetición de palabras y
las parafrasias formales en la producción se deben a un incremento patológico de la tasa a la que
decae la activación de las unidades.

En el nombramiento, las parafasias formales se producen porque, cuando se activa la unidad


léxica correspondiente a la palabra objetivo, la activación se propaga a las unidades
fonológicamente pertinentes.

Las conexiones de retroalimentación del nivel fonológico al léxico garantizan que se activen
las unidades léxicas correspondientes a las palabras que son fonológicamente parecidas a la
palabra-objetivo. Los errores de repetición se explican con un mecanismo análogo pero inverso.

Los trabajos de modelización sugieren que el rendimiento de los pacientes con un acceso
léxico trastornado se explica mejor con los trastornos de dos parámetros: la ponderación
semántica y la ponderación fonológica.

No hay acuerdo sobre lo que se tiene que ajustar al modelo computacional a los datos para que
sea un buen modelo.

7.6 Evaluación de la contribución de la investigación sobre afasia a la comprensión


del procesamiento normal

A primera vista, existe una doble disociación entre encontrar una palabra y producir formas
gramaticales. Ambas procesos se localizan en distintas partes del cerebro:
 Los pacientes con lesiones en el área de Broca: tienen dificultad para producir formas
gramaticales pero localización de las palabras bien conservadas, presentan una tendencia a
omitir cosas.
 Los pacientes con lesiones en Wernicke: Tienen dificultad para encontrar palabras pero sintaxis
relativamente bien conservadas, presentan tendencia a sustituir cosas.

Así según el modelo de Garret, existe la doble disociación entre la planificación sintáctica y
recuperación de elementos gramaticales por un lado, y la recuperación de palabras de contenido
por otro.

Aunque la producción sintáctica y déficit de comprensión suelen ir asociados, hay procesos


sintácticos distintivos en la producción y en la comprensión.

17
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Hay casos de sujetos con agramatismo sin trastornos de comprensión, y otros con déficit de
comprensión que no tienen trastornos en la producción.

Según Dick, la gramática no se localiza solo en el área de Broca, sino que usa muchas regiones.

7.7 Otros tipos de afasia


Afasia global: afectada el habla espontánea, el nombramiento y la repetición.

Afasia cruzada: trastornos del lenguaje por lesión del hemisferio derecho.

Afasia de conducción: la repetición está trastornada pero no la producción y comprensión. Dos


tipos:
 Afasia de conducción de reproducción, donde la repetición es mala por una mala codificación
fonológica.
 Afasia de la conducción de la memoria a corto plazo donde la repetición es mala por el trastorno
en la memoria a corto plazo de los elementos de la entrada auditiva.

Afasia transcortical: perturbación del lenguaje tras lesión cerebral con repetición buena pero mal
rendimiento en otras facetas de lenguaje. Hay dos tipos:
 La afasia transcortical sensorial: en ella esta trastornada la comprensión, la producción es
fluida y puede incluso incluir la jerga, pero la repetición es relativamente buena.
 En la afasia transcortical motora: la comprensión y la repetición son muy buenas, pero hay
poca producción de un habla espontánea.

8. Escritura y agrafia
El lenguaje escrito está más integrado y es más complejo sintácticamente que el hablado.
Tomamos más tiempo para escribir y podemos planificar y editar lo producido con más facilidad.

Hayes y Flower, tres fases en la escritura:


 Planificación: se definen los objetivos, se generan ideas y se recupera la información de la
memoria a largo plazo organizándose un plan de lo que se va a escribir.
Esta fase es la que mejor diferencia a los buenos de los malos escritores. Los buenos escritores,
manipulan la información, no solo la transmiten, son más flexibles al cambio y tienen más
habilidad para construir planes adecuados. Los escritores nobeles cometen un gran error: el
confundir la generación y planificación de ideas con su traducción a un formato de texto, de
forma que las restricciones del texto actúan en una fase demasiado temprana.

 Traducción: se produce el lenguaje hablado a partir de la representación en la memoria, se lleva


el plan a frases.
 Revisión: se lee y edita lo escrito.
En las otras dos fases, los buenos escritores generan frases más largas y crean textos seductores

18
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

8.1 La neuropsicología de la escritura


La teoría de la mediación fónica de Luria afirmaba que al escribir primero recuperamos los
sonidos de las palabras y después producimos la palabra escrita. Los datos neuropsicológicos
dicen que es falso, ya que hay pacientes que pueden deletrear palabras que no pueden pronunciar,
luego no parece necesario tener un discurso interno para escribir.

Disgrafía: problema de escritura debido a lesión cerebral. Dos tipos:


 Disgrafía fonológica: puede deletrear palabras, pero no palabras inexistentes.
 Disgrafía superficial: puede deletrear palabras inexistentes, pero regulariza las irregulares.

19
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Capítulo 11: ¿Cómo utilizamos el lenguaje?


1. Introducción
El estudio de la pragmática se fija en cómo nos ocupamos de los aspectos del lenguaje que
van más allá del simple significado de lo que oímos y decimos (ej. haciendo inferencias). Se ocupa
de cómo hacemos las cosas con el lenguaje y cómo averiguamos el propósito de lo que nos dicen.

El estudio de la pragmática se puede dividir en dos temas interrelacionados:


 El primero es cómo vamos, como oyentes y hablantes, más allá del significado literal de lo que
oímos y decimos, para hacer y extraer inferencias. Ej. Si digo “¿Me puedes pasar la sal?”,
normalmente no estoy preguntando si mi interlocutor tiene realmente la habilidad de pasarme la sal; es una
forma indirecta, cortés de decir “pásame la sal”.
Intentamos alcanzar determinados objetivos cuando hablamos. Clark llama capas a este tipo de
comportamiento. En la práctica, el lenguaje tiene múltiples capas de significado.
 El segundo tema es cómo mantenemos conversaciones. Para lograrlo, tenemos que colaborar.
Ej. Es evidente que no queremos hablar todos a la vez. ¿Cómo lo evitamos? ¿Tienen las conversaciones una
estructura que nos ayuda a evitarlo?
Un tema central aquí es que la gente siempre está haciendo inferencias a todos los niveles a partir
de lo que oye. Nuestras expresiones interactúan con el contexto en que se dicen para obtener todo
su significado.

2. Inferencias en la conversación
Las inferencias desempeñan un papel importante en la comprensión del texto, y son igual de
importante en la conversación. Hacemos inferencias, no sólo de lo que dice la gente, sino también
de cómo lo dice, e incluso de lo que no dice. En la conversación tenemos un recurso adicional:
podemos preguntar a la otra persona, ya que la conversación es un acto cooperativo.

2.1 Actos de habla: Austin y Searle

Cuando hablamos tenemos objetivos, y la tarea del oyente consiste en descubrir esos objetivos.
Según Austin y Searle cada vez que hablamos realizamos el acto de habla: intentamos hacer cosas
con nuestras expresiones.

Austin partió del objetivo de explorar las frases que incluían verbos de realización. Estos
verbos realizan un acto por su propia expresión. Ej. “Os declaro marido y mujer” (siempre que las
circunstancias sean adecuadas, como el tener la autoridad para hacerlo; estas circunstancias se
conocen como condiciones satisfactorias). Austin afirmó que todas las frases son de realización,
aunque la mayoría lo sea de forma indirecta (Ej. “Mi casa está adosada”  “Por la presente
declaro mi casa adosada”). Austin diferenció 3 fuerzas que posee toda frase: Fig. 11.1
 Fuerza locutiva: El significado literal de la expresión
 Fuerza ilocutiva: Lo que el hablante está intentando conseguir con lo que dice.
 Fuerza perlocutiva: El efecto que tiene realmente la expresión sobre las acciones y creencias
del oyente
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Según Searle, cada acto del habla pertenece a una de cinco categorías: Fig. 11.2
 Representativo: La persona que habla está afirmando el hecho y transmite su creencia de que la
afirmación es verdadera.
 Directivo: El hablante está intentando conseguir que el oyente haga algo.
 Comprometedores: El hablante se compromete a un curso de acción futuro.
 Expresivo: El hablante desea revelar su estado psicológico.
 Declarativo: El hablante da lugar a una nueva situación.

Son problemas en este campo la falta de acuerdo y la falta de criterios detallados.

 Los actos del habla directos son expresiones directas en los que la intención del hablante queda
revelada en sus palabras.
 Los actos del habla indirectos requieren cierto trabajo por parte del oyente. El hecho de que las
expresiones sean indirectas desempeña una función: es un mecanismo importante para
transmitir cortesía en una conversación.

Los significados de los actos de hablar indirectos no siempre resultan evidentes. Searle propuso
un mecanismo de dos fases para computar el significado pretendido: El oyente prueba primero el
sentido literal para ver si tiene sentido en el contexto, y sólo si no lo tiene hace el trabajo adicional
de encontrar un significado no literal. Aun así no hay duda de que el significado no literal se
entiende tan deprisa, o incluso más, que el significado literal.

2.2 Como tener una conversación: las máximas de Grice

Principio cooperativo (Grice) En las conversaciones, los hablantes y los oyentes cooperan para
que la conversación sea significativa y tenga sentido. Para cumplirlo tiene que hacer su
contribución a la conversación cuando se requiere, tal y como se requiere. Esto se logra utilizando
cuatro máximas conversacionales: Fig. 11.3
 Máxima de la cantidad: Hacer que las contribuciones sean todo lo informativas que se requiere,
pero no más.
 Máxima de la calidad: Hacer que la contribución sea verdadera.
 Máxima de la relevancia: Hacer que la contribución sea relevante para el objetivo de la
conversación.
 Máxima de la forma: Hacer que la contribución sea clara.

Sperber y Wilson afirmaron que la fundamental es la relevancia, y que las demás se pueden
deducir de ésta. Sin embargo, normalmente intentamos extraer un sentido de las conversaciones
que parecen desviarse de estas máximas. Suponemos que, en general, el hablante está cumpliendo
el principio comparativo. Para ello, hacemos una inferencia conocida como, implicatura
conversacional (Ej. Pág. 340).

Brennan y Clark propusieron que, en las conversaciones, los hablantes hacen conjuntamente
pactos conceptuales sobre los nombres que van a utilizar. Los pactos conceptuales son dinámicos:
evolucionan con el tiempo, se pueden simplificar e incluso cambiar.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

El hemisferio derecho del cerebro desempeña un papel importante en el procesamiento de


algunas facetas pragmáticas del lenguaje. Está implicado en el procesamiento no literal. Los
pacientes con una lesión del hemisferio derecho tienen problemas para comprender los chistes,
modismos, metáforas y proverbios.

3. La estructura de la conversación
Hay dos planteamientos distintos para analizar la forma en que se estructuran las
conversaciones:
 El análisis del discurso: Utiliza métodos generales de la lingüística. Pretende descubrir las
unidades básicas del discurso y las reglas que las relacionan.
 El análisis de la conversación: es mucho más empírico, y pretende descubrir las propiedades
generales de la organización de la conversación sin aplicar reglas.

En una conversación, la persona A dice una cosa, la persona B habla a su vez, la persona A
tiene otro turno, etc.; este aspecto de la conversación se conoce como el de tomar turnos. Un turno
varía en longitud, y puede contener más de una idea. Otras personas pueden hablar durante un
turno, en forma de comunicación en segundo plano, haciendo ruidos, diciendo palabras, o gestos
para demostrar que el oyente sigue escuchando, comprende, está de acuerdo, etc.

La estructura de los turnos queda explícita por el ejemplo de los pares adyacentes (preguntas-
respuesta, oferta-aceptación).

Sacks y cols. propusieron que la unidad mínima de construcción de turnos con la que se
construye un turno viene determinada por la estructura sintáctica y semántica, y por el tipo de
entonación de la expresión. La mirada es importante: tendemos a mirar hacia nuestros oyentes
cuando estamos llegando al final de un turno.

Wilson y Wilson propusieron un modelo más biológico del control de la toma de turnos.
Afirmaron que, durante una conversación, se sincronizan o entrenan osciladores endógenos en los
cerebros del hablante y del oyente. Los osciladores endógenos son grupos de neuronas que se
disparan juntas de forma periódica y actúan como relojes en el cerebro.

4. Colaboración en un diálogo
Las conversaciones son una actividad de colaboración, y los hablantes colaboran con los
oyentes para garantizar que se comprenden sus expresiones. La idea de que los hablantes
particularizan sus expresiones a las necesidades particulares de los destinatarios se conoce como
diseño en función de la audiencia.

Pickering y Garrod hablan del Proceso de alineación: Proceso de intentar hacer coincidir las
representaciones de hablantes y oyentes. Afirman que la alineación se produce por medio de
cuatro tipos de mecanismos fundamentalmente automáticos: priming, inferencia, utilización de
expresiones rutinarias y monitorización y reparación de lo producido.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Tal vez el mecanismo de alineación más importante sea el priming. El priming de palabras y
estructuras sintácticas garantiza que las representaciones lingüísticas quedan alineadas a diversos
niveles.

Pickering y Garrod ponen énfasis en la forma en que los oyentes hacen predicciones en las
conversaciones, y en que estas predicciones se hacen en el sistema de producción del habla: la
compresión deriva de la producción, sobre todo en circunstancias difíciles.

Aunque los hablantes evitan a veces la ambigüedad lingüística, se esfuerzan especialmente para
evitar la ambigüedad no lingüística. La ambigüedad no lingüística se produce cuando hay
múltiples casos de significados similares.

Ferreira et al concluyeron que los hablantes monitorizan lo que dicen y pueden, en ocasiones,
detectar y evitar la ambigüedad lingüística antes de producirla. Los hablantes son mucho mejores
resolviendo la ambigüedad no lingüística que la ambigüedad lingüística.

La producción del habla se produce con lemmas elegidos rápidamente que se producen cuanto
antes.

5. Sonido y visión
El estudio de la forma en que interactuamos con el mundo visual requiere una sofisticada
tecnología de análisis del movimiento de los ojos. El estudio del mundo visual ha adquirido tanta
importancia porque proporciona una nueva herramienta para estudiar cómo comprendemos el
lenguaje y el habla.

Aunque los adultos utilizan mucho el mundo visual, los niños lo hacen en mucho menor grado.

5.1 Utilización de la información visual en la comprensión


Aunque los lectores adultos recurren fundamentalmente a la información léxica para generar
estructuras sintácticas alternativas, los oyentes adultos utilizan en gran medida el mundo visual
que tienen delante. En concreto, la gente puede utilizar información referencial de la escena visual
que está mirando para superar sesgos léxicos muy potentes.

Los resultados demuestran que el procesamiento del lenguaje tiene en cuenta de inmediato el
contexto relevante no lingüístico, y van en contra de los modelos en los que las decisiones
sintácticas iniciales están guiadas exclusivamente por la información sintáctica. Ej.: Pág. 344

Un tipo de información particularmente relevante es la información que proviene de los propios


hablantes. Tendemos a mirar a aquello a lo que está mirando la persona que habla. Los
movimientos oculares del oyente terminan correspondiéndose con los movimientos oculares del
hablante; se mueven sobre la escena de la misma manera, pero con un retraso de dos segundos.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

Capítulo 12: La estructura del sistema lingüístico


1. Introducción
Caplan, describió cuatro características fundamentales del sistema de procesamiento del
lenguaje, basadas en la explicación clásica sobre modularidad de Fodor. Quién afirmó que los
módulos están encapsulados informativamente. Cada módulo solo asume una representación
concreta como elemento de entrada, y sólo proporciona un tipo de salida o producción (Ej. El
procesador sintáctico no acepta una entrada directa del nivel acústico).

Muchos investigadores consideran que un sistema modular es más económico. Hemos visto
que el lenguaje es muy modular, y que se puede localizar estos módulos en regiones particulares
del cerebro. Sin embargo el grado de encapsulación es más controvertido.

Los procesos dentro de un módulo son obligatorios y automáticos, si hay una entrada el
procesamiento posterior es obligatorio. Ej. Normalmente no podemos evitar leer una palabra y
acceder a su significado, incluso cuando no sea beneficioso, como en la tarea de Stroop.

Los estudios de imágenes cerebrales demuestran que cuando el sistema atencional está
sobrecargado, el cerebro no puede diferenciar entre letras aleatorias y palabras con sentido.

Los procesos del lenguaje suelen operar a nivel inconsciente. Los procesos de nivel inferior, no
son tratables con una introspección consciente. Caplan observó que la mayor parte del
procesamiento del lenguaje, se produce muy deprisa, de manera automática.

El grado en que interactúan los procesos del lenguaje es muy controvertido. Sabemos que
cuánto más temprano sea un proceso del procesamiento, será más probable que sea autónomo.

2. ¿Cuáles son los módulos del lenguaje?


Cuando vemos, oímos o producimos una frase, tenemos que reconocer o producir las palabras y
descodificar o codificar la sintaxis de la frase. Todas estas tareas implican modelos específicos del
lenguaje. En la actualidad poco se sabe sobre la relación entre el codificador y el descodificador
sintáctico, aunque la evidencia sugiere que son distintos.

El sistema semántico conceptual es responsable de organizar y acceder a nuestro conocimiento


del mundo y de interactuar con el sistema perceptivo. La mayoría de los investigadores piensa que
los significados de las palabras, se descomponen en características semánticas. Los significados de
las palabras se pueden juntar para formar una red proposicional sobre la que actúen nuestros
esquemas en la comprensión, y el conceptualizador en la producción de palabras.

Hemos visto que los casos de estudio neuropsicológico demuestran que una lesión cerebral
puede afectar selectivamente a los componentes del lenguaje. Algunos pacientes tienen un acceso
léxico intacto pero un procesamiento sintáctico trastornado, y en el caso contrario.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

El patrón de actuación en pacientes de Parkinson y Alzheimer es diferente, lo que ha llevado a


algunos investigadores a concluir, que los casos particulares se almacenan en un lexicón mental en
una parte del cerebro, mientras que las reglas gramaticales generales se procesan en otra parte.

Existen enormes diferencias entre el procesamiento del lenguaje en las modalidades visual y
auditiva. Las demandas temporales del reconocimiento de la palabra hablada y visual son muy
distintas. Normalmente tenemos menos tiempo de acceso a un estímulo auditivo. Es más difícil
encontrar efectos de la frecuencia en el reconocimiento del lenguaje hablado, que en el
reconocimiento de la palabra visual.

No obstante, en circunstancias normales los sistemas de lectura y escucha se desarrollan


conjuntamente, existe una correlación muy elevada entre comprensión oral y escrita (excepto para
los niños muy pequeños).

Los datos sugieren que el reconocimiento del habla está impulsado por los datos, siendo un
proceso de abajo a arriba. En el reconocimiento del habla tenemos que obtener el significado lo
más rápido posible.

En la producción del habla tenemos que ser precisos, producir cada palabra por completo y
construir cada representación sintáctica con detalle.

2.1 Discurso interno

Es evidente que el discurso interno está producido por el sistema de producción del habla, y
que se detiene justo antes de una articulación. Vigliocco y Hartsuiker, afirman que el discurso
interno se produce en un código tardío. Primero la supresión articulatoria (hablar en voz alta)
detienen a la voz interna y el hablar en voz alta interfiere con el código fonético. Segundo, los
niveles de representación no están accesibles para la conciencia antes del código fonético, pero el
discurso interno si está accesible a la conciencia. Con frecuencia la lectura, provoca el discurso
interno.

3. ¿Cuántos lexicones existen?


Algunos investigadores creen que hay múltiples sistemas de memoria semántica, uno para cada
modalidad de entrada. Las características periféricas (Ej. letras frente a los sonidos) deben ser
distintas en función de la modalidad.

La explicación más detallista afirma que sólo hay un lexicón, que se utiliza para las cuatro
tareas de leer, escuchar, escribir y hablar. Es posible que tengamos cuatro lexicones, uno para cada
tarea, o dos, uno para el lenguaje escrito en tareas de reconocimiento (visual) y hablado, en tareas
de producción (verbal). Otra alternativa sería que hay lexicones separados para la entrada y la
producción.

La respuesta a cuantos lexicones existen, depende de cómo definamos nuestros términos. Si por
lexicón, queremos decir, el diccionario mental completo, solo puede haber uno, aunque quizás con
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

una serie de subsistemas y almacenes periféricos. Si por lexicón queremos decir sistema discreto
utilizado para acceder a la semántica, podríamos tener varios.

3.1 Datos experimentales


Según Fay y Cutler se han interpretado los errores del habla de sustitución de palabras, como la
evidencia de que se accede a un único lexicón desde la producción o desde la comprensión del
habla. Hemos visto que los malapropismos, error del habla en el que se sustituye la palabra
objetivo por otra de sonido similar, se pueden explicar desde un modelo de lexicalización
interactivo en dos fases.

La mayoría de los datos va contra la existencia de un único lexicón que se utiliza para el
reconocimiento como para la producción:
 Winnick y Daniel, demostraron que el reconocimiento taquitoscópico de una palabra impresa,
se facilitaba por la lectura anterior en voz alta de esa palabra. Mientras que el nombramiento de
una imagen o la producción de una palabra en respuesta a una definición, no facilita el
reconocimiento posterior. La imprimación es mayor en la modalidad visual, que en la
modalidad auditiva.
 Morton, revisó el modelo de logógenes, y dijo que los almacenes de logógenes eran específicos
a la modalidad. Shallice, McLeod y Lewis descubrieron que el tener que monitorizar una lista
de palabras presentadas auditivamente, creaba poca interferencia con la lectura en voz alta de
palabras. Como muestran las imágenes PET, escuchar una palabra no activa las mismas zonas
que se activan al leer en voz alta y al repetirla.
 Dell sugirió que las conexiones de retroalimentación pueden ser necesarias para el
reconocimiento de las palabras. La evidencia favorece la perspectiva de que los lexicones de la
producción y la comprensión son los distintos.

Puede resultar difícil distinguir los problemas de acceso de los problemas de almacenamiento.
Allport y Funnell, afirmaron que tal vez no necesitemos lexicones separados, sino sólo vías de
acceso distintas a un lexicón. No parece económico tener cuatro vías de acceso para leer, escribir,
hablar y escuchar; y tener cuatro sistemas semánticos.

El ordenamiento más aceptable es que hay distintos sistemas léxicos. Los procesos del lenguaje
se dividen al principio del procesamiento y no vuelven a converger hasta más tarde.

Monsell, concluyó que la generación de una palabra facilita su reconocimiento. Esto sugiere
que la producción y el reconocimiento utilizan el mismo lexicón o redes separadas conectadas de
alguna forma.

Los datos experimentales con individuos que no padecen lesiones cerebrales, sugieren que el
reconocimiento de la palabra hablada y visual recurre a mecanismos distintos. Hay almacenes de
entrada y salida distintos, que tal vez compartan algunos mecanismos subléxicos.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

3.2 Datos neuropsicológicos y arquitectura léxica


Hay muchas disociaciones neuropsicológicas entre la lectura, la escritura y el reconocimiento
de la palabra visual y hablada. Los datos neuropsicológicos respaldan que hay cuatro lexicones
distintos, para hablar, escribir y para el reconocimiento de la palabra visual y hablada, aunque es
evidente que debe haber una comunicación entre estos sistemas. Fig. 12.1 Pág. 351

En el centro del modelo de la estructura general del sistema lingüístico, se encuentra un sistema
en el que se almacenan los significados de las palabras, que tienen una comunicación con otros
procesos cognitivos. Se trata del sistema semántico.

Hablar implica pasar del sistema de la semántica, a un almacén de los sonidos de las palabras,
es el almacén de la salida fonológica. La comprensión del lenguaje requiere un análisis auditivo
del discurso entrante, para poder acceder a las formas almacenadas de las palabras habladas, este
es el almacén de la entrada fonológica.

 Anomia: Los pacientes tienen problemas para recuperar los nombres de los objetos, pero
muestran una comprensión perfecta de esas palabras.
 Sordera pura de la palabra: Trastorno en el que los pacientes pueden hablar, leer y escribir con
relativa facilidad, pero no pueden entender lo que se les dice. No pueden repetir un discurso.
 Sordera del significado de la palabra: Algunos pacientes mantienen intacta la repetición, es
poco frecuente.

Estos casos demuestran que la repetición de la palabra no tiene que depender del acceso léxico.

La forma de averiguar cuál es exactamente la ruta trastornada depende del patrón de


rendimiento de la repetición de palabras, reales e inexistentes, junto con el efecto de variables
semánticas como la imaginabilidad. También deberíamos ser capaces de ver perturbaciones
resultantes de una lesión selectiva, y una preservación selectiva de nuestras tres rutas de
repetición.

Si tanto las rutas subléxicas y léxicas quedan destruidas, la persona se verá obligada a recurrir a
la repetición a través de la ruta semántica. Se repetirán con más facilidad las palabras más
imaginables (facilidad con la que se puede crear una imagen mental de una palabra).

Disfasia profunda: Hay una lesión en la ruta semántica los pacientes cometerán errores
semánticos en la repetición. Trastorno de repetición, caracterizado por errores de repetición
semánticos.

Si solo queda intacta la ruta de repetición léxica, los pacientes serán capaces de repetir palabras
reales, pero no palabras inexistentes, puesto que estas palabras no tienen una entrada léxica.
Tampoco deberían mostrar efectos de variables semánticas, como imaginabilidad en la repetición.
Es posible que también cometan errores en la lexicalización. Sin embargo podrían repetir bastante
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

bien hasta un 80 % de las palabras habladas, pero tendrían un mal rendimiento 7% en la repetición
de palabras inexistentes.

Si solo ha quedado intacta la ruta de repetición subléxica, los pacientes podrán repetir palabras
reales e inexistentes. No comprenderán el significado de estas palabras.

Afasia sensorial transcortical: Repetición relativamente buena, pero mal rendimiento en otras
facetas del lenguaje.

Afasia de la conducción: Es posible que los pacientes solo tengan una lesión en una de las
rutas, dejando intactas las otras dos. La lesión de tan solo la ruta subléxica, provocaría un trastorno
de la repetición, particularmente malo en palabras inexistentes.

En la lectura y la escritura se recurre a distintos sistemas léxicos. Hay una gran cantidad de
evidencia neuropsicológica que afirma que hay almacenes independientes, de producción
ortográfica y fonológica. Hay distintos almacenes de producción implicados en las actividades de
hablar y escribir, y la escritura no requiere la representación fonológica de la palabra. La mayoría
de los estudios sugiere que hay múltiples sistemas léxicos implicados, es probable que interactúen.

3.3 Bosquejo de un modelo


La lectura recurre a una serie de rutas, cuyo número exacto es controvertido. Los modelos
conexionistas sugieren que se deben combinar las rutas léxicas directas e indirectas:
 La ruta directa: De la identificación abstracta de las letras al almacén de entrada ortográfica y
después al sistema semántico. La ruta de lectura léxica directa va directamente al almacén de la
salida fonológica.
 La ruta indirecta o subléxica: Evita el almacén de entrada ortográfica y el sistema semántico.
Ofrece un vínculo directo entre la identificación de la letra y el habla.

Allport y Funnell, afirmaron que no podemos tener un lexicón independiente que medie entre
sistemas. Las parafasias semánticas: sustitución de palabras al hablar, por otra de la misma clase.
(Ej. Perro X gato); de pacientes con dislexia profunda, descartan cualquier modelo en el que la
traducción a un código fonológico, sea una condición necesaria para acceder al código semántico.

Tenemos que almacenar la palabra mientras que pronunciamos sus sonidos o escribimos sus
letras en orden. Esto implica que necesitamos amortiguadores fonológicos y ortográficos
(Almacén temporal para guardar los fonemas que acaba de ser introducidos o están a punto de ser
producidos). Podemos escribir palabras inexistentes al dictado, por lo que debe existir una
conexión entre el amortiguador de la salida fonológica y el amortiguador de la salida ortográfica
que proporciona reglas de sonidos a letras.

Algunos autores piensan que se utilizan distintos sistemas semánticos para las palabras y los
objetos, por lo que es posible que tengamos que dividir el sistema semántico en dos. Hay cierta
evidencia a partir del estudio de la demencia del paciente D.T, que puede nombrar objetos y caras
sin pasar por la semántica. En este caso tenemos que incorporar una ruta adicional del sistema de
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

reconocimiento visual de los objetos, que evita la semántica, para llegar al almacén de la
producción fonológica.

No hay ninguna conexión directa entre el almacén de entrada ortográfica y el almacén de salida
ortográfica.

Cuando hemos añadido los lemmas y la ruta de nombramiento de objetos, terminamos con un
modelo complejo. La modelización conexionista puede mostrar cómo se pueden combinar las
rutas sin pérdida de poder explicativo.

El almacén de entrada visual tiene una correspondencia con las unidades ocultas de su modelo.
Es evidente que las palabras individuales no tienen una correspondencia con neuronas
individuales, deben estar distribuidas de alguna manera. Podemos identificar componentes
generales del sistema lingüístico y la forma en que fluye la información por el mismo.

Hay dos complicaciones con los datos neuropsicológicos:


 Diferenciar entre dos almacenes independientes y tener un almacén con dos vías
independientes de entrada y salida.
 Diferenciar entre los trastornos de las conexiones entre los almacenes de entrada y salida y los
amortiguadores de entrada y salida fonológica.

4. El lenguaje y la memoria a corto plazo


El lenguaje desempeña un papel importante en la M.C.P y el contenido de esta, suele ser de
carácter lingüístico. Baddeley y Hitch denominaron al conjunto de estructuras implicadas, como
memoria de trabajo. Esta comprende un ejecutivo central, almacén visoespacial y un bucle
fonológico.
 Ejecutivo centra: Desempeña un papel importante en la integración y comprensión semántica,
es un sistema atencional.
 Bucle fonológico: Desempeña un papel en los procesos fonológicos del lenguaje.
 Almacén visoespacial: Para almacenar a corto plazo la información espacial.

El alcance de la lectura, predice el rendimiento en una serie de indicadores de comprensión. La


gente lee u oye conjuntos de frases sin relacionar y tras cada conjunto, intenta recordar la última
palabra de cada frase. El alcance en la lectura es el conjunto de mayor tamaño para el que un
participante, puede recordar todas las últimas palabras. Viene determinado por el tamaño o la
eficacia de la capacidad en la memoria de trabajo. Está correlacionado con la capacidad a
responder a preguntas sobre textos, precisión de la resolución de pronombres, con indicadores de
inteligencia verbal. Las personas con mala comprensión tienen un alcance de la lectura reducido.

Unas habilidades reducidas en una serie de complejas tareas de la memoria de trabajo, están
relacionadas con discapacidades del lenguaje en la infancia. Con dificultades en el aprendizaje.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

4.1 La memoria a corto plazo verbal y el procesamiento léxico


En el concepto de memoria de trabajo de Baddeley, el bucle fonológico incluye un almacén
fonológico pasivo (vinculado a la percepción del habla) y un proceso de control articulatorio
(vinculado con la producción del habla).

La eficacia del bucle fonológico se mide con tareas de memoria auditiva a corto plazo. Miden
nuestro recuerdo de dígitos y palabras de diversas maneras.
 Tarea de repetición de una única palabra. El sujeto tiene que repetir palabras o dígitos únicos
en voz alta.
 Tarea de repetición de dos palabras. El sujeto tiene que repetir pares de palabras.
 Tarea del alcance de apuntar. La persona oye una secuencia de palabras o dígitos y después
tiene que apuntar secuencias de imágenes que correspondan a esos elementos.
 Tarea del alcance de las correspondencias. El sujeto tiene que decir si dos listas son iguales o
distintas.

No se necesita ninguna repetición directa, pero se deben mantener los elementos en el


amortiguador de entradas fonológicas. Las distintas formas de medir el tamaño del alcance,
pueden ofrecer distintos resultados.

Una reducción del tamaño del almacén fonológico a consecuencia de una lesión cerebral,
debería tener repercusiones para el procesamiento del lenguaje, pero las consecuencias son menos
drásticas porque podemos acceder a las propiedades sintácticas y semánticas de las palabras con
rapidez.

Un trastorno del bucle fonológico obstaculiza la capacidad de repetir palabras inexistentes. Los
pacientes con trastornos en la memoria auditiva a corto plazo, muestran un efecto de longitud de la
palabra en la repetición.

El grado en que los trastornos de la memoria fonológica a corto plazo van acompañados de
trastornos en la percepción del habla, resulta controvertido.

Los trastornos de la memoria fonológica a corto plazo podrían implicar una lesión en el
amortiguador fonológico de la entrada, o del amortiguador fonológico de salida, pero no del
procesamiento fonológico.

La gravedad del trastorno de la memoria auditiva a corto plazo afecta la función del lenguaje.
Un alcance reducido a 1-2 elementos, puede tener consecuencias para el procesamiento del
lenguaje. Para alcances de 2-3 elementos el procesamiento de una única palabra suele estar
intacto, pero el rendimiento con secuencias más largas de palabras, puede estar afectado.

Martin, Lesch y Bartha propusieron que los amortiguadores de la memoria para el


procesamiento fonológico, léxico y semántico contienen los elementos de las estructuras de
M.L.P. Una lesión en las representaciones semánticas tendrá consecuencias para el mantenimiento
de las representaciones léxicas.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

Martin y Saffran analizaron la capacidad de repetición, en un paciente de afasia sensorial


transcortical. ST no podía repetir más de dos palabras sin perder información sobre los elementos
anteriores (la 1ª de las 2 palabras). Los individuos con trastorno semántico, no pueden mantener
elementos al principio de una secuencia. Estos elementos se pierden al no existir retroalimentación
entre los procesos fonológicos y los semánticos. Estos autores encontraron asociaciones parecidas
entre la ocurrencia de déficits semánticos y fonológicos, y los efectos de la posición en serie en la
repetición de palabras singulares.

Los déficits semánticos están asociados con errores en la parte inicial de la palabra, mientras
que los déficits fonológicos están asociados con errores en la última parte de la palabra.

 ¿Existen amortiguadores fonológicos de entrada y salida independientes?

Es posible que los dos amortiguadores estén interconectados. Existe evidencia empírica:
 Romani describió un paciente con un mal rendimiento en la repetición de palabras y frases,
pero un buen rendimiento en el reconocimiento inmediato de incitaciones. Sugirió un trastorno
en el amortiguador de salida pero un amortiguador de entrada intacto.
 Martin describe el caso de un paciente que mostraba un patrón distinto de rendimiento en tareas
que implicaban a los amortiguadores fonológicos de entrada y salida. Su rendimiento era malo
en tareas de M.C.P y producción verbal. Pero era normal en tareas que no requerían una
producción verbal.

El patrón de rendimiento sugiere que hay involucrados amortiguadores de entrada y salida


diferentes.

Los pacientes con una M.C.P auditiva trastornada se agrupan en grupos de rendimiento, en
tareas de valoración visual de palabras homófonas, valoración de pseudo homófonas y en tareas de
decisión visual y auditiva:
 Algunos pacientes mostraban una incidencia de lesión en el amortiguador de entrada, al tener
perturbaciones en tareas distintas a la valoración de palabras homófonas.
 Otros pacientes mostraban evidencias de lesión en el amortiguador de salida, trastornos en
tareas que no fueran valoraciones de rimas auditivas.

Algunos pacientes mostraban evidencias de lesión entre el vínculo de los amortiguadores.


Podían realizar bien las valoraciones de rimas auditivas y palabras homófonas, pero tenían un mal
rendimiento en la detección de palabras pseudo homófonas y en la detección visual de rimas.

 El bucle fonológico y el aprendizaje de vocabulario

En la actualidad se considera que el papel del bucle fonológico, está limitado al aprendizaje de
nuevas palabras.

Pacientes con una memoria fonológica a corto plazo trastornada, tienen problemas para
aprender otro idioma. Ya que esta memoria se utiliza para sostener nuevas formas fonológicas, de
modo que puedan llegar a convertirse en representaciones más duraderas.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

 La memoria de trabajo y el análisis sintáctico

Los primeros modelos de análisis sintáctico consideraban que la minimización de las


demandas, sobre la memoria a corto plazo era una restricción del análisis sintáctico.

Las representaciones fonológicas de las palabras se almacenan en el amortiguador fonológico


del bucle.

Las representaciones semánticas de los componentes focales son resueltas por el ejecutivo
central. Es posible que el ejecutivo central desempeñe un papel en el análisis sintáctico, al
computar los procesos del mismo, y al manipular los resultados intermedios de estos cálculos.

Tª de la capacidad de la comprensión (Just y Carpenter): Se utiliza una memoria central en la


capacidad de la comprensión del lenguaje. Afirmaron que la memoria de trabajo restringe la
capacidad del lenguaje.
 Las diferencias entre la capacidad de la memoria de trabajo lingüística provocan diferencias en
la capacidad lectora.
 La reducción en la capacidad de la memoria de trabajo por el envejecimiento, o por lesión
cerebral, provocan déficits de comprensión del lenguaje.

Caplan y Waters criticaron la Tª de la capacidad, afirmando que el procesamiento del lenguaje


utiliza dos sistemas de memoria de trabajo independientes. Uno dedicado a las tareas de lenguaje
rutinario, y otro a las tareas controladas verbalmente. Esta perspectiva se denominó específica al
dominio de la memoria de trabajo.

Algunos investigadores afirman que el bucle fonológico mantiene ciertas palabras en la M.C.P
para ayudar al análisis sintáctico. Otros han afirmado que no desempeña ningún papel en el
análisis sintáctico, pero que está implicado en el procesamiento posterior, cuando se ha
interpretado la frase semánticamente.

Rochon analizó a pacientes con Alzheimer, y concluyó que la M.C.P no está involucrada
directamente en el análisis sintáctico. Una memoria limitada puede afectar al posterior
procesamiento integrador.

4.2 Evaluación del trabajo sobre el lenguaje

La investigación experimental y neuropsicológica, apunta hacia la integración de los sistemas


del lenguaje y la memoria: El bucle fonológico es el amortiguador fonológico del procesamiento
del lenguaje.

La memoria auditiva a corto plazo está implicada en muchas tareas lingüísticas. Una lesión en
el bucle fonológico tiene pocas consecuencias para el procesamiento del lenguaje.

Todos los Afásicos (pacientes con trastornos en la producción y comprensión del lenguaje),
tienen trastornos en el alcance, pero no todos los individuos que tienen trastornos de alcance, son
afásicos.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED

La idea de los componentes múltiples está respaldada por la evidencia de los estudios
neuropsicológicos, que demuestran que algunos pacientes con un alcance reducido tienen peor
rendimiento en tareas que implican información semántica. Los componentes del procesamiento
léxico, son los componentes del sistema de la memoria.

 Los déficits de la memoria fonológica a corto plazo, están relacionados con una lesión en la
región temporo parental del cerebro.
 Los déficits de la memoria semántica a corto plazo, están relacionados con una lesión en las
regiones frontales.

La investigación sobre el lenguaje, sugiere que hay dos almacenes fonológicos implicados en el
bucle fonológico: Un amortiguador de entrada, y un amortiguador de salida y que se pueden
trastornar ambos, de forma selectiva.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

Capítulo 13: Nuevas direcciones


1. Introducción
Desde el nacimiento de la psicolingüística moderna (Chomsky Vs Skinner), esta disciplina ha
logrado la independencia de la lingüística. Pero son muchas todavía las preguntas que quedan por
resolver.

2. Revisión de los temas de la psicolingüística


Ya en el capítulo primero planteamos 10 temas fundamentales, a saber:

1. Descubrir los procesos implicados en la producción y comprensión del lenguaje: La


psicolingüística moderna se basa en los datos. Pero, como en las demás ciencias, son dos las
formas de estudio: de abajo arriba y de arriba abajo (inducción/deducción).
 En el planteamiento de abajo arriba, el hecho de descubrir algo novedoso o que no se
verifique una predicción de una teoría, lleva a la construcción de un modelo que explique
estos descubrimientos, pudiendo llegar a impulsar una teoría.
 En un planteamiento de arriba abajo, los datos no son lo importante al comienzo, aunque sí
se intenta desarrollar un marco teórico en el que los datos tengan sentido. De este marco
teórico se derivan predicciones que serán posteriormente contrastadas.

El progreso es un proceso de interacción entre los planteamientos de abajo arriba y los


planteamientos de arriba abajo.

2. ¿Están los procesos del lenguaje aparentemente distintos relacionados entre sí? O, por ejemplo
¿hasta qué punto están implicados los procesos de lectura en el acto de hablar?. Pues, aunque
exista un cierto solapamiento, también hay una separación.
3. ¿Los procesos del lenguaje son dependientes, independientes o interactúan entre sí?
 En los modelos modulares, las cajas realizan sus computaciones de forma independiente a
las demás, que sólo tienen acceso al producto final.
 Los modelos interactivos permiten que las cajas utilicen el contenido de otras cajas que
todavía están realizando su procesamiento, o se les permite empezar con su procesamiento
antes de que la anterior termine el suyo.

Aunque hay un gran desacuerdo entre los psicolingüistas, al autor de este libro le parece que el
procesamiento del lenguaje es interactivo, no niega la existencia de módulos, pero los entiende
con filtraciones: no es necesario que los módulos tengan la información encapsulada. Hoy en día
el debate ha avanzado: no se discute si los procesos son modulares o interactivos, se discute el
curso temporal detallado del procesamiento (los psicolingüistas dejan a un lado lo general para
centrarse en los detalles de lo que ocurre). Se le da al contexto la posibilidad de causar distintos
efectos en diferentes niveles del procesamiento.

4. ¿Qué hay de innato en el lenguaje? Esta sigue siendo una cuestión controvertida: todavía hay
desacuerdo sobre si el niño en desarrollo necesita un contenido innato para poder adquirir el

1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

lenguaje. El conexionismo ha mostrado cómo puede ser el lenguaje un proceso emergente cuyo
desarrollo depende de restricciones generales, pero la polémica sigue estando servida.
5. Cuando analizamos el procesamiento del lenguaje, ¿tenemos que recurrir a reglas explícitas?
Pues tampoco hay acuerdo todavía en este tema tampoco, los conexionistas se muestran en
contra de la utilización de reglas explícitas, mientras que los tradicionalistas se muestran a
favor.
6. Grado en que los procesos del lenguaje son específicos al mismo: De nuevo división entre los
que defienden que los niños necesitan información específica al lenguaje para poder adquirirlo
(origen innato) y los que defienden que la adquisición sólo necesita principios generales de
aprendizaje (como la capacidad de utilizar información sobre la distribución probabilística)
7. ¿Hasta qué punto los resultados de los experimentos son sensibles a las técnicas utilizadas?
Este punto queda claramente ejemplificado por el debate sobre el nombramiento y la decisión
léxica (si miden lo mismo o no)
8. La neuropsicología cognitiva y los estudios de lesión han proporcionado algunas de las
contribuciones más importantes e interesantes de la psicolingüística.
9. El lenguaje es multicultural: todos partimos de los mismos módulos preconfigurados, pero
varían ligeramente respecto a lo que hacen, habiendo por tanto diferencias multilingües
importantes con interés teórico.
10. Deberíamos poder aplicar la investigación de la psicolingüística a los problemas
cotidianos: Podemos discernir 5 aplicaciones clave:
 Lo que sabemos de la lectura y de la comprensión se puede aplicar a mejorar los métodos de
enseñar a leer
 Estas técnicas también deberían ser útiles para ayudar a los niños con discapacidades del
lenguaje.
 La psicolingüística nos ayuda a mejorar la forma de aprender, tanto en la infancia como en
la vida adulta
 Las lesiones cerebrales nos han mostrado cómo se trastorna el lenguaje, lo que tiene
consecuencias para el tratamiento y la rehabilitación de los pacientes con lesiones
cerebrales.
 Sería muy ventajoso que pudiésemos desarrollar computadoras que comprendieran y
produjeran el lenguaje, pero el contexto en el procesamiento a nivel superior es un gran
obstáculo en este campo.

Pero, además de estos 10 puntos, hemos visto que la psicolingüística moderna es


fundamentalmente ecléctica:
 Desde la neuropsicología cognitiva: El estudio de los trastornos del sistema del lenguaje puede
arrojar luz sobre casi cualquier aspecto de la psicolingüística. Sus aportaciones nos han servido
en nuestro estudio en varios de los temas de esta asignatura.
 Desde el conexionismo: Las virtudes del conexionismo que lo han hecho tan atractivo son:
 Se parece más al cerebro que el modelo de inteligencia artificial: el procesamiento se
produce en numerosas unidades extremadamente interconectadas entre sí, de forma parecida
a las neuronas.

2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

 Al igual que la inteligencia artificial, el conexionismo tiene la virtud de que la


modelización nos obliga a ser totalmente explícitos en nuestras teorías, lo que ha tenido dos
consecuencias fundamentales:
o Muchos modelos psicolingüistas se especifican como diagramas de cajas y flechas (se
ha llamado a este proceder “cajología”, de un modo bastante despectivo), pero es un
método que nos permite al menos comprender la estructura del sistema de lenguaje:
cuáles son los módulos y cómo se relacionan entre sí. El conexionismo ha implicado
que nos centremos en los procesos que se producen dentro de las cajas de nuestros
modelos, lo que en algunos casos ha provocado una reevaluación detallada de la
evidencia empírica.
o El conexionismo nos ha obligado a considerar en detalle las representaciones
utilizadas por el sistema del lenguaje, lo que nos ha llevado a un saludable debate.
o En muchos modelos conexionistas el énfasis en el aprendizaje se centra en la faceta
evolutiva que, esperemos, tendrá como resultado la integración de la psicolingüística
de los adultos y de los niños en desarrollo.

Un campo de crecimiento ha estado en la intersección entre el conexionismo y la


neuropsicología cognitiva en la simulación de los trastornos neuropsicológicos (neuropsicología
conexionista), desarrollándose modelos de procesamiento intacto, para después estudiar
sistemáticamente los efectos de “lesionar” partes de la red. Hemos visto esta interacción en los
temas 5 (dislexia superficial y profunda), tema 7 (trastornos específicos a la categoría y
procesamiento semántico en la demencia) y en el tema 10 (afasia).

3. ¿Algunas áreas de crecimiento?


No encontramos razón a que vaya a surgir una revolución en este campo, asistiremos a
progresos, pero utilizando los mismos tipos de técnicas, los modelos serán más sofisticados y las
técnicas más refinadas, pero el centro de atención es probable que no cambie demasiado.

Por lo general la tendencia va hacia modelos más inclusivos que abarcan fenómenos más
complejos (Ej.: como el procesamiento de las palabras morfológicamente sencillas se comprende
relativamente bien, ahora crece el interés por palabras con mayor complejidad).
1. Las nuevas técnicas son más precisas y más accesibles. Sirva de ejemplo las imágenes del
cerebro obtenidas mediante escáner.
2. Probablemente adquiera mayor importancia la neuropsicología cognitiva y la neuropsicología
conexionista. Un posible desarrollo es el dela modelización detallada de los casos individuales
singulares.
3. Podemos esperar el uso de datos evolutivos para ayudar a resolver problemas en los adultos.
Los modelos desarrollistas estarán más orientados a los procesos, tendremos una idea más clara
de cómo cambia el procesamiento a lo largo de la infancia antes de estabilizarse en la forma
adulta.

3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

4. La comprensión total de la psicolingüística acarrearía la comprensión de la naturaleza de todos


los componentes del procesamiento del lenguaje y de cómo se relacionan entre sí. Hay una
tendencia a integrar la investigación en los distintos campos.
5. Los últimos años hemos asistido a una enorme diversificación de los individuos a los que se
estudia. La mayoría de los experimentos que se han descrito en este libro se han realizado con
angloparlantes, partiendo del supuesto de que de que la arquitectura subyacente es compartida
por los distintos idiomas, aunque puede que haya diferencias significativas. Es probable que a
partir de ahora se ponga un mayor énfasis en la forma en la que procesamos el discurso natural,
alejándonos de la palabra en una pantalla. El paradigma del mundo visual ha adquirido una
particular importancia y es probable que adquiera todavía más.

Recordemos que, según Chomsky, el lenguaje es una facultad innata especificada por el
dispositivo de adquisición del lenguaje. Todos los idiomas., al estar gobernados por la forma de
este dispositivo, son similares en un nivel profundo. Las diferencias entre idiomas se reducen a las
propias del vocabulario y a los parámetros fijados con la exposición a determinado idioma.

Una perspectiva alternativa es la conexionista: las restricciones que provienen del desarrollo
general y las restricciones inherentes a los datos, dan como resultado similitudes en el desarrollo y
procesamiento de los distintos idiomas (supongo yo que esto querrá decir que si todos los
parlantes de un idioma fallan en cosas parecidas, será porque en el fondo se encuentra el mismo
tipo de procesamiento, lo que dará lugar a los mismos problemas en su desarrollo). Sobre las
diferencias importantes en cuestión de arquitectura y sobre sus consecuencias, queda mucha
investigación al respecto.

Son muchos los campos en los que resulta útil la comparación de los idiomas:
 La observación de que existen restricciones similares sobre las reglas sintácticas se ha utilizado
para defender el concepto de una gramática universal. Pregunta que nos queda por responder:
¿hasta qué punto puede la visión conexionista, por la que el lenguaje es un proceso emergente,
explicar estos hechos?
 El estudio de un único idioma (el inglés) pudo habernos dado una perspectiva distorsionada del
proceso del análisis sintáctico.
 Las similitudes y diferencias de los distintos idiomas tienen consecuencias para el desarrollo
del lenguaje. P. ej. El análisis multilingüe del desarrollo del género constituye un argumento en
contra de una base semántica del desarrollo de las características sintácticas.
 El análisis de distintos idiomas establecen una correspondencia entre la ortografía y la
fonología de distintas maneras ¿qué es lo que esto nos está diciendo sobre la lectura? ¿se
descomponen los distintos idiomas de distintas maneras tras una lesión cerebral?
 Nos queda mucho por aprender sobre el bilingüismo, como tema por derecho propio y como
medio para investigar procesos subyacentes del lenguaje.

4. Conclusión
El objetivo final de la psicolingüística es lograr una teoría detallada y unificada del lenguaje y
de cómo se relaciona con otros procesos cognitivos. Las variables a controlar son muchas y cada

4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED

vez la lista es mayor, ¿seremos pues capaces de realizar algún experimento de psicolingüística en
esta década? La respuesta, evidentemente, es “sí”, pero cada vez se hace más difícil y los
supuestos tienen que ser cuidadosamente justificados, debemos cuidar la elección de los
materiales, puede que no nos baste con controlar las variables que creemos, debemos controlar,
debemos controlar también el fenómeno de que la experiencia previa del investigador en otros
experimentos pueda, inconscientemente, interferir en la estructuración del material en uno nuevo,
por lo que debemos recurrir a la aleatorización del material a presentar.

Lo que parece quedar claro tras el estudio de este libro es que hay mucho que desconocemos y
muchas ocasiones en que las interpretaciones son contradictorias de los datos.

Вам также может понравиться