Академический Документы
Профессиональный Документы
Культура Документы
BLOQUE 1: INTRODUCCIÓN
1. Introducción
El objetivo primordial del lenguaje es comunicarse, pero también se puede usar para expresar una
emoción, para la interacción social, para utilizar los sonidos, para intentar controlar el entorno, para
registrar los hechos, para pensar y para expresar identidad. Incluso jugamos con el lenguaje, gran parte
del humor depende de ser capaz de manipular el lenguaje.
2. ¿Qué es el lenguaje?
“Sistema de símbolos y reglas que nos permiten comunicarnos”. Los símbolos son cosas que
representan otras cosas, las palabras, ya sean escritas o habladas, son símbolos. Las reglas especifican las
formas en que se ordenan las palabras para construir frases. No es fácil tener una definición estricta del
lenguaje.
El lenguaje se puede describir de diversas maneras, y para ello se han utilizado distintas apelaciones:
Fig.: 1.1
Semántica: es el estudio del significado del lenguaje.
Sintaxis: el estudio de las reglas sobre el orden de las palabras.
Morfología: el estudio de cómo se construyen las palabras y su formación a partir de morfemas
Pragmática: el estudio de la utilización del lenguaje, de las facetas del significado que no afectan a la
verdad literal de lo que se está diciendo. Hace referencia a cosas como la elección de las palabras con
el mismo significado, las cuestiones implícitas en una conversación y el mantenimiento de la
coherencia en la misma.
Fonética: el estudio de los sonidos; el detalle acústico de los sonidos de un discurso y cómo se
articulan.
Fonología: el estudio de los sonidos y de cómo se relacionan con los idiomas; la fonología describe las
categorías de sonidos que utiliza cada lenguaje para dividir el espacio de los posibles sonidos.
La morfología se ocupa de la manera en que se crean palabras complejas a partir de las unidades más
sencillas, morfemas (unidad de significado más pequeña). Hay dos tipos de morfología:
Morfología inflexiva: se ocupa de los cambios de una palabra que no alteran su significado subyacente
o su categoría sintáctica. Estudio de las inflexiones. Ej.: pluralización, cambios de tiempos verbales.
1
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Morfología derivativa: se ocupan de los cambios de una palabra que alteran su significado subyacente
o su categoría sintáctica. El estudio de las inflexiones derivativas. Ej.: desarrollo, desarrollado.
La definición del diccionario de la palabra es “la unidad gramatical más pequeña que tiene significado
por sí misma”. La palabra se puede analizar en distintos niveles: los sonidos constituyen el nivel más
bajo, o por letras si es una palabra escrita. Los sonidos se combinan para formar sílabas.
Los psicólogos creen que se almacenan representaciones de las palabras en un diccionario mental,
denominado lexicón. El lexicón incluye toda la información de que disponemos sobre una palabra,
incluyendo sus sonidos, significado, apariencia escrita y los papeles sintácticos que puede adoptar. Los
psicolingüistas están interesados en los procesos de acceso léxico y cómo se representan las cosas.
Análisis detallados han demostrado que la mayoría de los idiomas de Europa y partes de Asia
occidental derivan de una fuente común llamada protoindoeuropeo. Todos los idiomas que han derivado
de esa fuente común se denominan indoeuropeos.
Los idiomas indoeuropeos tienen una serie de ramas principales: el romance, el germánico y los
idiomas indios. Ver Fig. 1.2. Hay idiomas que son europeos pero no forman parte de la familia
indoeuropea. El finlandés y el húngaro provienen de la rama ugrofinesa de la familia de los idiomas de los
Urales. Además también existen otras muchas familias de idiomas además de los indoeuropeos. En total,
los lingüistas han identificado más de cien familias de idiomas aunque algunos pocos idiomas, como el
vasco, parecen no pertenecer a ninguna familia. Se desconoce el grado en que estas grandes familias
pudieron estar relacionadas en antaño.
Los idiomas también cambian en períodos de tiempo relativamente breves. Se acuñan nuevas palabras
o nuevas acepciones de viejas palabras cuando es necesario. Tomamos prestadas palabras de otros
idiomas; a veces se crean palabras por error.
Existe un importante núcleo central de los mecanismos psicológicos que parecen ser comunes al
procesamiento de todos los idiomas. Al mismo tiempo es de suponer que los que hablan distintos idiomas
pueden tener rasgos distintivos a la hora de procesar la palabra, sobre todo la escrita o la impresa.
El lenguaje se utiliza para comunicarse. El lenguaje es una actividad social, y como tal, es una forma
de acción conjunta en la que los individuos colaboran para lograr una meta común.
Aunque la principal función del lenguaje es la comunicación, es posible que haya adquirido (o incluso
derivado) de otras funciones; es posible que el lenguaje haya desempeñado un papel en los procesos
cognitivos que inicialmente no era lingüísticos. La versión más extrema es la idea de que la forma de
nuestro lenguaje conforma nuestra percepción, perspectiva conocida como la hipótesis de Sapir –Whorf;
2
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
algunos han afirmado que el lenguaje evolucionó para permitirnos pensar y que la comunicación fue tan
sólo un efecto secundario útil.
Los comienzos del estudio científico de la psicología del lenguaje suelen remontarse a la conferencia
realizada en Cornell, EEUU (1951) y el término psicolingüística se utilizó por primera vez en el libro de
Osgood y Sebeok (1954). Anteriormente se había estudiado la psicología del lenguaje, Ej.: Galton (1879)
estudio cómo la gente crea asociaciones entre palabras, en Alemania (1895) se analizaron los lapsus
linguae, etc.
La lingüística comparativa, se ocupaba de comparar y buscar los orígenes de los distintos idiomas. En
particular, la tradición norteamericana del lingüista bloomfield ponía de relieve los estudios comparativos
de los idiomas indígenas de los indios de Norteamérica; lo que levo a poner énfasis en el estructuralismo:
aquí el objetivo primordial de la lingüística consistía en ofrecer un análisis de las categorías adecuadas de
descripción de las unidades del lenguaje.
En la lingüística moderna, los principales datos utilizados por los lingüistas son intuiciones sobre lo
que constituye una frase aceptable o no. (Ver Ej.: de frase incorrecta).
Los primeros enfoques psicológicos del lenguaje consideraban que el procesador del lenguaje era un
sencillo dispositivo que podía generar y comprender frases pasando de un estado a otro. Hay dos ramas en
estos primeros trabajos:
Derivados de la teoría de la información (Shannon y Weaver): ponía de relieve el papel de la
probabilidad y la redundancia en el lenguaje, y se desarrolló a partir de las exigencias de la industria de
las telecomunicaciones. Su elemento central era averiguar cuál era el final más probable de una frase a
partir de determinado punto.
Esta teoría también era importante dada su influencia en el desarrollo de la psicología cognitiva.
Derivados del conductismo, ponían de relieve la relación entre una entrada (o estímulo) y un resultado
(respuesta), y cómo se creaban estas asociaciones a partir del condicionamiento y el refuerzo. Los
constructos intermedios (mente) eran considerados innecesarios. La única materia objeto de estudio era
la conducta, y el lenguaje era una conducta como cualquier otra. Así, su adquisición y utilización se
podían explicar con las habituales técnicas del refuerzo y el condicionamiento. Su máximo apogeo
llegó con el libro de Skinner “Verbal behavior” (1957).
Chomsky con su revisión demostró que el conductismo era incapaz de abordar el lenguaje natural.
Afirmó que había una nueva teoría lingüística, llamada gramática transformacional, que proporcionaba
3
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
tanto una explicación de la estructura subyacente del lenguaje como de los conocimientos que tiene la
gente de su idioma; la influencia de la lingüística alcanzó su cima a finales de la década de 1960 y
principios 1970. Es una teoría limitada en cuanto a los procesos implicados en el proceso del habla y de la
comprensión.
Este concepto se utiliza para abarcar el enfoque multidisciplinar del estudio de la mente, y estas
disciplinas incluyen la psicología de los adultos y del desarrollo, la filosofía, la lingüística, la
antropología, las neurociencias y la inteligencia artificial. La filosofía desempeña un papel importante en
la comprensión del significado; La Inteligencia artificial recurre a la utilización de computadoras para
hacer cosas que aparentemente requieren inteligencia, como comprender una historia o un discurso. A
parte de las aplicaciones tecnológicas de la inteligencia artificial, se espera aumentar la comprensión de
cómo hacen los humanos dichas tareas.
La ejecución de un modelo con un programa informático tiene la gran ventaja de que hay que ser
explícito sobre todos los aspectos (no hay supuestos ocultos en estos modelos). La obligatoriedad de lo
explícito también tiene un inconveniente significativo: debido a que los que definen el modelo tienen que
ser explícitos sobre todos los aspectos del modelo, a menudo tienen que hacer supuestos muy arriesgados
sobre los procesos y representaciones, y simplificar el contexto o el alcance del modelo hasta un grado en
que su utilidad resulta dudosa. No obstante, los modelos informáticos, tienen muchas ventajas y han
adquirido una importancia creciente. (Programa ELIZA y SHRDLU Pág. 9-10). Los primeros
analizadores sintácticos de la inteligencia artificial carecían de la potencia de cálculo necesaria para
analizar el lenguaje humano. La influencia de la IA en la psicolingüística alcanzó su cima en la década de
los 70.
4
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
las neuronas, muy sencillas y conectadas entre sí, que trabajan juntas sin ningún plan director explícito.
Sin embargo, surgen normas y conductas a partir de las interacciones entre esas unidades simples.
Un concepto central en los modelos conexionistas (así como en otros) es la idea de activación, se
puede considerar como una cantidad de energía poseída por algo. Cuanto más activado está algo más
probable es que se produzca. La idea de que la mente utiliza algo parecido a la activación, y que el grado
de activación de las unidades puede influir sobre los niveles de activación de elementos similares es una
idea importante.
4. El lenguaje y el cerebro
La neurociencia cognitiva estudia cómo se relacionan entre sí el cerebro y la conducta. Los últimos
avances en la generación de imágenes neuronales permiten ver el cerebro en acción durante el
procesamiento normal.
5
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El modelo Wernicke –Geschwind, uno de los modelos neurológicos tradicionales más conocido; los
procesos del lenguaje fluyen fundamentalmente de la parte trasera del hemisferio izquierdo a la parte
delantera, produciéndose los procesos semánticos y de planificación en la parte trasera, en lo que se
conoce como área de Wernicke, y la recuperación de sonidos y articulación de bajo nivel en la parte
delantera, en lo que se conoce cómo área de Broca, estando conectadas las dos regiones por un tracto de
fibras denominado fascículo arqueado (Fig. 1.4)
Shallice consideró que a veces este enfoque de la neuropsicología fue demasiado lejos, en aspectos
como: 1) su afirmación de que los estudios de grupos no pueden proporcionar ninguna información
adecuada para construir modelos cognitivos, 2) al afirmar que la información sobre la localización de la
función es irrelevante para comprender la conducta, 3) subestima la información clínica sobre los
pacientes; por todo ello a esta posición extrema la denominó neuropsicología ultracognitiva.
Seidenberg señalo que la neuropsicología cognitiva pone demasiado énfasis en revelar la arquitectura
funcional de los sistemas implicados. Es decir, se pone de relieve la organización de los elementos
constitutivos a costa de explorar los procesos realmente implicados, lo que da lugar a la construcción de
diagramas de cajas y flechas con pocos avances en nuestra comprensión de lo que ocurren dentro de las
cajas, o de cómo vamos de una caja a otra. En la actualidad se está poniendo mayor énfasis en lo que
ocurre dentro de los elementos constituyentes, sobre todo desde que se ha aplicado los modelos
conexionistas a la neuropsicología cognitiva.
Aunque la interpretación tradicional de una doble disociación es que hay dos rutas independientes
implicadas en un proceso, los modelos conexionistas han demostrado que es posible que no siempre sea
así. Pueden surgir dobles disociaciones aparentes en sistemas complejos distribuidos de una única ruta.
Es necesario prestar atención, cuando se hacen inferencias a partir de los datos neuropsicológicos.
Suele haber un importante solapamiento entre los pacientes, y los casos más puros suelen estar asociados
con daños cerebrales menores. Finalmente, las cosas no suelen mantenerse en un estado fijo tras
6
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
producirse un daño cerebral; los procesos intactos se reorganizan, y suele producirse cierta recuperación,
incluso en adultos.
Las nuevas técnicas de creación de imágenes cerebrales están adquiriendo paulatinamente más
precisión y son más accesibles. Los rayos X tradicionales, tienen una aplicación limitada.
Los EEG (Electroencefalogramas) y ERP (potenciales evocados, evento-relacionados o respuesta a
estímulos), miden la actividad eléctrica del cerebro. Estas técnicas tienen una resolución temporal
muy buena, pero una resolución espacial muy baja.
o El EEG es un medio para medir los potenciales eléctricos en el cerebro colocando electrodos en el
cuero cabelludo.
o El ERP es un medio para medir la actividad eléctrica en el cerebro tras determinados sucesos. Un
ERP es una onda eléctrica compleja relacionada en el tiempo con un determinado suceso, medido
por un EEG. Estos miden los cambios de voltaje en el cuero cabelludo relacionándolos con la
presencia de un estímulo. Los puntos álgidos del ERP se clasifican en función de su polaridad (+ o -
) y su latencia en milisegundos, tras el inicio del estímulo:
El N400 es un punto álgido que se produce tras una frase con un final semánticamente
incongruente (leer en vez de con un final, la misma frase con “un calcetín”).
El P300 son generados por cualquier estímulo que requiera de una decisión binaria (si/no). La
variación negativa contingente es un potencial negativo lento que se desarrolla en el cuero
cabelludo cuando una persona se está preparando para realizar una acción motriz o procesar un
estímulo sensorial.
La MEG (Magnetoencefalografía) presenta la ventaja de tener una buena resolución tanto
temporal como espacial, pero es más difícil de realizar y mucho más cara, ya que requiere de
dispositivos superconductores llamados SQUIDS, un enfriamiento externo utilizando helio
líquido y escudos magnéticos.
La TAC (tomografía axial computerizada) produce imágenes de resolución media integrando un
elevado número de imágenes de rayos X tomadas desde muchos ángulos distintos de la cabeza.
Las MRI (Imágenes obtenidas por resonancia Magnética) utilizan ondas de radiofrecuencia y
generan imágenes de mayor resolución que el TAC. Estas técnicas han permitido estudiar la
estructura del cerebro.
Los equipos de PET (Tomografía por emisión de positrones) generan imágenes de la actividad del
cerebro. Se inyecta en la sangre una forma de glucosa radiactiva, el combustible metabólico que
utiliza el cerebro, y los detectores alrededor de la cabeza miden la glucosa que se está utilizando.
Así, se puede averiguar cuáles son las partes del cerebro más activas cuanto éste está
desempeñado una determinada tarea.
La fMRI (Resonancia magnética funcional), miden la energía que liberan las moléculas de
hemoglobina en la sangre y a continuación determinan cuáles son las áreas del cerebro que han
recibido mayores cantidades de sangre y oxígeno. Por lo tanto, dicen cuáles son las partes del
cerebro que están más activas en un determinado momento. Ofrecen una resolución temporal y
espacial muy superior a las imágenes PET, aunque la resolución temporal sigue siendo
ligeramente inferior al EEG.
7
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
LA TMS (estimulación magnética transcraneal), es, de alguna manera, lo contrario a crear una
imagen: en vez de observar el cerebro, se hace que parte de él haga algo. Se utiliza un conjunto de
imanes muy potentes para estimular directamente la parte del córtex de un participante y, a
continuación, se registra que es lo que hace o experimenta el participante.
La neuroimagen del cerebro sigue siendo cara y la resolución espacial y sobre todo, la temporal,
tienen mucho que mejorar. Un problema más significativo de la creación de imágenes cerebrales es que
los resultados son difíciles de interpretar; las imágenes nos dirán dónde se está produciendo, pero no nos
dicen cómo, qué o por qué.
Las técnicas de creación de imágenes suelen mostrar la activación de áreas corticales que no se
solapan para tareas similares lo que, de nuevo, resulta difícil de interpretar. Los estudios de imágenes
también sugieren que los procesos cognitivos están más localizados que lo que indicaban otros métodos,
porque las técnicas de creación de imágenes revelan las numerosas áreas que se encuentran activas
durante el desempeño de una tarea, independientemente de que esas áreas estén desempeñando un papel
importante o no. Por lo general, las técnicas de creación de imágenes no dicen qué significa una gran
actividad en distintas partes del cerebro en cuanto a procesamiento.
Las imágenes cerebrales juegan un papel diagnóstico importante en el análisis de los efectos que
tienen los daños cerebrales y los trastornos cerebrales.
8
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Un modulo es un conjunto de procesos autocontenidos: convierte una entrada en una salida, sin
ninguna ayuda externa en lo que ocurre entre medias; decimos que los procesos dentro de un módulo son
independientes de los procesos de fuera. Otra forma de describirlo es afirmando que el procesamiento
depende exclusivamente de los datos. Los modelos en los que los procesos se producen de ésta manera se
denominan autónomos.
Fodor afirmó que muchos procesos psicológicos son modulares. Según muchos investigadores, los
procesos son modulares no interactivos. Hay dos razones fundamentales para este supuesto:
Los modelos modulares suelen ser más sencillos: implican un menor número de procesos y de
conexiones entre los sistemas.
Creencia generalizada de que la evolución fomenta un sistema modular.
Es posible encontrar una hipótesis auxiliar o salvadora para salvar la hipótesis de la modularidad. En
las teorías de reconocimiento de palabras los investigadores han introducido la idea de los procesos
posteriores al acceso; en la sintaxis y el análisis gramatical han propuesto un procesamiento en paralelo
con una toma de decisiones diferida.
9
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Tanto Fodor como Pinker, exponentes líderes de la opinión de que el lenguaje es muy modular y tiene
una base innata significativa, ofrecen una visión filosófica más general: la modularidad es inconsistente
con el relativismo, la idea de que todo es relativo respecto a todo lo demás y que cualquier cosa es posible
(sobre todo ciencias sociales). Los modelos proporcionan un marco fijo en el que estudiar la mente.
La existencia de una disociación neuropsicológica entre dos procesos suele aceptarse como
demostración de la modularidad de los procesos implicados. Cuando se analiza la neuropsicología de la
modularidad, se puede hablar de:
Modularidad física: si están localizados los procesos psicológicos en una parte del cerebro.
Modularidad del procesamiento: en principio, una serie de procesos podrían estar distribuidos por
todo el cerebro y, sin embargo, tener un papel modular en el modelo de procesamiento.
Es posible que los dos tipos de modularidad estén relacionados entre sí, de forma que los módulos
cognitivos se corresponden con los modelos neuropsicológicos.
Farah criticó este supuesto de “localidad” y afirmó que se podían explicar las disociaciones
neuropsicológicas en términos de sistemas distribuidos conexionistas.
Chomsky afirmó que el lenguaje es una facultad especial que no se puede reducir a procesos
cognitivos. Piaget afirmó que el lenguaje es un proceso cognitivo, como cualquier otro, y que el
desarrollo de la lingüística depende del desarrollo cognitivo general.
Incluso teniendo en cuenta que el lenguaje fuera un módulo de autocontenido, tendría que
relacionarse con el resto del sistema cognitivo. Hablamos de lo que pensamos, nuestros pensamientos se
producen frecuentemente en forma verbal, discurso interno, e integramos lo que oímos en nuestra
memoria a largo plazo. El lenguaje desempeña un papel central en nuestra memoria de trabajo, el almacén
de la información a corto plazo.
En cada caso en el que la modularidad constituye un problema, tiene que analizar los datos y
preguntarse si la hipótesis auxiliar es más plausible que la alternativa no modular.
La modularidad también tiene repercusiones más generales. Los investigadores que defienden la
modularidad de los procesos del lenguaje, también defiende que hay una parte significativa de nuestra
capacidad del lenguaje que es innata. El argumento afirma que debe haber en el cerebro módulos bien
definidos o configurados y, por tanto, programados de forma innata, y sistemas complejos y desordenados
que reflejan los efectos del aprendizaje.
Así es, tiene que haber algunos prerrequisitos a la adquisición del lenguaje, aunque sólo sea una
capacidad de aprendizaje general. La pregunta es qué parte tiene de innata.
Los modelos conexionistas sugieren formas en las que las propiedades generales del sistema de
aprendizaje pueden desempeñar el papel de un conocimiento innato específico al lenguaje, y muestran
cómo surge la conducta de interacción entre la naturaleza y la educación a todos los niveles.
10
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
En la lingüística tradicional, gran parte del conocimiento estaba encapsulado en forma de reglas
explícitas.
¿Qué significa la parte de “modelo” del Modelo Conexionista? Los “modelos” nos indican principios
importantes de cómo funciona la mente. Se puede aprender de ellos. Su conducta no es siempre
totalmente predecible, puede variar algo de una situación a otra. El modelado es una idea importante de la
psicolingüística contemporánea.
¿Qué hace que los modelos conexionistas resulten tan atractivos? Resultan más creíbles que la IA,
desde el punto de vista neuronal. Se basan a grandes rasgos en una metáfora del cerebro. Segundo, los
conexionistas suelen intentar minimizar la cantidad de información configurada del sistema, poniendo en
relieve el hecho de fijar la atención en lo que emerge del modelo. En tercer lugar, el conexionismo tiene
la virtud, de que al escribir un programa informático, uno está obligado a ser explícito en sus supuestos.
Las ideas sobre lo innato, la modularidad, las reglas y el procesamiento específico del lenguaje están
relacionadas entre sí. Existe una división dentro de la psicolingüística entre los que afirman que hay
modelos innatos específicos al lenguaje que utilizan ampliamente reglas y aquellos que afirman que gran
parte de todo el procesamiento es una adaptación de procesos cognitivos más generales.
11
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Una cuestión importante que hay que resaltar es que hay muy pocos temas en la psicolingüística en
los que podemos afirmar que conocemos la respuesta a las preguntas con total certidumbre. Tenga la
certeza de que se encontrará con incertidumbre cuando se intenta comprender la psicología del lenguaje.
12
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
1. Introducción
La acústica es el estudio de las propiedades físicas de los sonidos. Una de las formas de describir la
información acústica sobre los sonidos es un espectrograma de sonido (Fig. 2.1), su gráfico muestra la
cantidad de energía en un sonido cuando se representa gráficamente la frecuencia durante el tiempo.
Formantes son los picos de energía en determinadas frecuencias, su estructura es una característica
importante de los sonidos en el habla. Todas las vocales, y algunas consonantes tienen formantes. El
patrón de los formantes es particularmente importante para distinguir las vocales.
Un fonema es una unidad básica de sonido de un determinado idioma; el cambio de un fonema puede
alterar el significado de una palabra. Se dice que dos fonos son distintos, cuando son una expresión de un
mismo fonema en determinado idioma si la diferencia entre ambos nunca marca una diferencia en el
significado de las palabras.
Los fonos distintos que se comprenden como el mismo fonema en un idioma se denominan alófonos.
Se utiliza una notación especial para diferenciar entre fonos y fonemas, corchetes para los fonos y
barras diagonales para los fonemas. La fonética es el estudio de los fonos y la fonología el estudio de los
fonemas. Existen tres tipos de fonética en función de lo que se quiera poner en relieve:
Fonética articulatoria: pone de relieve cómo se hacen los sonidos.
Fonética auditiva o perceptiva: pone de relieve cómo se perciben los sonidos.
Fonética acústica: pone de relieve la forma de la onda de sonido y las propiedades físicas.
Pares mínimos: dos palabras de un idioma que sólo difieren en significado sólo cuando se cambia un
sonido (“beso” y “peso”). También se puede hablar de conjuntos mínimos de palabras que difieren todas
en un solo fonema en la misma posición. Como se puede ver, la sustitución de un fonema por otro genera,
un cambio de significado, sin embargo, cambiar un fono por otro (“p” aspirada o sin aspirar” no tiene por
qué cambiar necesariamente el significado.
El Alfabeto Fonético Internacional (AFI) es un método normalizado para representar los sonidos.
(Tabla 2.1). La Pronunciación Recibida (PR) es el acento supuestamente bien educado y de gran prestigio.
1
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
La ventaja del alfabeto AFI es que es posible representar las distintas formas de pronunciar lo mismo (Ej.:
Inglés Británico y estadounidense).
Se habla moviendo partes del tracto vocal, incluyendo los labios, los dientes, la lengua, la boca y la
laringe. (Fig. 2.2). La principal fuente de sonidos es la laringe, que modifica el flujo de aire proveniente
de los pulmones y produce un intervalo de frecuencias más altas denominadas armónicas. A continuación
se producen sonidos distintos cambiando la forma del tracto vocal:
Las vocales se generan modificando la forma del tracto vocal, que permanece más o menos abierto
cuando se está produciendo éste sonido. La posición de la lengua modifica el intervalo de armónicas
producidas por la laringe.
Las consonantes (como p, b, t, d, k, g) se producen cerrando o restringiendo parte del tracto vocal al
principio o al final de una vocal. Esta descripción sugiere que la forma de analizar la relación entre los
sonidos consiste en fijarse en su lugar de articulación., es decir el lugar donde se cierra o restringe el
tracto vocal. Las distintas características de contraste que se necesitan para describir los sonidos se
denominan características distintivas.
2.1 Vocales
Las vocales se generan con un flujo de aire relativamente libre. La naturaleza de la vocal viene
determinada por la manera en que la forma de la lengua modifica el flujo del aire. (Tabla 2.2). Se pueden
combinar dos sonidos de vocales para crear un diptongo.
2.2 Consonantes
2.3 Las consonantes se forman cerrando o restringiendo parte del tracto vocal al pasar el aire. Se
clasifican las consonantes en función de (Tabla 2.3):
Lugar de articulación, independientemente de que se pronuncien o no. Es la parte del tracto vocal que
se cierra o constriñe durante la articulación. Ej.: /p/ y /b/ bilabiales.
Para comprender la diferencia entre /b/ y /p/, se tiene que introducir el concepto de fonación, las
consonantes producidas con la vibración de las cuerdas vocales:
Consonantes sonoras: /b/ cuando las cuerdas vocales están cerradas y vibran desde el momento en que
se abren los labios.
Consonantes áfonas (o sin voz o sordas): /p/ hay un breve lapso, mientras las cuerdas vocales se
separan al pasar primero el aire entre ellas; de aquí que requieren cierto tiempo para vibrar.
Tiempo de comienzo de la voz (Voice onset time –VOT-): tiempo entre que se libera la constricción
del flujo de aire cuando producimos una consonante y el momento en que empiezan a vibrar las
cuerdas vocales.
Consonantes alveolares: pronunciadas /d/ y áfonas /t/: estos sonidos se hacen poniendo la parte
delantera de la lengua en el arco alveolar.
Consonantes dentales: // y //: se forman poniendo la punta de la lengua detrás de los dientes
frontales superiores.
Consonantes labiodentales /f/ y /v/: se forman poniendo el labio interior contra los dientes superiores.
2
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Consonantes postalveolares /r/ entre otras: se hacen poniendo la lengua hacia la parte delantera de la
parte dura del cielo de la boca, el paladar, cerca del arco alveolar.
Consonantes palatales /j/ y /y/ se hacen poniendo la lengua en medio del paladar.
Consonantes velares /k/ y /g/ se producen poniendo la lengua contra el velo.
Consonantes sin utilizar la lengua, la glotis es el nombre del orificio entre las cuerdas vocales y la
laringe.
Consonante áfona fricativa gutural /h/: la constricción de la laringe en la glotis.
Golpe de glotis: un sonido que se produce al cerrar y abrir la glotis (apertura entre las cuerdas
vocales)
Forma en que se articulan: es la forma en que se constriñe el flujo de aire al hablar.
Oclusivas /p/, /b/, /t/, /d/: cuando el flujo de aire queda totalmente interrumpido por un breve periodo
de tiempo.
Fricativas /f/, /v/, /s/: Se forman restringiendo el flujo de aire de forma que el aire pasa con un sonido
sibilante.
Africadas son una combinación de una breve parada del flujo de aire seguida de una constricción.
Líquidas /l/, /r/: se producen permitiendo que fluya el aire en torno a la lengua al tocar el arco
alveolar.
Nasales /n/, /m/: cuando con el velo elevado se permite que el aire salga por la nariz.
Deslizantes o semivocales /w/, /y/ del inglés: son sonidos de transición producidos por la lengua al
moverse de la posición de una vocal a otra.
Las palabras se dividen en unidades rítmicas denominadas sílabas. Monosílabas: tienen una sola
sílaba. Las sílabas se pueden analizar en función del:
Ataque o arranque: es una consonante o grupo inicial.
Rima: compuesta por un núcleo que es la vocal central y una, coda, que incluye las consonantes
finales.
Compás de acentuación: se dice que el inglés es de este tipo, las silabas acentuadas se producen en
períodos de tiempo aproximadamente iguales.
Idiomas tonales: los idiomas que utilizan el tono para contrastar significados.
La obra del lingüista norteamericano Noam Chomsky ha sido influyente en la detección de las
limitaciones de la potencia del lenguaje humano, y cómo debe describirse mejor.
3
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
La obra de Chomsky parte de dos ideas: 1) las relaciones entre lenguaje y cerebro, y cómo adquieren
los niños el lenguaje; 2) una descripción técnica de la estructura del lenguaje. Afirmó que el lenguaje es
una característica especial que es innata, específica a cada especie y biológicamente programada, y es una
facultad independiente de otras estructuras cognitivas.
De forma generalizada, se puede decir que la psicolingüística está más interesada en la conducta
lingüística, y la lingüística en la competencia. De todas formas, la lingüística proporciona el marco
conceptual para describir y reflexionar sobre la sintaxis, y sus teorías imponen posibles restricciones a la
adquisición del lenguaje.
Gramática generativa: un conjunto finito de reglas que producirá o generará todas las frases de un
idioma, pero no frases sin sentido. Chomsky afirmó que una gramática debe poder explicar la estructura
sintáctica subyacente de las frases. Las estructuras de las frases que crea una gramática deben capturar
nuestras intuiciones sobre cómo se relacionan las frases y los fragmentos de las frases. La teoría de la
lingüística debería explicar cómo adquieren los niños estas reglas.
El tema central de la teoría de Chomsky es que el idioma está basado en reglas, y nuestros
conocimientos sintácticos se pueden capturar en un número finito de reglas sintácticas. El lenguaje
implica reglas, incluso si no siempre somos conscientes de las mismas.
4
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Chomsky propuso que las Reglas sintagmáticas son un elemento esencial de nuestra gramática,
aunque no son el único componente. En el lenguaje se pueden construir frases combinando palabras
siguiendo reglas.
Las reglas sobre la estructura de los sintagmas describen como deben combinarse las palabras, y
proporcionan un método para describir la estructura de una frase. La idea central es que las frases se crean
jerárquicamente a partir de unidades más pequeñas utilizando reglas de reescritura, este conjunto de
reglas constituye una gramática de la estructura de los sintagmas. Las reglas de reescritura son
sencillamente reglas que traducen un símbolo en el lado izquierdo de la regla en uno de los lados del
derecho. En una gramática sintagmática hay dos tipos de símbolos:
Elementos terminales: compuestos de elementos del vocabulario o palabras.
Elementos no terminales: el resto, todos los demás.
5
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Hay distintos tipos de verbos, y cada uno requiere un papel sintáctico distinto para crear estructuras
aceptables:
Verbos transitivos: requieren un único sintagma nominal denominado Objeto directo. “Besa” es
Verbo Transitivo. Ej. Vampiro Besa a la Bruja.
Verbos intransitivos: un verbo que no requiere de otro sintagma nominal. “El hombre se ríe”.
Verbos ditransitivos: requieren dos Sintagmas Nominales llamados Objeto directo y Objeto Indirecto:
“el vampiro da el anillo a la bruja”.
Frase Pasiva: El objeto de la forma activa se ha convertido en el sujeto gramatical en la forma pasiva.
“El vampiro está siendo pateado por la bruja”
Frases sintácticamente ambiguas: frases que tienen más de una interpretación “Vi a las brujas volando
a América”
Una gramática sintagmática también nos permite describir la estructura sintáctica de una frase
mediante un diagrama de árbol. Fig. 2.4 Los diagramas de árbol son muy importantes en el análisis de la
sintaxis. La estructura subyacente de una frase u oración se denomina, a veces, estructura de la oración o
marcador sintagmático. Las reglas sobre la estructura de los sintagmas nos proporcionan la estructura
sintáctica subyacente de las frases que producimos y comprendemos. Podemos construir frases más
complejas introduciendo conjunciones, Ej.: “El vampiro que ama a Boris se está riendo”
La Recursividad se produce cuando una regla utiliza una versión de sí misma en su definición. Las
reglas recursivas permiten a las frases incluir ejemplos del mismo tipo de frase. Una de las aplicaciones
más importantes de la recursividad consiste en insertar una frase en otra, produciendo frases insertadas en
el medio. “El vampiro al que el hombre lobo odiaba amaba a Ghul”. Este proceso de insertar en el medio
podría proseguir y seguir siendo gramaticalmente correcto, sin embargo sería difícil de comprender. Esta
observación refleja la diferenciación entre competencia y conducta.
La iteración nos permite seguir repitiendo la misma regla de manera indefinida. Ej.: “El simpático
vampiro ama al fantasma, y el fantasma ama al vampiro, y el amable fantasma ama al vampiro, y…”
6
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Gramáticas libres de contexto: sólo incluyen reglas que no son específicas a determinados contextos.
En este tipo, el símbolo del lado izquierdo siempre se puede volver a escribir con el lado derecho
independientemente del contexto en el que se produce, Ej.: la escritura de un verbo en su forma
singular o plural depende del sintagma nominal precedente.
Gramáticas sensibles al contexto: pueden tener reglas que sólo se pueden aplicar en determinados
casos.
Transformaciones
Un auxiliar es un verbo especial, un verbo vinculante utilizado con otros verbos Ej.: “tienes que haber
hecho eso”, “tienes” y “haber” son auxiliares.
Las transformaciones no sólo capturan nuestras intuiciones sobre cómo están interrelacionadas entre
sí las frases, sino también permiten que se simplifique la gramática, fundamentalmente porque las reglas
que nos permiten volver a reescribir series de palabras como otras series capturan muchas de las facetas
de las dependencias entre palabras.
Chomsky (1965) presentó una profunda revisión de la teoría, denominada habitualmente teoría
estándar. Los cambios hacían referencia sobre todo a la estructura del sistema lingüístico y a la naturaleza
de las reglas sintácticas. En el nuevo modelo había tres componentes fundamentales:
Un componente semántico: asignaba significado a las series sintácticas.
Un componente fonológico: convertía las series sintácticas en series fonológicas.
Un componente sintáctico: se ocupaba del orden de las palabras. Este a su vez tenía dos componentes:
o Conjunto de reglas básicas: equivalentes a grandes rasgos a las anteriores reglas sintagmáticas.
o Reglas transformacionales.
La ampliación más importante de esta teoría fue la introducción de la diferenciación entre estructura
profunda y superficial, aunque en cierto grado esta diferenciación se encontraba en el modelo anterior. El
modelo revisado establecía que cada frase tenía una estructura profunda y una superficial. Y todas las
transformaciones pasaron a ser obligatorias en tanto en cuanto sus marcadores están representados en la
estructura profunda.
7
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
8
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
manera en que los verbos transitivos adoptan papeles sintácticos se almacena con los verbos en el lexicón
en vez de almacenarse como una regla gramatical abstracta. Las categorías se fusionan para construir
categorías más grandes. Las representaciones léxicas de las palabras especifican características
gramaticales que controlan la fusión de las categorías.
La lingüística cognitiva es el nombre que se le ha dado al enfoque general que pone de relieve el
lenguaje como una faceta de la cognición general. Frente al enfoque de la gramática generativa de
Chomsky, la lingüística cognitiva no considera que exista una facultad del lenguaje separada, y afirma
que procesamos el lenguaje utilizando el mismo tipo de procesos cognitivos que utilizamos en cualquier
otra faceta de la cognición.
La teoría autómata revela algo sobre la dificultad de la tarea que tiene un niño cuando está intentado
aprender a hablar. El estudio de los distintos tipos de gramática y de los dispositivos necesarios para
producirla forma parte de la rama de la lingüística matemática o teoría computacional, denominada teoría
del autómata. Un autómata es un dispositivo que incluye una gramática y que puede producir frases
coherentes con la misma. Parte de una entrada y realiza algunas operaciones elementales, siguiendo
determinadas instrucciones especificadas anteriormente, para generar una salida. – si sabemos cuál es la
complejidad de un lenguaje natural, podemos esperar que imponga ciertas restricciones al poder de la
gramática necesaria para explicarlo.
Se ha definido una gramática como un dispositivo que puede generar todas las frases de un lenguaje,
pero no frases sin sentido. El lenguaje no está restringido al lenguaje natural: puede ser un lenguaje
artificial. Hay muchas gramáticas posibles que se encuentran en un reducido número de categorías
distintivas, cada una con una potencia distinta. Cada gramática se corresponde con un tipo particular de
autómata, y cada tipo produce lenguajes de distinta complejidad.
Para ser capaces de producir un número infinito de frases, nuestra gramática debe incorporar reglas
iterativas y de recursividad. Algunas reglas tienen que ser sensibles al contexto en que se produce la
manipulación de los símbolos. Los lenguajes libres de contexto y los sensibles al contexto, difieren en
cuanto a su necesidad de reglas que se pueden especificar de manera independiente al contexto en que se
producen los elementos.
El tipo autómata más sencillo que conocemos es un dispositivo de estado finito. Se trata de un
dispositivo que pasa de un estado a otro en función sólo de su estado actual y su entrada actual, y produce
lo que se conoce como un lenguaje de tipo 3. El estado actual de un dispositivo de estado finito viene
determinado por algunos números finitos de símbolos previos (palabras). Las gramáticas tipo 3 también
9
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
se conocen como gramáticas lineales a la derecha Fig. 2.25 El dispositivo de estado finito siempre parte
del estado F y, a continuación, lee las palabras de la categoría correspondiente para pasar al siguiente
estado, antes de pasar al siguiente. Termina produciendo frases cuando alcanza el estado final. Se pueden
producir frases más largas si se permite la iteración.
Autómata con pila: es más potente que un dispositivo de estado finito porque tiene memoria; sin
embargo, la memoria es limitada en tanto en cuanto es solo una pila; es un tipo especial de memoria
donde sólo se puede recuperar el último elemento apilado sobre el montón. Genera gramáticas del tipo 2:
se pueden analizar gramaticalmente lenguajes libres de contexto.
Autómata linealmente acotado: Gramáticas tipo 1: tienen una memoria limitada pero puede recuperar
cualquier cosa de la misma. Analizan gramaticalmente lenguajes sensibles al contexto.
Maquina de turing: el autómata más potente, no tiene limitaciones y produce una gramática tipo 0.
Chomsky demostró que no se puede describir el lenguaje natural mediante un dispositivo de estado
finito. En concreto, un dispositivo de estado finito no puede producir arbitrariamente largas secuencias de
múltiples estructuras insertadas en el centro en las que la secuencia de injertos podría prolongarse
indefinidamente. Sólo se puede producir este tipo de frases si el autómata tiene una memoria para
recordar lo que se ha producido hasta ahora. En aquella época las teorías del lenguaje estaban dominadas
por el conductismo y la teoría de la información, y se pensaba que el conocimiento de los estados previos
era todo lo que se necesitaba para explicar el lenguaje humano. Chomsky:
Demostró que un dispositivo de estado finito no podría producir o comprender el lenguaje natural.
Una ampliación importante de ese argumento es que los niños no pueden aprender el lenguaje sólo
mediante el condicionamiento.
Afirmó que ni las gramáticas libres de contexto ni las sensibles al contexto permitían explicar el
lenguaje humano.
Afirmó que es necesario añadir transformaciones a una gramática sintagmática; la gramática
resultante es Tipo 0 y sólo se puede producir con la máquina de Turing.
Simplificó las reglas de la estructura de los sintagmas necesarias y proporciona un tratamiento más
elegante del lenguaje.
Finalmente, existe cierta evidencia lingüística que parece demostrar que la gramática libre de
contexto o la sensible al contexto podrían explicar determinadas construcciones que se encuentran en
el lenguaje natural.
Por lo tanto parece que el lenguaje humano natural sólo puede ser producto de los tipos de gramática
más potentes. Esta conclusión fue desautorizada tras un tiempo por:
No está claro que todas las dependencias complejas entre las palabras descritas por Chomsky y Postal
sean necesariamente gramaticales.
Hay una sorprendente demostración formal de Peters y Richie de que se puede tener en cuenta el
contexto sin superar la potencia de una gramática libre de contexto.
Gazdar, Klein, Pullum y Sag demostraron que los lenguajes libres de contexto pueden explicar
fenómenos del lenguaje natural que se pensaba que requerían la sensibilidad al contexto si se
incorporan categorías sintácticas más complejas a la gramática. Así pues, mientras que un dispositivo
de estado finito es demasiado débil para describir el lenguaje humano, es posible que la Máquina de
Turing se innecesariamente potente.
10
Capítulo 3: Los fundamentos del lenguaje
1. Introducción
Se puede proponer que el lenguaje es un producto de la selección natural, o que sería un efecto
secundario de otras adaptaciones exitosas como el incremento del tamaño del encéfalo y con él de la
inteligencia en general. Varios argumentos apoyan la hipótesis del efecto secundario:
No ha habido suficiente tiempo para que algo tan complejo se haya desarrollado en el poco tiempo que ha
pasado desde la separación del hombre de la rama de los otros primates.
Puesto que la posesión de una gramática compleja no proporciona una ventaja selectiva importante, la
evolución no podría haberla seleccionado.
Sin embargo, la hipótesis de la selección natural es la que ha tomado más fuerza. Resulta evidente que la
gramática evolucionó para comunicar representaciones cognitivas existentes y que el sistema de
comunicación basado en una gramática confiere una gran ventaja evolutiva.
Bickerton ha defendido la idea de un protolenguaje entre los primates y los humanos, de hecho se le
asigna esta capacidad al homo erectus. El protolenguaje tiene etiquetas vocales relacionadas con los
conceptos, pero no tiene una sintaxis correcta. Se diferencia del lenguaje por la potencia de la sintaxis. Los
simios a los que se les enseña lenguaje de signos, niños muy pequeños o los que no tienen una estimulación
lingüística temprana tienen este tipo de lenguaje.
La configuración social de los primeros humanos tuvo que desempeñar un papel en la evolución del
lenguaje, pero muchos otros animales, tienen organizaciones sociales complejas y, aunque los primates
también tienen un rico repertorio de llamadas y gestos de alarma, no desarrollaron un lenguaje.
Es improbable que el lenguaje haya evolucionado en un solo paso o que dependa de un único gen. La
evidencia empírica sugiere que algunos aspectos del lenguaje (especialmente de la gramática), han
evolucionado junto con la mutación de un gen específico, el FOXP2. En los animales, este gen está
involucrado en la coordinación de la información sensorial y motriz y con movimientos complejos
habilidosos. En los humanos, cuando se daña el gen FOXP2 se generan dificultades en la adquisición normal
del lenguaje. La mutación en los humanos surgiría hace unos 100 mil años, lo que aumentaría el tamaño del
área de Broca y posibilitaría la comunicación sin depender de gestos, dejando libres las manos.
Paget propuso que el lenguaje había evolucionado en íntima conexión con la utilización de gestos
manuales, de forma que los gestos vocales se desarrollaron para ampliar el repertorio disponible. Corballis
afirmó que la evolución del lenguaje liberó a las manos, de tener que hacer gestos para comunicarse, de
manera que se podían utilizar herramientas de manera simultánea con la comunicación. Afirma que el
lenguaje surgió de los gestos de los primates. La evidencia empírica proviene de los estudios de imágenes
que demuestran que los cerebros de los simios están especializados de forma muy parecida a las de los
humanos.
Los chimpancés y los gorilas, al igual que los humanos, tienen los hemisferios asimétricos, teniendo el
área 44 de Brodmann más grande en el izquierdo, probablemente involucrada en la producción de los gestos
y que corresponde al área de Broca de los humanos. Por tanto los humanos disponían de una especialización
en la producción de gestos lateralizada, lo que permitió que el lenguaje evolucionara desde esos gestos, que
cada vez permitieron la incorporación de vocalizaciones, provocando la laterización y especialización de la
mano derecha en humanos (no todos los animales tienen esta especialización en la mano derecha, la mayoría
no presentan dominio en la realización de gestos) La relación entre evolución y lenguaje pudo haber sido
más compleja:
Elman propone que el lenguaje surge de continuos ajustes y reajustes que interactuaron entre sí.
Deacon afirma que lenguaje y cerebro evolucionaron conjuntamente de forma interactiva, convergiendo
hacia una solución común a problemas cognitivos, sensoriales y motores que tenía que afrontar el
organismo. Los gestos simbólicos y las vocalizaciones precedieron al lenguaje a gran escala. A medida
que el córtex frontal se agrandaba, el procesamiento simbólico adquirió más importancia y se hicieron
necesarias las habilidades lingüísticas para gestionar el procesamiento de símbolos, lo que llevó a la
evolución del aparato del habla para ejecutar esas habilidades, lo que a su vez llevó a más capacidad para
el procesamiento simbólico.
Fisher y Marcus proponen que el lenguaje no fue una única innovación a gran escala, sino una compleja
reconfiguración de varios sistemas que se adaptaron para formar el lenguaje.
La comunicación es la transmisión de una señal que envía información, a menudo de tal manera que el
emisor se beneficia de la respuesta del receptor.
El canal es el medio que transmite la información (como un color o un sonido). Se puede distinguir entre:
Señales informativas (que no tienen ese diseño ni la intencionalidad). Si toso informo de que tengo un
resfriado, pero eso no es comunicación, si lo digo ya sería comunicación.
Las abejas producen la “danza de la abeja”; un baile en forma de 8 donde el eje central indica dónde está
el néctar con respecto al sol y el ritmo representa la distancia.
Los primates utilizan señales visuales, auditivas, táctiles y olfativas. Usan una amplia variedad de
llamadas para simbolizar una serie de características del entorno y sus estados emocionales. Tienen una
llamada para serpientes, otra para águilas y otra para leopardos. Cada una de ellas genera respuestas
distintas en sus compañeros y estas señales sólo se producen en presencia del estímulo. Pero además se
comunican sobre estímulos que aún no disponen de una señal fija, por lo que se piensa que emplean la
creatividad a la hora de comunicarse.
Se suele decir que los delfines y las ballenas tienen un lenguaje, pero esto no se ha demostrado. Los
delfines usan secuencias de subunidades para comunicarse, pero se ha visto que este sistema es explicable
en términos de condicionamiento, se produce aunque no haya otros delfines cerca. Las ballenas cantan
una canción con subpartes ordenadas, pero no se conoce su función.
El diccionario define el lenguaje como “el habla humana… un sistema artificial de señales y símbolos
con reglas para crear comunicaciones inteligibles para su uso, por ejemplo en una computadora”. Es difícil
definir la palabra lenguaje; hasta cierto punto, el objetivo de la lingüística teórica moderna consiste en
ofrecer una respuesta a esta pregunta.
Se plantea la cuestión de que la diferencia entre comunicación animal y lenguaje sea una mera cuestión
de grado.
Hockett, en 1960, evitando dar una definición de lenguaje, elaboró una lista con 16 propiedades generales
o características del diseño del lenguaje humano hablado:
Tabla 3.1
1) Canal vocal auditivo (la comunicación se produce cuando el emisor habla y el receptor escucha).
2) Transmisión difundida y recepción direccional (una señal sale en todas direcciones de la persona
que habla pero puede ser localizada en el espacio por la persona que escucha)
3) Desaparición rápida (una vez dicho, la señal desaparece rápidamente y ya no está disponible
para ser inspeccionada)
5) Retroalimentación completa (los que hablan pueden acceder a todo lo que producen)
8) Arbitrariedad (estos símbolos son abstractos; excepto por unas pocas excepciones
onomatopéyicas, no se parecen a lo que representan)
10) Desplazamiento (se puede usar el sistema de comunicación para hacer referencia a cosas
distantes en el tiempo y en el espacio)
13) Dualidad de los patrones (sólo tienen significado las combinaciones de unidades que, de lo
contrario, carecen de significado; se puede considerar que esto es aplicable tanto a los sonidos y
las palabras como a las palabras y frases)
16) Capacidad de ser aprendido (la persona que domina un lenguaje puede aprender otro)
El énfasis de estas características está puesto en el lenguaje hablado. No todas son definitorias (se puede
prescindir de algunas y sigue existiendo el lenguaje). Como las más importantes podemos destacar;
semántica, arbitrariedad, desplazamiento, apertura, tradición, dualidad de los patrones, duplicidad y
reflexividad. Todas ellas hacen referencia a que el lenguaje tiene que ver con el significado y nos
proporcionan la capacidad de comunicarnos sobre cualquier cosa.
El lenguaje es un sistema combinatorio discreto: cuando se combinan las palabras creamos un nuevo
significado: los significados de las palabras no sólo se fusionan sino que mantienen su propia identidad.
Las frases bien ordenadas dependen de la ordenación sintáctica de categorías de palabras (como
sustantivos y verbos) en la secuencia correcta.
Las frases se construyen en torno a los verbos, que especifican qué va con qué.
Podemos diferenciar palabras que realizan el trabajo semántico del lenguaje de aquéllas que
desempeñan el trabajo sintáctico del lenguaje.
La recursividad (oraciones que incluyen ejemplos de sí mismas) nos permite construir un infinito
número de frases a partir de un número finito de reglas.
Ningún sistema de comunicación animal posee estas propiedades. Muchos animales poseen sistemas de
comunicación simbólicos ricos que les permiten transmitir mensajes a otros miembros de la especie, que
afectan a su conducta y que cumplen muchos de los requisitos de Hockett. Pero estos sistemas carecen de la
riqueza del lenguaje humano, que se manifiesta en nuestra capacidad ilimitada de hablar de cualquier cosa
usando un número finito de palabras y reglas para combinarlas. Por tanto no se puede hablar de grados en las
diferencias entre lenguaje humano y sistema de comunicación animal, es un salto cualitativo, los sistemas de
comunicación no humanos son bastante distintos del lenguaje.
Es posible que algunos animales tengan el aparato biológico y cognitivo necesario para adquirir el
lenguaje pero no hayan tenido que hacerlo en sus nichos evolutivos. El planteamiento alternativo es que los
animales son incapaces de aprender un lenguaje. Algunos creen que los perros y los loros conocen algunas
facetas del lenguaje.
Los perros reaccionan a órdenes. Uno llamado Rico conocía el nombre de 200 objetos y era capaz de
ir a por ellos en una casa ante órdenes de su amo aunque no lo estuviera viendo (eliminando el efecto del
“Listo Hans”, que dice que los perros en realidad se guiaban por señales emitidas por sus amos). Cuando se
le decía un nuevo nombre Rico interpretaba que se trataba de un objeto nuevo, no que ese nombre pudiera
ser un sinónimo de otro que ya conocía (este principio: “un nuevo nombre equivale a una nueva categoría”
es un principio que usan los niños para aprender nuevas palabras). Pero a diferencia de los niños, Rico sólo
conocía el nombre de algunos objetos y no era capaz de relacionar entre sí el significado de las palabras (que
muñeca y pelota son distintos nombres de juguetes). No obstante, este desempeño sugiere que los
mecanismos de aprendizaje general (más que específicos al lenguaje) podrían tener mucho que ver con el
primer aprendizaje de las palabras en la infancia.
Los loros pueden imitar el habla humana. Pepperberg sometió a su loro Alex a un programa de
entrenamiento. 13 años después el animal tenía un vocabulario de unas 80 palabras incluyendo nombres,
adjetivos y algunos verbos. Podía incluso reproducir y comprender secuencias cortas de palabras. Podía
clasificar 40 objetos por colores y composición, comprender conceptos como igual y distinto y contar hasta
seis. Demostró ser capaz de combinar categorías discretas y utilizar adecuadamente categorías sintácticas.
Pero conocía pocos verbos y no era muy capaz de relacionar objetos con verbos, además de que conocía
pocas palabras funcionales, por lo que su competencia era muy limitada.
Se pudo enseñar un lenguaje artificial a delfines negros, un lenguaje basado en elementos visuales con
los brazos y piernas del instructor y otro con una base acústica usando sonidos generados por computadoras
y transmitidos con altavoces submarinos. Sin embargo este trabajo sólo ponía a prueba la capacidad de
comprensión, y no la de producción. Los delfines mostraron tener una capacidad sintáctica limitada, y fueron
incapaces de usar palabras funcionales.
La mayor parte de trabajos sobre enseñanza de lenguaje a los animales incluyen a otros primates, sobre
todo a chimpancés, ya que son los más inteligentes y más parecidos a nosotros. Una característica esencial
del lenguaje humano es que incluye tanto la asociación de un número finito de palabras con determinados
significados o conceptos como la utilización de un número finito de reglas para combinar esas palabras en un
número potencialmente infinito de frases.
3.4 ¿Cuáles son las otras capacidades cognitivas de los chimpancés?
Las capacidades cognitivas de los simios son similares, en términos generales a las de los niños
pequeños. La diferenciación de las habilidades lingüísticas y de otras habilidades cognitivas entre los niños y
los simios tiene importantes repercusiones:
Las limitaciones cognitivas en sí mismas podrían no ser capaces de explicar el fracaso de los simios a la
hora de adquirir un lenguaje.
El primer intento de enseñar el lenguaje a los chimpancés fue el de Kellogg y Kellogg en 1933, que
criaron a Gua junto a su propio hijo (este tipo de crianza se denomina educación conjunta o custodia
conjunta). Gua sólo comprendía unas pocas palabras y nunca produjo una sola reconocible.
Hayes crió en 1951 a Viki como a un niño humano. Al cabo de seis años el chimpancé sólo podía
producir 4 palabras mal articuladas, usando sus labios, pero de una manera gutural, por lo que sólo Hayes y
su familia podían entenderla fácilmente. Al final logró comprender más palabras y algunas combinaciones.
La principal limitación de estos primeros estudios es que los tractos vocales de los chimpancés no se
adecuan a la producción del habla y sólo eso podría explicar la falta de progresos. Por tanto no se puede
concluir nada sobre la capacidad lingüística de los primates a partir de estos estudios.
Washoe
Los intentos posteriores de enseñar a los simios el lenguaje se basaban en sistemas que utilizaban el
lenguaje de signos, o la manipulación de signos creados artificialmente, evitando así el problema del tracto
vocal en los chimpancés.
Washoe fue capturada en la selva cuando tenía un año y fue criada como un niño humano. Aprendió a
comer, a ir al retrete, jugar y otras actividades sociales. También se le enseñó el Lenguaje de Signos
Americano (ASL), que también tiene una sintaxis y palabras. Con 4 años podía producir unos 85 signos y
comprendía más. Unos años más tarde su vocabulario había aumentado hasta los 200 signos, que eran
sustantivos, adjetivos, negaciones, verbos y pronombres.
Cometía errores de exceso de generalización, como los niños pequeños (como llamar “flor” a todos los
olores parecidos a las flores o “daño” para tatuaje). Cuando desconocía un signo, se inventaba uno nuevo,
como cuando vio un pato por primera vez e hizo los signos de “pájaro” y “agua”, creando una frase. Además
combinaba signos y los usaba correctamente en series de hasta 5 palabras (como “por favor abre puerta
rápido”). Podía contestar preguntas de las denominadas WH en inglés (who?, when, what?, where?...) y era
sensible a cierta colocación de las palabras (como “yo cosquillas a ti” o “tú cosquillas a mí”).
Además Washoe enseñó algunos signos a Louis (su hijo adoptado), y Louis aprendía espontáneamente
signos de su madre. Esto podría ser mera transmisión cultural, no queda claro de si se está enseñando un
lenguaje o un mero sistema de comunicación como el de la selva.
Sarah
Premack (1971-1986) adoptó un planteamiento distinto. Sarah era una chimpancé enseñada en un
laboratorio a manipular pequeños símbolos de plástico que variaban en cuanto a forma, tamaño y textura.
Estos símbolos se podían ordenar siguiendo una serie de reglas. Juntos los símbolos y las reglas formaban un
lenguaje denominado premaqués; Ventajas:
Se necesita una cantidad menor de memoria ya que el animal tiene ante sí toda la gama de símbolos a
usar.
Sarah produjo fundamentalmente conceptos léxicos sencillos (series de artículos juntos que describían
objetos o acciones sencillas) y podía generar nuevas series de símbolos, pero estas series las formaba
cambiando unas palabras por otras (de “Randy da una manzana a Sarah” a “Randy da un plátano a Sarah”).
Producía frases bastante complejas (como el uso de “si… entonces”) y mostró una sensibilización
metalingüística (reflexividad) en tanto que podía hablar sobre el propio sistema de lenguaje usando símbolos
como “es el nombre de…”. Sin embargo había escasa evidencia de que Sarah estuviera usando los símbolos
para formar unidades sintácticas correctas.
Nim y otros
Nim fue enseñado a usar el ASL y aprendió 125 signos, registrando los investigadores más de 20.000
expresiones en dos años, muchas de ellas con dos o más significados en combinación. Había una regularidad
en el orden de las expresiones de dos palabras: el lugar se solía mencionar en segundo lugar pero desaparecía
en las expresiones más largas, que se caracterizaban más por repeticiones (yo plátano comer plátano comer),
que por una estructura sintáctica. Nim apenas hacía el 10% de sus expresiones de manera espontánea, el
resto eran respuestas a instrucciones y hacían referencia a actividades inmediatas como comer, beber y jugar.
El 40% eran repeticiones de los signos que acababan de hacer los experimentadores. Se dijo que el entorno
de instrucción podía haber afectado a su desempeño, ya que era mejor en un contexto de conversación.
También se ha intentado enseñar a los primates el lenguaje mediante símbolos controlados por una
computadora. Eran estructurados y seguían una sintaxis inventada (llamada Yerkish). Los símbolos que
sirven de palabras se denominan lexigramas.
E incluso tradición.
Aún más importante es la afirmación de que se siguen determinadas reglas sintácticas de ordenación, es
decir, que aparentemente han adquirido una gramática.
Hasta aquí esto apoya las tesis de diferencia de grados entre el lenguaje humano y el de otros animales.
Pero hay muchísimos problemas metodológicos, argumentos y contrargumentos y problemas de
contrastación utilizados y cómo se deben interpretar los resultados. Ha habido dos fuentes de debate:
Críticas metodológicas: El ASL no es arbitrario, ya que muchos signos reflejan realmente lo que
representan (por ejemplo “conducir” es hacer el gesto de girar un volante). Al ser esto así se podría
rechazar la investigación por irrelevante ya que los simios no están empleando un lenguaje simbólico.
Sin embargo los signos de Premack sí lo son, y en el caso del ASL no todos los signos siguen esa regla
de no arbitrariedad. Pero sí al menos el ASL es un lenguaje condensado, donde se omiten los artículos
(y esto podría afectar positivamente al desempeño de los chimpancés). También se ha dicho que los
investigadores pudieron exagerar las interpretaciones de que los simios estuvieran realizando gestos con
significado cuando en realidad no lo hacían. Ya que había personas sordas que ante los signos de los
chimpancés veían “menos” cosas que los investigadores. Cuando a Sarah le cambiaron de investigador
su desempeño disminuyó considerablemente.
En estas primeras investigaciones no llegó ningún chimpancé a saber todo el lenguaje de signos, sólo en
parte. La repetición de palabras era una constante “tú plátano mi plátano dar plátano” lo que sin repeticiones
hubiera sido un logro mucho mayor y hubiera sido más parecido al lenguaje infantil. Abundan las
imitaciones de signos realizados inmediatamente antes por los humanos, mientras que son raras las
realizaciones de signos auténticamente creativas.
SIMIOS NIÑOS
Escasa comprensión de las relaciones sintácticas Capacidad de identificar relaciones sintácticas entre
entre unidades unidades
Necesita una formación explícita para utilizar No necesita formación explícita para utilizar símbolos
símbolos
No puede rechazar frases mal formadas Pueden rechazar frases mal formadas
No se utilizan símbolos como referencia de forma Se usan como referencia los símbolos de manera
espontánea espontánea
Kanzi
Forma parte de la investigación reciente con chimpancés pigmeos, que se cree que es más inteligente
que el común, una vida social más amplia y un repertorio comunicativo natural más amplio.
Adquirió primero los símbolos observando la educación de su madre en el Yerkish de lexigramas (no
fue entrenado con refuerzos de manera formal). Después se relacionó con personas en la vida cotidiana y fue
expuesto al inglés. Su capacidad para comprender tanto el Yerkish como el inglés ha sido comparada con la
de niños pequeños (de hecho tuvo indicadores de desempeño similares, o incluso superiores a los de un
niño de 2 años). Con poco menos que 46 símbolos aprendidos y 800 combinaciones. Era sensible al orden de
las palabras y comprendía el significado de los verbos (de “coge” la pelota a “lleva la pelota” así como que
diferenciaba entre “pon la pelota encima del sombrero” y “pon el sombrero encima de la pelota”). El
lenguaje espontáneo suponía el 80% de todas sus expresiones.
Se han puesto en duda tanto sus capacidades semánticas como las sintácticas; Kanzi no muestra indicios
de poseer palabras funcionales, que en realidad al decir fresa no se sabe si quiere comer, ir a donde están…;
No parece capaz de utilizar la morfología: no modula su lenguaje en función del número; y no hay evidencia
de que utilice estructuras gramaticales recursivas.
Kanzi estuvo expuesto al idioma desde bien pequeño, lo que hace pensar en un período crítico de
aprendizaje también el los chimpancés, como pasa con los humanos.
¿Qué se les ha enseñado exactamente a los simios? Es evidente que asocian nombres con acciones y
objetos, pero el lenguaje es más que esto.
Los humanos tenemos un conocimiento amplio y relacionado de los nombres. Los humanos aparte de
nombrar palabras, también conocemos su significado. Sabemos que “árbol” es una palabra que designa todo
un conjunto de características y lo podemos relacionar con otra como “planta”, o que necesita tierra y agua
para crecer, que “hoja” está igualmente relacionada y “raíz” también. Es decir, sabemos cómo se relaciona
conceptualmente la palabra “árbol” con otras palabras. Los humanos no necesitamos utilizar palabras
diferentes en función del contexto.
El simio Nim sabía qué símbolo representaba “manzana” y “plátano” cuando estas frutas le eran
presentadas por separado, pero al hacerlo conjuntamente no sabía qué respuesta dar, lo que sugiere que no
comprende el significado de las palabras de la misma manera que los humanos. En resumen, mientras que
los chimpancés han aprendido claramente las asociaciones entre los símbolos y el mundo, y entre los propios
símbolos, es debatible que hayan aprendido el significado de los símbolos. Sin embargo, Kanzi y otros
simios con exposición temprana y natural podían aprender muy deprisa con sólo unas pocas exposiciones,
además de que podían hacerlo por observación, sin necesidad de apuntar hacia el objeto cada vez que se
decía su nombre.
También, aunque usen en apariencia una sintaxis muy básica, se ha propuesto que el aprendizaje es
mediante “marcos” (por mero condicionamiento), pero no son capaces de un uso creativo de esa sintaxis para
ordenar las palabras. No hay evidencia de que los simios empleen la recursividad. La gramática que usan es
básica, pero no pueden aprender gramáticas complejas humanas, que usan estructuras jerárquicas en las que
existen dependencias a larga distancia entre palabras (entre el “si” y el “entonces” puede haber un montón de
palabras y frases).
Pueden aprender secuencias simples de sonidos (sobre todo en gramáticas inventadas) que tienden a
repetirse juntas (tipo ABABABA), pero son incapaces de aprender secuencias sofisticadas con estructura
jerárquica, que depende del uso de la recursividad (por la que las frases pueden incluir frases del mismo tipo)
que los simios no pueden usar.
Por tanto, sólo los humanos hacen una representación sofisticada del significado, los simios, a los
sumo, han adquirido un protolenguaje.
El debate ha llevado a una comprensión más profunda de la naturaleza del lenguaje y de lo que es
importante para él.
Aunque las capacidades cognitivas de los niños pequeños y las de los chimpancés no son muy
distintas, sus capacidades lingüísticas si lo son. Lo que sugiere que los procesos del lenguaje, son en
cierta medida, independientes de los procesos cognitivos.
Chomsky afirmo que el lenguaje humano es una facultad especial, independiente de otros procesos
cognitivos, con una base biológica específica y que sólo ha evolucionado en los humanos. El lenguaje
surgió porque el cerebro superó determinado umbral en cuanto al tamaño “el lenguaje es específico a
la especie y tiene base innata”; aunque una expresión mejor sería “Algunos componentes del lenguaje
son específicos a la especie”. Solo los humanos poseen un “dispositivo de adquisición del lenguaje” –
DAL- (Chomsky).
La capacidad de utilizar reglas sintácticas recurrentes, que es lo que da al lenguaje toda su potencia, es
exclusiva de los humanos. Mientras que los niños adquieren un lenguaje, a los simios hay que
enseñárselo.
El cerebro está dividido en 2 hemisferios, cada uno de ellos especializado en unas tareas:
El hemisferio izquierdo se ocupa principalmente del procesamiento analítico basado en el tiempo.
El hemisferio derecho se ocupa del procesamiento holístico con base espacial.
Para el 96% de las personas diestras, las funciones del lenguaje se localizan fundamentalmente en el
hemisferio izquierdo, y se le llama dominante. Señalar que esta localización de la función no está vinculada
solo con el habla, ya que personas que usan lengua de signos activan las mismas zonas que los hablantes.
La mayor parte de la evidencia sobre la localización de las funciones del lenguaje proviene de los
estudios de los efectos de las lesiones cerebrales. Una deficiencia en la producción o comprensión del
lenguaje debida a una lesión cerebral se denomina afasia.
Broca, en 1860, empezó a estudiar a pacientes con lesiones en el córtex del lóbulo frontal izquierdo que
habían perdido la capacidad de expresarse a pesar de tener el tracto vocal intacto y a pesar también de que
entendían perfectamente. Este patrón de conducta o síndrome, se ha llamado afasia de Broca y la parte que
este médico identificó como la dañada se ha llamado área de Broca.
En 1874, Wernicke identificó otra zona del cerebro relacionada con el lenguaje, situada más allá en el
hemisferio izquierdo, en el giro temporal del lóbulo temporal, se le llama área de Wernicke, cuya disfunción
provoca afasia de Wernicke, caracterizada por un lenguaje fluido sin sentido y una gran incapacidad para
comprender el lenguaje, aunque el oído esté perfectamente.
Wernicke presentó uno de los primeros modelos de cómo se organiza el lenguaje en el cerebro. Afirmó
que las “imágenes de los sonidos” de los nombres de los objetos se almacenan en el área de Wernicke.
Cuando hablamos se envía esa información a lo largo de una vía de fibras llamada “fascículo arqueado”
hacia el área de Broca, en la corteza frontal inferior izquierdo, donde se transforman esas imágenes en
movimientos para controlar el habla. Los modelos modernos siguen esta guía aunque son más sofisticados.
Cuando oímos una palabra, se transmite la información de la parte del córtex responsable del
procesamiento de la información auditiva hasta el área de Wernicke.
Si, a continuación, decimos esa palabra en voz alta, la información fluye al área de broca donde se activa
la información articulatoria y pasa a continuación al área motriz responsable del habla.
Si se lee una palabra, el área visual del córtex activa el giro angular y, después, el área de Wernicke.
El área de Wernicke desempeña un papel central en la comprensión del lenguaje. Una lesión del
fascículo arqueado provoca dificultades en la repetición del lenguaje, mientras que la comprensión y la
producción del mismo no sufren alteración alguna. Este patrón es un ejemplo de un síndrome de
desconexión. La desconexión se produce cuando la conexión entre dos áreas del cerebro está dañada sin que
se haya producido una lesión en las propias áreas. Por su parte el giro angular desempeña un papel central en
la mediación entre el lenguaje visual y el auditivo.
Este modelo se considera ahora demasiado sencillo por varias razones:
Aunque la mayoría de las funciones del lenguaje están localizadas en el hemisferio izquierdo, no se
limitan al mismo. Algunas funciones están en el derecho: el trastorno de dislexia profunda que desempeña
facetas importantes en el reconocimiento visual de las palabras y que está implicado en aspectos de la
producción del habla, fundamentalmente la prosodia (entonación, volumen, ritmo y tono del habla).
También algunas funciones están localizadas en regiones subcorticales, como parece ser que lo pueden
estar las reglas generales del lenguaje (pacientes con lesión en la corteza podían recordar verbos
irregulares, que son excepciones a la norma, pero tenían dificultades con los regulares, sujetos a las reglas
que en teoría están en el córtex). En el cerebelo derecho se encuentra mucha activación cuando
procesamos el significado de las palabras.
Del hemisferio izquierdo, no sólo las áreas tradicionales cumplen una función del lenguaje, sino las
adyacentes también, parece que todo el giro temporal superior (de la que Wernicke es sólo una parte)
cumple una importante función.
Las lesiones no tienen un efecto tan bien definido como predice el modelo: rara vez la destrucción total de
las áreas descritas producen las afasias permanentes que podrían esperarse. También rara vez se
encuentran trastornos exclusivos de la producción o de la comprensión (por ejemplo pacientes sin Broca
también pueden presentar dificultades de comprensión). Los distintos tipos de afasia tienen agrupaciones
variables de síntomas que tienden a producirse juntos, y que no están claramente relacionadas con áreas
como la de Broca o la de Wernicke.
Casi todas las personas con afasia padecen además anomia (dificultad para encontrar los nombres de las
cosas), independientemente del lugar de la lesión.
La estimulación eléctrica de las áreas de Broca o Wernicke desde el exterior no producen los efectos que
cabrían esperarse.
El diccionario mental o lexicón, que depende de la memoria declarativa localizada fundamentalmente en
el lóbulo temporal izquierdo.
La gramática mental que depende de la memoria procedimental que conforman varias regiones: lóbulos
frontales, ganglios basales, cerebelo y partes del lóbulo parietal izquierdo.
Esta distinción hace referencia a la separación entre las reglas lingüísticas, o sintaxis y las palabras.
El procesamiento del lenguaje utiliza, en cierta medida, procesos cognitivos y estructuras que no están
dedicadas exclusivamente al lenguaje. Algunas partes del cerebro son más importantes que otras, pero no es
fácil localizar procesos concretos asociados a áreas concretas. Es probable que haya múltiples rutas para la
producción y comprensión del lenguaje. Las técnicas de neuroimagen han dado datos que sugieren que las
regiones implicadas en el lenguaje son mucho más de las que se pensaba (como el caso del giro temporal,
más allá del área de Wernicke, muy implicada en la comprensión).
Dan una explicación a la relación entre lenguaje y cerebro y basan sus argumentos en datos de
neuroimagen y de lesión centrándose en el tema de la comprensión auditiva.
Afirman que las primeras etapas de la percepción del habla implican al giro temporal superior
bilateralmente (aunque hay más activación en el izquierdo). El sistema de procesamiento cortical diverge en
dos sentidos:
Corriente ventral: hacia la parte delantera e inferior del cerebro. Se ocupa fundamentalmente de
convertir el sonido en algo con significado y es la mayor parte de lo que se entiende como “percepción
del habla”.
Corriente dorsal: hacia la parte trasera y superior del cerebro. Se ocupa de hacer un mapa del sonido
convirtiéndolo en una representación que implica articulación y que relaciona la percepción del habla
con la producción de la misma. El producto de la corriente dorsal es una integración de la información
auditiva y motriz y es muy importante cuando nos centramos en los sonidos de las palabras implicadas
(por ejemplo al aprender a hacer los sonidos de las palabras, al analizar los sonidos de las palabras o al
repetir palabras inexistentes)
Aunque se puede apuntar a regiones concretas del cerebro (sobre todo en los lóbulos frontal y temporal)
que desempeñan papeles importantes en el lenguaje, los estudios de lesiones y las imágenes neuronales
muestran que los sistemas subyacentes del lenguaje son variables, flexibles y se distribuyen en muchas
regiones del cerebro.
Parece que las niñas tienen mayor capacidad verbal que los niños y que éstos son mejores en
matemáticas y tareas espaciales. Sin embargo esto resulta simplista y ha de ser acotado (por ejemplo parece
que las mujeres tienden a tener una mayor memoria visual). También resulta difícil hacer una distinción clara
entre lo biológico y lo cultural al establecer causas de estas diferencias.
Las niñas: desde una edad muy temprana son mejores en algunas tareas verbales, además de que
empiezan a hablar de media un mes antes que los niños. Tienen mejor memoria verbal, son mejores
lectoras y cometen menos faltas de ortografía. Su lateralización es menor. Tras una lesión del hemisferio
izquierdo, las niñas se recuperan más deprisa. Las imágenes cerebrales han demostrado que el área de
Broca se activa de distinta manera; en las niñas, cuando realizan una tarea lingüística de decidir si dos
palabras riman o no, se activan los córtex derecho e izquierdo. Parece que un cerebro menos lateralizado
genera una ventaja para el procesamiento del lenguaje, tal vez porque pueden utilizar ambos hemisferios.
Quizás por esto también las afasias en mujeres tienen consecuencias menos graves.
Los niños: muestran mayor ventaja del hemisferio izquierdo y del oído derecho a la hora de percibir
sonidos, por lo tanto una mayor lateralización. En las tarea de decidir si dos palabras riman o no, en los
niños sólo se activa el hemisferio izquierdo, lo que a la hora de una afasia tiene repercusiones mayores.
En la edad adulta también persisten las diferencias. Sin olvidar los factores culturales:
Las mujeres producen más palabras, frases más largas, con menos errores y con mayor fluidez que los
hombres.
Es mucho más probable que un hombre padezca un trastorno como el tartamudeo.
Al igual que ocurre con otros animales (como el canto del pinzón, al que debe ser expuesto un recién
nacido para desarrollarlo), en los humanos se da este período crítico para el lenguaje. La hipótesis del
período crítico incluye dos ideas relacionadas:
Determinados sucesos biológicos relacionados con el desarrollo del lenguaje sólo se pueden producir
en un período crítico temprano. En concreto, la especialización hemisférica, que si se pasa determinado
período se pierde la flexibilidad para que se produzca.
Determinados sucesos lingüísticos deben producirse en el niño durante ese período para que el
desarrollo sea normal. Esto hace referencia a la eficiencia en el lenguaje, que será mayor cuanto más se
ajusten esas condiciones necesarias al período crítico.
La evidencia de un período crítico del desarrollo lingüístico de los humanos proviene de una serie de
fuentes:
Tras el nacimiento se produce la maduración, que implica cambios en el desarrollo de la estructura del
cerebro y que puede llegar hasta la adolescencia. El córtex (fundamentalmente) ofrece mayores posibilidades
de reestructuración por ejemplo tras una lesión, cuando las funciones se pueden reorganizar y no llegar a
perderse (esto puede pasar hasta en la edad adulta).
Hipótesis del determinismo irreversible (o invarianza): afirma que el hemisferio izquierdo estaría
especializado al nacer y el derecho asume funciones del lenguaje sólo si el izquierdo presenta daño en un
área grande, daño que implique tanto regiones anteriores como posteriores. Afirma que el izquierdo tiene
una afinidad natural por el lenguaje por su estructura anatómica innata y no lo abandonará a no ser que un
centro quede totalmente destruido.
La diferencia entre equipotencialidad y determinismo irreversible: en la primera cualquier hemisferio
puede terminar especializado en el lenguaje, en la segunda, el hemisferio izquierdo se especializa en el
lenguaje salvo que haya una razón de peso para que no sea así.
Explicación emergentista; aúna las anteriores y dice que los dos hemisferios poseen una estructura
innata diferenciada que caracteriza un tipo determinado de procesamiento (el izquierdo estaría
involucrado en procesamiento de secuencias complejas), de manera que el izquierdo sería dominante y el
lenguaje se adaptaría más a ese tipo de procesamiento (Los datos que manejaron Dennis y Whitaker les
hicieron concluir que los niños a los que se les extirpaba el hemisferio izquierdo por completo no eran
capaces de comprender una sintaxis compleja con el derecho sólo, algo que apoyaría esta hipótesis,
aunque fueron muy criticados por tener pocos sujetos en el estudio y que midieran con el cociente
intelectual, ya que habría que haber hecho ajuste en este CI para afirmar que los efectos de las
puntuaciones más bajas se debían a la hemidecorticación). Pero en realidad los dos hemisferios
desempeñan un papel en la adquisición del lenguaje.
Examinó cómo afectaba la edad del niño a la recuperación tras una lesión cerebral. Cuanto más joven se
es, mayor probabilidad de que la función perdida se recupere en otra parte del cerebro. De hecho toda la
función del izquierdo la puede asumir el derecho si se es lo suficientemente joven, como demuestran una
serie de casos de hemidecorticación, que es un tratamiento drástico si se sufre epilepsia, excepcionalmente
grave, durante períodos críticos (en un adulto supondría la pérdida del lenguaje), supone una recuperación
casi completa. Otra evidencia empírica del período crítico es la afasia cruzada, en el que una lesión en el
hemisferio derecho en niños pequeños supone una disfunción del lenguaje (prueba de la lateralización
progresiva, ya que en un adulto una lesión en el derecho no afectaría al lenguaje)
En contra de la hipótesis del período crítico, hay evidencia de que se produce especialización
hemisférica en edades muy tempranas, incluso desde el mismo nacimiento.
Entus estudió a bebés de 3 semanas con el paradigma de habituación al chupeteo. Descubrió un cambio
más marcado en el ritmo de chupeteo cuando se presentaban estímulos al oído derecho (ventaja del
hemisferio izquierdo) y una ventaja para un estímulo distinto del habla cuando se presentaba en el oído
izquierdo.
Molfese midió los potenciales evocados en bebés y encontró diferencias hemisféricas del habla y del
sonido en bebés de una semana, con preferencia del izquierdo para el habla. Los niños muy pequeños
también muestran un período sensible a la percepción fonética que desaparece a los diez o doce meses.
Mills y otros midieron los potenciales evocados en bebés de entre 13 y 20 meses con el sonido de
palabras conocidas y palabras desconocidas. Los dos tipos de palabras despertaban potenciales similares por
todo el cerebro en los niños de 13 a 17 meses, pero de ahí a los 20 meses los potenciales se concentraban en
las regiones centrales del hemisferio izquierdo (por tanto la especialización sería durante la maduración pero
antes de la horquilla 2-5 años propuesta por Lenneberg). Los datos anteriores sugieren que el hemisferio
derecho también cumple su función en el lenguaje, ya que éste se activaba también ante las palabras
desconocidas, por lo que actuaba ante estímulos novedosos pero significativos. Ésta interpretación está
avalada por el hecho de que lesiones en el hemisferio derecho entre los 10 y 17 meses provocan retraso en el
desarrollo de las habilidades de comprensión de las palabras en mayor medida que si la lesión es en el
izquierdo.
Estas diferencias podrían estar relacionadas con el lenguaje. Los niños que muestran mayor activación y
por tanto mayor procesamiento del hemisferio izquierdo ante estímulos fonológicos, muestran mejores
habilidades del lenguaje varios años después. Como conclusión se podría decir que existe un período crítico
(sobre los 17-20 meses), que hay una afinidad del hemisferio izquierdo con el lenguaje desde el
nacimiento (no equipoten.) y que sí hay especialización del hemisferio izquierdo en tareas del lenguaje.
Dos hipótesis afirman que la capacidad de aprender el primer idioma es mucho mayor a edades
tempranas (muy tempranas), que en la infancia tardía o más adelante. (Johnson y Newport):
Hipótesis del estado de maduración: la capacidad de adquirir el primer idioma disminuye a medida que
avanza la maduración, independientemente de otros factores. Predice que los niños serán mejores
aprendiendo un segundo idioma que los adultos, porque la capacidad disminuye con la edad.
Hipótesis del ejercicio: afirma además que, salvo que se ejercite esta capacidad a una edad temprana, se
pierde. Predice que si ese primer idioma se ha adquirido en la infancia, la capacidad para adquirir otros
permanecerá intacta y se podrá usar a cualquier edad. Según esta hipótesis, siendo todo lo demás
constante, un adulto podría aprender un idioma más rápido que un niño, dadas sus mayores habilidades de
aprendizaje (más recursos, experiencia, etc.).
La investigación ha abordado el tema de si existe un bloqueo relacionado con la edad para aprender un
segundo idioma, ya que hasta ahora se ha pensado que los niños eran mejores aprendiendo segundos idiomas
que los adultos.
Snow afirma no sólo que los adultos no son peores, sino que pueden ser incluso mejores. Se piensa que
los niños son mejores pero pasan muchísimo tiempo expuestos y aprendiendo el lenguaje, más que los
adultos, lo que dificulta la comparación. Comparó a niños de entre 3 y 4 años y adultos ingleses en Holanda
y el desempeño de los pequeños fue claramente peor. La ventaja atribuida a los niños por el tema del período
crítico podría estar en realidad en el tipo y cantidad de información disponible, del aprendiz. Entre adultos
también hay mucha variedad, pudiendo algunos alcanzar un nivel casi nativo mientras otros quedar más
abajo. Aunque la capacidad en la sintaxis conversacional está correlacionada con la duración de la
exposición al segundo idioma, esto sólo sugiere que la duración total de exposición es importante, y dado
que los niños tienen más tiempo, su exposición es mayor y más rápido su avance. No existen pruebas claras
de que haya un corte en la pubertad en las capacidades de adquirir una segunda lengua.
Las personas adultas que aprenden un segundo idioma tendrán acento extranjero persistente, de aquí que
el desarrollo fonológico sí que pueda ser un aspecto asociado a un período crítico y aunque parece que los
adultos tienen una ventaja inicial, el desempeño final de los niños será de mejor calidad.
Johnson y Newport realizaron uno de los experimentos más detallados sobre los posibles efectos de un
período crítico sobre el desarrollo sintáctico. Descubrieron cierta evidencia de un período crítico para la
adquisición de la sintaxis del segundo idioma. Preguntaron a inmigrantes coreanos y chinos en EE.UU. sobre
si ciertas frases eran correctas gramaticalmente:
Los que llegaron entre los 0 y los 16 años resolvieron mucho mejor esta cuestión que los que tenían entre
17 y 40, sin que hubiera grandes diferencias en este grupo de mayores entre ellos.
La varianza entre los que habían llegado siendo más mayores era muy elevada.
Concluyeron que hay distintos factores que actúan en la adquisición del lenguaje antes y después de los 16
años: Propusieron que se produce un cambio en el estado de maduración, de la plasticidad a un estado
estable, aproximadamente a los 16 años. Algunos autores bajan ese nivel a los 5 años.
Etman et al. No hablan de corte sino de relación curvilínea, con un decaimiento progresivo de la
plasticidad hacia la estabilidad. Birdsong y Molis, en un estudio parecido con hispanoparlantes aprendiendo
inglés descubrieron que no había corte alguno a los 16 y que incluso algunos de los mayores desarrollaron un
desempeño cercano al de los nativos, algo imposible si la hipótesis del período crítico fuera correcta.
En resumen, parece demostrada la existencia de un período crítico en algunas facetas del desarrollo
sintáctico pero es más acuciado todavía en aspectos fonológicos. Sin embargo, aprender un segundo idioma
no puede ofrecer pruebas contundentes ya que se hacen sobre personas que ya conocen y dominan su propio
idioma, que alcanzaron habiendo pasado por el período crítico. Pero ¿qué pasaría si no hubieran adquirido un
idioma durante ese supuesto período crítico?
La privación en estos casos nunca es absoluta, por lo que orientan pero no se pueden obtener certezas. En
el caso de JIM, un niño de padres sordos que no oyó más que la TV hasta que fue a la guardería y sus
padres no se comunicaban con él mediante el lenguaje de signos. Su entonación era plana, su articulación
muy mala, algunas de sus expresiones indescifrables y su gramática muy idiosincrásica. Usaba cosas como
“Una casa, dos casa, no una casa, esa dos casa”. Tenía el concepto de pluralidad pero no lo hacía con la
inflexión <<-s>>. Su gramática no era correcta pero existía, lo que indica una necesidad de elaborar una
sintaxis (decía por ejemplo yendo casa un camión de bomberos). Tampoco comprendía el lenguaje
adecuadamente. Tras una intervención, al cabo de unos pocos meses el lenguaje de Jim era casi el adecuado
para su edad.
Este ejemplo muestra que la exposición al lenguaje no es suficiente para aprenderlo, sino que debe darse
en un contexto social, interactivo y apropiado. También pone de relieve la imperiosa necesidad humana de
usar el lenguaje.
Ocurre lo mismo con el lenguaje de signos, si se aprende pronto se desarrolla una gran competencia, pero
si se hace en la edad adulta el uso por ejemplo de verbos complejos no se realiza correctamente. Estas
observaciones también respaldan la hipótesis del período crítico.
¿Qué ocurre si se priva a los niños de una exposición lingüística durante el período crítico?
En el año 1500 el rey Jaime I de Escocia abandonó a dos niños en un bosque y cuando crecieron afirmó
que habían aprendido hebreo perfectamente. Después el famoso niño salvaje de Aveyron, llamado Víctor,
que nunca dijo más de dos palabras tras intensivo entrenamiento. Sin embargo estos casos no sirven para
plantear hipótesis, porque se desconocen las causas de los abandonos, que probablemente fueran por retraso
mental y que esa sería la causa de que no lograran hablar cuando fueron encontrados y entrenados. Se trata
de casos no documentados.
Un caso documentado es el de Genie una niña aparentemente normal que desde los 20 meses hasta los
casi 14 años estuvo atada en una habitación privada del lenguaje. En su casa no se hablaba y ella era
castigada si emitía algún sonido. Sólo su madre la veía unos minutos al día para darle comida. Se trataba
de una privación física, social, nutritiva y lingüística extrema. Pasó de no tener competencia lingüística
alguna a poder desarrollar alguna, pero su sintaxis siempre fue muy mala con respecto al vocabulario.
Usaba pocas palabras interrogantes, menos palabras gramaticales aún y hacía el negativo poniendo un
“no” al principio de las frases. No era capaz de usar la morfología reflexiva (modificar el número y usar
tiempos verbales), no podía pasar de activa a pasiva ni usar verbos auxiliares. Era diestra y mostraba
dominio del hemisferio derecho, quizás porque el izquierdo había asumido otras funciones o porque el
derecho había inhibido al izquierdo, o sencillamente que el izquierdo había degenerado). Esto viene a
demostrar que adquirir un lenguaje tras el período crítico es posible, pero de manera muy limitada. Sin
embargo tampoco esta afirmación puede ser categórica, ya que Genie tenía otras muchas privaciones más
importantes que pudieron afectar a la lingüística, además de que existe la posibilidad de retraso antes del
encierro (lo que afirmaba su padre, aunque esto no se demostró después del rescate).
Isabelle pasó recluida con su madre sordomuda hasta los 6 años, pero después pasó por las fases
normales del desarrollo y tras dieciocho meses su inteligencia era normal y su capacidad lingüística
también.
En resumen, la evidencia no es clara. Parece que hay desarrollo si la exposición es temprana y que si no
lo es, la competencia se puede desarrollar con claros déficits en la sintáctica sobre todo. También es bastante
difícil separar los efectos de la privación lingüística de otras privaciones.
Hay dos razones para rechazar la hipótesis del período crítico, en su versión fuerte: los niños pueden
adquirir cierto lenguaje fuera del período crítico y la laterización no se produce totalmente durante el mismo.
Pero existe una versión débil de la hipótesis; la hipótesis del período sensible: existe un período sensible para
el lenguaje, pero parece confinado al desarrollo de la competencia sintáctica.
Por otra parte el período crítico no se limita al lenguaje hablado. Newport encontró un período similar
en sordos congénitos que aprendían el lenguaje de signos, ya que al hacerlo tarde tenían deficiencias en la
utilización de signos inflexionados morfológicamente. También identificó un declive paulatino de la
capacidad, no un corte. Además los adultos pueden aprender este lenguaje de signos pero suelen ser menos
eficientes.
Explicación Nativista: existe un período crítico porque el cerebro está preprogramado para adquirir el
lenguaje al principio del desarrollo. Bever afirma que esto es una propiedad normal del crecimiento, que
surge de una pérdida de la plasticidad a medida que los procesos y las neuronas se van especializando y
haciéndose más independientes. Locke dice que este período surge de la interrelación de sistemas
neuronales especializados que se están desarrollando, también por la primera experiencia perceptiva y
por las discontinuidades del desarrollo lingüístico. La ausencia de una activación adecuada durante el
desarrollo actúa como una lesión física en algunas zonas del cerebro.
Explicación de la maduración: es que se pierden ventajas a medida que el sistema neurológico y
cognitivo del niño madura. Lo que podría parecer una limitación inicial del sistema cognitivo podría
resultar una ventaja para el niño que empieza a hablar. Por ejemplo podría ser ventajoso ser capaz de
tener un número limitado de datos en la memoria a corto plazo y un número limitado de asociaciones
entre palabras específicas, recordando únicamente las correspondencias más globales. Podría haber en
realidad una ventaja en lo pequeño, porque a través de los árboles (lo pequeño), los niños ven el bosque.
Relacionado con el lenguaje, al ir asumiendo pequeñas cosas poco a poco (“menos es más”) por
limitaciones cognitivas propias de la maduración, van sumando los nuevos conocimientos a los antiguos
y van construyendo el lenguaje adecuadamente. Una variante relacionada con la maduración es que el
cerebro, a medida que madura, agota sus posibilidades de aprendizaje ya que va destinando circuitos a
tareas específicas.
El modelo conexionista, en la adquisición del tiempo verbal pasado sugiere que las redes (el cerebro) van
perdiendo plasticidad a medida que aprende más.
Las principales diferencias entre estas posturas son el grado en que las restricciones subyacentes al
período crítico son lingüísticas o más generales, y el grado en el que el momento de adquisición está
controlado genéticamente. Con las ideas de modelización conexionista, la explicación de la maduración ha
recibido recientemente la mayor atención. Sin embargo, tal vez los dos enfoques no sean realmente
contradictorios. Un sistema que madura y es más eficiente para aprender el lenguaje tendrá una ventaja
evolutiva.
Hasta los 2 años. Hasta los 6-7 años. Hasta los 12 años. De los 11-12 años en
adelante.
Se alcanza el logro Caracterizado por el El niño puede adoptar El individuo puede
cognitivo de egocentrismo (los niños puntos de vista razonar de forma
“permanencia de no piensan que los otros alternativos, como abstracta y lógica sobre
objeto” (los objetos tienen puntos de vista demuestra la tarea de la sucesos potenciales o
existen aunque no los diferentes al suyo y no conversación; ideas abstractas.
vea) cambian su punto de
vista).
Piaget propuso dos mecanismos para el desarrollo cognitivo: la asimilación es la información sobre el
mundo se debe ajustar a estructuras existentes en ese momento, y la acomodación es la forma en que las
estructuras se ajustan para acomodar información que de otra manera sería incompatible.
Para él no hay nada extraordinario en el lenguaje, sería un proceso social y cognitivo como cualquier
otro y sujeto a las mismas reglas. Depende por tanto, de los prerequisitos cognitivos previos y su desarrollo
sigue las fases propuestas para el desarrollo general. El primer lenguaje sería egocéntrico y el del adulto sería
un lenguaje socializante y con un propósito de comunicación. Para Piaget el egocentrismo cognitivo y social
estaban relacionados entre sí.
Monólogos de grupo o colectivos: donde dos o más niños se expresan respetando turnos pero usan el
monólogo realmente.
La hipótesis de la cognición es una afirmación de las ideas de Piaget sobre el lenguaje y afirma que el
lenguaje necesita ciertos precursores para desarrollarse. Por ejemplo, hasta que el niño no logra la
“permanencia de objeto”, no podrá empezar a adquirir conceptos sobre objetos o nombres. De aquí que la
explosión en el volumen de vocabulario a los 18 meses se pueda explicar por el concepto de permanencia de
objeto.
Sin embargo Corrigan demostró que no había correlación entre “permanencia de objeto” y “desarrollo
lingüístico” si se tenía en cuenta la edad del niño. Además hay que señalar que los niños comprenden los
nombres 6 meses antes de alcanzar la permanencia de objeto. De hecho el disponer de nombres únicos para
los objetos podría ayudar a los niños a alcanzar la fase de permanencia del objeto. Xu concluyó que el tener
dos nombres diferenciados para los objetos distintos promovía las capacidades discriminatorias de los niños
de 9 meses (pero tener dos tonos diferentes o dos expresiones faciales no ayudaban a esa capacidad).
Al final parece que las relaciones entre adquisición del lenguaje y permanencia de objeto son más
complejas. Las primeras palabras son relacionales (“no”, “arriba”, “más”, “ya está” “no está” o “gone” en
inglés) y deberían depender de que surja el conocimiento sobre cómo se pueden transformar los objetos de
un estado a otro (al final del período sensoriomotor). En efecto así pasa, las primeras palabras que surgen son
las relacionadas con cambios en el objeto mientras éste está presente (“arriba”, “mueve”…), otras de tipo
relacional con objetos ausentes surgen después (“gone”, “no está”).
Por un lado está el caso de las personas con Síndrome de Down: la mayoría de estos niños no son
competentes al 100% en el lenguaje. Hasta los 4 años su competencia lingüística se ajusta a su edad
mental, pero a partir de ahí la edad mental avanza a un ritmo mayor que la lingüística. Su desarrollo
léxico es lento y no logran competencia absoluta con la morfología y la sintaxis compleja. Esto apoya la
separación de ambos procesos por sus diferentes velocidades.
Por otro lado hay varios tipos de desarrollos cognitivos deficientes que no dan lugar a deficiencias
lingüísticas claramente definidas:
- Laura era una niña con un CI de 41 pero su competencia lingüística era casi normal. A pesar de que le
resultara muy difícil establecer jerarquías con tareas no lingüísticas, las estructuras jerárquicas de la
lengua las dominaba. Igualmente, a pesar de tener una memoria a corto plazo muy pequeña podía
construir frases sintácticamente complejas. Pero no todo era perfecto y tenía serias dificultades en
formas morfológicas complejas. El investigador concluyó que no eran necesarias estructuras cognitivas
previas al lenguaje y que los procesos cognitivos y los del lenguaje son independientes.
- Otro estudio de caso único: un hombre con capacidad no verbal menor de 70 que poseía una capacidad
verbal intacta y podía hablar varios idiomas.
- Síndrome de Williams: raro síndrome que padecen “niños con cara de duende” y un CI bajo, en torno a
50. Sin embargo el habla de estas personas es fluida y gramaticalmente correcta. Aprecian
especialmente las palabras poco habituales y su capacidad de adquirir nuevas palabras o repetir palabras
inexistentes es también buena.
- Niños con autismo: presentan dificultades para comunicarse socialmente y su lenguaje es idiosincrásico,
como hablar de cosas diferentes y usar palabras de forma extraña. Sus habilidades gramaticales están
casi intactas y sus problemas con el lenguaje se pueden deber a que no poseen una “teoría de la mente”
de los demás, sobre qué piensan y sienten los otros, más que a una falta de desarrollo de las capacidades
lingüísticas.
Las pruebas están a favor de una separación parcial, que no absoluta, entre las habilidades lingüísticas y
las capacidades cognitivas generales, como el razonamiento y el juicio.
No hay evidencia clara que respalde una versión fuerte de esta hipótesis, ya que los niños alcanzan
ciertas habilidades del lenguaje antes de la permanencia de objeto. Bruner afirmó que hay facetas de esa
permanencia de objeto que se ven fomentadas por el lenguaje. Sinclair-de-Zwart, contrastó la posibilidad de
que la formación lingüística pudiera mejorar el desempeño de la tarea de la conservación, concluyó que la
formación del lenguaje sólo tenía un pequeño efecto y que por tanto la formación lingüística no afecta a
procesos cognitivos, pero ayuda a describir y centrar las facetas relevantes de la tarea.
Los procesos cognitivos siguen evolucionando más allá de la infancia. Por ejemplo la capacidad de la
memoria de trabajo, que avanza de los 2 elementos a los 2-3 años hasta los 7 de la edad adulta. También los
niños más pequeños practican menos que los niños más mayores. Es posible que los cambios de la memoria
de trabajo tengan repercusiones para algunos procesos lingüísticos, sobre todo en cuanto a la comprensión
del aprendizaje del vocabulario.
Hay poca investigación sobre el enfoque de Piaget y sí bastante sobre los precursores comunicativos del
lenguaje y los que dan lugar a la explicación de la interacción social. Pero a la vez resulta imprescindible que
para que estas explicaciones sociales sean posibles el niño debe desarrollar una “teoría de la mente”, que
además puede devenir del propio desarrollo cognitivo pero verse influenciado o potenciado lingüísticamente
(aquí es vital la influencia de haber adquirido los verbos que permiten expresar afirmaciones complejas sobre
las creencias, la verdad y la falsedad de forma relativamente sencilla, como “saber”, “creer”, “pensar” y
“querer”)
Para ser eficaz el aprendizaje del lenguaje tiene que implicar interacción. Los interaccionistas sociales
ponen de relieve la importancia del desarrollo del lenguaje mediante la interacción con otras personas.
Aunque puedan ser necesarios ciertas condiciones biológicas y procesos cognitivos previos, no son
suficientes, ha de haber interacción social con significado.
Bruner comparte ideas con Piaget pero afirma que el contexto social es importante para adquirir el
lenguaje. El contexto social defendido por Bruner comienza con la díada madre-hijo, que ayuda al niño a
desentrañar el significado de las expresiones a las que son expuestos (influye también la forma de decir estas
expresiones, el habla dirigida al niño, pero menos que la díada). Por ejemplo, la importante distinción entre
agentes (realizan la acción) y objetos (reciben la acción), queda patente en la toma de turnos (y los juegos
basados en la toma de turnos), que llevan a cabo madre e hijo. Los procesos como las miradas mutuas, mirar
a la misma cosa y la atención conjunta a objetos y acciones son también importantes para permitir al niño
descubrir la referencia de las palabras. Bruner sugirió que estas habilidades sociales y la forma en que se
usan pueden ser innatas. Describió el desarrollo del lenguaje como: “un desarrollo que se produce en el
contexto de un sistema de socialización y adquisición del lenguaje (LASS en inglés)”.
El contexto socio-comunicativo, podría facilitar la tarea de aprender la gramática del lenguaje. Esto
puede ser central para adquirir el significado de las palabras al restringir el dominio del discurso a
aquello sobre lo que se está hablando. Ha habido un gran debate sobre el papel de la influencia de la
evidencia negativa (decirle a un niño que algo no es correcto) en la adquisición del lenguaje y se han
usado sus limitaciones para defender ciertos principios innatos. Aunque es posible que los padres no
proporcionen una evidencia negativa explícita (no corrijan directamente), sí hay una evidencia negativa
implícita (por ejemplo los padres tienden a repetir más las expresiones incorrectas que las correctas y
tienden a responder ante una frase incorrecta con una pregunta en vez de seguir con la conversación;
“Manolito quitó coche mío ayer en el recreo”, en vez de seguir a lo del robo del coche los padres dicen
“¿quitó coche mío?”, no lo corrigen directamente pero sí indirectamente). También habría diferencias
locales entre evidencia negativa, por ejemplo diferencias socio-económicas entre corregir
explícitamente más o menos.
El aprendizaje de cómo se aprende un lenguaje acarrea más que el aprendizaje del significado de las
palabras, además implica manejar una gramática y aprender a utilizarlo. Las conversaciones tienen una
estructura. Como poco los niños tienen que aprender a escuchar y a prestar cierta atención cuando se les está
hablando. Parece ser que esta habilidad se desarrolla a edad muy temprana.
Schaeffer propuso que esta habilidad se adquiere con la alimentación. El chupeteo, los niños lo hacen
con ráfagas intercaladas con pausas que sirven de señal para que las madres jueguen con los bebés, los
abracen y les hablen. También observó que rara vez madres e hijos emiten sonidos a la vez. Snow observó
que las madres responden a las vocalizaciones de sus bebés, como si sus eructos o bostezos fueran
expresiones. Los precursores de estas habilidades de conversación parecen por tanto poco relacionadas con
el propio lenguaje sino con otras actividades. Como la mirada entre la madre y el niño, que parece
igualmente correlacionada; en concreto, la madre mira rápidamente cualquier cosa que mire el bebé. Surge la
cooperación a una edad temprana. Aunque en estos casos es la madre la que se muestra sensible a las pautas
del niño, hay evidencia adicional de que los bebés de tan sólo unas pocas semanas son diferencialmente
sensibles a las características de su entorno. Trevarthen descubrió que los bebés hacen un seguimiento visual
e intentaban agarrar objetos inanimados, pero responden de distinta manera a las personas, incluyendo
saludos con la mano y pequeños movimientos con la boca que denominó prehabla. No está claro el papel
exacto del prehabla, pero no hay duda de que al final de los seis meses son patentes los precursores de las
habilidades sociales y conversacionales, y los bebés han desarrollado la capacidad de obtener respuestas
comunicativas.
Para ser eficaz, el lenguaje ha de darse en un contexto social significativo. Se ha demostrado que la
adquisición del lenguaje tiene un componente innato importante. Hasta ahora una desventaja del enfoque de
la interacción social era que las explicaciones eran vagas en cuanto a los detalles de cómo influyen las
interacciones sociales en el desarrollo. Los procesos cognitivos median en las interacciones sociales y la
clave de una teoría sofisticada se encuentra en explicar detalladamente esta relación.
Trastorno semántico-pragmático (Bishop): Es una deficiencia del lenguaje que tiene la apariencia de una
versión muy suave del autismo. Estos niños suelen tener dificultades en conversaciones en las que tienen que
hacer inferencias. Dan respuestas muy literales a las preguntas y no parecen capaces de tomar en cuenta el
contexto social y de la conversación anterior. Ej.:
-Sí.
Aunque no se comprende bien este trastorno, resulta evidente que sus orígenes son complejos. Mientras
que se podrían explicar otros trastornos relacionados en términos de una limitación de la memoria o de
negligencia social, este semántico-pragmático se explica mejor afirmando que estos niños tienen dificultades
para representar el estado mental de otras personas, que a su vez puede deberse a una anomalía cerebral
innata o del desarrollo. Resulta difícil desenmarañar los factores biológicos, cognitivos y sociales.
El desarrollo cognitivo de los niños con deficiencias visuales es más lento que el de los niños de visión
normal. Esto se explica por un menor número de experiencias que el niño disfruta, una relativa falta de
movilidad, menores oportunidades de relación social y menor control del niño sobre su propio cuerpo. Para
alcanzar la “permanencia de objeto” dependen del oído y el tacto, lo que necesariamente lleva a la creación
de un concepto distinto.
Los primeros estudios sugerían que el desarrollo del lenguaje en niños ciegos difería del de niños
videntes en que su forma de hablar era más egocéntrica, estereotípica y menos creativa. Cutsford llegó a
afirmar que las palabras de estos niños carecían de sentido, pero ahora se sabe que estas afirmaciones son
generalizaciones excesivas y, probablemente, totalmente incorrectas.
Se dice que algunos niños ciegos tardan más en decir sus primeras palabras. Pero Bigelow encontró que
las 50 primeras palabras las adquieren los niños ciegos entre 1 año y 4 meses y el año y 9 meses, cuando
niños con visión las tienen sólo un mes antes. Estas primeras palabras sí diferían entre unos y otros, aunque
tampoco mucho. Los niños ciegos:
Usan menos palabras referidas a nombres de objetos que son prominentes en el mundo visual y no se
pueden tocar (como “luna”)
Usan más nombres de objetos del mundo auditivo o táctil (como “tambor” o “suciedad”)
usan más palabras para referirse a acciones (más a las suyas propias que a las de los demás).
Los niños ciegos usan las primeras palabras para comentar sus propias acciones o para imitar más que
para comunicarse, lo que ha servido para que Dunlea afirme que los niños ciegos no estén usando las
palabras más allá del contexto en el que las aprendieron por primera vez, lo que conlleva un retardo en
adquirir la función simbólica de las palabras; el uso simbólico de las palabras queda retrasado, la
adquisición de vocabulario suele ser más lenta y la comprensión de determinadas palabras será distinta.
La comprensión de las palabras es distinta. Landau y Gleitman demostraron que los niños ciegos podían
aprender el significado de palabras como “mirar” y “ver” sin una experiencia sensorial directa. Es posible
que los niños infieran el significado observando su posición en las frases y las palabras que las acompañan.
Los pronombres. Donde hay controversia y se afirmaba que adquirían un correcto uso de los mismos
más tarde (tendían a usar “tu” por “mi”), pero hoy parece demostrado que eso no es así.
Existen diferencias en el desarrollo fonológico. Los niños ciegos tardan más en adquirir un sonido
adecuado sobre todo en sonidos que tienen una marcada pronunciación bucal (como /b/) y esto ha hecho
pensar en la importancia de la visión de la modulación de la boca para poder alcanzar un buen sonido. Sin
embargo, aunque tarden más también lo hacen a la perfección, por lo que el análisis aislado del sonido
también lleva a una buena ejecución.
El desarrollo sintáctico está marcado por mucha más repetición de la que se identifica normalmente y la
utilización de frases repetidas se prolonga más durante el desarrollo. También usan menos preguntas del tipo
¿qué es eso? Y menos modificadores como “bastante”. Esto viene explicado por el lenguaje con el que sus
padres se dirigen a estos niños, adaptado a sus cualidades y en el que predominan las denominaciones
espontáneas. El retraso en el uso de auxiliares como “tener” o “poder” se explica por el mismo mecanismo,
los padres usan más las órdenes directas como “coge la muñeca” que preguntas como “¿puedes coger la
muñeca?”. También los niños ciegos empiezan a usar las palabras funcionales del idioma (las que realizan el
trabajo gramatical), más tarde que los niños con visión.
Por tanto, el desarrollo lingüístico de los niños ciegos es distinto del de los niños con visión, pero existe
poca evidencia que respalde la idea de que una deficiencia en el procesamiento cognitivo provoca una
deficiencia en el procesamiento sintáctico:
Por ello no se puede concluir que los procesos cognitivos precedan a los lingüísticos.
Tampoco se puede concluir que el lenguaje de los niños ciegos sea deficiente respecto al de los niños con
visión.
Tampoco parece que el primer lenguaje de los niños ciegos sea menos funcional que el de niños con
visión, ya que el que los niños ciegos emiten (excesivas repeticiones y habla estereotípica) cumple la
función social de mantener el contacto con los demás.
Los niños ciegos usan más el lenguaje y tienen una memoria verbal mayor que los que ven. Además los
estudios con niños ciegos son más complejos y con menos participantes, por lo que sus datos han podido
ser poco exactos y haber infravalorado las capacidades de estos niños.
El desarrollo del lenguaje en estos niños sí es claramente más difícil. Está comprobado que cuando no
disponen de palabras para expresarse usan movimientos cada vez más complejos para expresarse, aunque no
conozcan el lenguaje de signos (lo que muestra una necesidad comunicativa en los humanos). Tras una
formación adecuada, la adquisición del lenguaje de signos corre paralela a la que sería una normal
adquisición del lenguaje hablado (en algunos aspectos es hasta más rápido). Pasan por las mismas etapas al
mismo tiempo. (Meier).
En un principio existen diferencias en la codificación de tareas memorísticas, pero esto viene explicado
por el carácter fonológico y acústico del procesamiento en la memoria a corto plazo más que por un
retardo en el desarrollo de estos niños causado por ausencia de lenguaje hablado. De hecho se ha visto
que la destreza en resolver tareas piagetianas es similar en ambos grupos de niños.
Furth encontró que los adolescentes sordos tenían más problemas a la hora de resolver tareas de
razonamiento lógico simbólico (esto implica un retardo de los procesos cognitivos, que según la tarea de
la conversación se han obtenido resultados de entre 1-2 años de retraso o bien no han dado diferencias),
pero estas diferencias las explicó en base a una falta de experiencias y en diferencias en la formación de
niños sordos.
En definitiva, un niño sordo de padres sordos aprenden el lenguaje de signos igual que un hablante
adquiere el lenguaje hablado. Las diferencias en otros casos son aplicables al contexto. Los niños del primer
caso tienen un desempeño igual a niños hablantes en tareas piagetianas.
Existen diferencias en el desarrollo cognitivo, pero no son evidentes las diferencias lingüísticas. El
desarrollo cognitivo de los niños sordos se produce mejor de lo que debería si el lenguaje fuera primario, y el
desarrollo lingüístico de los niños ciegos se produce por lo general mejor de lo que debería si la cognición
fuera primaria. Por tanto, el desarrollo lingüístico de los niños sordos y el desarrollo cognitivo de los niños
ciegos se producen mejor de lo que cabría esperar si uno impulsara al otro. Las conclusiones, en todo caso,
respaldan más la teoría de Chomsky de la independencia. Lo que sí es importante es el factor social. Los
factores biológicos, cognitivos y sociales cooperan para el desarrollo del lenguaje, el déficit en un área se
puede ver compensado con cualquiera de las otras.
8. ¿Cuál es la relación entre el lenguaje y el pensamiento?
Muchos animales son capaces de resolver problemas sin tener un lenguaje, lo que sugiere que el
lenguaje no es esencial para la resolución de problemas o para pensar, aunque esto pudiera parecer obvio, no
siempre ha sido así.
Los conductistas pensaban que el pensamiento no era nada más que un discurso. Los niños pequeños
expresan sus pensamientos en voz alta; después se internaliza, pasando a ser un discurso oculto, el
pensamiento no sería más que movimientos motores del aparato vocal. Watson afirmo que los procesos del
pensamiento son hábitos motores de la laringe. Jacobsen reforzó esta teoría ya que el pensamiento suele
venir acompañado de un discurso oculto. Detectó actividad eléctrica en los músculos de la garganta cuando
se pedía a los participantes que pensaran. Smith realizó un experimento en el que se paralizó con curare los
músculos de la garganta y después informó de que había sido perfectamente capaz de pensar y solucionar
problemas, por lo que el pensamiento no sería meramente movimientos del aparato vocal.
Hay que diferenciar cómo pensamiento y lenguaje se influyen mutuamente desde el punto de vista del
desarrollo y desde el adulto desarrollado:
La postura de Piaget al respecto, el desarrollo cognitivo determina la adquisición del lenguaje, la postura
de Chomsky, lenguaje completamente independiente, ambas vistas con anterioridad.
Faltan por ver la postura de Vygotsky, lenguaje y cognición tienen orígenes independientes pero terminan
fuertemente entrelazados en una relación compleja, y la hipótesis de Sapir-Whorf, el lenguaje determina
la cognición.
Vygotsky estudió el discurso interno, el discurso egocéntrico y los monólogos infantiles. Propuso que el
discurso y el pensamiento tienen distintas raíces ontogénicas (distintos orígenes en el individuo).
Al principio, el habla tiene una fase preintelectual (las palabras no son símbolos de los objetos que
denotan, sino propiedades reales de los mismos). Aquí los sonidos del habla no están adscritos a un
pensamiento y al mismo tiempo, los pensamientos no son verbales. Así, hasta cierto punto y hasta la edad de
3 años, son procesos independientes que a partir de ese momento pasan a estar conectados y ser
interdependientes, el pensamiento se convierte en verbal y el habla pasa a ser representativa. Cuando se
produce la interdependencia los monólogos de los niños pasan a interiorizarse como discurso interno.
Vygotsky puso a prueba sus teorías en contraposición con las de Piaget, pero en experimentos no
controlados completamente y que no se han repetido hasta hoy, por lo que sus teorías no se han sometido a
falsación. También el discurso egocéntrico desempeñaría la función de autoguía que se va interiorizando, y
al estar los límites entre el niño y los demás poco definidos, el discurso de autoguía sólo se puede producir
en un contexto social, afirmando esto porque vio que el discurso egocéntrico disminuye cuando se reduce la
sensación del niño de ser comprendido (cuando su interlocutor está en otra mesa el niño produce menos
discurso egocéntrico)
Comparación Piaget/Vygotsky
La idea central es que la forma de nuestro lenguaje determina la estructura de nuestros procesos de
pensamiento. El lenguaje afecta a la forma en la que recordamos las cosas y cómo percibimos el mundo.
Whorf trabajaba en una aseguradora y vio que muchos accidentes se producían por entender mal las
palabras.
Determinismo lingüístico: la forma del lenguaje determina la forma en la que pensamos, recordamos
y percibimos.
Relativismo lingüístico: puesto que los idiomas describen el mundo de distinta manera, distintos
idiomas generan distintas estructuras cognitivas en los que los hablan.
Miller y McNeill diferencian 3 versiones de la hipótesis:
Versión más débil que la primera: el lenguaje sólo afecta a la percepción. Lo difícil aquí es el término
percepción y su difícil separación entre “hecho de procesamiento sensorial” o como “clasificación”.
Versión débil: las diferencias del lenguaje afectan al procesamiento de determinadas tareas donde la
codificación lingüística es importante. Ésta es la más fácil de contrastar y la que tiene más apoyo.
Evidencia antropológica
Hace referencia a la posibilidad de traducir entre sí los distintos idiomas. Whorf estudió varios idiomas
de los indios americanos, el hopi, el nootka, el apache y el azteca. Defendía que cada idioma impone una
visión del mundo a quienes lo hablan. Ej.: como el hopi no tenía estructuras gramaticales o palabras relativas
al tiempo, sus hablantes debían tener una concepción del tiempo particular y distinta a la nuestra. Sus datos
eran poco fiables y además la traducción puede resultar equívoca.
Ej.: nuestra forma de decir “clara fuente goteante”, en apache es “noto ga” (ga: verbo que indica que se es blanco,
incluyendo en blanco incoloro, claro, etc. no: prefijo que indica hacia abajo; To: nombre que significa agua y fuente. Todo
esto Whorf lo traduce como “clara fuente goteante, pero esta traducción es muy idiosincrásica y no deja claro que los apaches
interpretaran el mundo como él defiende, además de que su análisis se basó en análisis gramatical y no en conversaciones
con nativos, por lo que la traducción también podría ser la de “es una clara fuente goteante”, construcción mucho más
parecida a la nuestra y que echa por tierra la interpretación de Whorf).
Lenneberg y Roberts señalaron además la circularidad del razonamiento de que, puesto que los idiomas
difieren, los patrones de pensamiento difieren debido a las diferencias en los idiomas. Sería necesaria una
medición independiente de los patrones de pensamiento antes de poder extraer una conclusión causal.
En los distintos idiomas hay diferencias en cómo se nombran los objetos. En inuit (esquimal), hay varias
palabras para designar a la nieve (como nieve que está en el aire, o nieve que está en el suelo). A pesar de
que se discute si son más o menos el número de términos en inuit para nieve (entre 2 y más de 100), lo que
se ha concluido es que el número de términos de un concepto tiene más implicaciones prácticas que
cognitivas. Ej.: un esquiador experto tendrá más conocimiento sobre tipos de nieve (dura, blanda, etc.) y ese
conocimiento le servirá para saber si debe o no salir a esquiar y en qué condiciones o con qué material, pero
no afecta a estructuras cognitivas. Parece que en concreto las diferencias de vocabulario pueden afectar a la
percepción en la medida que acabamos de ver con el esquiador, que a medida que conoce más tipos de nieve
“verá” más o menos que otro que no tenga tanto conocimiento.
Sin embargo hay aspectos, como el que haya varias palabras para cada suceso numérico que sí pueden
afectar a destrezas cognitivas. Los miembros de la tribu Piraha en el Amazonas tienen tres palabras para
contar; “uno”, “dos” y “muchos”. Por tanto, mientras que nosotros podemos asignar cantidades numéricas a
diversos sucesos y operar con ellos con exactitud, ellos sólo pueden hacer estimaciones, por lo que su
desempeño en tareas numéricas es muy pobre.
Diferencias gramaticales entre idiomas
Carroll y Casagrande analizaron las diferencias gramaticales entre el inglés y el navajo. En el idioma
navajo el verbo “llevar” hace referencia tanto al hecho de acarrear algo como al material que se transporta, si
es un palo o una cuerda las terminaciones del verbo son diferentes y dependen de la dureza de ese material.
La hipótesis de partida es que los niños navajos debían prestar más atención a las propiedades del objeto que
los que hablaban inglés, y por tanto deberían agrupar los objetos en función de su forma (que es lo que
determina la terminación del verbo) que en base a cualquier otra característica. El estudio se hizo con niños
bilingües navajo-inglés y los dos grupos fueron “mayor predominio del navajo” y “mayor predominio del
inglés”. Comprobaron que efectivamente los niños del grupo navajo clasificaban más los objetos en base a su
forma que por ejemplo en base al color. El problema vino cuando se tomó un grupo control de niños con un
idioma, el inglés, y se vio que ellos también clasificaban más los objetos en función de su forma, como se
esperaba de los niños navajos. Por tanto aquí no hay conclusiones claras.
Razonamiento contrafactual. Un tipo de razonamiento del tipo “si hubiera ido a la biblioteca, hubiera
visto a Pedro”, que se sirve del modo subjuntivo para expresarse. El chino por ejemplo no tiene esta
construcción y en general tienen más problemas para hacer un razonamiento contrafactual que los
angloparlantes que sí lo tienen. Sin embargo esta dificultad podría deberse a que en chino, para hacer
afirmaciones como la anterior, se necesitan estructuras más largas, como “la señora Wong no habla inglés, si
la señora Wong hablara inglés, podría leer el New York Times”. Si en realidad esa mayor dificultad fuera
por esta razón de la longitud de la estructura, sería una prueba del efecto sutil que tiene la forma lingüística
sobre la capacidad de razonamiento.
Género. El uso de género en un idioma (puede ser ninguno como inglés, masculino y femenino como en
castellano o masculino, femenino y neutro como en alemán) puede afectar a las tareas que requieran de su
uso. Por ejemplo, a la hora de valorar la similitud de tres nombres “elefante-jirafa-burro”, que compartan
género será determinante para valorar su grado de similitud. Sin embargo esto afecta sobre todo a la
categoría animales, a otra categoría como artefacto no le afecta. Esto confirmaría una versión débil de la
hipótesis de Sapir-Whorf, la que afirma que el lenguaje puede afectar al desempeño en algunas tareas que lo
utilizan.
Son más abundantes las pruebas de efectos indirectos sobre la cognición, sobre todo en tareas donde es
importante la codificación lingüística. Carmichael y otros hicieron un estudio en el que presentaban una
serie de símbolos ambiguos a dos grupos y luego a cada grupo le ponían una etiqueta verbal (les decían que
era tal o cual):
Fusil Escoba
Después se hacía una tarea de memoria en la que se pedía a los participantes que dibujaran el estímulo
presentado. Ellos hacían dibujos que se parecían más a fusiles o a escobas, dependiendo del grupo en el que
hubieran estado, y menos al estímulo original, por lo que concluyeron que el apelativo que relacionaban los
participantes con las imágenes afectaba al recuerdo de las imágenes. (En definitiva que la percepción no es
un proceso neutro sino que está influido por el conocimiento).
Duncker analizó el fenómeno de la fijación funcional usando el problema de la caja y la vela: en el que
los participantes tienen que construir un dispositivo utilizando una serie de materiales comunes de forma que
una vela pueda arder hasta el final atada a la pared. El procedimiento más simple sería usar la caja que sirva
como sostén a la vela, pero los sujetos piensan demasiado tiempo porque fijan su atención en la caja como
contenedora de clavos (que es su función más común), y no contemplan otras posibilidades, de ahí la fijación
funcional. Además se ha encontrado que la apelación explícita de los objetos (llamar caja a la caja
explícitamente) puede aumentar o debilitar el efecto de fijación funcional dependiendo de lo adecuado que
fuera el apelativo. Se ve aquí la influencia lingüística sobre el razonamiento.
Hoffman hizo otro experimento con bilingües chino-inglés. Les daba descripciones de personas que se
ajustaban a los estereotipos del chino y del inglés. Los que pensaban en chino aplicaron el estereotipo del
chino y los que pensaban en inglés aplicaron los de la personalidad inglesa. El idioma que usaron para llevar
a cabo procesos cognitivos influyó por tanto en las inferencias que hicieron.
Sistemas numéricos
Dependiendo de cómo el lenguaje exprese los números, sus hablantes podrán desarrollar más rápido y
mejor o peor habilidad numérica (se habla de influencia sutil sobre la habilidad numérica). En inglés hay 13
elementos básicos (de 0 a 12), después una serie de nombres complejos especiales (de 13 a 19, los “teens”) y
desde el 20 se sigue una regla. Los niños en inglés presentan dificultades a la hora de aprender los “teens”.
El chino por ejemplo tiene una base de 11 elementos que son los que hay que aprender (de 0 a 10), a partir
de ahí sólo hay que seguir una regla. Los niños aprenden rápido esta secuencia.
En galés, por ejemplo, los números son iguales que en inglés pero la pronunciación de las sílabas es más
larga y se tarda más tiempo en pronunciarlos, por lo que participantes bilingües tuvieron un peor desempeño
en tareas de repetición de cifras si lo hacían en galés en vez de en inglés. También hubo una mayor tasa de
errores en tareas aritméticas mentales si usaban el galés.
La forma más fructífera de investigar la versión fuerte de la hipótesis de Sapir-Whorf ha sido el análisis
de la forma en que nombramos y recordamos los colores. Brown y Lenneberg estudiaron el recuerdo de
“fichas de colores”, que diferían en tono, brillo y saturación. Los colores codificables (que se corresponden
con los nombres de los colores normales) se recuerdan más fácilmente; por ejemplo un “rojo ideal” se
recuerda mejor que un mal ejemplo de rojo. El concepto “precisión de la comunicación” determina qué se
puede describir con facilidad.
Estos primeros trabajos parecían respaldar la hipótesis de Sapir-Whorf, pero hay un supuesto básico del
que partir y es que la división del espectro de colores es algo arbitrario, lo que viene a decir que si no fuera
por mero accidente histórico se podría estar llamando al morado (mezcla entre rojo y azul)=”roaz”, o “verul”
a un color entre el verde y azul. ¿Este supuesto es correcto, es arbitrario?
Berlin y Kay compararon los términos básicos de los colores usados en distintos idiomas. Los idiomas
difieren en cuanto al número de apelativos de que disponen para los colores, pero ellos concluyeron que en
todos los idiomas se presentan los términos básicos de los colores en una jerarquía:
Jerarquía de los colores:
Nivel 2 ROJO
Nivel 4 MARRÓN
Para Berlin y Kay, si un idioma sólo tiene dos términos de colores básicos, estos han de ser los del nivel
1 (blanco y negro), si tienen tres términos se le añade el del segundo nivel, si tienen cuatro serán los de los
niveles 1 y 2 y se le sumará otro más del nivel 3. Los cinco niveles dan los 11 términos básicos para los
colores, que por ejemplo el idioma inglés posee. También “demostraron” que los colores típicos a los que
hacían referencia los términos de los colores básicos, denominados colores focales, tienden a ser constantes
en todos los idiomas.
Heider analizó el recuerdo que tienen los individuos de los colores focales. Los colores focales son los
mejores ejemplos de un color que se corresponde con un término básico (serían los mejores ejemplos de los
colores de la jerarquía de arriba). La tribu Dani de Nueva Guinea sólo tiene dos términos para los colores:
“mili” para el negro y los oscuros y “mola” para el blanco y los claros. Cuando se les enseñó nombres
arbitrarios para el resto de colores, aprendieron más rápido los que están en la lista, los focales, que los no
focales. Igual ocurrió en tareas de recuerdo, recordaban más los focales que los no focales.
Los niños de 3 años también prefieren los colores focales, los agrupan con más precisión, les prestan
más atención y tienen más probabilidades de elegirlos como ejemplos de un color que los no focales.
Por tanto a primera vista la división del espectro de colores no parece arbitraria, sino que tiene su base
en la fisiología del sistema de visión de los colores. Los seis puntos más sensibles del sistema visual
(fisiología de los receptores) corresponden a los seis primeros colores focales (blanco y negro luz total o
nula; y los pares rojo-verde y amarillo-azul, con sus respectivas sensibilidades a longitudes de onda, esto de
percepción), las diferencias se deben a cuestiones biológicas más que a lingüísticas.
Bornstein realizó trabajos con niños prelingüísticos. Vio que los niños de 4 meses se acostumbraban con
más facilidad a los colores que se encuentran en el centro de las categorías rojo y azul que a los colores que
se encuentran fuera de los límites. También encontró una influencia del entorno en la asimilación de estos
términos de los colores. Observó que en sociedades cercanas al Ecuador, los nombres de los colores con
longitud de onda pequeña (azul y verde), se identificaban cada vez más entre sí y en el extremo, con el
negro. Explicó esto como una adaptación al medio de estas personas para protegerse del exceso de rayos
ultravioletas, por lo que han desarrollado una pigmentación amarilla en los ojos, que hace que les proteja de
la luz de onda corta, a costa de una menor sensibilidad del verde y al azul. Por tanto la explicación de
Bornstein a las diferencias culturales en el nombramiento de los colores vendría dada por cuestiones
biológicas y no lingüísticas.
Brown dice lo mismo, que el nombre de los colores no aporta claridad ni evidencia a la hipótesis de
Sapir-Whorf. Los datos de Bornstein ponen de relieve la importancia de factores biológicos en el desarrollo
del lenguaje.
Problemas detectados en los estudios de Berlin y Kay: de los 20 idiomas analizados, 19 de ellos fueron
obtenidos de personas bilingües que vivían en EE.UU. y hay que decir que las categorías de colores de las
personas bilingües difieren sistemáticamente de las de las personas que sólo hablan un idioma (los
bilingües clasifican de manera parecida a la segunda lengua, y “olvidan” la clasificación de su lengua
materna, sea cual sea ésta). También parece que de los 92 idiomas que estudiaron más tarde, obviaron
algunos nombres de colores básicos en muchos idiomas, además de usar criterios sospechosos para
clasificar los colores como básicos.
Problemas detectados en los estudios de Heider: Los colores focales se pueden discriminar más desde el
punto de vista perceptivo que los colores no focales usados en la gama de Berlin y Kay, ya que desde el
punto de vista perceptivo estaban más lejos de sus vecinos. Al corregir esta artificialidad de los
materiales, otros investigadores han concluido que los focales no se recuerdan mejor que los no focales.
Por otra parte, una medida de la precisión de la comunicación permitía predecir el desempeño
memorístico. Esta conclusión sugiere que tener un apelativo conveniente del color, puede ayudar a
recordarlo. Por tanto concluyeron que el reconocimiento del color estaba afectado por el vocabulario
sobre los colores (no había por tanto ventaja de reconocimiento).
Ahora también resulta evidente que los colores básicos tampoco son iguales en cuanto a facilidad de
adquisición. Por ejemplo en inglés “marrón” y “gris” son los colores menos preferidos, los menos usados
entre adultos dirigiéndose hacia niños y los que más tardan en aprenderse.
Como conclusión: parece haber efectos tanto biológicos como lingüísticos en el recuerdo de los colores,
por lo que éstos no serían un buen instrumento de contrastación de la hipótesis de Sapir-Whorf por varias
razones:
Cuanto más básico es el proceso cognitivo o perceptivo, es probable que haya menor margen de la
influencia arriba-abajo del lenguaje. La percepción del color es de un nivel de procesamiento muy bajo.
Por lo que pensar que, aunque el lenguaje sea muy importante, puede modificar las células de los
ganglios, es absurdo.
Y a pesar de todo parece haber influencia del lenguaje en el procesamiento del color, pero no afecta a
categorías biológicas y si a categorías más lingüísticas.
Boroditsky afirma que hay varios casos en los que las diferencias en la codificación en los distintos
idiomas generan diferencias en el desempeño de las personas que los hablan. Ej.: los distintos idiomas
codifican los elementos espaciales de distinta manera:
Sistema relativo de codificación del espacio: empleado por la mayoría de los idiomas, utilizan
términos relativos como delante de, detrás de, a la derecha de, a la izquierda de, etc., para designar la
posición de los objetos en el espacio.
Sistema absoluto de codificación del espacio: empleado por algunos idiomas, Ej.: el Tzetal (Maya).
(es parecido a nuestro sistema para describir los puntos cardinales Ej.: hacia el norte).
Los que utilizan el sistema absoluto y sistema relativo interpretan y tienen resultados muy distintos
en tareas de orientación no lingüística.
Ambos se aprenden igual de rápido y a la misma vez en la infancia dependiendo de la cultura. Para
evaluarlos se presenta la tarea de orientación no lingüística. Ver Pág. 81
Patrón metafórico “delante-atrás” utilizado en el inglés, (mirar hacia delante, caerse hacia atrás, sacar
una reunión adelante…). Construyen líneas temporales horizontales.
Patrón metafórico “arriba abajo” utilizado en el Mandarín, donde arriba se corresponde con lo último
y abajo con lo siguiente. Las personas que hablan mandarín tienen más probabilidades de construir líneas
temporales verticales para pensar sobre el tiempo. si un mandarín acaba de ver una serie de objetos
verticales confirman más rápido que marzo va antes que abril que si han visto una serie de objetos
horizontales. Los angloparlantes mostraron el patrón opuesto.
Se pueden encontrar diferencias análogas del desempeño en la forma en que los idiomas codifican la
forma de los objetos y el género gramatical.
Codificación del movimiento: El inglés codifica la dirección del movimiento con un modificador
(“desde”, “hacia”) y el tipo de movimiento con un verbo (“correr”, “andar”). En griego es al revés, la
dirección con un verbo y el tipo de movimiento con un modificador. Al ser puestos a prueba niños ingleses y
griegos sobre tareas relacionadas con movimientos (lingüísticas y no lingüísticas, como fotos de animales en
movimiento), sólo encontraron diferencias en el desempeño de las lingüísticas.
Conclusión: hay evidencia de que la forma en que los distintos idiomas codifican cosas como el tiempo,
el espacio, el género, la forma o el movimiento influye en cómo piensan las personas que los hablan. Esto
sugiere que nuestro idioma podría determinar cómo realizamos tareas que, a primera vista, no parecen
implicar al lenguaje para nada, aunque esta afirmación sea controvertida.
Evaluación de la hipótesis de Sapir – Whorf
La versión débil parece estar de nuevo en auge. Hay evidencia de que el lenguaje puede afectar a
procesos cognitivos, incluso los de percepción y memoria. Además la investigación sobre
Percepción/Categorización muestra la influencia sobre el procesamiento superior en la creación de
características visuales de bajo nivel al principio del procesamiento visual.
Si una idea se puede expresar en un idioma y no en otro, esa diferencia ha de tener alguna consecuencia
en cuanto a la facilidad con la que se pueden adquirir y realizar procesos cognitivos.
Si para un concepto se tiene una palabra y no una frase, esto repercutirá en la cantidad de memoria que
se deberá poner en marcha.
Las diferencias en los sistemas numéricos influyen igualmente en promover estilos cognitivos.
El grado en que se considera que la hipótesis de Sapir-Whorf es posible depende del grado en que se
considera que el lenguaje es un mecanismo evolutivo tardío que se limita a traducir nuestros pensamientos
en un formato adecuado para la comunicación más que entenderlo como un sistema simbólico rico que
subyace a la mayor parte de la cognición. También es más posible en un sistema cognitivo con una amplia
retroalimentación de los niveles posteriores a los anteriores del procesamiento.
Existe entre ellos una relación compleja. El entorno y la biología determinan conjuntamente nuestra
arquitectura cognitiva básica. Dentro de los límites que impone esta arquitectura, los idiomas pueden variar
sobre la forma de diseccionar el mundo y en aquello que ponen de relieve, lo que a su vez puede influir sobre
facetas de la percepción o la cognición.
Una perspectiva potente es que el lenguaje es esencial para el pensamiento conceptual y es el medio
con el que se realiza.
Otra perspectiva, más débil, es que el lenguaje es el medio del pensamiento consciente proposicional
(frente al visual).
Y una visión aún más débil es que el lenguaje es necesario para adquirir muchos conceptos, e influye
sobre la cognición de la forma que se ha visto.
Otra visión es que no existe ninguna relación aunque el lenguaje pueda, evidentemente, expresar
pensamientos.
Carruthers afirma que el lenguaje es el pegamento de la cognición y sirve para poder pasar
información de un módulo a otro, es decir, que el lenguaje es el medio del pensamiento consciente.
Hay también diferencias culturales. En Occidente el lenguaje y el discurso interno, se supone que
ayudan a pensar, en Oriente se supone que el habla interrumpe el pensamiento. Esto conlleva diferencias en
el desempeño, pensar en voz ayuda a occidentales a resolver problemas de razonamiento, pero no hace lo
mismo con los orientales.
La influencia del pensamiento sobre el lenguaje tiene consecuencias importantes, por ejemplo respecto
al género:
Que la palabra “hombre” se use para designar a toda la humanidad puede hacer pensar en la superioridad
de éste sobre la mujer. “Chairman” (hombre al cargo, presidente) se usa en inglés para los presidentes de
las compañías, lo que hace que se les suponga de antemano hombres, ya que no se usa simplemente
“Chair” o “chairperson”.
Los sustantivos con un género estereotipado (“cirujano” o “enfermera”), crean expectativas sobre el
género. Se ha demostrado que se tarda más en leer cuando hay una incongruencia entre lo leído y lo
esperado en este tema, como cuando se hace referencia a un cirujano y el pronombre que se usa es “ella”.
Por último, es evidente que podemos pensar sin lenguaje. Algunos animales razonan y resuelven
problemas, los bebés tienen ricas capacidades cognitivas, igual que personas que por daño cerebral no tienen
capacidades lingüísticas, si tienen capacidades cognitivas. También influye la cultura en nuestra forma de
pensar.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Balota denominó al momento en que una persona ha reconocido una palabra pero todavía no ha
accedido a su significado «el momento mágico». En los modelos con un momento mágico, sólo se puede
acceder al significado de una palabra cuando ya se ha reconocido. Johnson-Laird propuso que la
profundidad del acceso léxico puede variar. Observó que, en ocasiones, apenas recuperamos información
sobre una palabra. Gerrig amplió esta idea, y afirmó que hay distintos «modos de acceso léxico» en
distintos contextos.
Aunque la gran mayoría de los seres humanos ha utilizado el lenguaje hablado durante mucho tiempo,
la alfabetización es un acontecimiento relativamente reciente. Ha habido una gran cantidad de
investigación sobre el reconocimiento visual de las palabras, en parte debido a su comodidad.
El estudio de los movimientos oculares ha adquirido importancia para ayudarnos a comprender tanto la
forma en que reconocemos las palabras como la forma en que procesamos unidades más largas de lenguaje
impreso. Hay una serie de técnicas disponibles para investigar los movimientos oculares:
Técnica seguimiento del limbo ocular: Se refleja un haz infrarrojo en el globo ocular haciendo un
seguimiento del límite entre el iris y el blanco del ojo (el limbo ocular). Aunque es un buen sistema para
hacer un seguimiento horizontal del movimiento del ojo, no es muy bueno para hacer un seguimiento de
los movimientos verticales.
El sistema de Purkinje, es una de las técnicas más utilizadas que hace un seguimiento preciso tanto de
los movimientos horizontales como de los verticales. El sistema calcula los movimientos del centro
exacto de la pupila.
Cuando leemos, no movemos los ojos de manera homogénea, los ojos presentan sacudidas y fijaciones:
Sacudidas: los ojos se desplazan en saltos de una duración de entre 20 y 60 ms.
Fijaciones: entre las sacudidas se dan intervalos de entre 200 y 250 ms en los que el ojo se para.
Cuando el ojo se está moviendo en una sacudida se está asimilando muy poca información. La
información que se pueden asimilar durante una fijación es limitada: quince caracteres a la derecha y tan
sólo entre tres y cuatro a la izquierda para los angloparlantes. Esta asimetría se revierte en el caso de las
personas que leen en hebreo, que leen de derecha a izquierda. Las personas con una gran habilidad de
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
lectura pueden asimilar más información en una fijación (tienen un mayor alcance) que los lectores menos
adiestrados. La información de las regiones más alejadas de la distancia de alcance se utiliza para guiar los
siguientes movimientos oculares.
La fóvea es la parte más sensible del campo visual y corresponde aproximadamente a los siete
caracteres centrales de un texto de tamaño medio. La fóvea está rodeada de la parafóvea donde la agudeza
visual es más reducida; más allá se encuentra la periferia, donde la agudeza visual es aún peor. Extraemos
la mayor parte del significado de lo que leemos de la zona de la fóvea. Rayner y Bertera mostraron con
una máscara móvil que si se tapaba la región de la fóvea, era posible leer con la región inmediatamente
circundante a la fóvea (parafóvea), pero a un ritmo mucho más lento (sólo 12 palabras por minuto). Si se
tapaban tanto la fóvea como la parafóvea, era imposible leer.
A veces cometemos errores, o tenemos que repasar el material anterior, y tenemos que mirar atrás.
Estos movimientos oculares hacia atrás al material anterior, denominados regresiones, son a veces tan
breves que no somos conscientes de ellos. El estudio de estos movimientos oculares regresivos proporciona
importante información sobre cómo aclaramos el material ambiguo.
El modelo más influyente del control del movimiento ocular es el modelo E-Z Reader. En este modelo,
la atención, el procesamiento visual y el control oculomotor determinan conjuntamente cuándo y a dónde
se mueven los ojos cuando leemos. La idea central de este modelo es que, cuando leemos, nos fijamos en
un punto, y después la atención visual progresa avanzando por la línea de texto hasta que se alcanza un
punto donde las limitaciones de la precisión del sistema visual dificultan extraer más información y
reconocer las palabras. A continuación se desplaza la atención y se programa un movimiento ocular en el
sistema oculomotor para moverse al punto de dificultad. A continuación se produce una sacudida a la
nueva localización, y se repite el proceso. Las sacudidas están programadas en dos etapas: Hay una primera
fase lábil cuando se puede cancelar la sacudida prevista si resulta que ya no es necesaria; tras esta primera
fase inicial lábil no se pueden cancelar las sacudidas. El supuesto central, y más controvertido, del modelo
es que se presta atención de una palabra a otra de forma estrictamente serial, cambiando únicamente
cuando se ha identificado cada palabra. Este supuesto asegura que las palabras se procesan en el orden
correcto. La «identificación» de las palabras se produce en dos fases:
Comprobación de la familiaridad (¿conozco esta palabra? ¿Es probable que pueda utilizarla?). La
culminación de la primera fase puede desencadenar la programación de una sacudida.
El acceso léxico pleno, en el que se recupera el significado y la representación de la palabra integrada
con la estructura lingüística emergente. La culminación de la segunda fase desencadena un cambio de la
atención que pasa a la siguiente palabra.
Por tanto, en este modelo las sacudidas y la atención están separadas, y tienen distintas fuentes de
control (familiaridad e identificación). El procesamiento lingüístico puede afectar a los movimientos
oculares; por ejemplo, si resulta que un análisis es incorrecto, podemos volver a una localización anterior.
En el modelo, los procesos de nivel superior intervienen en el impulso general hacia adelante sólo cuando
algo ha salido mal.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
En la tarea de denominación se presenta a los participantes una palabra de forma visual que tienen que
nombrar, midiéndose el tiempo que tarda el participante en empezar a pronunciar la palabra en voz alta (la
latencia del nombramiento). La latencia del nombramiento suele ser de aproximadamente 500 ms desde el
momento en que se presenta la palabra.
En la tarea de decisión léxica el participante tiene que decidir si una serie de letras es una palabra o una
palabra inexistente. En el método de presentación visual más frecuente se muestra la serie de letras en la
pantalla de una computadora (también existe una versión auditiva de esta tarea). Por ejemplo, el
participante debe apretar una tecla en respuesta a la palabra «enfermera» y otra tecla en respuesta a la
palabra inexistente «entermera». El experimentador mide el tiempo de reacción y las tasas de error. Los
experimentadores tienen que ser muy sensibles al problema del intercambio entre velocidad y precisión
(cuanto más rápido contesta el participante, más errores comete). Por tanto, los investigadores suelen tener
que analizar tanto los tiempos de reacción como el número de errores.
En los experimentos que miden el tiempo de reacción no resulta particularmente útil medir el tiempo
absoluto necesario para responder. Lo que importan son las diferencias entre condiciones. Suponemos que
nuestras manipulaciones experimentales sólo alteran determinados aspectos del procesamiento, y que todo
lo demás permanece constante y, por lo tanto, queda cancelado.
La tarea de clasificación semántica requiere que el participante tome una decisión que utiliza procesos
semánticos. Por ejemplo, ¿la palabra «manzana» hace referencia a una «fruta» o a una «verdura»? ¿Es el
objeto al que hace referencia determinada palabra mayor o menor que una silla?
Las distintas técnicas no siempre proporcionan los mismos resultados. Utilizan distintas facetas del
procesamiento.
Una de las ideas más importantes en el reconocimiento de las palabras es la de priming o primado.
Implica presentar material antes de presentar la palabra para la que se quiere una respuesta. Uno de los
paradigmas más comunes consiste en presentar una palabra antes de presentar la palabra objetivo para la
que se quiere que se dé una respuesta (como nombrarla o tomar una decisión lógica).
La primera es la palabra prime y la palabra para la que se quiere una respuesta es la palabra objetivo,
diana o target. El tiempo que transcurre entre que se presenta por primera vez la palabra prime (el
comienzo) y el inicio de la palabra diana se denomina asincronía del comienzo del estímulo o ACE.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Muchos de los fenómenos que vamos a ver a continuación también se aplican al reconocimiento de la
palabra hablada. En concreto, los efectos de frecuencia y el priming semántico se encuentran en ambos
tipos de reconocimiento.
Interferencia de la identificación
Podemos ralentizar la identificación de las palabras haciendo que sea más difícil reconocer el estímulo,
se puede conseguir de distintas formas:
Degradación del estímulo: consiste en degradar su apariencia física. Se puede conseguir separando las
letras que forman la palabra, reduciendo el contraste entre la palabra y el fondo sobre la que se presenta
o rotando la palabra presentándola en un ángulo extraño.
Enmascaramiento hacia atrás: La presentación de otro estímulo inmediatamente después del objetivo
interfiere con el proceso de reconocimiento. Hay dos formas distintas de hacerlo: Fig. 4.2
o Enmascaramiento por energía (o iluminación, o ruido aleatorio): Cuando el enmascaramiento del
estímulo no está estructurado (p. ej., si es solamente un montón de puntos negros situados de manera
aleatoria, o sencillamente un resplandor de luz). Sus efectos actúan sobre el nivel de detección de la
característica visual provocando escasez de las características visuales y dificultando su
identificación.
o Enmascaramiento con patrón (o enmascaramiento de las características): Cuando el enmascaramiento
del estímulo está estructurado (p. ej., si incluye letras o partes aleatorias de letras). Estos dos tipos de
enmascaramiento tienen efectos muy distintos. Sus efectos crean interferencias a nivel de las letras y
limita el tiempo disponible para procesar.
Otra forma informativa con la que podemos interferir en el reconocimiento de las palabras consiste en
presentar una palabra, pero en retrasar la presentación de una o dos letras al inicio de la palabra
enmascarando esas letras hacia atrás. En inglés, tras 60 ms no hay gran diferencia pero, antes de eso, el
retraso de las consonantes perturba el reconocimiento visual de las palabras mucho más que el retraso de
una vocal. Por tanto, la identificación de las consonantes es particularmente importante al principio para
reconocer una palabra. En inglés, las consonantes tienen una correspondencia más regular de la apariencia
visual al sonido, mientras que las vocales no. En italiano, que tiene una correspondencia mucho más
regular de las vocales, no hay una ventaja de las consonantes. Por tanto, los lectores que leen distintos
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
idiomas hacen un uso diferencial temprano de la información que es probable que los ayude a identificar
una palabra.
La frecuencia de una palabra es un factor muy importante en su reconocimiento. Las palabras que se
utilizan comúnmente son más fáciles de reconocer y se responde más rápidamente ante ellas que ante
palabras menos comunes.
Hay otras varias variables correlacionadas con la frecuencia. Por ejemplo, las palabras frecuentes
tienden a ser más cortas. Si quiere demostrar un efecto sin ambigüedades de la frecuencia, debe tener
cuidado para tener en cuenta estos otros factores.
Se ha sugerido que todos los efectos de la frecuencia son, realmente, efectos de la edad de la
adquisición. Los efectos de la edad de la adquisición persisten incluso cuando se tiene en cuenta la
frecuencia acumulativa (frecuencias de palabras percibidas en toda la vida). Es probable que tanto la
frecuencia como la edad de la adquisición tengan un efecto sobre el procesamiento de las palabras. Es
posible que las distintas tareas difieran en su sensibilidad a la edad de la adquisición y a las distintas
mediciones de la frecuencia; la edad de la adquisición afecta particularmente a la lectura de las palabras,
mientras que la frecuencia acumulada tiene un efecto en todas las tareas.
Por otra parte, Zevin y Seidenberg proporcionan simulaciones que demuestran que las tareas que
implican redundancia y regularidad en la correspondencia entre los elementos de entrada y de producción
(p. ej., la lectura, donde las letras se convierten en sonidos de forma muy predecible) son menos proclives a
los efectos de la edad de la adquisición y sólo son sensibles a la frecuencia acumulada, pero las tareas con
menos redundancia y regularidad (como aprender los nombres de objetos o caras) sí muestran efectos de la
edad de la adquisición.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Los efectos de la edad de adquisición podrían surgir a consecuencia de la pérdida de plasticidad de los
sistemas en desarrollo. En vez de entrenar a una red conexionista para que aprenda simultáneamente todos
los elementos, Ellis y Lambón Ralph introdujeron elementos en el régimen de entrenamiento en distintos
momentos. Los elementos aprendidos al principio tenían una ventaja, independientemente de su frecuencia
de aparición. A medida que una red aprende más elementos, se hace menos plástica y los últimos elementos
no están representados tan eficientemente, o con tanta potencia, como los que se aprendieron al principio,
porque es más difícil diferenciarlos de los elementos que ya se han aprendido. Los elementos que se han
aprendido al principio tienen una ventaja que les permiten desarrollar representaciones más fuertes en la
red. Los elementos que se han aprendido tarde sólo pueden desarrollar fuertes representaciones si se pre-
sentan con una frecuencia muy alta.
Longitud de la palabra
Gough afirmó que durante el reconocimiento de las palabras se sacan las letras de una pequeña
memoria visual a corto plazo, una a una. La tasa de transferencia es más lenta en los lectores menos
expertos. Por tanto, no sería nada sorprendente que fuera más difícil identificar las palabras largas que las
cortas. Sin embargo, resulta muy difícil identificar un efecto de la longitud independiente de la frecuencia.
Una complicación es que hay tres formas distintas de medir la longitud de las palabras: por el número de
letras que hay en la palabra, por el número de sílabas y por el tiempo que se tarda en decir la palabra. Fig.
4.3
Chumbley y Balota encontraron efectos de la longitud en la decisión léxica cuando las palabras
existentes e inexistentes tenían la misma longitud y regularidad en su pronunciación.
Weekes determinó que la longitud de la palabra (medida por el número de letras) tenía un escaso efecto
en el nombramiento de las palabras cuando se tenían en cuenta otras propiedades de las mismas (como el
número de palabras parecidas a la palabra objetivo), aunque la longitud tenía cierto efecto en la lectura de
las palabras inexistentes. Parece que el número de letras de una palabra tiene poco efecto en el caso de las
palabras cortas, pero cierto efecto para palabras con entre cinco y doce letras. Además, los efectos de la
longitud de la palabra en el nombramiento reflejan probablemente el mayor número de palabras parecidas
con una pronunciación similar en el caso de las palabras más cortas.
El tiempo de nombramiento aumenta en función del número de sílabas en una palabra. Existe al menos
cierta contribución de la preparación para articular estas sílabas, además de cualquier efecto de la
percepción. Encontramos un efecto similar en el nombramiento de imágenes. Tardamos más tiempo en
nombrar imágenes de objetos descritos con palabras largas en comparación con las imágenes de objetos
descritos con palabras cortas, y tardamos más en leer números que tienen más sílabas en su pronunciación.
Efectos de la vecindad
Algunas palabras tienen un gran número de palabras parecidas a ellas mientras que otras palabras de
frecuencia similar tienen pocas palabras que se parezcan. Coltheart y cols. definieron el estadístico N como
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
el número de palabras que se puede crear cambiando la letra de una palabra objetivo (vecinos ortográficos).
N es un indicador del tamaño del vecindario (o densidad).
El tamaño del vecindario afecta al reconocimiento visual de las palabras, más fácil reconocer las
palabras cuando con un elevado N se tienen en cuenta otros factores. El desempeño en tareas de
nombramiento y decisión léxica es más rápido para las palabras de baja frecuencia que tienen muchos
vecinos ortográficos. Las partes que riman de los vecinos parece particularmente importante para producir
la facilitación.
Además del tamaño del vecindario, la frecuencia de los vecinos también podría ser importante aunque,
en una revisión de la literatura, Andrews concluyó que el tamaño del vecindario tiene más efectos que la
frecuencia de los vecinos. Por otra parte, es sorprendente que tener muchos vecinos provoque una
facilitación, en vez de competencia.
Por lo general se responde más deprisa a las palabras existentes que a las palabras inexistentes. Las
palabras inexistentes más inverosímiles se rechazan más deprisa que las palabras inexistentes verosímiles.
Por tanto, en una tarea de decisión léxica somos relativamente lentos cuando tenemos que rechazar una
palabra inexistente como «sunto» (que podría haber sido una palabra y, de hecho, se parece mucho a una,
«santo»), pero rechazamos rápidamente una palabra como «tnszv». Las palabras inexistentes verosímiles
(es decir, que comprendan reglas de formación de las palabras del idioma en tanto en cuanto no incluyen
series de letras inaceptables) se denominan, en ocasiones, pseudopalabras.
La técnica de facilitar el reconocimiento repitiendo una palabra se conoce como priming por repetición.
Cuando ha identificado una palabra, es más fácil identificarla en la siguiente ocasión. La repetición facilita
tanto la precisión de la identificación perceptiva como los tiempos de respuesta a la decisión léxica. La
repetición tiene un efecto sorprendentemente duradero (varias horas, o incluso más).
En una tarea de decisión léxica, los efectos del priming por repetición son más potentes con las
palabras de baja frecuencia que con las de alta frecuencia, un efecto conocido como el de la atenuación de
la frecuencia. Forster y Davis también enmascararon con patrones la palabra prime en un intento de borrar
cualquier posible memoria episódica de la misma. Concluyeron que los efectos de repetición tienen dos
componentes: un efecto muy breve de acceso léxico y un efecto episódico a largo plazo, y sólo éste último
es sensible a la frecuencia.
Ha habido un considerable debate sobre si el priming por repetición se produce debido a la activación
de la representación almacenada de un elemento o si se debe a la creación de un registro de todo el
procesamiento, incluyendo la memoria episódica. Una evidencia importante que respalda la visión episó-
dica es el descubrimiento de que normalmente logramos la facilitación mediante priming por repetición
únicamente dentro de un campo (como la modalidad visual o auditiva) pero el priming semántico (por
significado o asociación) también funciona entre campos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Cuando dos palabras comparten letras, se dice que están ortográficamente relacionadas y este
fenómeno se conoce como priming ortográfico o basado en la forma. Podríamos esperar que ver una
palabra como CONTRASTE facilite el reconocimiento de CONTRATE, porque hay un solapamiento entre
sus formas físicas.
El priming basado en la forma sólo es eficaz con primes enmascaradas con ACE cortas, de forma que
no se percibe conscientemente la prime. Las palabras primes relacionadas con la forma pueden incluso
tener un efecto inhibidor, ralentizando el reconocimiento de la palabra objetivo, debido a que las palabras
semejantes visualmente están en competencia durante el proceso de reconocimiento, de forma que, en
algunos casos, las palabras parecidas en apariencia se inhiben entre sí. El priming basado en la forma es
mucho más fácil de obtener si se enmascara la prime, tal vez porque el priming cubierto es una forma más
«pura» de priming que no tiene contribución del procesamiento consciente.
Priming semántico
El priming semántico implica que la identificación de una palabra puede quedar facilitada mediante
una exposición anterior a una palabra con un significado relacionado. Por ejemplo, afirmamos más deprisa
que «doctor» es una palabra si va precedida de la palabra «enfermera» que si va precedida de una palabra
sin un significado relacionado, como «mantequilla» o que si se presenta de manera aislada.
La palabra priming se reserva mejor para la metodología de investigar lo que ocurre cuando una
palabra precede a otra. La primera palabra (el prime) podría acelerar el reconocimiento de la segunda
palabra (la diana), en cuyo caso hablamos de facilitación. A veces, el prime ralentiza la identificación de la
palabra diana, en cuyo caso hablamos de inhibición.
Con intervalos de tiempo muy pequeños, se puede producir el priming si la palabra prime sigue a la
diana. Esto sugiere que las palabras se procesan en cierta medida en paralelo si el tiempo entre las mismas
es suficientemente breve.
El priming semántico es un tipo de efecto del contexto. Se puede ver que el efecto podría tener ciertas
ventajas para el procesamiento. Rara vez se leen (u oyen) las palabras de manera aislada ni tampoco se
yuxtaponen las palabras de manera aleatoria. Las palabras con un significado relacionado pueden aparecer
juntas en las frases. Por tanto, es posible que se acelere el procesamiento si se logra facilitar el acceso a
palabras relacionadas con la palabra que está leyendo actualmente, puesto que es más probable que sea la
siguiente palabra que otra palabra aleatoria.
Hay otros factores que hay que mencionar, incluyendo la categoría gramatical a la que pertenece la
palabra. Es posible que la facilidad de crear una imagen, el significado y lo concreto de una palabra
también tenga un efecto sobre su identificación.
Rubin concluyó que la frecuencia, implicación emocional y facilidad de pronunciación eran los mejores
elementos de predicción del desempeño en las tareas experimentales utilizadas comúnmente. Whaley que
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
la frecuencia, el significado y el número de sílabas tenían un mayor efecto sobre los tiempos de decisión
léxica, aunque recientemente la edad de la adquisición ha pasado a estar al frente como variable im-
portante. En un estudio de un gran número de palabras, Balota y cobls. concluyeron que la contribución de
las variables dependía en gran medida de la tarea. Las variables semánticas son particularmente
importantes, sobre todo en la decisión léxica. Finalmente, el contexto sintáctico afecta al reconocimiento de
la palabra.
Leer es un proceso obligado. Cuando ve una palabra escrita, no puede dejar de leerla. La evidencia para
respaldar esta introspección se obtiene de la tarea de Stroop.
Neely interpretó estos resultados como demostrativos de dos procesos distintos que actúan con ACE
cortas y largas:
Con ACE cortas, se produce una rápida facilitación de corta duración de los elementos con relación
semántica, que no se puede impedir, independientemente de cuáles sean las expectativas de los
participantes. Esta facilitación se basa en las relaciones semánticas entre palabras. No hay ningún tipo
de inhibición con ACE cortas. Esto es lo que se conoce como priming automático.
Para ACE largas, se produce una lenta acumulación de la facilitación que depende de las expectativas de
los participantes. Esto provoca una inhibición de las respuestas para los elementos inesperados, con el
coste de que, si tiene que responder ante estos elementos, su respuesta se verá retrasada. Esta es la
priming atencional.
Normalmente estos dos tipos de priming se producen juntos. En una tarea de priming semántico con
ACE intermedias (unos 400 ms) tanto el priming automático como el atencional pueden estar cooperando
para acelerar la respuesta. También se puede concluir a partir de este experimento, en función de la
condición de elemento inesperado con relación semántica, que se accede de manera automática a los
significados de las palabras.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Antos utilizó asociaciones entre caso particular y categoría (p. ej., «BRAZO-CUERPO»), que son
extremadamente predictivas. Encontró posteriormente evidencia de inhibición (respecto a la base) en la
condición de elemento inesperado pero semánticamente relacionado con ACE más cortas (200 ms), lo que
sugiere que es posible que la inhibición no surja únicamente de los procesos de atención, sino que puede
que tenga un componente automático.
Una segunda fuente de evidencia sobre los efectos atencionales en la priming proviene de los estudios
que manipulan la validez predictiva (validez de los indicios) de las palabras primes. La cantidad de priming
observado aumenta a medida que aumenta la proporción de palabras relacionadas utilizadas en el
experimento. Esto es lo que se conoce como el efecto de la proporción. Si el priming fuera totalmente auto-
mático, entonces la cantidad encontrada debería mantenerse constante para todas las proporciones de pares
de palabras asociadas. El efecto de la proporción refleja el efecto de manipular las expectativas de los
participantes variando la proporción de primes válidas. Si hay un montón de primes que no están realmente
relacionadas con las palabras objetivo, los participantes aprenden rápidamente que las palabras primes no
resultan muy beneficiosas. Esto atenuará a continuación la contribución del priming atencional. No
obstante, en aquellos casos en los que las palabras primes están relacionadas con las palabras diana, el
priming automático sigue produciéndose. Cuantas más primes relacionadas haya en el experimento, más
reconocen los participantes su utilidad, y más aumenta la contribución de la priming atencional.
Hay dos procesos atencionales que actúan en el priming semántico: un proceso facilitador automático
de corta duración que no podemos evitar que ocurra, y un proceso atencional que depende de nuestras
expectativas y que es mucho más lento en su inicio. Sin embargo, los beneficios de la priming no carecen
de costes:
No hay duda de que el priming atencional implica una inhibición de las alternativas inesperadas y si una
de éstas es, en efecto, la palabra objetivo, su reconocimiento quedará retrasado.
Es probable que también haya un coste de inhibición relacionado con el priming automático. El priming
automático actúa probablemente mediante una propagación de la activación.
Podemos ampliar nuestra distinción entre procesos automáticos y atencionales al propio reconocimien-
to de las palabras. Como hemos visto, debe haber un componente automático en el reconocimiento, porque
este procesamiento es obligatorio. La intuición sugiere que también hay un componente atencional. Si lee-
mos mal una frase, podemos decidir conscientemente volver hacia atrás y volver a leer determinada
palabra. Llevando esto un paso más lejos, si identificamos provisionalmente que una palabra parece
incompatible con el contexto, es posible que comprobemos que la hemos identificado correctamente. Estos
procesos atencionales actúan después de que hayamos contactado primero con el lexicón y, por tanto,
también hablamos de un acceso léxico automático y de efectos de acceso posterior no automático. Los
procesos atencionales son importantes en el reconocimiento de las palabras y pueden desempeñar distintos
papeles en las tareas utilizadas para estudiarlo.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
La decisión léxica es criticada por ser demasiado sensible a los efectos del acceso posterior, refleja
demasiado las estrategias de los participantes, más que los procesos automáticos del acceso léxico.
¿Cuál es la evidencia de que el nombramiento de las palabras recurrirá probablemente menos a las
estrategias de los participantes que la decisión léxica?
Los efectos de inhibición son pequeños o inexistentes en las tareas de nombramiento. Se cree que la
inhibición surge de los procesos atencionales, por lo que su ausencia en las tareas de nombramiento
sugiere que el nombramiento no implica procesamiento atencional.
El priming mediado se encuentra de forma mucho más fiable en la tarea de nombramiento que en la
decisión léxica. El priming mediado es la facilitación entre pares de palabras que sólo están conectadas
mediante un intermediario (p. ej., «perro» prima a «gato» que prima a «ratón» en el par prime-diana
«perro-ratón»). Es mucho más probable que sea automática que impulsada por la expectativa, porque es
improbable que los participantes sean capaces de generar un número suficientemente elevado de
posibles palabras objetivo a partir de la palabra prime en el tiempo suficiente mediante cualquier otro
medio. El priming mediado no se suele encontrar en la decisión léxica porque, normalmente, los
participantes aceleran el procesamiento utilizando la comprobación de acceso posterior. Es posible
demostrar el priming mediado en la decisión léxica manipulando los materiales experimentales y el
diseño, de forma que se desalienta la comprobación posterior al acceso. Por ejemplo, observamos un
priming mediado si sólo están mediados todos los elementos relacionados («perro» y «ratón»), sin que
haya entremezclados pares directamente relacionados semánticamente (p. ej., «perro» y «gato»). No
obstante, la decisión léxica parece implicar rutinariamente una comprobación de acceso posterior.
En la tarea de decisión léxica se identifica el priming semántico hacia atrás de palabras que sólo están
relacionadas en una dirección pero no en la otra pero no se suele encontrar en la de nombramiento. De
nuevo, es más posible que surja este tipo de priming mediante una comprobación posterior al acceso que
mediante una propagación automática de la activación.
Estos resultados sugieren que la tarea de nombramiento es menos sensible a los procesos posléxicos.
Sin embargo, la tarea de nombramiento tiene un componente de producción que no existe en la decisión
léxica. En concreto, el nombramiento implica ensamblar una pronunciación para la palabra que podría
evitar por completo el lexicón (utilizando lo que se conoce como una ruta subléxica). También hay algunos
posibles efectos estratégicos en el nombramiento: la gente no está dispuesta a verbalizar palabras que
podrían ser incorrectas de alguna manera.
Evidentemente, tanto la decisión léxica como el nombramiento tienen inconvenientes. Por ello, muchos
investigadores prefieren ahora utilizar un análisis de los movimientos oculares. Afortunadamente, los
resultados de los distintos métodos suelen converger. Schilling, Rayner y Chumbley concluyeron que,
aunque la tarea de decisión léxica es más sensible a la frecuencia de las palabras que el nombramiento y la
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
duración de la mirada, existe no obstante una significativa correlación entre el efecto de frecuencia y el
tiempo de respuesta en las tres tareas.
El efecto de la frecuencia podría surgir de dos maneras. Es posible que una palabra sea más accesible
porque vemos (u oímos) las palabras frecuentes más de lo que vemos (u oímos) las palabras menos
frecuentes, o porque decimos (o escribimos) palabras frecuentes más a menudo. Por supuesto, la mayor
parte del tiempo estas dos posibilidades están entremezcladas; al hablar utilizamos fundamentalmente las
mismas palabras a las que estamos expuestos al escuchar. Otra forma de decirlo consiste en preguntarse si
los efectos de la frecuencia se producen en la producción o en el reconocimiento. Morton desenredó estos
dos factores. Concluyó que se pueden explicar mejor los datos con modelos en los que la ventaja de las
palabras de alta frecuencia es que necesitan menos evidencia para alcanzar determinado umbral para su
identificación. El efecto de la exposición repetida a una palabra es, por tanto, que se reduce este umbral. El
reconocimiento posterior de la palabra queda facilitado cada vez que estamos expuestos a la misma, ya sea
al hablar, escribir, leer o escuchar. Por tanto, la frecuencia de la experiencia y la frecuencia de la
producción son, ambas, importantes.
La mayoría de las explicaciones del efecto de la frecuencia suponen que surge como una especie de
práctica: cuanto más frecuentemente hacemos algo, mejor se nos da. Esta idea ha sido puesta en duda re-
cientemente por Murray y Forster, que demuestran que el tiempo que hace falta para identificar las palabras
está linealmente relacionado con la frecuencia, en vez de variar como una función logarítmica, como cabría
esperar si la frecuencia se basara en el aprendizaje que, a su vez, se basa en repeticiones multitudinarias.
(Al final, se terminan obteniendo rendimientos decrecientes al repetir las cosas más veces.)
Balota y Chumbley afirmaron que la frecuencia de las palabras no tienen ningún efecto en la
clasificación semántica. Se trata de una tarea que debe implicar el acceso al significado de la palabra
objetivo. Concluyeron que cuando la frecuencia tenía un efecto sobre el reconocimiento de las palabras, lo
tenía debido a los mecanismos de acceso posterior, como la comprobación en la decisión léxica y la
preparación para la articulación en el nombramiento.
La decisión léxica y la denominación de las palabras no siempre ofrecen los mismos resultados. Las
diferencias se deben a que hay otras tareas que incluyen facetas del procesamiento no automático. Los
tiempos de nombramiento incluyen el ensamblaje de un código fonológico y la articulación, y los tiempos
de la decisión léxica incluyen la preparación de la respuesta y la comprobación posterior al acceso. Por
tanto, las diferencias de los tiempos de reacción entre las tareas pueden reflejar distintas explicaciones del
acceso posterior, más que de los procesos de acceso. Puesto que el objetivo de la lectura es el de extraer un
significado, es cuestionable el grado en que la decisión léxica o la denominación lo consiguen.
Es improbable que haya habido tiempo para que evolucione un sistema específico para el
procesamiento visual de las palabras. Parece más probable que el sistema de reconocimiento de las palabras
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
haya aprovechado otros procesos cognitivos y perceptivos. Sin embargo, las palabras son muy particulares:
estamos muy expuestos a ellas, tienen una relación muy arbitraria con su significado y, lo más importante,
al menos en los sistemas de escritura alfabética, están compuestas por unidades que corresponden a
sonidos.
Parte del córtex visual ventral izquierdo en torno a la circunvolución fusiforme responde más a las
palabras y pseudopalabras que a series de consonantes. Los estudios de imágenes fMRI demuestran que
este área es sensible a las propiedades ortográficas, más que perceptivas, de las palabras; las series de
palabras en las que se alterna la mayúscula con la minúscula (mAyUsCuLa) resultan poco familiares desde
el punto de vista perceptivo, pero siguen activando esta zona del cerebro. Estos datos de las imágenes
sugieren que existe una región exclusiva del cerebro, a menudo denominada área de formación visual de las
palabras, que procesa las palabras a un nivel de representación abstracta. Puesto que esta región también
responde a las pseudopalabras, debe estar recogiendo algo implicado con la regularidad ortográfica de una
secuencia de letras abstractas. La idea de un área dedicada en exclusiva a la formación visual de las
palabras está, sin embargo, siendo objeto de controversias porque el área no responde a palabras
inexistentes parecidas a palabras existentes y otros objetos con los que estamos familiarizados.
Farah afirmó que hay dos procesos de reconocimiento visual fundamentales que subyacen a todo tipo
de procesamiento visual:
El procesamiento holístico de representaciones perceptivas no descompuestas: Propuso que el
reconocimiento de caras solo depende de este procesamiento.
El procesamiento paralelo de múltiples partes complejas: el reconocimiento de las palabras.
El reconocimiento de otros tipos de objetos implica ambos tipos de procesamiento en distintos grados,
dependiendo del objeto específico en cuestión.
Puesto que el reconocimiento de los objetos depende tanto del procesamiento holístico como del
procesamiento de las partes, nunca se debería poder encontrar un déficit de reconocimiento de objetos
(llamado agnosia) sin encontrar también, o bien un déficit de reconocimiento de las caras (llamado
prosopagnosia) o de reconocimiento de las palabras (dislexia). Si una persona tiene prosopagnosia y
dislexia, entonces también debería tener agnosia.
Aunque se trata de una propuesta interesante, no está claro que la percepción de las caras sea holística,
que el reconocimiento de los objetos sea dependiente tanto del estado como de las partes, y que el reconoci-
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
miento de las palabras dependa únicamente de las partes. Además, Humphreys y Rumiati describieron el
caso de MH, una mujer con indicios de una atrofia cortical general. A MH se le daba muy mal el reconoci-
miento de los objetos, aunque era relativamente buena en el procesamiento de palabras y caras. Éste es el
patrón que Farah predijo que no debería producirse jamás. Lambon y cobls., describen un caso de estudio
de un paciente que puede reconocer palabras y objetos (como familiares o no familiares, en una tarea de
decisión léxica o de objetos) pero padece un trastorno selectivo a la hora de recuperar los significados de
las palabras. Esta conducta se puede explicar si existe un área concreta de formación visual de las palabras
pero se ha desconectado del sistema semántico.
En resumen, existe una considerable evidencia de que hay una región del cerebro dedicada en
exclusiva a procesar la información sobre las palabras escritas.
Cuanto más se aproxime el significado de dos palabras, mayor es la magnitud del efecto de priming
observado. Podemos diferenciar entre priming asociativo e priming semántico no asociativo:
Priming asociativo, tarea de asociación de palabras: Se dice que dos palabras están asociadas, si en una
tarea de asociación de palabras, los participantes producen una en respuesta a la otra.
Es importante destacar que no todas las asociaciones son iguales en las dos direcciones. Algunas
palabras se producen como asociadas de otras que no tienen ningún significado relacionado: un ejemplo
podría ser «espera» generada en respuesta a «hospital». El priming mediante asociados se conoce como
priming asociativo; las dos palabras asociadas pueden, o no, tener también una relación semántica.
Priming semántico no asociativo: Se trata de priming mediante palabras que tienen una relación
semántica pero no asociativa.
Las palabras no asociativas relacionadas semánticamente son aquellas que siguen teniendo una relación
en cuanto a su significado con la palabra objetivo, pero que no se producen como palabras asociadas.
Analicemos el caso de «baile» y «patinaje». Tienen una clara relación en cuanto a significado, pero
«patinaje» surge en muy pocas ocasiones como palabra asociada a «baile». «Pan» y «tarta» son un
ejemplo de otro par de palabras con relación semántica pero no asociadas. Los nombres de categorías
superiores (p. ej., «animal») y los casos particulares (p. ej., «zorro») tienen una clara relación semántica,
pero no siempre están fuertemente asociadas. Las palabras pertenecientes a la misma categoría (p. ej.,
«zorro» y «camello» son ambos animales) están claramente relacionadas, pero no siempre están asocia-
das.
La evidencia del priming asociativo automático es bastante clara, y la mayor parte del esfuerzo de
investigación se ha centrado en la cuestión de si podemos encontrar un priming semántico no asociativo
automático.
Muchos de los primeros estudios no encontraron ninguna evidencia de una facilitación semántica auto-
mática pura. En ellos se sugiere que la priming automático parece producirse únicamente dentro del lexicón
debido a las conexiones asociativas entre las palabras que se producen juntas con frecuencia. Moss y
Marslen-Wilson concluyeron que las asociaciones semánticas (p. ej., pollo-gallina) y las propiedades
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
semánticas (p. ej., pollo-pico) tienen distintos efectos de priming en una tarea de priming multimodal. Las
palabras diana asociadas se primaban independientemente del contexto, mientras que las palabras objetivo
con propiedades semánticas estaban afectadas por el contexto de toda la frase que las rodeaba. Moss y
Marslen-Wilson concluyeron que el priming asociativo no refleja la actuación de las representaciones
semánticas, sino que es un proceso automático intraléxico de bajo nivel.
Por otra parte, Hodgson no encontró un priming para los pares con relación semántica en una tarea de
nombramiento, pero un priming significativo para los mismos pares en la tarea de decisión léxica. Tanto
Fischler como Lupker encontraron cierto efecto de priming de relación semántica sin asociación, también
en una tarea de decisión léxica. La tarea de decisión léxica parece ser una medición menos pura del
procesamiento automático que la tarea de nombramiento y, por ello, esta priming podría haber surgido a
través de medios no automáticos.
Los resultados sugieren que el priming automático en tareas de reconocimiento visual de bajo nivel de
las palabras que utilizan los procesos del acceso léxico puede explicarse por las asociaciones entre las
palabras más que por la mediación basada en el significado de las palabras. «Doctor» prima a «enfermera»
porque estas palabras se producen juntas con frecuencia, lo que lleva a un fortalecimiento de sus
conexiones en el lexicón, más que porque haya un solapamiento en su significado, o por la activación de un
elemento en un nivel de representación superior. En efecto, la concurrencia puede no ser ni siquiera
necesaria para que las palabras terminen asociadas: puede que baste con que dos palabras tiendan a ser
utilizadas en el mismo tipo de contexto. Por ejemplo, tanto «doctor» como «enfermera» tienden a ser
utilizadas en el contexto de «hospital» por lo que podrían terminar asociadas incluso si no se producen
juntas directamente.
McRae y Boisvert pusieron en duda esta conclusión. Utilizaron pares de palabras que tenían una
relación más estrecha pero que aún así no estaban asociadas (p. ej., «esterilla» y «alfombra», «yate» y
«barco») y encontraron una clara facilitación. Ahora parece probable que al menos algunas facetas de la
relación semántica puedan producir una facilitación automática.
El patrón de resultados observado también depende de la naturaleza exacta de las relaciones semánticas
implicadas. Moss y cols. concluyeron que tanto los elementos relacionados semánticamente como los
relacionados asociativamente producían priming de las palabras diana en una tarea de decisión léxica
auditiva. Además, los elementos relacionados semánticamente producían un «impulso» de la magnitud del
priming si también tenían una relación asociativa. Sin embargo, se observó un patrón de resultados distinto
en una versión visual de la tarea de decisión léxica. Aquí, el que se observara un priming semántico puro
(no asociativo) o no dependía del tipo de relación semántica. Las palabras coordinadas de una categoría (p.
ej., «cerdo-caballo») no producían un priming automático sin asociación, mientras que las relaciones
instrumentales (p. ej., «escoba-suelo») sí. Esto sugiere que la información sobre el uso y propósito de un
objeto se activa de forma inmediata y automática.
Finalmente, es necesario señalar que el priming semántico puede tener distintos resultados en el
reconocimiento y la producción de las palabras. Por ejemplo, Bowles y Poon demostraron que el priming
semántico tiene un efecto inhibidor en la recuperación de una palabra dada su definición (una tarea de
producción), mientras que, como acabamos de ver, en una decisión léxica (una tarea de reconocimiento) el
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El priming a partir del contexto de la frase es la cantidad de priming aportado además de los efectos
asociativos de las palabras individuales de la frase. El principio de la frase: «Debes lavarte los dientes todos
los ___» facilita el reconocimiento de una palabra como «día», que es un final predecible de la frase, en
comparación con otra palabra como «años», que no lo es. El contexto de la frase facilita el reconocimiento
a pesar de que no existe una relación semántica entre «días» y otras palabras de la frase.
Fischler y Bloom demostraron que la facilitación sólo se produce si la palabra objetivo es una
continuación extremadamente probable de la frase. Un contexto adecuado tiene un efecto facilitador en
palabras congruentes altamente predecibles respecto a otra palabra congruente pero improbable, y un efecto
inhibidor de las palabras anómalas o incongruentes.
Stanovich y West concluyeron que los efectos contextúales son mayores para aquellas palabras que son
más difíciles de reconocer cuando están aisladas. La facilitación contextual era mucho mayor cuando se
degradaban las palabras objetivo al presentar un menor contraste. En condiciones claras, encontramos
fundamentalmente una facilitación contextual de las palabras probables; en condiciones de degradación de
la palabra objetivo, encontramos una inhibición contextual de las palabras anómalas. Los niños que, por
supuesto, son menos expertos a la hora de leer palabras aisladas que los adultos, también muestran una
mayor inhibición contextual. Las distintas tareas arrojan resultados distintos. Las tareas de denominación
tienden a suscitar una mayor facilitación de las palabras congruentes, mientras que las tareas de decisión
léxica tienden a suscitar más inhibición de las palabras incongruentes. Es más probable que se produzca la
inhibición porque la decisión léxica está, de nuevo, aprovechando procesos atencionales de acceso
posterior. Es probable que estos procesos impliquen una integración de los significados de las palabras
alcanzadas con un nivel de representación de la frase más elevado.
West y Stanovich afirmaron que los efectos de facilitación identificados en la tarea de nombramiento
se deben a un simple priming asociativo de las palabras anteriores de la frase. Si esta explicación es
correcta, cualquier facilitación identificada es, sencillamente, resultado de una imprimación asociativa de
las demás palabras de la frase. El contexto de la frase actúa por inhibición del acceso posterior de las
palabras incongruentes con el contexto anterior, y esto es más probable que se pueda detectar con tareas del
tipo de la decisión léxica que son más sensibles a los mecanismos de acceso posterior.
Un problema de esta conclusión es que la relación léxica no siempre basta por sí sola para producir
facilitación en función del contexto de la frase. Esto sugiere que la facilitación observada proviene de la
integración del material en una representación de texto de nivel superior. Forster observó que la utilización
del contexto puede exigir una gran cantidad de recursos cognitivos. Esto sugiere que los efectos
conceptuales deberían, al menos en algunas ocasiones, no ser automáticos. Tal vez el beneficio potencial es
demasiado pequeño para que merezca la pena que el procesador del lenguaje utilice el contexto de manera
rutinaria. El contexto de las frases podría ser de ayuda práctica únicamente en circunstancias difíciles,
como cuando se ha degradado el estímulo.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El análisis de los movimientos oculares sugirió que el acceso léxico y el procesamiento conceptual
dependiente del contexto no podrían separarse en las primeras etapas del procesamiento de las palabras. La
máscara afectaba a la frecuencia y a la previsibilidad de manera distinta, sugiriendo que existe un
componente automático temprano del acceso léxico, y un procesamiento posterior no automático, que
requiere esfuerzos y necesita el contexto. Por tanto, es posible que el contexto tenga algunos efectos
tempranos, pero el acceso léxico y el procesamiento conceptual surgen posteriormente como dos procesos
independientes. Este experimento también es un respaldo adicional a la idea de que el temprano
procesamiento léxico es automático, mientras que los efectos posteriores del contexto implican un
componente atencional.
Van Petten analizó los potenciales evento-relacionados (ERP) de frases semánticamente anómalas. Una
ventaja de la técnica de ERP es que permite examinar el curso temporal del reconocimiento de las palabras
antes de que se dé una respuesta explícita (como decir la palabra o apretar un botón). Los efectos del
contexto léxico y de la frase eran diferenciables en los datos de ERP, y los efectos del contexto de la frase
eran más prolongados. Van Petten concluyó que había, en efecto, un efecto del contexto de la frase que no
se podía atribuir al priming léxico. Además, parece que los efectos de priming empiezan al mismo tiempo,
lo que va en contra de un modelo de serie estricto donde la priming léxica precede al priming del contexto
de la frase. Finalmente, Altarriba, Kroll, Sholl y Rayner (1996) analizaron los tiempos de denominación y
movimientos oculares en el experimento en el que pidieron a personas perfectamente bilingües en inglés y
español que leyeran frases en las que se mezclaban los dos idiomas. Encontraron que el contexto de la frase
actuaba tanto mediante el priming intraléxico como mediante el priming de alto nivel. Las restricciones
contextúales siguen actuando entre idiomas, aunque los resultados estaban moderados por una variable
léxica, la frecuencia de la palabra.
Está claro que los resultados son variables, y parecen depender de la tarea. En el discurso real, es
posible que los efectos del contexto global sean más importantes.
En resumen, el contexto de la frase puede tener, o bien un efecto perceptivo temprano, o bien un efecto
de percepción posterior tardío. Podemos observar efectos tempranos, pero sólo en determinadas tareas,
particularmente en aquellas que se asemejan a la lectura de frases completas y un discurso más que dé
respuesta a palabras aisladas.
Podemos distinguir entre priming semántico asociativo, priming no semántico asociativo y priming
semántico no asociativo. Todos los tipos de priming tienen tanto componentes automáticos como
atencionales, aunque ha habido un considerable debate sobre cuál es el estatus del priming semántico no
asociativo automático.
conexionistas sugieren un mecanismo por el que el contexto de las frases podría tener un efecto. En un
sistema interactivo, el contexto de la frase proporciona otra restricción más que actúa sobre el
reconocimiento de la palabra de la misma manera que las variables léxicas, facilitando el reconocimiento
de las palabras más predecibles.
¿Cómo se produce el priming? La teoría dominante afirma que el priming semántico se produce
mediante la propagación de la activación. La activación es una propiedad continua, como el calor, que se
propaga por una red. Los elementos que están estrechamente relacionados estarán muy juntos en la red. La
recuperación de algo de la memoria corresponde a activar los elementos adecuados. Los elementos que
están cerca de un elemento en las redes recibirán activación por su propagación desde una única fuente.
Cuanto más alejados estén otros elementos de la fuente, menor activación recibirán. La idea central de la
activación que se propaga es que la activación puede penetrar cierta distancia en la red y que esta
penetración requiere tiempo. Cuanto más lejos se propaga la activación, más tiempo tiene que pasar, y
puede resultar muy difícil detectar algunos de estos efectos muy pequeños.
Unos pocos investigadores afirman que la activación no se propaga y, por el contrario, proponen una
teoría de claves complejas (Ratcliff y McKoon), el priming implica la búsqueda en la memoria con un
indicio complejo que contiene tanto a la palabra prime como a la palabra objetivo. Esta teoría predice que
el priming sólo se puede producir si los dos elementos están directamente vinculados en la memoria. Por
tanto, no puede explicar un priming mediado en la que dos elementos que no están vinculados directamente
pueden primarse mediante un intermediario. Además, ahora hay evidencia de que pasa el tiempo mientras
se propaga la activación y que, cuanto más distantes son dos cosas relacionadas, más tiempo pasa.
dificultad de estas palabras surge del hecho de que las palabras derivadas están representadas en el lexicón
como una raíz más su sufijo. Finalmente, analicemos el caso de palabras como «seeming» (pareciendo) y
«mending» (arreglando); tienen frecuencias superficiales muy similares; es decir, esas formas concretas
aparecen con aproximadamente la misma frecuencia en inglés. Sin embargo, las raíces tienen frecuencias
de base muy distintas: «seem» y todas sus variantes (seems, seemed) es más frecuente que «mend» y sus
variantes (mends, mended). ¿Cuál determina la facilidad del reconocimiento: la frecuencia superficial o la
frecuencia de base? Resulta que, en conjunto, la decisión léxica es mucho más rápida, y hay un menor
número de errores, en el caso de las palabras con elevadas frecuencias de base, lo que de nuevo sugiere que
las palabras complejas se descomponen y se reconocen en función de su raíz. Sin embargo, el efecto de la
frecuencia de la base no se encuentra para todas las palabras. Esta conclusión sirve de prueba a favor de la
hipótesis de la vía dual, aunque el debate sigue abierto, con Taft que afirma que los efectos de la frecuencia
de base y de superficie se producen en distintas fases del procesamiento, de forma que la ausencia de un
efecto de la frecuencia de base no constituye una prueba en contra de la descomposición obligatoria.
Las palabras compuestas cuyo significado no trasluce de sus componentes (p. ej., «buttercup»,
ranúnculo, formado por butter, mantequilla, y cup, taza) también se almacenarán por separado. Así pues, ni
«leche» ni «cucharilla» en inglés facilitarán el reconocimiento de «buttercup» entre los angloparlantes.
Marslen-Wilson, Tyler, Waksler y Older (1994) analizaron la forma en que procesamos complejas
palabras derivativas en inglés. El patrón de los resultados era complicado y demostraba que el grado de
priming identificado depende de las ideas sobre transparencia fonológica y transparencia semántica. La
relación entre dos palabras morfológicamente relacionadas es fonológicamente transparente si la parte
compartida suena igual. Por tanto, la relación entre «friendly» (amigable) y «friendship» (amistad) es
fonológicamente transparente («friend» suena igual en ambas palabras), pero no en «sign» (señal) y
«signal» (señalizar) (el componente «sign» tiene distintas pronunciaciones). Una palabra morfológicamente
compleja es semánticamente transparente si su significado resulta evidente a partir de sus partes: por tanto,
«unhappiness» (infelicidad) es semánticamente transparente al estar compuesta de la manera previsible por
«un-», «happy» y «-ness». Una palabra como «department», a pesar de estar compuesta por morfemas
reconocibles, no es semánticamente transparente. El significado de «depart» (partir) en «department» no
está relacionado de forma evidente con el significado de «depart» en «departure» (partida). Es
semánticamente opaca.
La transparencia semántica y fonológica afecta a la forma en que se identifican las palabras. Las formas
semánticamente transparentes se descomponen morfológicamente, independientemente de si son
fonológicamente transparentes o no. Sin embargo, las palabras semánticamente opacas no se descomponen.
Además, las palabras con sufijos y prefijos se comportan de forma distintas. Las palabras derivadas con
sufijos y prefijos se priman entre sí, pero los pares de palabras con sufijo producen interferencias. Esto se
debe a que, cuando oímos una palabra con un sufijo, primero oímos la raíz. Se activan todas las formas con
sufijos, pero en cuanto se tiene evidencia de sólo una de ellas, se suprimen las demás. Por tanto, si
posteriormente se presenta una de esas, observamos inhibición.
Los estudios más recientes han concluido que los efectos del priming morfológico son independientes
de la similitud del significado; es decir, no hay diferencia en los efectos de priming de las derivaciones
semánticamente transparentes y opacas. Estos resultados sugieren que la priming morfológico se obtiene,
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Carr y Pollatsek utilizan el término modelos de casos léxicos para los modelos que tienen en común
que hay un sencillo acceso perceptivo a un sistema de la memoria, el lexicón, donde se almacenan las
representaciones de los atributos de las palabras individuales y no tienen ningún otro componente adicional
basado en reglas que convierten cada letra en sonidos. Podemos distinguir dos grandes tipos de modelo de
casos léxicos. Estos difieren en cuanto a si utilizan una búsqueda en serie a través de una lista o una
activación directa múltiple de las unidades. El mejor ejemplo de un modelo de búsqueda es el modelo de
búsqueda en serie. Los modelos de acceso directo basados en la activación incluyen el modelo de
logogenes, los modelos conexionistas localistas, así como una serie de modelos del reconocimiento de la
palabra hablada. Resulta más difícil incorporar a este sencillo esquema los modelos híbridos o de
verificación (que combinan el acceso directo y la búsqueda en serie) y los modelos conexionistas
distribuidos (que, aunque son muy parecidos al modelo de logogenes, carecen por completo de unidades
léxicas simples).
El modelo es un modelo en dos etapas; Forster propuso que identificamos las palabras mediante una
búsqueda en serie en el lexicón. En este modelo, el sistema de catálogo se corresponde con lo que se deno-
minan archivos de acceso y la estantería llena de libros con el archivo maestro.
frecuentes. Por tanto, se accederá antes a los elementos más frecuentes que a los más infrecuentes. Esta
búsqueda en función de la frecuencia es una característica importante del modelo. El priming semántico se
produce debido a las referencias cruzadas entre entradas en el archivo maestro. Fig. 4.6
La búsqueda no se ve afectada por la información sintáctica o semántica, que es por lo que se dice que la
búsqueda es autónoma. El único tipo de contexto que puede actuar en el acceso léxico es el priming
asociativo dentro del archivo maestro. No hay un papel temprano para el efecto del contexto de la frase; el
contexto de la frase sólo puede tener un efecto mediante los mecanismos de acceso posterior, como la
comprobación.
La repetición puede cambiar temporalmente el orden de los elementos en los cubos, (priming por
repetición). Se pueden rechazar las palabras inexistentes ilegales al principio del proceso de selección de
los cubos, pero las palabras inexistentes legales sólo se rechazan tras una búsqueda exhaustiva en el cubo
pertinente.
La crítica más significativa al modelo de búsqueda en serie hace referencia a la posibilidad de que haya
un mecanismo de búsqueda en serie. Aunque la introspección sugiere que el reconocimiento de las palabras
es directo, más que a través de una búsqueda en serie, no podemos fiarnos de este tipo de datos. El hacer un
gran número de comparaciones en serie requeriría mucho tiempo, pero el reconocimiento de las palabras es
notablemente rápido. El modelo explica los datos fundamentales sobre el reconocimiento de las palabras, y
hace una potente predicción de que los efectos del priming deberían estar limitados al priming asociativo
dentro del lexicón. No debería haber una implicación de arriba a abajo de conocimientos extra-léxicos en el
reconocimiento de las palabras. Por último, el modelo no explica de manera convincente cómo
pronunciamos las palabras inexistentes.
Forster introdujo un elemento de paralelismo al sugerir que se busca simultáneamente en todos los cu-
bos. La subdivisión del sistema en cubos acelera en gran medida la búsqueda, y hace que sea posible
concluir que una serie de letras es una palabra inexistente mucho más deprisa de lo que se podría si hubiera
que buscar en todo el lexicón.
El modelo de búsqueda en serie también proporciona una explicación de los efectos de la frecuencia de
las palabras en el acceso léxico. Inicialmente se pensó que el efecto de la frecuencia era aproximadamente
logarítmico, de forma que la diferencia de los tiempos de acceso entre una palabra frecuente y una palabra
ligeramente menos frecuente es mucho menor que entre una palabra infrecuente y una palabra ligeramente
más infrecuente. En el modelo de búsqueda en serie sólo la frecuencia relativa de las palabras dentro de un
cubo tiene efectos sobre el tiempo de acceso, y no la frecuencia absoluta. Esta idea se conoce como la
hipótesis del rango. La mayor parte de la evidencia sugiere que la frecuencia relativa es más importante
para determinar el tiempo de acceso que la frecuencia absoluta. El detallado análisis experimental de los
tiempos de decisión léxica y de las tasas de error para las palabras con un gran intervalo de frecuencias
muestra que los tiempos de reacción se ajustan mejor a una función lineal (tal y como predice la hipótesis
del rango donde todo lo que importa es la frecuencia relativa) que a una función logarítmica (donde lo
importante es la frecuencia absoluta). En concreto, los extremos de la distribución no se comportan como
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
cabría esperar: tanto las palabras de frecuencia muy alta como las de frecuencia muy baja reciben una
respuesta más lenta e imprecisa de lo que predeciría la función logarítmica.
El modelo de búsqueda en serie ha resultado ser muy influyente y constituye una norma con la que com-
parar otros modelos. ¿Podemos justificar la utilización de mecanismos de acceso léxico más complejos que
la búsqueda en serie?
En este modelo cada palabra que conocemos tiene su propio contador de características simples, llamada
logogén. Un logogén acumula evidencia hasta que se alcanza su nivel umbral individual. Cuando se
alcanza, se reconoce la palabra. Por tanto, el acceso léxico es directo, y se produce de manera simultánea y
en paralelo para todas las palabras. Propuesto por Morton, el modelo de logogenes se relacionó con la idea
del procesamiento de información de las características y los demonios, donde los «demonios» hacen el
seguimiento de una entrada perceptiva buscando «características» específicas; cuanta más evidencia existe
de que hay determinada característica en el elemento de entrada percibido, más alto gritan los demonios
correspondientes. El modelo fue formulado originalmente para explicar cómo afecta el contexto al
reconocimiento de las palabras con una exposición muy breve a la palabra, pero ha sido ampliado para
explicar muchos de los fenómenos del reconocimiento de las palabras.
Cada unidad logogénica tiene un nivel de activación en reposo. A medida que va recibiendo evidencia
que corrobora que corresponde al estímulo presentado, aumenta su nivel de activación. Por tanto, si se
identifica en la entrada la letra «t», aumentan los niveles de activación de todos los logogenes
correspondientes a palabras que contienen la letra «t». Si el nivel de activación consigue superar
determinado umbral, se dispara el logogén y se «reconoce» la palabra. Tanto la evidencia sensorial como la
contextual aumentan el nivel de activación. Es decir, no hay diferenciación entre la evidencia de una pa-
labra de fuentes externas e internas. El contexto aumenta el nivel de activación de un logogén de la misma
manera que lo incrementan los datos sensoriales relevantes. Cualquier utilización del logogén dará lugar a
una facilitación posterior al rebajar el umbral de ese logogén. Los elementos más frecuentes tienen
umbrales inferiores. Las palabras inexistentes serán rechazadas si no se ha disparado ningún logogén
transcurrido cierto tiempo límite. Los logogenes calculan códigos fonológicos a partir de un análisis
auditivo y visual de las palabras, y también pasan la entrada, tras la detección, al sistema cognitivo. El
sistema cognitivo hace todo el trabajo restante, como utilizar la información semántica. Las conexiones son
bidireccionales, puesto que la información semántica y contextual del sistema cognitivo puede afectar a los
logogenes.
En el modelo de logogenes original, (Fig. 4.7) un único logogén realizaba todas las tareas del lenguaje
de determinada palabra, independientemente de la modalidad. Es decir, se utilizaba el mismo logogén para
reconocer las palabras presentadas visualmente y habladas y, para hablar y para escribir. El modelo predice
que la modalidad de la fuente de activación de un logogén no debería importar. Por ejemplo, el
reconocimiento visual de una palabra debería estar igual de facilitado por una palabra prime hablada que
por una palabra prime visual. Los experimentos posteriores contradijeron esta predicción.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Winnick y Daniel demostraron que la lectura previa en voz alta de una palabra impresa facilitaba el
reconocimiento taquistoscópico de esa palabra. Sin embargo, el nombramiento de una imagen, o la
producción de una palabra en respuesta a una definición, no producía una facilitación posterior del
reconocimiento taquistoscópico de esas palabras. Entonces, Morton dividió el sistema de reconocimiento
de las palabras en distintos conjuntos de logogenes para distintas modalidades (p. ej., input, entrada, y
output, salida o producción). Morton (1979b) también demostró que, aunque la modalidad de la respuesta
parecía inmaterial (leer o decir una palabra en la fase de entrenamiento), la modalidad de entradas sí
importaba. El modelo fue revisado de forma que, en vez de tener un logogén para cada palabra, hubiera
dos, específicos a cada modalidad (Fig. 4.8). La consecuencia de este cambio garantizaba que sólo las
entradas visuales pudieran facilitar la posterior identificación visual de las palabras, y que las palabras
primas presentadas auditivamente no facilitarían las palabras objetivo presentadas visualmente en el
reconocimiento taquistoscópico. La evidencia posterior sugiere que son necesarios cuatro sistemas de
logogenes: uno para la lectura, otro para la escritura, otro para la escucha y otro más para hablar.
Los efectos del contexto y de la calidad del estímulo (que se degrade el estímulo o no) deberían
interactuar si el modelo de logogenes fuera correcto. Además, la frecuencia y el contexto actúan de la
misma manera en el modelo de logogenes y, por tanto, debería mostrar patrones parecidos de interacción
con cualquier otra variable. Por ejemplo, la calidad del estímulo debería tener los mismos efectos cuando se
combina con las manipulaciones del contexto y de la frecuencia. Se requiere menos información perceptiva
para reconocer una palabra de alta frecuencia que una de baja frecuencia, y se necesita menos información
para reconocer una palabra en un contexto que fuera de contexto. Las conclusiones son complejas y
contradictorias. Algunos investigadores han identificado una interacción; Meyer, Schvaneveldt y Ruddy
concluyeron que, cuanto menos legible es el estímulo, más beneficiosos son los efectos del contexto. Otros
han concluido que son aditivos. Experimentos posteriores realizados por Norris clarificaron estos
resultados. Concluyó que la frecuencia y la calidad del estímulo podían interactuar entre sí, pero que la
interacción entre la calidad del estímulo y el contexto es mayor y más robusta.
En definitiva, resulta muy difícil extraer conclusiones a partir de esta investigación. Las cuestiones
implicadas son complejas y los resultados de los experimentos suelen ser contradictorios.
El modelo de logogenes ha sido superado por los modelos conexionistas del reconocimiento de las pala-
bras y, en muchos sentidos, se puede considerar como el precursor de los mismos.
superioridad de las palabras. Sin embargo, se puede considerar que el modelo es un componente de un
modelo general del reconocimiento de las palabras.
Cuando se activa una unidad, envía una activación en paralelo a lo largo de las conexiones a todas las
demás unidades con las que se conecta. Si está conectada por una conexión facilitadora, tendrá como efecto
el incremento de la activación en la unidad al otro lado de la conexión, mientras que si está conectada por
una conexión inhibidora, tendrá como efecto la reducción de la activación en el otro extremo. Por tanto, si
se activa la unidad correspondiente a la letra «T» en la posición de letra inicial, aumentará el nivel de
activación de las unidades de palabras correspondientes a «TAKE» y «TASK», pero reducirá el nivel de
activación de «CAKE». Pero, puesto que las unidades están conectadas a todas las demás unidades en el
mismo nivel de conexiones inhibidoras, en cuanto se activa una unidad (p. ej., una palabra), empieza a
inhibir todas las demás unidades a ese nivel. Por tanto, si el sistema «ve» una «T», se activarán «TAKE»,
«TASK», y «TIME» y se empezará inmediatamente a inhibir palabras sin la «T» en ellas, como «CAKE»,
«COKE», y «CASK». Puesto que la activación también se envía a los niveles inferiores, todas las letras en
las palabras que empiecen con «T» están un poco activadas y, por tanto, será «más fácil» «verlas».
Además, puesto que las letras en el contexto de una palabra reciben activación de las unidades de palabras
por encima de ellas, son más fáciles de ver en el contexto de una palabra que cuando se presentan de
manera aislada, donde no reciben ningún apoyo de la activación de arriba a abajo: de aquí el efecto de la
superioridad de las palabras.
Supongamos que la siguiente letra que se presenta es una «A». Esto activará «TAKE» y «TASK» pero
inhibirá «TIME», que entonces también quedará inhibida a su vez por la inhibición dentro del mismo nivel
de «TASK» y «TAKE». La «A» también activará, por supuesto, «CASK» y «CAKE», pero estas dos
palabras ya estarán detrás de las palabras que empiecen con una «T». Si la siguiente letra es una «K»,
entonces «TAKE» será claramente la líder. El tiempo se divide en una serie de fragmentos denominados
ciclos de procesamiento. A lo largo del tiempo, el patrón de activación se estabiliza o relaja en una
configuración estable de forma que sólo permanece activa «TAKE», y por tanto es la palabra que se «ve» o
conoce.
El alcance del modelo es ilimitado y no ofrece ninguna explicación de los papeles del significado y del
sonido en el procesamiento visual de las palabras. La potencia de la conexión tiene que codificarse a mano.
Los modelos en los se aprende la potencia de la conexión se han hecho más populares.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Los modelos híbridos combinan el paralelismo (como en los modelos de logogenes y conexionistas) con
la búsqueda en serie (como en el modelo de Forster). En el modelo de verificación de Becker, los procesos
perceptivos, impulsados por el estímulo, de abajo a arriba, no pueden reconocer una palabra por sí solos. El
proceso de comprobación o verificación de arriba a abajo tiene la última palabra. El procesamiento
perceptivo burdo genera un candidato o conjunto sensorial de posibles elementos léxicos. Este conjunto
sensorial está ordenado en función de la frecuencia. El contexto genera un conjunto semántico o contextual
de posibles candidatos. Tanto el conjunto sensorial como el semántico se comparan y comprueban
mediante un análisis detallado de las características visuales de la palabra. El conjunto semántico se
comprueba primero; la verificación se hace en serie. Si no se encuentra una correspondencia, el proceso de
equiparación pasa al conjunto sensorial. Este proceso generará una clara ventaja para las palabras
presentadas en el contexto adecuado. Cuanto menos concreto sea el contexto, mayor será el conjunto
semántico y más lento será el proceso de verificación. Puesto que el contexto precede a la palabra objetivo,
el conjunto semántico está preparado antes de que lo esté el conjunto sensorial. Se pueden ampliar los
modelos de verificación para incluir cualquier modelo en el que haya una verificación o comprobación de
que el producto de los procesos de acceso léxico de abajo a arriba es correcto. Norris afirmó que los
mecanismos de comprobación de acceso posterior comprueban el resultado del acceso léxico en función
del contexto y resuelven cualquier ambigüedad existente.
Hay dos dicotomías que se pueden utilizar para clasificar estos modelos: La primera es entre modelos
interactivos y modelos autónomos. La segunda dicotomía es entre si se accede directamente a las palabras o
si se accede a las mismas mediante un proceso de búsqueda. Los modelos de logogenes y de activación
interactiva son ambos modelos interactivos de acceso directo; el modelo de búsqueda en serie es autónomo
y, evidentemente, basado en una búsqueda. La mayoría de los investigadores se muestra de acuerdo en que
las fases iniciales del acceso léxico implican un acceso directo en paralelo, aunque es posible que los
procesos en serie actúen posteriormente para comprobar las respuestas preparadas. Hay menos acuerdo en
cuanto al grado en que el contexto afecta al procesamiento. Todos estos modelos pueden explicar el
priming semántico, pero el modelo de búsqueda en serie no tiene ningún papel para el contexto de la frase.
Las homófonas homógrafas son ambiguas cuando están escritas, y algunas sólo se pueden discernir en
función del contexto (como delfín de animal, o de heredero o sucesor).
Las más interesantes son las palabras polisémicas, que tienen múltiples significados Ej.: banco. Algunas
palabras también son sintácticamente ambiguas, por ejemplo «como» puede actuar como verbo o como
conjunción.
Frazier y Rayner diferenciaron entre palabras con múltiples significados (p. ej., los significados en
inglés de «bank» o «ball»), y palabras con múltiples sentidos, donde sólo los sentidos tienen relación (p.
ej., «film» puede ser el rollo físico o toda la película que se proyecta en la pantalla o se ve en televisión,
«giro» puede ser la acción de girar, la dirección que se da a una conversación, el estilo de una frase, o la
traslación de caudales por medio de letras, libranzas, etcétera, donde todos los significados están
relacionados entre sí). No siempre resulta fácil decidir si una palabra tiene múltiples significados o
sentidos.
Somos más rápidos tomando decisiones léxicas sobre palabras ambiguas comparadas con palabras
equivalentes no ambiguas; esta ventaja se denomina la ventaja de la ambigüedad. Sin embargo, sólo se
encuentra esta ventaja para las decisiones léxicas. Para las demás tareas, no hay una ventaja, o incluso una
desventaja (p. ej., en mediciones del movimiento ocular). Tal vez las palabras ambiguas se beneficien de
tener múltiples entradas en el léxico. Es necesario matizar esta observación: mientras que los múltiples
sentidos de una palabra confieren una ventaja, los distintos significados múltiples no. La mayor parte del
tiempo, es probable que ni siquiera seamos conscientes de la ambigüedad de las palabras ambiguas; de
alguna manera utilizamos el contexto de la frase para desambiguarla.
Los primeros investigadores trabajaron en el marco conceptual de tres tipos de modelo de resolución de
la ambigüedad léxica:
Modelo de acceso léxico de lectura única guiado por el contexto. Según este modelo, el contexto limita de
alguna manera el proceso de acceso, de forma que sólo se accede al significado relevante. Un problema
de este modelo es que no está claro cómo puede el contexto proporcionar una restricción tan inmediata.
Modelo de acceso ordenado: Se accede a todos los sentidos de una palabra en orden, a partir de las
frecuencias de cada significado individual. Por ejemplo, en inglés, el sentido de «instrumento de escri-
tura» de la voz «pen» es más frecuente que el sentido de «lugar donde encerrar a animales». A
continuación se comprueba cada sentido en serie respecto al contexto para ver si es adecuado. Primero
comprobamos el sentido más común respecto al contexto para ver si es coherente. Sólo si no lo es
probamos con el significado menos común.
Modelo de acceso múltiple. Según este modelo, cuando nos encontramos con una palabra ambigua se
activan todos sus sentidos, y a continuación se elige el adecuado en función del contexto.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Los primeros experimentos parecían demostrar que accedemos de forma rutinaria a todos los
significados de las palabras ambiguas. Esta interpretación parte de la premisa de que, si es más difícil
procesar una palabra ambigua según determinada medida que el procesamiento de una palabra ambigua de
control, incluso en un contexto con un gran sesgo, esto sugiere que se ha detectado la ambigüedad en algún
nivel del sistema de procesamiento del lenguaje. Por ejemplo, MacKay utilizó una tarea de terminar una
frase en la que los participantes tienen que terminar el principio de la frase (9 o 10) con un final adecuado:
(9) After taking the right turn at the intersection, I...///Tras girar a la derecha en el cruce/en el cruce correcto (yo). . .
(10) After taking the left turn at the intersection, I...///Tras girar a la izquierda en el cruce (yo). . .
Los participantes tardaron más en completar (9) que (10) debido a la ambigüedad de la palabra
«derecha» en inglés (right), que puede significar «lo contrario que la izquierda» o «lo correcto». Esta
conclusión sugiere que se están teniendo en cuenta ambos sentidos, y el retraso se produce porque el
participante tiene que elegir entre ambos.
En estas frases la ambigüedad no se resuelve con el contexto: en este caso los dos sentidos de
«derecha/cruce pertinente» eran correctos. ¿Nos resultan más difíciles las palabras ambiguas incluso
cuando el sesgo del contexto nos lleva a determinada interpretación? Analicemos el caso de las frases (11)
y (12). Aquí, el contexto de «agricultor» crea un fuerte sesgo hacia el sentido agrícola de «paja» más que al
de artilugio con el que beber. Foss utilizó una técnica conocida como monitorización de fonemas para
demostrar que se tarda más en procesar las palabras ambiguas incluso cuando el contexto genera un gran
sesgo. En esta tarea, los participantes tienen que hacer un seguimiento de un discurso hablado buscando
determinado sonido o fonema, y apretar un botón cuando lo detectan. En estas frases el objetivo es /b/. Los
participantes tardaron más en detectar /b/ en (11) que (12), supuestamente porque se ven ralentizados al
tener que desambiguar la palabra anterior.
(11) The farmer put his straw beside the machine {el granjero puso la paja al lado de la máquina).
(12) The farmer put his hay beside the machine (el granjero puso la alfalfa al lado de la máquina).
La tarea de monitorización del fonema es sensible a otras variables lingüísticas, como la longitud de la
palabra anterior. Las palabras cortas nos dan poco tiempo para procesarlas, mientras que se suele identificar
y procesar las palabras largas antes de que terminen; es como si el procesamiento de las palabras cortas
siguiera durante la siguiente palabra. Esta continuación del procesamiento retrasa la identificación del
fonema que están monitorizando los participantes. Mehler, Segui y Carey demostraron que este efecto
desaparece si se controla adecuadamente la longitud de las palabras ambiguas. Resulta que, en inglés, las
palabras ambiguas tienden a ser más cortas que las palabras sin ambigüedad.
En la tarea de escucha dicotómica se presentan distintos mensajes al oído izquierdo y derecho. Se dice
a los participantes que presten atención a uno e ignoren el otro. En los experimentos realizados por Lackner
y Garrett (1972) y MacKay (1973) el mensaje al que se tenía que prestar atención era (13), y los mensajes a
los que no había que prestar atención eran, o bien (14) o (15):
(13) The spy put out the torch as a signal to attack (El espía apagó/sacó la antorcha como señal de ataque).
(14) The spy extinguished the torch in the window (El espía apagó la antorcha en la ventana).
(15) The spy displayed the torch in the window (El espía mostró la antorcha en la ventana).
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Después se pidió a los participantes que repitieran el mensaje al que habían prestado atención. Su
interpretación estaba afectada por el mensaje al que no debían haber prestado atención que permitía
desambiguar la locución ambigua «put out» (sacar/apagar).
Los experimentos analizados hasta ahora sugieren que se accede en paralelo a todos los significados de
una palabra ambigua. Hogaboam y Perfetti demostraron que el tiempo que se necesita para acceder al sig-
nificado depende de la frecuencia de uso. Utilizaron una tarea de detección de la ambigüedad que medía
sencillamente el tiempo que tardaban los participantes en detectarla. La gente tarda en detectar la
ambigüedad cuando las palabras aparecen en su sentido más frecuente. Esto se debe a que en (16) los
participantes acceden automáticamente a la interpretación frecuente de «pen», integrándolo en el contexto
y después tienen que volver a analizar para detectar la ambigüedad. En (17) los participantes prueban el
sentido más frecuente de la palabra, no consiguen integrarlo en el contexto y acceden a continuación al
segundo sentido. Por tanto, en este caso, la ambigüedad se detecta mediante un procesamiento rutinario.
(16) The accountant filled his pen with ink (el contable llenó de tinta la estilográfica).
(17) The farmer put the sheep in the pen (el granjero puso a las ovejas en el corral).
Schvaneveldt et al. utilizaron una tarea de decisión léxica sucesiva, en la que los participantes ven
palabras individuales que se presentan en un flujo continuo, y tienen que tomar decisiones léxicas sobre
cada palabra. En este caso, los participantes son mucho menos conscientes de las relaciones entre las
sucesivas palabras. El principal punto de atención del experimento eran los tiempos de decisión léxica de
triadas de palabras como las de (18), (19), y (20):
(18) save bank money (ahorrar/ingresos/dinero)
(19) river bank money (río/orilla/dinero)
(20) day bank money (día/banco/dinero)
El tiempo de reacción más rápido a la palabra «money» (dinero) era en (18) donde se había primado el
significado adecuado de «bank» (ingresar, pero también banco y orilla) con la primera palabra «save»
(ahorrar). El tiempo de reacción fue intermedio en la condición de control (20), pero más lento en (19)
donde se había imprimado el sentido incorrecto. Si todos los sentidos de la voz inglesa «bank» fueran
accedidos automáticamente cuando se mencionaba por primera vez, «money» tendría que haber sido
imprimada por «bank» independientemente de cual fuera la primera palabra. Por tanto, este resultado
respalda el acceso selectivo.
El experimento de Swinney
Parte de la primera evidencia respaldaba al acceso múltiple, y parte al acceso selectivo. Los resultados
que encontramos dependen en gran medida de la tarea. Además, las tareas son, o bien tareas desconectadas,
en el sentido de que reflejan tiempos de procesamiento muy posteriores al momento en que se haya
procesado la ambigüedad (como en la detección de la ambigüedad, la escucha dicotómica y la terminación
de las frases), o bien tareas conectadas, como la monitorización de los fonemas, que son muy sensibles a
otras variables. Necesitamos una tarea que nos diga lo que está ocurriendo inmediatamente cuando nos
encontramos con una palabra ambigua. Swinney realizó este experimento. Utilizó una técnica de priming
multimodal en la que los participantes tienen que responder a una tarea de decisión léxica visual mientras
escuchan un material auditivo correlacionado.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
(21) Rumour had it that, for years, the government building had been plagued with problems. The man was not surprised
when he found several (spiders, roaches, y other) bugs] in the corner of his room. (Dicen las malas lenguas que, durante
años, el edificio público ha estado lleno de problemas. Al hombre no le sorprendió encontrar varios bichos (arañas,
cucarachas y otros) en la esquina de su habitación).
El experimento de Swinney demostró que el contexto semántico no puede limitar el acceso inicial.
Tanenhaus y cols. realizaron un experimento análogo basado en una tarea de denominación en vez de una
decisión léxica. Utilizaron palabras sintácticamente ambiguas (p. ej., «watch» en inglés, que puede ser un
verbo (mirar) o un sustantivo (reloj). Concluyeron que inicialmente se activaban los dos sentidos de la
palabra en frases como «Boris began to watch» (Boris empezó a mirar) y «Boris looked at his watch» (Bo-
ris miró su reloj). De nuevo, el significado dependiente del contexto se desvanecía transcurridos 200 ms.
Por tanto, el contexto sintáctico no puede limitar tampoco el acceso inicial. Tanenhaus y Lucas afirmaron
que hay buenas razones para esperar que el acceso léxico inicial no esté restringido por el contexto
sintáctico. La retroalimentación de pertenencia a un conjunto tiene poca utilidad a la hora de decidir si una
palabra pertenece o no a determinada categoría sintáctica: dicho de otra manera, la probabilidad de adivinar
correctamente cuál es la palabra que se presenta dada únicamente su categoría sintáctica es muy baja.
En definitiva, los datos disponibles hasta la fecha sugieren que, cuando oímos o vemos una palabra
ambigua, accedemos de forma inconsciente e inmediata a todos sus significados, pero utilizamos el
contexto para rechazar muy rápidamente todos los sentidos inadecuados. Este proceso puede empezar
aproximadamente tras 200 ms. Los significados menos frecuentes necesitan más tiempo de acceso porque
se necesita más evidencia para traspasar su umbral y ser considerados como adecuados al contexto. Esto
sugiere que los procesos de acceso léxico son autónomos, o encapsulados informativamente, y que todos
los sentidos de la palabra ambigua aparecen en el resultado, pero se utiliza muy rápidamente la información
semántica para elegir cuál es el sentido adecuado. Esto, a su vez, sugiere que la construcción de la
representación semántica de las frases se está produciendo más o menos siguiendo cada palabra.
McClelly afirmó que estas conclusiones son coherentes con las teorías interactivas. Afirmó que el
contexto podría tener un efecto desde un primer momento, pero que la ventaja que confiere es tan pequeña
que no se hace patente en estos experimentos. Es difícil falsear este enfoque por lo que, por ahora, la mejor
interpretación de estos experimentos es que accederemos a todos los significados.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
En la actualidad existe un acuerdo en que, cuando nos encontramos con una palabra ambigua, se
activan todos los significados y se utiliza el contexto a continuación para seleccionar rápidamente cuál es el
correcto. La investigación reciente ha utilizado técnicas conectadas, fundamentalmente del priming
multimodal y las mediciones del movimiento ocular, para refinar estas ideas. La investigación se ha
centrado en tres temas fundamentales:
¿qué efectos tiene la frecuencia relativa de los distintos significados de la palabra ambigua en el
procesamiento?
¿qué efecto tiene presentar un contexto de desambiguación potente antes de presentar la palabra ambigua?
¿cómo afecta el contexto al acceso a las propiedades semánticas de las palabras?
Existe una controversia sobre si las frecuencias relativas de los significados afectan al acceso inicial.
Recientemente se ha recurrido mucho al estudio de los movimientos oculares, que se cree que reflejan el
procesamiento conectado. Los estudios que utilizan esta técnica demuestran que el tiempo que pasan los
participantes mirando a las palabras ambiguas depende de si los significados alternativos de la palabra
ambigua son relativamente iguales o muy discrepantes en cuanto a su frecuencia. Simpson denominó a los
dos tipos de palabras ambiguas palabras equilibradas y desequilibradas respectivamente.
En la mayoría de los estudios que hemos analizado hasta ahora el contexto desambiguador se presenta
después de la palabra ambigua. La evidencia converge hacia la idea de que se accede inmediatamente a
todos los significados, pero se utiliza rápidamente el contexto para elegir uno de ellos. ¿Qué ocurre cuando
el contexto desambiguador viene antes de las palabras ambiguas? Se han propuesto tres modelos para
explicar lo que ocurre:
Modelo del acceso selectivo, el material desambiguador anterior limita el acceso de forma que sólo se
accede al significado adecuado.
Modelo del acceso reordenado, el material desambiguador anterior afecta a la fase de acceso en tanto en
cuanto aumenta la disponibilidad del significado adecuado de la palabra. Se trata de un modelo híbrido
entre los modelos autónomos e interactivos, donde la influencia que puede tener el contexto es limitada.
Duffy et al. analizaron el efecto del contexto anterior sobre las palabras ambiguas equilibradas y
desequilibradas, sesgando con el contexto siempre hacia el significado menos común en el caso de las
palabras desequilibradas. El tiempo de procesamiento de las palabras equilibradas y de sus palabras de
control era el mismo, pero los participantes pasaban más tiempo mirando las palabras desequilibradas que
las palabras de control. Duffy et al. afirmaron que el contexto desambiguador aumentaba la disponibilidad
de los significados adecuados, tanto de las palabras equilibradas como de las desequilibradas. En el caso
de las palabras equilibradas, el significado indicado por el contexto era accedido antes de los demás
significados. En el caso de las palabras desequilibradas con un contexto sesgado, se accedía al mismo
tiempo a los dos significados, necesitándose a continuación un tiempo de procesamiento adicional para
elegir el significado subordinado adecuado. Este tiempo adicional se conoce como efecto del sesgo su-
bordinado. Un contexto sesgado puede reordenar la disponibilidad de los significados, de forma que el
significado subordinado está disponible al mismo tiempo que el significado dominante.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Modelo del acceso autónomo, el contexto anterior no tiene ningún efecto sobre el acceso; se accede de
manera exhaustiva a todos los significados. En una versión de este modelo, conocido como al modelo de
integración, la integración con éxito de un significado con el contexto anterior da por finalizada la
búsqueda de significados alternativos de esa palabra. Por tanto, se produce un acceso selectivo (a un
único significado) cuando la integración del significado dominante es rápida (debido al contexto) pero la
identificación del significado subordinado es lenta.
Dopkins, Morris y Rayner realizaron un experimento para diferenciar entre el modelo de acceso
reordenado y el de integración. En su experimento, una palabra ambigua era tanto precedida como seguida
por un contexto relevante al significado de la palabra. El contexto que seguía a la palabra ambigua casi
siempre la desambiguaba de manera concluyente. La principal manipulación en este experimento era el
grado en que el contexto anterior era consistente con los significados de la palabra ambigua. En la
condición positiva, la palabra ambigua estaba precedida por material que ponía de relieve un aspecto de su
significado subordinado, aunque el contexto también era coherente con el significado dominante (véase
22). En la condición negativa, la palabra estaba precedida por material que era inconsistente con el
significado dominante, pero no contenía ningún sesgo fuerte hacia el significado subordinado (véase 23).
En la condición neutra, la palabra ambigua estaba precedida por un contexto que no respaldaba ninguno de
sus significados (véase 24).
(22) Having been examined by the king, the page was soon marched off to bed. (Habiendo sido examinado por el rey, el
paje fue llevado enseguida a la cama) [condición positiva]1
(23) Having been hurt by the bee-sting, the page was soon marched off to bed. (Dolorido por la picadura de abeja, el paje
fue llevado enseguida a la cama) [condición negativa]
(24) Just as Henrietta had feared, the page was soon marched off to bed. (Justo como se temía Henrietta, el paje/we
llevado enseguida a la cama) [condición neutra]
¿Qué predicen los dos modelos? La condición crítica es la condición positiva. El modelo de integración
predice que el contexto no tiene ningún efecto sobre la fase de acceso inicial. Los significados de las
palabras ambiguas serán accedidos en una estricta secuencia temporal independiente del contexto,
accediendo siempre primero al significado dominante. Si se puede integrar este significado con el contexto,
se seleccionará; en caso contrario, el procesador intentará integrar el siguiente significado por el contexto, y
así sucesivamente. En las condiciones positiva y neutra, el contexto puede no tener ninguna prueba de que
el significado dominante es inadecuado, por lo que el procesador logrará integrar este significado, se
detendrá antes de acceder al significado subordinado y seguirá adelante. Cuando se encuentra con el
material posterior, el procesador se da cuenta de su error y tiene que volver hacia atrás. En la condición
negativa, el contexto anterior indica que el significado dominante es inadecuado, por lo que el procesador
tendrá que pasar tiempo accediendo al significado subordinado. El contexto posterior no generará conflicto
alguno. El modelo de integración predice que los tiempos de procesamiento de la palabra ambigua serán
más largos en la condición negativa que en las condiciones positiva y neutra, pero el tiempo de pro-
cesamiento del contexto desambiguador posterior será más largo en las condiciones positiva y neutra que
en la negativa.
1
En inglés, el significado dominante de la palabra page es «página» y el subordinado, paje. (N. deIT.)
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El modelo de acceso reordenado predice que el contexto anterior tendrá un efecto sobre el acceso
inicial de la palabra ambigua en la condición positiva, pero no en la condición negativa o en la neutra. En la
condición positiva, el contexto hace que se acceda antes al significado subordinado. Esto significa que
cuando se ve el contexto después de la palabra, el procesador no tiene que volver a evaluar nada, por lo que
el procesamiento en la región de desambiguación será más rápido. En las condiciones negativa y neutra el
contexto anterior no incluye ninguna evidencia a favor del significado subordinado, y las predicciones son
parecidas a las del modelo de integración.
Por tanto, la condición clave es la positiva, que favorece el significado subordinado pero también es
consistente con el significado dominante. El modelo de acceso reordenado predice que los tiempos de
procesamiento de la región de desambiguación posterior serán relativamente rápidos, mientras que el
modelo de integración predice que serán relativamente lentos. Los resultados respaldan al modelo de
acceso reordenado. Dopkins et al. concluyeron que los tiempos de lectura del material desambiguador eran,
en efecto, relativamente rápidos en la condición positiva.
El modelo de acceso reordenado encuentra un mayor respaldo en un experimento realizado por Folk y
Morris (1995). Examinaron los tiempos de fijación de la lectura y los tiempos de nombramiento cuando se
leían palabras semánticamente ambiguas (p. ej., «calf» que puede ser ternera o pantorrilla), con la misma
pronunciación pero significados distintos y distinta ortografía (p. ej., «break» y «brake»), o con múltiples
códigos semánticos y fonológicos (p. ej., «tear» que se pronuncia de distinta manera según quiera decir
rasgar o lágrima). Concluyeron que las restricciones semánticas, fonológicas y ortográficas tenían, todas,
un efecto temprano, influyendo sobre el orden de la disponibilidad de los significados.
Hasta ahora, pues, los datos respaldan al modelo de acceso reordenado respecto a uno estrictamente
autónomo, como el modelo de integración. Se puede utilizar la información contextual para restringir el
acceso a los significados. Sin embargo, en el modelo de acceso reordenado el papel del contexto está
limitado por la frecuencia de los significados. En concreto, el contexto sesgado a los subordinados no
puede inhibir que esté disponible el significado dominante. La investigación reciente ha analizado el grado
en que es así. Un modelo alternativo es el modelo sensible al contexto, donde la frecuencia de significado y
el contexto sesgado actúan juntos, dependiendo de la fortaleza del contexto. Este es el grado de restricción
que impone el contexto en una palabra ambigua. Según este modelo, el efecto de sesgo del subordinado que
motiva al modelo de acceso reordenado sólo surge en contextos débilmente sesgados. Si el contexto es
suficientemente potente, sólo está disponible el significado subordinado.
(27) The farmer saw the entrance. He reported the mine to the survey crew (el granjero vio la entrada. Informó de la
situación de la mina a los prospectores). [Contexto débil a favor del significado dominante]
(28) The custodian fixed the problem. She inserted the bulb into the empty socket. (La encargada de mantenimiento
arregló el problema. Puso la bombilla en la lámpara) [Contexto fuerte a favor del significado dominante]
Rayner, Binder y Duffy criticaron los materiales de este experimento. También afirmaron que el
modelo de acceso reordenado predice que, con contextos muy potentes, es posible que se acceda antes al
significado subordinado que al dominante. No obstante, el acceso es exhaustivo: siempre se sigue
accediendo al significado dominante, salvo que el contexto contenga una fuerte relación con el significado
pretendido. Por tanto, Rayner et al. afirman que los datos de Martin et al. no son contrarios al modelo de
acceso reordenado. Como réplica, Vu y Vellas, aun admitiendo que había problemas con algunos de sus
estímulos, afirmaron que estos problemas no podían haber provocado resultados erróneos.
Tabossi utilizó una tarea de priming multimodal para demostrar que el contexto de la frase que limita
específicamente una propiedad de la palabra prime provoca una facilitación selectiva. Defendió una versión
modificada de la dependencia del contexto: no todas las facetas del contexto semántico-pragmático pueden
limitar la búsqueda de los posibles significados, pero las características semánticas que restringen
propiedades semánticas específicas pueden proporcionar esas restricciones. Por ejemplo, el contexto en
(29) sugiere claramente la propiedad «amarga» de «limón». Tabossi observó una facilitación cuando se
presentaba visualmente la palabra diana «amargo» en una tarea de decisión léxica inmediatamente después
de la palabra prime («limón»), respecto tanto al mismo contexto pero con un sustantivo distinto (30) como
respecto a un contexto distinto con el mismo sustantivo (31).
(29) The little boy shuddered eating the lemon (el niño se estremeció al comerse el limón).
(30) The little boy shuddered eating the popsicle (el niño se estremeció al comerse el polo).
(31) The little boy rolled on the floor a lemon (el niño dejó rodar el limón por el suelo).
En efecto, Tabossi afirmó que hay importantes diferencias en la eficacia de los distintos tipos de indicios
contextúales. Si el contexto limita débilmente, observamos un acceso exhaustivo, pero si limita
enérgicamente, observamos un acceso selectivo. Sin embargo, Moss y Marslen-Wilson señalaron que la
compensación acústica de la palabra prime podría producirse demasiado tarde como para medir un efecto,
dado que el acceso léxico inicial se produce muy pronto, antes de que se terminen las palabras. Tabossi
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
utilizó palabras de dos sílabas, y es posible que estas palabras fueran suficientemente largas como para
permitir un acceso exhaustivo inicial produciéndose la selección antes de la presentación de la palabra
objetivo. Tabossi y Zardon analizaron esta posibilidad es una tarea de decisión léxica multimodal
presentando la palabra objetivo 100 ms antes del final de la palabra prime ambigua. Siguieron encontrando
que sólo se activaba el significado dominante relevante cuando el contexto estaba muy sesgado hacia ese
significado. Tabossi y Zardon también concluyeron que si el contexto sesgaba enérgicamente la
interpretación hacia el significado menos frecuente, tanto el significado dominante (debido a su dominio)
como el significado menos dominante (debido al efecto del contexto) estaban activos al cabo de 100 ms.
Moss y Marslen-Wilson analizaron también la forma en que se puede acceder selectivamente a facetas
del significado. Midieron el acceso léxico muy al principio, antes de terminar la presentación de la palabra
prime. Las palabras objetivo con una relación semántica estaban primadas independientemente del
contexto, mientras que el acceso a las palabras objetivo con propiedades semánticas estaba afectado por el
contexto semántico. No se accedía de forma automática a las propiedades semánticas cuando se
escuchaban, pero se podían modular en función del contexto anterior, incluso en la posición más temprana.
Por tanto, esta conclusión indica de nuevo que ni el acceso exhaustivo ni el selectivo pueden ser totalmente
correctos en tanto en cuanto lo que encontramos depende de la detallada relación entre el contexto y los
significados de la palabra.
Al principio hubo dos enfoques básicos sobre cómo terminamos eligiendo el sentido adecuado de las
palabras ambiguas. Según la perspectiva autónoma, accedemos automáticamente a todos los sentidos de
una palabra, y utilizamos el contexto para elegir la interpretación adecuada. A continuación se utiliza la
información semántica para acceder al sentido correspondiente de la palabra. Según la perspectiva
interactiva, el contexto permite un acceso selectivo de los sentidos adecuados de la palabra ambigua. Los
experimentos utilizados en este campo son muy sensibles a las propiedades de la palabra objetivo y a la
longitud del contexto. Cuando encontramos un priming sensible al contexto en estos experimentos
multimodales, depende de los detalles de la relación semántica entre la palabra prime y la diana. Los
primeros experimentos utilizando tareas con desconexión encontraron resultados contradictorios tanto para
el acceso múltiple como para el acceso específico al contexto. Los experimentos posteriores, utilizando un
priming multimodal más sofisticado, indicaban un acceso múltiple con rápida resolución.
Los experimentos más recientes sugieren que el patrón de acceso depende de las frecuencias relativas
de los sentidos alternativos de la palabra ambigua y del grado en que el contexto de desambiguación limita
el número de alternativas. Todos los modelos recientes de desambiguación incorporan un elemento de
interactividad: la pregunta ahora es hasta qué punto es limitada. ¿Puede un contexto semántico
suficientemente limitado impedir la activación del significado menos dominante de una palabra? Así pues,
la forma en que abordamos la ambigüedad léxica depende tanto de las características de la palabra ambigua
como del tipo de contexto de desambiguación.
Todavía quedan varias preguntas por responder. En concreto, ¿cómo ejerce el contexto su influencia en
la elección del significado correcto? ¿Cómo se produce la integración semántica? MacDonald y cols.,
abordan esta cuestión, y también la relación entre la ambigüedad léxica y la sintáctica. Proponen que ambas
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Aunque parece que las palabras ambiguas provocan dificultades para el sistema del lenguaje, hay
algunos casos en los que las palabras ambiguas presentan una ventaja. Es posible que nombremos más
rápidamente palabras ambiguas en comparación con las no ambiguas, y tienen una ventaja en la decisión
léxica. Hay una serie de explicaciones de esta posible ventaja, pero todas giran en torno a la idea de que la
disposición de múltiples significados objetivo acelera el procesamiento de la palabra. Por ejemplo, si el
significado de cada palabra se corresponde con un detector como un logogén, entonces una palabra con dos
significados tendrá dos detectores. La probabilidad de que una palabra ambigua active alguno de estos
múltiples detectores será mayor que la probabilidad de que una palabra no ambigua active su único
detector.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Capítulo 5: Lectura
1. Introducción
Cuando leemos en voz alta, debemos recuperar los sonidos de las palabras. Pero, al leer para
nosotros mismos, lo hacemos para extraer el significado, pero la mayor parte del tiempo
experimentamos los sonidos de las palabras como un discurso interno.
2. El sistema de escritura
La unidad básica del lenguaje escrito es la letra. El Grafema se utiliza para designar a la letra o
combinación de letras que representan un fonema. Cada idioma, a la hora de traducir palabras o
sonidos, utiliza diferentes principios:
Escrituras alfabéticas (inglés y otros idiomas europeos): La unidad básica representada por un
grafema es un fonema.
Escritura consonántica (Hebreo, Árabe): No se representan todos los sonidos, de forma que no se
escriben las vocales.
Escritura silábica (Cherokee, Japonés Kana): las unidades escritas representan sílabas.
Escritura logográfica/Ideográfica (Chino, Japonés Kanji): Cada símbolo representa una palabra
completa.
Es evidente que somos capaces de pronunciar tanto pseudo-palabras como palabras irregulares,
por ello se sugiere la posibilidad de la existencia de un modelo de ruta dual.
El Modelo Clásico de Ruta Dual (Fig. 5.1) establece que para convertir las palabras en sonidos,
existen 2 rutas:
Acceso directo o Ruta léxica: se necesita para las palabras irregulares. Esta ruta debe implicar un
vínculo directo entre la letra impresa y el sonido, es decir entrada de una palabra al Lexicón, y
posteriormente ya somos capaces de recuperar el sonido de esa palabra.
Es decir, la ruta es: palabra – Lexicón – sonido (pronunciación)
Ruta Subléxica de conversión de grafema a fonema, ruta indirecta o no léxica: Se utiliza para leer
palabras inexistentes. Esta ruta realiza la recodificación fonológica. Esta no atraviesa el lexicón.
Es decir, la ruta es: palabra – Conversión de grafema a fonema- sonido (pronunciación).
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Dado que ninguna de las 2 rutas, por separado, son capaces de explicar cómo leemos, se sugiere
que cuando leemos utilizamos ambas:
Los lectores expertos tirarán, normalmente, de ruta léxica, echando mano de la ruta sub-léxica
cuando se encuentran con una palabra poco familiar.
La ruta dual es la versión más sencilla de una serie de modelos con múltiples rutas, o de
codificación paralela, de los cuales algunos postulan que hay más de dos rutas de lectura.
El que sean necesarias o no dos rutas para la lectura constituye una cuestión importante del tema
relativo a la lectura. La mayoría de los investigadores considera que existe una ruta directa de la
palabra impresa al sonido, y una ruta directa a través de la semántica; se debate el papel de la ruta
indirecta en la lectura normal.
Según el modelo de doble ruta las palabras inexistentes se pronuncian por la ruta indirecta (sub-
léxica, de grafema a fonema). Y según esto, todas las palabras inexistentes deberían ser muy
parecidas. Pero la realidad es que no es así: no todas las palabras inexistentes pronunciables son
similares.
El efecto pseudohomófono
Se dice que una palabra inexistente (ej. “yelo”) es pseudohomófona de otra palabra que es real
(“hielo”) si ambas suenan igual al pronunciarlas. Los pseudohomofonos se pueden confundir más
con palabras de verdad que otros tipos de palabras inexistentes.
Todos los que lo han investigado están de acuerdo en que este efecto se debe al parecido visual,
somos sensibles a la apariencia visual de las unidades ortográficas de las palabras.
Por ello, el efecto pseudohomófono sugiere que no se procesan todas las palabras inexistentes de
la misma manera. La importancia de la apariencia visual de las palabras inexistentes sugiere que hay
algo más implicado en la recodificación fonológica.
El experimento de Glushko (1979): los efectos léxicos sobre la lectura de las palabras
inexistentes
Glushko en sus experimentos demostró que las latencias de nombramiento de las palabras
inexistentes eran significativamente diferentes de unas a otras. Los tiempos de reacción de las
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
palabras inexistentes que tienen vecinos reales con correspondencias ortográficas irregulares de la
ortografía al sonido son más lentos que los de otras palabras inexistentes de control.
Kay y Marcel demostraron que la pronunciación de una palabra puede verse afectada por la
pronunciación de una palabra prime anterior “bead” “yead”.
Los efectos de las palabras inexistentes son sensibles a muchos factores, como la pronunciación
de las palabras circundantes en la lista. Lo que sugiere que la pronunciación de las palabras
inexistentes implica algo más que una mera conversión de grafemas a fonemas.
El modelo de doble ruta dice que accedemos a las palabras a través de la ruta directa (a través del
lexicón). Esto implicaría que todas las palabras tuvieran el mismo tratamiento respecto a la
regularidad de sus correspondencias entre ortografía y sonido. Según experimentos, esta predicción
no es sostenible.
se recupera por la ruta directa, antes de que la ruta indirecta construya una pronunciación conflictiva.
El conflicto surge cuando:
la ruta léxica es lenta (por ej. Si la palabra es de baja frecuencia)
la palabra de baja frecuencia generada por la ruta léxica se tropieza con la que genera la ruta
subléxica.
Glushko descubrió que las palabras se comportan de forma parecida a las palabras inexistentes
porque los tiempos de nombramiento de las palabras están afectados por la consistencia fonológica
de sus vecinas: El nombramiento de una palabra regular se ve ralentizado respecto al de una palabra
control de frecuencia similar si la palabra puesta a prueba tiene vecinos irregulares.
Brown afirmó que el número amigos (vecinos que se pronuncian de forma consistente) determina
los tiempos de nombramiento, más que el que una palabra tenga enemigos. En la actualidad se piensa
que tanto el número de amigos como de enemigos afectan a los tiempos de nombramiento.
Andrews identificó los efectos del tamaño del vecindario tanto en tareas de nombramiento como
en tareas de decisión léxica: Las respuestas a las palabras con grandes vecindarios eran más rápidas
que a las palabras con vecindarios pequeños.
Patterson y Morton proporcionaron otra clasificación más satisfactoria y compleja. Tabla. 5.1 Esta
clasificación refleja dos factores:
La regularidad de la pronunciación respecto a las reglas de la correspondencia ortografía a sonido.
El acuerdo con otras palabras que comparten el mismo cuerpo.
No todas las palabras existentes se comportan de la misma manera, tampoco lo hacen todas las
palabras.
La regularidad de la pronunciación de una palabra afecta a la facilidad con la que la nombramos. La
pronunciación de los vecinos de la palabra puede afectar también al nombramiento.
El número de amigos y enemigos afecta a la facilidad con la que se nombra una palabra.
El sonido de una palabra podría tener cierta influencia en el acceso a su significado. En una tarea
de decisión sobre la categoría, los participantes tienen que decidir si una palabra diana que se
presenta visualmente pertenece, o no, a determinada categoría.
Existe evidencia de que el reconocimiento de una palabra puede estar influido por su fonología.
Sobre esto hay 2 perspectivas:
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
¿Cómo podemos explicar los datos que demuestran que se produce una mediación fonológica?
Aunque la recodificación fonológica previa al acceso al significado podría no ser obligatoria, puede
que se produzca en algunas circunstancias. Puesto que se produce una carrera entre la ruta léxica y
la subléxica en el modelo de ruta dual. Si por alguna razón, la ruta léxica es lenta al producir una
salida, la ruta subléxica podría tener tiempo para ensamblar una representación fonológica
contrapuesta.
Es posible que se produzca una retroalimentación del sistema de producción del habla al sistema
semántico, o que la ruta de acceso directo del discurso interno interfiera con el procesamiento.
Es posible que la decisión léxica se base en información fonológica.
Al leer en silencio parece que se accede de forma rutinaria a algún tipo de código fonológico tras
acceder al significado. (Discurso interno)
Este discurso interno no puede implicar los mismos procesos que el discurso abierto. Cuando
leemos parece que accedemos a un código fonológico que experimentamos como un discurso
interno. Es decir, cuando accedemos a la representación de una palabra en el lexicón, quedan
disponibles todos sus atributos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Parece que el discurso interno facilita la comprensión; si se reduce, se ve afectada en todos los
materiales menos en los más sencillos. McCutchen y Perfetti afirmaron que independientemente de
cual sea la ruta que se utilice para el acceso léxico en la lectura, se accede de forma automática, al
menos, a una parte del código fonológico de cada palabra, en concreto, accedemos a los sonidos de
los principios de las palabras. La lectura en voz baja genera cierto tipo de código fonológico. Es
posible que la ruta directa del “discurso interno” interfiera con el procesamiento.
La mediación fonológica significa que es posible que estemos accediendo al significado a través
del sonido. A veces, hay que acceder al significado antes de poder acceder al sonido de una palabra.
Este es el caso para las palaras homógrafas. Así hay casos en los que tenemos que acceder al
significado de la palabra antes de que podamos elegir la pronunciación adecuada que la decisión
léxica se base en información fonológica.
Por lo tanto, en ocasiones hay que acceder antes a la representación semántica de una palabra para
poder acceder a su fonología (Ej.: con las palabras homógrafas). Conclusión: “Mediación
Fonológica” es acceder al significado por medio de sonidos, pero hay veces que accedemos primero
al significado, y luego al sonido.
Just y Carpenter concluyeron que los que utilizaban la técnica de lectura rápida sólo tuvieron una
puntuación ligeramente superior a la de un grupo de personas que miró por encima los fragmentos.
Las personas que utilizaban la lectura rápida obtuvieron la misma puntuación que los que hicieron la
lectura normal en los aspectos normales del texto, pero tuvieron peor puntuación en los detalles. Las
personas que utilizaron la técnica de lectura rápida no pudieron contestar a las preguntas cuyas
respuestas estaban localizadas en los lugares en los que sus ojos no habían quedado fijos.
La lectura rápida no es más que una rápida revisión por encima de un escrito, si tiene suficiente
información previa sobre el material, su nivel de comprensión general puede ser bastante bueno.
Si se hace una lectura rápida y luego una lectura normal, el nivel de comprensión y de retención
pueden ser mejores a los que obtendría si sólo leyera el texto de la forma normal. Es una técnica útil
para prepararse para leer un libro o un artículo de forma estructurada.
Los efectos de la regularidad surgen cuando las rutas directa e indirecta producen una salida
aproximadamente al mismo tiempo, de forma que se produce un conflicto entre la pronunciación
regular propuesta por la ruta subléxica.
Los lectores expertos tienen cierto grado de control atencional o estratégico sobre las rutas léxica
y subléxica de forma que pueden prestar atención de forma selectiva a la información léxica o
subléxica.
Zevin y Balota encontraron que las palabras primes inexistentes producen una mayor dependencia
del procesamiento subléxico. Coltheart y Rastle sugirieron que el acceso léxico se realiza tan deprisa
para las palabras de alta frecuencia que hay poco margen para que se utilice el procesamiento
subléxico, pero con las palabras de baja frecuencia, o en condiciones difíciles, la gente puede prestar
más atención a una ruta o a la otra.
Las lesiones en el hemisferio izquierdo suelen dar lugar a una dislexia pero, como estos mismos
lugares están implicados en el habla, la dislexia suele venir acompañada de dificultades para procesar
el lenguaje hablado.
En función del nivel de los procesos de lectura de que se trate, se pueden diferenciar dos clases de
dislexia:
Dislexia Central: implica procesos centrales de alto nivel
Dislexia Periférica: implica procesos de nivel inferior (dislexias: visual, atencional, lectura letra a
letra, negligente) que perturban todas, la obtención de información visual de la página.
Si el modelo de doble ruta es correcto, cabe esperar que exista una doble disociación de las rutas
de lectura:
Pacientes con lesión en la ruta léxica pueden seguir leyendo utilizando la ruta sub-léxica.
Pacientes con lesión en la ruta sub-léxica pueden seguir leyendo utilizando la ruta léxica.
Es posible que la dislexia superficial no sea una categoría unitaria, Shallice y McCarthy,
diferenciaron entre 2 tipos de dislexia superficial:
Tipo 1: leen mal palabras excepcionales, pero leen con precisión palabras regulares y
pseudopalabras.
Tipo 2: también leen mal palabras excepcionales, pero además leen mal palabras regulares e
irregulares. Es posible que su lectura este afectada por variables léxicas de forma que pueden leer
mejor las palabras de alta frecuencia y muy imaginables, pueden leer mejor los sustantivos que los
adjetivos, y los adjetivos que los verbos, asimismo pueden leer mejor las palabras cortas que largas.
Deben tener otro trastorno moderado adicional de la ruta no–léxica, no obstante el modelo de ruta
dual puede seguir explicando este patrón.
Las personas con dislexia fonológica tienen un trastorno selectivo de su capacidad para leer
palabras inexistentes pronunciables (pseudopalabras). Además, tienen más dificultad para leer
palabras irregulares que regulares, lo que sugiere que, según el modelo de doble ruta, el trastorno se
debe a fallos en la ruta no léxica. También tienen dificultad en leer palabras de baja frecuencia y baja
imaginabilidad. También tienen dificultad al leer palabras con inflexión (modificación sintáctica).
Cometen errores:
De derivación, leyendo una palabra como un familiar gramatical en vez la palabra objetivo (ej.
Leen “desempeño” en vez de “desempeñando”)
Visuales, por los que se lee una palabra como si fuera otra con una apariencia visual parecida. Ej.:
Leer perform (desempeñar) como parfum (perfume).
Derouesné y Bearvois, sugirieron que la dislexia fonológica puede deberse a un deterioro, o bien
del procesamiento ortográfico, o bien del fonológico:
Deterioro del Procesamiento Ortográfico: pacientes que leen peor las palabras inexistentes
complejas grafémicamente que las palabras inexistentes sencillas grafémicamente. En las palabras
pseudohomófonas no hay diferencias. Su deterioro está en el análisis sintáctico grafémico.
Deterioro del Procesamiento Fonológico: pacientes que leen mejor las palabras pseudohomófonas
que las no pseudohomófonas, y no se ven influídos por la complejidad ortográfica.
Por otra parte, Friedman, distinguió entre 2 tipos de dislexia fonológica: 1) por deterioro del
Procesamiento Ortográfico Fonológico (los que leen mal las palabras funcionales) y 2) por deterioro
del Procesamiento Fonológico general (contrario al anterior).
Por otra parte: ¿Por qué algunos disléxicos fonológicos tienen problemas para leer palabras
funcionales (determinantes, preposiciones, conjunciones)?
Habitualmente, el problema está, sobre todo, al leer palabras funcionales aisladas (sin un
contexto). Por lo que se sugiere que la causa esté en problemas en el procesamiento sintáctico, de
forma que cuando al paciente se le presenta palabras funcionales de forma aislada es incapaz de
acceder a la información sintáctica.
Los estudios llevados a cabo sugieren que la dislexia fonológica no está relacionada con la
ortografía, y se ha propuesto, sobre todo desde el paradigma conexionista, que la dislexia fonológica
es consecuencia de un problema general del procesamiento fonológico.
La idea de que la dislexia fonológica está provocada por un déficit fonológico general es central
en la explicación conexionista de la dislexia.
La dislexia profunda se parece a la dislexia fonológica. Los pacientes tienen mucha dificultad para
leer palabras inexistentes y una dificultad considerable para leer palabras funcionales gramaticales.
Cometen los mismos errores que los disléxicos fonológicos: 1) de derivación y 2) visuales
Pero lo que caracteriza a un disléxico profundo es que comete un error semántico denominado
paralexia semántica: el paciente, en vez de pronunciar la palabra correcta, produce una palabra con
un significado parecido a esa palabra. Ej: decir “hija” en vez de “hermana”; o decir “rosa” en vez de
“flor”). La imaginabilidad de una palabra es un determinante importante de la probabilidad de éxito
en la lectura cuando se padece este tipo de dislexia: Cuanto más fácil es crearse una imagen mental
de una palabra, más fácil es leerla.
Shallice, diferenció 3 tipos de dislexia profunda que varían en los trastornos específicos
implicados:
Dislexia profunda de Entrada: dificultades para efectuar, durante la lectura, una representación
semántica exacta de la palabra.
Tienen más comprensión auditiva que comprensión lectora.
Dislexia profunda Central: dificultades para leer y para comprender auditivamente.
Dislexia profunda de Producción: sí pueden representar semánticamente las palabras, pero la
dificultad viene después, ya que les es difícil producir el sonido adecuado.
En la práctica, es verdaderamente difícil asignar un paciente a uno u otro tipo de dislexia profunda.
Se han llevado a cabo experimentos que demuestran que los pacientes con dislexia profunda leen de
forma similar (igual de mal) que los pacientes con cerebro dividido, cuando se les presentaban
palabras al campo visual izquierdo (o sea, al hemisferio derecho).
Sin embargo, y a pesar de muchas evidencias empíricas, la hipótesis del hemisferio derecho no ha
sido aceptada por todos, por varias razones:
Es una hipótesis negativa (si la hipótesis fuera correcta, la dislexia profunda no nos aportaría
nada sobre la lectura normal).
Los disléxicos profundos leen mejor que los que tienen el cerebro dividido.
En términos del modelo de doble ruta, tendría que haber una lesión tanto en el sistema semántico
(para explicar las paralexias semánticas y los efectos de la imaginabilidad) como de la ruta no léxica
(para explicar las dificultades con las palabras inexistentes.
Si la hipótesis del hemisferio derecho fuera correcta, la dislexia profunda nos diría poco sobre la
lectura normal.
La dislexia profunda sugiere que, normalmente, podemos leer de alguna manera a través del
significado, es decir, utilizando la representación semántica para obtener su fonología.
No pueden leer palabras inexistentes, aunque sí pueden leer palabras irregulares aún sin
entenderlas.
Este tipo de dislexia sugiere que tengamos una ruta de acceso directo que va de la ortografía a la
fonología, sin pasar por la semántica.
Hemos visto cuatro tipos de dislexia central en los adultos: superficial, fonológica, profunda y de
lectura no semántica. El modelo de ruta dual explica:
La dislexia superficial como un trastorno de la ruta de acceso léxico;
La dislexia fonológica como un trastorno de las rutas de recodificación fonológica no léxica.
En la lectura no semántica, la ruta directa semántica ha sido suprimida, pero la ruta directa no
semántica está intacta. Fig. 5.2
Por todo lo anterior, hubo otros estudios que trataron de explicar esos problemas. Fueron los
modelos siguientes
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El modelo de tres rutas: los efectos léxicos de las palabras inexistentes y los efectos de la
regularidad de las palabras reales se explican por una comunicación de doble sentido entre la ruta
léxica y la no-léxica. Son posibles dos tipos de interacción:
Interferencia durante la recuperación
El conflicto en la resolución de múltiples formas fonológicas tras la recuperación.
Según el modelo,
la dislexia superficial es la pérdida de capacidad de lograr un contacto directo con el lexicón
ortográfico,
la dislexia fonológica es la pérdida de la ruta indirecta.
La lectura no semántica es una pérdida de las rutas semántico-léxicas.
La dislexia profunda, sigue siendo misteriosa;
o Los pacientes sólo pueden leer a través de las rutas semántico-léxicas.
o Sigue sin explicar las paralexias semánticas
o La idea alternativa es que las paralexias son resultado de una lesión adicional del propio
sistema semántico.
Postula que las personas pronunciamos palabras inexistentes y palabras nuevas por “analogía” con
otras palabras. Cuando se presenta una palabra (inexistente) se activan sus vecinos y todos ellos
influyen sobre su pronunciación.
Para nombrar por analogía, hay que encontrar palabras candidatas que contengan los cimientos
ortográficos pertinentes; obtener la representación fonológica de los segmentos; y ensamblar la
fonología completa. Estos modelos tienen una serie de problemas:
No dejaban claro cómo se segmenta el elemento de entrada de forma adecuada.
Hacen predicciones incorrectas sobre cómo deberían pronunciarse algunas palabras inexistentes.
Especialmente problemáticas las basadas en bandas.
Hace predicciones incorrectas sobre cuanto tardamos en cometer errores de pronunciación.
Por último, no está claro como explican las disociaciones que se producen en la dislexia adquirida.
Abreviado con frecuencia como modelo SM. Comparte muchas características del modelo de
activación interactiva del reconocimiento de letras.
Este primer modelo simulaba una ruta de un modelo más general del procesamiento léxico (Fig.
5.4). La lectura y el habla implican tres tipos de códigos: 1) ortográfico, 2) de significado, 3)
fonológico. Estos tres están conectados mediante conexiones de retroalimentación. Por ello se llama
Modelo triangular.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
En el modelo triangular como en el modelo de doble ruta revisado, hay una ruta de la ortografía a
la fonología a través de la semántica. La característica clave del modelo es que hay otra ruta de la
ortografía a la fonología, sin pasar por la semántica; no hay una ruta que implique reglas de
correspondencia grafema a fonema (en el modelo de doble ruta revisado sí).
El modelo tiene tres niveles, cada uno compuesto por múltiples unidades simples: 1) capa de
entrada (input), 2) capa oculta (output), 3) capa de salida. (Fig. 5.5) Cada una de las unidades en estas
capas tiene un nivel de activación, y cada unidad está conectada a todas las unidades del siguiente
nivel en una conexión ponderada, (o bien excitadora o bien inhibidora).
Una característica importante es que las conexiones son aprendidas, no son determinadas por el
modelado. La red aprende a asociar la producción fonológica con la entrada ortográfica al recibir una
exposición repetida a pares de palabra y pronunciación. Utiliza como algoritmo la propagación hacia
atrás, que implica una lenta reducción de la discrepancia entre el producto deseado y el producto real
de la red alterando las ponderaciones de las conexiones.
La facilidad con la que la red aprende una palabra, y el efecto que tiene sobre las palabras
similares, depende en cierta medida de su frecuencia. Se necesitan aproximadamente ciento
cincuenta mil pruebas de aprendizaje para minimizar las diferencias entre producción real y deseada.
Tras el entrenamiento, se puso a prueba la red presentando series de letras y calculando las
puntuaciones de errores:
Las puntuaciones de error fonológico: se generaban aplicando la entrada de las unidades
ortográficas y se media por la salida de las unidades fonológicas; se interpretaba como un
indicador del desempeño en una tarea de nombramiento.
Las puntuaciones del error ortográfico: se obtienen comparando el patrón de activación de la
entrada de las unidades ortográficas con el patrón producido mediante la retroalimentación
proveniente de las unidades ocultas, y se interpretaba como un indicador que reflejaba el
desempeño del modelo en una tarea de decisión léxica. Por lo tanto son indicador de familiaridad
ortográfica.
Puesto que el modelo utiliza una representación distribuida, no existe una correspondencia de uno
a otro entre las unidades ocultas y los elementos léxicos; cada palabra está representada por un patrón
de activación en las unidades ocultas. Según este modelo,
La memoria léxica no consiste en entradas para cada palabra individual.
Los vecinos ortográficos no influyen sobre la pronunciación de una palabra directamente en el
momento en que se está procesando.
Los efectos de la regularidad en la pronunciación derivan de las regularidades estadísticas de las
palabras del cuerpo de la formación (todas las aprendidas) que quedan reflejadas en las
ponderaciones de las conexiones en la simulación.
El procesamiento léxico implica la activación de la información, y no es un suceso de todo o nada.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Besnet et al., proporcionaron una crítica detallada del modelo de Seidenberg y McClelland, en
concreto afirmaron:
El modelo sigue teniendo un lexicón, en el que en vez de que una palabra corresponda a una unidad
corresponde a un patrón de activación.
El modelo “lee” las palabras inexistentes bastante mal. En concreto, sólo producía la pronunciación
regular correcta. Por tanto, el desempeño con las palabras inexistentes es defectuoso.
La explicación del modelo de la decisión léxica es inadecuada en tanto en cuanto comete
demasiados errores, acepta demasiadas palabras inexistentes, en concreto con palabras inexistentes
que tienen patrones ortográficos poco habituales.
La explicación que hace de la dislexia superficial es problemática y no explica la dislexia
fonológica.
Foster señalo que el demostrar que un modelo de red puede aprender con éxito a realizar una tarea
compleja como la lectura no significa que ésa sea la forma en la que lo hacemos las personas.
Norris afirmó que un obstáculo fundamental es que no podía explicar la capacidad que tienen los
lectores de cambiar estratégicamente de utilizar la información léxica a utilizar información
subléxica.
Este modelo proporciona una buena explicación de la lectura normal y de dislexia superficial.
El modelo PMSP utiliza representaciones más realistas de los elementos de entrada y salida. Las
representaciones fonológicas estaban basadas en fonemas con restricciones fonotácticas (limita los
sonidos que pueden ir juntos en el lenguaje) y las representaciones ortográficas basadas en grafemas
con restricciones grafotácticas (limita las letras que pueden ir juntas en el lenguaje).
En el modelo PMSP revisado, las letras y los fonemas activan las mismas unidades,
independientemente del contexto. La respuesta a una serie de letras no es lineal, en tanto en cuanto
se producen rendimientos decrecientes. Esto explica la interacción entre la consistencia de palabras y
la frecuencia.
Acceso a la semántica
En el modelo completo, todas las partes del sistema funcionan de manera simultánea y
contribuyen a la activación del significado. La activación del sistema semántico está impulsada por
ambas rutas (OS y OFS). Dada la interactividad del sistema, la activación del sistema semántico
activa las correspondientes representaciones fonológicas que, a su vez, afectan al sistema semántico.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Las simulaciones demuestran que las contribuciones relativas a las dos vías (OS y OFS) están
moduladas por una serie de factores: 1) habilidad – la información fonológica más importante al
principio del entrenamiento, correspondiente a los lectores menos diestros - 2) frecuencia de las
palabras – para las palabras de alta frecuencia el camino OS más eficiente- y 3) tiempos de respuesta.
El modelo revisado PSMP proporciona una mejor explicación de la dislexia. Patterson y Hodges
propusieron que la integridad de las representaciones léxicas depende de su interacción con el
sistema semántico, hablaron de la hipótesis del pegamento semántico: las representaciones
semánticas unen a las representaciones fonológicas con un pegamento. Los pacientes se ven
obligados a recurrir a la ruta subléxica o de lectura mediante correspondencias de grafema a fonema,
lo que provoca errores de dislexia superficial. Además tienen problemas para repetir las palabras
irregulares cuyo significado han perdido si el sistema está suficientemente estresado pero pueden
repetir listas de palabras cuyo significado está intacto.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
El modelo PMSP demostró que la causa de la dislexia superficial es el deterioro o daño de la vía
semántica participante en la lectura. En la dislexia superficial la vía semántica está dañada, y la vía
fonológica aislada se revela como una dislexia superficial.
El modelo revisado tiene en cuenta las diferencias individuales entre las personas, y muestra cómo
una pequeña diferencia de estrategias de lectura puede provocar distintas consecuencias tras una
lesión cerebral.
Este modelo se basa en la hipótesis del trastorno fonológico, que establece que la dislexia
fonológica se produce debido a dificultades en las representaciones a nivel fonológico, más que en la
conversión grafema a fonema. Las personas con dislexia fonológica siguen pudiendo leer palabras
porque se puede acceder a sus representaciones fonológicas debilitadas a través del nivel semántico.
Un problema de la hipótesis del déficit fonológico es que no está claro que pueda abordar
correctamente la forma en que los pacientes de dislexia fonológica leen los pseudohomófonos mejor
que otros tipos de palabras inexistentes.
Hinton y Shallice lesionaron otro modelo conexionista para simular la dislexia profunda. Se entrenó
a su modelo mediante propagación hacia atrás para que relacionara la pronunciación de las palabras
con una representación del significado de las mismas.
Los resultados de los estudios demostraron que cuanto más cerca estaba la lesión del sistema
semántico, más efecto tenía. El tipo de lesión y su localización interactuaban. Por tanto, la red
lesionada se comporta como un paciente de dislexia profunda, en concreto al cometer paralexias
semánticas. Las paralexias se producen porque los atractores semánticos hacen que se acceda a las
agrupaciones de características cercanas a los significados de las palabras relacionadas con la palabra
objetivo. Las lesiones modifican el espacio semántico de forma que las palabras con un parecido
visual se ven atraídas a distintos atractores semánticos.
Lenguaje 3º GRADO Aitziber Laguardia
Curso 2011-2012 UNED
Plaut y Shallice demostraron que cuando se lesiona una red con atracción similar a la de Hinton y
Shallice, se leen mejor las palabras concretas que las palabras abstractas (las de mucha
imaginabilidad mejor). Esta red puede explicar tanto el mejor desempeño habitual de los pacientes de
dislexia profunda con palabras completas como también la rara excepción en que se produce lo
contrario. También demostraron:
Las lesiones más cercanas a las unidades de los grafemas tendían a producir más errores visuales.
Las lesiones más cercanas a las unidades semánticas tendían a producir más errores semánticos.
El acceso léxico único es un requisito previo para activar el significado en los modelos como el
modelos de logogenes y el modelo de búsqueda enserie, los modelos conexionistas en cascada
permiten una activación paulatina de la información semántica mientras se siguen acumulando
evidencias a partir del procesamiento preceptivo.
Todos estos modelos (en especial conexionistas) están limitados en tanto en cuanto se han
centrado en el reconocimiento de palabras morfológicamente simples, y, a menudo, monosilábicas.
Lenguaje 3º GRADO Aitziber Laguardia
Los sonidos del habla parecen tener ventaja sobre los sonidos que no son habla cuando se oyen
con ruido circundante. Cuantos más sonidos haya que identificar dentro de un conjunto mayor
tiene que ser la señal respecto al ruido. Bruce demostró que, con ruido de fondo:
las palabras en un contexto significativo se reconocen mejor que las palabras fuera de contexto
se necesita el doble de tiempo para reconocer una palabra presentada de forma aislada que si se
presenta en el contexto de la frase.
Lenguaje 3º GRADO Aitziber Laguardia
En resumen, hay ventaja al reconocer palabras en un contexto en comparación con sonidos del
habla fuera de contexto o con sonidos que no son habla.
Las propiedades acústicas de los fonemas no son fijas, sino que varían con el contexto en que
se encuentran e incluso varían acústicamente en función del ritmo del habla. El sonido /b/ difiere
en “ball”, “bill”, “able” o “rob”. Esta variabilidad acústica hace que la identificación de fonemas
sea una tarea compleja, puesto que no existe un “ejemplo perfecto” de ese fonema, llamado
patrón, sino que hay distintos fonos que se corresponden con un solo fonema.
Si nos fijamos en la señal acústica física y los sonidos que transmite la señal, resulta evidente
que la relación entre ambos es compleja. Miller y Jusczyk señalaron que esta complejidad surge
debido a dos características que deben actuar como restricciones fundamentales de las teorías
sobre la percepción del habla. Estas dos características son facetas de la falta de identidad o
isomorfismo entre el nivel acústico y el fonético del lenguaje. Se conocen como el problema de
segmentación y la invarianza.
El problema de la invarianza: el mismo fonema puede tener un sonido distinto en función del
contexto en el que se produce.
Los sonidos del habla se producen juntos (excepto las consonantes nasales y las pausas). Esto
no se aplica sólo a las palabras en sí, sino que las palabras también van unidas entre ellas. El
ejemplo inglés “I scream”-“ice cream”-> suenan igual. Los segmentos acústicos visibles en un
espectrograma no ofrecen ninguna correspondencia fácil con los segmentos fonéticos.
Lenguaje 3º GRADO Aitziber Laguardia
Una restricción o vía de segmentar el habla es que preferimos segmentar el habla de forma que
cada segmento se corresponda con una sola palabra, a lo que se llama “restricción de la palabra
posible”. No nos gusta que algún segmento libre se corresponda con una sílaba sin unir a una
palabra. Cualquier segmentación del habla que deje sola sonidos de consonantes será más
probablemente rechazada (la segmentación de “fill a green bucket” será preferida a “filigree n
bucket”, donde una “n” queda fuera)
Otras estrategias dependen del idioma en el que se crezca. Las sílabas fuertes van acentuadas y
nunca se acortan a sonidos de vocales neutras sin acentuar, mientras que las sílabas débiles no
están acentuadas y suelen acortarse a sonidos de vocales neutras sin acentuar. (En inglés las sílabas
fuertes suelen ser además las que están en palabras del contenido fundamental del mensaje, mientras que las
débiles suelen ser sílabas que no están al principio de la palabra o en el inicio de palabras funcionales ). Una
estrategia que usa este tipo de información es la conocida como “estrategia de segmentación
métrica”. Esto se puede manipular en las tareas experimentales, haciendo que las expectativas no
se cumplan en los materiales presentados a los participantes. Cutler y Butterfield describen cómo
un participante al que se le había dado este conjunto de palabras impredecibles “conduct ascents
uphill” (conducta asciende colina arriba), entendió “the doctor sends the bill” (el doctor presenta
la factura) y otro entendió “a duck descends some pill” (un pato se traga cierta píldora). Los
oyentes han insertado erróneamente delimitaciones de palabras antes de las sílabas fuertes y han
eliminado delimitaciones antes de las sílabas débiles. Este tipo de segmentación, por el que los
oyentes segmentan el habla identificando las sílabas acentuadas, se denomina “segmentación en
función de la acentuación”. En inglés, que sigue esta estrategia, la delimitación de las sílabas no
están claras y la identificación de las mismas no es fiable.
Para los bilingües la estrategia de segmentación viene determinada por su idioma dominante.
Cutler y otros pusieron a prueba a bilingües inglés/francés segmentando materiales en ambos
idiomas usando la “tarea de monitorización de las sílabas”, en la que los participantes tenían que
decir lo más rápido posible si oían una determinada secuencia de sonidos. A los franceses les
pusieron las palabras “balance” (empieza por la sílaba “ba”) y “balcon” (que empieza por “bal”),
les fue fácil detectar las sílabas por las que comenzaban ambas palabras, pero tardaron más cuando
la secuencia estaba segmentada con “bal” como primera sílaba para “balance” y cuando “ba” era
la primera sílaba de “balcon” porque, aunque estos sonidos están representados, no se
corresponden con las sílabas de esas palabras. A los ingleses les pusieron “balance” y “balcony”,
pero la estructura en sílabas de estas palabras no está tan clara como en francés. La “L” de “bal”
en ambas palabras puede pertenecer a la primera o la segunda sílaba, por lo que no hubo
diferencias en el tiempo de detección de ambas secuencias, ya que el inglés no utiliza sílabas.
Las personas que hablaban en inglés como idioma primario segmentaron en función de la
entonación con el material inglés y nunca en función de las sílabas. Los franceses segmentaron en
Lenguaje 3º GRADO Aitziber Laguardia
sílabas sólo con el material en francés. Es como si la estrategia de segmentación quedara fijada a
una edad muy temprana y sólo se usa esa. Por tanto todas las personas bilingües son monolingües
desde el punto de vista de la segmentación, pero esto no es una desventaja, ya que descartan
procesos de segmentación ineficaces y usan otros procesos analíticos más generales.
Percepción categórica
Aunque se pueden crear sonidos con características intermedias entre ellas, como un VOT de
30 ms, la percepción sigue siendo categórica, se elige una u otra, sonora o sorda (que puede
cambiar según el momento de la clasificación o el propio individuo, hablándose de individuos
sesgados hacia un extremos del continuo o el otro).
También se puede medir esto con la “técnica de la adaptación selectiva”: donde se “cansa” a
los receptores de características supuestamente responsables de la percepción categórica para
cambiar la percepción hacia el extremo opuesto del continuo. Para ello se expone repetidamente al
sujeto a un sonido. Por ejemplo se expone a un participante al sonido “ba”, se habitúa a los
receptores de /b/-sonora y en la siguiente exposición de un sonido entre el par [/b/-/p/] se tenderá a
seleccionar /p/-sorda. Por tanto; aunque los estímulos puedan ser físicamente continuos, la
percepción es categórica.
Las delimitaciones entre categorías no son fijas, sino que son sensibles a factores contextuales,
como el ritmo del habla. El sistema perceptivo parece capaz de ajustarse a ritmos rápidos del habla
de forma que, por ejemplo un sonido con un VOT breve que debería ser percibido como /b/-
sonora, se percibe como /p/-sorda. Un intervalo corto (un VOT breve) en términos absolutos
puede ser considerado como relativamente largo si el habla que lo rodea es suficientemente rápida.
Los bebés también son sensibles al ritmo del habla, por lo que no puede hablarse de un fenómeno
aprendido. Son capaces de interpretar la duración relativa de los componentes de frecuencia del
habla en función del ritmo.
Al principio se pensó que los oyentes eran incapaces de distinguir entre miembros ligeramente
distintos dentro de una categoría de fonemas, pero no parece que sea así. Pisoni y Tash
Lenguaje 3º GRADO Aitziber Laguardia
determinaron que los participantes tardaban menos en calificar como iguales dos sílabas /ba/ si los
sonidos de la /b/ eran acústicamente idénticos que si diferían ligeramente en el VOT.
Se dice que los oyentes son sensibles a diferencias dentro de las categorías, por lo que la
importancia de la percepción categórica se ha puesto en entredicho. Es posible que muchos
fenómenos de la percepción del habla se expliquen mejor en términos de percepción continua y no
categórica. Y aunque nuestra experiencia fenoménica de la identificación del habla es que los
sonidos pertenecen a categorías distintivas, la evidencia de que el temprano procesamiento
sensorial es realmente categórico es mucho más débil. Massaro afirmó que la aparente mala
discriminación entre categorías no deriva de un temprano procesamiento perceptivo, sino que
surge de un sesgo de los participantes a afirmar que los elementos de la misma categoría son
idénticos.
Savin y Bever pidieron a los participantes que respondieran en cuanto oyeran determinada
unidad que era, o bien, un único fonema, o bien una sílaba. Determinaron que respondían más
lentamente a los fonemas que a las sílabas y concluyeron que la identificación de los fonemas es
posterior a la de las sílabas. Propusieron que los fonemas no son perceptivamente reales de la
misma manera en que lo son las sílabas. No reconocemos las palabras mediante sus fonemas
individuales, sino en base a la percepción de unidades más fundamentales como la sílaba. Foss y
Swinney dijeron que esto no tenía por qué ser así, que el hecho de que en la consciencia apareciera
la sílaba (unidad superior) antes que el fonema no quería decir que su procesamiento fuera
también anterior.
Foss y Blank propusieron la teoría del código dual en la que el procesamiento del habla utiliza:
Código preléxico o fonético: se computa directamente a partir del análisis perceptivo de la
información acústica de entrada.
Código posléxico o fonémico: se deriva de la información que emana de las unidades de nivel
superior como las palabras.
En la “tarea de monitorización de fonemas” los sujetos tienen que apretar un botón en cuanto
oyen determinado sonido. Foss y Blank demostraron que los tiempos de monitorización del
fonema ante los fonemas objetivo en palabras reales e inexistentes eran los mismos. En este caso
los participantes deberían estar respondiendo utilizando el código preléxico o fonético, puesto que
las palabras inexistentes no pueden tener códigos fonológicos (no se corresponden con ninguna
regla de producción de sonidos del idioma). La “frecuencia” de la palabra objetivo tampoco
influía en los tiempos de monitorización del fonema.
Por otra parte, la manipulación del contexto semántico de una palabra hace que las personas
respondan desde el código posléxico. Según Foss y Blank se responde:
con el código preléxico cuando se facilita la tarea de monitorización del fonema,
con el posléxico cuando la tarea es más difícil (cuando la palabra objetivo es más difícil).
Lenguaje 3º GRADO Aitziber Laguardia
Existe controversia sobre si necesitamos identificar los fonemas antes de reconocer una
palabra, la mayoría de los datos dicen que, aunque es posible que se computen los fonemas
durante el reconocimiento de la palabra, no tenemos que culminar la identificación del fonema
antes de que se pueda empezar a reconocer la palabra. Parece que somos menos conscientes de los
fonemas que de los otros elementos fonológicos constituyentes del habla, como las sílabas. Morais
y Kolinsky propusieron 2 representaciones distintas de los fonemas:
Sistema inconsciente: actúa en el reconocimiento y la producción del habla.
Sistema consciente: desarrollado en el contexto del desarrollo de la alfabetización (escritura y
lectura)
Los distintos tipos de contextos podrían tener un efecto en cada uno de los niveles de
procesamiento fonológico y los efectos podrían ser distintos en cada nivel.
La primera evidencia relevante parte de la percepción categórica de los sonidos. Ganong varió
un fonema ambiguo a lo largo de un continuo (de /k/ a /g/) e insertó estas variaciones delante de un contexto
proporcionado por el final de una palabra, “-iss”. Los participantes pusieron la variación de sonidos del lado de
/k/, algo que no harían normalmente, por el mero hecho de que así se construía una palabra (“kiss” es una palabra
y “giss” no lo es). Concluyó que el contexto afectaba al “punto de cambio perceptivo” o cambio de
identificación léxica, así, el contexto de una palabra influye en nuestra clasificación de los
sonidos.
Connine y Clifton, usando esta misma técnica, reforzaron que el conocimiento léxico (la
información sobre las palabras), está disponible para la percepción categórica de elementos
ambiguos. Así, se logran otras ventajas del procesamiento de estímulos ambiguos cuando se
invoca el conocimiento léxico, pero no en los extremos del continuo donde la información
perceptiva, por sí sola, basta para tomar una decisión.
Efecto de la restauración del fonema: es una conclusión psicolingüística clásica que parece ser,
a primera vista, una prueba de la participación del contexto en la identificación del sonido. Warren
et al. presentaron a los participantes frases como: “the State governors met with their respective
legi*latures convening in the capital city”. En el punto marcado con un * se había cortado un fragmento de 0,12
segundos de la frase (donde falta la /s/), y se había metido una tos (el efecto era igual si el sonido era una tos, un
pitido o un zumbido). Los participantes no pudieron detectar que faltaba un sonido de la frase.
Parecían restaurar el sonido /s/. Una vez informados de que faltaba un sonido, los participantes
seguían diciendo que los percibían todos, además tampoco podían localizar correctamente dónde
estaba la tos en la frase. También se encuentra este efecto en omisiones más largas, como en vez de
“legi*latures”, poner “le***latures”. Warren y colbs., afirmaron que los participantes, en su
procesamiento del habla, están usando, más allá de los fonemas individuales, información
semántica y sintáctica. El efecto desaparecía si en vez de toses, pitos o zumbidos, se introducía un
silencio, que era detectado fácilmente.
Lenguaje 3º GRADO Aitziber Laguardia
El ejemplo más drástico que hizo que Warren y colbs., afirmaran que la información semántica
y sintáctica influía en la percepción fue este: propusieron a los participantes 4 frases, donde a una
de las palabras se le omitía un fonema (siempre en la misma), pero el final de la frase cambiaba en
todas las oraciones (sólo la palabra final).Todo lo demás permanecía igual. Los participantes
introdujeron sonidos diferentes dependiendo del contexto.
1) “It was found that the *eel was on the orange”; aquí metieron una /p/ para crear “peel”, piel, que le pega
más a naranja.
2) “It was found that the *eel was on the axle”; aquí metieron /w/ para crear “wheel”, que encaja más con
axle/eje.
3) “It was found that the *eel was on the shoe”; aquí metieron /h/ para crear “heel”, tacón, que le va más a
zapato.
4) “It was found that the *eel was on the table”; aquí metieron /m/, para crear “meal”, que le pega más a mesa.
Los participantes restauraban un fonema que mejor fuera con la palabra según el contexto.
Aunque a primera vista parece que la percepción del habla está limitada por una información
de nivel superior (como restricciones semánticas y sintácticas), en estos experimentos no está
claro cómo se está produciendo la restauración. ¿Perciben realmente los participantes el fonema
ausente? Fodor investigó si la restauración se producía a un nivel de procesamiento fonológico
(bajo), o a un nivel superior, ya que era posible que los participantes simplemente adivinaran qué
fonema faltaba, cosa que no tenía por qué ser necesariamente consciente. La pregunta era si el
contexto afectaba al procesamiento perceptivo o al posperceptivo (de carácter superior).
Samuel concluyó que el contexto léxico da lugar a una auténtica restauración del fonema y que
el efecto era preléxico. También concluyó que el contexto de la frase no afecta al reconocimiento
del fonema y sólo afecta al procesamiento posléxico. En conclusión: sólo la información sobre
determinadas palabras afecta a la identificación de las palabras; la información sobre el
significado de la frase afecta a una fase de procesamiento superior.
indica que el sonido queda restaurado realmente y que estos “fonemas restaurados” pueden actuar
como los auténticos y causar adaptación.
Sin embargo otros autores han afirmado que se pueden explicar estas conclusiones sin
“interacción” si el código fonológico restaurado se crea por un contexto léxico de arriba abajo en
vez de que se provea simplemente por el código léxico. El contexto léxico no parece mejorar la
perceptibilidad del fonema (la sensibilidad), sino que sólo afecta a cómo responden los
participantes (el sesgo). En este sentido, la información de arriba abajo no está afectando
realmente a la sensibilidad del reconocimiento de la palabra. Tal vez los oyentes aprenden a
reconocer el ruido como el sonido /b/ y por tanto provoca adaptación de la misma manera que la
provocaría una auténtica /b/.
El contexto arriba abajo tiene, en el mejor de los casos, un papel limitado en la identificación
de los sonidos. Hay poca evidencia de que el contexto de la frase afecte al procesamiento del
habla.
Los términos “reconocimiento del habla” y “acceso léxico” se usan para hacer referencia a dos
procesos distintos. Podemos identificar 3 fases de la identificación: (Frauenfelder y Tyler) Fig.
6.1:
El acceso léxico hace referencia al punto en el que se encuentra disponible toda la información
sobre una palabra (fonológica, semántica, sintáctica, pragmática) tras su reconocimiento. El
“proceso de integración” que se produce a continuación marca el inicio del proceso de
comprensión propiamente dicho, donde se integran las propiedades semánticas y sintácticas de la
palabra en la representación de la frase de nivel superior.
Para demostrar que el contexto afecta al reconocimiento, tenemos que demostrar que existen
influencias de arriba abajo en el procesamiento de abajo arriba de la señal acústica. Ya se ha visto
si el contexto afecta al reconocimiento en el nivel inferior, ahora se va a ver si el contexto de la
frase afecta al procesamiento de palabras. También se debe ver qué tipo de contexto afecta, en qué
etapa o etapas tienen efecto y cómo tienen ese efecto. Hay dos posturas opuestas sobre el papel del
contexto en el reconocimiento:
Postura autónoma: el contexto no puede tener un efecto previo al reconocimiento de la palabra,
sólo puede contribuir a la evaluación e integración del resultado del procesamiento léxico, no a
su generación. En estos modelos se permite el flujo lateral de información (se permite un flujo
de información dentro del lexicón, pero no del lexicón a los procesos inferiores como la
identificación del fonema.)
Postura interaccionista: permite que los distintos tipos de información interactúen entre sí. Se
puede producir una retroalimentación de los niveles posteriores de procesamiento a los
anteriores. Por ejemplo, la información sobre el significado de la frase o del contexto
pragmático podría influir en la percepción.
Lenguaje 3º GRADO Aitziber Laguardia
Tal vez habría que considerar estas dos posturas como extremos de un continuo de posibles
modelos. Puede que en los modelos interaccionistas haya algunas restricciones de interacción
posible, por ejemplo, el contexto puede proponer candidatos de la palabra a la que podría
corresponder el estímulo antes de que haya empezado el procesamiento sensorial, o puede que el
contexto se limite a descartar candidatos y no a proponerlos.
Al haber tantas diferencias entre los modelos, es difícil hacer pruebas entre ellos. Una fuerte
evidencia a favor de la perspectiva interaccionista es si el contexto tiene un efecto antes o durante
las fases de acceso y selección. En un modelo autónomo, el contexto sólo puede tener influencia
cuando una palabra ha emergido como el mejor ajuste a la entrada sensorial.
“candle” (vela) hasta la mitad de la palabra. Ante la instrucción “pick up the candle” (coge
la vela), los sujetos movían los ojos más rápido hacia el objeto mencionado cuando sólo
había una vela en la escena que cuando había una vela y un caramelo. Cuando no había
objeto que generara confusión, los participantes identificaban el objeto antes de oír el final
de la palabra. Este resultado sugiere que el contexto interpretativo puede afectar al
reconocimiento de las palabras.
Análisis por síntesis: fue uno de los primeros modelos de la percepción del habla. Su base era
que reconocemos el habla mediante referencia a las acciones necesarias para producir un sonido.
La idea importante que subyace a este modelo es que, cuando oímos hablar, producimos o
sintetizamos una sucesión de sonidos del habla hasta que encontramos una correspondencia con
lo que oímos.
El sintetizador crea la mejor conjetura inicial restringida por las pistas acústicas de la entrada y
después intenta minimizar las diferencias entre esta conjetura inicial y la entrada, no genera
aleatoriamente candidatos que comparar con la entrada; Este planteamiento tiene varias ventajas:
Utiliza nuestra capacidad de producir el habla también para el reconocimiento de la misma.
Asume fácilmente las diferencias entre distintos hablantes, porque los oyentes están
generando sus propias palabras candidatas.
Es fácil demostrar cómo podrían tener efecto las restricciones de todos los niveles; el
sintetizador sólo genera palabras posibles. No generará secuencias de palabras imposibles.
Una variante del modelo de Análisis por síntesis, La teoría del motor, propone que el sintetizador
del habla modeliza el aparato articulatorio y los movimientos motores de la persona que habla.
Computa cuáles habrían sido los movimientos necesarios para producir los sonidos que se han
escuchado.
La evidencia de este modelo es que la forma en que se hacen los sonidos proporciona una
descripción perfecta de los mismos; por ejemplo, en inglés todas las /d/ se hacen golpeando la
lengua contra el arco alveolar. La especificación de los movimientos motores debe ser bastante
Lenguaje 3º GRADO Aitziber Laguardia
abstracta; las personas mudas pueden comprender el habla perfectamente y podemos comprender
cosas que se han dicho que no podemos producir nosotros mismos (como el habla de un
tartamudo o un acento extranjero).
No obstante, en los últimos años las teorías motoras de la percepción han resurgido. Siguen
teniendo la ventaja de que la correspondencia de la señal auditiva con representaciones motoras
para producir nuestra propia lengua proporciona un medio para clasificar la señal acústica;
algunos investigadores afirman que estas representaciones motoras tienen un papel significativo
en el procesamiento del lenguaje y que la percepción del habla se parece a la percepción de los
gestos motores, en el sentido de que el objetivo de la percepción del habla es reconocer cuáles son
los movimientos del tracto vocal que dan lugar a sonidos, más que la identificación más abstracta
de los propios sonidos. Las neuroimágenes demuestran que las áreas motoras del cerebro se
activan durante la percepción del habla aunque esta activación no demuestre un papel causal en la
percepción. Pero sí parece al menos que los procesos motores desempeñan algún papel.
elemento de la cohorte.
Lenguaje 3º GRADO Aitziber Laguardia
1) /t/
2) /tr/
3) /tre/
4) /tres/
5) /tresp/
6) /trespass/
Cuando se escucha /t/, la cohorte es enorme, ya que hay muchas palabras que comienzan con ese fonema.
Con /tr/ se reducirá la cohorte, aunque seguirá siendo muy grande. Con /tre/ se reduce aún más la cohorte, pero
sigue habiendo una serie de elementos posibles, como “trespass”, “trestle”, “trend” o “trench”. Con /tres/ sólo
quedan 3 candidatas; “trespass”, “tress” y “trestle”. Pero sólo con /tresp/ se reduce la cohorte a una palabra (a un
morfema raíz), este es el punto conocido como “punto de singularidad”.
En el modelo revisado, el contexto sólo afecta a la fase de integración. El modelo tiene una
prioridad de “abajo arriba”, lo que significa que no se puede usar el contexto para restringir cuáles
son los elementos que conforman la cohorte inicial.
La prioridad abajo arriba está presente en los dos modelos, pero en el revisado no se puede usar
el contexto para eliminar candidatas en una etapa temprana.
En el revisado la eliminación de palabras de la cohorte deja de ser un proceso de todo o nada,
que sirve para explicar que aunque no se haya entendido bien el comienzo de la palabra se
puedan superar esas distorsiones. Por ejemplo si oímos la frase “la comida estaba beliciosa”,
podemos recuperar e identificar esa palabra como “deliciosa”, aunque se tarde más tiempo.
En el modelo revisado el grado de solapamiento es elevado, aunque el principio de las palabras
sea muy importante para generar la cohorte.
También cambia respecto del anterior que a medida que las palabras de la cohorte no se ven
favorecidas por información positiva, van decayendo hasta quedar de nuevo en estado de
reposo. Se pueden reactivar con información positiva posterior. El nivel de activación de las
palabras candidatas inadecuadas en el contexto decae, por lo que el contexto dispone, pero no
propone. Los candidatos adecuados se integran en el siguiente nivel de representación superior
de la frase.
El contexto de la frase sólo tiene un efecto tardío y no puede invalidar la hipótesis de la
percepción, cuando una candidata está empezando a emerger como probable ganadora.
La frecuencia de una palabra afecta al nivel de activación de las candidatas en las primeras
etapas del acceso léxico. El tipo de ganancia de la activación es mayor para las palabras de
mayor frecuencia.
Hay efectos de frecuencia relativa dentro de la cohorte inicial, de forma que pertenecer a la
cohorte no es una cuestión de todo o nada sino que los elementos varían a lo largo de un
continuo de activación.
La versión más reciente pone de relieve el acceso directo de las entradas léxicas en función de
un análisis acústico de la señal del habla entrante.
“cigarrillo” la palabra), o de restricción baja (“fue su ---------- que estuvieran parados”, donde
“mala suerte” cabe pero hay otras posibilidades)
Tarea de activación paulatina (gating): tarea que consiste en revelar progresivamente más
fragmentos de una palabra, como en el caso de /trespass/ de antes. Con ella se pueden identificar
los puntos de aislamiento, pero con cierto grado de duda. Esta tarea demuestra la importancia del
contexto adecuado, como “en el zoo, los niños montaron en el …” para la palabra “camello”.
Estos estudios también demostraron que las palabras candidatas se generan de forma que son
compatibles con la representación perceptiva hasta cierto punto, pero no con el contexto (que no
propone). Las fuertes restricciones semánticas y sintácticas no impiden que se acceda, al menos
al principio, a palabras candidatas compatibles con la entrada sensorial pero no con el contexto.
El contexto no puede tener un efecto temprano.
Lenguaje 3º GRADO Aitziber Laguardia
Experimento de Van Petten et al., sugiere que la integración semántica puede empezar cuando
el sistema sólo tiene información incompleta sobre la identidad de la palabra. Los estudios que
usan potenciales evocados han demostrado que todas las palabras crean un pico máximo de
activación a los 400 ms de haber empezado el estímulo, lo que se conoce como N400. El N400 es
mayor en amplitud cuando la palabra está en un contexto incongruente. Van Petten encontró N400
diferenciales a palabras semánticamente adecuadas e inadecuadas antes del punto de aislamiento
de la palabra.
Los resultados de Luce y otros sugieren que el tamaño de la cohorte sí afectaba al curso temporal
del reconocimiento de una palabra. Concluyeron que la estructura del vecindario de una palabra
afecta a la velocidad y a la precisión en una serie de tareas. El número de las características de
las competidoras de una palabra (como su frecuencia), son muy importantes. Por ejemplo, somos
menos capaces de identificar palabras de alta frecuencia con muchos vecinos léxicos de gran
frecuencia que de identificar palabras con menor frecuencia o con vecinos menos frecuentes.
Lenguaje 3º GRADO Aitziber Laguardia
Ellos afirmaron que el número de vecinos o “densidad del vecindario” influyen sobre la decisión.
Se tarda más y se cometen más errores al identificar palabras con muchos vecinos léxicos debido
a la competencia.
3.2 TRACE
El modelo TRACE es un modelo muy interactivo del reconocimiento de la palabra hablada,
derivado del Modelo de activación interactiva de las letras y de identificación visual de las
palabras de McClelland.
La característica más importante de TRACE es que pone de relieve el papel del procesamiento
arriba abajo (el contexto) en el reconocimiento de las palabras. El contexto léxico puede ayudar
Lenguaje 3º GRADO Aitziber Laguardia
Unidades de entrada:
Representa características fonológicas. Éstas están conectadas a las unidades de fonemas que,
a su vez, están conectadas a las unidades de salida que representan palabras. (Fig. 6.3)
Están provistas de energía o “activadas”, esta energía se propaga por las conexiones
(quedando activada al final una sola unidad de salida)
Unidades fonemas
Se produce una percepción categórica a causa de una inhibición dentro del mismo nivel entre
las unidades de fonemas
Conforme una activación proporcionada por una entrada antigua va circulando por el tiempo,
la inhibición mutua entre ellas, da lugar a que se clasifique la entrada con en un extremo u
otro del continuo.
Unidades de salida: representan palabras.
De los datos del nivel anterior y su combinación surge la palabra identificada.
Del primer nivel por tanto surgen energía que se propaga por la red excitando e inhibiendo de
manera tal que al final sólo queda una unidad de salida, la palabra que ha reconocido la red.
Las unidades en distintos niveles que son mutuamente consistentes tienen conexiones
excitadoras.
Todas las conexiones entre los niveles son de doble sentido en tanto que la información fluye
entre ellas en ambos sentidos. Esto permite tanto el procesamiento abajo arriba como el arriba
abajo.
Hay conexiones inhibidoras entre las unidades dentro de cada nivel, lo que implica que una vez
que una unidad se ha activado, tiende a inhibir a sus compañeras de nivel. Por tanto este
mecanismo pone de relieve el concepto de la competencia entre unidades del mismo nivel.
El modelo tiene en cuenta el tiempo simulándolo como porciones discretas. Las unidades se
representan de manera independiente en cada porción de tiempo. El modelo se ejecuta en forma
de simulaciones informáticas y se comparan las series de simulaciones con lo que ocurre en el
procesamiento del habla en humanos.
Muestra cómo el conocimiento léxico puede ayudar a la percepción; por ejemplo si se da una
entrada ambigua entre /p/ y /b/ y se sigue con una terminación LAN, el modelo “reconoce” /p/
(para formar “plan”).
En el modelo se produce una percepción categórica a consecuencia de una inhibición dentro
del mismo nivel entre las unidades de fonema. A medida que una activación proporcionada por
una entrada antigua va circulando por el tiempo, la inhibición mutua entre las unidades de
fonemas da lugar a que se clasifique la entrada como en un extremo u otro del continuo.
Lenguaje 3º GRADO Aitziber Laguardia
El modelo TRACE explica los efectos de la posición en el reconocimiento de las palabras (los
sonidos al inicio de las palabras desempeñan un papel importante) porque la entrada se va
desvelando a lo largo del tiempo, de forma que los sonidos del principio de la palabra
contribuyen mucho más a las estimaciones de los nodos de la palabra que los sonidos del final
de la misma.
Massaro planteó una serie de problemas de TRACE. En una prueba de decisión forzosa puso a los
participantes un continuo de sonido entre /l/ y /r/, y tenían que decir cuál habían percibido en tres contextos
diferentes; “s_i” (más proclive a /l/, ya que hay algunas palabras en inglés que empiezan con “sli”), “”t_i”
(proclive a /r/) y “p_i” (proclive a /r/ y /l/). Así se vio que ocurría con humanos, dándose un 50% de elecciones
en la condición “p_i” entre /r/ y /l/, que difería de los resultados de TRACE. En TRACE el contexto tiene un
efecto mayor cuando la señal es menos ambigua, pero en humanos el contexto afecta de manera
constante respecto a la ambigüedad de la señal del habla. Massaro quería que el resultado de
TRACE fuera más estocástico (o probabilista), pero aun cuando se introdujo en el programa esta
modificación para hacerlo más probabilista, los resultados siguieron siendo erróneos en este
aspecto.
TRACE se ocupa del curso temporal del acceso léxico y el modelo lógico difuso se ocupa más
de la toma de decisiones y los procesos de producción de resultados.
El principal problema de TRACE es que se basa en la idea de que el contexto afecta de arriba
abajo al proceso de reconocimiento, y el grado en que esto puede pasar es controvertido. De hecho
existe evidencia experimental en contra del efecto del procesamiento arriba abajo que TRACE
predice: los efectos del contexto sólo aparecen ante estímulos degradados desde el punto de vista
de la percepción.
Elman y McClelland encontraron que los procesos entre-niveles podían afectar a los procesos
intra-nivel a un nivel inferior, lo que respaldaba el modelo TRACE. En concreto, demostraron que
los fonemas ilusorios creados por el conocimiento léxico de arriba abajo (análogos a la
restauración del fonema) pueden afectar a la coarticulación (influencia de un sonido sobre el
vecino) que opera al nivel de percepción básica del sonido de la forma en que lo predecía TRACE.
Se puede ver en el ejemplo de los pares de palabras “English dates/gates” y “copiuos dates/gates”, donde el
fonema inicial de la segunda palabra es ambiguo, en un punto entre /g/ y /d/ . Los efectos de coarticulación
del sonido final de la primera palabra afectan a la forma exacta en que producimos el primer
sonido de la segunda palabra. Los oyentes son sensibles a estos efectos (lo que se conoce como
compensación de la coarticulación). Es más probable que identifiquemos el fonema ambiguo como /d/ si va
seguido de una /sh/, pero más probable que sea identificado como /g/ si va seguido de /s/. Los sujetos tendían
más a entender “English dates” y “copious gates”, incluso cuando el sonido final de English fue modificado para
dejarlo en un sonido a medio camino entre /s/ y /sh/.
A primera vista estos datos respaldan más un modelo interactivo que uno autónomo. Parece
que el lexicón está influyendo sobre un efecto preléxico (compensación). Sin embargo hay
explicaciones de los datos compatibles con un modelo autónomo:
No es necesario invocar al lexicón, ya que de por sí algunas combinaciones de sonidos son más
probables. Pitt y McQueen demostraron que se puede usar esta secuencia en la percepción del
habla. Encontraron el efecto de compensación de la coarticulación en la clasificación de
consonantes oclusivas cuando iban precedidas de sonidos fricativos ambiguos al final de
palabra inexistentes. Por ejemplo, la secuencia de fonemas inexistente “der?” está sesgada hacia una
terminación /s/, mientras que la secuencia “nai?” lo está hacia una /sh/. En realidad el fonema “?” era uno a
medio camino entre /s/ y /sh/. Estas palabras iban seguidas del principio de una palabra con el sonido de una
oclusiva entre /t/ y /k/, de “tapes” a “cakes”. La identificación de la oclusiva estaba influida por la
fricativa ambigua anterior dependiendo del contexto de la fricativa de la palabra inexistente.
Puesto que la palabra anterior era inexistente, no se podía usar el conocimiento léxico. El hecho
de que siguiera identificándose una compensación sugiere que se estaba usando el
conocimiento secuencial sobre cuáles son los fonemas que se producen juntos.
TRACE tampoco ofrece un buen rendimiento para detectar errores de pronunciación. Es un
modelo de salida única; el único modo que tiene de identificar fonemas consiste en ver cuáles
son los fonemas que se identifican en el nivel de los fonemas. Pero si se presenta una palabra
mal pronunciada ese nivel activará los fonemas que mejor correspondan. Este nivel a su vez
Lenguaje 3º GRADO Aitziber Laguardia
activará al anterior, el de los fonemas, de forma que se activan los fonemas de mejor
correspondencia. La mala pronunciación tiene un efecto adverso sobre el rendimiento.
Finalmente, existe evidencia empírica contra otros supuestos del modelo. Frauenfelder et.al., no
encontraron ninguna prueba de una inhibición de arriba abajo en los fonemas en una tarea que
implicaba la monitorización de fonemas inesperados al final de una palabra en comparación con
palabras inexistentes de control. TRACE predice que, una vez que se ha accedido a una palabra,
los fonemas que no están en la misma deberían ser objeto de una inhibición arriba abajo. También
predice que los fonemas objetivos (como /t/) en las palabras inexistentes derivadas de palabras
alteradas (como “vocabutario”) deberían ser identificados más lentamente que los fonemas
objetivo en las palabras inexistentes de control (socabutario) porque el fonema real compite con el
fonema de la palabra dada (/l/ contra /t/ en vocabutario) debido a la retroalimentación arriba abajo.
Sin embargo no hubo diferencia entre las dos condiciones de palabras inexistentes.
Cutler y Norris concluyeron que las “latencias de monitorización de fonemas” eran más rápidas
ante los fonemas del principio de la palabra real que de la inexistente. Según TRACE no debería
haber diferencia en esto puesto que la activación no ha tenido tiempo de acrecentarse y volver a
alimentar al nivel de fonema.
división cruzada provenía de una palabra real, pero la división no marca una gran diferencia en el
procesamiento de las palabras. El modelo TRACE no ofrece buenos resultados porque no puede
utilizar los datos sobre la falta de correspondencia entre los dos elementos.
TRACE es bueno para explicar los efectos del contexto, pero es débil en el grado en que sus
predicciones no están respaldadas fehacientemente por los datos.
Esta modificación permite a las redes codificar información sobre el tiempo, por lo que ofrecen
una explicación mucho más verosímil del carácter temporal del procesamiento del habla que un
modelo TRACE, que usa unidades basadas en tiempos fijos y esto da problemas a la hora de
asimilar variaciones del ritmo del habla.
Otra diferencia con otros modelos conexionistas es que la información del habla de bajo nivel,
representada por características fonéticas, recibe directamente una correspondencia en forma
léxica. No hay niveles adicionales de procesamiento fonológico implicados (aunque hay una capa
de unidades ocultas que media entre las entradas de características y las capas de salida semántica
y fonológica).
Ofrecía una buena explicación del curso temporal del acceso léxico, demuestra que es posible
que se activen múltiples candidatos en paralelo. La palabra objetivo sólo se diferencia
energéticamente de sus competidoras cerca de su punto de singularidad.
El modelo simulaba con éxito los datos experimentales.
A diferencia de los modelos conexionistas como el TRACE, y como los humanos, el modelo
muestra muy poca tolerancia. Como en el experimento de los autores, una palabra inexistente como
“smob”, (que tiene una gran correspondencia con una real, “smog”, de la que sólo difiere en su lugar de
articulación del segmento final) que se construye de forma que las vocales sean consistentes con la palabra
objetivo, de hecho no activa demasiado la representación léxica de la palabra real “smog”. La red requiere
gran cantidad de detalle fonético para acceder a las palabras, como los humanos. Gaskell
propone que esta característica del modelo es una consecuencia de la forma realista en que se
presentan las entradas (con palabras incorporadas en un flujo de habla) y del entrenamiento de
Lenguaje 3º GRADO Aitziber Laguardia
la red en un gran número de formas fonológicas similares. Estas características obligan a la red
a ser intolerante sobre la clasificación de los elementos de entrada.
Puesto que las palabras están representadas de tal manera que se solapan los elementos
similares en sus representaciones, la competencia entre elementos similares es una parte
esencial del procesamiento. La activación simultánea de más de una palabra candidata crea
conflicto. Wilson presenta una serie de experimentos utilizando un priming multimodal que muestra que la
competencia reduce la magnitud del efecto de priming semántico. Cuando una palabra sigue siendo ambigua,
como “capt-”, que puede ser capitán o cautivo (captive), no es particularmente efectiva a la hora de primar
“barco”; sólo lo es relativamente tarde, después de haber alcanzado el punto de singularidad de la palabra. No
bastante, “capt-” sigue produciendo cierto priming; puede acceder al significado antes del punto de
singularidad, lo que permite cierta facilitación de las palabras relacionadas semánticamente, pero como no
puede lograr un acceso completo, el priming semántico es más débil que después de pasado el punto de
singularidad.
El modelo explica el distinto patrón de efectos que se encuentran en el priming por repetición
multimodal y en el priming semántico multimodal. Ellos afirman que la cantidad de
competencia entre las palabras depende de la coherencia del conjunto competitivo.
o Las palabras candidatas activadas por un sonido parcial sonarán necesariamente similares,
por lo que serán coherentes. Por el contrario, las propiedades semánticas de las palabras
candidatas no estarán relacionadas entre sí. Por tanto, el priming por repetición puede hacer
un uso directo del conjunto de candidatas léxicas activadas directamente por la entrada. (Ej.:
“capt-” está relacionada con captain y captive).
o El priming semántico no puede hacerlo puesto que genera múltiples elementos candidatos
no relacionados entre sí, por lo que son incoherentes (de “capt-“ saldrían “barco” y
“prisionero”, que en su sonido no tienen nada que ver).
Además, con conjuntos incoherentes más competencia habrá, mientras que en los coherentes no
importa el número de candidatas y el tamaño afectará menos al priming. Por tanto, se
determinó que los efectos de la competencia y los efectos del tamaño de la cohorte serían
mayores en el priming semántico que en el priming por repetición.
Norris creó el modelo SHORTLIST: Demostró que las redes recurrentes pueden identificar
palabras habladas en su punto de singularidad y también pueden asimilar variaciones en el ritmo
del habla. Pero, a diferencia de TRACE, no se pueden recuperar si identifican incorrectamente
partes de una palabra. No se pueden deshacer las decisiones.
El modelo SHORTLIST intenta reunir lo mejor de los modelos con una arquitectura híbrida
donde una red recurrente proporciona los elementos de entrada de una red de activación
interactiva. Este modelo es totalmente abajo arriba y parte de un vocabulario de decenas de miles
de palabras. En esencia considera que el reconocimiento de palabras es una carrera abajo arriba
entre palabras similares. Se crea una “red de competencia al vuelo” desde la salida de una red de
reconocimiento en la que las palabras candidatas detectadas en el flujo de entrada pueden competir
entre sí. Sólo hay unas pocas palabras recientemente activas para ser utilizadas en la lista
(shortlist=lista reducida). El principal inconveniente de este modelo es la viabilidad de crear una
nueva red competitiva en cada momento.
Lenguaje 3º GRADO Aitziber Laguardia
Vamos a ver de nuevo las 3 fases de reconocimiento del habla a ver qué ha dicho cada modelo
de ellos.
Cuando oímos hablar tenemos que hacer dos cosas: 1.-Dividir el flujo del habla en palabras y
2.-Reconocer las palabras. La cantidad de habla necesaria para computar la representación de
contacto determina cuándo se puede producir el contacto inicial. El contacto inicial se puede
producir apenas transcurridos 10 ms. Es evidente que los modelos que utilizan sílabas para
localizar posibles comienzos de las palabras, y que necesitan unidades de habla más largas,
requerirán más tiempo para acceder al lexicón. Los distintos modelos también ponen de relieve la
forma en que hacen contacto las representaciones con el lexicón. Por tanto, en el modelo de
cohortes se utiliza el principio de la palabra (los primeros 150 ms) para hacer el primer contacto.
En otros modelos se usa la parte más prominente o fiable de la palabra, como la sílaba de mayor
acentuación. Todos estos modelos en los que se utiliza el contacto inicial para generar un
subconjunto de entradas léxicas tienen la desventaja de que es difícil recuperarse de un error. Los
modelos como TRACE, en los que no hay un único contacto para cada palabra, no padecen estos
problemas. Cada fonema identificado (la palabra completa) contribuye al conjunto de entradas
léxicas activas. El coste es que estos conjuntos pueden ser muy grandes, lo que puede resultar caro
en cuanto a computación.
reconocimiento del habla, aunque SHORTLIST padece actualmente el problema de que no está
claro cómo se pueden crear “al vuelo” redes de activación interactiva.
Finalmente, usamos otro tipo de información cuando comprendemos el habla. Incluso las
personas con un sentido del oído normal pueden leer los labios en cierto grado. Este efecto sugiere
que la percepción del habla es el resultado de las mejores conjeturas de todo sistema de
percepción, utilizando múltiples fuentes de información entre las que el habla suele ser la más
importante.
Hay muchos casos de pacientes que tienen dificultades para construir el código preléxico. Una
lesión cerebral puede afectar a las diversas etapas del procesamiento acusticofonético de las
características, como el VOT, o las etapas posteriores que implican la identificación de sonidos en
función de esas características. La evidencia neuropsicológica sugiere que las vocales y las
consonantes son procesadas por sistemas distintos. Se vio en dos pacientes: AS producía
fundamentalmente errores con las vocales, mientras que el paciente IFA lo hacía con las
Lenguaje 3º GRADO Aitziber Laguardia
consonantes. Estas diferencias persistían incluso cuando se tenían en cuenta otros factores que
podían llevar a engaño (como el grado de sonoridad; la cantidad de energía acústica de un sonido)
Los pacientes con sordera de palabra pura pueden hablar, leer y escribir con normalidad, pero
no pueden comprender el habla, a pesar de que oyen con normalidad. No pueden repetir el habla y
tienen una comprensión auditiva muy pobre. Tienen dificultades en tareas como la diferenciación
de las consonantes oclusivas entre sí. Por otra parte, el paciente de Saffran podía identificar
instrumentos musicales y ruidos distintos al habla, y podía identificar el género y el idioma de una
voz grabada. Este patrón de desempeño sugiere que estas personas padecen una perturbación de
un mecanismo de procesamiento acústico preléxico. Una variante muy poco frecuente y
controvertida es la sordera de significado de la palabra. Los pacientes con este trastorno muestran
los mismos síntomas que los anteriores pero tienen intactas las capacidades de repetición. Esto
demuestra que podemos reproducir palabras sin tener que comprenderlas.
Es probable que las personas identifiquen las frases como parecidas a partir del verbo principal
más que a partir del sujeto de la frase, siendo especialmente importante la estructura del
argumento.
El primer paso del análisis sintáctico consiste en determinar cuál es la categoría sintáctica a la
que pertenece cada palabra de la frase. A continuación combinamos estas categorías para crear
locuciones o sintagmas.
Un paso importante del análisis sintáctico es determinar cuál es el tema de la frase. A partir de
esa información sobre las palabras individuales se empieza a construir una representación del
significado de la frase.
2. La ambigüedad estructural
El estudio de la ambigüedad sintáctica es una forma excelente de descubrir cómo funciona el
procesamiento de una frase.
Nos pasamos más tiempo leyendo la parte ambigua de las frases que las partes no ambiguas de
frases de control pero, a menudo, pasamos más tiempo leyendo la parte de desambiguación.
Cuando se utilizan los distintos tipos de información. Hay dos árboles de análisis sintáctico
alternativos que se pueden construir:
1. Modelo de representación en serie: Base puramente sintáctica y ha continuación se decide
utilizar la información semántica para ver si tiene sentido o no. Si tiene sentido aceptamos la
representación, si no tiene sentido, volvemos hacia atrás y volvemos a probar.
2. Modelo autónomo en paralelo: Se construyen todas las representaciones sintácticas posibles
en paralelo, utilizando, de nuevo, exclusivamente la información sintáctica, y después
utilizar la información semántica, o de otro tipo, para elegir la más adecuada.
3. Modelo interactivo: Podríamos utilizar información semántica de las fases anteriores para
guiar el análisis sintáctico de forma que sólo pudiéramos construir representaciones
sintácticas semánticamente plausibles o se podrían activar las representaciones de todos los
análisis posibles, quedando el nivel de activación afectado por la plausibilidad de cada una.
En las frases que son ambiguas localmente, la ambigüedad queda desambiguada gracias al
material posterior.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
A veces, nos damos cuenta de que nuestro análisis inicial era incorrecto y tenemos que volver
atrás y volver a analizar.
Oración relativa reducida: una oración relativa es una que modifica el sustantivo principal y
está reducida porque carece del pronombre relativo.
Las frases que llaman a engaño son las herramientas favoritas de los investigadores interesados
en el análisis sintáctico.
Hay evidencia de que una puntuación adecuada, como la inserción de comas, puede reducir la
magnitud del efecto de engaño mejorando la sensibilización que tienen el lector de la estructura
de la frase.
Las interrupciones influyen en la forma en que la gente interpreta las frases engañosas. Pueden
ayudar, pero sólo siempre que estén en el lugar adecuado. Son correctas cuando apuntan
correctamente al sujeto.
Hipótesis del diseño para la audiencia: quiénes hablan pretenden dar pistas prosódicas con el
propósito explícito de ayudar al oyente (no siempre es así)
McKoon y Ratcliff: demostraron que las frases con oraciones relativas reducidas con verbos
como “race” se producen en el lenguaje natural con una probabilidad cercana a 0 (se
consideran inaceptables para la mayoría de la gente).
Chomsky definió un subconjunto de frases: Frases nucleares: en las que sólo se han aplicado
transformaciones obligatorias.
Miller y McKean: cuantas más transformaciones hay una frase, más difícil es procesarla. Su
resultado respaldó a la realidad psicológica de la gramática transformacional.
Savin y Perchonock concluyeron que las frases que tenían más transformaciones requerían más
espacio de memoria. Cuanto mayor era la complejidad transformacional de una frase, menos
elementos podían recordar simultáneamente.
Melher descubrió que cuando los participantes cometían errores recordando las frases, tendían
a hacerlo en el sentido de olvidar las etiquetas de transformación, en vez de añadirlas.
Wason: analizó la relación entre la estructura de una frase y su función. Y llego a la conclusión
de que el tiempo que se tarda en procesar una construcción sintáctica como una formación
negativa depende del contexto semántico.
Los primeros estudios que respaldaban las ideas de la complejidad derivativa eran, prematuros
o simplemente erróneos, el grado en el que los procesos sintácticos y semánticos son
independientes es uno de los temas más controvertidos e importantes de la psicolingüística.
Chomsky tenía a mano una retirada: las teorías lingüísticas describen nuestra competencia
lingüística más que nuestro rendimiento lingüístico. Esto ha llevado a una separación de la
lingüística y la psicolingüística, por la que cada disciplina busca objetivos distintos.
Miller terminó creyendo que todo el tiempo que se utiliza en el procesamiento de una frase se
dedica a operaciones semánticas.
La sintaxis propone y la semántica dispone. El enfoque más sencillo considera que la sintaxis
es un módulo de procesamiento independiente o autónomo: sólo se utiliza la información
sintáctica para construir el árbol sintáctico.
La oración también es una unidad importante. Una oración es una parte de una frase que tienen
tanto un sujeto como un predicado.
La gente considera que es más fácil leer de línea en línea si cada línea se corresponde con un
elemento constituyente principal.
Cuando se recuerdan las palabras se produce un efecto de delimitación de las oraciones: es más
fácil recordar las palabras de una oración que se está procesando actualmente, independientemente
del nº de palabras en la oración.
La carga de procesamiento es máxima al final de la oración, y las fijaciones de los ojos son más
largas en la última palabra de una oración.
Hay acuerdo en torno a que el análisis sintáctico es, en gran medida, un proceso incremental:
intentamos construir estructuras de palabra en palabra (no permanecemos inactivos esperando a
que se acabe la cláusula). Muchos estudios han demostrado que el análisis sintáctico y semántico
son incrementales:
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
La estructura superficial de las frases proporciona una serie de pistas evidentes sobre la
representación sintáctica subyacente. Bever y Fodor y Garrett detallaron una serie de estrategias
de análisis sintáctico que sólo utilizaban pistas sintácticas:
En la mayoría de las frases que oímos o leemos, el 1º sustantivo es el sujeto, y el 2º el objeto
(estrategia de la frase ortodoxa)
1º Probamos con las estrategias más sencillas y, si no funcionan, con otras, si se agotan,
tenemos que probar con otra cosa.
Para ello el Análisis Sintáctico buscaba recuperar la estructura profunda subyacente de una frase.
Hay poca evidencia de que la estructura profunda esté representada mentalmente de forma
independiente del significado. No obstante, el principio general de que cuando hacemos análisis
sintáctico utilizamos las pistas de la estructura superficial sigue siendo influyente y se ha
formalizado.
Kimball afirmó que la estructura superficial proporciona pistas que permiten desvelar la
estructura sintáctica subyacente:
Propuso 7 principios del análisis sintáctico para explicar el comportamiento del mecanismo
humano del Análisis Sintáctico de las frases
Primero computamos la estructura superficial de una frase guiados por reglas que se basan en
las restricciones psicológicas, como la minimización de la carga de la memoria.
Estos principios explican por qué se asigna la estructura que se asigna a la frases, porqué unas
son más fáciles de analizar que otras, y porque cometemos sesgos.
Principios:
El AS es un proceso de arriba abajo, excepto cuando aparece una conjunción (partimos del
nodo de la frase y predecimos sus elementos constituyentes)
Asociación a la derecha, se relacionan preferentemente las nuevas palabras con el nodo más
bajo posible de la estructura construida hasta ahora.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Estos principios explican bien una serie de propiedades del procesador, pero tal vez se podía
simplificar el modelo, ya que el de procesamiento subyace a otros muchos.
La investigación sobre la fijación de los ojos demuestra que es posible que no miremos
directamente a algunas palabras funcionales: con frecuencia se saltan las palabras muy cortas,
aunque puede procesarse parafovealmente.
Warner señalo problemas del modelo de la máquina de los embutidos: no puede explicar la
preferencia de la asociación a la derecha en algunas frases de 6 palabras.
4.1 Modelos de vía muerta frente a modelos basados en restricciones del análisis
sintáctico
Si los resultados del A anterior son incompatibles con la información sintáctica, pragmática o
semántica es necesario este 2º análisis. En esta fase se utiliza la información temática sobre los
papeles semánticos:
Adjudicación mínima: se debe adjudicar el material entrante al marcador de la oración que
se está construyendo, utilizando el menor nº de nodos posible.
Cierre tardío: se debe incorporar el material entrante a la frase u oración que se está
procesando actualmente.
Si hay conflicto entre ambos, predomina la adjudicación mínima
Ferreira y Clifton: describieron un experimento que sugiere que los factores semánticos no nos
pueden evitar que seamos engañados. La información semántica no impide ni causa una “vía
muerta” pero puede acelerar la recuperación del engaño. La dificultad planteada por la
ambigüedad tiene una duración muy breve y se resuelve cuando se lee la palabra que sigue al
verbo.
Van Gompel y Pickering: sus estudios junto con los de Mitchel sugieren que la primera fase del
análisis sintáctico es miope y no utiliza la información semántica o temática.
Ferreira et al: la información del verbo no afecta al análisis sintáctico inicial, aunque es posible
que guíe la 2º fase de reanálisis.
Podemos manipular la relación semántica de sustantivos y verbos en contextos en los que son
adecuados o inadecuados sintácticamente.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Los datos ERP sugieren que el procesamiento sintáctico y semántico son procesos diferentes.
También concluyeron que los estudios anteriores que parecían respaldar la adjudicación
mínima habían confundido, de hecho, la simplicidad sintáctica con el sesgo semántico.
Milne: Los factores semánticos, más que los sintácticos, nos engañan. ¿Cómo explican los
factores semánticos nuestra dificultad con las oraciones relativas reducidas?
¿Es posible diferenciar las teorías basadas en restricciones de la teoría referencial? Son
similares porque niegan que el Análisis Sintáctico esté limitado a utilizar información sintáctica.
En las teorías basadas en restricciones se utilizan todas las fuentes de información semántica,
incluyendo el conocimiento general del mundo, para desambiguar, pero en la teoría referencial
sólo es importante la complejidad referencial dentro del modelo del discurso.
Se utiliza de inmediato la información semántica-referencial, pero el conocimiento más general
del mundo tarda más tiempo en estar disponible.
El conocimiento del mundo dependía de la capacidad de la memoria de trabajo, mientras que
los principios semánticos-referenciales no.
Los principios referenciales se utilizan de inmediato para resolver la ambigüedad, la
información sobre la plausibilidad semántica de las interpretaciones se utiliza más tarde.
Pickering La teoría referencial no puede ser una explicación exhaustiva del Análisis Sintáctico
porque sólo se puede aplicar a ambigüedades que involucran sintagmas nominales sencillos y
complejos.
Otra faceta importante de los modelos basados en restricciones es que la ambigüedad sintáctica
y léxica se resuelve de forma parecida debido a la importancia que tienen las restricciones léxicas
en el Análisis Sintáctico:
Las ambigüedades sintácticas surgen debido a las ambigüedades en el nivel léxico.
Aunque las restricciones contextuales rara vez son lo suficientemente fuertes como para limitar
la activación de la alternativa adecuada, proporcionan información útil para distinguir entre las
alternativas candidatas.
Se computa una representación sintáctica de una frase mediante vínculos entre elementos en un
lexicón rico.
Estudio Tanenhaus et al: el análisis de los movimientos oculares sugería que la gente procesaba
las instrucciones de forma incremental, moviendo los ojos hacia los objetos inmediatamente
después de la instrucción relevante.
Sedivy et al: la gente tienen en cuenta muy rápidamente el contexto cuando interpreta los
objetivos. A partir de aquí afirmaron:
El procesamiento sintáctico es incremental; se construye la representación semántica al muy
poco tiempo de presentarse el estimulo de entrada.
La gente intenta integrar de inmediato los objetos. En un modelo semántico incluso cuando
no tienen un significado Central estable.
Los estudios de imagen cerebral con fMRI demuestran que el cerebro procesa las frases
ambiguas y no ambiguas de distinta manera:
Niveles superiores de activación cerebral con las frases ambiguas pero también durante la
lectura de las estructuras más complejas y estructuras no preferidas.
Mayor activación al leer frases ambiguas cuando se resolvía la ambigüedad a favor de la
construcción sintáctica preferida.
La mayor carga de trabajo se repartía por la circunvolución temporal superior y la
circunvolución frontal inferior, sugiriendo que hay múltiples procesos implicados en la
resolución de la ambigüedad:
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
oEl área de Broca podría estar implicada en la generación de marcos sintácticos abstractos
o El área de Wernicke en la interpretación y elaboración de estos marcos con información
semántica.
Estas conclusiones son más consistentes con los modelos en paralelo donde se mantienen
abiertos múltiples análisis al mismo tiempo.
Los hispanohablantes no interpretan mediante el cierre tardío el mismo tipo de frases, sino que
pueden aplicar una estrategia de cierre temprano. Otros idiomas también muestran una preferencia
por adjudicar la cláusula relativa a la 1º locución nominal (francés, holandés, etc.)
El cierre tardío parece no ser una estrategia general común en todos los idiomas. Las
preferencias del Análisis Sintáctico podrían reflejar la frecuencia de las distintas estructuras dentro
de un idioma.
Hipótesis del ajuste: pone de relieve el papel de la exposición al idioma. Las decisiones del
Análisis Sintáctico están influidas por la frecuencia con la que se utilizan los análisis alternativos.
Dicho de otra manera, la gente resuelve las ambigüedades de una forma que ha tenido éxito
anteriormente. Las preferencias de adjudicación pueden variar de un idioma a otro, y de un
individuo a otro y, de hecho, pueden incluso variar para una misma persona en distintos
momentos. Es decir, se encontraron diferencias individuales en las preferencias de la adjudicación.
4.4 Comparación de las teorías de vía muerta y las teorías basadas en restricciones
En los Modelos de dos fases en serie, como el modelo de vía muerta, el análisis inicial esta
restringido utilizando sólo la información sintáctica y las preferencias, y una segunda fase
utilizando la información semántica.
Lo defensores del modelo de la vía muerta afirman que los efectos que se supone que respaldan
a los Modelos Basados en Restricciones surgen porque la segunda fase del Análisis Sintáctico
empieza muy deprisa, y muchos experimentos que se supone que están analizando la primera fase,
de hecho, están fijándose en realidad en la del análisis sintáctico; además estos experimentos
tienen fallos metodológicos y no consiguen explicar todos los datos disponibles.
Los defensores de los Modelos basados en restricciones afirman que las técnicas que utilizan
los defensores de las Teorías de la vía muerta no son los suficientemente sensibles como para
detectar las interacciones implicadas, o que las restricciones no sintácticas utilizadas son
demasiado débiles.
Modelos basados en restricciones son modelos de elección variable en una fase. Se resuelve la
ambigüedad sintáctica mediante una competencia.
Sintagma preposicional: una locución que empieza con una preposición (p.ej., “con el telescopio”,
“por la chimenea”)
Van Gompel et al: analizaron como resolvemos la ambigüedad, si con reanálisis o competencia;
los resultados no respaldaron ninguna de las 2 opciones. Sólo un modelo de elección variable en 2
fases puede explicar este patrón de resultados: modelo de carrera sin restringir.
Bever, Sanz y Townsed: Sugieren que la semántica viene primero. Afirman que se utilizan
estrategias con base estadística para proponer una representación semántica inicial. Después esta
representación restringe el cálculo detallado de la representación sintáctica.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
La frecuencia con la que se producen las representaciones sintácticas restringe la fase inicial
del procesamiento sintáctico.
Algunos investigadores creen ahora que la gente utiliza heurísticas sencillas al procesar el
lenguaje, además de un procesamiento sintáctico detallado y completo.
McKoon y Ratcliff: Las propias construcciones sintácticas acarrean significado, más allá del
significado de las palabras que las componen:
Una sintaxis distinta transmite un significado distinto.
Las construcciones relativas reducidas transmiten un significado particular, sólo se pueden
combinar con determinados tipos de sustantivos y verbos (no se pueden utilizar para hablar de
determinadas cosas).
Las relativas reducidas con verbos denotan sucesos provocados internamente son realmente
incorrectas gramaticalmente, que es la razón por la que la gente tiene tantos problemas con
ellas.
La gente sólo produce relativas reducidas con verbos de causación externa (si el control es
interno, se utilizan construcciones no reducidas).
Denominan a este enfoque: significado a través de la sintaxis, que estaría en conflicto con las
Teorías basadas en restricciones:
o Según la Teorías basadas en restricciones el procesador del lenguaje conoce las estadísticas
sobre la utilización, no los significados y las reglas.
o Según la sintaxis por significado, el procesador del lenguaje conoce los significados y las
reglas, pero no las estadísticas.
La información estadística sobre los verbos derivada de un cuerpo de habla real no predice los
tiempos de lectura de las frases que incluyen estos verbos.
¿Cómo explican las conclusiones de Frazier et al? Según McDonald, los tiempos de lectura
relativamente rápidos en la región ambigua de la condición experimental se debían a que los
tiempos de lectura comparables en la condición de control eran bastantes lentos, puesto que los
lectores tenían que tomar distancia ante la infrecuente aplicación de “this” y “these”
La conclusión de que el contexto tiene un efecto posterior requiere una modificación de las
teorías estándar basadas en restricciones.
Se pueden mover partes de la frase a otra parte de la misma. Cuando se mueven dejan un tipo
de brecha especial conocido como huella.
Dependencia sin restricciones: los elementos constituyentes asociados están separados el uno
del otro (y pueden, en principio, estar separados por una distancia infinita).
Las brechas y huellas pueden ser importantes en el Análisis Sintáctico, pero si afectarán a este,
habría que localizar la brecha y después rellenarla, existe evidencia a favor de ello:
Las huellas gravan (tensan) la memoria
Se puede detectar el procesamiento de la huella midiendo la actividad eléctrica del cerebro.
Todos los idiomas parecen utilizar una estrategia de relleno reciente por la que, en casos de
ambigüedad, se rellana la brecha con el relleno más reciente gramaticalmente plausible.
Estrategia de relleno activo: cuando el procesador detecta una brecha la rellena con el
elemento más activo y está preparado para volver a analizar si es necesario.
Estrategia del relleno reciente: el procesador detecta una brecha, y la rellena con un relleno
que es elemento constituyente más reciente que ha sido potencialmente desplazado.
Puede resultar difícil distinguir ambas estrategias pero, en cada caso, la detección de la huella
desempeña un papel importante en el Análisis Sintáctico:
Parece que las huellas pueden primar el reconocimiento de constituyentes desplazados o de
antecedentes con los que están asociados (el relleno de la brecha se reactiva semánticamente en
la brecha)
Cuando nos encontramos una huella, parece que recuperamos su antecedente asociado, un
proceso conocido como vinculación del elemento desplazado al rastro, haciéndolo así más
accesible.
Otras investigaciones sugiere que las huellas no son importantes en el procesamiento
conectado.
Un planteamiento alternativo a la idea de que activamos los filtros cuando llegamos a una
brecha es que la interpretación está impulsada por los verbos, más que por la detección de las
brechas, de forma que postulamos argumentos esperados de un verbo en cuanto llegamos a él
(hipótesis demostrada por Boland et al)
En resumen, la mayor parte de la evidencia sugiere que los rellenos se postulan activando la
estructura del argumento de los verbos.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Hay evidencia de que las funciones sintácticas tienen lugar en determinadas partes del cerebro
dedicadas en exclusiva a estas funciones
Hipótesis de la supresión de la huella: afirma que la gente que tiene un déficit de comprensión
agramatical tiene problemas para computar la relación entre los elementos de una frase que se han
desplazado mediante una transformación gramatical y su origen, así como para construir las partes
superiores del árbol sintáctico (problema: la evidencia de la existencia de huellas en el Análisis
Sintáctico es cuestionable)
La evidencia contra la idea de que las personas con agramatismo tienen cierta discapacidad del
Análisis Sintáctico: proviene de la tarea de valoración de la corrección gramatical.
Schwartz, Linebarger, Saffran y Pate: los pacientes con agramatismo podían aislar los
argumentos del verbo principal de frases que contenían materiales extraños pero tenían
problemas utilizando la sintaxis para asignar papeles temáticos. Los pacientes no han perdido
necesariamente el conocimiento sintáctico, sino que son incapaces de utilizarlo
correctamente.
están limitadas en lo que pueden hacer con los resultados de estos procesos (en concreto, tienen
problemas para asignar papeles temáticos):
Compensan, al menos en parte, utilizando restricciones semánticas, aunque Saffran et al, han
demostrado que el recurso a estas restricciones puede, en ocasiones, despistarlos aún más.
Aunque cabría esperarse su existencia, nadie a descrito el caso de una persona que conozca los
significados de las palabras pero sea incapaz de asignarlos a papeles temáticos.
¿Se procesan de distinta manera las palabras de contenido y las palabras funcionales?
Las palabras de contenido son sensibles a la frecuencia en una tarea de decisión léxica, pero no
las palabras funcionales. El patrón anterior no se da en el agramatismo: son sensibles a la
frecuencia de las palabras funcionales y a la frecuencia de las palabras contenido. ¿Por qué?
La lesión cerebral implica que las palabras funcionales ya no pueden ser accedidas por un
conjunto especial de procesos y deben ser accedidas como otras palabras de contenido.
Quizá esta dificultad de activar las palabras funcionales explique la dificultad de comprensión
de los pacientes con agramatismo.
No hay una clara evidencia neuropsicológica de que se trate de forma especial a las palabras
funcionales en el Análisis sintáctico.
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Las relaciones jerárquicas entre categoría son una forma clara en que se pueden relacionar las
palabras en cuanto a su significado, pero hay otras formas que son igualmente importantes.
La semántica es algo más que asociaciones; las palabras pueden tener un significado
relacionado sin estar asociadas, por lo que cualquier teoría sobre el significado de las palabras no
puede recurrir sencillamente a la asociación entre palabras. Las palabras con significados
parecidos tienden a producirse en contextos parecidos:
Lund et al: demostraron que las palabras con un parecido semántico son intercambiables en una
frase; la frase resultante, aunque pueda no ser plausible pragmáticamente, sigue teniendo
sentido.
Las asociaciones surgen entre palabras que se producen juntas con regularidad, mientras que,
las relaciones semánticas surgen de contextos compartidos y relaciones de nivel superior.
1
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Teoría referencial del significado: las palabras significan aquello a lo que hacen referencia. Es
una de las teorías más antiguas y presenta una serie de problemas:
No esta claro cómo trata está teoría los conceptos abstractos. (“justicia, verdad”).
Existe una disociación entre una palabra y las cosas a las que puede hacer referencia
Semántica de la teoría de modelos o semántica de la verdad teórica: son complejos sistemas del
significado que configuran modelos lógicos (enfoque semántico formal). Ayudan a refinar lo que
podría ser el significado, pero parecen decir muy poco sobre la forma en que representamos o
computamos el significado en el mundo real.
3. Redes semánticas
Para los conductistas, la palabra obtiene su significado en una red de asociaciones; sin
embargo, una red asociativa no era suficiente para poder captar todas las facetas del significado,
ya que en una red asociativa no hay una estructura, no hay relación entre palabras, jerarquía de la
información, ni economía cognitiva.
En una red semántica se obtiene este poder adicional haciendo que las conexiones entre
elementos hagan algo: no son meramente asociaciones que representan la frecuencia de la
concurrencia, sino que sí tienen un valor semántico. Es decir, en una red semántica, los vínculos
entre los propios conceptos tienen significado.
2
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Se presentan a los participantes “hechos” sencillos y tiene que apretar un botón si la frase es
cierta, y otro si es falsa. El tiempo de reacción es un índice de la dificultad de la decisión,
existiendo una relación lineal. Ej.: Pág. 289
Según este modelo los participantes producen respuestas partiendo del nodo de la red que
constituye el sujeto de la frase y desplazándose por la red hasta que encuentran la información
necesaria.
La cantidad de tiempo es fija para cada vínculo, por lo tanto, cuanto más lejana esté la
información más lento será el tiempo de respuesta.
La característica de herencia de la propiedad también muestra el mismo patrón de tiempos de
respuesta, porque tenemos que desplazarnos a lo largo de vínculos para recuperar la propiedad
del nivel correspondiente.
Otra posible confusión en los experimentos de verificación tiene que ver con el tamaño de la
categoría: la clase de “animales” es mayor que la clase de “pájaro” por lo que, tal vez, hace falta
más tiempo para buscar en ella.
3
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
De todas estas conclusiones problemáticas, los efectos del prototipo y del grado de relación son
particularmente importantes.
4. Características semánticas
El significado de una palabra no está determinado por la posición de la palabra en una red de
significados, sino por la descomposición en unidades de significado más pequeñas. Estas unidades
de significado más pequeñas se conocen como características semánticas.
Las Teorías composicionales son aquellas que utilizan las características semánticas.
Las características semánticas funcionan muy bien en algunos campos sencillos en los que hay
una clara relación entre los términos (ej: parentesco), Tabla 8.1
4
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Se puede llevar más lejos la idea de las características semánticas y representar los significados
de todas las palabras en función de combinaciones del menor nº de características semánticas
posible. Cuando se utilizan las características de esta manera es como si se convirtieran en
“átomos de significado” y es lo que se conoce como primitivos semánticos.
Uno de los problemas de este tipo de enfoques es que para la mayoría de las palabras, es
imposible proporcionar una lista exhaustiva de todas sus características.
5
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Según Rips et al. La verificación de la frase implica hacer comparaciones de las listas de
características que representan los significados de las palabras en 2 fases. Por ello, este enfoque
particular se conoce como Teoría de comparación de las Características:
1º Fase: Se compara la similitud característica general de las 2 palabras, incluyendo tanto sus
características definitorias como distintivas. Si hay un gran solapamiento se responderá
Verdadero, si hay poco solapamiento Falso. No es muy detallada, pero es muy rápida.
2º Fase Si la magnitud del solapamiento no es ni muy elevada ni muy baja, tenemos que pasar a
esta 2º fase, donde sólo tenemos en cuenta las características definitorias. Es necesaria una
correspondencia exacta entres estas características para responder Verdadero. Requiere más
tiempo.
En una tarea de verificación de la frase, un caso particular candidato es aceptado como un caso
particular de una categoría si supera una determinada suma ponderada crítica de características.
6
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Tienen un atractivo intuitivo y estipulan de forma explícita cómo inferimos a partir del
significado de las palabras.
Son muy económicas, al reducir el significado a un pequeño nº de primitivas.
Resulta difícil construir representaciones composicionales de incluso algunas de las palabras
más comunes. Algunas categorías no tienen características definitorias evidentes que sean
comunes a todos los miembros.
Incluso cuando aparentemente podemos definir palabras, las características que encontramos
no son particularmente atractivas o intuitivamente obvias; cabe suponer que se podría generar
un conjunto alternativo con la misma facilidad. Ni siquiera está claro que nuestras definiciones
sean completas.
Tenemos más conocimiento sobre el significado de la palabra del que se puede representar en
una lista de características.
Hay algunos problemas con los experimentos de Rips et al: el grado de relación semántica y a
la familiaridad de los estímulos fueron confundidos en los materiales experimentales originales.
Loftus: demostró que, si se revierte el orden de los sustantivos en las frases utilizadas en la
verificación de las frases, encuentra efectos que no se prevén en la teoría. Si sólo comparamos
listas de características para los sustantivos de clases y casos particulares. Concluyo con sus
experimentos que el orden de los sustantivos es importante.
Holyoak y Glass: demostraron que la gente puede tener estrategias específicas para
desconfirmar frases, como pensar en un determinado contraejemplo, más que realizar una amplia
computación.
Es importante recordar que las características semánticas o primitivas no tienen que tener
contrapartes lingüísticas inmediatas. Algunas características semánticas pueden ser perceptivas, o
al menos no verbales.
7
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Gergely y Bever pusieron en duda esta conclusión. Proporcionaron evidencia experimental para
respaldar su afirmación concluyendo que no se puede utilizar la técnica de intuiciones sobre el
grado de relación de las palabras para contrastar la complejidad subyacente relativa de las
representaciones semánticas
Las frases complejas que se cree que incluyen más primitivos semánticos no son menos fáciles
de recordar o más difíciles de procesar que frases más sencillas que supuestamente incluyen
menos primitivos. Estos experimentos confundían el nº de primitivos con otros factores.
8
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
La Teoría de prototipos esta respaldada por una gran cantidad de evidencia frente a la Teoría de
características. Una serie de resultados demuestran la ventaja de procesamiento de un prototipo
respecto a los casos particulares. Los miembros prototípicos pueden sustituir a los nombres de las
categorías en las frases, mientras que lo no prototípicos no pueden.
Los prototipos comparten más características con otros casos particulares de la categoría, pero
minimizan el solapamiento de las características con las categorías relacionadas. Cuánto más
próximo esté un elemento al prototipo, más fácil es procesarlo.
La teoría de los prototipos no tiene por qué ser inconsistentes con las teorías de las
características. Los nuevos conceptos son problemáticos para las teorías no composicionales. Una
sugerencia, es que todos los conceptos, incluyendo los complejos, son innatos.
Niveles básicos
Hay una gran ganancia en distintividad del nivel básico a los niveles superiores, pero sólo una
pequeña ganancia al pasar a los niveles inferiores. Los objetos a nivel básico se diferencian en
seguida los unos de los otros, pero los objetos en niveles inferiores al nivel básico no se
diferencian tan fácilmente entre si. Los objetos al mismo nivel básico comparten contornos
perceptivos; se parecen entre sí más de lo que se parecen a los miembros de otras categorías
9
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
similares. El nivel básico es la categoría general para la que se puede formar una imagen concreta
de toda la categoría. Ej.: Ver Pág. 298 2ª columna.
Es el nivel de descripción que tiene más probabilidad de ser utilizado de forma espontánea por
los adultos; los niños adquieren antes estos términos, los nombramos más deprisa, etc…
Hampton: no todos los tipos de conceptos tienen prototipos, los conceptos abstractos, se ajustan
difícilmente a este esquema. Así el modelo de los prototipos:
No explica por qué hay coherencia en las categorías.
No puede explicar por qué varían sistemáticamente las valoraciones de lo típico en función del
contexto.
Corre el riesgo de ser circular, para evitarlo, debería explicar en qué se parecen los elementos,
y no lo hace demasiado bien.
La caracterización del nivel básico como el más fundamental psicológicamente no está tan
clara (la cantidad de información que podemos recuperar de los niveles subordinados varía en
función de nuestra pericia); aunque el nivel básico original sigue manteniendo un estatus
privilegiado.
La teoría de los casos particulares representa los ejemplares sin abstracción: cada concepto
representa un caso particular determinado que se ha encontrado anteriormente. Hacemos juicios
semánticos mediante comparaciones con los casos particulares concretos almacenados.
Resulta difícil diferenciarla con la teoría de prototipos. Ambos tipos de teorías predicen que la
gente procesa a los miembros centrales de la categoría mejor que a los periféricos. Las teorías
basadas en casos particulares predicen que los casos particulares concretos deberían afectar al
procesamiento de otros casos particulares independientemente de si están próximos o no, a la
tendencia central. Las teorías de abstracción predicen correctamente que la gente infiere
tendencias que no se encuentran en ningún caso concreto específico. El poder de predicción de los
modelos basados en casos particulares aumenta a medida que aumenta el nº de casos particulares
considerados. Tanto las teorías basadas en la abstracción como las teorías basadas en casos
particulares han sido puestas en práctica en modelos conexionistas.
Los modelos basados en casos particulares proporcionan una explicación ligeramente mejor
que los modelos de Prototipos.
10
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Las miniteorías son conjuntos de creencias sobre qué es lo que constituye un miembro
particular de cada categoría, y una idea sobre cuáles son las propiedades normales que debería
poseer un caso particular de una categoría.
6. Combinación de conceptos
Rips señala que las teorías basadas en casos particulares tienen dificultades obvias para
proporcionar una explicación de cómo combinamos conceptos.
La teoría de las teorías tiene menos problemas para explicar la combinación de conceptos, pero
sigue teniendo algunas dificultades: las miniteorías por sí solas no pueden explicar la forma en que
combinamos los conceptos, deben estar combinadas con algún otro mecanismo:
Rips propone un enfoque doble que combina las miniteorías con un símbolo atómico fijo para
cada categoría. El enfoque doble permite hacer un seguimiento de los cambios de las
miniteorías y proporciona la capacidad de poder darse cuenta de cuándo entran en conflicto
entre sí algunas de nuestras creencias.
11
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
12
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
8. La neuropsicología de la semántica
¿Podemos diferenciar entre un déficit semántico “central”, cuando un concepto está realmente
perdido y un deterioro del “acceso” semántico, en el que la dificultad se produce en la
consecución del acceso al concepto?
Warrington et al analizaron 5 criterios que podían distinguir los problemas relacionados con la
pérdida de una representación de los problemas para acceder a ella:
El rendimiento debe ser consistente en las distintas pruebas, si se ha perdido permanentemente
un elemento no debería ser posible acceder a él jamás. Si un elemento está disponible en unas
pruebas pero no en otras, la dificultad debe estar produciéndose en el acceso.
Tanto para los almacenes degenerados como para los trastornos del acceso, debería ser más
fácil obtener la categoría superior que nombrar el elemento, porque esa información está muy
fuertemente representada; pero, una vez obtenido el elemento superior, será muy difícil obtener
ninguna información adicional en un almacén degenerado:
La información sobre los elementos de categoría superior tiende a preservarse mejor que la
información sobre casos particulares específicos.
El acceso deteriorado debería afectar de la misma manera a todos los niveles
Se deben perder antes los elementos de baja frecuencia. Los elementos de baja frecuencia
deben ser más susceptibles a una pérdida, mientras que los problemas de acceso deberían
afectar de la misma manera a todos los niveles.
El priming no debería seguir siendo eficaz, puesto que es evidente que no se puede primar a un
elemento que se ha perdido.
13
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Ha surgido un debate considerable sobre la fiabilidad de estos criterios para distinguir entre
trastornos de acceso y trastornos de pérdida, y cuántos pacientes muestran todas estas facetas.
Ya se han identificado claramente a una serie de pacientes con un déficit de acceso semántico y
otros pacientes muestran elementos de ese déficit. Warrington et al., presentan un modelo
conexionista que sugiere que los déficits centrales y de acceso se deben a distintos tipos de
lesiones neurológicas subyacentes. Tipos:
Lesión al sistema neuromodulatorio cuya función habitual consiste en mantener y potenciar las
señales neuronales.
Lesión al sistema neuronal que codifica la información semántica. Por tanto, la idea es que se
produce anormalmente una “refractariedad”, una reducción de la capacidad de utilizar el sistema
semántico de la misma manera durante cierto período de tiempo tras la respuesta inicial.
Paivio propuso una hipótesis del doble código de la representación semántica. Compuesto por:
Código perceptivo: codifica las características perceptivas de un concepto.
Código verbal: codifica las facetas abstractas, no sensoriales.
Las pruebas experimentales de está hipótesis ofrecieron resultados no concluyentes. Cierto
respaldo son los estudios de imágenes cerebrales que demuestran que se procesan de distinta
manera las palabras concretas que las abstractas.
14
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Caramaza et al afirmaron que los datos no respaldan las predicciones, sólo dicen que existe una
relación entre la modalidad de entrada y el tipo de contenido semántico; pero no tienen por qué
estar en un formato específico a la modalidad. Propusieron un modelo alternativo, denominado,
OUCH:
Las imágenes de los objetos tienen un acceso privilegiado a un almacén unimodal.
15
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Lauro-Grotto et al, argumentan con contra de la hipótesis anterior, afirman que estos tipos de
información (los postulados por Caplan) se almacenan en la semántica visual más que en un
componente amodal de la memoria semántica.
16
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Se observa una doble disociación entre las categorías de los seres vivos y las cosas no vivas.
Aparece una distinción entre objetos grandes y pequeños.
El rendimiento de los pacientes no puede ser descartado como un problema debido al tipo de
experimento, porque están teniendo dificultades con miembros de la categoría que deberían ser los
más fáciles de procesar si todo lo que importa es la complejidad visual y la familiaridad.
La teoría sensorial-funcional
Farah et al: si los atributos visuales son más difíciles de procesar que los funcionales, entonces
las categorías que dependen más de éstos serán más susceptibles de padecer perdida. Esto explica
por qué observamos una pérdida de información sobre los seres vivos con más frecuencia que una
pérdida de información sobre las cosas no vivas.
Hay cierto respaldo de los trabajos con neuroimágenes a favor de esta hipótesis (se activan más
las regiones posteriores del córtex temporal izquierdo cuando trabajamos con información
perceptual y se activan más las regiones medias cuando trabajamos con información funcional).
17
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Farah et al afirmaron que existía una relación entre los efectos específicos de modalidad y los
específicos de categoría. Construyeron un modelo conexionista y demostraron que la lesión de un
sistema de memoria semántica específico a la modalidad podía provocar déficits específicos de
categoría:
La arquitectura de su modelo comprendía 3 conjuntos de unidades:
o De entrada
o Producción verbales (unidades de nombres)
o De memoria semántica (unidades visuales/unidades funcionales)
Resultados:
o Las lesiones en las Unidades Semánticas Visuales deterioraban fundamentalmente el
conocimiento de los seres vivos.
o La lesión de las Unidades Semánticas Funcionales deterioraba fundamentalmente el
conocimiento sobre las cosas no vivas.
o Cuando se había deteriorado una categoría, se perdía el conocimiento de ambos tipos de
atributos.
Esta teoría también predice que la gente con un deterioro selectivo de los seres vivos debería
mostrar una dificultad desproporcionada con las propiedades visuales. Esto no siempre es así.
Las imágenes de PET y fMRI sugieren que el conocimiento sobre los animales se almacena en
áreas occipito-temporales, mientras que el conocimiento sobre las herramientas se almacena en
las áreas témporo-parietal-occipitales laterales
18
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Los niños muy pequeños (1ºs meses de vida) pueden diferenciar entre seres vivos y no vivos. Lo
que sugiere que esta habilidad es innata.
Los estudios de los lugares de las lesiones y los de imágenes cerebrales sugieren que las
distintas partes el cerebro podrían estar dedicadas a procesar cosas no vivas y seres vivos. Los
seres vivos asociados al lóbulo temporal y los objetos con la región dorsal de los lóbulos
temporal, parietal y frontal.
La Enfermedad de Alzheimer suele empezar con una atrofia del lóbulo temporal medial,
incluyendo el hipocampo.
Los estudios sugieren que el córtex temporal inferior y medio izquierdo del cerebro
desempeñan un papel particularmente importante en el acceso y representación del significado.
Se van a ofrecer sólo unos cuantos ejemplos de las conclusiones de los problemas que suelen
tener las personas con demencia:
Suelen tener dificultades en tareas de fluidez en las categorías
Tienen problemas para hacer una lista de los atributos que son compartidos por todos los
miembros de una categoría.
Tienen problemas para diferenciar entre elementos de la misma categoría.
Tienden a clasificar a los elementos como parecidos a elementos distintos más que los
participantes control.
Tienen problemas para evaluar la coherencia semántica de afirmaciones sencillas.
19
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
En resumen, este modelo muestra que las lesiones de sólo el sistema semántico pueden
explicar la variedad de trastornos semánticos, visuales y léxicos de la demencia. Esto se debe a
que una lesión en un nivel de una red muy interactiva puede tener consecuencias en todas las
demás.
20
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Una microcaracterística es una unidad activa individual; el prefijo “micro” pone de relieve que
estas unidades están implicadas en procesos de bajo nivel más que en el procesamiento simbólico
explícito. Una microcaracterística semántica es simplemente una característica semántica. Las
microcaracterísticas:
Median entre la percepción, la acción y el lenguaje, y no tienen necesariamente ninguna
contraparte lingüística directa.
Pueden corresponder a simples características semánticas y también pueden tener una
correspondencia con algo mucho más abstracto.
Pueden codificar el conocimiento en un nivel muy bajo de la representación semántica, o de una
forma muy abstracta que no tienen una correspondencia lingüística directa.
Los modelos conexionistas suponen que la memoria semántica humana está basada en
microcaracterísticas.
Si los significados están representados como un patrón de activación distribuido sobre muchas
características, entonces tiene menos sentido hablar de pérdida de elementos individuales en el
modelo. Por el contrario, la pérdida de las unidades dará lugar a la pérdida de
microcaracterísticas.
21
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
La pérdida de una característica podría implicar que las unidades codificadas lingüísticamente
pertenecientes a un nivel superior desaparecen de forma permanente pero alternativamente, podría
significar únicamente que las unidades de nivel superior tienen un acceso más difícil. Por tanto,
hay una faceta probabilística de si una palabra o atributo desaparecerá de forma consistente o no.
McRae et al afirmaron que hay distintos tipos de características semánticas, en función del
grado en que se relaciona cada característica con las demás: Fig. 8.10
Características Interrelacionadas: tienden a producirse conjuntamente.
Características distintivas o diferenciadoras: permiten distinguir entre los miembros de una
categoría.
Los objetos tienden a no estar representados por muchas características interrelacionadas, sino
más bien por muchas características diferenciadoras.
Norgan y McRae demostraron que las características distintivas tienen un estatus privilegiado
en la memoria semántica; se activan con más energía que las características compartidas no
distintivas.
Una lesión de poca magnitud de la red semántica, tendrá pocos efectos sobre los seres vivos
(las características interrelacionadas, con ricas interconexiones, se apoyan entre sí). Por lo
tanto, al principio en las tareas que hay seres vivos parecen no estar afectadas.
22
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Landauer y Dumais analizaron cómo puede explicar el LSA las facetas de adquisición del
vocabulario:
Este enfoque de tipo estadístico tardío es muy bueno para explicar el aprendizaje tardío del
vocabulario, donde la instrucción directa es muy infrecuente. Inferimos los significados de las
nuevas palabras a partir del contexto.
El LSA muestra cómo podemos llegar a un acuerdo sobre la utilización de las palabras sin un
referente externo.
Una crítica a estos modelos HDM es que se preocupan demasiado del contexto en el que se
producen las palabras.
23
Lenguaje 3º GRADO De Carolina Castillejos, revisado y adaptado por Aitziber Laguardia
Rogers et al describen un modelo que proporciona una explicación de cómo están conectados
el lenguaje y la percepción. Su modelo crea correspondencias entre las representaciones de los
objetos específicas a la modalidad y sus descripciones verbales. Las representaciones semánticas
median entre estos dos tipos de representaciones de salida. Ver Fig. 8.11 En su modelo:
Un nivel semántico media entre las características visuales y los descriptores verbales que, a su
vez, incluye nombres, los descriptores perceptivos, los descriptores funcionales y los
descriptores enciclopédicos.
El modelo aprende a asociar entradas con salidas. La estructura semántica interna está
restringida tanto por salidas verbales como visuales; por tanto entradas con una similitud visual
dan lugar a representaciones internas con estructura similar.
Las representaciones semánticas no tienen porqué codificar directamente características
semánticas; sólo tiene que ser suficientemente buenos para hacer el trabajo.
Como señalan Rogers et al, este enfoque computacional, aunque parecido a grandes rasgos al
modelo basado en características, tiene varias ventajas:
No tenemos que preocuparnos sobre cuáles son las características que deberíamos utilizar y si
son arbitrarias o no.
El modelo computacional nos obliga a ser explícitos sobre cómo se realiza cada tarea semántica
o perceptiva
El modelo proporciona una explicación de la demencia semántica.
No contradice al modelo HAL (hiperespacio análogo al lenguaje) o el modelo LSA. Todos ellos
demuestran que extraemos y abstraemos información semántica de grandes cuerpos de
información.
Aunque los modelos HAL o LSA dependen de entradas verbales, este enfoque computacional
vincula la información verbal con la perceptiva. El modelo computacional también vincula el
procesamiento semántico con la neuropsicología.
24
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Capítulo 9: Comprensión
1. Introducción
Uno de los temas centrales del estudio de la comprensión es si se trata de un proceso
constructivo o de un proceso mínimo. En la comprensión construimos un modelo de lo que
pensamos que se está comunicando.
La mayor parte de las investigaciones se han realizado sobre la comprensión de textos. Una
característica importante tanto del texto como del discurso es que son coherentes:
La coherencia referencial alude a la consistencia entre la persona y aquello que se está
hablando, un ejemplo no coherente sería una persona Judía promoviendo el movimiento
antisemita.
La coherencia temporal se refiere a la consistencia en el momento en que se produjeron los
hechos, un ejemplo de 2 incoherencias aquí serían: “Ayer por la tarde al volver del trabajo,
amaneceré con sol”. Como se puede comprobar, tanto el tiempo verbal como el transcurso
temporal del episodio confunden el significado global de la interpretación.
Coherencia de localización: relativo a donde se producen los sucesos, no puede atraparte un
tiburón en lo alto del Everest.
Coherencia causal: En referencia al por qué ocurren los sucesos. Ejemplo no coherente: Cómo
se puso el abrigo del revés las flores olían bien.
Los textos deben ser coherentes a nivel general, haciendo referencias a las mismas entidades en
frases sucesivas.
1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
implicada en el delito, no lo eran otros como por ejemplo, en la forma exacta en que el testigo
afirmó que habían actuado los susodichos. (Basado en el Ej.; del libro)
A pesar de que las personas creemos lo contrario sólo recordamos la esencia de las
conversaciones, abstraemos la información y tenemos tendencia a recordar cosas que no
ocurrieron nunca. Como aval a dichos argumentos, encontramos que estas conclusiones han sido
reproducidas en diversas ocasiones con los mismos resultados. Ej.: Libro Pág. 255
¿Qué determina lo que olvidamos y lo que recordamos? ¿Somos capaces de recordar material
exactamente como se nos presentó?
Se ha comprobado que las personas olvidamos rápidamente el orden de las palabras, sólo nos
quedamos con el significado: Experimento de Sachs: Se presenta los participantes una historia
con las frases objetivo insertadas en ella, posteriormente se les pide que las distingan de otras
similares. Ver Pág. 255
Esta prueba fue realizada tras diferentes intervalos temporales, y los resultados sugieren que:
La capacidad para detectar los cambios en el orden de las palabras, así como en la sintaxis
disminuye velozmente,
Los cambios en el significado se pueden seguir distinguiendo a pesar del tiempo, o sea, somos
capaces de recordar la esencia de los textos pero olvidamos rápidamente los detalles sobre su
presentación.
Nuestra memoria empieza depurando los detalles de las últimas frases que hemos escuchado,
así como se demostró en otro experimento que se realizó (Jarvella). Ver Pág. 255.
Potter y Lombardi descubrieron que el priming sintáctico por parte del material diana facilita lo
que se mantiene en la memoria inmediata. Esto quiere decir que tendemos a utilizar las mismas
estructuras y palabras que se nos presentaron originalmente, sin embargo es posible modificar la
codificación con una frase alternativa, esto es consistente con la idea de que el recuerdo inmediato
se genera con la representación de los significados en vez de utilizar una memoria literal. No
obstante los detalles de la primera presentación no siempre se pierden, cuando la información
superficial tiene significación podemos reconocer las palabras exactas a pesar de que haya pasado
una hora, aunque evidentemente el resultado es mejor cuanto menos tiempo transcurra.
En muchas ocasiones somos capaces de recordar las palabras exactas si son importantes o si
nos afectan emocionalmente.
2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Todavía no está claro porque en algunas ocasiones recordamos la forma superficial exacta y en
otras no lo hacemos, evidentemente no siempre descartamos la información superficial de forma
inmediata, y también podemos estar procesando una frase mientras almacenamos detalles de otra.
2.1 Importancia
Recordamos mejor lo que consideramos que son los aspectos más importantes de una información.
También las frases con alto contenido interactivo (implicación personal) se recuerdan mejor que
las que presentan poca interacción. Según los estudios de movimientos oculares, pasamos más
tiempo leyendo lo que consideramos importante en un texto, pero no implica que sea la causa de
un mejor recuerdo.
Muth y Glynn, manipularon los tiempos de lectura haciendo que los participantes dedicasen el
mismo tiempo al material importante y a los detalles irrelevantes, los resultados siguieron
indicando que se recordaban mejor los aspectos que consideramos importantes, lo que sugiere que
existe un efecto real del significado a la hora de codificar la información en nuestra memoria.
Cuanto más importante es una oración, más probable es que se recuerde. Las teorías sobre el
procesamiento del texto deberían predecir por qué algunas ideas son más importantes que otras.
2.3 Inferencias
3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Hacemos una inferencia, cuando vamos más allá del significado literal del texto. Hacemos una
deducción de conocimiento adicional de unos hechos que ya sabemos, cosa que nos puede llevar a
error. Intentamos mantener la coherencia ante lo que se nos presenta y para ello recurrimos a
conocimientos previos, y aunque ello puede ayudar a recuperar la información posteriormente,
también nos hace recordar cosas que no han ocurrido nunca. Ej. De Sulin y Dooling Pág. 260
Todo lo que hemos visto hasta ahora, sugiere que debe ser muy difícil diferenciar entre las
inferencias que hacemos y lo que hemos oído/leído/observado realmente.
En conjunto, las inferencias que no son lógicas se denominan, a veces, inferencias pragmáticas.
Barclay y Franks demostraron que tras una breve demora no se podía distinguir la frase diana
de la inferencia válida que también se les presentó en la fase de prueba. 1-. Tres tortugas descansaban
sobre un tronco flotante, y un pez nadó debajo de ellas. (Diana). 2.- Tres tortugas descansaban sobre un tronco
flotante, y un pez nadó debajo de él. (Inferencia). Sin embargo, cuando se cambiaba el significado de la
frase: Tres tortugas descansaban sobre un tronco flotante, y un pez nadó al lado de él. Sí que eran capaces de
darse cuenta del cambio, en este caso sería una inferencia no válida ya que no sería cierta.
(Volvemos a la primacía del significado).
Es más probable que las personas, que comprenden un texto, hagan inferencias relacionadas
con los elementos importantes, más que con los detalles (recordemos el tema de la perspectiva).
Los personajes principales, sus objetivos y las acciones relacionadas con el argumento central
suelen considerarse como elementos de mayor relevancia.
Según la visión construccionista el procesamiento del texto está impulsado por la necesidad de
saber, la persona se forma objetivos cuando está leyendo o escuchando, y sobre ellos construye el
modelo que más tarde recordará.
Según varios estudios, las inferencias-puente se hacen de manera automática, pero no las
elaborativas. Parece probable que las inferencias-puente (automáticas) solo se utilicen en la
4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
comprensión, para mantener la cohesión, sin embargo las elaborativas se generan durante el
recuerdo y no de forma automática.
Garrod y Terras, diferenciaron entre dos tipos de información que ayudaría a realizar las
inferencias-puente:
Factores léxico-semánticos, como por ejemplo, en la frase: Los niños no dejaban de escribir con las
tizas. La pizarra estaba llena de letras. Utilizamos la inferencia de que “las letras de la pizarra, las
habían escrito los niños.” El factor léxico-semántico es que los niños “escribían con tizas”, cosa
que suele hacerse en una pizarra. En este ejemplo se dice que “pizarra” desempeña un papel
abierto en el discurso y se mantiene vinculado al material anterior por una inferencia-puente
encargada de mantener la coherencia.
Factor información contextual provenientes de antecedentes generales, como por ejemplo:
tener un conocimiento previo de que los niños suelen escribir en esa pizarra.
Garrod y Tetras basándose en los resultados de varios estudios, propusieron un modelo de dos
etapas de cómo resuelve la gente los papeles abiertos en el discurso:
Creación de vínculos: Los elementos sugeridos por el contexto léxico se activan
automáticamente y se vinculan al verbo (En la frase anterior, TizaEscribir).
Resolución: Se compara si el vínculo creado anteriormente (relleno) encaja con el contexto
general. Esto se desarrolla con una combinación de proceso automático (abajo-arriba) y un
procesamiento contextual no automático.
Hay dos grandes áreas en el que las inferencias elaborativas son especialmente importantes, los
testimonios de los testigos oculares y los métodos de publicidad.
Según los trabajos de Loftus, las declaraciones de los testigos oculares son poco fiables, pues la
forma en la que se hacen las preguntas interfiere en la generación de un recuerdo. La utilización de
(un) o (el) afecta a la comprensión. Ej. A testigos accidente se les pregunta: ¿Vio usted el
semáforo roto?, ¿Vio usted un semáforo roto? En realidad, no hay ningún semáforo roto, pero el
determinante “el” hace suponer que sí lo hay. A algunos participantes a los que se les pregunto
con esta estructura respondieron afirmativamente. Por lo tanto La forma en que utilizamos las
palabras puede influenciar a la gente y por lo tanto a su forma de responder.
5
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Correferencia: Dos o más sintagmas nominales con la misma referencia. Ejemplo: “Ganímedes
dibujó una primavera, él soñaba con ella”, aquí los correferentes serían: Ganímedes/él, y por
otra parte, también lo serían primavera y ella.
Antecedente: El referente de la anáfora.
Anáfora: Expresión lingüística relacionada exclusivamente con el antecedente. Ejemplo: “Ana
está encantada con su desayuno, a ella le encantan las tostadas”. Aquí el antecedente sería
“Ana” y la anáfora “ella”.
Las personas debemos averiguar a qué hacen referencia las anáforas, cuáles son sus
antecedentes, esto es conocido como Resolución de la anáfora, y se trata de una inferencia hacia
atrás para mantener la cohesión.
Almor propuso que el procesamiento para la resolución de la anáfora viene determinado por la
carga de información esta información debe servir o bien para identificar al antecedente o bien
para aportar información sobre el mismo. Cuando es repetitiva y no aporta aspectos novedosos
resulta difícil de interpretar.
Badecker y Straub afirmaron que todas las claves potenciales contribuyen a la elección del
antecedente adecuado. Proponen un modelo de restricción paralela interactivo en el que hay
múltiples restricciones que influyen sobre la activación de las entidades candidatas. Cuanto más
6
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
conflicto existe, más candidatas hay, y más posibles son cada una de ellas, por lo que más difícil
será la elección del antecedente.
3.2 Accesibilidad
Algunos elementos son más accesibles que otros. Somos más rápidos recuperando el referente
de los antecedentes más accesibles. Dos Hipótesis de la búsqueda de referentes para tener más
accesibilidad:
Hipótesis de la búsqueda restringida: la búsqueda inicial de referentes está restringida a los
conocimientos comunes que tienen (o creemos que tienen) los participantes de una
conversación. Así no vamos a pensar que alguien cuando mantiene un dialogo se refiere a cosas
que los que le escuchan no tienen en cuenta. Según esta hipótesis las cosas que se encuentran
en el “terreno común” tienen más accesibilidad.
Hipótesis de la búsqueda sin restringir: La búsqueda de referentes no solo tiene en cuenta los
conocimientos de los participantes. Los resultados de los experimentos apoyan esta hipótesis.
La información o personajes que se mencionan antes en un texto son más accesibles que los
que se mencionan en segundo lugar, esto parece contradecir la lógica de que lo último debería
recordarse mejor, la explicación construccionista de este efecto es que con la primera información
creamos un marco de referencia, y posteriormente vamos integrando en él los diferentes
componentes para crear una representación coherente. Lo reciente sólo es importante cuando se
está desarrollando la estructura, si se nos pregunta inmediatamente después, la proximidad facilita
la tarea, pero si por el contrario transcurre un intervalo temporal, la primera mención es la más
importante y tiene un efecto más duradero en referencia a la accesibilidad.
La Teoría centrante, desarrollada por los modelos de inteligencia artificial, mantiene que cada
expresión de un discurso coherente tiene un único centro que mira hacia atrás que se relaciona con
la expresión anterior, y uno o más centros que miran hacia adelante y que ofrecen vínculos
potenciales con la siguiente expresión.
7
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Modelo de Anderson y Bower, denominado HAM, luego pasó a denominarse ACT y después
ACT:
Incluyen un modelo de activación propagadora de la memoria semántica, combinado
posteriormente con un sistema de producción para ejecutar operaciones de nivel superior.
Ofrece una buena explicación de la recuperación de hechos en historias breves. Cuántos más
hechos hay asociados con un concepto, más lenta es la recuperación de cualquiera de esos
hechos, lo que se denomina efecto ventilador
Cuando se presenta un estimulo, la activación se propaga a todos sus asociados.
Hay un límite a la cantidad de activación total, de forma que cuantos más elementos se
propaga, menos activación puede recibir cada elemento individual.
La teoría de la dependencia conceptual, Schank es otro modelo de red por el que se puede
descomponer el significado en pequeñas unidades atómicas, que están relacionadas entre sí
mediante una red.
No hay acuerdo sobre los tipos de papeles y conexiones exactas que hay que utilizar.
Estos modelos muestran como se podría representar le conocimiento, pero tienen poco que
decir sobre cómo o cuándo hacemos inferencias, o cómo se mantienen algunos elementos en
primer plano, cuando extraemos la esencia del texto.
No son adecuadas por sí solas como un modelo de comprensión, pero constituyen la base de
modelos más complejos
Así como las frases, las historias poseen unas reglas sobre la estructura de los sintagmas, por
ejemplo, cuando se posee un contexto es posible crear un episodio.
Según esta gramática las personas suelen dar más importancia a los elementos de la historia
según su posición jerárquica y se pasa más tiempo leyendo las frases que están en la parte alta de
la estructura.
8
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Cuando se cambia el orden de la gramática en las historias (por ejemplo, poniendo antes el
final) la comprensión es más difícil.
Un problema de estás es lograr un acuerdo sobre cuáles deberían ser sus elementos, reglas y
elementos terminales. Estás teorías tampoco aportan nada sobre la compresión por lo que
actualmente no son influyentes.
Guiones
Los elementos centrales de guión se comprenden más fácilmente que los que están en la
periferia, aunque los primeros no se hayan mencionado de manera explícita, por ejemplo, en el
guión del restaurante: el concepto de “mesa” viene implícito, sin embargo el “recoger los abrigos”
sería un elemento periférico.
Las distracciones que interrumpen el propósito del guión deben ser más prominentes que los
sucesos rutinarios, y por lo tanto se recuerdan mejor. Los acontecimientos que son irrelevantes
para el propósito (por ejemplo, el color de los zapatos del camarero) presentan una probabilidad de
recuerdo muy baja.
Schank afirma que la memoria es una estructura dinámica impulsada por sus fallos, los guiones
estarían formados por varios paquetes de organización en la memoria (MOP) denominados
escenas, y que están relacionadas con un determinado objetivo, por ejemplo, en el guión de ir al
médico, tendríamos: La escena de entrar, la escena de la sala de espera, la escena de pedir
9
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
A un nivel superior encontramos los puntos de organización temática (TOP) que se ocupan de
la información abstracta independiente del contexto.
Se les acusa de no ser más que nuevas descripciones de los datos. Ross y Bower sugirieron que
los esquemas tienen una capacidad organizadora que va más allá de sus elementos constituyentes,
pero aún está por demostrar así como los guiones. No está claro como se activan determinados
guiones.
Los esquemas no pueden proporcionar todavía una explicación completa del procesamiento de
textos.
Tienen poco que decir sobre cómo se hacen las inferencias, cómo se resuelven las anáforas o
cuáles son los elementos que se ponen en 1º plano.
Mientras que los esquemas contienen información abstraída sobre muchos casos particulares,
los modelos mentales construyen un prototipo específico para representar toda la información a
partir de los datos en general.
Estos modelos crean imágenes mentales, que incluyen información sobre la posición en el
espacio de los actores u objetos, la accesibilidad a la memoria depende más de donde estén
ubicados espacialmente, que de las proposiciones hipotéticas que se podrían utilizar para
representar esas posiciones. Por ejemplo, creamos un modelo mental en el que nos imaginamos
muy cerca de una botella, bien, esa botella se recordará más fácilmente que si simplemente se nos
hubiesen informado que la botella estaba cerca pero no la hubiésemos “visto mentalmente”.
No obstante estos modelos no solo aportan información espacial, sino que son
multidimensionales y nos aportan 5 tipos de datos: espacial, causal y temporal sobre los objetivos
de las personas, e información sobre las características de las personas y objetos, cada tipo de
información se codifica de manera independiente, por ejemplo la posición de los objetos se
almacena en la memoria visual y los aspectos causales en la verbal.
10
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Este enfoque de los modelos es una visión constructivista extrema, la forma en que se produce
esta construcción y la naturaleza exacta de las representaciones, no está clara todavía.
Según el modelo del aquí y el ahora, (Zwaan y Madden) la información que es relevante, para
el protagonista del texto, permanece más accesible que la que no lo es.
Según el modelo de la resonancia, (Myers y O’brien) los datos nuevos “resuenan” con toda la
información que hay en la memoria, y no se puede evitar la activación pasiva del material antiguo
aunque no sea relevante, solamente es necesario que esté relacionado de alguna manera.
El tiempo relativo puede afectar a la accesibilidad de las entidades, cuanto más largo es el
intervalo entre el ahora y el pasado referido, más tiempo necesitan las personas para acceder a él,
sin embargo este efecto sólo se observa entre eventos consecutivos. Prestamos mayor atención a
las expresiones que nos informan de un tiempo relativo, sobre todo a las que indican un cambio
temporal, las locuciones como: “más tarde” o “dos días después” se conocen como marcadores
de segmentación, y su función es informar de una discontinuidad temporal y/o potencial cambio
de tema. Cuando leemos la primera frase tras un cambio de tema, tardamos más; esto es conocido
como el efecto delimitación, sin embargo este efecto se puede evitar si usamos marcadores de
segmentación.
Construimos una representación de una historia con dos entradas: la propia historia y los
objetivos del lector, estos objetivos están representados por el esquema objetivo, y hacen cosas
como determinar qué es lo relevante o realizar inferencias que no están explícitas en el texto.
11
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
asociativa. Hay unas Macroreglas que se utilizan para hacer inferencias, para borrar
proposiciones de la microestructura y resumir proposiciones, un ejemplo es cuando estas
Macroreglas se usan para rellenar “huecos en un texto”, en esta fase se utiliza información tipo
guión. En el modelo de situación final se representa al texto desprendido de su individualidad e
insertado en una estructura mayor.
12
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Este modelo también predice la calidad de la memoria para el texto y la influencia del
conocimiento previo.
Las personas más hábiles en la comprensión son buenas en eliminar material irrelevante, y
discriminar homónimos.
Hay evidencias de que la gente joven es más eficaz a la hora de relacionar ideas en el texto, así
como muestran una mayor facilidad para eliminar material irrelevante.
13
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
El método PQ4R (Anderson, Thomas y Robinson): consiste en: vista previa, preguntar, leer,
reflexionar, recitar y revisar. (Preview, Questions, Read, Reflect, Recite, Review):
Vista previa: Se debe leer el tema o capítulo, documentándose sobre datos como, los objetivos
y temas centrales.
Preguntar: Produciendo sus propias preguntas sobre el tema.
Leer: el material detenidamente, extrayendo las ideas principales.
Reflexionar: Para reflexionar sobre un tema es conveniente realizar comparaciones, ejemplos e
imágenes mientras se lee. (Inferencias).
Recitar: Hacer un recuento desde el principio sin ver el libro o las notas de apuntes de forma
oral o escrita.
Revisar: La revisión debe ser objetiva y acumulativa, tratando de responder a las preguntas
importantes sin consultar el texto, es ventajoso trabajar con un compañero(a) y examinarse uno
a otro.
14
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Las técnicas empleadas en el estudio de la producción han sido las siguientes: Análisis de
transcripciones de cómo eligen los sujetos lo qué y cómo decir, simulaciones informáticas, análisis
de las pausas y de los errores y lapsus linguae. En los últimos años, los estudios experimentales de
nombramiento de imágenes.
El Método para estudiar errores consiste en pedir que hable y cuando cometa un error, parar y
preguntarle que quería decir realmente. El problema es un posible sesgo del observador. Son muy
frecuentes los errores de sustitución de palabras y de sustitución y anticipación de sonidos.
Hay muchos tipos de errores del habla. Se pueden clasificar analizando las unidades
lingüísticas en el error y el mecanismo de error implicado. Fromkin afirmo que la existencia de
errores que implicaban determinada unidad demuestra que estas unidades son psicológicamente
reales. Ver Tabla 10.1
1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
En el habla se puede poner énfasis primario y secundario, el énfasis de las frases (ver Ej.: Pág.
290) no cambia con los errores, lo que sugiere que el énfasis surge independientemente las
palabras utilizadas. Este tipo de error se denomina acomodación al entorno fonológico, si nos
dejamos una “s” se mantiene pese a cambiar el orden de la palabras, se dice que se ha quedado
encallado.
Un modelo completo sobre la producción del habla debería ser capaz de explicar tantos los
errores del habla como los experimentales. Podemos corregir nuestros errores antes, durante o
después de cometerlo. También podemos no darnos cuenta nunca de nuestro error.
Garret defendió que producimos el habla mediante una serie de niveles de procesamiento discretos
en serie que no interactúan
entre sí. El modelo diferencia Fig. 10.2
dos fases fundamentales en la Conceptualización Nivel del mensaje
Nivel funcional
planificación sintáctica:
Formulación: Nivel posicional
Nivel funcional: en este Nivel de sonido
Articulación: Instrucciones articulatorias
nivel todavía no está
representado
explícitamente el orden de
las palabras. Se específica y asigna el contenido semántico de las palabras al sujeto y objeto. En
este nivel se eligen las palabras de contenido.
Nivel posicional: Se ordenan las palabras. En este nivel se eligen las palabras funcionales.
Tabla 13.2 Ejemplo de cómo producimos una expresión basada en la producción del habla (ampliado
con texto)
Partimos de qué queremos decir (conceptualización o nivel del mensaje).Que decir y como decirlo.
Especificación semántica abstracta donde se especifican las relaciones funcionales. Y se hace
posteriormente la correspondencia con las funciones sintácticas nivel funcional de la planificación
sintáctica de la formulación).Se establecen los papeles funcionales de las palabras, no sus posiciones
absolutas.
Se crea un marco sintáctico para la frase planificada.
Acceso al lexicón para obtener la fonología de las palabras de contenido.
Las representaciones se insertan en el marco de planificación sintáctica donde se especifican las
posiciones finales. (nivel posicional de la planificación sintáctica de la formulación).
Especificación fonológica de las palabras funcionales y otros elementos gramaticales para dar la
representación en el nivel del sonido.
2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Los afijos pueden ser prefijos o sufijos. Los morfemas ligados pueden ser derivativos o
inflexivos. Si se comete el error de mover el morfema libre pero se deja el morfema ligado se
denomina encallamiento del fonema.
Disociación: un proceso es disociable de otros si una lesión lo trastorna dejando a los otros
intactos.
Explica mucha evidencia empírica sobre los errores del habla, aunque hay facetas en las que su
modelo no es correcto:
No esta claro que la producción del habla sea un proceso en serie. Hay cierta evidencia de que
se produce al menos, un procesamiento local paralelo puesto que encontramos errores de
combinación de palabras, que se tienen que explicar por el hecho de que se estén recuperando
simultáneamente dos (o más) palabras del lexicón. Lo que sugiere que se están procesando en
paralelo dos mensajes alternativos del nivel de mensaje al nivel fonológico.
Se observan dos tipos de errores de intrusión cognitiva: 1) El nivel del mensaje puede
entrometerse en la expresión y 2) en los niveles de procesamiento inferiores y errores internos
no planificados.
o Los errores internos no planificados suelen estar facilitados fonológicamente, lo que
significa que es mas probable que se produzcan errores si la palabra objetivo y la intrusión
tienen un sonido parecido.
o Los nombres de los objetos o palabras del entorno no externo también pueden entrometerse
en el habla, produciendo una contaminación del entorno.
o Los errores de sustitución de palabras en el habla están restringidos por la similitud entre la
palabra objetivo y la entrometida.
Bock concluyó que la disponibilidad de palabras afecta a la planificación sintáctica, lo que de
nuevo sugiere que los niveles de procesamiento interactúan con la planificación sintáctica.
Estas conclusiones sugieren, que los niveles de procesamiento no pueden ser independientes
entre sí, sino que deben interactuar.
3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
3. Planificación sintáctica
Bock y colbs., analizaron los procesos sintácticos, una conclusión importante a la que llegaron
es que el orden de las palabras en el habla está determinado por una serie de factores interactivos
entre sí. Por lo general los experimentos demuestran que el componente de asignación del papel
gramatical de la planificación sintáctica esta controlado por factores semántico-conceptuales mas
que por las propiedades de las palabras como su longitud.
Los estudios de los movimientos oculares indican que la mirada es un indicador fiable de lo
que la gente está pensando y planificando, y de cuándo lo piensa y lo planifica.
Los estudios de priming sintáctico demuestran que los hablantes utilizan determinado orden en
las palabras si la frase prime utilizaba ese orden. La magnitud del priming no depende del tiempo
verbal, número o aspecto del verbo. Se llama refuerzo léxico a la repetición del verbo. Es la
estructura sintáctica subyacente la que importa para lograr el priming sintáctico y no la forma
superficial de las palabras.
El priming estructural puede mantenerse hasta con 10 frases intermedias. El priming sintáctico
también afecta a algo más que la memoria a corto plazo y puede tener cierto componente de
aprendizaje a largo plazo.
4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Evidencia de que los marcos de las frases son representaciones sintácticas independientes del
significado de lo que codifican.
Los errores de concordancia de número son bastante comunes en el habla. Vigliocco y Nicol,
la codificación gramatical tiene tres funciones:
asignación de funciones gramaticales,
construcción de estructuras jerárquicas sintácticas para reflejarlo
ordenación de los constituyentes en un orden lineal.
Según Bock, Eberhard y Cutting, se necesitan dos procesos para garantizar que la
concordancia de número se produce sin contratiempos:
Marcado: una especificación del número de cosas de las que estamos hablando y
Adaptación morfológica: evitar el marcado teniendo en cuenta la morfología del sujeto.
La concordancia de número podría implicar distintos procesos para pronombres y verbos: los
verbos están controlados por el número gramatical (un proceso sintáctico) y los pronombres por
lo que se conoce como número nocional.
Meyer concluyó que el tiempo que tardaban los participantes en empezar a hablar era más
largo cuando el elemento de distracción estaba relacionado semánticamente con el primer o
segundo sustantivo, pero el distractor sólo tenía un efecto cuando estaba relacionado, facilitando
la iniciación, con el primer sustantivo. Este resultado sugiere que preparamos el significado de
oraciones cortas y elegimos las palabras adecuadas antes de hablar, pero sólo recuperamos el
sonido de la primera palabra.
5
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
nominal complejo que para frases similares con una oración simple. Esto sugiere que no se
planifica toda la estructura sintáctica de las frases complejas de forma anticipada, Smith y
Wheeldon sugieren que cuando la gente empieza a hablar ha completado el acceso al lemma para
la primera oración de una expresión y ha empezado a procesar el resto.
Schnur, Costa y Caramazza concluyeron que el tiempo para empezar a producir una frase era
más rápido en presencia de un distractor fonológico relacionado. Esto sugiere que la planificación
fonológica tiene bastante anticipación y puede cruzar los límites entre frases. La planificación
sintáctica es gradual, vamos planificando sobre la marcha. Cuando hablamos mantenemos
múltiples componentes de la frase en la memoria, planificamos y hablamos de manera simultánea
y lo hacemos sobre la marcha, más que planificar un fragmento de una vez y sólo producirlo
cuando se ha culminado la planificación.
¿Cómo producimos las formas irregulares? Un modelo es que tenemos una regla para las
versiones regulares y aprendemos de memoria las excepciones irregulares que almacenamos en
nuestro lexicón. Hay evidencia neural de esto, el mecanismo basado en las reglas generales en la
parte delantera del hemisferio izquierdo y un lexicón de almacén de los verbos irregulares en
regiones más posteriores.
4. Lexicalización
La lexicalización es el proceso de producción del habla por el que convertimos los pensamientos
que subyacen a las palabras en sonidos, desde la representación semántica (significado) de la
palabra de contenido a su sonido.
Levelt, teoría de los lemmas, cada palabra está representada por un lemma. El lemma está
especificado sintáctica y semánticamente, pero no fonológicamente:
La primera fase de especificación en forma abstracta es la selección del lemma
La segunda fase de especificación de forma fonológica concreta de la palabra se conoce como
selección de la forma fonológica o lexema, que es la forma fonológica de la palabra en un
formato en el que está representada la fonología. Fig. 10.3
6
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Fay y Cutler crean un modelo de cómo producimos palabras y como hacemos sustituciones.
Diferencian 2 tipos de errores del habla de sustitución de toda la palabra:
Sustituciones semánticas
Sustituciones basadas en la forma o malapropismos.
Estos dos tipos de errores sugieren que los procesos de producción y comprensión usan el
mismo lexicón pero en sentidos opuestos.
Los elementos del lexicón se ordenan fonológicamente, de modo que las palabras que tienen un
sonido similar están próximas.
Durante la producción se accede al lexicón atravesando una red semántica o árbol de decisión:
Los errores semánticos se producen cuando se está recorriendo el árbol de decisión,
Los errores fonológicos se producen cuando se elige la forma fonológica final.
La idea es que las sustituciones fonológicas y semánticas se producen como resultado de los
errores en las distintas partes del proceso de recuperación de la palabra.
Butterworth explico la recuperación de las palabras en dos fases, primero una entrada en el
lexicón semántico que ofrece un indicador a una entrada en un lexicón fonológico separado.
Los errores de sustitución de palabras aunque respaldan por lo general al modelo de dos fases,
no dicen nada sobre la existencia de lemmas amodales especificados sintácticamente.
Evidencia experimental
La evidencia experimental de la división del acceso al lexicón en dos fases proviene de:
Descripción de escenas sencillas.
Investigación sobre priming por repetición en la lexicalización: el priming por repetición se
produce por el refuerzo de las conexiones entre los lemmas y las formas fonológicas.
Kempen y Huijbers afirmaron que la gente no empieza a hablar hasta que se ha identificado
totalmente el contenido que se va a expresar, no producimos la primera palabra hasta que no
hemos accedido a todos los lemmas.
Tanto las formas fonológicas como el significado tienen que estar activados para que se
produzca priming por repetición en la producción.
7
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
La evidencia a favor de las dos fases, proviene de una fase de activación semántica temprana en
la selección léxica, y de una fase posterior de la activación fonológica, proviene de estudios de
interferencias entre palabras e imágenes.
Paradigma de la interferencia semántica: los sujetos deben nombrar imágenes en las que se
superponen palabras de distracción que tienen que ignorar; los tiempos de nombramiento son mas
largos cuando existe una relación entre imagen y palabra.
Evidencia de la neurociencia
El proceso visual y conceptual dura 175 ms, el lemma que mejor se ajusta se recupera entre
150-225 ms, las representaciones fonológicas se recuperan entre 250-330 ms y los detalles de los
sonidos de la palabra se producen a los 450 ms.
El estado de tener algo en la punta de la lengua (TPL) es una dificultad temporal observada en
el acceso léxico.
¿Qué nos indica el fenómeno TPL? Que se puede ser consciente del significado de una
palabra sin serlo de sus sonidos constituyentes y, además, que las representaciones fonológicas no
son entidades unitarias.
8
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
La producción de homófonas, no es una evidencia a favor clara del modelo de dos fases.
En resumen, aunque hay discrepancias sobre la naturaleza de las dos fases, y hasta que punto
hay lemmas amodales sintácticamente especificados, Hay un consenso de que la recuperación
léxica se produce en 2 fases: fase semántico-léxica seguida de una léxico-fonológica.
¿Cómo se relacionan las dos fases? ¿Son independientes o se solapan? ¿Empieza la segunda
fase de especificación fonológica cuando se ha culminado la primera de recuperación del lemma o
empieza cuando sigue activa la primera fase?
600ms tardamos en empezar a decir una palabra cuando vemos un objeto.
La evidencia proveniente de los errores del habla establece que si se da solapamiento entre
ambas fases.
Los Modelos independientes o modulares establecen que antes de decir la palabra oveja solo
queda activo un elemento antes de empezar a acceder a las formas fonológicas.
Los Modelos interactivos o de solapamiento establecen que antes de decir la palabra oveja
pueden estar activos cualquier número de elementos (así, cuando queremos decir oveja es posible
que este activa la forma fonológica de cabra).
9
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Solo el modelo en cascada predice claramente el resultado encontrado de que los tiempos de
nombramiento son más breves para las palabras cognadas entre las personas bilingües. Según el
modelo en cascada, la activación cae en cascada desde los nodos léxicos no seleccionados (los
cognados) hasta sus segmentos fonológicos, así como desde los nodos-objetivo. El resultado de
esa activación adicional de los segmentos fonológicos es que se acelera el nombramiento.
Los modelos basados en los datos sobre errores consideran la producción del habla como un
proceso interactivo que implica retroalimentación, ya que los errores del habla dan evidencia de
restricciones múltiples, como un sesgo léxico y efectos de la similitud:
Sesgo de la familiaridad: tendencia a que los errores produzcan secuencias de fonemas
familiares.
Sesgo léxico: tendencia de que los errores del habla al nivel de los sonidos, como los
retruécanos, den lugar a una palabra más que a una palabra inexistente con más frecuencia de la
que se produciría por pura suerte. Dell y Reich demostraron la interacción entre el proceso
léxico y fonológico.
Efectos de similitud: cuando el error es más parecido a la palabra objetivo según determinado
criterio de lo que seria por pura suerte.
En las Sustituciones mezcladas: la intrusión está relacionada tanto semánticamente como
fonológicamente con la palabra objetivo.
El flujo de información horizontal es que unas palabras afectan a otras de la frase. Este flujo
horizontal nos permite escribir con humor, lirismo, chistes o poesía.
10
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
El modelo explica los errores del habla, ya que puede haber activas varias unidades en cada
nivel en un momento y si hay suficiente ruido aleatorio, un elemento puede ser sustituido por
otro. Hay realimentación entre niveles, la realimentación entre el léxico y el nivel fonológico da
lugar al sesgo léxico y a restricciones de similitud.
5. Codificación fonológica
El principal problema de la codificación fonológica consiste en garantizar que los sonidos de
las palabras salen en el orden y prosodia adecuada. Dos explicaciones:
La codificación fonológica se basa en la distinción entre estructura y contenido. Las
estructuras lingüísticas crean marcos con ranuras y luego recuperamos el contenido para
rellenar estas ranuras. En el mecanismo de escáner-copiadora se recuperan los segmentos de
sonidos por separado de este marco y se insertan en las ranuras correspondientes en un marco
silábico.
La lista competitiva es un modelo conexionista donde los elementos a introducir forman una
cola ordenada controlada por los procesos de activación e inhibición. Dos unidades de control,
una de iniciación y otra al final. Los sonidos del principio de una palabra tienen fuertes
conexiones con la unidad que controla el inicio del habla, y los sonidos del final la tienen con
la unidad que controla el final de la secuencia.
Dell utilizó una red conexionista llamada red recurrente para asociar palabras con sus
representaciones fonológicas en una secuencia sin representación explícita de la distinción de
estructura y contenido con el objetivo de aprender secuencias. Esto lo consigue mediante una capa
adicional de unidades de contexto que almacenan información de los estados anteriores de la red.
11
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Los conceptos eligen a los lemmas potenciando el nivel de activación del concepto que domina
al lemma. La activación se propaga por la red con la restricción de no permitir un proceso en
cascada, de modo que la activación de la correspondiente palabra solo empieza cuando se ha
seleccionado un único lemma.
Se recupera un código fonológico para cada lemma. Se unen luego los morfemas para formar
silabas (silabificacion). Las silabas no se almacenan en el lexicón, sino que se crean sobre la
marcha.
Silabario mental: almacén de gestos silábicos muy practicados que impulsan la articulación; a
medida que se produce la silibificacion, se recuperan los correspondientes patrones silábicos para
ser ejecutados.
6. El análisis de vacilaciones
El análisis de las vacilaciones se ocupa de la distribución de las pausas u otras faltas de la
fluidez del habla. Una pausa sin rellenar es un momento de silencio. Una vacilación rellenada es
una pausa rellena con sonidos como “eh”, una repetición, un falso comienzo o una observación
como “vale o ¿sabes? Fig. 10.10
12
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Pues bien, parece que la pausa refleja el éxito en la primera fase y un retraso en la segunda
fase. Esto es similar al efecto de TPL, el cual es un ejemplo extremo de pausas de
microplanificación.
¿Qué se planifica exactamente durante las pausas? Fundamentalmente la semántica más que la
sintáctica. Goldman afirmó que el tiempo de las pausas no se ve afectado por la complejidad
sintáctica, por lo que concluye que la planificación es fundamentalmente semántica más que
sintáctica. Esta conclusión es actualmente controvertida.
Henderson, Goldman et al propusieron que en la planificación del habla hay ciclos cognitivos:
fases de habla muy vacilantes que se alternaban con fases de un habla más fluida. Se cree que la
mayoría de la planificación se produce durante la fase vacilante, y en la fase fluida nos limitamos
a decir lo que acabamos de planificar en la anterior fase vacilante.
Butterworth defendió que un ciclo corresponde a una idea. Las personas miran menos a sus
oyentes en la fase de planificación, manteniendo mayor contacto visual en la fase de ejecución. Se
tiende a utilizar gestos más tónicos (para dar énfasis) en la fase vacilante y gestos más icónicos
(relacionado con el objeto asociado) en la fase fluida.
Good et al proporcionan evidencia experimental de que las vacilaciones pueden ser utilizadas
para lograr cierta meta interactiva, además de reflejar la carga cognitiva del hablante, pueden
servir para lograr cierta meta interactiva.
Los distintos tipos de pausas podrían tener distinta causa: Las micropausas (pausas <250ms)
reflejan dificultades de la articulación, aunque se ha puesto en duda esta perspectiva.
Aunque los primeros trabajos demostraron que las pausas reflejan una planificación semántica,
esta idea esta muy lejos de estar clara. Es probable que sea reflejo de dificultades en la
microplanificación y en la macroplanificación.
13
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
7.1 Afasia
Las vías de los procesos implicados al decir una palabra que se ha oído presentan una
activación primero en el área de Wernicke (lóbulo temporal posterior), que pasa a través del
fascículo arqueado hasta el área de Broca (lóbulo frontal).
La afasia de broca
Afasia de Broca: habla no fluida, vacilante, lenta, poca entonación o disprosodia y dificultad
de articular o apraxia. También incapacidad de ordenar las palabras y dificultad con la secuencia
de las unidades del lenguaje.
La afasia de Wernicke
Afasia de Wernicke: frases bien formadas, con gran número de elementos y prosodia normal pero
la comprensión es mala y hay dificultad en encontrar los contenidos fundamentales, con muchas
sustituciones y palabras inventadas.
Fig. 10.13
Afasia de Broca Afasia de Wernicke
Comprensión del habla relativamente buena Sordera pura de las palabras, dificultades en la
Anomia, agramatismo, errores de pronunciación. comprensión de las palabras.
Lesión del área de Broca en el lóbulo frontal Habla fluida pero sin sentido
izquierdo y en las partes contiguas del lóbulo Lesión del área de Wernicke, dentro del lóbulo
frontal y la sustancia blanca subcortical. temporal izquierdo
En la actualidad se considera más útil la distinción entre afasia fluida, habla fluida pero a veces
sin sentido, y entre afasia no fluida. O distinguir entre los que pueden comprender y los que no.
7.2 Agramatismo
Agramatismo: es un tipo de afasia que se caracteriza por un trastorno del procesamiento
sintáctico. Tres componentes:
Déficit de construcción de las frases: capacidad disminuida de producir palabras en un orden
correcto.
Algunas partes del habla se preservan mejor que otras:
14
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Dificultad de articulación. Es posible que dejen de lado las palabras funcionales debido a la
dificultad de articulación.
o Explicación no convincente puesto que en el agramatismo también hay déficit de construcción
de frases y de comprensión sintáctica en la mayoría de casos.
Teorías que buscan una única causa a los 3 componentes.
Una sugerencia es que el Área de Broca como responsable del procesamiento de las palabras
funcionales y otros elementos gramaticales.
Hay diferencias entre las palabras funcionales y de contenido: nunca se producen sustituciones
intercambiándose entre sí y se presentan mediante diferentes rutinas de procesamiento.
Según la Hipótesis de un único déficit fonológico: Omiten elementos que son componentes no
acentuados de las palabras fonológicas. Por ello las palabras de contenido quedan preservadas,
y se pierden los afijos y las palabras funcionales. Problema de la hipótesis: no explica el déficit
de construcción de la frase ni los patrones de disociación encontrado. Sólo explica la perdida de
elementos gramaticales.
Además, es debatible la idea de que las palabras funcionales y de contenido se procesan de manera
diferente:
Según Stemberger: la causa del agramatismo es la versión extrema de los errores del habla
normal. En los sujetos agramaticales hay un aumento del ruido aleatorio y del umbral necesario
para que se produzca el acceso.
Según Harley: la causa del agramatismo implica marcos gramaticales mal construidos y que se
pueden explicar por excesivas sustituciones.
15
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
7.4 Anomia
Anomia: es un trastorno de recuperación de los nombres de los objetos. Todos los tipos de
afasia tienen cierto grado de anomia. El modelo de lexicalización en dos fases sugiere que hay dos
cosas que pueden salir mal en una tarea de denominación:
Anomia léxico-semántica
Anomia fonológica
La anomia fonológica implica problema al recuperar la forma fonológica de una palabra tras
haber accedido a su lemma. Problema similar al fenómeno de TPL.
16
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Las conexiones de retroalimentación del nivel fonológico al léxico garantizan que se activen
las unidades léxicas correspondientes a las palabras que son fonológicamente parecidas a la
palabra-objetivo. Los errores de repetición se explican con un mecanismo análogo pero inverso.
Los trabajos de modelización sugieren que el rendimiento de los pacientes con un acceso
léxico trastornado se explica mejor con los trastornos de dos parámetros: la ponderación
semántica y la ponderación fonológica.
No hay acuerdo sobre lo que se tiene que ajustar al modelo computacional a los datos para que
sea un buen modelo.
A primera vista, existe una doble disociación entre encontrar una palabra y producir formas
gramaticales. Ambas procesos se localizan en distintas partes del cerebro:
Los pacientes con lesiones en el área de Broca: tienen dificultad para producir formas
gramaticales pero localización de las palabras bien conservadas, presentan una tendencia a
omitir cosas.
Los pacientes con lesiones en Wernicke: Tienen dificultad para encontrar palabras pero sintaxis
relativamente bien conservadas, presentan tendencia a sustituir cosas.
Así según el modelo de Garret, existe la doble disociación entre la planificación sintáctica y
recuperación de elementos gramaticales por un lado, y la recuperación de palabras de contenido
por otro.
17
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Hay casos de sujetos con agramatismo sin trastornos de comprensión, y otros con déficit de
comprensión que no tienen trastornos en la producción.
Según Dick, la gramática no se localiza solo en el área de Broca, sino que usa muchas regiones.
Afasia cruzada: trastornos del lenguaje por lesión del hemisferio derecho.
Afasia transcortical: perturbación del lenguaje tras lesión cerebral con repetición buena pero mal
rendimiento en otras facetas de lenguaje. Hay dos tipos:
La afasia transcortical sensorial: en ella esta trastornada la comprensión, la producción es
fluida y puede incluso incluir la jerga, pero la repetición es relativamente buena.
En la afasia transcortical motora: la comprensión y la repetición son muy buenas, pero hay
poca producción de un habla espontánea.
8. Escritura y agrafia
El lenguaje escrito está más integrado y es más complejo sintácticamente que el hablado.
Tomamos más tiempo para escribir y podemos planificar y editar lo producido con más facilidad.
18
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
19
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
2. Inferencias en la conversación
Las inferencias desempeñan un papel importante en la comprensión del texto, y son igual de
importante en la conversación. Hacemos inferencias, no sólo de lo que dice la gente, sino también
de cómo lo dice, e incluso de lo que no dice. En la conversación tenemos un recurso adicional:
podemos preguntar a la otra persona, ya que la conversación es un acto cooperativo.
Cuando hablamos tenemos objetivos, y la tarea del oyente consiste en descubrir esos objetivos.
Según Austin y Searle cada vez que hablamos realizamos el acto de habla: intentamos hacer cosas
con nuestras expresiones.
Austin partió del objetivo de explorar las frases que incluían verbos de realización. Estos
verbos realizan un acto por su propia expresión. Ej. “Os declaro marido y mujer” (siempre que las
circunstancias sean adecuadas, como el tener la autoridad para hacerlo; estas circunstancias se
conocen como condiciones satisfactorias). Austin afirmó que todas las frases son de realización,
aunque la mayoría lo sea de forma indirecta (Ej. “Mi casa está adosada” “Por la presente
declaro mi casa adosada”). Austin diferenció 3 fuerzas que posee toda frase: Fig. 11.1
Fuerza locutiva: El significado literal de la expresión
Fuerza ilocutiva: Lo que el hablante está intentando conseguir con lo que dice.
Fuerza perlocutiva: El efecto que tiene realmente la expresión sobre las acciones y creencias
del oyente
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Según Searle, cada acto del habla pertenece a una de cinco categorías: Fig. 11.2
Representativo: La persona que habla está afirmando el hecho y transmite su creencia de que la
afirmación es verdadera.
Directivo: El hablante está intentando conseguir que el oyente haga algo.
Comprometedores: El hablante se compromete a un curso de acción futuro.
Expresivo: El hablante desea revelar su estado psicológico.
Declarativo: El hablante da lugar a una nueva situación.
Los actos del habla directos son expresiones directas en los que la intención del hablante queda
revelada en sus palabras.
Los actos del habla indirectos requieren cierto trabajo por parte del oyente. El hecho de que las
expresiones sean indirectas desempeña una función: es un mecanismo importante para
transmitir cortesía en una conversación.
Los significados de los actos de hablar indirectos no siempre resultan evidentes. Searle propuso
un mecanismo de dos fases para computar el significado pretendido: El oyente prueba primero el
sentido literal para ver si tiene sentido en el contexto, y sólo si no lo tiene hace el trabajo adicional
de encontrar un significado no literal. Aun así no hay duda de que el significado no literal se
entiende tan deprisa, o incluso más, que el significado literal.
Principio cooperativo (Grice) En las conversaciones, los hablantes y los oyentes cooperan para
que la conversación sea significativa y tenga sentido. Para cumplirlo tiene que hacer su
contribución a la conversación cuando se requiere, tal y como se requiere. Esto se logra utilizando
cuatro máximas conversacionales: Fig. 11.3
Máxima de la cantidad: Hacer que las contribuciones sean todo lo informativas que se requiere,
pero no más.
Máxima de la calidad: Hacer que la contribución sea verdadera.
Máxima de la relevancia: Hacer que la contribución sea relevante para el objetivo de la
conversación.
Máxima de la forma: Hacer que la contribución sea clara.
Sperber y Wilson afirmaron que la fundamental es la relevancia, y que las demás se pueden
deducir de ésta. Sin embargo, normalmente intentamos extraer un sentido de las conversaciones
que parecen desviarse de estas máximas. Suponemos que, en general, el hablante está cumpliendo
el principio comparativo. Para ello, hacemos una inferencia conocida como, implicatura
conversacional (Ej. Pág. 340).
Brennan y Clark propusieron que, en las conversaciones, los hablantes hacen conjuntamente
pactos conceptuales sobre los nombres que van a utilizar. Los pactos conceptuales son dinámicos:
evolucionan con el tiempo, se pueden simplificar e incluso cambiar.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
3. La estructura de la conversación
Hay dos planteamientos distintos para analizar la forma en que se estructuran las
conversaciones:
El análisis del discurso: Utiliza métodos generales de la lingüística. Pretende descubrir las
unidades básicas del discurso y las reglas que las relacionan.
El análisis de la conversación: es mucho más empírico, y pretende descubrir las propiedades
generales de la organización de la conversación sin aplicar reglas.
En una conversación, la persona A dice una cosa, la persona B habla a su vez, la persona A
tiene otro turno, etc.; este aspecto de la conversación se conoce como el de tomar turnos. Un turno
varía en longitud, y puede contener más de una idea. Otras personas pueden hablar durante un
turno, en forma de comunicación en segundo plano, haciendo ruidos, diciendo palabras, o gestos
para demostrar que el oyente sigue escuchando, comprende, está de acuerdo, etc.
La estructura de los turnos queda explícita por el ejemplo de los pares adyacentes (preguntas-
respuesta, oferta-aceptación).
Sacks y cols. propusieron que la unidad mínima de construcción de turnos con la que se
construye un turno viene determinada por la estructura sintáctica y semántica, y por el tipo de
entonación de la expresión. La mirada es importante: tendemos a mirar hacia nuestros oyentes
cuando estamos llegando al final de un turno.
Wilson y Wilson propusieron un modelo más biológico del control de la toma de turnos.
Afirmaron que, durante una conversación, se sincronizan o entrenan osciladores endógenos en los
cerebros del hablante y del oyente. Los osciladores endógenos son grupos de neuronas que se
disparan juntas de forma periódica y actúan como relojes en el cerebro.
4. Colaboración en un diálogo
Las conversaciones son una actividad de colaboración, y los hablantes colaboran con los
oyentes para garantizar que se comprenden sus expresiones. La idea de que los hablantes
particularizan sus expresiones a las necesidades particulares de los destinatarios se conoce como
diseño en función de la audiencia.
Pickering y Garrod hablan del Proceso de alineación: Proceso de intentar hacer coincidir las
representaciones de hablantes y oyentes. Afirman que la alineación se produce por medio de
cuatro tipos de mecanismos fundamentalmente automáticos: priming, inferencia, utilización de
expresiones rutinarias y monitorización y reparación de lo producido.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Tal vez el mecanismo de alineación más importante sea el priming. El priming de palabras y
estructuras sintácticas garantiza que las representaciones lingüísticas quedan alineadas a diversos
niveles.
Pickering y Garrod ponen énfasis en la forma en que los oyentes hacen predicciones en las
conversaciones, y en que estas predicciones se hacen en el sistema de producción del habla: la
compresión deriva de la producción, sobre todo en circunstancias difíciles.
Aunque los hablantes evitan a veces la ambigüedad lingüística, se esfuerzan especialmente para
evitar la ambigüedad no lingüística. La ambigüedad no lingüística se produce cuando hay
múltiples casos de significados similares.
Ferreira et al concluyeron que los hablantes monitorizan lo que dicen y pueden, en ocasiones,
detectar y evitar la ambigüedad lingüística antes de producirla. Los hablantes son mucho mejores
resolviendo la ambigüedad no lingüística que la ambigüedad lingüística.
La producción del habla se produce con lemmas elegidos rápidamente que se producen cuanto
antes.
5. Sonido y visión
El estudio de la forma en que interactuamos con el mundo visual requiere una sofisticada
tecnología de análisis del movimiento de los ojos. El estudio del mundo visual ha adquirido tanta
importancia porque proporciona una nueva herramienta para estudiar cómo comprendemos el
lenguaje y el habla.
Aunque los adultos utilizan mucho el mundo visual, los niños lo hacen en mucho menor grado.
Los resultados demuestran que el procesamiento del lenguaje tiene en cuenta de inmediato el
contexto relevante no lingüístico, y van en contra de los modelos en los que las decisiones
sintácticas iniciales están guiadas exclusivamente por la información sintáctica. Ej.: Pág. 344
Muchos investigadores consideran que un sistema modular es más económico. Hemos visto
que el lenguaje es muy modular, y que se puede localizar estos módulos en regiones particulares
del cerebro. Sin embargo el grado de encapsulación es más controvertido.
Los procesos dentro de un módulo son obligatorios y automáticos, si hay una entrada el
procesamiento posterior es obligatorio. Ej. Normalmente no podemos evitar leer una palabra y
acceder a su significado, incluso cuando no sea beneficioso, como en la tarea de Stroop.
Los estudios de imágenes cerebrales demuestran que cuando el sistema atencional está
sobrecargado, el cerebro no puede diferenciar entre letras aleatorias y palabras con sentido.
Los procesos del lenguaje suelen operar a nivel inconsciente. Los procesos de nivel inferior, no
son tratables con una introspección consciente. Caplan observó que la mayor parte del
procesamiento del lenguaje, se produce muy deprisa, de manera automática.
El grado en que interactúan los procesos del lenguaje es muy controvertido. Sabemos que
cuánto más temprano sea un proceso del procesamiento, será más probable que sea autónomo.
Hemos visto que los casos de estudio neuropsicológico demuestran que una lesión cerebral
puede afectar selectivamente a los componentes del lenguaje. Algunos pacientes tienen un acceso
léxico intacto pero un procesamiento sintáctico trastornado, y en el caso contrario.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
Existen enormes diferencias entre el procesamiento del lenguaje en las modalidades visual y
auditiva. Las demandas temporales del reconocimiento de la palabra hablada y visual son muy
distintas. Normalmente tenemos menos tiempo de acceso a un estímulo auditivo. Es más difícil
encontrar efectos de la frecuencia en el reconocimiento del lenguaje hablado, que en el
reconocimiento de la palabra visual.
Los datos sugieren que el reconocimiento del habla está impulsado por los datos, siendo un
proceso de abajo a arriba. En el reconocimiento del habla tenemos que obtener el significado lo
más rápido posible.
En la producción del habla tenemos que ser precisos, producir cada palabra por completo y
construir cada representación sintáctica con detalle.
Es evidente que el discurso interno está producido por el sistema de producción del habla, y
que se detiene justo antes de una articulación. Vigliocco y Hartsuiker, afirman que el discurso
interno se produce en un código tardío. Primero la supresión articulatoria (hablar en voz alta)
detienen a la voz interna y el hablar en voz alta interfiere con el código fonético. Segundo, los
niveles de representación no están accesibles para la conciencia antes del código fonético, pero el
discurso interno si está accesible a la conciencia. Con frecuencia la lectura, provoca el discurso
interno.
La explicación más detallista afirma que sólo hay un lexicón, que se utiliza para las cuatro
tareas de leer, escuchar, escribir y hablar. Es posible que tengamos cuatro lexicones, uno para cada
tarea, o dos, uno para el lenguaje escrito en tareas de reconocimiento (visual) y hablado, en tareas
de producción (verbal). Otra alternativa sería que hay lexicones separados para la entrada y la
producción.
La respuesta a cuantos lexicones existen, depende de cómo definamos nuestros términos. Si por
lexicón, queremos decir, el diccionario mental completo, solo puede haber uno, aunque quizás con
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
una serie de subsistemas y almacenes periféricos. Si por lexicón queremos decir sistema discreto
utilizado para acceder a la semántica, podríamos tener varios.
La mayoría de los datos va contra la existencia de un único lexicón que se utiliza para el
reconocimiento como para la producción:
Winnick y Daniel, demostraron que el reconocimiento taquitoscópico de una palabra impresa,
se facilitaba por la lectura anterior en voz alta de esa palabra. Mientras que el nombramiento de
una imagen o la producción de una palabra en respuesta a una definición, no facilita el
reconocimiento posterior. La imprimación es mayor en la modalidad visual, que en la
modalidad auditiva.
Morton, revisó el modelo de logógenes, y dijo que los almacenes de logógenes eran específicos
a la modalidad. Shallice, McLeod y Lewis descubrieron que el tener que monitorizar una lista
de palabras presentadas auditivamente, creaba poca interferencia con la lectura en voz alta de
palabras. Como muestran las imágenes PET, escuchar una palabra no activa las mismas zonas
que se activan al leer en voz alta y al repetirla.
Dell sugirió que las conexiones de retroalimentación pueden ser necesarias para el
reconocimiento de las palabras. La evidencia favorece la perspectiva de que los lexicones de la
producción y la comprensión son los distintos.
Puede resultar difícil distinguir los problemas de acceso de los problemas de almacenamiento.
Allport y Funnell, afirmaron que tal vez no necesitemos lexicones separados, sino sólo vías de
acceso distintas a un lexicón. No parece económico tener cuatro vías de acceso para leer, escribir,
hablar y escuchar; y tener cuatro sistemas semánticos.
El ordenamiento más aceptable es que hay distintos sistemas léxicos. Los procesos del lenguaje
se dividen al principio del procesamiento y no vuelven a converger hasta más tarde.
Monsell, concluyó que la generación de una palabra facilita su reconocimiento. Esto sugiere
que la producción y el reconocimiento utilizan el mismo lexicón o redes separadas conectadas de
alguna forma.
Los datos experimentales con individuos que no padecen lesiones cerebrales, sugieren que el
reconocimiento de la palabra hablada y visual recurre a mecanismos distintos. Hay almacenes de
entrada y salida distintos, que tal vez compartan algunos mecanismos subléxicos.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
En el centro del modelo de la estructura general del sistema lingüístico, se encuentra un sistema
en el que se almacenan los significados de las palabras, que tienen una comunicación con otros
procesos cognitivos. Se trata del sistema semántico.
Hablar implica pasar del sistema de la semántica, a un almacén de los sonidos de las palabras,
es el almacén de la salida fonológica. La comprensión del lenguaje requiere un análisis auditivo
del discurso entrante, para poder acceder a las formas almacenadas de las palabras habladas, este
es el almacén de la entrada fonológica.
Anomia: Los pacientes tienen problemas para recuperar los nombres de los objetos, pero
muestran una comprensión perfecta de esas palabras.
Sordera pura de la palabra: Trastorno en el que los pacientes pueden hablar, leer y escribir con
relativa facilidad, pero no pueden entender lo que se les dice. No pueden repetir un discurso.
Sordera del significado de la palabra: Algunos pacientes mantienen intacta la repetición, es
poco frecuente.
Estos casos demuestran que la repetición de la palabra no tiene que depender del acceso léxico.
Si tanto las rutas subléxicas y léxicas quedan destruidas, la persona se verá obligada a recurrir a
la repetición a través de la ruta semántica. Se repetirán con más facilidad las palabras más
imaginables (facilidad con la que se puede crear una imagen mental de una palabra).
Disfasia profunda: Hay una lesión en la ruta semántica los pacientes cometerán errores
semánticos en la repetición. Trastorno de repetición, caracterizado por errores de repetición
semánticos.
Si solo queda intacta la ruta de repetición léxica, los pacientes serán capaces de repetir palabras
reales, pero no palabras inexistentes, puesto que estas palabras no tienen una entrada léxica.
Tampoco deberían mostrar efectos de variables semánticas, como imaginabilidad en la repetición.
Es posible que también cometan errores en la lexicalización. Sin embargo podrían repetir bastante
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
bien hasta un 80 % de las palabras habladas, pero tendrían un mal rendimiento 7% en la repetición
de palabras inexistentes.
Si solo ha quedado intacta la ruta de repetición subléxica, los pacientes podrán repetir palabras
reales e inexistentes. No comprenderán el significado de estas palabras.
Afasia sensorial transcortical: Repetición relativamente buena, pero mal rendimiento en otras
facetas del lenguaje.
Afasia de la conducción: Es posible que los pacientes solo tengan una lesión en una de las
rutas, dejando intactas las otras dos. La lesión de tan solo la ruta subléxica, provocaría un trastorno
de la repetición, particularmente malo en palabras inexistentes.
En la lectura y la escritura se recurre a distintos sistemas léxicos. Hay una gran cantidad de
evidencia neuropsicológica que afirma que hay almacenes independientes, de producción
ortográfica y fonológica. Hay distintos almacenes de producción implicados en las actividades de
hablar y escribir, y la escritura no requiere la representación fonológica de la palabra. La mayoría
de los estudios sugiere que hay múltiples sistemas léxicos implicados, es probable que interactúen.
Allport y Funnell, afirmaron que no podemos tener un lexicón independiente que medie entre
sistemas. Las parafasias semánticas: sustitución de palabras al hablar, por otra de la misma clase.
(Ej. Perro X gato); de pacientes con dislexia profunda, descartan cualquier modelo en el que la
traducción a un código fonológico, sea una condición necesaria para acceder al código semántico.
Tenemos que almacenar la palabra mientras que pronunciamos sus sonidos o escribimos sus
letras en orden. Esto implica que necesitamos amortiguadores fonológicos y ortográficos
(Almacén temporal para guardar los fonemas que acaba de ser introducidos o están a punto de ser
producidos). Podemos escribir palabras inexistentes al dictado, por lo que debe existir una
conexión entre el amortiguador de la salida fonológica y el amortiguador de la salida ortográfica
que proporciona reglas de sonidos a letras.
Algunos autores piensan que se utilizan distintos sistemas semánticos para las palabras y los
objetos, por lo que es posible que tengamos que dividir el sistema semántico en dos. Hay cierta
evidencia a partir del estudio de la demencia del paciente D.T, que puede nombrar objetos y caras
sin pasar por la semántica. En este caso tenemos que incorporar una ruta adicional del sistema de
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
reconocimiento visual de los objetos, que evita la semántica, para llegar al almacén de la
producción fonológica.
No hay ninguna conexión directa entre el almacén de entrada ortográfica y el almacén de salida
ortográfica.
Cuando hemos añadido los lemmas y la ruta de nombramiento de objetos, terminamos con un
modelo complejo. La modelización conexionista puede mostrar cómo se pueden combinar las
rutas sin pérdida de poder explicativo.
El almacén de entrada visual tiene una correspondencia con las unidades ocultas de su modelo.
Es evidente que las palabras individuales no tienen una correspondencia con neuronas
individuales, deben estar distribuidas de alguna manera. Podemos identificar componentes
generales del sistema lingüístico y la forma en que fluye la información por el mismo.
Unas habilidades reducidas en una serie de complejas tareas de la memoria de trabajo, están
relacionadas con discapacidades del lenguaje en la infancia. Con dificultades en el aprendizaje.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
La eficacia del bucle fonológico se mide con tareas de memoria auditiva a corto plazo. Miden
nuestro recuerdo de dígitos y palabras de diversas maneras.
Tarea de repetición de una única palabra. El sujeto tiene que repetir palabras o dígitos únicos
en voz alta.
Tarea de repetición de dos palabras. El sujeto tiene que repetir pares de palabras.
Tarea del alcance de apuntar. La persona oye una secuencia de palabras o dígitos y después
tiene que apuntar secuencias de imágenes que correspondan a esos elementos.
Tarea del alcance de las correspondencias. El sujeto tiene que decir si dos listas son iguales o
distintas.
Una reducción del tamaño del almacén fonológico a consecuencia de una lesión cerebral,
debería tener repercusiones para el procesamiento del lenguaje, pero las consecuencias son menos
drásticas porque podemos acceder a las propiedades sintácticas y semánticas de las palabras con
rapidez.
Un trastorno del bucle fonológico obstaculiza la capacidad de repetir palabras inexistentes. Los
pacientes con trastornos en la memoria auditiva a corto plazo, muestran un efecto de longitud de la
palabra en la repetición.
El grado en que los trastornos de la memoria fonológica a corto plazo van acompañados de
trastornos en la percepción del habla, resulta controvertido.
Los trastornos de la memoria fonológica a corto plazo podrían implicar una lesión en el
amortiguador fonológico de la entrada, o del amortiguador fonológico de salida, pero no del
procesamiento fonológico.
La gravedad del trastorno de la memoria auditiva a corto plazo afecta la función del lenguaje.
Un alcance reducido a 1-2 elementos, puede tener consecuencias para el procesamiento del
lenguaje. Para alcances de 2-3 elementos el procesamiento de una única palabra suele estar
intacto, pero el rendimiento con secuencias más largas de palabras, puede estar afectado.
Los déficits semánticos están asociados con errores en la parte inicial de la palabra, mientras
que los déficits fonológicos están asociados con errores en la última parte de la palabra.
Es posible que los dos amortiguadores estén interconectados. Existe evidencia empírica:
Romani describió un paciente con un mal rendimiento en la repetición de palabras y frases,
pero un buen rendimiento en el reconocimiento inmediato de incitaciones. Sugirió un trastorno
en el amortiguador de salida pero un amortiguador de entrada intacto.
Martin describe el caso de un paciente que mostraba un patrón distinto de rendimiento en tareas
que implicaban a los amortiguadores fonológicos de entrada y salida. Su rendimiento era malo
en tareas de M.C.P y producción verbal. Pero era normal en tareas que no requerían una
producción verbal.
Los pacientes con una M.C.P auditiva trastornada se agrupan en grupos de rendimiento, en
tareas de valoración visual de palabras homófonas, valoración de pseudo homófonas y en tareas de
decisión visual y auditiva:
Algunos pacientes mostraban una incidencia de lesión en el amortiguador de entrada, al tener
perturbaciones en tareas distintas a la valoración de palabras homófonas.
Otros pacientes mostraban evidencias de lesión en el amortiguador de salida, trastornos en
tareas que no fueran valoraciones de rimas auditivas.
En la actualidad se considera que el papel del bucle fonológico, está limitado al aprendizaje de
nuevas palabras.
Pacientes con una memoria fonológica a corto plazo trastornada, tienen problemas para
aprender otro idioma. Ya que esta memoria se utiliza para sostener nuevas formas fonológicas, de
modo que puedan llegar a convertirse en representaciones más duraderas.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
Las representaciones semánticas de los componentes focales son resueltas por el ejecutivo
central. Es posible que el ejecutivo central desempeñe un papel en el análisis sintáctico, al
computar los procesos del mismo, y al manipular los resultados intermedios de estos cálculos.
Algunos investigadores afirman que el bucle fonológico mantiene ciertas palabras en la M.C.P
para ayudar al análisis sintáctico. Otros han afirmado que no desempeña ningún papel en el
análisis sintáctico, pero que está implicado en el procesamiento posterior, cuando se ha
interpretado la frase semánticamente.
Rochon analizó a pacientes con Alzheimer, y concluyó que la M.C.P no está involucrada
directamente en el análisis sintáctico. Una memoria limitada puede afectar al posterior
procesamiento integrador.
La memoria auditiva a corto plazo está implicada en muchas tareas lingüísticas. Una lesión en
el bucle fonológico tiene pocas consecuencias para el procesamiento del lenguaje.
Todos los Afásicos (pacientes con trastornos en la producción y comprensión del lenguaje),
tienen trastornos en el alcance, pero no todos los individuos que tienen trastornos de alcance, son
afásicos.
Lenguaje 3º GRADO Realizado por Patricia Enamorado Jurado, relaborado Aitziber Laguardia
Curso 2011-2012 UNED
La idea de los componentes múltiples está respaldada por la evidencia de los estudios
neuropsicológicos, que demuestran que algunos pacientes con un alcance reducido tienen peor
rendimiento en tareas que implican información semántica. Los componentes del procesamiento
léxico, son los componentes del sistema de la memoria.
Los déficits de la memoria fonológica a corto plazo, están relacionados con una lesión en la
región temporo parental del cerebro.
Los déficits de la memoria semántica a corto plazo, están relacionados con una lesión en las
regiones frontales.
La investigación sobre el lenguaje, sugiere que hay dos almacenes fonológicos implicados en el
bucle fonológico: Un amortiguador de entrada, y un amortiguador de salida y que se pueden
trastornar ambos, de forma selectiva.
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
2. ¿Están los procesos del lenguaje aparentemente distintos relacionados entre sí? O, por ejemplo
¿hasta qué punto están implicados los procesos de lectura en el acto de hablar?. Pues, aunque
exista un cierto solapamiento, también hay una separación.
3. ¿Los procesos del lenguaje son dependientes, independientes o interactúan entre sí?
En los modelos modulares, las cajas realizan sus computaciones de forma independiente a
las demás, que sólo tienen acceso al producto final.
Los modelos interactivos permiten que las cajas utilicen el contenido de otras cajas que
todavía están realizando su procesamiento, o se les permite empezar con su procesamiento
antes de que la anterior termine el suyo.
Aunque hay un gran desacuerdo entre los psicolingüistas, al autor de este libro le parece que el
procesamiento del lenguaje es interactivo, no niega la existencia de módulos, pero los entiende
con filtraciones: no es necesario que los módulos tengan la información encapsulada. Hoy en día
el debate ha avanzado: no se discute si los procesos son modulares o interactivos, se discute el
curso temporal detallado del procesamiento (los psicolingüistas dejan a un lado lo general para
centrarse en los detalles de lo que ocurre). Se le da al contexto la posibilidad de causar distintos
efectos en diferentes niveles del procesamiento.
4. ¿Qué hay de innato en el lenguaje? Esta sigue siendo una cuestión controvertida: todavía hay
desacuerdo sobre si el niño en desarrollo necesita un contenido innato para poder adquirir el
1
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
lenguaje. El conexionismo ha mostrado cómo puede ser el lenguaje un proceso emergente cuyo
desarrollo depende de restricciones generales, pero la polémica sigue estando servida.
5. Cuando analizamos el procesamiento del lenguaje, ¿tenemos que recurrir a reglas explícitas?
Pues tampoco hay acuerdo todavía en este tema tampoco, los conexionistas se muestran en
contra de la utilización de reglas explícitas, mientras que los tradicionalistas se muestran a
favor.
6. Grado en que los procesos del lenguaje son específicos al mismo: De nuevo división entre los
que defienden que los niños necesitan información específica al lenguaje para poder adquirirlo
(origen innato) y los que defienden que la adquisición sólo necesita principios generales de
aprendizaje (como la capacidad de utilizar información sobre la distribución probabilística)
7. ¿Hasta qué punto los resultados de los experimentos son sensibles a las técnicas utilizadas?
Este punto queda claramente ejemplificado por el debate sobre el nombramiento y la decisión
léxica (si miden lo mismo o no)
8. La neuropsicología cognitiva y los estudios de lesión han proporcionado algunas de las
contribuciones más importantes e interesantes de la psicolingüística.
9. El lenguaje es multicultural: todos partimos de los mismos módulos preconfigurados, pero
varían ligeramente respecto a lo que hacen, habiendo por tanto diferencias multilingües
importantes con interés teórico.
10. Deberíamos poder aplicar la investigación de la psicolingüística a los problemas
cotidianos: Podemos discernir 5 aplicaciones clave:
Lo que sabemos de la lectura y de la comprensión se puede aplicar a mejorar los métodos de
enseñar a leer
Estas técnicas también deberían ser útiles para ayudar a los niños con discapacidades del
lenguaje.
La psicolingüística nos ayuda a mejorar la forma de aprender, tanto en la infancia como en
la vida adulta
Las lesiones cerebrales nos han mostrado cómo se trastorna el lenguaje, lo que tiene
consecuencias para el tratamiento y la rehabilitación de los pacientes con lesiones
cerebrales.
Sería muy ventajoso que pudiésemos desarrollar computadoras que comprendieran y
produjeran el lenguaje, pero el contexto en el procesamiento a nivel superior es un gran
obstáculo en este campo.
2
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Por lo general la tendencia va hacia modelos más inclusivos que abarcan fenómenos más
complejos (Ej.: como el procesamiento de las palabras morfológicamente sencillas se comprende
relativamente bien, ahora crece el interés por palabras con mayor complejidad).
1. Las nuevas técnicas son más precisas y más accesibles. Sirva de ejemplo las imágenes del
cerebro obtenidas mediante escáner.
2. Probablemente adquiera mayor importancia la neuropsicología cognitiva y la neuropsicología
conexionista. Un posible desarrollo es el dela modelización detallada de los casos individuales
singulares.
3. Podemos esperar el uso de datos evolutivos para ayudar a resolver problemas en los adultos.
Los modelos desarrollistas estarán más orientados a los procesos, tendremos una idea más clara
de cómo cambia el procesamiento a lo largo de la infancia antes de estabilizarse en la forma
adulta.
3
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
Recordemos que, según Chomsky, el lenguaje es una facultad innata especificada por el
dispositivo de adquisición del lenguaje. Todos los idiomas., al estar gobernados por la forma de
este dispositivo, son similares en un nivel profundo. Las diferencias entre idiomas se reducen a las
propias del vocabulario y a los parámetros fijados con la exposición a determinado idioma.
Una perspectiva alternativa es la conexionista: las restricciones que provienen del desarrollo
general y las restricciones inherentes a los datos, dan como resultado similitudes en el desarrollo y
procesamiento de los distintos idiomas (supongo yo que esto querrá decir que si todos los
parlantes de un idioma fallan en cosas parecidas, será porque en el fondo se encuentra el mismo
tipo de procesamiento, lo que dará lugar a los mismos problemas en su desarrollo). Sobre las
diferencias importantes en cuestión de arquitectura y sobre sus consecuencias, queda mucha
investigación al respecto.
Son muchos los campos en los que resulta útil la comparación de los idiomas:
La observación de que existen restricciones similares sobre las reglas sintácticas se ha utilizado
para defender el concepto de una gramática universal. Pregunta que nos queda por responder:
¿hasta qué punto puede la visión conexionista, por la que el lenguaje es un proceso emergente,
explicar estos hechos?
El estudio de un único idioma (el inglés) pudo habernos dado una perspectiva distorsionada del
proceso del análisis sintáctico.
Las similitudes y diferencias de los distintos idiomas tienen consecuencias para el desarrollo
del lenguaje. P. ej. El análisis multilingüe del desarrollo del género constituye un argumento en
contra de una base semántica del desarrollo de las características sintácticas.
El análisis de distintos idiomas establecen una correspondencia entre la ortografía y la
fonología de distintas maneras ¿qué es lo que esto nos está diciendo sobre la lectura? ¿se
descomponen los distintos idiomas de distintas maneras tras una lesión cerebral?
Nos queda mucho por aprender sobre el bilingüismo, como tema por derecho propio y como
medio para investigar procesos subyacentes del lenguaje.
4. Conclusión
El objetivo final de la psicolingüística es lograr una teoría detallada y unificada del lenguaje y
de cómo se relaciona con otros procesos cognitivos. Las variables a controlar son muchas y cada
4
Lenguaje 3º GRADO Aitziber Laguardia Lizarraga
Curso 2011-2012 UNED
vez la lista es mayor, ¿seremos pues capaces de realizar algún experimento de psicolingüística en
esta década? La respuesta, evidentemente, es “sí”, pero cada vez se hace más difícil y los
supuestos tienen que ser cuidadosamente justificados, debemos cuidar la elección de los
materiales, puede que no nos baste con controlar las variables que creemos, debemos controlar,
debemos controlar también el fenómeno de que la experiencia previa del investigador en otros
experimentos pueda, inconscientemente, interferir en la estructuración del material en uno nuevo,
por lo que debemos recurrir a la aleatorización del material a presentar.
Lo que parece quedar claro tras el estudio de este libro es que hay mucho que desconocemos y
muchas ocasiones en que las interpretaciones son contradictorias de los datos.