Академический Документы
Профессиональный Документы
Культура Документы
Racionalismo. Descartes:. Cogito ergo sum (pienso, luego, existo). Los sentidos no son una
fuente de conocimiento fiable. En el hombre hay ideas innatas que no dependen de la
experiencia sensorial y que constituyen el fundamento de nuestras certezas más
fundamentales. Daba gran importancia a los procesos del pensamiento.
Locke: Teoría de la tabla rasa: somos como una hoja en blanco que se imprime con la
experiencia. Las ideas pueden tener su origen en las sensaciones proporcionadas por los
sentidos, o bien por reflexión. (Conocimiento de la mente sobre sus propias operaciones).
Hume utilizo el término “impresión” para referirse a los datos sensoriales y perceptivos y
reservo el término idea para referirse a las “débiles copias” de las impresiones que tenemos en
la memoria. Lo importante del empirismo es entender la idea de que las sensaciones son
elementos irreductibles del conocimiento, y que el conocimiento complejo era el resultado de
la asociación de diferentes sensaciones simples.
1811 Charles bell y François Magendie: Las funciones sensoriales estaban mediadas por un
conjunto de nervios que eran diferentes de los que mediaban las funciones motoras.
1820. Johannes Müller: doctrina de la energía específica de los nervios (hoy en día no es
aceptada). Cada sensación estaba determinada por la actividad específica de los nervios
sensoriales independientemente de cual fuera el estímulo que causara la actividad.
Los fisiólogos y los físicos del siglo XIX: sensación como hecho mental o dato de la consciencia
e idearon procedimientos experimentales para estudiarlos. Empezaron a aparecer resultados
que dieron paso a la psicofísica.
1834 Weber: estudio los nervios que responden al estado de nuestros músculos, también
contribuyen a nuestro sentido del tacto cuando tratamos de juzgar el peso de los objetos.
Introdujo el concepto de diferencia apenas perceptible. Comprobó que no se trataba de una
cantidad absoluta sino que se aproximaba a una razón constante del peso que se estaba
juzgando.
Reid:“ Una teoría del conocimiento basada exclusivamente en sensaciones estaba abocada al
escepticismo”. Quería establecer el valor real y objetivo del conocimiento. Para él la
percepción es mucho más que una sensación, aunque depende de las sensaciones. La
percepción, a diferencia de la sensación incluye 2 elementos: 1, la concepción del objeto y 2,
irresistible convicción de la existencia de ese objeto.
La teoría clásica considera que la percepción está determinada por estructuras mentales que
no son innatas, sino que son el resultado de un proceso de aprendizaje perceptivo a partir de
experiencias sensoriales elementales. El punto de vista clásico fue empirista y trato de
integrar en una teoría unitaria las principales aportaciones existentes para el estudio de la
percepción. Tres aspectos fundamentales de la teoría clásica:
Para Muller cada sensación era el resultado de una energía nerviosa específica. A partir del
análisis se pretendía determinar esas energías. Concepto de umbral absoluto, y de umbral
diferencial. Imprescindibles para medir
Teoría clásica:
Estimulo próximo: hace referencia a las propiedades de la estimulación que actúa sobre
nuestros receptores.
En percepción, las características más importantes que captamos de los objetos son sus
características distantes. LA PERCEPCIÓN DE LAS CARACTERÍSTICAS DISTANTES NO SON UNA
RESPUESTA SENSORIAL DIRECTA, SINO UNA PERCEPCIÓN COMPLEJA APRENDIDA.
Stevens: Ideo métodos directos para conseguir escalas de razón en la medición de las
respuestas sensoriales. Formulo su ley potencial psicofísica que dio origen a lo que hoy se
conoce como nueva psicofísica, que se distingue de la psicofísica clásica de Fechner
METODOS: el PI reintrodujo el estudio del tiempo de reacción como una de las principales
variables dependientes para hacer inferencias.
Donders: método sustractivo: El TR puede dividirse en una serie de fases que correspondía a
una operación elemental componente de la tarea. Tareas A (tarea de tiempo de reacción
simple o tarea de detección, solo implica detección), Tareas B (tarea de tiempo de reacción de
elección o tarea de discriminación, implica detección, discriminación y selección de
respuesta) y Tareas C (tiempo de reacción selectivo o tarea de “responde” o “no respondas”
implica detección y discriminación). Supuso que cada una de estas tareas estaba compuesta
por un número concreto de procesos elementales, y que se podía aislar el tiempo empleado en
cada proceso elemental
Teoría de detección de señales (TDS) muy próxima al PI. Ha sido utilizada como procedimiento
para medir las inferencias basadas sobre las medidas de precisión. Los modelos matemáticos
introdujeron el concepto de simulación.
NIVELES DE ANALISIS:
2 nivel algorítmico: específica cómo se llevan a cabo los procesos del sistema. Se pregunta por
el modo en que el sistema resuelve sus problemas.
Los tres niveles de análisis pueden estar muy relacionados entre sí. Hay que tener claro que
no tiene sentido buscar la explicación del comportamiento como si hubiera una única causa.
Una explicación solo tiene sentido en relación con una pregunta en un determinado nivel de
análisis; no necesitamos explicaciones en niveles distintos para entender los sistemas.
A) Esbozo primario (hace explicita la info acerca de la imagen bidimensional, primero los
cambios de intensidad, y luego la distribución geométrica y organización de los cambios.).
C) modelo 3D. en esta fase se consigue una representación de las formas y de su organización
espacial en un marco de referencia centrado en el objeto mismo, utilizando una
representación jerárquica y modular de primitivas volumétricas, y de superficie. El input de
esta última fase es el resultado de la fase anterior, y el resultado final son los modelos
tridimensionales organizados jerárquicamente. Muchos aspectos de la teoría de David Marr se
han visto superados, pero su forma de abordar la investigación ha marcado un antes y un
después en la investigación de la percepción visual. Marr fue el auténtico pionero de la
neurociencia computacional.
Las conexiones entre unidades pueden ser excitatorias o inhibitorias. Y define lo que se llama
el patrón de conectividad que puede variar en función de las sucesivas experiencias. Al final de
la primea fase de las fases de la teoría, el procesamiento visual alcanza las características
primitivas de representación simbólica. Cuando en una relación existe una correspondencia
entre los elementos que forman la representación, y los aspectos de la escena representada,
se dice que es una representación local. Propusieron construir representaciones con
inspiración neuronal y procesos que funcionan al estilo del cerebro. Esta aproximación
también se conoce como “redes neuronales”. Son conceptos importantes para entender las
redes neuronales, la regla de activación, el estado de activación, y concretar la función del
output. Cada una de las tres capas de la red está formada por un conjunto de unidades
elementales de procesamiento. Primera capa input, tercera output y segunda está formada
por unidades ocultas. Las redes neuronales dan lugar a representaciones distribuidas en las
que no se puede establecer una correspondencia uno a uno entre las entidades del mundo
representado y las entidades de la red. Una manzana no estará representada por una única
unidad sino por un conjunto de unidades cuyo patrón de activación conjunto corresponderá a
la manzana representada, por el contrario, cualquier unidad de red puede formar parte de
otros patrones de activación diferentes que a su vez correspondan a otros objetos del medio
ambiente. La investigación de redes neuronales ha puesto de manifiesto que la acción
coordinada de las unidades de una red, da origen a propiedades emergentes capaces de
simular procesos cognitivos.
Hubel y Wiesel publicaron trabajos sobre las neuronas de la corteza estriada de los gatos.
MARCO TEORICO: Esta obra, se enmarca dentro de la aproximación cognitiva, conocida como
PI. En la medida que el computacionalismo, representa la madurez del PI, se considera que la
teoría de David Marr se considera un punto de inflexión que da paso a las teoría moderna de la
percepción visual. La visión proporciona info precisa y a distancia sobre los objetos y sobre la
posición espacial de los mismos en el medio ambiente, a partir de la luz que los objetos
emiten o reflejan. La precisión de la visión es un requisito indispensable para la supervivencia
de los organismos. La visión a veces no engaña, y las ilusiones ópticas constituyen un conjunto
de fenómenos que una teoría de la percepción debería explicar. Normalmente la info es
verídica y proporciona al organismo info lo suficientemente precisa como para guiar sus
acciones de forma eficaz. La visión comparte como características con el oído y el olfato, que
no necesita contacto para recibir la info. Lo puede hacer a distancia. El tacto y el gusto
requieren contacto. La característica más específica y definitoria de la visión es que la info
sobre los objetos y su posición espacial, se emite a partir de la luz que emiten o reflejan. El
problema central de la percepción consiste en recuperar las propiedades validas de ese mundo
externo a partir de la info de los sentidos.
En el procesamiento de la info, es necesario tomar en cuenta las diversas fases mediante las
cuales el sistema visual procesa las info estimular y la convierte en conocimiento para el
organismo del medio ambiente en el que se desarrolla su actividad. El concepto de
representación es central en la teoría del PI pero no debemos entenderlo de una forma
simplista como una especie de foto dentro de la cabeza, sino como un complejo sistema de
correspondencia entre las características del medio, y los códigos neuronales que permiten al
sistema visual recuperar internamente la info relevante del medio.
PRINCIPALES FASES DEL PI: categorización del objeto, representación del objeto,
recuperación de superficies y análisis de la imagen. Las tres primeras se corresponden con las
de Marr. Al final de la tercera fase, el sistema visual ha sido capaz de obtener una
representación perceptiva con los objetos individuales y de la escena concreta presente en la
estimulación. El Pi va más allá, y considera la última fase de categorización en que las
representaciones alcanzan un significado, al entrar en relación con el mundo conceptual del
observador. El esquema general del Pi es declaradamente constructivista. Simpatiza con el
constructivismo de la teoría clásica pero no es del todo empirista. El sistema responsable de la
percepción visual es el resultado de un largo proceso de selección natural que nos proporciona
desde el nacimiento unos mecanismos cuya maduración y funcionamiento dependen de la
exp. Individual, pero no son “una hoja en blanco” sino que está dotado de pautas de
funcionamiento predeterminadas. Se trata de determinar empíricamente el papel del
innatismo y empirismo en la explicación de la percepción.
1 Radiometría, Sistema de medición de la energia( que considera la luz como cualquier otro
tipo de energía).
LA CODIFICACIÓN DEL COLOR para Newton el color no era una propiedad de la luz. No se
podía decir que los rayos de luz tuvieran un color determinado. El color es una sensación
consciente resultante de la interacción de nuestros sentidos con la estimulación luminosa.
La longitud de onda: ”Distancia recorrida hasta que la función de onda se repite. ”es el
parámetro estimular preferentemente relacionado con la sensación de color pero solamente
representa el primer paso en la cadena causal de acontecimientos. Al conjunto de procesos
que completan esa cadena causal podemos llamarlos procesos de codificación del color ya
que transforma un código físico expresado en los en términos de longitudes de onda, en un
código psicológico expresado en forma experiencia consciente de color.
El color tiene tres atributos básico: Son atributos psicológicos que hacen referencia nuestra
experiencia consciente y deben ser claramente diferenciado de las dimensiones físicas del
estimulo
-Matiz: “Cualidad que diferencia un color de otro”. Existe una alta correlación entre longitud
de onda y matiz. A los colores tanto espectrales, como los no espectrales se les del nombre de
Cromáticos Los colores del arcoíris son colores espectrales. (Su matiz está relacionado con una
longitud de onda determinada) No confundir el matiz con la longitud de onda. Los colores no
espectrales (púrpura p.ej.) no están relacionados con la longitud de onda determinada. Su
matiz está relacionado con una mezcla de longitudes de onda.
Los colores acromático son el blanco el gris y el negro. Se comprende mejor en relación a la
dimensión de claridad que con el matiz. El matiz hace referencia a los aspectos
cualitativamente diferentes de la experiencia de color que tienen relación con diferenciar
longitudes de onda o con mezclas de longitudes
-Brillo/claridad. . El brillo y la claridad son dos atributos aunque sean distintos están
relacionados. El brillo es el atributo de la sensación visual por el que un estímulo visual aparece
más o menos intenso. El brillo se refiere a la cantidad de luz que un estímulo visual parece
emitir y se relaciona con la Luminancia. La claridad es un atributo de la sensación visual
Las dos partes del campo visual, a pesar de tener la misma apariencia no tienen la misma
distribución espectral, por lo que el color resultante de la mezcla de tres luces primarias
conocen como metámeros.. La comisión internacional de iluminación (cia) ha utilizado como
primarios de sus sistemas R G B(Red 700nm, Green 546nm Blue 435,8 nm). Estas cantidades
se denominan valores triestímulo y están expresadas en unidades tricomáticas. No se puede
decir que la apariencia de cualquier color puede ser igualada por la mezcla de tres luces
primarias, sin embargo sí es verdad que la igualación de cualquier color puede lograrse
mediante la manipulación de estas tres luces primarias que incluyen todos los colores.
La ecuación del color es la expresión que determina la cantidad de cada luz primaria necesita
para lograr la igualación de color. La mezcla de luces puede expresarse en términos de una
ecuación lineal porque cumple las propiedades de homogeneidad y superposición. La
superposición supone que sea a ambos lados del ecuación se sumó una constante la igualación
persiste. Esta propiedad suele conocerse con el nombre de ley aditiva de Gassman. La
homogeneidad supone que una igualación persiste si ambos términos de la facción se
multiplican por una constante.
En la mezcla de ambos pigmentos, el azul absorbe las longitudes de onda alta y el amarillo
absorbe las longitudes de onda baja por lo que en la mezcla de las longitudes de onda sale el
verde (longitud media). En la mezcla de luces, realizado en las debidas proporciones la mezcla
de azul y amarillo hubiera producido un efecto gris ya que el azul y amarillo son colores
complementarios.
Monocromático: totalmente ciega para los colores (necesita sólo una longitud de onda
para igualar cualquier otro color)
Dicromático: parcialmente ciego para los colores (iguala cualquier longitud de onda
mezclando otras dos):
DE VALOIS: descubrieron que en el núcleo geniculado lateral (NGL) del tálamo de primates,
células que respondían al color de una forma parecida a la explicada en los procesos
oponentes. Unas células eran activadas por la luz roja de individuos por la luz verde y otras
respondían de forma opuesta. El conjunto de células descubiertas por de Valois presentaban
un patrón de codificación del color que estaba de acuerdo con la teoría de los procesos
oponentes.
CATEGORIZACIÓN DEL COLOR: el espectro visible está formado por una banda
continua de longitudes de onda entre los 400 y 700 nm toda la gama de longitudes de onda es
codificada por tres tipos de receptores y decodificada posteriormente sobre la base de tres
pares de colores oponentes: rojo-verde, amarillo-azul y blanco-negro. El mundo de los colores
está abierto al aprendizaje discriminativo y es resultado de influencias culturales que
Franz Boas:los esquimales tienen palabras para discriminar más de dos equipos de nieve. Esto
es debido a su adaptación al medio ambiente polar y a la necesidad de asignar significación a
cosas que pasan inadvertidas en otras culturas
Berlin y Kay: definieron como términos básicos de color aquellos que reúnan las siguientes
condiciones:
3) se deben poder utilizar para designar el color de una gran variedad de objetos. (moreno no
sirve)
Kay y McDaniel: incluyeron términos que hacen referencia a su conjuntos de los dos
anteriores. Los 4 términos añadidos fueron: cálido, que puede referirse a rojo o amarillo, frío
para el azul o verde, claro-cálido, que abarca blanco, o rojo o amarillo, y oscuro-frío, para el
negro o azul o verde
Las categorías conceptuales de los colores están organizadas de forma que unos colores
determinados son los más representativos y actúan como prototipo de la categoría, mientras
que el resto o se categorizar por semejanza con los distintos prototipos
Zeki y Marini: encontraron indicios sobre las estructuras neuronales que pueden estar
implicadas en las fases superiores de procesamiento de color. Utilizaron una resonancia
magnética funcional para registrar la actividad cerebral de los participantes ante la proyección
de escenas. Demostraron que al comparar activaciones producidas por colores apropiados con
las producidas por los mismos objetos pero acromáticos, se producía una mayor activación del
giro fusiforme. También se activó elegido parahipocampal, situado en la zona media del lóbulo
temporal, y el mismo hipocampo. Estas zonas no se activaron cuando los objetos mostraban
color es inapropiados. Zeki: las estructuras neuronales no llevan a cabo un análisis abstracto
del color, sino que están relacionadas con la interacción del color con los objetos y con la
memoria de los colores de los objetos. Es probable que estas estructuras estén relacionadas
con la categorización del color.
TIPOS DE CELULAS:
las células simples tienen campos receptivos con una forma más complicada que las células
ganglionares o las del núcleo geniculado del tálamo, que tienen campo receptivo circular.
Mantiene una estructura antagónica centro-contorno en la que uno o el otro puede ser
excitador (on) o inhibidor (off). Cuando los estímulos son mayores que un punto de luz la
respuesta de la célula aumentar de forma lineal a medida que aumenta la cantidad de luz
sobre la zona excitadora o disminuye a medida que aumenta la cantidad de luz en la zona
inhibidora. Unas células tienen un área excitadora en un lado y otra área inhibidora en el otro,
por lo que responden preferentemente a bordes de luminancia formados por la transición de
luz a oscuridad, por ello se les llama detectores de bordes. El tamaño de los campos receptivos
de las células simples depende de su posición en la retina con relación a la fóvea. En la zona de
la fóvea los campos receptivos son más pequeños que en la periferia.
Las células complejas fueron las primeras que descubrieron Hubel y Wiesel, ya que son las
más abundantes en la corteza visual estriada (75%). Se diferencian de las células simples en:
Tienen campos receptivos más grandes. No responden de forma específica a la posición de
una línea dentro del campo receptivo. Son muy sensibles al movimiento o de las líneas que
sirven de estímulo. La respuesta de las células complejas no es lineal respecto a la cantidad
de luz recibida, al contrario que la respuesta de las células simple.
Las células hipercomplejas parecen tener un campo receptivo más selectivo que las células
complejas. Son grupos particulares tanto de células simples como complejas que presentan
una sensibilidad gradual a la presencia de una terminación.
Hubel y Wiesel: organización retinotópica: la corteza estriada presenta ciertas similitudes con
la organización de la retina, en el sentido que las áreas adyacentes de la retina proyectan
sobre arias en la corteza que también son adyacentes. Magnificación cortical: es una
distorsión característica de la representación retinotópica de la corteza estriada debido a que
la zona central de la retina ocupa un área más amplia en la corteza que en la zona periférica.
Psicologia de la percepción. David Mejías Méndez 2013 UNED
Página 18
Es consecuencia de la mayor densidad de receptores existentes en el centro de la retina en
comparación con la periferia. El análisis que la corteza visual realizan el centro de la retina es
más detallado que en la periferia
Área 17. Capa IV Área 17. Capas II, III, V y VI Áreas 18 y 19 del lóbulo
occipital
La teoría de la frecuencia espacial surgió como una alternativa a la teoría de los detectores
de características. El patrón estimular debe ser considerado como una onda compleja de
intensidad luminosa que es analizada por el cerebro en términos de sus componentes
elementales de frecuencia espacial. Las células de la corteza estriada actúan como filtros
espaciales, que responden preferentemente a unas frecuencias determinadas.
EL CONCEPTO DE FRECUENCIA ESPACIAL: Por muy compleja que sea una banda siempre la
podemos analizar en términos de componentes simples llamadas ondas sinusoidales.
Enrejado sinusoidal: “Enrejado en el que los cambios de luminancia son suaves y continuos”.
Enrejado de onda cuadrada: “Enrejado en el que los cambios periódicos de luminancia son
bruscos”. De la misma forma que las ondas sinusoidales son los elementos más simples en que
podemos analizar una banda, los enrejados sinusoidales son los estímulos más simples que
podemos utilizar para estudiar la sensibilidad del sistema visual a la frecuencia espacial.
1) su frecuencia espacial viene dada por la anchura de sus zonas claras y oscuras. Un
enrejado en el que las zonas claras y oscuras son anchas tendrá menor frecuencia espacial
que una enrejado en el que las zonas son estrecha ya que el número de ciclos por unidad
de distancia de la banda asociada al enrejado será mayor en el segundo caso. La unidad de
distancia que se utiliza es el ángulo visual. Nos permite relacionar todas las medidas con el
observador. Los ángulos están directamente relacionados con el tamaño de la imagen
retiniana y este, también se relaciona directamente con el tamaño del estímulo y se
relación inversamente con la distancia a la que está el estímulo.
2) La amplitud de onda de un enrejado es la mayor o menor intensidad luminosa de sus
zonas claras u oscuras un concepto importante derivado de la amplitud es el de contraste.
Hace referencia a la diferencia entre zonas claras y oscuras y se define así:
contraste=(imax-imin) /(imax +imin) (punto de máxima intensidad y de mínima intensidad
luminosa el enrejado).
3) La fase de un enrejado se refiere a la posición de la oscilación de la banda sinusoidal en un
movimiento o determinado que sirve como punto de referencia. La fase se mide en grados
con relación al punto de referencia. En el punto en que comienza la fase 0º (fase seno) Si
la onda empezara en el punto máximo de su Valor positivo se diría que está en fase 90º
La síntesis de una onda cuadrada puede aproximarse de forma bastante satisfactoria utilizando
un pequeño conjunto armónicos aunque en teoría el número de componentes sinusoidales de
una onda cuadrada sea infinito.
EVIDENCIA EXPERIMENTAL: ”la psicofísica trata de establecer las relaciones entre las
características físicas de los estímulos y la experiencia consciente de las personas utilizando
métodos comportamentales.”
A partir de los 50 ciclos no somos capaces de percibir diferencias entre un enrejado y una
superficie de luminancia homogénea. Si el experimento o determinación del umbral de
contraste se hiciera en condiciones de visión escotópica la sensibilidad a todas las
frecuencias sería mucho menor pero afectaría más a las altas que las bajas. Esto se produce
por la ausencia de la contribución de los conos, se perdería la agudeza visual que permite
percibir los detalles de un objeto.
Graham y Nachmias: si el sistema visual funciona de acuerdo con un modelo de canal único en
el que el estímulo se procesa común a totalidad, el estímulo con mayor contraste sería el más
fácilmente detectable. Sin embargo si el sistema visual analiza el estímulo respondiendo
diferencial mente sus componentes sinusoidales, los estímulos mostrarán el mismo umbral de
detección ya que la amplitud y frecuencia de sus componentes es la misma. “Existen
múltiples canales en de procesamiento de frecuencias espaciales” Aún no se ha conseguido
aislar esos filtros a nivel fisiológico. Por ahora son entidades hipotéticas.
EL ESBOZO PRIMARIO: esta primera fase hace explícitos los cambios de intensidad de la
imagen que proporcionan las vías visuales, como la distribución de esos cambios selecciona y
su organización geométrica. La descripción explícita se hace mediante características
primitivas simbólicas de la imagen que según el autor son iv: bordes, varas, terminaciones y
manchas y los parámetros fundamentales de cada una de esas características primitivas son:
posición, tamaño, orientación y contraste. El punto de partida es la imagen bidimensional.
Para Marr el sistema visual se hace simbólico muy pronto, en la primera fase de
procesamiento, se produce una imagen considerablemente reducida en comparación con la
imagen original, pero sigue conservando aspectos necesarios para el análisis del imagen. Las
superficies constitutivas de las imágenes visuales son estables, tiene un alto grado de
homogeneidad y las transiciones de luminancia dentro de ellas tienden a ser suaves y no
brusca. El esbozo primario tiene dos fases el esbozo primario bruto (basada las características
primitivas) y esbozo primario completo permite agrupar las características primitivas en
conjuntos y zonas que estructuran la escena.
LAS BASES FISIOLÓGICAS DEL ESBOZO PRIMARIO BRUTO: Marr pensó que el campo receptivo
de las células ganglionares y de las células del núcleo geniculado lateral del tálamo muestran
características similares a las del operador utilizado por ello. Los puntos de cruce de cero están
flanqueados por valores extremos de la segunda derivada de la función de luminancia. Las
células del núcleo geniculado están organizadas de forma que un conjunto de células con
centro off y entorno on estén alineadas y adyacentes a un conjunto o alineado de células con
Una conclusión importante de este capítulo es que los conceptos de filtros de frecuencia
espacial y detectores de características son los conceptos fundamentales sobre los que se
basa gran parte de la teoría de la percepción de la forma en la actualidad. Palmer establece
una jerarquía de procesos diferentes.
CLAVES DE LA PROFUNDIDAD en primer lugar trataremos las claves monoculares, que están
disponibles para cada uno de los ojos con independencia del otro, y después las binoculares,
que resultan de la integración de la información de los dos ojos, como es en el caso de la
convergencia y de la estereoscópica.
MONOCULARES hemos de considerar las estáticas y las dinámicas.. Las claves estáticas
pueden ser, oculares y pictóricas.
Acomodación: es un cambio en la forma del cristalino necesario para mantener la imagen del
objeto focalizada sobre la retina. Este proceso se lleva a cabo mediante la contracción de los
músculos ciliares cuya contracción provoca el aumento de grosor y cuya relajación lo
disminuye. Las investigaciones sobre el Valor de la acomodación como indicador de la
distancia han mostrado que solamente es efectivo en distancias cortas, inferiores a dos
metros y medio. Este indicador proporciona información sobre la distancia absoluta a la que se
encuentra un objeto. La mayor parte de indicadores monoculares de profundidad
proporcionan información sobre la distancia relativa de los objetos señalando cual nos es más
próximo pero no a qué distancia se encuentra. El conocimiento de la distancia absoluta a la
que se encuentran los objetos es necesario para poder alcanzarlos con precisión y para
moverse en su entorno sin tropezar con ellos.
Perspectiva aérea: hace referencia a los cambios de contraste y color que experimenta la
percepción de los objetos cuando se encuentran a gran distancia del observador. El contraste
tiende a reducirse haciendo la imagen más borrosa.
Tamaño relativo: si dos objetos son presentados en el campo visual simultáneamente, aquel
que produce una imagen retiniana mayor, pareciera estar más cerca.
Tamaño familiar: “Clave de profundidad determinada por el recuerdo que tenemos de los
objetos” es un ejemplo del efecto que la experiencia puede tener sobre los procesos de
percepción.
Gibson (1950) la percepción de una escena tiende a organizarse como si estuviera iluminada
por una sola fuente de luz y desde arriba.
Las sombras una zona de la escena a la que no llega a la iluminación por haber sido bloqueada.
La forma de la sombra depende de varios factores: proximidad de la fuente de iluminación, su
dirección, la forma del objeto que proyecta la sombra, el relieve de la superficie sobre la que
es proyectada y la posición relativa entre la fuente, el objeto o y la superficie.
INTERPOSICIÓN: los objetos que se encuentra más alejados pueden quedar total o
parcialmente ocultos a un observador por la presencia de otros objetos que se encuentren en
su línea de visión.
FLUJO ÓPTICO Gibson: el Paralaje de movimiento o no es más que una consideración parcial
de un patrón global de estimulación al que llamó flujo óptico. Puso el énfasis en las
transformaciones del patrón global de estimulación cuando el observador se mueve en el
medio ambiente. Gibson acentuó la importancia de los gradientes de movimiento refiriéndose
a cambios graduales en velocidad y dirección que tienen lugar en la escena visual. Cuando el
observador se acerca a un objeto o se produce el fenómeno de expansión óptica y consiste en
que el punto de fijación permanece estático en la fóvea mientras que el resto de puntos en el
campo visual divergen hacia el exterior en todas las direcciones a partir del punto de fijación y
una velocidad mayor cuanto más alejados están del punto de fijación.
Cuando el movimiento se aleja del punto de referencia del patrón que se produce es la
contracción óptica en el que los puntos del campo visual tienden a converger hacia el punto
de fijación.
CONVERGENCIA BINOCULAR: cuando fijamos la visten un objeto o las líneas de visión de cada
uno de los ojos convergen en el punto de fijación. El ángulo formado por estas líneas
convertirse en el punto de fijación se llama ángulo de convergencia. Si el objeto se aproxima
nosotros, el ángulo de convergencia tiende hacerse mayor y si el objeto se aleja, el ángulo de
convergencia tiende a disminuir. La convergencia binocular, al igual que la acomodación, es
una clave fisiológica porque el tipo de información que proporciona se refiere a los ajustes
oculomotores que controlan la posición de los ojos.
De forma sencilla, puede considerarse la distancia inter pupilar como el arco de un círculo y
la distancia como su radio, con lo cual resulta el Valor del ángulo. La variación del ángulo de
convergencia solo tiene lugar en distancias no superiores a uno o dos metros. Más allá de los
tres metros de distancia la posición de los ojos no cambia por mucho que el objeto se aleje.
La convergencia binocular actuar conjuntamente con la acomodación. En conclusión, tanto la
convergencia como la acomodación son claves sutiles en distancias cortas y además tienen el
Valor añadido de proporcionar información sobre la distancia absoluta a la que se
encuentran los objetos, cosa que pocas claves de distancia proporciona.
CONCEPTOS FUNDAMENTALES: Los puntos de cada retina sobre las que cae la proyección se
llaman puntos correspondientes, ya que si superpusiéramos la retina de un ojo sobre la retina
del otro: coincidiría. Cada punto de una retina tiene su correspondiente. La estimulación de
puntos correspondientes en las de retinas provoca fusión binocular, ya que percibimos el
objeto como único a pesar de ser dos, los puntos estimulados en las retinas.
HORÓPTER: conjunto de puntos en el espacio visual, cada una determinada fijación ocular,
proyectan su imagen en puntos correspondientes de la torre ti. Suponiendo que los ojos son
esferas perfectas y que rotan en torno al ejes que solamente pasan por el punto nodal de cada
ojo, el Horópter longitudinal, está constituido por una circunferencia que pasa por el punto de
fijación y por el punto nodal de cada ojo. Se conoce como circunferencia de Vieth-Muller. En
el plano vertical, el Horópter vertical está definido por la recta perpendicular al plano de
visión.
DOMINANCIA. El sistema visual ignorar la información proporcionada por una clave en favor
de la proporcionada por otra clave de profundidad. Un ejemplo es la habitación de Ames. Se
trata de una habitación distorsionada de forma trapezoidal. El observador sólo puede mirar a
través de un orificio en una de las paredes de la habitación. Desde este punto de vista la
habitación parece rectangular a pesar de que no lo es. Si se sitúan personas de la misma
estatura a diferentes distancias inevitablemente el observador percibe como si las figuras
estuvieran a la misma distancia y tuvieran diferentes alturas. La percepción del observador
está dominada por la información que proporciona la perspectiva, que desde el punto de
observador predeterminado hace parecer la habitación como rectangular.
LA CONSTANCIA DEL TAMAÑO cuanto mayor es un objeto o mayores el ángulo visual que se
imagen proyecta la retina. Si la percepción del tamaño de un objeto estuviera determinada por
el tamaño del ángulo visual, los objetos variarían en tamaño percibido cuando varias en la
distancia del observador. Sin embargo cuando la distancia de los objetos al observador no es
muy grande no provocará un cambio en su tamaño. Este fenómeno se conoce como
constancia del tamaño.
Gilinski Será puesto de manifiesto que las instrucciones del experimentador respecto al punto
de referencia que el observador debe adoptar para emitir sus juicios pueden influir en la
percepción del tamaño. Este autor diferenciaba entre instrucciones objetivas, que solicitaban
el ajuste del triángulo variable de forma que igualar el tamaño del triángulo de referencia.
Instrucciones retinianas: que triangulo era más distante. Bajo instrucciones objetivas tendían
a exagerar la constancia del tamaño. Este fenómeno se ha denominado sobre constancia. Bajo
instrucciones retinianas el juicio no está influido por estos factores cognitivo sino que es de
naturaleza más directamente perceptiva.
Norman ha propuesto recientemente que las vías visuales dorsal y ventral, que la fisiología ha
descrito, corresponden a dos sistemas visuales con características similares a los postulados
por Neisser. Norman ha elaborado un paralelismo entre la aproximación ecológica y el
funcionamiento del sistema visual dorsal, y por otro lado la aproximación constructivista y el
funcionamiento del sistema visual ventral.
LOS SISTEMAS VISUALES DORSAL Y VENTRAL: Ungerleider i Mishkin: fueron los primeros que
pusieron de manifiesto la existencia de dos días funcionalmente diferenciadas en la corteza
visual del mono.. La vía ventral proyecta desde la corteza occipital hasta la corteza temporal
inferior, y la vía dorsal proyecta también desde la corteza occipital hasta la corteza parietal
posterior. La lesión de corteza temporal inferior incapacita para discriminar entre objetos
sobre la base de la forma. La lesión en la corteza parietal posterior izquierda impedía que los
animales discriminaran sobre la base de la posición.. Las dos días visuales se puede entender
como la “vía del qué” y “la vía del dónde” para referirse al había ventral y la dorsal
respectivamente.
Por otro lado el procesamiento de la vía dorsal tiene que ver preferentemente con la
información cambiante momento, acerca de la localización y de la disposición de los objetos
con respecto a los espectadores que el sujeto utiliza. Su función básica es el control visual on-
line de las habilidades motoras como por ejemplo movimientos de la mano a la hora de
alcanzar un objeto. Este sistema se puede considerar como una extensión cortical de los
módulos que controlan los movimientos día dos visualmente en los vertebrados y que implican
estructuras su corticales tales como los currículos superiores y el núcleo culminar del tálamo.
Milner y dude de han demostrado a través de experimentos con ratas y monos. Una clara
disociación entre los dos sistemas.
Existe una doble disociación entre grupos de pacientes con lesiones en la vía ventral, pero no
en la vía dorsal, y pacientes con lesiones en la vía dorsal, pero no en la vía ventral, cuando
comparamos o ejecución en tareas perceptivas y tareas de coordinación viso motora por
tenemos resultados afirmativos.
PERCEPCIÓN SIN COORDINACIÓN VISO MOTORA: los pacientes con daño en la corteza
parietal posterior pueden presentar problemas para dirija y visualmente acciones como coger
un objeto o dirigir un movimiento hacia una posición determinada del espacio. Ataxia óptica:
los pacientes no suelen presentar problemas para describir la posición relativa de los objetos
en el espacio. El problema no es describir el tamaño o la orientación sino utilizar de forma
adecuada la información. Los síntomas demuestran que no es un problema exclusivamente
ligado al espacio sino que afecta a otras características de los objetos como el tamaño, la
forma y la orientación.
Los pacientes con daño parietal posterior son incapaces de utilizar información visual para
controlar la postura de sus manos, pero no presentan problemas a la hora de controlar la
dirección en que inicien un movimiento para alcanzar un objeto. Otros pacientes presentan el
patrón opuesto. Algunos pueden no tener problemas oculomotores concretos pero son
incapaces de dirigir visualmente su mano hacia un objeto.
Milner y Googale: han propuesto la existencia de vías visuales especializadas que ofrecen un
serio apoyo a las propuestas de Neisser y Norman.
a) Función: los dos sistemas difieren en el objetivo de sus análisis. El sistema ventral analiza
información para reconocer identificar los estímulos, el sistema dorsal lo hace para guiar
visualmente el comportamiento del organismo.
b) sensibilidad: los dos sistemas muestran diferente sensibilidad a las frecuencias espaciales y
temporales. El sistema ventral es más sensible a frecuencias espaciales alta y el dorsal a
frecuencias temporales altas. El sistema ventral está más preparado para procesar los
detalles de una escena mientras que el dorsal es más sensible aspectos globales que
proporcionan las frecuencias espaciales bajas.
c) memoria: el sistema ventral mantiene una estrecha relación con el sistema de memoria
con el fin de llevar a cabo el reconocimiento o identificación de objetos. El sistema dorsal no
dispone de memoria largo plazo, simplemente necesita memoria de corta duración que
permita integrar la información on-line
f) marco de referencia y métrica .El sistema ventral necesita un marco alocéntrico. El sistema
visual dorsal necesita marcos de referencia egocéntricos.
g) input visual: el sistema ventral está especializado en la visión central controlada por la
fóvea, mientras que el sistema dorsal lo está para la visión periférica. El sistema dorsal sufre
considerablemente al trabajar exclusivamente con claves monoculares, mientras que el
sistema ventral no. A pesar de las diferencias hay que tener en cuenta que ambos sistemas
llevan a cabo operaciones semejantes en el sentido que ambos operan con formas, tamaños y
distancias de los objetos. En las personas con visión normal los dos sistemas actúan de forma
integrada intercambien continuamente información entre sí.
LAS CLAVES DE PROFUNDIDAD: para Norman tanto el sistema ventral como el dorsal son
capaces de procesar la estructura tridimensional del espacio. El sistema ventral no hace
preferentemente a través de claves monoculares de naturaleza pictórica, mientras que el
sistema dorsal lo hace a través de la captación de invariantes y la utilización de claves
binoculares como la estereoscópica. Clave: se utiliza para clasificar los indicadores utilizados
para el sistema ventral. Invariante: se utiliza para clasificar los e indicadores del sistema
dorsal las principales diferencias entre clave se invariante es son:
De Souza y Goodale demostraron que ante una estimulación ilusoria como la provocada por la
llamada ilusión de Ebbingaush, los observadores mostraban una clara influencia de la ilusión
cuando se les pedía que juzgaran el tamaño de los dos círculos centrales. Sí se medía la
amplitud de la apertura de los dedos acogerlo no se producía la ilusión. La ilusión del juicio de
tamaño estaba probablemente mediada por la información consciente proporcionada por el
sistema ventral, el control de la acción de coger lo estaba por la información no consciente
proporcionada por el sistema dorsal. Era como si la ilusión pudiera engañar al ojo pero no a la
mano.
LA PERCEPCIÓN DEL TAMAÑO: los factores que determinan la percepción del tamaño pueden
ser diferentes según intervengan en su percepción el sistema ventral o el dorsal. El sistema
dorsal no se ve afectado por los factores, de este modo la ilusión tampoco tiene efecto sobre
la acción de coger los círculos.
Norman: propone una explicación para el fenómeno de las sobre constancia. Vimos que las
instrucciones objetivas dadas el observador ponen en juego mayor cantidad de procesos
cognitivos de inferencia estimación y familiaridad. Cuanto mayor es la influencia de estos
procesos, mayor es la implicación del sistema visual ventral. Sin embargo bajo instrucciones
retinianas, hay menos implicación cognitiva, es probable que la estimación de tamaño
dependa del información más directamente proporcionada por los invariantes. En este caso,
la constancia es más precisa y no se produce un efecto de sobre constancia. La propuesta en
Norman aparece como un intento de integrar ambas posturas.
4) la identificación del objeto a partir del movimiento Para que la interacción de los
organismos con los objetos en movimiento sea eficaz es imprescindible que éste se perciba de
manera adecuada. El sistema visual es extraordinariamente sensible a la percepción del
movimiento.
La ilusión de la cascada: sea ver si miramos una cascada fijando la vista en un punto
estacionario como una roca durante un minuto o más, y a continuación dirigimos la mirada
hacia el paisaje que la rodea, se percibe un movimiento en dirección hacia arriba, en dirección
contraria al movimiento del agua.
Pues efecto de la espiral o ilusión: la espiral de plateu: si se fija la vista en una espiral dando
vueltas durante más de un minuto, y después se fija la vista en un objeto móvil, el movimiento
percibido inicialmente se percibida en sentido contrario.
Mack: la ilusión se percibe más fácilmente cuando los objetos se presentan sobre un fondo
homogéneo
Dunker: si el rectángulo se desplazan una dirección determinada, por ej. Hacia la izquierda, se
percibía el punto desplazándose en la dirección contraria. Es posible inducir el movimiento
utilizando diversos procedimientos: a) el ejemplo más simple es presentar en el campo visual:
uno de ellos en reposo y el otro movimiento. b) cuando se presentan simultáneamente dos
objetos en el campo visual, uno de los cuales es de mayor tamaño rodea al otro, con
independencia de cuál de los dos objetos se desplace y siempre que el movimiento real este
cercano o por debajo del umbral de detección, se percibirá únicamente el movimiento al
objeto situado en el centro hacia el exterior. El objeto circundante y de mayor tamaño actúa
como marco de referencia para el otro objeto. Según Dunker el movimiento inducido se
produce como consecuencia del desplazamiento relativo de los objetos en el campo visual.
Wallack:el movimiento inducido podría deberse a que el sistema visual es más sensible
movimiento relativo entre los objetos que movimiento de un único objeto.
Rock: el sistema visual asume que el objeto más grande y que rodea al más pequeño es un
objeto inmóvil, y la sin del movimiento al objeto más pequeño que está rodeado por lo otro. El
movimiento o inducido desaparece cuando el movimiento del objeto circundante está por
encima del umbral, en ese caso se percibe movimiento de ambos objeto y cuando se
introducen una condición que permite observar el movimiento del objeto circundante.
El movimiento puro o “Fi” aparecía entre el intervalo temporal 20-300 mls y tenía como
consecuencia la percepción de movimiento sin que se viera el objeto que se movía.
“movimiento puro”
CONDICIONES QUE PERMITEN LA APARICIÓN DEL MOVIMIENTO APARENTE Korte: las analizó
variando la intensidad de los estímulos (I), la distancia entre estímulos (DEE), y el intervalo
temporal (IEE)entre los mismos. La relaciones entre estas tres condiciones producen
movimiento aparente y se conocen como las “leyes de korte”.
Sí se mantiene constante el intervalo temporal entre estímulos, la distancia óptima para tener
movimiento aparente paridad directamente por intensidad de los estímulos, a mayor distancia
requerida mayor intensidad.
Sí se mantiene constante la distancia entre estímulos, el Valor óptimo del intervalo temporal
entre estímulo para que se produzca movimiento aparente varía inversamente con la
intensidad de los Sting, un mayor intervalo temporal requerida una intensidad menor.
Dawson: Se percibe movimiento entre los estímulos que presentan distancia más corta o entre
trayectorias que requieren menos tiempo. Cuando vemos la tele y percibimos movimiento
pero en realidad lo que se están presentando como estímulo es una escena inmóvil que es
substituido por otra después de un periodo de tiempo determinado un la tasa de cambio de la
escena es de aproximadamente es de 24 veces por segundo en el cine, 30 veces en televisión y
60 en la pantalla del ordenador.
Estudios psicofísicos posteriores indican que el sistema visual podría realizar tres tipos
diferentes de análisis del movimiento: los dos primeros realiza un procesamiento abajo
arriba y se corresponderían con el movimiento de corto alcance. En los dos sistemas, el
sistema de primer orden, cuyo información básica es la dominancia y el sistema de segundo
orden, cuya información básica es la textura, se detectar y el movimiento o a través de
circuitos simples de detección del movimiento un los dos primeros sistemas son monoculares,
sensibles y rápido. El tercer tipo de sistema de análisis de movimiento, que se corresponde
con el movimiento de largo alcance, es bien ocular poco sensible y lento, pero es más versátil
que los de primer y segundo la ya que puede analizar cualquier tipo de estimulación. Este
sistema utiliza tanto procesos de abajo arriba como de arriba abajo.
PERCEPCION DE ACONTECIMIENTOS:
Hemos de tener en cuenta que existen diferencias individuales en la percepción de los efectos
de lanzamiento, arrastre y disparó, lo que sugiere que la percepción de la causalidad podría
estar influida por experiencias anteriores de los observadores.
EL MOVIMIENTO BIOLÓGICO: Johansson: en una habitación oscura con varios sujetos con
luces en sus extremidades los observadores situadas fuera del habitación podían distinguir
perfectamente los movimientos (andar, flexionar o bailar) pero no podían distinguir la forma
cuando el actor permanecía inmóvil en distintas posturas, en ese caso se percibía un conjunto
de luces colocadas más o menos al azar sobre un fondos oscuro.
Runeson y Fryckholm: hiciera una experimento parecido con actores que simulaban un
levantamiento de pesos. Los resultados obtenidos proporcionará un índice fiable de
estimación del peso. La evidencia sobre la percepción del movimiento biológico procede de
estudios posteriores utilizando técnicas similares que han permitido la identificación del sexo
del actor en función de la forma de caminar, la forma de caminar propia o de las personas
conocidas.
Resumen: cuando la percepción del movimientos causada por el desplazamiento del objeto se
denomina movimiento real. Las investigaciones clásicas se han centrado en determinar los
umbrales de movimiento. Las ilusiones de movimiento hacen referencia a la percepción del
movimiento bajo distintas condiciones en los que no existe desplazamiento del objeto. Los
post efectos de movimiento, el movimiento tocino ético, el movimiento inducido y el
movimiento aparente, constituyen ejemplos de ilusiones de movimiento. La percepción de
acontecimientos, hace referencia la percepción de movimientos complejos y encadenados,
como la que se experimentan la percepción de la causalidad, el movimiento biológico y el
movimiento propio. Finalmente los estudios realizados sobre mecanismo neuronales
implicados en la percepción del movimiento indican la existencia de detectores especializados
en la dirección del movimiento y, por otra parte, a nivel cortical, la intervención de áreas MT y
MST del lóbulo temporal en la percepción del movimiento.
Pomeranz y Kuboky: ese proceso que permite la percepción de determinada relaciones entre
elementos estimular los discretos en conexiones y que a la vez determina su interpretación.
Wagemans y Kolinsky. Desde una perspectiva más amplia podemos considerar la organización
perceptiva como un conjunto de procesos necesarios para extraer irregularidades del imagen
y representar las en un formato útil para procesos posteriores como el reconocimiento del
objeto. Para poder percibir en objeto es necesario distinguir lo del contexto así como de otros
objetos presentes en el mismo.
Según Rock: la manipulación en los estímulos puede considerarse como una variable
independiente, mientras que la variable dependiente consistiría en el perfecto que se tiene
como consecuencia de la manipulación. El estudio de la relaciones entre todas las partes, los
efectos de superioridad el objeto y de superioridad configuración al, el procesamiento de
aspectos globales y locales de los patrones visual a jerárquicos, la segregación perceptiva en
base la textura y a la relaciones entre mecanismos de la selección atención al y organización
perceptiva son ejemplos de los problemas actuales de la Gestalt.
Graham:la zona espectral que contiene frecuencias espaciales altas contiene información
sobre los detalles del imagen, mientras que la zona espectral que contiene frecuencias
espaciales bajas lleva información sobre aspectos globales de la imagen.
Wong y Weistein: mostraron que las líneas nítidas, que presentarían componentes de alta
frecuencia espacial, se detectaba mejor en el contexto de una figura que en el de un fondo.
Por el contrario, cuando los viniera borrosa, cuando se presentaba componentes de baja
frecuencia espacial, se detectaba mejor en el contexto de un fondo.
ASIGNACIÓN UNILATERAL DE BORDES: Driver y Bayles: proponen que los bordes que dividen
regiones adyacentes del campo visual se asigna unilateralmente, es decir se asignan a un único
lado. El borde se puede asignar a cualquiera de las dos regiones del estímulo, la figura un
fondo, y una vez asignado a una de las partes se denomina contorno que delimita la figura, sí
se asignará ésta, o contorno que delimite el fondo, sí se asignó el fondo. En sus experimentos
demostraron que cuando los observadores juzgaban ser contorno de la figura del igual al de
comparación, rendían mejor que cuando juzgaban ser contorno correspondiente al fondo y el
de comparación eran iguales. En conclusión, los autores sugieren que la asignación de los
bordes que divide la figura el fondo es unilateral y espontánea y no depende de la atención.
Pomerantz: considera el agrupamiento común operación efectuada sobre los estímulos. Sus
efectos pueden reflejarse en la ejecución en tareas experimentales y esto permite obtener una
Rock: los estímulos presentados en el experimento son agregados perceptivos. Los paréntesis
se agrupan por proximidad y se perciben como una unidad, aunque no forman Configuraciónes
como en el estudio anterior. Se puede atender selectivamente a los elementos estimular es
cuando se agrupan formando agregados perceptivos pero no es posible cuando los elementos
estimular ese agrupan formando Configuraciónes.
Beck y Palmer: desarrollará una tarea para medir el agrupamiento en la que se presenta una
fila de elementos estimular es formada por elementos distintos, como por ejemplo círculos y
cuadrados, que se alternan con la excepción de uno que se repite para inducir agrupamiento.
La potencia del agrupamiento se examinó presentando tras condición: una condición de
control, y dos condiciones experimentales. Los resultados indicaron que el elemento que se
repite se identificaba más rápidamente la condición Intragrupo que cuando los elementos
agrupar estaban situados en grupos distintos.
EL PROCEDIMIENTO EXPERIMENTAL: la hipótesis inicial establecía que una región del patrón
estimularse se agregaría más fácil y rápidamente o cuando los elementos locales de que estaba
formado fuera muy similares y, a la vez, se diferencia bien del resto de los elementos del
patrón.
Beck: presentó patrones textura dos en los que los elementos diferían sólo la forma, en la
forma en la dirección, únicamente la orientación, y sólo en la posición horizontal vertical. Los
resultados mostraron que el factor fundamental para la segregación de regiones en base a la
textura era la diferencia en orientación e inclinación más que la diferencia en forma. Estos
resultados son comprometedores para la explicación de una Segregacion en base al
agrupamiento por semejanza, ya que al menos conceptualmente, somos semejantes las
formas cambiadas de orientación o inclinación que dos formas diferentes. Estudios posteriores
realizados por beckprazdny y rosenberg, indicaron que la segregación de regiones en base a
la textura se produce más fácil y rápidamente cuando los elementos que la forman difieren
en orientación, tamaño o luminancia y menos rápidamente cuando difieren únicamente en
forma.
Julesz y Bergen desarrollará un modelo que distingue dos sistemas: un sistema preatenciónal
que proceso en paralelo rápidamente sin el concurso de la atención, se corresponde con el
procesamiento inicial y otro sistema atencional que procesaría en serie, más lentamente, y
requiere atención a determinadas características del patrón estimular. . Los textones serían
los elementos básicos en el sistema preatenciónal que determinan la segregación inmediata
de la textura. El sistema preatenciónal detectar y a diferencias locales en el número y
naturaleza de los texton es y en base a esto se produciría la segregación automática de la
textura
Julesz y Bergen los textones no son igualmente eficaces a la hora de determinar los límites que
permiten la segregación de la textura. Por lo General, las diferencias en color tienen
preponderancia sobre las diferencias en forma en la segregación de la textura.
Resumen: los principios relacionados con la segregación de la figura y el fondo especifican que
tenderán a percibirse como figura las áreas envueltas, simétricas, convexas, con orientación
horizontal-y vertical, las que presenta un menor tamaño y un contraste mayor con el contorno
global. Los principios de agrupamiento perceptivo postulan que los elementos estimular es
tenderán a agruparse por proximidad, si comparten propiedades (forma color o tamaño) y
comparten dirección. En relación con el agrupamiento perceptivo ser estudiado la relación
entre el agrupamiento perceptivo y atención selectiva dos punto la elaboración de medidas
cuantitativas sobre los efectos del agrupamiento, y la identificación de estructuras perceptivas
a partir de características simples mediante programas que permiten aplicar los principios de
agrupamiento perceptivo.
Las líneas se detectan mejor cuando el patrón está formado por un conjunto determinado de
puntos(Cinco puntos). Se detectaba peor cuando estaba formado por menos puntos, y no se
tenía una mejora considerable en la detección cuando el patrón estaba formado por más de
cinco..
C)organización global del patrón sobre la detección. La organización del patrón me afecta
directamente a la geometría global de las formas visuales. La detección de los patrones
formados por puntos es afectada por la organización de la figura, se detectan mejor las forma
regulares, que las irregulares. Así como por el grado de organización del patrón, se detectan
más fácilmente los patrones más organizados que los menos organizados.
Mach: resulta más fácil la detección de la simetría bilateral que la obtenida por traslación o
rotación de los patrones originales. En la lineal de Julesz observó que la simetría bilateral se
detectaba automáticamente sin esfuerzo, mientras que la detección de la simetría en
patrones generados por traslación o rotación requería un escrutinio detallado de los patrones.
Baylis y Driver: el hecho de que la simetría bilateral sea más saliente y se detecte más
rápidamente, no significa que los otros tipos de simetría no se detecten. La mayoría de
estudios han centrado en la simetría bilateral.
Tyler: los procedimientos experimentales se dividen en:
Procedimientos psicofísicos, como el procedimiento de determinación del umbral de duración
de detección en la simetría. Determinar tiempo mínimo necesario o la tarea de determinación
en el umbral de contraste, en el que se determina el contraste necesario para detectar la
simetría.
Tareas de tiempo de reacción: real se mide el tiempo empleado en la detección
Tareas de precisión: porcentaje de aciertos
Palmer y Hamenwai propusieron dos etapas: la primera que realiza un análisis tosco y
selecciona un posible eje de simetría sobre el cual se refleja el patrón y una segunda etapa
que compara las dos mitades del patrón, y determina si el patrón es simétrico ono
La principal objeción a estos autores es que explica las estrategias que seguimos pero no se
pueden considerar teorías que expliquen la detección de la simetría bilateral en general.
El proceso de discriminación permite que los objetos pueden diferenciarse sobre la base de la
presencia de determinados propiedades. Para comparar estímulos se requiere que la
información sobre los objetos almacene durante un breve periodo de tiempo.
Garner realizó una teoría descriptiva de las propiedades estimular es donde distingue entre
propiedades componentes y propiedades globales
Las propiedades globalesse refieren a la figura como un todo y son todos simples.
Distinguimos entre plantillas (prototipos) y propiedades configuracionales. ( estímulos
definidos por la relaciones espaciales entre las propiedades componentes que da lugar al
surgimiento de propiedades emergentes. De las propiedades globales sólo examinaremos las
configuracionales. Las líneas que forman las figuras son las propiedades componentesdel
estímulo, la relaciones espaciales entre las propiedades componentes (simetría, repetición de
líneas, paralelismo, intersección, y cierre,) son las propiedades configuracionales. El estudio
de propiedades de los estímulos relevantes para determinar su discriminilidad se ha centrado
principalmente en dos aspectos: el análisis de las interacciones entre las propiedades
componentes y el examen de qué tipo de propiedades domina el proceso de
discriminación.(componentes o configuracionales)
Melara Marks y Potts y Days: a través de sus experimentos demostraron que presentando
estímulos similares que sólo diferían mínimamente en una de las dos dimensiones que
interactuaban, por ejemplo, saturación y brillo, los observadores eran capaces de identificar la
Weisstein y Harris indican que las líneas oblicuas es criminal mejor cuando se presentan en
el contexto de un objeto que cuando se presenta incluidas en un patrón bidimensional, o
solas. El efecto de superioridad configuracional hace referencia la mejor ejecución en la
discriminación de líneas en estímulos simples cuando se presentan en un contexto estimular
que permite la formación de determinadas configuraciones que cuando se presentan aislados.
Las propiedades configuracionales de los estímulos són más relevantes para realizar la
discriminación que las propiedades componentes.
Densidad del patrón estimular. Martin. Encontró que cuando el patrón global era denso, se
abstenía primacía global. Por el contrario cuando el patrón está formado por pocos elementos
locales, se producía primacía local.
Tamaño de los estímulos. Kinchla y Wolfe encontraron primacía global cuando el tamaño de
los estímulos eran pequeños (menos de 7 grados de ángulo visual)cuando los estímulos eran
grandes ( más de 10 grados de ángulo visual) se producía primacía local.
Posición retiniana de la información global y local. Navon y Norman. Es bien conocido, que la
agudeza visual es máxima en la fóvea y decrece gradualmente con el aumento o en
excentricidad. El tamaño de los estímulos sólo produce una transición hacia la primacía local
cuando la excentricidad estaba desigual a pero no cuando la información global y local se
presentaban en la misma posición retiniana
EVIDENCIA COMPORTAMENTAL.
No todas las características físicas funcionan como característica simples algunos autores han
tratado de identificar las características funcionales extraídas por el sistema visual.
-2) segregación de la textura: la teoría predice que cuando dos regiones del campo visual se
puedan discriminar en base una característica simple su segregación ser automática. Por el
contrario cuando las diferentes texturas están formadas por conjunciones de características
simples, la segregación de textura requerida más escrutinio
-3) formación de conjunciones ilusoria. Cuando se presta atención a otros objetos presentes
en el campo visual o la atención está sobrecargada, la teoría predice que la combinación de las
características simple para formar un objetivo dará lugar a conjunciones ilusoria. Las
conjunciones ilusorias son combinaciones erróneas de características simple.
El nivel más elevado en el modelo representa la recombinación de las propiedades que se han
extraído partir de cada módulo especializado y que permiten, en último término, la percepción
de objetos, escenas y eventos.
Esta teoría encuentra dificultades para explicar los resultados obtenidos en contextos
diferentes y sobre todo cuando las características se definen a partir de post efectos visuales,
Resumen: en relación con la detección de las formas visuales, se han examinados aspectos: la
detección de patrones de puntos y la detección de la simetría. Los patrones de puntos,
constituyen un estímulo muy idóneo para los estudios de detección debido a que son formas
no familiares y no están contaminados por ese factor. Se describe el paradigma del
enmascaramiento visual, que es el más utilizado y se examinan los factores que afectan a la
detecta habilidad de las formas visuales como la orientación de las líneas orientación del
patrón etcétera. En la detección de la simetría se examinan tres tipos de simetría. Bilateral,
transnacional y rotacional. También vimos las relaciones entre las dimensiones estimulares el
papel desempeñado por las propiedades componentes y configuracionales de los estímulos de
discriminación.
Marr propone una tercera etapa de procesamiento tardío, en la que se genera una
descripción, denominada modelo 3D , definida partir de un sistema de coordenadas basados
en los ejes naturales del objeto, con lo que permite mantener la descripción del objeto en
relación al marco de referencia. Los autores proponen una organización modular de las
descripciones del objeto, y una representación del objeto o basada en primitivos
volumétricos que se pueden localizar de los objetos y analizar en términos de ejes de
coordenadas. Los primitivos volumétricos son los conos generalizados, que consisten en las
superficies generadas a partir del movimiento de una sección transversal a lo largo de un eje
principal. No todos los objetos pueden escribirse mediante conos generalizados. Por ejemplo
podríamos reconocer jarrones o pirámides pero no un árbol o planta.
El autor adopta como base perceptiva para explicar la generación de geones, una propuesta
teórica formulada por Lowe. El supuesto básico es que el sistema visual humano ha
desarrollado la capacidad de detectar determinadas organizaciones perceptivas de los
elementos de la imagen como simetría, alineamiento, conexión, etc. Y que no son
accidentales, estas organizaciones no surgen por casualidad.
Las propiedades no accidentales son las responsables de mantener la constancia del objeto.
Las propiedades no accidentales se consideran características, de manera que un borde recto
de la imagen se corresponderá con un borde recto en el objeto del que sale imagen. Las
propiedades no accidentales son invariantes, su correspondencia con el objeto o permanece a
pesar de los cambios en el punto de vista. El sistema visual considera que determinadas
propiedades de los bordes de la imagen bidimensional constituyen una evidencia de la
presencia de esas mismas propiedades se los objetos tridimensionales. El reconocimiento por
componentes procede de la siguiente manera:
No existe hasta el momento ninguna evidencia empírica que apoye la sugerencia de que los
geones propuestas constituyen la base fundamental para categorizar los objetos, aunque los
trabajos de tanaka, han encontrado células en la corteza imperó temporal de marcos que
responden a patrones simples volumétrico este extraordinario parecido a los geones
RECONOCIMIENTO DE CARAS: las tareas más utilizadas suelen ser las tareas de
igualación diferente en las que los sujetos deben comparar dos caras, o algún componente de
las mismas, y señalarse son iguales uno, y tareas de reconocimiento, en las que se deben
señalarse la cara se había presentado anteriormente.
A nivel de substrato neuronal, los estudios realizados con registros unicelulares en primates,
muestran respuestas selectivas a las caras por parte de neuronas situadas en el giro fusiforme
del córtex inferotemporal. A nivel neuropsicológico, los estudios realizados con pacientes que
Para algunos autores, los resultados anteriores parecen indicar que el reconocimiento visual se
lleva a cabo por medio del actuación de mecanismos especializados en determinados tipos de
estimulación, y no mediante un sistema general y común para todos los tipos de estímulo.
Sin embargo otros autores defienden que la especialización es superficial ya que el córtex
visual contiene un gran número de áreas que responden selectivamente a determinados
estímulos pero las computaciones que se realizan en estas áreas son muy semejantes.
TEMA 9
Wundt es el precursor de la psicofísica clásica. Los dos factores clave para la aparición de la
psicofísica fueron el 1) contexto y el clima intelectual imperante a mediados del siglo XIX, y
2) que la el objeto de estudio se centraba en la experiencia consciente.
Fechner: investigo las leyes que permiten determinar las relaciones entre la experiencia
sensorial (dominio psicológico)y la estimulación(dominio físico). En su obra “elementos de la
psicofísica, se centra en tres aspectos fundamentales: 1.El desarrollo de métodos psicofísicos
para la cuantificación de los umbrales absoluto (por encima y por debajo del cual se detecta o
no se detecta el estímulo)y diferencial (incremento mínimo en la estimulación que permite
detectar un cambio en la estimulación).2. El estudio de la dimensión psicológica mediante una
escala cuyo valor cero se estableció como valor absoluto, y utilizo como medida las diferencias
apenas perceptibles. 3.La intensidad de la sensación es proporcional al logaritmo de la
intensidad del estímulo: S=K log (1) “S” es la magnitud “K” una constante que depende de la
dimensión. Presupone que para que la sensación aumente la intensidad del estímulo debería
aumentar.
El método de los estímulos constantes presenta el problema de que requiere mucho tiempo
para determinar el umbral al utilizar un rango muy amplio de intensidades del estímulo.
Determinación del umbral absoluto: En las series ascendentes se presenta en primer lugar un
estímulo muy por debajo del umbral. Si la serie es descendente se comienza con un estímulo
que este muy por encima del umbral. Los puntos de transición (punto en el que se produce un
cambio en la respuesta de “SI, a NO” o al revés.) se promedian para determinar el umbral
absoluto.
Metodo de los ajustes al promedio: Es prácticamente igual que el método de los límites, pero
en este caso es el observador el que controla la intensidad del estímulo. Requiere que el
estímulo pueda graduarse fácilmente. Para determinar el umbral absoluto se utiliza el mismo
procedimiento que en el método de límites, pero en este caso el observador manipula el
estímulo. Para determinar el umbral diferencial se ajusta la intensidad del estímulo de
comparación hasta que sea igual que la del estímulo estandart.
Stevens: el umbral puede variar a) entre sujetos, b) intra sujetos en diversas situaciones
experimentales, c) dependiendo del método que se utilice para obtenerlo, y e) en función de
variables motivacionales manipuladas mediante instrucciones. Esto junto con las diferencias
apenas perceptibles, pone en entredicho la validez de la ley formulada por Fechner. Los
primeros intentos para superar la variabilidad del umbral consistió en adoptar el criterio
estadístico, y determinar el umbral como el estímulo que se reconoce el 50% de las veces. Para
paliar los sesgos motivacionales de los sujetos, se introdujeron los ensayos en blanco (no se
presenta el estimulo). Se le llama ruido(R) a la señal que no presenta el estímulo , y señal +
ruido o solo señal (SR) . La tarea del observador consiste en decir SI o No en función de si
detecta el estimulo. Generalmente se presenta el mismo número de ensayos ( R) que (SR)
mezclados aleatoriamente. Se intenta que el único indicio para que el sujeto elabore una
respuesta, sea la proporcionada por su sistema sensorial. Permite controlar que los
observadores falseen las respuestas intencionalmente. Si decimos muchas veces si ante
ensayos en blanco cometemos sesgo. La ejecución en las tareas de detección con inclusión de
ensayos en blanco permite analizar la ejecución de los sujetos relacionando la tasa de aciertos,
con la de falsas alarmas. (contestar “Si” ante la representación R). Se pueden cometer sesgos
respecto a la respuesta, y para evitarlos debemos aplicar una fórmula que tenga en cuenta la
tendencia a adivinar. Aunque la tasa de aciertos sea la misma entre dos observadores, no se
pueden interpretar de la misma manera ya que hay que tener en cuenta la tasa de falsas
alarmas. Para subsanar este problema en relación al umbral, se desarrollan teorías que
contemplan no solo el proceso sensorial sino también el proceso de decisión.
Blackwell: (1963) teoría del umbral alto. Solo cuando se traspasa un umbral de sensación se
producirá sensación, en caso contrario, no. El supuesto básico es que ante el (SR) se producirá
sensación con una probabilidad determinada (p), y no se provocara sensación con la
probabilidad complementaria (1-p). cuando se presenta ruido, no se traspasa el umbral y por
lo tanto no habrá sensación. La probabilidad de que se produzca sensación será 0 y de que no
se produzca 1. Asume que siempre decimos SI siempre que se ha producido la sensación. Si el
resultado del proceso sensorial es “no sensación”, se responderá “SI” (tendencia a adivinar)
con una determinada probabilidad (g) y No con la complementaria (1-g)
Luce: (1963) la teoría del umbral bajo. Supera algunas dificultades de la propuesta anterior.
Tanto la presentación de SR como la de R producirán sensación con una determinada
probabilidad y no sensación con la probabilidad complementaria. Por tanto se considera que el
umbral es traspasado algunas veces ante la presentación de R. Ante Sr se producirá sensación
con una probabilidad (p) y no sensación con la probabilidad complementaria (1-p). Ante la
presentación de R se producirá sensación con una probabilidad (q) y no sensación con (1-q)
Swets (1973) CURVA DE ROC: La TDS permite establecer la relación entre la tasa de aciertos y
falsas alarmas y obtener además una medida de cambio de criterio de decisión del observador,
en función de las instrucciones del experimentador, a través del análisis de la curva de Roc. El
procedimiento consiste en variar las instrucciones que influyen en la conducta de decisión,
pidiéndole que adopte un criterio más estricto o más laxo. Así se obtiene una tasa de aciertos y
falsas alarmas distintas para cada conjunto de instrucciones que determinan un punto
Los continuos metatéticos presentan una variación cualitativa de las sensaciones. (p.ej. cambio
de longitud de onda). En este caso el observador emite juicios sobre la cualidad y no sobre la
cantidad y por tanto no se puede aplicar la ley potencial.
Hood: (1979) En sus experimentos sobre la estimación del brillo, muestran que la ley potencial
no describe de manera adecuada los datos. Los estudios de Luce y Mo sobre la estimación del
peso, obtuvieron resultados significativamente diferentes a los de la ley potencial.
McKenna (1985): El hecho de que se obtenga una función potencial únicamente con métodos
directos cuestiona la validez de la ley. Por tanto la ley psicofísica potencial ofrecía una
descripción empírica razonable, pero no perfecta, de la relación entre la intensidad de los
estímulos y los juicios sobre la magnitud de sensaciones
INTERPRETACION SENSORIAL: Por ejemplo en el caso del brillo, el exponente es 0’33, y para el
shock eléctrico 3’5. Estas diferencias de tamaño en los exponentes reflejan las diferencias
existentes entre los dos sistemas sensoriales. Los resultados de algunas investigaciones
Warren: Los juicios que emiten los observadores no son juicios sobre la magnitud, sino sobre
el estímulo. Basan su juicio en un atributo físico (la distancia) a partir de relaciones aprendidas
previamente sobre la distancia de la fuente del sonido y su intensidad.
Baird: la opinión de Warren se basa en una suposición falsa, ya que asume que los
observadores estiman la distancia visual con precisión. La interpretación de la ley potencial
depende de diversos factores que incluyen tanto atributos sensoriales como cognitivos.
Poulton: señala que lo que refleja el tamaño del exponente de la función potencial son
variaciones en las condiciones experimentales, y no diferencias en los sistemas sensoriales.
Hemholtz: (1850) utilizo la Tr para la medida de la conducción nerviosa. Tuvo gran repercusión
por dos motivos: 1) proporcionó el inicio real de la cronometría mental en la Psicología
Experimental. 2)la cronometría mental va unida a la fisiología (influirá en las teorías modernas)
Kulpe (1900) critico el supuesto de aditividad, que sostenía que el hecho de añadir o eliminar
procesos podría tener una configuración de todos ellos.
A Partir del 1969 La traducción de trabajo de Donders “Sobre la velocidad de los procesos
mentales” y el trabajo de Stenberg, cuando se produce el renacimiento del estudio del tiempo
de reacción.
1) tarea de tiempo de reacción simple (un único estímulo y se determina la relación entre el
tiempo transcurrido hasta que se inicia la respuesta). Solo implica proceso de detección
2) tarea de tiempo de reacción de elección: se pueden presentar dos o más estímulos por
ensayo y el observador debe responder de manera diferente a cada una de ellas. Implica la
tarea de detección discriminación y selección de respuesta.
LA MEDIDA DEL TR: Parece que esta medida se considera como universalmente valida. La
utilización de TR como variable dependiente en los experimentos debe considerar una serie de
problemas que podrían distorsionar los resultados. El primer problema es determinar aquellos
parámetros y condiciones que producen variaciones en la VD TR. Tradicionalmente se ha
estudiado el análisis de la distribución de los estímulos y respuestas, intervalos entre ensayos,
efecto de la precisión sobre la velocidad y viceversa. Pachela: un problema lo encontramos en
la definición operativa de TR, y se traduce a la pregunta: ¿Qué estamos midiendo cuando
utilizamos la TR como variable independiente en un experimento. La definición operativa
aceptada sobre la TR es: el intervalo temporal entre la presentación del estímulo y el inicio de
la respuesta. El segundo problema se presenta en relación a las distribuciones del TR. A
menudo encontramos valores excesivamente altos o bajos que pueden distorsionar la
interpretación de los resultados. El criterio a menudo para solucionar el problema es eliminar
las puntuaciones más altas o bajas, según un rango prefijado de antemano. Otra alternativa, es
utilizar la median como promedio. Destruye la distribución estandart del tiempo de reacción,
y la interpretación de los resultados se modifica.