Вы находитесь на странице: 1из 5

ENTROPÍA PSICOLÓGICA

Un marco de referencia para comprender la ansiedad relativa a la incertidumbre

La entropía, un concepto derivado de la termodinámica y la teoría de la información, describe la


cantidad de incertidumbre y desorden dentro de un sistema y proporciona un marco útil para
comprender la naturaleza y el impacto psicológico de la incertidumbre. Los sistemas auto-
organizados participan en un diálogo continuo con el entorno y deben adaptarse a las
circunstancias cambiantes para mantener la entropía interna en un nivel manejable.

A medida que el cuerpo de investigación sobre la incertidumbre continúa creciendo, la necesidad


de un marco teórico integrador para establecer su significado psicológico y proporcionar un
contexto para sus fundamentos neurales y consecuencias conductuales se ha vuelto cada vez más
evidente.

Al basarnos en modelos dinámicos de sistemas auto-organizados, argumentamos que la


incertidumbre presenta un desafío fundamental (e inevitable) a la integridad de cualquier
organismo complejo.

El modelo basado en la entropía aquí desarrollado proporciona un marco organizativo para


comprender la importancia crítica de la gestión de la incertidumbre para la supervivencia, el
bienestar y la productividad de un individuo, dentro de un contexto evolutivo y físico más amplio.

El artículo propone el modelo entrópico de la incertidumbre (MEI), un marco basado en cuatro


principios principales:

(a) La incertidumbre plantea un desafío crítico de adaptación para cualquier organismo, por lo
que los individuos están motivados para mantenerlo en un nivel manejable;
(b) La incertidumbre surge como una función del conflicto entre la competencia perceptiva y
los comportamientos conductuales;
(c) La adopción de objetivos claros y estructuras de creencias ayuda a limitar la experiencia de
incertidumbre al reducir la difusión de los costos competitivos;
(d) La incertidumbre se experimenta subjetivamente como ansiedad y se asocia con la
actividad en la corteza cingulada anterior y la liberación aumentada de noradrenalina.

Comenzamos describiendo los orígenes y las definiciones del constructo de entropía, destacando
su relevancia para los organismos biológicos en general y el comportamiento humano en
particular.

Luego aplicamos esta idea a los procesos cognitivos mediante la introducción del constructo de
entropía psicológica, que se define como la experiencia de perceptivas y comportamientos
conflictivos.

A continuación, examinamos cómo el MEI explica nuestra comprensión actual de la neurofisiología


de la incertidumbre. Finalmente, discutimos cómo las consecuencias cognitivas y conductuales de
una mayor incertidumbre pueden entenderse dentro de este marco basado en la entropía.
Rudolf Clausius (1865), trabajando en el campo de la termodinámica, definió originalmente la
entropía como la cantidad de energía dentro de un sistema que no se puede usar para realizar el
trabajo (es decir, no se puede usar para transformar el sistema de un estado a otro). La máxima
entropía ocurre durante el equilibrio termodinámico completo, cuando la energía se dispersa por
igual en todas las partes de un sistema. En este punto, no se puede realizar ningún trabajo útil, ya
que el trabajo siempre depende del movimiento de energía de un área a otra.

Ludwig Boltzmann (1877), una figura definitoria en mecánica estadística, extendió este trabajo
definiendo la entropía como una función del número de microestados que potencialmente
podrían comprender un macroestado particular, vinculando matemáticamente esta definición al
concepto termodinámico de Clausius. Cuantos más microestados sean posibles, dado un
macroestado particular, mayor será la entropía del sistema observado. A este respecto, la entropía
refleja la incertidumbre acerca de un sistema: cuanto mayor es el número de microestados
plausibles, mayor incertidumbre acerca de qué microestado define actualmente el sistema.

Desde la Segunda Guerra Mundial, el concepto de entropía se ha generalizado a todos los sistemas
de información, no solo a los termodinámicos. Claude Shannon (1948), una figura seminal en el
campo de la teoría de la información, definió la entropía como la cantidad de incertidumbre
asociada con una variable aleatoria. Shannon demostró que el contenido de información de una
señal dada podría medirse en función del número de señales que podrían haberse recibido. El
contenido de información de una señal se cuantifica así en relación con la cantidad de
incertidumbre reducida al recibir el mensaje; Esto está directamente relacionado con la
distribución previa de resultados posibles.

Si bien estas diversas definiciones de entropía están relacionadas matemáticamente, solo esta
última conceptualización tiene la ventaja de generalizar a una amplia gama de sistemas de
información (Jaynes, 1957; Pierce, 1980). Sobre la base de este trabajo, Norbert Wiener (1961), el
fundador de la cibernética, definió la entropía como la desorganización dentro de los sistemas de
información cibernéticos (sistemas autorregulados dirigidos a objetivos). A medida que aumenta
el desorden y la incertidumbre de un sistema, su capacidad para realizar un trabajo útil se ve
obstaculizada por una precisión reducida en la especificación del estado actual, el estado deseado
y la respuesta adecuada para transformar el primero en el segundo.

Es la visión cibernética de la entropía la que desempeña un papel destacado en los enfoques de


sistemas dinámicos no lineales modernos. Estos enfoques tratan con las propiedades emergentes
de sistemas complejos, con un énfasis en las tendencias hacia la auto-organización (Nicolis &
Prigogine, 1977).

La auto-organización describe el surgimiento de una estructura de relaciones de patrones entre los


elementos constitutivos de un sistema complejo (Ashby, 1947, 1956). Los estados de alta entropía,
en este contexto, reflejan una falta de restricciones internas entre las partes que interactúan con
el sistema, de modo que saber el estado de un componente proporciona información mínima
sobre los otros.

Debido a que los sistemas dinámicos cambian continuamente a lo largo del tiempo, la entropía
puede relacionarse con la previsibilidad de los estados sucesivos dado el conocimiento del estado
actual (Shannon y Weaver, 1949).
De acuerdo con la segunda ley de la termodinámica, la cantidad de entropía dentro de un sistema
cerrado solo puede aumentar con el tiempo. Cualquier proceso mecánico implica una pérdida de
energía irreversible (por ejemplo, las ineficiencias que resultan en la pérdida de calor), y el calor
no se moverá de un cuerpo más frío a un cuerpo más cálido sin una aportación de energía
adicional.

En consecuencia, un sistema se acerca a un estado de equilibrio termodinámico a medida que


realiza el trabajo. A menos que se agregue más energía, la cantidad de trabajo potencial que
puede producir disminuirá inevitablemente con el tiempo.

Los sistemas de información también pierden energía con el tiempo como resultado de
ineficiencias, por lo que también eventualmente se disiparán y disolverán a menos que se
incorpore energía adicional para mantener la coherencia estructural y minimizar el desorden
interno.

Comprender la relación entre la entropía y el potencial de los sistemas para realizar el trabajo (es
decir, perseguir y alcanzar objetivos) puede iluminar la importancia de la incertidumbre para los
sistemas biológicos en general y, más específicamente, los sistemas psicológicos.
Entropy Management as a Fundamental Principle of Organized Systems
Application of the second law of thermodynamics to psychology produces the first major tenet of EMU, that uncertainty
poses a critical adaptive challenge, resulting in the motive to reduce uncertainty. This tenet is partly predicated on research
examining the emergence and maintenance of order within complex systems. In his groundbreaking book, What Is Life?,
the physicist Erwin Schrödinger (1944) argued that living systems survive by reducing their internal entropy, while
simultaneously (and necessarily) increasing the entropy that exists in their external environment. Although the total
amount of entropy in the universe as a whole can only increase (as expressed in the second law of thermodynamics),
living organisms can stem the rise of entropy found within their biological systems by consuming energy from the
environment, using it to maintain the integrity and order of their own biological systems, and displacing their entropy into
the outside world.
In the dynamical systems literature, this entropy-reduction framework has been extended to the view of biological
organisms as dissipative systems (Prigogine & Stengers, 1997). For an organism to survive, it must effectively dissipate its
entropy into the environment. Dissipative systems are open systems operating far from thermodynamic equilibrium,
requiring energy intake to sustain a stable structural organization. If the environment changes to produce more entropy for
an organism (thereby challenging its structural coherence), that organism must adopt new patterns of self-organization that
are capable of accommodating the environmental changes. Self-organization describes the process by which novel
dissipative structures emerge in response to higher entropy levels. Dynamical systems theorists therefore propose that
stable information systems survive only insofar as they are able to effectively manage their internal entropy. Those that
cannot effectively dissipate this entropy are destroyed, in a Darwinian fashion (Kauffman, 1993). One consequence of this
process is that complex systems tend to return to a relatively small number of stable, low-entropy states (known as
attractors; Grassberger & Procaccia, 1983). This is because the vast majority of states that these systems could
theoretically inhabit do not provide effective entropy management and are therefore characterized by instability.
Given that the principles of entropy and self-organization can be employed to examine any complex information system, it
may not be surprising that these frameworks have also been used to study psychological phenomena (Barton, 1994;
Carver & Scheier, 2002; Hollis, Kloos, & Van Orden, 2009; Vallacher, Read, & Nowak, 2002). For instance, researchers
have observed self-organizing dynamics during the problem-solving process (Stephen, Boncoddo, Magnuson, & Dixon,
2009; Stephen, Dixon, & Isenhower, 2009). In particular, as an initially adopted strategy becomes ineffective, a
quantifiable increase in the entropy of the problemsolving behavior is observed (measured as the irregularity and
unpredictability of participants’ responses). This increase in behavioral entropy precedes subsequent changes in solution
strategy, followed by a return to predictable, stable, low-entropy behavioral patterns. What this suggests is that cognitive-
behavioral systems follow the same basic principles as other dissipative systems. If the system finds itself unable to
effectively handle environmental challenges, its internal entropy levels will increase and force the adoption or
development of alternative cognitive structures. Alternatively, if such structures cannot be found, the system may fail to
adapt, become overwhelmed, and start to deteriorate.
Similar interpretive frameworks have been applied to understanding
the neural substrates of cognitive operations. In particular,
a number of techniques for quantifying entropy levels within
neural systems have been developed (Borst & Theunissen, 1999;
Nemenman, Bialek, & de Ruyter van Steveninck, 2004; Paninski,
2003; Pereda, Quiroga, & Bhattacharya, 2005; Strong, Koberle, de
Ruyter van Steveninck, & Bialek, 1998; Tononi, Sporns, & Edelman,
1994). Several models of neural functioning suggest that
patterns of neural activity are also characterized by transitions
between familiar low-entropy attractor states, albeit within the
context of a great deal of complexity and chaotic activity (Amit,
1992; Tsuda, 2001). Karl Friston and colleagues, for example,
have explicitly emphasized the importance of entropy minimization
as an organizing principle of neural function (Friston, 2009,
2010; Friston, Kilner, & Harrison, 2006). According to these
authors, an important goal of any nervous system is to minimize
the experience of entropy and unpredictability by continually
modifying neural structures in response to environmental information that arises during goal pursuit. They proposed that
the minimization of entropy at the neural level supports cognitive and behavioral adaptation at the level of the individual
by providing more pragmatically adaptive representations of the environment.
Within a dissipative systems context, the brain is able to adapt to changing environmental events and contingencies by
continually reforming its patterns of structural organization, minimizing the entropy that is encountered while trying to
satisfy the organism’s basic needs (Friston, 2010; Kelso, 1995). The effort to reduce the spread of entropy is an ongoing
process, as entropy levels will continually fluctuate as the brain shifts through dynamic patterns of activation and
connectivity. It is the psychological experience of entropy that we focus on in our model and to which we now turn.
PAGE 5 PSYCHOLOGICAL ENTROPY

Вам также может понравиться