Вы находитесь на странице: 1из 34

“AÑO DEL BUEN SERVICIO AL CIUDADANO”

UNIVERSIDAD NACIONAL DE SAN AGUSTIN DE


AREQUIPA
FACULTAD DE INGENIERIA GEOLOGICA, GEOFISICA Y MINAS

ESCUELA PROFESIONAL DE INGENIERIA GEOLOGICA

FLUIDOS Y TERMODINAMICA

ENTROPIA

DOCENTE: ING. RUSBELL ZEBALLOS DAVILA

ALUMNOS:

KCAPA FLORES, WALTER EDUARDO

QUISPE HUALLPA, RAMIRO RONNY

AREQUIPA – PERU

2016
LA ENTROPIA
INDICE
1.LA ENTROPIA
1.2 LA ENTROPÍA Y LA ENERGÍA "GASTADA".
1.3 ENTROPÍA, EXPANSIÓN Y MUERTE DEL UNIVERSO
2.-DEL MICROCOSMOS AL MACROCOSMOS
2.1- MICROCOSMOS, MESOCOSMOS, MACROCOSMOS DEFINICION
2.1.2- ENTROPÍA MICROCOSMOS
2.1.2.1 INTERPRETACIÓN MICROSCÓPICA DE LA ENTROPÍA

2.2 CALCULO DE LA ENTROPÍA: ESTADOS MICROSCÓPICOS

3.LA ENTROPÍA EN EL SISTEMA SOLAR Y EL UNIVERSO


4.LA LEY DE LA ENTROPÍA
5.LA DESAPARICIÓN DEL SISTEMA SOLAR
6. EL DESTINO DE LAS ESTRELLAS
7. ELUDIR LA CATÁSTROFE
8. LA CONTROVERTIDA ESTABILIDAD DE LA MATERIA
9.- LA ENTROPÍA Y EL TIEMPO
10.- FLECHA DEL TIEMPO
10.1 HISTORIA DE LA EXPRESIÓN
10.2 EXPLICACIÓN
10.3 SIMETRÍA Y ASIMETRÍA
10.4 EJEMPLO DE IRREVERSIBILIDAD
10.5 TIPOS
BIBLIOGRAFIA
1.LA ENTROPIA
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se
encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones
son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las
amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de
restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban
separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la
tercera las rojas, estaban restringidas a un cierto orden.
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han
mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les
restringían han sido quitadas.
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un
orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no
existe orden alguno dentro de la caja.
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de
restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover
alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la
entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la
entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las
condiciones de un sistema.
1.2 LA ENTROPÍA Y LA ENERGÍA "GASTADA".
En el principio enunciado por Clausius que anteriormente citamos, podemos encontrar la relación con
la entropía y la energía liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente
de energía para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema
de chispa del motor, proporciona la energía (química) de combustión, capaz de hacer que el auto se
mueva. ¿qué tiene que ver la entropía aquí?
La energía que el coche "utilizó" para realizar trabajo y moverse, se "gastó", es decir, es energía liberada
mediante un proceso químico que ya no es utilizable para que un motor produzca trabajo.
Este es uno de los conceptos más difíciles de entender de la entropía, pues requiere un conocimiento
un poco menos trivial del funcionamiento de motores, frigoríficos y el ciclo de Carnot. Pero para nuestros
fines con esta explicación es suficiente.
¿Para qué sirve la entropía?
La entropía, como medida del grado de restricción o como medida del desorden de un sistema, o bien
en ingeniería, como concepto auxiliar en los problemas del rendimiento energético de las máquinas, es
una de las variables termodinámicas más importantes. Su relación con la teoría del caos le abre un nuevo
campo de estudio e investigación a este tan "manoseado" concepto.
1.3 ENTROPÍA, EXPANSIÓN Y MUERTE DEL UNIVERSO
Aún no se sabe qué es la entropía; es como el tiempo, sigue siendo una incógnita, se trabaja con ellos,
se conocen muchas de las propiedades de ambos, incluso sabemos que su dirección es siempre hacia
adelante y que apuntan en la dirección, en que se expande el universo, sin saber su naturaleza exacta.
Ya en el año 1929, Edwin Hubble encontró que el universo se expandía, pero hubo mucho escepticismo
entre la comunidad científica. Esto hacía pensar que si el universo no tuvo un comienzo y es estático,
como Einstein creía, llegaría a un estado de equilibrio térmico, en donde el calor alcanzaría su valor
máximo de acuerdo con la ley cero y la segunda ley de la termodinámica: lo llamaban muerte térmica.
Hoy, con modernos radiotelescopios, y dispositivos de alta resolución, se ha podido verificar que
la expansión del universo es real y que se acelera a una tasa tal que ha llegado a superar la velocidad de
la luz. Como lo que se expande es el espacio y el límite de velocidad no es aplicable en este caso, entonces
el volumen del universo aumenta demasiado rápido. Así, no queda lugar a esperar el equilibrio térmico,
pues con la expansión, se reduce la temperatura total y el final será, más bien, muy frío, casi el cero
absoluto.
La entropía puede disminuir localmente, pero la entropía total del universo sigue aumentando. Resulta
bien práctica para los cálculos en termodinámica aplicada a la ingeniería, incluso da muchas pistas para
el estudio científico, pero aún no se cuenta con una definición exacta.

2.-DEL MICROCOSMOS AL MACROCOSMOS


Para avanzar en el complejo mundo cuántico se hacían necesarios aceleradores más potentes que los
ciclotrones de Lawrence. En 1945, Mac Millán en Estados Unidos y Veksler en la Unión Soviética
propusieron el principio de estabilidad de fase para construir aceleradores más potentes, surgieron así
el sincrociclotón y el sincrotrón; además, merced a los trabajos de Álvarez, Hansen y Panfosky, se
construyeron aceleradores lineales capaces de alcanzar los 900 MeV, como el de Stanford. En 1943
Oliphant proponía un nuevo tipo de acelerador en forma de anillo, en el que la aceleración se lograría
por la variación simultánea del campo magnético y la frecuencia de la tensión aplicada, principio que fue
desarrollado en 1952 por Courant, Livingston, Snyder y Cristofilos, que desembocó en la construcción
en Ginebra del sincrotón del CERN en 1959, que alcanzaba los 28,5 GeV. Entre tanto, la radiación cósmica
vino en ayuda de los físicos. De esta forma, fueron identificados los piones y los muones mediante la
interpretación de las trazas dejadas en placas fotográficas por los rayos cósmicos.Microcosmos y
macrocosmos aparecían ligados entre sí. La estructura de la materia y del Universo debían de mantener
una fuerte interrelación. De alguna manera la relatividad y la mecánica cuántica deberían estar
relacionadas. De hecho, esa ligadura ya se había puesto de manifiesto con el "principio de exclusión de
Pauli" y la ecuación de Dirac, desarrollada en 1928, que le llevó a postular la existencia del positrón,
dando entrada al concepto de antimateria, esto es, la existencia de pares de partículas iguales con carga
distinta. En 1950 en Berkeley se identificaba un nuevo pión, el pión neutro. A partir de entonces han ido
apareciendo nuevas partículas, como los mesones K y los hyperiones. El modelo propuesto por Yukawa
para explicar el comportamiento de la interacción fuerte, responsable de la estabilidad del núcleo
atómico, fue sustituida en los años setenta por la cromodinámica cuántica (QDC) debido a la creciente
complejidad del mundo atómico con la aparición de los quarks. Las partículas que interaccionan
fuertemente se denominan hadrones, que a su vez están integrados por dos familias de partículas los
mesones y los bariones.Las características y propiedades de los bariones ha dado lugar al
establecimiento de la ley de conservación del número bariónico, por la que el número de bariones y
antibariones se conserva y explica la estabilidad del protón, que es un miembro de la familia de los
bariones, y con ella de la estabilidad de la materia. Además de los hadrones, existen los leptones,
constituidos por el electrón, el neutrino y los muones. A su vez los hadrones están formados por quarks;
éstos fueron propuestos en 1964 por Murray Gell-Mann y George Zweig. Los mesones están constituidos
por un par quark-antiquark, mientras los bariones tienen tres quarks. Según la cromodinámica cuántica,
los quarks nunca pueden aparecer bajo la forma de partículas libres. En los años setenta ha sido posible
determinar las cargas de los quarks en el interior del protón, gracias al SLAC (Stanford Linear Accelerator
Center). Junto con los quarks, en el interior de los hadrones se encuentran los gluones, responsables de
la unión de los nucleones, observados en 1979 por el acelerador PETRA de Hamburgo. Como
consecuencia del descubrimiento en la radiación cósmica de una nueva partícula neutra, llamada
hyperión lambda, y del mesón K a ella asociado, se descubrió un nuevo número cuántico, al que se
denominó extrañeza, que aparece asociado a un nuevo quark, el quark "s". La desintegración de las
partículas con extrañeza responde, como la desintegración, a la interacción débil. La combinación de los
quarks "d", "u" y "s" explican la existencia de los hyperiones epsilon, descubiertos a principios de los
años cincuenta, los hyperiones forman la familia de las partículas delta.En 1964 se descubrió una nueva
partícula con extrañeza, la omega (?) predicha con anterioridad por la teoría de Gell-Mann y Ne'eman,
con ella podían interpretarse satisfactoriamente los sistemas de hadrones constituidos por los quarks
"d", "u" y "s". Sin embargo, en la segunda mitad de los años sesenta los físicos predijeron una nueva
interacción, la interacción de la corriente neutra que fue observada en el CERN en 1973, asociada a un
nuevo quark: el quark "c", predicho en 1970 por Sheldon Glashow. En 1974 se descubrió en el laboratorio
Brookhaven, por Sam Ting, y en el SLAC, por Burton Richter, una nueva partícula, la "psi", que Richard
Feynman y Harald Fritzsch atribuyeron a un nuevo número cuántico al que denominaron "encanto". En
1979 se encontraron evidencias de la existencia del número cuántico "encanto" en los bariones, que se
añadían así a los "mesones encantados". En 1970 Gell-Mann y Fritzsch postularon la existencia de un
nuevo número cuántico al que llamaron "color", para explicar por qué el estado de la partícula delta es
antisimétrico como exige el principio de exclusión de Pauli. De esta forma, los quarks podían ser rojos,
verdes y azules -los colores son exclusivamente denominaciones-, con el número cuántico "color" se
desarrolló la cromodinámica cuántica (CDQ), que ha venido ha completar a la electrodinámica cuántica
(QED) que se ocupa de la interacción electromagnética a escala cuántica, para explicar la estructura y
comportamiento de la materia.La física de las partículas elementales ha permitido avanzar en el
conocimiento de la estructura del Universo. De esta forma, relatividad general y física cuántica se revelan
como dos teorías fundamentales para comprender el macrocosmos. La razón de ello estriba en el hecho
de que las partículas elementales requieren altísimas energías para su producción, capaces de romper
las fuerzas de ligadura del núcleo atómico. Estos procesos sólo se producen en el interior de las estrellas
o en la explosión de las mismas en sus variadas formas, en función de su masa: supernovas y gigantes
rojas, que dan lugar a estrellas de neutrones, agujeros negros, enanas blancas y enanas negras; o en las
primeras etapas del "big bang". El "big bang" se considera la singularidad inicial de la que parte nuestro
actual Universo. La teoría del "big bang"forma parte del modelo estándar surgido de la relatividad
general, que además se ajusta con bastante precisión a los resultados de la física cuántica en el mundo
de las partículas elementales. En 1948, George Gamow predijo que debería existir un rastro en el
Universo de la explosión inicial o "big bang", dicho rastro fue observado en 1965 por Penzias y Wilson,
era la "radiación de fondo de cuerpo negro", radiación térmica de 2,7 grados Kelvin residuo del "big
bang".En los instantes posteriores al "big bang" el Universo estaba extremadamente caliente y
condensado, en aquellos momentos las leyes de la física no operaban y las partículas elementales de la
materia no eran viables. Steven Weinberg ha descrito lo que sucedió en el lapso de tiempo comprendido
entre una diezmilésima de segundo después del "big bang" y los tres primeros minutos del Universo
actual, lapso en el que el Universo inició su expansión y enfriamiento, haciendo posible las fuerzas de
ligadura que regulan las leyes de la física. Una hora y cuarto después del "big bang" la temperatura ha
descendido a algo menos de una décima parte, unos 300 millones de grados Kelvin; en ese momento las
partículas elementales se encuentran ligadas en núcleos de helio o en protones libres, además de la
existencia de electrones. Alrededor de 700.000 años después del "big bang" la expansión y el
enfriamiento del Universo permitió la formación de núcleos y átomos estables, el desacoplamiento de
la materia y la radiación posibilitaría el inicio del proceso de formación de galaxias y estrellas.El modelo
actual del Universo incluye la "flecha del tiempo", que en el ámbito de la física había sido introducida
por Ludwig Boltzmann con la segunda ley de la termodinámica en el último tercio del siglo XIX. La
segunda ley de la termodinámica afirma que la entropía de un sistema aislado aumenta con el tiempo.
En términos generales, la entropía de un sistema es una medida de su desorden manifiesto. La segunda
ley de la termodinámica introduce la asimetría temporal, o "flecha del tiempo". El Universo es por
definición un sistema aislado, además el modelo actual del Universo dinámico y en expansión se ajusta
a la existencia de una "flecha del tiempo", cuya dirección discurriría desde el "big bang" hacia el futuro.
El problema se plantea a la hora de hacer compatible la entropía del Universo, regida por la segunda ley
de la termodinámica, y las ecuaciones de la relatividad general y de la mecánica cuántica que son
simétricas en el tiempo, especialmente las primeras, en tanto en cuanto la reducción del paquete de
ondas dentro del formalismo mecanocuántico es asimétrica temporalmente. En la actualidad se piensa
que la solución a este problema vendrá de la mano de la construcción de una "teoría de la gravitación
cuántica", una teoría cuántica de la estructura del espacio-tiempo, para lo que el estudio de los "agujeros
negros" se revela como el camino más factible. Los trabajos, de Roger Penrose y Stephen Hawking van
en esta dirección. La revolución científica del siglo XX ha dado lugar a una nueva representación del
Universo y de la Naturaleza. Del Universo infinito y estático característico de la época moderna, surgido
de la revolución newtoniana, se ha pasado al universo dinámico y en expansión de las revoluciones
relativista y cuántica. De la Naturaleza regida por leyes deterministas, derivadas del carácter universal
de la Ley natural de la causalidad, se ha pasado a una concepción de la Naturaleza articulada sobre la
base de los procesos complejos, en los que el carácter probabilístico de los fenómenos cuánticos afecta
no sólo al ámbito de la física del microcosmos y del macrocosmos sino también a los propios procesos
biológicos, como consecuencia de la trascendencia de los procesos bioquímicos en los organismos
vivos.La representación determinista característica de la racionalidad de la civilización occidental en la
época moderna, que se articulaba en tres grandes postulados, espacio y tiempo absolutos y principio de
causalidad estricto, tiene que ser reemplazada por una nueva racionalidad. Una nueva racionalidad que,
desde el paradigma de la complejidad, sea capaz de integrar de forma coherente y consistente "azar y
necesidad".

2.1- MICROCOSMOS, MESOCOSMOS, MACROCOSMOS DEFINICION


MICROCOSMOS: MATERIA Y ENERGÍA.
Teoría atómica: la estructura fundamental de la materia. Teoría cuántica: continuidad y discontinuidad,
dualidad e incertidumbre. Campos y partículas. Materia y energía. De la materia inorgánica a la orgánica.
MESOCOSMOS: LA VIDA Y LA TIERRA.
Las bases materiales de la vida. ADN, cromosomas y genes. La teoría de la evolución. Geología y vida.
Extinción y cambio climático.
MACROCOSMOS: ESTRELLAS Y GALAXIAS.
El Sol y su sistema planetario. La vida de las estrellas. La evolución y estructura del Universo. Universo y
materia.
2.1.2- ENTROPÍA MICROCOSMOS
Interpretación microscópica de la entropía
Vimos que podemos calcular la energía interna de un sistema al menos en un principio , sumando todas
las energías cinéticas de sus partículas constituyentes y todas la energías potenciales de interacción
entre las partículas a esto se llama CALCULO MICROSCOPICO de la energía interna
2.1.2.1 INTERPRETACIÓN MICROSCÓPICA DE LA ENTROPÍA

¿En qué consiste la interpretación microscópica de la entropía?

Consiste en la medida del desorden y aleatoriedad molecular, ya que esta no pertenece a una o varias
partículas individuales de un sistema.

La interpretación microscópica nos ayuda a entender la dificultad de la conversión de calor en trabajo

¿A qué se le llama desorden molecular?

A las distancias intermoleculares, al movimiento molecular, las distancias en el espacio y a la perdida de


alineamiento o disposición regular de los átomos.

También podemos realizar un cálculo microscópico de la entropía S de un sistema . A diferencia de la


energía, sin embargo , la entropía no es algo que pertenezca a cada partícula o par de partículas
individuales del sistema , más bien una medida del desorden del sistema en su totalidad

Para ver un ejemplo de cómo se relaciona el comportamiento microscópico de un sistema con su


comportamiento macroscópico, vamos a analizar la expansión libre de Joule desde el punto de vista
de las moléculas que constituyen el gas.

En el siguiente dibujo se ha representado un sistema aislado: un gas encerrado en un recipiente. Para


simplificar, el gas representado está constituido por cuatro moléculas; sin embargo, hay que tener en
cuenta que los sistemas reales poseen un número mucho mayor de partículas. El gas se encuentra en el
compartimento de la izquierda, y en el derecho está hecho el vacío.

Cuando se elimina la pared que separa ambos compartimentos, la experiencia nos dice que el gas tiende
a ocupar todo el volumen disponible. En principio, sin embargo, cualquiera de las configuraciones
representadas en la figura inferior sería posible. Dichas configuraciones se denomiman macro
estados del sistema.
Para un macroestado determinado, las moléculas que constituyen el gas pueden a nivel microscópico
(en nuestro ejemplo, asignando distintos colores a las moléculas) distribuirse según diferentes
configuraciones, denominadas microestados. La multiplicidad es el número de microestados que
conducen al mismo estado macroscópico (macroestado) de un sistema.

todos los macroestados representados en la figura anterior, el (c) tiene mayor multiplicidad, ya que a
nivel microscópico, las moléculas pueden adoptar las siguientes configuraciones:

Para saber cómo calcular microscópicamente la entropía ,


primero debemos analizar la idea de los estados
macroscópicos y microscópicos

Estados microscópicos vs estados macroscópicos de un sistema


• Lanzo de N monedas – la ½ son cruz y la ½ son cara

• Esto es descripción estado macroscópico del sistema

• Descripción estado microscópico = estado de cada monedas


individual

Puede haber muchos estados microscópicos que corresponden


a la misma descripción macroscópica (multiplicidad)

Vemos un ejemplo con cuatro monedas

El estado macroscópico: la mitad son cara y la mitad son cruz

Estado microscópico: 1 cara , 2 cruz , 3 cara , 4cruz

Estado macroscópico ordenado : 4 caras o 4 cruz (todas iguales) se especifica la situación de todas las N
monedas
La mitad cara la mitad cruz dice muy poco del estado individual de cada moneda por tanto el sistema
esta desordenado pues sabemos poco de su estado microscópico en comparación en todas las caras o
todas cruz

Para N= 4 tiene 5 estados macroscópicos posibles y 16 (24) estados microscópicos posibles

En general, tiene 2N estados microscópicos posibles ⇒aumenta muy rápidamente - para

N=100 => 2100 = 1.27 X1010

El estado macroscópico más probable ⇒ mayor número de estado microscópico (o más alta
multiplicidad)

Probabilidad de 2 caras + 2 cruces = 6/16 - probabilidad de 4 caras o 4 cruces = 1/16

El estado macroscópico con 4 caras o 4 cruces tiene más alto nivel de orden que el estado con 2 cruces
y 2 caras ⇒sistema con más alta probabilidad tiene más bajo nivel de orden o más alta entropía
Estados macroscópicos con más alta entropía tiene más alta multiplicidad ⇒ más probables
Tienen mayor posibilidad de estados microscópicos mayor desorden y por lo tanto mayor entropía
(medida cuantitativa del desorden )
Consideramos ahora un gas con que contiene un numero de Avogablo de moléculas

Estado microscópico se da por : presión P , volumen V y temperatura T

Estado microscópico determinado por r , v de todas las moléculas


Una descripción de estado microscópico
implica dar la posición y estado de cada
molécula de gas a una P,V,T dados
El gas podría estar en un número
astronómicamente grande de estados
microscópicos dependiendo de las posiciones y
velocidades de sus 6.02𝑥1023 moléculas
Si el gas se expande para alcanzar un volumen
aumenta las posibles posiciones al igual que el
número de estados macroscópicos posibles el
sistema se desordena mas y la entropía
aumenta .
Para cualquier sistema el estado macroscópico
correspondiente y es también el estado
macroscópico con el mayor desorden y la
mayor entropía
2.2 CALCULO DE LA ENTROPÍA: ESTADOS MICROSCÓPICOS

Como se muestra en la ecuación, al aumentar el número de estados microscópicos posibles w aumenta


la entropía S

Lo que importa es un proceso termodinámico no es la entropía absoluta S , sino la diferencia de entropía


entre los estados inicial y final . por lo tanto , una definición igualmente valida y útil seria S=K In w +C ,
donde C es una constante , ya que C se cancela en cualquier cálculo de diferencia de entropía entre dos
estados. No obstante es mejor igualar esta constante a cero y usar la ecuación . Así y dado el valor más
pequeño posible de w es 1 , el valor más pequeño posible de S de ciertos sistemas es K In 1 = 0

En la entropía resulta difícil calcular w por lo que la ecuación, solo suele usarse para calcular la entropía
absoluta S de ciertos sistemas especiales. No obstante , podemos usar esta relación para calcular
diferencias de entropía entre un estado y otro . Considere un sistema que experimenta un proceso
termodinámico que lo lleva del estado macroscópico 1 , que tiene 𝑊1 posibles estados microscópico al
estado macroscópico 2 , que tiene 𝑊2 estados microscópicos . El cambio de entropía en este proceso es

La diferencia de entropía entre los dos estados macroscópicos depende del cociente de los números
posibles estados microscópicos
Estados microscopicos y la segunda ley
La relacion de la entropia y el numero de estados microscopicos nos permiten entender mejor el
plantamiento de entropia de la segunda ley de la termodinamica , de que la entropia de un sistema
cerrado nunca puede disminuir
Esto implica que un sistema cerrado nunca puede sufrir espontaneamente un proceso que reduzca el
número de estados microscopicos posibles .
3.LA ENTROPÍA EN EL SISTEMA SOLAR Y EL UNIVERSO
Entre las preguntas que desde el comienzo del pensamiento racional aguijonearon el espíritu humano
destaca la cuestión referida la perdurabilidad del cosmos y la repetibilidad indefinida de los procesos
naturales. En otras palabras, ¿todo permanece esencialmente igual a través de los continuos ciclos de la
naturaleza? ¿o puede distinguirse en ellos una dirección, una tendencia susceptible de ser desvelada por
una paciente indagación científica?
La respuesta a tan trascendente cuestión llegó de la mano de la termodinámica, una rama de la física
fuertemente emparentada en sus orígenes con el uso y la explotación de la maquinaria durante la
Revolución Industrial. Los ingenieros encargados de obtener el máximo rendimiento a sus factorías,
estaban muy interesados en descubrir si existía algún procedimiento para incrementar la cantidad de
trabajo útil extraíble de las máquinas que allí se empleaban. Un asunto en apariencia tan mundano,
implicaba en realidad profundas investigaciones acerca de la transformación de la energía en trabajo y
calor.
Los físicos del siglo XIX se enzarzaron en tales estudios no tanto por las repercusiones industriales que
de ellos se pudieran desprender, como por los avances en la comprensión de las características de un
concepto capital de la física, cual es el de la energía. Los resultados de sus esfuerzos alumbraron la mayor
parte de lo que todavía hoy se estudia bajo el nombre de termodinámica.

Figura 1. La máquina de vapor fue otro de los resultados de la Revolución Industrial que impulsó
poderosamente las investigaciones en termodinámica.
El término en sí es suficientemente sintomático, pues se deriva de las raíces griegas termos (“calor”) y
dynamis (“fuerza”), indicando con ello la atención dedicada por sus cultivadores a desentrañar las re-
laciones entre los focos de calor y las fuerzas motrices que éstos podían ejercer.
El cuerpo teórico de la termodinámica se asienta sobre un conjunto de leyes que parecen ser soberanas
en todos los campos de la naturaleza, y actuar como principios genuinamente fundamentales del mun-
do físico. La primera ley termodinámica enuncia que la energía no se crea de la nada ni se desvanece sin
más, sino que tan solo se transforma ordenadamente de unos tipos en otros. Los principales proce- sos
mediante los que se transfiere la energía de unos sistemas a otros, son el trabajo y el calor.
Cuando un remolcador arrastra una embarcación averiada hasta la costa, la energía generada por el
motor de la nave remolcadora se emplea en el arrastre de la nave remolcada y decimos que la primera
realiza un trabajo sobre la segunda. En cambio, si el remolcador permanece amarrado a puerto con el
motor en marcha, el único efecto conseguido será calentar sus piezas y engranajes; la energía del mo-
tor se ha disipado como calor.
En los dos casos expuestos nada de la energía producida se ha perdido; simplemente en el primero se
ha transmitido a otro cuerpo como trabajo, y en el segundo se ha transferido al ambiente como calor.
La primera ley de la termodinámica -“ley de conservación de la energía”- determina la imposibilidad de
que las máquinas funcionen sin combustible o cualquier otra fuente de energía motriz. Esto es lo que se
conoce como “imposibilidad del móvil perpetuo de primera especie”, pues de lo contrario la energía que
mantuviese la máquina en funcionamiento habría aparecido de la nada.
4.LA LEY DE LA ENTROPÍA
Esta primera ley de la termodinámica, sin embargo, nada establece sobre el grado en que una determi-
nada cantidad de energía puede convertirse en trabajo útil. Este era un asunto de primera magnitud pa-
ra los ingenieros decimonónicos dedicados a la termodinámica por motivos profesionales. Ellos sabían
que cuando un motor está en marcha, tanto produce trabajo como calor, y eran asimismo conscientes
de que cuanto mayor fuese el calor generado menor era el trabajo útil obtenido. Sería muy conveniente
-se dijeron- conocer las normas que regulan esta clase de situaciones.
La termodinámica aportó de nuevo la solución a través de su segundo principio, o “ley de la entropía”.
En su versión más simplificada declara que cualquier sistema físico debe poseer dos de sus partes a
diferente temperatura si deseamos obtener de él algún trabajo útil. Definiendo una magnitud denomi-
nada entropía como la cantidad de energía transferida en forma de calor desde la parte caliente a la fría
dividida entre la temperatura a la que sucede la transferencia, resulta que el trabajo útil extraíble de un
sistema es inversamente proporcional a su entropía. Cuando la entropía en un sistema dado alcanza un
valor máximo, éste se mantiene constante con el tiempo, el trabajo útil extraíble es cero, y la tempera-
tura se hace la misma en todas sus partes.

Fig 2 Una máquina real sólo puede funcionar cuando hay una diferencia de temperaturas de la que
extraer trabajo útil
La entropía se entiende así como una forma “degradada” de la energía, en la cual no puede ser em-
pleada para realizar trabajo alguno. En la práctica el rendimiento mecánico de un proceso, η, se expre-
sa mediante la igualdad η = 1 -(Tfrio /Tcaliente ), donde aparecen las temperaturas del foco frio y del ca-
liente. Cuando la entropía es máxima, Tfria = Tcaliente , y el rendimiento se anula incluso aunque utilizá-
semos una maquinaria ideal sin fricción entre sus piezas.
En otras palabras, ni siquiera en un mecanismo ideal sin rozamiento la energía invertida puede conver-
tirse íntegramente en trabajo; una porción de ella se disipará siempre como calor. Sólo si Tfrio = 0 K el
rendimiento será la unidad. Sin embargo, el tercer principio de la termodinámica proclama precisa-
mente la imposibilidad física de acceder al cero absoluto de temperaturas.
Otro modo de expresar la segunda ley de la termodinámica es el que establece que en un sistema aisla-
do -uno que no intercambia materia ni energía con su entorno- la entropía siempre aumenta o, en caso
de alcanzar su máximo, permanece constante, pero jamás disminuye por sí sola. A ello se debe que las
máquinas se desgasten, las rocas se erosionen y la vitalidad de los organismos decaiga. No es cierto,
pues, que el comportamiento cíclico de la naturaleza no introduzca en ella cambios sustanciales. De un
modo u otro, la entropía siempre acaba creciendo, la energía se degrada en su capacidad de producir
trabajo, y la temperatura tiende a hacerse uniforme por todo el universo.
Esta circunstancia nos brinda un peculiar procedimiento para distinguir el pasado del futuro, pues los
estados de mayor entropía serán los que se encuentren en el futuro de aquéllos con entropía menor, y
este es un hecho tan esencialmente irreversible como el mismo paso del tiempo. Imaginemos que pro-
yectan ante nosotros una película donde se ve un péndulo oscilando de derecha a izquierda. Sin mejo-
res detalles nos resultaría imposible decidir si la película estaba siendo proyectada hacia delante o hacia
atrás, ya que en ambos casos el péndulo se limitaría a oscilar de un lado a otro.
Pero si en esa filmación apareciese un charco de agua derramada saltando para retornar al vaso del que
había caído, no abrigaríamos dudas de que estaba siendo proyectada a la inversa. El agua derramada no
regresa espontáneamente a su recipiente, ni los jarrones de porcelana china -por desgracia- se re-
componen de sus pedazos por sí mismos cuando caen al suelo. El transcurso del tiempo desde el pasa-
do hacia el futuro viene marcado en física por el crecimiento de la entropía en la naturaleza, fenómeno
que se designa como “la flecha termodinámica del tiempo”.
El siguiente paso de importancia en la historia de esta ciencia se dio por obra del físico austriaco Lud-
wig Boltzmann (1844-1906), una de las más esclarecidas mentes de su tiempo y pionero en muchos de
los conceptos que hoy son de uso cotidiano para todos los profesionales de la física. De entre los gran-
des méritos de Boltzmann, el que aquí más nos interesa se refiere a su novedosa manera de enfocar el
estudio de la termodinámica. Boltzmann fue el primero en apelar a la estructura microscópica de la
materia como base y justificación de los intercambios de energía que la termodinámica anterior a él sólo
había estudiado desde un punto de vista macroscópico.
Para lograrlo hubo de admitir como punto de partida la existencia de los átomos como micro-
componentes individuales de la materia, y aplicarles métodos estadísticos a fin de inferir la conducta
colectiva de grandes cantidades de ellos. Semejante decisión le enfrentó por un lado con W. Ostwald y
los llamados “energetistas”, físicos convencidos de que la hipótesis atómica de la materia era tan su-
perflua como imposible de probar, y por otro con quienes repudiaban el uso de la estadística en la ciencia
física, hasta entonces caracterizada por la perfección y exactitud de sus predicciones. Estos dos arduos
frentes de oposición enredaron a Boltzmann durante años en amargas disputas, las cuales, pro-
bablemente, acentuaron los amagos depresivos de su temperamento que finalmente le llevaron al sui-
cidio.
Su obra, empero, sobrevivió largamente a la desaparición de su autor y a la resistencia de sus detracto-
res, encarnándose hoy en un campo de la física tan imponente como la termodinámica estadística. En
ella se relaciona la temperatura con le energía cinética de vibración de los componentes microscópicos
de un sistema, y la entropía con el grado de desorden de éstos. Que un vaso de agua se halle a 50ºC
significa que sus moléculas vibran con una cierta medida de energía cinética menor que las de otro va-
so, digamos, a 30ºC.
Asimismo, las moléculas del agua desparramada por el suelo presentan un mayor grado de desorden
que cuando se encontraban todas reunidas en el interior del recipiente que las contenía. En opinión de
Boltzmann, los sistemas físicos evolucionan hacia sus estados más probables y permanecen en ellos
indefinidamente cuando tras un cierto tiempo los alcanzan. Por tanto, podríamos decir con el físico
austriaco que la segunda ley de la termodinámica no obliga al crecimiento ineludible de la entropía; más
bien determina que su aumento sea extraordinariamente más probable que su disminución.
Figura 4. La configuración (a) está más ordenada –posee menos entropía– que el estado (b)
Recurramos de nuevo a un ejemplo lo más gráfico posible. Cuando dejamos abierto un frasco de colo-
nia durante un caluroso día de verano, es de esperar que si tardamos mucho en regresar por él lo en-
contremos prácticamente vacío. La elevada temperatura ambiente ha suministrado a las moléculas de
colonia la energía cinética necesaria para desligarse unas de otras y comenzar a flotar en el aire: la co-
lonia se ha evaporado.
Indudablemente el grado de desorden de las moléculas de colonia cuando flotan por todo el volumen
de la habitación, es superior al que exhibían cuando estaban todas concentradas en el interior del frasco,
aunque sólo sea porque en el primer caso tienen bastante más espacio para moverse que en el segundo.
Pero no es del todo imposible, desde este punto de vista, que por una casual coincidencia de sus
movimientos la totalidad de las moléculas de colonia volviesen a reunirse en el interior del frasco del
que escaparon; tan sólo resulta extremadamente improbable.
Trabajos recientes del químico y premio Nóbel Ilya Prigogine aplicando la dinámica no lineal a los
sistemas termodinámicos, parecen indicar que tal improbabilidad es realmente infinita, por lo que a
todos los efectos podría mantenerse el planteamiento de que la segunda ley de la termodinámica es
inviolable y el crecimiento de la entropía indefectible.
Las consecuencias de la ley de la entropía para los seres vivos, distan mucho de resultar alentadoras. La
vida se sostiene gracias al flujo constante de energía que los organismos reciben de su exterior en forma
de luz, calor, alimentos y -los que respiren- oxígeno. Cuando la entropía sea máxima en el uni- verso,
todas las regiones igualarán sus temperaturas, cualquier flujo de energía cesará y la vida se tor- nará
insostenible.
La degradación energética implícita en el aumento de entropía, entraña que finalmente no quedará
energía útil para impulsar las delicadísimas reacciones químicas que constituyen el soporte vital de los
organismos. A fin de cuentas, todos nuestros alimentos proceden directa o indirectamente de la activi-
dad vegetal, bien porque consumamos las mismas plantas, o bien porque consumamos animales ali-
mentados a su vez con vegetales. Las plantas sustentan su metabolismo con la energía luminosa que
reciben del Sol, y el Sol sigue luciendo a causa de las reacciones nucleares que acaecen en su seno.
Pero toda esa cadena se basa en procesos que aumentan día a día la entropía del conjunto. En algún
momento del futuro nuestra estrella agotará su combustible nuclear y cualquier rastro de vida en la
Tierra se extinguirá. Nada podremos hacer por evitarlo, ni aunque la tecnología haya alcanzado cotas
suficientes para trasladarnos a vivir en otro sistema estelar, pues más tarde o más temprano la entropía
reinará por doquier en el cosmos.
5.LA DESAPARICIÓN DEL SISTEMA SOLAR
El triunfo de la ley de la entropía sobre el desequilibrio térmico hoy presente en la naturaleza no tendrá
lugar de modo súbito sino gradualmente. Una simple observación del firmamento demuestra que nues-
tro universo se halla muy alejado de un estado de equilibrio en el que la entropía sea máxima. Los
minúsculos puntos brillantes que contemplamos en el cielo nocturno, como incandescentes cabezas de
alfiler prendidas en un hermoso acerico negro, son estrellas ardientes separadas entre sí por inmensas
distancias de gélido espacio vacío.
De haberse alcanzado un equilibrio térmico universal, no nos encontraríamos con tan acusadas dife-
rencias de temperatura. Las estrellas, por consiguiente, terminarán por apagarse y sus restos igualarán
su temperatura a la del espacio circundante. Pero antes de que ello ocurra, habrán tenido lugar muchos
otros fenómenos interesantes de degradación en los sistemas ordenados.
El más evidente de ellos es la perturbación que en la rotación terrestre introducirán las fuerzas gravita-
torias de marea producidas por el Sol y la Luna.En el capítulo precedente vimos que los efectos gravi-
tacionales de marea provocan una fricción de los mares y océanos contra las tierras emergidas, que
frena lentamente la rotación de nuestro planeta sobre su eje. El día, tomado como el periodo de rota-
ción terrestre, se alarga una milésima de segundo en cada siglo.
Ahora bien, las leyes de conservación impuestas por la física, exigen que el momento angular perdido
por la Tierra se transfiera en primer lugar a la Luna. A resultas del momento angular ganado, nuestro
satélite1 1 Por la misma razón se calcula que hace 4.000 millones de años, la Luna se situaba a unos
16.000 km de centro de la Tierra, el día terrestre era de cinco horas y el mes lunar duraba algo más que
uno de esos días. Se alejará de la Tierra incrementando el tamaño de su órbita y la duración del mes
lunar (tiempo tardado por la Luna en completar su órbita). Dentro de muchos miles de años este proceso
conducirá a la igualación final entre el mes lunar y el día terrestre, ambos equivalentes a 47 de los ac-
tuales días terrestres de 24 horas. Entonces la Tierra presentará siempre la misma cara a la Luna, la cual
será perpetuamente visible en uno solo de los hemisferios, el occidental o el oriental.
Cuando todo esto haya ocurrido, la fuerza de marea debida al Sol ocupará el lugar de la de la Luna
frenando todavía más el giro terrestre. Esta influencia producirá un nuevo acercamiento de la Luna a la
Tierra, mientras que ambos se alejan progresivamente del Sol. La excesiva proximidad de nuestro
satélite ocasionará efectos gravitacionales desastrosos sobre la superficie terrestre. Mareas oceánicas
de decenas de metros arrasarán las costas y gran parte de la extensión de todos los continentes, provo-
cando la desaparición de numerosas islas y archipiélagos.

Figura 5. Las mareas gravitatorias frenan nuestro planeta


Las tensiones ejercidas sobre el mismo material rocoso del interior terrestre se propagarían como on-
das de un hemisferio al otro causando gigantescos terremotos y erupciones volcánicas sin parangón.
Una vez que nuestro satélite haya reducido su distancia a la Tierra a menos de unos 16.000 km, habrá
traspasado el límite de Roche, distancia dependiente de la masa de cada cuerpo celeste a partir de la
cual su fuerza de marea es capaz de despedazar cualquier objeto en órbita a su alrededor. Así, la Luna
se verá convertida en escombros que compondrán en torno a la Tierra un anillo como el de Saturno.
La acción de las mareas gravitacionales solares proseguirá aun después de la destrucción de la Luna,
hasta que el periodo de rotación de la Tierra sobre su eje se equipare al de su órbita en torno al Sol, el
cual durará para entonces unas cuantas semanas más que en la actualidad. En ese momento nuestro
planeta presentará ya para siempre la misma cara hacia el Sol, de modo que ese hemisferio quedará
convertido en un desierto abrasador donde la vida se hará imposible
Por el contrario, el lado opuesto pasará a cubrirse con fabulosas cortezas de hielo cuyo grosor se con-
tará por centenares de metros. La vida -si algo de ella resiste tras tan formidables cataclismos- única-
mente resultaría sostenible en una estrecha franja, tal vez unos cientos de kilómetros, entre ambos
hemisferios, suponiendo, desde luego, que el alejamiento del Sol mencionado antes no haya transfor-
mado la totalidad del planeta en una inhóspita bola de nieve.
El único consuelo que puede aportarse ante tan lóbregas perspectivas es que antes de que todo esto
suceda habrán tenido lugar en el propio Sol cambios mucho más espectaculares y dramáticos para
nosotros. Tales alteraciones están estrechamente relacionadas con la composición química y la masa de
las estrellas, características estas que deciden su destino final y el del séquito de planetas que acaso las
acompañe. El género y proporción de los elementos químicos contenidos en las estrellas o en cualquier
objeto astronómico, se determinan de modo muy similar al empleado con cualquier muestra en un la-
boratorio terrestre. En ambos casos la herramienta primordial del análisis es la luz emitida o absorbida
por el elemento a especificar, actividad a la que técnicamente se conoce como espectroscopía.
6. EL DESTINO DE LAS ESTRELLAS
Pensemos en una muestra de un elemento a la que se obliga a emitir luz mediante una descarga eléctri-
ca u otro procedimiento cualquiera. La luz despedida se hace pasar por una rendija para enfocarla co-
mo un estrecho haz luminoso, y luego atraviesa un prisma detrás del cual se coloca una pantalla o una
placa fotográfica. Sobre ella se observará una serie de líneas de colores, correspondientes a la descom-
posición de la luz emitida en las distintas longitudes de onda que contenía.
El conjunto de estas líneas constituye el llamado “espectro” (electromagnético) de un elemento, una
marca de identificación tan particular e intransferible como la huella dactilar de un individuo. En lugar
de un espectro de emisión, como era éste, podemos contar también con uno de absorción, originado
por la ausencia de unas líneas debidas a la absorción de ciertas longitudes de onda por un elemento en
estado gaseoso a través del cual se ha hecho pasar un haz de luz blanca.

Figura 6. Un rayo de luz blanda se descompone en colores al atravesar un prisma de vidrio


El espectro de la radiación emitida por las estrellas se realiza de manera análoga, enfocando en primer
lugar mediante un telescopio la luz del astro sobre los dispositivos pertinentes. A partir del estudio delas
líneas registradas, es posible deducir abundante información sobre la presión y la temperatura este-
lares, así como la propensión a irradiar o absorber de los átomos y las energías puestas en juego.
Una de las conclusiones, a la vez más importantes y menos resonantes de los primeros análisis espec-
troscópicos, fue la constatación de que todo lo que conocemos en el universo se halla constituido por
los mismos elementos presentes en la Tierra. Ello, pese a su aparente insignificancia, refuerza nuestra
seguridad en el hecho de que las leyes de la naturaleza son las mismas con independencia del lugar del
cosmos donde nos encontremos. Así, por lo menos, cuando nuestras investigaciones se vean recom-
pensadas por el éxito, sabremos que nuestros descubrimientos gozarán de validez universal.
La mayor parte de la vida de una estrella corriente discurre transformando hidrógeno en helio por me-
dio de las oportunas reacciones nucleares. La radiación desprendida en tales reacciones -parte de la cual
sale al exterior y, por ejemplo, llega a la Tierra en el caso del Sol- equilibra con su presión la ten- dencia
de la masa estelar a comprimirse sobre sí misma por causa de su propia gravedad. En un dia- grama en
el que se represente la luminosidad en función de la temperatura, o diagrama H-R, el 98% de las estrellas
se agrupan en una zona llamada por ello secuencia principal.

Figura 7. Ejemplo del diagrama H-R, donde la aparece la secuencia principal


Como sabemos, los átomos son los constituyentes microscópicos de la materia, formados ellos mismos
a su vez por partículas llamadas protones (con carga eléctrica positiva), neutrones (sin carga) y elec-
trones (carga negativa). Los protones y los neutrones se concentran en el núcleo, mientras los electro-
nes permanecen en la corteza externa del átomo. El número de protones de cada núcleo -el número
atómico- define el tipo de elemento químico de que se trate, de manera que las reacciones nucleares
producidas en las estrellas modifican la cantidad de protones de ciertos núcleos para convertirlos en
otros.
El proceso no es sencillo por cuanto que las cargas eléctricas del mismo signo se repelen y, por tanto, la
repulsión de los protones que se combinan para formar núcleos más pesados debería descomponer- los
al instante. Si no es eso lo que ocurre, hemos de agradecérselo a la interacción nuclear fuerte, una fuerza
de corto alcance que opera en todos los núcleos atómicos y predomina sobre la repulsión eléc- trica.
Las principales vías para convertir hidrógeno en helio, son dos: el ciclo protón-protón, o ciclo de Bethe,
y el ciclo del carbono, o ciclo de Critchfield. El primero precisa para tener lugar temperaturas superiores
a 2∙107 K e inferiores el segundo.
Figura 8. El ciclo nuclear del carbono
En cada ciclo cuatro átomos de hidrógeno son transformados en uno
de helio, o mejor dicho -ya que la enorme temperatura del interior
del Sol escinde los átomos en un amasijo de núcleos y electrones-
cuatro protones (núcleos de hidrógeno) se convierten en una
partícula alfa (un núcleo de helio).
A medida que la cantidad de hidrógeno disminuye, la energía
producida en estas reacciones decrece, y el equilibrio entre la
atracción gravitacional y la presión de la radiación se ve alterada. La
fuerza gravi- tatoria se hace preponderante sobre la presión de
radiación, el corazón de la estrella se contrae a la vez que las capas exteriores se expanden hasta
tamaños fabulosos, y la evolución del astro entrará en la etapa llamada “de gigante o supergigante”
dependiendo de su masa. Una estrella de tipo solar perma- nece unos diez mil millones de años en la
secuencia principal, a diferencia de las más ligeras, que resisten más tiempo, o las más masivas, que
evolucionan más deprisa.
La senda que desembocará en la muerte de la estrella, depende esencialmente de la masa de ésta. En la
fase de gigante roja y a temperaturas de unos cien millones de grados kelvin, entran en escena otras
reacciones que convierten el helio en otros elementos más pesados, como el carbono, el oxígeno y el
berilio. No obstante, este género de procesos no suele durar mucho dado que en la etapa de gigante
roja la estrella posee mucho menos helio que hidrógeno tenía en su estado anterior. Antes o después el
helio acaba por agotarse, lo que conduce a otro colapso gravitacional, la temperatura interior vuelve a
aumentar y prosiguen las reacciones nucleares generando elementos químicos más pesados. Las capas
exteriores se expanden de nuevo y con ello se enfrían, permitiendo a algunos núcleos recapturar parte
de los electrones perdidos. La reunión de núcleos y electrones tiene un precio energético que el átomo
reconstituido paga emitiendo radiación, la cual presiona sobre las capas exteriores de la estrella
separándolas del resto.
El residuo de este proceso de disgregación es una estrella pequeña, muy densa y muy caliente, llamada
enana blanca. La altísima densidad de estas estrellas -que puede superar con facilidad un millón de veces
la del agua- resulta posible gracias a que en su interior los átomos se hallan totalmente escindi- dos en
núcleos y electrones, y estos últimos pueden ocupar así un volumen mucho menor que cuando
formaban parte de los cortezas atómicas. Tan elevada es la temperatura n el corazón de estas estrellas,
que los electrones se mueven allí con velocidades próximas a la de la luz y la mecánica de Newton deja
de serles aplicable.
Es el turno de utilizar la Teoría de la Relatividad, elaborada por Einstein, en la construcción de mode- los
sobre las enanas blancas. Así lo comprendió el astrofísico Chandrasekar, quien llegó a concluir que sólo
las estrellas de 1,4 veces la masa del Sol pueden ser estables como enanas blancas 2 .Estas estrellas
encuentran su definitivo final radiando toda su energía hasta enfriarse y convertirse en una enana negra.
Con valores que excedan las 1,5 masas solares, las temperaturas suelen elevarse tanto como para fu-
sionar el carbono y el oxígeno produciendo neón, sodio, magnesio, fósforo y azufre. Pasan por la etapa
de supergigante, pierden quizás algo de masa y después, tras contraerse de nuevo, pueden generar to-
dos los elementos del sistema periódico . Al alcanzar temperaturas cercanas a los cinco mil millones de
grados, se desintegran los núcleos menos estables dejando en el interior de la estrella una variedad de
núcleos pesados con predominio del Fe56
Las reacciones de esta última fase son endotérmicas -es decir, requieren aporte de energía para reali-
zarse- y la energía que precisan la obtiene la estrella mediante la contracción gravitacional de sus ca-
pas internas en forma de implosión. Así, el rapidísimo colapso del corazón estelar provoca una colosal
onda de choque que proyecta hacia el exterior gran cantidad de su masa en una explosión de inimagi-
nable violencia denominada supernova.
La enorme cantidad de materia y radicación emitidas (las partículas aceleradas que constituyen los ra-
yos cósmicos, electrones de alta energía, gases incandescentes) es la causa de que el brillo de la estre-
lla que estalla como supernova, sobrepase al de toda la galaxia a la que pertenece. En el curso de este
proceso una fracción sustancial de la masa de la estrella sale despedida al espacio enriqueciendo el
medio interestalar con elementos pesados, los cuales tal vez lleguen a configurar planetas u otras
estrellas de generación posterior.
Mientras tanto, el corazón interno de la estrella prosigue su colapso comprimiendo la materia que lo
forma hasta densidades fantásticas de unos 3∙1014 g/cm3, muy por encima de los 108 g/cm3 de una ena-
na blanca. A tales presiones y densidades los electrones se aceleran a velocidades próximas a la de la
luz, combinándose con los protones para dar neutrones. Lo que queda de la estrella se convierte en un
apretado cúmulo de neutrones cuyo contenido apenas puede comprimirse más. Ese estado de la evolu-
ción estelar se designa como estrella de neutrones, la cual para un valor aproximado de tres masas so-
lares suele contar con un diámetro de entre 10 y 30 km.
Pero si la estrella moribunda posee una masa que supera quince veces la del Sol, ni siquiera una estre-
lla de neutrones es el peldaño final de su declive. Con masas tan importantes, la fuerza gravitacional es
demasiado intensa para ser detenida por las presiones internas de los neutrones que ahora forman la
estrella. En lugar de eso, el corazón estelar se comprime sin límite hasta un estado en el que su volu-
men es cero y su densidad infinita.
Toda la masa restante de la estrella se ha concentrado en un punto sin dimensiones -la singularidad-
donde la gravitación es asimismo infinita. En sus cercanías la atracción gravitatoria disminuye un tan- to,
aunque de todos modos sigue siendo suficiente para retener incluso los rayos de luz que pasen a una
cierta distancia. Como un túmulo terrorífico, la contracción infinita de la estrella se ve rodeada por un
tenebroso halo de penumbra; estamos pues ante un agujero negro.
Lo cierto es que nuevamente ha de recurrirse a la Teoría de la Relatividad para abordar el tratamiento
de objetos cósmicos tan exóticos como los agujeros negros. Haciéndolo así se comprueba que cuanto
menor es la masa de un cuerpo, mayor ha de ser su densidad (o, lo que es lo mismo, menor debe ser su
volumen) para que corra el peligro de transformarse en agujero negro. Una estrella con la masa del Sol
necesitaría reducirse a un tamaño de 3 km, lo que decrece hasta 3 mm si la masa es la de la Tierra. El
colapso de una estrella con cien millones de masas solares la convertirá en un agujero negro si su den-
sidad es igual o superior a la del agua, 1 gramo/cm3.
La densidad crítica a partir de la cual una masa en implosión se derrumba sobre sí misma imparable-
mente hasta el estado de agujero negro, se calcula mediante la ecuación, rc = c6/(4,2∙G3∙M2), siendo c la
velocidad de la luz en el vacío (300.000 km/s), G la constante gravitatoria y M la masa que se con- trae.
Por otro lado, el radio de la región en torno a un agujero negro donde la luz queda cautiva (técni-
camente, “el horizonte de sucesos”) se designa como radio de Schwarzschild, en honor al astrónomo
alemán Karl Schwarzschild (1873-1916), y es rs = 2 GM/c2.
¿Qué sentiría un incauto astronauta que se aproximase demasiado a uno de estos monstruos cósmicos,
y qué vería otro que se mantuviese a salvo observando desde una distancia segura? El primero proba-
blemente no percibiría nada sospechoso durante gran parte del viaje de acercamiento. Pronto, su
proximidad le haría notar el crecimiento desmesurado de la atracción gravitatoria ejercida por la oscu-
ra esfera que tiene delante. Sus instrumentos detectarían entonces que el ritmo de los acontecimientos
en el universo que deja tras de sí se acelera vertiginosamente, en tanto que para él el tiempo transcurre
con normalidad.
Antes de cruzar el radio de Schwarzschild las fuerzas de marea le despedazarían a él y a su nave, pues-
to que la diferencia de intensidad gravitatoria entre un extremo y otro se haría descomunal a causa del
rápido crecimiento de la gravitación en la vecindad de un agujero negro. Traspasando el horizonte de
sucesos, los restos del desdichado cosmonauta y de su nave se comprimirían infinitamente en la singu-
laridad central, como toda la materia que allí cayese.

Figura 9. Representación figurativa de un agujero negro


Otro observador situado a una prudente distancia, comprobaría cómo los movimientos de su compañe-
ro y de su vehículo se irían haciendo más lentos conforme se aproximase a su objetivo; tales son los
efectos de la gravitación sobre el discurrir del tiempo según las teorías de Einstein. Cuando el viajero
suicida alcanzase el horizonte de sucesos, al astronauta alejado le parecería que tarda una eternidad en
traspasarlo si pudiese seguir contemplándolo indefinidamente.
Pero no es eso lo que ocurre, pues en lugar de ello observa como el viajero se queda paralizado justo en
el radio de Schwarzschild, su imagen se hace progresivamente más tenue y finalmente desaparece de la
vista en una fracción de segundo. Así acontece porque un objeto irradia una cantidad finita de luz antes
de acerca un agujero negro, y esa cantidad finita es la que llegaría a un observador externo antes de ser
perdido de vista para siempre.
Parece natural, sin embargo, que a distancias tan ínfimas como las que alcanzaría una gran masa en
proceso de conversión en agujero negro, la Teoría Cuántica -rama de la física a la que concierne in-
vestigar el reino de las micropartículas- tuviese algo que decir. Desafortunadamente la unificación de las
teorías de Einstein y las derivadas de la física de partículas elementales, ha sido una de las empre- sas
más abstrusas y difíciles de la ciencia del siglo XX todavía sin completar. Los teóricos no se dejan arredrar
por ello, y prefieren considerar esta circunstancia como un fastidio pasajero sin demasiada
trascendencia. Confían en que los modelos que describen la aparición y el comportamiento de un
agujero negro, no se apartarán demasiado de los construidos con una teoría unificada como la que se
bus- ca con ahínco, opinión ésta harto discutible.
Ante semejante situación, los astrofísicos han optado por intentar el descubrimiento de algún fenóme-
no cósmico que proporcione indicios a favor o en contra de la existencia de estos objetos. Una forma de
lograrlo sería detectando los rayos X emitidos por el gas y el polvo candente que suele orbitar a su
alrededor. Y así se ha pretendido, pero las fuentes de rayos X halladas hasta el momento bien pueden
atribuirse con igual derecho a muchos otros procesos cósmicos. Otra opción consiste en estudiar los
sistemas estelares dobles en los que se observa un solo miembro del par, con unas siete u ocho masas
solares, girando alrededor de algo que no se percibe. Ese compañero invisible podría ser un agujero
negro, causante de la órbita de su pareja y con frecuencia también emisor de rayos X. Sobre la base de
tales suposiciones se juzga que unos buenos candidatos a la categoría de agujero negro son los objetos
catalogados como Cisne X-1, 226868 HD y Beta-Lyrae.
El Sol carece de masa y densidad suficientes para contraerse en un agujero negro, por lo que es de es-
perar que su final discurra por las etapas de una estrella poco masiva que le conduzcan a morir como
una fría y estéril enana negra. Pero antes, en sus últimos y angustiosos estertores, nuestra estrella habrá
destruido gran parte del sistema planetario, y en particular la Tierra, durante su fase de gigante roja.
Este fatídico desenlace se demorará todavía unos 2.000 millones de años, tiempo estimado en que
permanecerá dentro de la secuencia principal.
Al término de ese periodo, el Sol habrá aumentado su tamaño (un 15% mayor que ahora), su tempera-
tura (unos 6.400 K en superficie) y su luminosidad (unas dos veces más que en la actualidad). Tan
intensas serán las radiaciones ultravioletas recibidas en esos momentos por la Tierra, que resultarán
intolerables para la vida. La temperatura global del planeta y su presión atmosférica ascenderán un 25
%, lo que ocasionará la ebullición violenta de lagos, ríos y buena parte de los mares, mientras inmensas
nubes de vapor de agua se ciernen sombrías sobre continentes convertidos en infernales desiertos.
Tras unos cuatro mil millones de años en este estado, el Sol alcanzará el punto culminante de su etapa
como gigante roja. Su temperatura superficial descenderá hasta los 4.800 K, al tiempo que sus dimen-
siones y su luminosidad se triplican. Nuestro planeta será poco más que un páramo abrasado cuando la
expansión solar comience a engullir los planetas interiores vaporizándolos en fúnebre sucesión: prime-
ro Mercurio, luego Venus, y por fin la Tierra. Los siguientes acontecimientos en nada divergirán de los
relatados antes para una estrella poco masiva.
7. ELUDIR LA CATÁSTROFE
Las previsibles vías de escape propuestas, ante el horroroso destino que espera a nuestro mundo, caen
todavía hoy en el terreno de la más especulativa ficción científica. En los tiempos en que la gigante roja
no se haya desarrollado plenamente, el exceso de radiaciones nocivas puede afrontarse engrosan- do
por medios artificiales la capa de gases atmosféricos -especialmente el ozono- que nos protegen de ellas.
De la luminosidad excesiva podríamos deshacernos poniendo en órbita grandes sistemas reflec- tores
que desviaran parte de la luz o la transformasen en energía aprovechable.
No obstante, nada de esto servirá cuando el Sol crezca hasta devorar los planetas más cercanos. Como
es evidente, la única salida para que la humanidad sobreviva consistiría en escoger entre una doble
elección: o bien toda la población del globo (o parte de ella) se trasladaría a colonizar otros planetas de
condiciones más favorables para la vida, o bien la propia Tierra habría de ser desviada de su órbita en
una proporción suficiente para escapar al desastre que se avecinará.
La primera alternativa se enfrentaría, desde nuestra perspectiva actual, a gravísimas complicaciones
técnicas concernientes al suministro de energía necesario para el trayecto, el sostenimiento de las ne-
cesidades de tan ingente masa de viajeros, el peligro de los rayos cósmicos o de colisión con algún cuerpo
celeste, los problemas fisiológicos y de convivencia derivados de la falta de gravedad o de la escasez de
espacio vital, las reparaciones en pleno vuelo y, sobre todo, la necesidad de encontrar un mundo que se
adecue a nuestras características biológicas. Probablemente la ciencia futura solucione estos
inconvenientes, pero en el presente no podemos asegurarlo.
La alternativa de alterar la órbita de la Tierra, en cambio, resulta mucho más difícil de contemplar con
seriedad. La idea en sí no es nueva; Julio Verne la utilizó ya en su novela El secreto de Maston, en la que
un sabio excéntrico (como suelen ser todos los sabios novelescos) sugiere variar el eje de rotación de la
Tierra mediante un explosivo de su invención al efecto de descongelar los polos y explotar las riquezas
mineras que esconden bajo sus hielos.
La empresa, desde luego, fracasa y se tranquiliza a los lectores con una breve nota final en la que se
afirma sin ambages: “(...) Por consiguiente, los habitantes del globo pueden dormir tranquilamente. La
modificación de las condiciones en que se mueve la Tierra es un empeño superior a los esfuerzos posi-
bles de la humanidad. Los hombres no podrían alterar el orden fijado por el Creador del sistema del
Universo”.
Obviamente, Verne desconocía la potencia de las bombas atómicas. E ignoraba también las prediccio-
nes astrofísicas antes expuestas, pues en ese caso hubiera pensado que dentro de unos miles de millo-
nes de años los habitantes del globo, si los hay, acaso solo dormirán tranquilos si confían en las posibi-
lidades humanas para variar la órbita terrestre.
Las energías a poner en juego son, naturalmente, casi inconmensurables. Para dotar a la Tierra con una
velocidad de 44,2 km/s -indispensable para agrandar su órbita y alejarla de un Sol en expansión- par-
tiendo de sus 29,7 km/s actuales, necesitaríamos la energía total emitida por nuestra estrella durante
tres meses. No obstante, las cifras se tornan menos inmanejables si el proyecto se extiende a lo largo de
dilatadísimos periodos de tiempo. Haciendo explosionar cada segundo en el lado del planeta contra- rio
a su avance una bomba H de 6.880 kg durante cien millones de años, la Tierra se vería incrementa- da
su velocidad en 0,01 cm/s cada año, hazaña no del todo impensable para una civilización situada en tan
lejano futuro como al que ahora nos referimos.
De todos modos, los escollos en este asunto no son únicamente técnicos. Los cálculos habrían de tener
en cuenta la posibilidad de caer bajo el perturbado influjo gravitacional de planetas tan poderosos co-
mo Júpiter y Saturno. Un acercamiento excesivo a estos colosos podría precipitarnos fatalmente contra
ellos sin tiempo a corregir el error. Además no debemos olvidar la dificultad introducida por el efecto de
frenado que introducen las mareas gravitatorias de la Luna y del Sol.
Algunos autores de anticipación científica han propuesto reducir nuestro satélite a escombros para evi-
tarlas. Sabemos del capítulo anterior que una acción como ésa ocasionaría graves desajustes en la in-
clinación del eje terrestre, por la que la única solución sería sustituir la Luna por un satélite artificial con
la misma masa, cuyo movimiento dirigido compensase en lo posible los inevitables efectos de ma- rea.
Como se ve, especular es fácil, ya que después de todo nadie sabe cuáles son los sueños de hoy que el
mañana convertirá en realidades tangibles.
LOS ESTERTORES DEL UNIVERSO
Las evidencias en favor de un cosmos en movimiento llegaron en el umbral de la década de 1930, de la
mano de los astrofísicos Slipher, Humason y Hubble. El primero determinó las variaciones de las
longitudes de onda de la luz emitida por diversas galaxias en función de su distancia a la nuestra; el
segundo dedujo de tales variaciones la existencia de una expansión global en el cosmos; mientras el
tercero confirmaba estos hechos por otros caminos al tiempo que les daba popularidad. Ese es el moti-
vo de que la ecuación que proporciona el ritmo de tal expansión, se conozca hoy como ley de Hubble.
Después de 1929 pocos discutían ya que el universo se estaba expandiendo a una velocidad dependien-
te de su densidad de materia y energía, mediante un parámetro aún por especificar experimentalmente.
Aceptar que el universo se expande en la actualidad, implica admitir que antaño su volumen fue menor.
Esto es claro: si su tamaño depende del tiempo, a medida que retrocedemos hacia el pasado el cosmos
se hará correlativamente más pequeño.
Cuando su radio sea cero habremos alcanzado la singularidad inicial de los modelos cosmológicos (No
faltan los modelos sin singularidad inicial, como el de Hawking y Hartle en el que se introduce un “tiempo
imaginario”, o el del físico español Martín Senovilla) ; un punto -como en los agujeros negros- en el que
la densidad de materia y energía se hace infinita, y las leyes físicas habituales pierden su validez. La
explosión de esta singularidad inicial con una vio- lencia más allá de la imaginación humana, se conoce
hoy popularmente como Big Bang (traducción inglesa de “Gran Explosión”) y se considera que en él se
crearon el espacio y el tiempo junto a la ma- teria y la energía.
El eco de tan inconmensurable estallido permanece todavía reverberando en forma de una radiación de
microondas que baña la totalidad del universo. Esta radiación de fondo fue detectada en primer lugar
por Penzias y Wilson en 1964, brindando una espléndida corroboración experimental de la hipótesis del
Big Bang. Otras predicciones basadas en la idea del Big Bang que han quedado confirmadas por la
experiencia, han sido la distribución de radiofuentes (objetos celestes que emiten con regularidad on-
das de radio, púlsares básicamente) en el espacio profundo, y la proporción prevista de elementos
químicos en el universo (22-28 % de helio y el resto de hidrógeno; las cantidades de los demás ele-
mentos resultan irrelevantes a escala cósmica).
Si las condiciones de su nacimiento son relativamente bien conocidas -siempre y cuando nos refira- mos
a acontecimientos posteriores a la singularidad inicial- algo similar ocurre con su futuro declive. Dos son
los escenarios posibles en los que nuestro universo agonizará hasta el final definitivo, depen- diendo de
la relación entre la densidad de materia y energía en su interior y la densidad critica. Supuesto que el
valor de la densidad sea igual o superior al crítico, la expansión continuará para siempre sin detenerse,
lo que no influirá de forma apreciable en nuestra galaxia durante muchos miles de millones de años.
Incluso después de que nuestra estrella muera y con ella todo el sistema solar, seguirán todavía na-
ciendo legiones de nuevas estrellas en generaciones sucesivas, cada una hija de los escombros de sus
predecesoras. Pero dado que el contendido de materia y energía en cualquier galaxia es finito, antes o
después la gestación de nuevas estrellas cesará, el material restante ya no podrá llevar a cabo las reac-
ciones nucleares que dan vida a una estrella, la luz y el calor de las últimas en apagarse se dispersarán
por la negrura de un vacío sin fin, y nuestra galaxia perderá progresivamente su brillo.
La incesante expansión habrá alejado tanto al resto de las galaxias antes cercanas en las que todavía
queden estrellas, que su luminosidad se percibirá débil y vacilante desde la nuestra; las tinieblas co-
menzarán a ganarle su batalla definitiva a la luz. La mayoría de las estrellas fenecidas encontrarán su
tumba en forma de agujeros negros que vagarán por el espacio devorando cuanta materia hallen a su
paso, ya sea como nubes de polvo, enanas negras o estrellas de neutrones. Las pocas estrellas mori-
bundas que logren escapar por azarosas colisiones con otros cuerpos, exhalarán solas su último aliento
en la fría inmensidad del espacio intergaláctico.
Mientras, los agujeros negros crecerán de tamaño al engullir toda la materia circundante o al fundirse
con otros agujeros. Aparecerán así agujeros negros supermasivos -más probablemente cerca del núcleo
galáctico, donde la densidad de materia es mayor- que atraparán todo lo existente a distancias cada vez
mayores. La materia caída en un agujero negro radiará parte de su masa como ondas gravita- torias
hacia el infinito, lo que debilitará progresivamente su capacidad de atracción gravitacional. La integridad
de las galaxias, o de lo que quede de ellas, se descompondrá en una maraña más y más dis- persa de
agujeros negros, polvo cósmico y cadáveres estelares.

Figura 10. Metáfora de la expansión del universo como aumento de la superficie de un globo
La expansión continuada del universo provocará un descenso de la temperatura asociada con la radia-
ción de fondo de micro-ondas. En tanto esta temperatura sea superior a la de los agujeros negros (unos
10-10 K), estos absorberán energía térmica de su entorno. Pero cuando los términos se inviertan, serán
los agujeros negros los que habrán de radiar energía a un espacio intergaláctico más frio que ellos
mismos. La radiación Hawking emitida por el agujero le robará parte de su masa, obligándolo a con-
traerse y a aumentar su temperatura, lo que a su vez acelerará el proceso de emisión en una espiral en-
loquecida.
Al cabo de 1067 años estos agujeros negros -con tamaños de unas millonésimas de centímetro pero con
miles de millones de toneladas de masa- alcanzarán temperaturas comparables a las de las estre- llas
que una vez fueron, y se mantendrán así durante otros 1030 años. Finalmente, acaso en 10108 años, hasta
los agujeros negros más masivos se evaporarán en un fulgurante y breve estallido de rayos gamma, sin
dejar tras de sí el menor vestigio de su existencia. El universo habrá acabado en un oscuro vacío en
perpetua expansión surcado tal vez por un tenue mar de radiaciones cuyas frecuencias se extinguirán
lentamente a lo largo de un tiempo infinito.
Por razones de índole psicológica, hay a quienes desagrada semejante destino para el universo, y pre-
fieren pensar en algo distinto a la expansión sin final que lo convertirá en una infinitud desolada y baldía.
La alternativa reside en una contracción que lo devuelva a un estado similar a la singularidad inicial de
la que emergió. A fin de cuentas -se puede pensar- un universo con tanta majestad merece un epitafio
igualmente grandioso. Si la densidad del cosmos es menor que la crítica, la gravitación ge- nerada por la
masa que contiene llegará a detener con el tiempo el movimiento de expansión, invir- tiéndolo en una
nueva fase caracterizada por la gradual aproximación de todas las masas ahora separa- das.
Durante eones -como ocurría en el caso anterior- careceremos del menor indicio de que algo inusual
está sucediendo, pues tan inmensas son las distancias cósmicas que la luz emitida por las galaxias más
distantes nos llegará todavía con las imágenes emitidas antes de detenerse la expansión. Mucho antes
de que esto ocurra, desde luego, la Tierra y todo el sistema solar habrán perecido, pero por comodidad
de lenguaje conviene expresarse desde el punto de vista de un observador humano.
Las estimaciones más prudentes señalan que la nueva etapa contractiva podría comenzar dentro de
unos 27.000 millones de años y durar después 40.000 millones más. Poco a poco observaríamos que en
la luz emitida por las galaxias visibles predomina la longitud de onda correspondiente al azul, indi- cio
claro de que se mueven en dirección a nosotros. Cuando el diámetro del universo sea una centési- ma
del actual, la compresión aumentará la temperatura de la radiación de fondo cosmológica por en- cima
de la de ebullición del agua.
Los planetas, si en algún lugar queda alguno, se tornarán inhabitables. Una contracción mayor calen-
tará el espacio interestelar más que la superficie de las estrellas. Las pocas de ellas que queden aún con
vida, estallarán víctimas de terribles inestabilidades térmicas. Las galaxias se entremezclarán unas con
otras, mientras los agujeros negros se fusionan en otros cada vez mayores, engullendo los restos de las
explosiones estelares y toda la materia restante.
La compresión se acelera a medida que la materia se condensa más y más de modo que su gravedad
crece en igual proporción. En unos pocos miles de años el proceso desemboca en una implosión incon-
trolada (lo que, con humor negro, algunos llaman el Big Crunch, o “Gran Crujido”) donde toda estruc-
tura organizada se desmorona, los átomos se descomponen y las partícula subatómicas se dispersan.
La temperatura media aumenta frenéticamente conforme el cosmos de hunde sobre sí mismo; a los diez
mil millones de grados la temperatura se duplica en el segundo siguiente, y la velocidad va en aumento.
Protones y neutrones se disgregan en sus partículas constituyentes como en una especie de Big Bang a
la inversa. Los agujeros negros absorben toda la materia y radiación presente a su alrede- dor, y por fin
el universo entero colapsa en una singularidad que, en vez de inicial, podríamos calificar más
propiamente de “final”. En esa fase las leyes físicas conocidas dejan de regir, como acaeció en el instante
primigenio del Big Bang, por cuanto el propio espacio-tiempo se resquebraja. Quizás una fu- tura teoría
que combine las exigencias de la Relatividad General con las de la física de partículas nos suministre la
respuesta, más, por el momento, nada es lo que realmente sabemos.
Algunos científicos de renombre suponen que tal vez el universo no llegue a colapsar del todo en una
nueva singularidad, sino que alcanzando una densidad impensablemente elevada, fenómenos físicos
aún ignorados intervienen para provocar una suerte de rebote como el de un muelle comprimido al
soltarlo. Quizás esto fuese lo acontecido en el origen a nuestro universo, y quién sabe si ha ocurrido
infinidad de veces antes del Big Bang, y ocurrirá otras tantas tras el colapso de nuestro cosmos.
En ello consiste la idea de un “universo pulsante”, que repite sus ciclos de expansión y contracción en
una sucesión inacabable. Este modo de ver las cosas comparte los mismos defectos que cualquier otro
modelo de universo potencialmente infinito en el tiempo. Si el comportamiento del universo es real-
mente pulsante, resultaría muy extraño que tal proceso hubiese comenzado con nosotros, por lo que
parece sensato aceptar que participamos en uno de más de sus infinitos ciclos. Pero de ser así puede
demostrarse que la entropía se habría hecho máxima a partir del primer ciclo, de forma que ahora no
existirían galaxias, estrellas o planetas.
La entropía mínima con que partió nuestro universo se debió a las especialísimas condiciones iniciales
del Big Bang, y ningún extraño rebote anterior al colapso total podría repetirlas. Alegar que tras el co-
lapso definitivo cabría esperar un nuevo Big Bang, no salva la hipótesis. Tras cada singularidad se cre-
aría un espacio-tiempo absolutamente desconectado de los anteriores. Así, no podría hablarse de dis-
tintos ciclos de un mismo universo; más bien se trataría de distintos universos por completo indepen-
dientes.
Asimismo, el problema de la masa oscura en el universo permanece como uno de los más intrigantes
enigmas de la cosmología moderna. Se sabe, por medidas de la velocidad de rotación de los brazos de
las galaxias, que la rapidez con la que éstos giran es superior a la permisible para mantener la integri-
dad del disco galáctico. Al igual que un motorista derrapa cuando toma una curva a demasiada veloci-
dad, grandes fragmentos de esos brazos espirales deberían separase de la galaxia si toda la fuerza gra-
vitatoria que los retiene es únicamente la generada por la materia visible, la que emite luz.
Como no es eso lo que ocurre, los astrofísicos infieren que debe haber presente en torno a las galaxias
mucha más materia que la que se deja ver. Podría tratarse de neutrinos, de partículas elementales to-
davía desconocidas u otras ya clasificadas, y un sinfín más de posibilidades. Entramos de cualquier modo
en el indómito territorio de las partículas subatómicas, que esconde sus propias e inquietantes amenazas
para la existencia del cosmos
8. LA CONTROVERTIDA ESTABILIDAD DE LA MATERIA
Hacia mediados de la década de 1930 había cundido entre los físicos la esperanza de que la estructura
fundamental de la materia pudiese ser explicada en base a un reducido número de partículas elementa-
les. El electrón, el protón y el neutrón parecían bastar por sí solos para justificar la existencia de todos
los elementos químicos conocidos, los cuales, a juzgar por las radiaciones emitida por las estrellas más
alejadas, conservaban sus propiedades características cualquiera que fuese el lugar del cosmos en que
se encontrasen.
La posterior detección experimental de las antipartículas -partículas elementales gemelas de las ordi-
narias pero con signo opuesto en algunas magnitudes (momento angular, carga eléctrica, paridad)- no
varió sustancialmente el escenario; los antiprotones, antielectrones y antineutrones no eran más que
imágenes especulares de las partículas habituales, y no intervenían para formar átomos o moléculas
estables.
Los años pasaron, no obstante, sin que la física de partículas alcanzase el prometido esquema de unifi-
cación en que todas las fuerzas fundamentales aparecerían como aspectos particulares de una única
interacción básica. Al contrario, desde el nuevo punto de vista introducido por la teoría cuántica, las
fuerzas ejercidas por las micropartículas entre sí se debían al intercambio entre ellas de otras partícu-
las, llamadas “mediadoras”.
Esto complicó todavía más una situación en la que al trío electrón-protón-neutrón se le habían ido
agregando una plétora de nuevas partículas con objeto de explicar el extraño comportamiento del
mundo subatómico. El avance en la tecnología de los aceleradores de partículas y el estudio de los ra-
yos cósmicos, permitieron la caracterización experimental de centenares de nuevas partículas elemen-
tales, de tal manera que el uso del término “elemental” llegó adquirir un eco burlesco.
Con la intención de reordenar lo que por entonces se antojaba ya una verdadera manigua de partículas
supuestamente elementales, un grupo de físicos especuló con la posibilidad de que, al igual que los
átomos se componen de partículas subatómicas, quizás estas mismas partículas se hallen compuestas a
su vez por otras auténticamente elementales.
Con ello se daba un paso más en el esfuerzo histórico de los científicos por explicar la complejidad del
mundo perceptible mediante el recurso a unas entidades fundamentales no directamente perceptibles,
cuyo comportamiento y propiedades son los responsables de la riqueza y variedad del mundo físico.
Primero fueron los átomos, concepto que en su versión más primitiva se remonta a los antiguos grie-
gos; después las partículas subatómicas descubiertas por los investigadores de finales del siglo XIX y
principios del XX, que tampoco lograron poner fin a la búsqueda; ¿qué nos esperaría ahora?
En torno a 1964 los físicos Gell-man y Zweig desarrollaron la idea de unos subcomponentes de las mi-
cropartículas conocidas hasta entonces, a fin de poderlas organizar de modo coherente y sistemático, a
los que llamaron quarks. Equipados con esta nueva hipótesis, los físicos intentaron abordar la explica-
ción de la materia observable en el universo a partir de seis quarks, seis leptones (otra familia de partí-
culas, una de las cuales es el electrón) y sus correspondientes antipartículas.
Los leptones se distinguen pos resultar insensibles ante la fuerza nuclear fuerte. De ellos parecen ser
estables el electrón, el positrón (o antielectrón), el neutrino y el antineutrino. Los quarks constituirían
los hadrones, sensibles a la fuerza fuerte, y divididos en bariones y mesones, según tuviesen más o
menos masa respectivamente. Los mesones, que son todos inestables, estarían formados por un quark
y un antiquark; los bariones, en cambio, nacerían de la conjunción de tres quarks o tres antiquarks. Con
este modelo podrían explicarse al fin las cargas eléctricas y demás propiedades de los mesones y los
bariones.
La interacción entre leptones y quarks se interpreta por medio de las cuatro clases de fuerzas funda-
mentales: gravitación, electromagnetismo, nuclear fuerte y nuclear débil. La fuerza electromagnética es
la responsable de la estabilidad de los átomos al mantener unidos los electrones a los núcleos.
La fuerza fuerte liga los quarks para formar hadrones, y a ella se debe la unión de los protones y los neu-
trones en el núcleo atómico. La fuerza débil es la protagonista de ciertas desintegraciones nucleares y
de algunos aspectos de los procesos de fusión que tienen lugar en el corazón de las estrellas. Como ya
se ha dicho, todas estas fuerzas se transmiten por el intercambio de las partículas mediadoras. El fotón
es el mediador de la interacción electromagnética, los gluones transmiten la fuerza fuerte, la fuerza débil
se propaga me- diante las partículas W+, W-, Z0, y al gravitón correspondería ejercer la fuerza
gravitacional.
Las investigaciones en teorías de gran unificación (abreviadamente TGUs, o GUTs en inglés) han
conducido a un esquema en el que se considera que la fuerza débil y la electromagnética son dos mani-
festaciones de una única interacción, la electrodébil. El modelo de unificación electrodébil, desarrolla-
do hacia 1967 por S. Weinberg, A. Salam y J. Ward, ha de implicar algún género de proceso que vin- cule
ambas fuerzas, lo que es tanto como decir alguna transformación que convierta las partículas me-
diadoras de una en las de la otra. Así ocurre de hecho, y una de sus implicaciones más peculiares es la
predicción teórica de la inestabilidad de los protones, susceptibles de desintegrarse a causa de que aho-
ra la transmutación de un quark en un leptón -y a la inversa- se halla permitida.
La secuencia de hechos por la que esto podría acaecer, al menos en esta teoría de unificación, es como
sigue. De acuerdo con el modelo de los quarks, un protón es un barión formado por tres quarks o tres
antiquarks; tomemos el caso de los tres quarks, por ejemplo. Si la teoría de Weinberg, Salam y Ward es
cierta, uno de esos quarks se convertiría inopinadamente en un antileptón, digamos, un positrón,
mientras que otro se transforma en un antiquark.
La pareja quark-antiquark forma un pión neutro ( π0) que se separa del positrón desintegrando de esa
manera el protón del que eran componentes. Si el protón que hemos considerado en el ejemplo forma-
se parte como núcleo de un átomo de hidrógeno, bien pudiera ser que el positrón se aniquilase con el
electrón del H. Entre tanto, el pión -intrínsecamente inestable- también acabaría convertido en radia-
ción cuando el quark interaccionase con el antiquark. Así, donde antes había un átomo de hidrógeno,
pieza básica en la construcción de la materia, ahora sólo queda un disperso puñado de fotones gamma.
De verificarse la inestabilidad del protón, resultaría que la materia misma en sus más íntimas entrañas
se erosiona con el tiempo de modo inexorable. Si la expansión de universo dura lo suficiente y es lo
bastante rápida, los electrones y positrones fruto de la desintegración de protones y neutrones, que-
darán separados antes de poder destruirse mutuamente. Los que sí lo consigan producirán rayos gamma
que se irán debilitando con la expansión cosmológica. A ellos se unirán en el progresivo desfalle- cer los
omnipresentes neutrinos y la radiación remanente del Big Bang.
Como el ritmo de enfriamiento de la materia es superior al de la radiación, siempre existirá una dife-
rencia de temperaturas entre positrones y electrones por un lado y los rayos gamma y la radiación de
fondo por otro (no es fácil saber dónde colocar a los neutrinos en esa clasificación). Aun cuando el
universo en su conjunto se aproxime hacia el cero absoluto de temperatura, la mencionada diferencia
persistirá para siempre y la muerte térmica estricta no se dará jamás.
Mas si el cosmos se expande a menor velocidad, el contacto entre electrones y positrones tendrá lugar
en el curso de unos acontecimientos muy particulares. La mayoría de estas partículas, al poseer cargas
eléctricas de signo opuesto, formarán unos extraños átomos, remedo del hidrógeno, donde el positrón
hará de núcleo y el electrón orbitará a su alrededor. En unos 10 71 años casi todos los positrones y elec-
trones habrán formado átomos de positronio, cada uno de ellos con miles de millones de años-luz de
radio. El positronio, empero, es inestable y el tamaño de su órbita se irá reduciendo hasta que el electrón
se precipite sobre el positrón para una muerte segura tras haber emitido en el proceso unos 1022 fotones
dentro de 10116 años.
Los quarks interaccionan tan débilmente entre sí en interior de un protón que el promedio de vida cal-
culado para estos últimos alcanza los 1032 años. Ello significa que para cuando haya transcurrido este
plazo de tiempo la mitad de los protones se habrán desintegrado ya, pero como la edad del universo se
estima en 1010 años no resulta difícil conciliar el hecho de que todos los protones a nuestro alrededor
permanezcan intactos.
Los experimentos llevados a cabo en voluminosos tanques de agua, colocados bajo tierra para minimi-
zar las interferencias de rayos cósmicos, han sido negativos hasta el presente. Se supone que, como en
un gran depósito de agua hay más de 1032 protones, estadísticamente ha de desintegrarse algún protón
en un periodo aproximado de un año. Pero no ha sido así, y ésta es una de las más graves objeciones
que militan contra el modelo ortodoxo de partículas elementales
Aunque la inestabilidad de los protones no se corresponda con la realidad, todavía hay motivos de pre-
ocupación en el quark s, cuya singulares propiedades le hicieron acreedor al nombre de “extraño”
(strange en inglés). Ciertas variantes en las ecuaciones de la física de partículas sugieren que los quarks
s podrían participar, bajo muy especiales condiciones, en la formación de átomos que por ello se
denominarían también “extraños”. .
La materia extraña no existe como tal en la naturaleza, pero si así fuese, ¿qué habría de amenazador en
ello? El peligro reside en la estabilidad relativa de ambas clases de materia. Las predicciones teóricas
apuntan hacia una estabilidad de la materia extraña mucho más elevada que la de la ordinaria. Ello
comportaría el gravísimo problema de evitar que toda la materia ordinaria, menos estable energética-
mente, se convirtiese en extraña, más estable pero muy distinta de la que sirve de soporte a la vida y a
todo género de cosas a las que estamos habituados.
La situación se comprenderá mejor con una analogía mecánica muy visualizable. Imaginemos una bo-
lita en un pequeño foso en la cima de un montículo. La bolita no se encuentra en un estado inestable
porque no cambia de posición por sí sola con el tiempo. Pero tampoco podemos asegurar que se halle
estabilizada, ya que un suave empujón podría desplazarla de la cima despeñándola ladera abajo. De-
cimos entonces que la bolita se encuentra en un estado metaestable, esto es, su situación no cambiará
a menos que sufra una somera perturbación. En cambio, pensemos ahora en una bola idéntica situada
en el fondo de un valle, donde es necesario un impulso muy decidido para sacarla de él. Obviamente
esta- remos justificados al afirmar que su estado es estable.

Figura 11. La bolita se halla en un estado metaestable, ya que


puede descender a otra posición con mayor estabilidad.
El leve empujón que convertiría toda la materia ordinaria en
extraña, podría darse sin más que poner una mínima cantidad
de la segunda en contacto con la primera. La mayor estabilidad
de la materia ex- traña arrastraría a la ordinaria a un estado
similar, y como el proceso se vería favorecido energética-
mente -la energía desprendida en la transformación
desplazaría de su estado metaestable a la siguiente materia
ordinaria a transformar- la reacción en cadena adquiría una velocidad vertiginosa.
Contamos con situaciones análogas, aunque más prosaicas, en la física cotidiana. Bajo una presión
menor que la atmosférica, el agua permanece líquida a temperaturas inferiores a los 0ºC. Pero basta
que se restablezca la presión corriente para que la formación de un diminuto cristal de hielo dispare la
congelación acelerada del resto del líquido.
Las ecuaciones de las que se desprende una alternativa tan aterradora como esa, a decir verdad, son
poco más que enrevesados artificios matemáticos, con toda seguridad muy lejanamente relacionados
con el mundo real. Las condiciones que exige son tan especulativas que sus resultados se reducen
asimples divertimentos exóticos para el físico teórico.
Sin embargo, la mera posibilidad teórica de algo semejante abre la puerta a la duda de si algún día, en
el curso de los experimentos en los aceleradores de partículas, donde entran en juego energías colosales,
no ocurrirá un suceso que desestabilice la composición última de la materia. Tal composición nos es
todavía desconocida, y quizás encierre inestabilidades y peligros ante los que nos convendría actuar con
cautela.
9.- LA ENTROPÍA Y EL TIEMPO
¿Qué relación hay entre la entropía y el tiempo?
Imaginemos una película del movimiento de la Tierra alrededor del Sol, tomada desde un lugar muy
lejano del espacio y pasada a cámara rápida, de modo que la Tierra parezca recorrer velozmente su
órbita. Supongamos que pasamos primero la película hacia adelante y luego marcha atrás. ¿Podremos
distinguir entre ambos casos con sólo mirar el movimiento de la Tierra?
Habrá quien diga que la Tierra rodea al Sol en dirección contraria a las agujas del reloj cuando se mira
desde encima del polo norte del Sol; y que si las revoluciones son en el sentido de las manillas del reloj,
entonces es que la película se ha proyectado marcha atrás y por tanto el tiempo corre también marcha
atrás.
Pero si miramos la Tierra desde encima del polo sur del Sol, la Tierra se mueve en la dirección de las
manecillas del reloj. Y suponiendo que lo que vemos es ese sentido de rotación, ¿cómo sabremos si
estamos encima del polo norte con el tiempo corriendo hacia atrás o encima del polo sur con el tiempo
marchando hacia adelante?
No podemos. En procesos elementales en los que intervienen pocos objetos es imposible saber si el
tiempo marcha hacia adelante o hacia atrás. Las leyes de la naturaleza se cumplen igual en ambos casos.
Y lo mismo ocurre con las partículas subatómicas.
Un electrón curvándose en determinada dirección con el tiempo marchando hacia adelante podría ser
igual de bien un positrón curvándose en la misma dirección pero con el tiempo marchando hacia atrás.
Si sólo consideramos esa partícula, es imposible determinar cuál de las dos posibilidades es la correcta.
En aquellos procesos elementales en que no se puede decir si el tiempo marcha hacia atrás o hacia
delante no hay cambio de entropía (o es tan pequeño que se puede ignorar). Pero en los procesos
corrientes, en los que intervienen muchas partículas, la entropía siempre aumenta. Que es lo mismo que
decir que el desorden siempre aumenta. Un saltador de trampolín cae en la piscina y el agua salpica
hacia arriba; se cae un jarrón y se rompe; las hojas se caen de un árbol y quedan dispersas por el suelo.
Se puede demostrar que todas estas cosas, y en general todo cuanto ocurre normalmente en derredor
nuestro, lleva consigo un aumento de entropía. Estamos acostumbrados a ver que la entropía aumenta
y aceptamos ese aumento como señal de que todo se desarrolla normalmente y de que nos movemos
hacia adelante en el tiempo. Si de pronto viésemos que la entropía disminuye, la única manera de
explicarlo sería suponer que nos estábamos moviendo hacia atrás en el tiempo.
Imaginemos, por ejemplo, que estamos viendo una película sobre una serie de actividades cotidianas.
De pronto vemos que las salpicaduras de agua se juntan y que el saltador asciende hasta el trampolín.
O que los fragmentos de un jarrón suben por el aire y se reúnen encima de una mesa. O que las hojas
convergen hacia el árbol y se adosan a él en lugares específicos. Todas estas cosas muestran una
disminución de la entropía, y sabemos que esto está tan fuera del orden de las cosas, que la película no
tiene más remedio que estar marchando al revés. En efecto, las cosas toman un giro tan extraño cuando
el tiempo se invierte, que el verlo nos hace reír.
Por eso la entropía se denomina a veces «la flecha del tiempo», porque su constante aumento marca lo
que nosotros consideramos el «avance» del tiempo. (Señalemos que si todos los átomos de los distintos
objetos se movieran en la dirección adecuada, todas estas cosas invertidas podrían ocurrir; pero la
probabilidad es tan pequeña, que podemos ignorarla tranquilamente.)
10.- FLECHA DEL TIEMPO
El concepto de flecha del tiempo se refiere popularmente a la dirección que el mismo registra y que
discurre sin interrupción desde el pasado hasta el futuro, pasando por el presente, con la importante
característica de su irreversibilidad, es decir, que futuro y pasado, sobre el eje del presente, muestran
entre sí una neta asimetría (el pasado, que es inmutable, se distingue claramente del incierto futuro).
La expresión en sí, flecha del tiempo, fue acuñada en el año 1927 por el astrónomo británico Arthur
Eddington, quien la usó para distinguir una dirección en el tiempo en un universo relativista de cuatro
dimensiones, el cual, de acuerdo con este autor, puede ser determinado por un estudio de los distintos
sistemas de átomos, moléculas y cuerpos.
10.1 HISTORIA DE LA EXPRESIÓN
En 1928, Eddington publicó su libro The Nature of the Physical World, que contribuyó a popularizar la
flecha del tiempo. En él, el autor escribió:
Dibujemos una flecha del tiempo arbitrariamente. Si al seguir su curso encontramos más y más
elementos aleatorios en el estado del universo, en tal caso la flecha está apuntando al futuro; si, por el
contrario, el elemento aleatorio disminuye, la flecha apuntará al pasado. He aquí la única distinción
admitida por la física. Esto se sigue necesariamente de nuestra argumentación principal: la introducción
de aleatoriedad es la única cosa que no puede ser deshecha. Emplearé la expresión “flecha del tiempo”
para describir esta propiedad unidireccional del tiempo que no tiene su par en el espacio.
Eddington, por lo tanto, señala tres puntos distintivos de esta flecha:
-Es vívidamente reconocida por la conciencia.
-Es igualmente exigida por la razón, que nos informa de que una flecha reversible sería un absurdo (como
veremos en el ejemplo del vaso).
-La flecha del tiempo no viene recogida en la ciencia física, salvo en el estudio de la organización de
fenómenos determinados.
Así pues, de acuerdo con Eddington, la flecha del tiempo indica la dirección del incremento progresivo
del elemento aleatorio. Siguiendo un antiguo argumento de la termodinámica, Eddington concluye que
en lo que respecta a la ciencia física, la flecha del tiempo es una propiedad exclusiva de la entropía.
10.2 EXPLICACIÓN
Planos macroscópico y microscópico
A partir del surgimiento de la mecánica cuántica, hace un siglo, se cree que los procesos físicos a nivel
microscópico son en su mayor parte temporalmente simétricos, lo que sugiere que las afirmaciones
teóricas que los describen serán verdaderas si la dirección del tiempo es reversible. En el plano
macroscópico sucede todo lo contrario, ya que existe una dirección clara en la flecha del tiempo, del
pasado al futuro (el vaso de cristal que cae de la mesa se rompe contra el suelo, sin volver a
recomponerse nunca sobre la mesa). La flecha del tiempo, pues, estaría representada por cualquier cosa
que exhibiese dicha asimetría temporal. O, en otras palabras, que en el plano macroscópico, o visible, el
tiempo marcha siempre hacia delante, mientras que en el microscópico, o de las partículas elementales,
puede hacerlo igualmente hacia atrás.
10.3 SIMETRÍA Y ASIMETRÍA
La simetría del tiempo puede ser entendida mediante una simple analogía: si el tiempo fuese
perfectamente simétrico sería posible ver una película -que hubiese filmado sucesos reales- de manera
que todo lo que se visualizase en la misma pareciese realista, ya se pasase la película hacia delante o
hacia atrás.
La existencia de una flecha del tiempo determinada se observaría fácilmente al ver el vaso de cristal
recomponiéndose sobre la mesa después de roto y juzgar que no sería una escena realista. Sin embargo
una filmación de los planetas del sistema solar orbitando alrededor del sol hacia atrás podría resultar
tan realista como hacia delante, porque en ambos casos semejarían obedecer las leyes físicas.
10.4 EJEMPLO DE IRREVERSIBILIDAD
Ha de considerarse una situación en la que un gran contenedor es rellenado con dos líquidos separados,
por ejemplo, un tinte coloreado en un lado y agua en el otro. Sin ninguna barrera entre ambos líquidos,
el empuje mutuo entre sus moléculas resultaría en una mezcla mayor a medida que pasase el tiempo.
Del mismo modo, una vez mezclados el tinte y el agua, uno no esperaría nunca que volviesen a separarse
por sí mismos. Una película del proceso de mezcla sería realista si, y sólo si, se proyectase hacia delante,
pero nunca si se proyectase hacia atrás.
Si el contenedor es observado al principio del proceso de mezcla, se verían los líquidos sólo parcialmente
mezclados. Sería razonable concluir que, sin necesidad de una comprobación externa, el líquido
alcanzaría este estado debido a que estaría más ordenado en el pasado, cuando había más separación
de moléculas, y estaría más desordenado o mezclado, en el futuro.
Ahora imaginemos que el experimento se repite, esta vez usando sólo unas pocas moléculas, por
ejemplo, diez moléculas, en un contenedor muy pequeño. Al chocar entre sí, podría ocurrir que las
moléculas, por mera casualidad, se segregasen limpiamente unas de otras, con las de tinte de un lado y
las de agua del otro, lo que puede esperarse que suceda de vez en cuando, obedeciendo a la teoría de
la fluctuación cuántica, que prevé la posibilidad, ya sea pequeña, de que las moléculas se separen en
algún momento de esa forma por sí mismas. Sin embargo, considerando un número mucho más elevado
de moléculas, es tan improbable esta segregación que, para que ocurra, de media, podría esperarse que
pasase más tiempo del transcurrido desde el origen del universo.
Así pues, una película que mostrase un gran número de moléculas separándose por sí mismas, como se
ha descrito anteriormente, podría parecernos no realista y uno se inclinaría a afirmar que la película
había sido proyectada al revés.
10.5 TIPOS
10.5.1 Flecha del tiempo termodinámica
Este concepto viene previsto en la Segunda Ley de la Termodinámica, que sostiene que en el seno de un
sistema aislado, la entropía sólo puede incrementarse con el tiempo, y nunca disminuir. La entropía
puede ser concebida como la tendencia al desorden de todo sistema organizado, o como una medida
de ese desorden, y de esta manera la Segunda Ley implica que el tiempo es asimétrico con respecto a la
cantidad de orden en un sistema aislado: a medida que el tiempo pasa, todo sistema se vuelve más
desordenado.
La consecuencia inmediata es que esta asimetría puede servir empíricamente para distinguir entre
pasado y futuro.
La termodinámica no es aplicable estrictamente a todos los fenómenos, dado que ciertos sistemas
pueden fluctuar a estados de menor entropía, de acuerdo con la conjetura de Poincaré. Sin embargo,
sirve para describir la tendencia general existente en la naturaleza a una mayor entropía.
La flecha del tiempo de la termodinámica parece estar relacionada con las siguientes flechas del tiempo,
y presumiblemente subyace a todas ellas, con excepción de la flecha del tiempo débil (véase más
adelante).
10.5.2 Flecha del tiempo cosmológica
La flecha del tiempo cosmológica define la dirección de un universo en expansión, o inflacionario. Esto
puede ser relacionado con la flecha de la termodinámica, la cual, debido a la antes descrita entropía,
prevé un universo encaminado a una muerte térmica (en inglés, Big Chill o Big Freeze) en que la cantidad
de energía aprovechable se vuelve insignificante.
El físico británico Stephen Hawking se plantea, en este sentido, qué ocurriría si el universo dejase de
expandirse y empezase a contraerse por haber superado el límite gravitacional crítico, con una flecha
del tiempo invertida, en la cual la gravedad tendiese a colapsarlo todo en un Big Crunch (en castellano
gran implosión o gran crujido, contraria al Big Bang). Concluye que la flecha termodinámica no se
invertiría y no se iniciaría la disminución del desorden. "La gente no viviría sus vidas hacia atrás, hacia el
nacimiento."
Asimismo, sigue Hawking, con arreglo al principio antrópico, actualmente sólo podemos estar viviendo
en la fase expansiva (y de evolución biológica) del universo, ya que seres inteligentes sólo pueden existir
en dicha fase debido a que la fase contractiva sería inadecuada para ello, al no poseer una flecha
termodinámica y psicológica clara del tiempo (a consecuencia del gran enfriamiento y del bajo nivel de
entropía a que se habría llegado).
Si la flecha del tiempo cosmológica está relacionada con las otras flechas, en tal caso el futuro es, por
definición, la dirección en la que el universo va creciendo. Así, el universo se expande más que
contraerse, por definición.
Para el físico Roger Penrose la esperada unificación de las físicas relativista y cuántica (en concreto la
teoría cuántica de la gravedad) permitirá por fin la comprensión profunda de la flecha del tiempo.
10.5.3 Flecha del tiempo de la radiación
Toda onda física, desde las ondas de radio hasta las ondas sonoras, o las que surgen alrededor de una
piedra arrojada al agua, se expanden hacia afuera desde su fuente, aunque las ecuaciones de onda
contemplan la existencia tanto de ondas convergentes como de ondas radiantes. Esta flecha ha sido
invertida en experimentos cuidadosamente diseñados que han originado ondas convergentes. La
posibilidad de crear condiciones iniciales para producir ondas convergentes es mucho más baja que la
probabilidad de las condiciones que producen ondas radiantes. Normalmente, pues, la onda radiante
incrementa la entropía, mientras que la onda convergente la reduce, oponiéndose por tanto esta última,
en circunstancias corrientes, a la Segunda Ley de la Termodinámica.
10.5.4 Flecha del tiempo causal
Las causas normalmente anteceden a los efectos. El futuro puede ser controlado, no así el pasado. Pero
el problema de usar la causalidad como una flecha del tiempo, es que, como señaló el filósofo David
Hume, la relación causal no puede ser percibida por sí misma, ya que el observador sólo es capaz de
percibir “el encadenamiento”, la sucesión de los sucesos, de la causa y el efecto, pero no un vínculo, por
así decir, material o de alguna manera registrable.
Por otra parte, es sumamente difícil aportar una explicación clara del significado real de los términos
causa y efecto. Está claro que dejar caer el vaso de cristal es la causa y su rotura el efecto, sin embargo,
pudiera ser que la asimetría que el observador percibe en tal caso no es la propia de la flecha del tiempo
causal realmente, sino de la termodinámica. Si la flecha termodinámica fuese invertida, entonces uno
podría pensar que los trozos de vidrio eran la causa y el vaso recomponiéndose sobre la mesa el efecto.
10.5.5 Flecha del tiempo débil
Ciertas interacciones en el plano subatómico implican que la fuerza nuclear débil viola la conservación
de la paridad, pero sólo muy raramente. De acuerdo con el teorema de la simetría CPT (simetría
fundamental de las leyes físicas en el entorno de transformaciones que involucran las inversiones de la
carga, paridad y tiempo simultáneamente), esto significa que el tiempo podría ser reversible, y por tanto
establece una flecha del tiempo. Estos procesos podrían ser responsables de la creación de materia en
el universo primitivo.
Esta flecha no está relacionada con ninguna otra por ningún mecanismo conocido, lo que podría sugerir
que nuestro universo podría estar hecho de antimateria en lugar de materia. Más probablemente, las
definiciones de materia y antimateria pueden ser invertidas.
Esta paridad rota muy raramente significa que la flecha sólo por muy poco apunta en una dirección,
colocándose aparte de otras flechas cuyas direcciones son mucho más claras.
10.5.6 Flecha del tiempo cuántica
De acuerdo con la interpretación de Copenhague de la mecánica cuántica, la evolución cuántica se halla
gobernada por la ecuación de Schrödinger, que es temporalmente simétrica, y por el colapso de la
función de onda, que es irreversible en el tiempo. Dado que el mecanismo del colapso de función de
onda es todavía oscuro, no se conoce cómo esta flecha se vincula con las otras. Mientras que en el nivel
microscópico el colapso parece no mostrar tendencia a incrementar o disminuir la entropía, algunos
científicos opinan que existe un prejuicio que pone al descubierto a escala macroscópica la flecha
termodinámica. De acuerdo con la teoría de la decoherencia cuántica, y asumiendo que el colapso de la
función de onda es sólo aparente, esta flecha del tiempo es una consecuencia de la flecha del tiempo
termodinámica
BIBLIOGRAFIA
https://www.acta.es/medios/articulos/ciencias_y_tecnologia/034001.pdf
https://dialnet.unirioja.es/descarga/articulo/1143065.pdf
https://nosololenguayliteratura.files.wordpress.com/2016/01/unidad-07-cosmovisiones-
cientc3adficas-sobre-el-universo-blog.pdf
http://chemasaenz.blogspot.pe/2010/04/interpretacion-microscopica-de-la.html
http://fundamerced.blogspot.pe/2015/06/entropia-social-la-dinamica-social-en.html
http://nadaesgratis.es/anxo-sanchez/la-entropia-esa-gran-desconocida-de-jose-a-cuesta
http://teoriaderuedas.com/evolucion_de_la_materia/
https://dialnet.unirioja.es/descarga/articulo/1143065.pdf
http://labellateoria.blogspot.pe/2007/07/la-muerte-del-universo.html
https://es.wikipedia.org/wiki/Flecha_del_tiempo

Вам также может понравиться