Вы находитесь на странице: 1из 82

www.astromia.com/astronomia/universo.

htm

ASTRONOMIA

Estos delicados filamentos son residuos de una explosión estelar ocurrida en la Gran
Nube de Magallanes, una pequeña galaxia visible en el cielo austral, situada a 160.000
años-luz de distancia, que acompaña a la Vía Láctea. Proceden de la muerte de una
estrella masiva en una explosión de supernova, cuya fenomenal luz alcanzaría la Tierra
hace varios miles de años. Este material filamentario será finalmente reciclado para la
construcción de nuevas generaciones estelares en la Gran Nube de Magallanes. Nuestro
propio Sol y planetas están constituidos de residuos similares de supernovas que
explotaron en nuestra galaxia hace miles de millones de años.

Esta estructura alberga una estrella de neutrones muy potente que puede ser el resto
central de la explosión. Resulta muy común para el núcleo de una estrella que explota
como supernova, disfrutar de una nueva vida en forma de estrella de neutrones giratoria,
o púlsar, tras despojarse de sus capas externas. En el caso de N49, no sólo nos hallamos
ante una simple estrella de neutrones que gira cada 8 segundos: también posee un
robusto campo magnético mil billones de veces más potente que el campo magnético
terrestre. Esta notable característica coloca a esta estrella en la clase exclusiva de
objetos denominados "magnetars".
El 5 de Marzo de 1.979 esta estrella de neutrones desencadenó un episodio histórico de
explosión de rayos gamma que fue detectado por numerosos satélites. Los rayos gamma
portan millones de veces más energía que los fotones visibles, pero la atmósfera
terrestre nos protege bloqueando los procedentes del espacio exterior. Desde la estrella
de neutrones de N 49 ha surgido emisión de rayos gamma en varias ocasiones
posteriores.

La supernova es un evento poco común. En cada galaxia se suelen dar una explosión
cada 200 años. En estas explosiones, la mayor parte de la masa de la estrella original se
lanza a grandes velocidades. Durante algunos días, la supernova radía la misma energía
que durante toda su vida, llegando a brillar más que el conjunto de estrellas que residen
en su galaxia. Con el paso de los años, el remanente de la supernova se esparcirá,
creando una nebulosa.

Las explosiones que señalan el final de una estrella masiva se denominan supernovas de
tipo II. Existe otro caso, las de tipo I, que involucra la acción en un sistema de dos
estrellas que se orbitan y cuya detonación es más brillante. Una de estas estrellas debe
ser una enana blanca. Cuando el par está lo suficientemente cerca, la enana blanca
comienza a robarle a su compañera. El problema es que cuando la enana blanca llega a
tener 1,4 masas solares, muere de indigestión en un gran estallido.

Las supernovas que suceden en nuestra propia galaxia son todo un espectáculo, ya que
llegan a ser visibles a simple vista con un brillo tal que pueden verse de día.
Desgraciadamente, y como ya se ha comentado, es un fenómeno inusual. Entre las
supernovas más famosas se encuentran la del año 1054 d.C, registrada por los chinos.
Johannes Kepler, contemporáneo y colega de Galileo, registró una de estas supernovas
cercanas en el año 1604 antes de la invención del telescopio. Desde entonces no hemos
visto ninguna en la Vía Láctea, pero en 1987, una estrella apareció en los cielos
australes siendo visible también a simple vista. Se trataba de la supernova SN 1987 A
(A, por ser la primera del año) y estaba situada en la Pequeña Nube de Magallanes, una
de las galaxias satélite de la Vía Láctea.

El nacimiento y evolución de las estrellas depende de su masa. Se forman a partir de


una nebulosa que se compone de partículas de polvo e hidrógeno gas. La gravedad une
este material en glóbulos, cuyos centros se calientan hasta que el hidrógeno comienza a
convertirse en helio por reacciones nucleares.

Después de decenas de millones de años, la estrella central, con más masa, empieza a
agotar su combustible nuclear y explota como una supernova, dejando tras ella un
púlsar. Después de unos diez mil millones de años. Una estrella con menos masa,
comienza también a llegar al final de su vida. Este núcleo se desploma, formando una
nebulosa planetaria.

Esta nebulosa llena de color, denominada NGC 604, es uno de los mayores y mejores
ejemplos de nacimiento estelar en una galaxia cercana. La nebulosa NGC 604 es
semejante a otras regiones de formación de estrellas en la Vía Láctea que nos resultan
familiares, como la nebulosa de Orión, pero en este caso nos hallamos ante una enorme
extensión que contiene más de 200 brillantes estrellas azules inmersas en una
resplandeciente nube gaseosa que ocupa 1.300 años-luz de espacio, unas cien veces el
tamaño de la Nebulosa de Orión, la cual aloja exactamente cuatro estrellas brillantes
centrales. Las luminosas estrellas de NGC 604 son extremadamente jóvenes, ya que se
han formado hace tres millones de años.

La mayor parte de las estrellas calientes y masivas componen un amplio cúmulo en el


interior de una cavidad cercana al centro de la nebulosa. Los vientos de las estrellas
azules, así como las explosiones de supernovas, son los agentes de tal erosión. Las más
pesadas estrellas en NGC 604 superan en 120 veces la masa de nuestro Sol, y su
temperatura superficial alcanza unos 40.000º K. Un torrente de radiación ultravioleta
fluye desde estos lugares, lo que hace brillar el gas nebular circundante.

La nebulosa NGC 604 está en un brazo espiral de la cercana galaxia M33, a 2.7
millones de años-luz hacia la constelación del Triángulo. M33 forma parte del Grupo
Local de galaxias, que también incluye a la Vía Láctea y la Galaxia de Andrómeda;
como ésta, puede ser observada a través de unos binoculares. Fue registrada por primera
vez en 1.784 por el astrónomo inglés William Herschel. En nuestro Grupo Local, sólo la
Nebulosa de la Tarántula en la Gran Nube de Magallanes excede a NGC 604 en el
número de estrellas recientes, a pesar de su tamaño ligeramente inferior.

El Telescopio Espacial Hubble ha obtenido estas imágenes del expansivo halo de luz
que rodea a la estrella V838 Monocerotis, una supergigante roja bastante insólita. Se
encuentra a unos 20.000 años-luz, hacia la constelación de Monoceros (el Unicornio).
En plena explosión llegó a superar en 600.000 veces la luminosidad de nuestro Sol. De
hecho, se transformó en una de las estrellas más brillantes de toda la Vía Láctea, hasta
que su brillo decayó de nuevo.

El denominado "eco de luz" de una nube de polvo en torno a la estrella ha revelado


notables estructuras desde que la estrella incrementó su brillo súbitamente a comienzos
del 2.002 durante varias semanas. El Hubble vigiló la evolución del eco a través de
varias fotos que muestran los remolinos causados por la turbulencia en el polvo y gas
cercanos a la estrella. Este material habría sido eyectado en alguna explosión previa,
hace algunas decenas de miles de años. El polvo circundante permaneció invisible hasta
que la brillante explosión de la estrella central lo iluminó.

El acontecimiento mostró similaridad en algunos aspectos a las novas, que incrementan


de improviso su brillo debido a las explosiones termonucleares en sus superficies. Sin
embargo, algunos detalles de V8383 Mon, en particular su color extremadamente rojo,
poco tiene que ver con ninguna nova anteriormente conocida. Tampoco expelió sus
capas externas, sino que creció enormemente en tamaño, mientras descendía su
temperatura superficial. El proceso de inflado hasta tamaños inmensos sin despojarse de
la envoltura exterior, no es muy usual, y en absoluto semejante a lo que ocurre en una
nova. Presenta una rara combinación de propiedades estelares nunca vistas que, tal vez,
representen un estado transitorio en la evolución estelar rara vez observado en el
Universo.

Una gigante roja alcanza su mayor tamaño cuando todo su hidrógeno central se ha
convertido en helio. En esta época se expande hasta el punto de devorar los planetas que
pudiera haber a su alrededor, si tenia un sistema planetario.

Esto es lo que le sucederá a nuestro Sol, cuando se convierta en gigante roja y se trague,
al menos, los cuatro primeros planetas, incluida la Tierra.
La supernova es un evento poco común. En cada galaxia se suelen dar una explosión
cada 200 años. En estas explosiones, la mayor parte de la masa de la estrella original se
lanza a grandes velocidades.

Durante algunos días, la supernova radía la misma energía que durante toda su vida,
llegando a brillar más que el conjunto de estrellas que residen en su galaxia. Con el paso
de los años, el remanente de la supernova se esparcirá, creando una nebulosa.

La foto del Telescopio Espacial Hubble muestra los restos de la supernova M1 (NGC
1952).
Betelgeuse es una estrella brillante que señala el lado derecho de la constelación Orión.
También conocida como Alpha Orionis, Betelgeuse es una estrella rojiza, una de las más
brillantes del cielo nocturno. Está a unos 300 años luz de la Tierra.

El diámetro de Betelgeuse varía de los 419 a los 580 millones de kilómetros, lo que la
convierte en una de las estrellas más grandes que se pueden observar. Si Betelgeuse
estuviera situada en el centro de nuestro Sistema Solar, su radio incluiría las órbitas de
Mercurio, Venus y la Tierra.
El telescopio Hubble continua revelando llamativos e intrincados tesoros en las
cercanías; en este caso, una intensa región de formación de estrellas conocida como la
Gran Nebulosa de Orión. Esta joya es un lazo chocante alrededor de luna estrella muy
joven, LL Orión, mostrada en esta foto.

Esta estructura en forma de arco es en realidad una onda de choque de medio año-luz de
tamaño, creada cuándo el viento estrelar procedente de la estrella joven LL Orionis
colisiona con el caudal procedente de la Nebulosa de Orion. A la deriva, dentro de la
cuna estrellar de Orion, y todavía en su fase de formación, la estrella variable LL
Orionis genera un viento más energético que el viento de nuestro propio Sol, una
estrella de mediana edad. Como que el rápido viento estrellar choca con el gas que se
mueve lentamente, se forma un frente de choque análogo a la ola que crea la proa de un
barco desplazándose a través del agua o de un avión viajando a velocidad supersónica.

A unos 1.500 años-luz de distancia, dentro de nuestro brazo espiral en la Vía Láctea, la
Nebulosa de Orión está en el centro de la región de la Espada de la constelación de
Orión el Cazador, que domina el cielo nocturno a inicios del invierno, en las latitudes
Norte.
Una gran cantidad de estrellas no son solitarias, sino que pertenecen a sistemas
formados por dos o más estrellas, en los que puede resultar difícil la formación de
planetas debido a la inexistencia de órbitas estables: los protoplanetas se verían
arrastrados en una y otra dirección por las influencias gravitatorias de las diferentes
estrellas. En estos sistemas es probable que lo único que se forme sean pedazos de
escombros cósmicos como los que existen en nuestro cinturón de asteroides.

El proceso de formación de planetas es muy eficiente. Inicialmente, las colisiones entre


los planetésimos ocurren a baja velocidad, así que colisionan objetos que tienden a
fusionarse y crecer. A una distancia Tierra-Sol típica, un objeto de 1 km tarda sólo unos
1000 años en crecer hasta 100 km. Otros 10.000 años producen protoplanetas de casi
1000 km de diámetro, los cuales crecen en 10.000 años más hasta protoplanetas de casi
2000 km de diámetro. Así, objetos del tamaño de la Luna pueden formarse en tan poco
tiempo como 20.000 años.

A medida que los protoplanetas se hacen más grandes y masivos, su gravedad crece.
Cuando algunos objetos alcanzan un tamaño de unos 1000 km, empiezan a atraer al
resto de objetos más pequeños. La gravedad atrae a los acúmulos de roca del tamaño de
asteroides, a velocidades cada vez más altas. Van tan rápido que cuando colisionan, no
se fusionan sino que se pulverizan. Mientras los protoplanetas más grandes continúan
creciendo, el resto se convierten mutuamente en polvo.
El núcleo del cúmulo globular NGC 6397 parece un cofre repleto de relucientes joyas.
Está situado a 8.200 años-luz hacia la constelación austral del Ara, y se encuentra entre
los más cercanos al Sistema Solar. Las estrellas se encuentran aquí muy juntas, con un
espacio entre ellas de unas semanas-luz, mientras que nos separan cuatro años-luz de la
estrella más cercana al Sol, Alfa Centauri. La densidad estelar supera en este lugar un
millón de veces las proximidades de nuestro sistema.

Las estrellas de NGC 6397 se hallan en constante movimiento y se producen muchas


colisiones. Aún así, transcurren millones de años antes de que se produzca alguna
colisión. Estas imágenes del Hubble tienen como objetivo la investigación de los
remanentes de los choques estelares y encuentros cercanos. Tras un choque directo, dos
estrellas pueden fusionarse y generar una nueva estrella denominada "azul rezagada";
estas jóvenes estrellas, muy calientes y brillantes, destacan entre los viejos astros que
componen la mayoría de un cúmulo globular.

Si dos estrellas se acercan lo suficiente, pero sin llegar a chocar, puede producirse una
captura y ambas permanecerán gravitacionalmente unidas. Un tipo de binaria originada
de este modo son las "variables cataclísmicas": una estrella normal que consume
hidrógeno nuclear en compañía de una enana blanca. La enana blanca extrae material de
la superficie de su compañera; este material conforma un disco de acreción que ciñe a la
enana blanca para caer finalmente hasta su superficie. Como resultado observamos una
variación en el brillo estelar. El calor producido mediante el proceso de acrección
genera tambien grandes cantidades de luz ultravioleta y azul.
Como si fuera una mariposa, esta estrella enana blanca comienza su vida envolviéndose
en un capullo. Sin embargo, en esta analogía, la estrella sería más bien la oruga y el
capullo de gas expulsado la etapa verdaderamente llamativa y hermosa.

La nebulosa planetaria NGC 2440 contiene una de las enanas blancas conocidas más
calientes. La enana blanca se ve como un punto brillante cerca del centro de la
fotografía. Eventualmente, nuestro Sol se convertirá en una "mariposa enana blanca",
pero no en los próximos 5 mil millones de años.

Las estrellas conocidas como "enanas blancas" pueden tener diámetros de sólo una
centésima del Sol. Son muy densas a pesar de su pequeño tamaño.
Saber si estamos o no solos en el universo ha sido uno de los objetivos de muchos
filósofos y científicos a lo largo de la historia. Hasta hace poco, los únicos planetas
conocidos formaban parte del Sistema Solar. El descubrimiento de planetas extrasolares
es un acontecimiento bastante reciente. Aunque la búsqueda sistemática comenzó en
1988, el primer planeta extrasolar o exoplaneta fue detectado en 1995.

Pero observar planetas directamente no es fácil. La existencia de planetas extrasolares


se ha deducido en primera instancia a partir de pruebas indirectas. No obstante, existen
varios proyectos futuros que permitirán observar estos planetas en el visible o en el
infrarrojo. A partir de ahí se podrían obtener algunos datos que permitan deducir si
dichos planetas alojan vida o no.

Hasta hace poco tiempo los científicos no han dispuesto de técnicas e instrumentos
capaces de detectar planetas extrasolares, es decir, sistemas planetarios en torno a otras
estrellas. Pero la existencia de nuestro sistema planetario ha fomentado la búsqueda.
Así, uno de los primeros pasos hacia el descubrimiento de planetas más allá de nuestro
Sistema Solar se produjo en 1983, cuando se descubrió un disco en torno a la estrella
Beta Pictoris. Pero durante mucho tiempo ésta ha sido la única prueba disponible.

La llegada del telescopio espacial Hubble permitió realizar observaciones detalladas de


regiones de formación de estrellas, como la existente en la constelación de Orión. Así se
detectaron discos protoplanetarios en torno a estrellas jóvenes en formación, y se
comprobó que una gran parte de las estrellas que se estaban formando tenían discos que
podrían dar lugar a planetas en el futuro.

Al principio de la década de 1990, se anunció el descubrimiento de planetas girando


alrededor de púlsares. Los púlsares son estrellas muy compactas y que giran muy
rápidamente, emitiendo radiación electromagnética que, si el eje de rotación está
orientado convenientemente, puede detectarse desde la Tierra. Más tarde se vio que
existían errores en el análisis de los datos y que dichos planetas no existían. Luego, no
obstante se ha confirmado la existencia de planetas girando en torno a púlsares.
Finalmente, en 1995, se anunció el descubrimiento del primer planeta extrasolar girando
en torno a una estrella de tipo solar, 51 Pegasi. A partir de ese momento, los anuncios de
nuevos planetas extrasolares se han ido sucediendo sin pausa hasta llegar a la
actualidad. Ahora ya se conocen varias decenas de planetas extrasolares, y el número de
planetas conocidos crece cada año.

Dada la dificultad que presentan las observaciones directas, los primeros intentos de
búsqueda de planetas que han dado resultado se han basado en observaciones indirectas.
Los métodos utilizados se basan en las perturbaciones gravitatorias causadas por los
planetas sobre las estrellas y en el tránsito del planeta por delante de la luz de la estrella.

La mayor parte de los planetas orbitan su estrella a una distancia bastante menor que la
distancia Tierra-Sol. Además, la masa observada es del orden de la masa de Júpiter. Esto
es, en parte, consecuencia de los métodos de detección empleados. Los planetas de masa
mayor y que giran más cerca de la estrella tienen más posibilidades de ser detectados
por las técnicas empleadas.

No obstante, el refinamiento de dichas técnicas y la utilización de otras nuevas debe


permitir en un futuro cercano detectar también planetas de tipo terrestre, es decir,
planetas con una masa equivalente a la de nuestro planeta. En el futuro, gracias a nuevos
telescopios situados en tierra y a nuevos observatorios espaciales, seremos capaces de
recoger luz procedente directamente de los planetas para obtener imágenes. A partir de
ahí, con la ayuda de la espectroscopía, podremos conocer cuáles son los componentes
principales de las atmósferas o las superficies de los planetas.

El polvo cósmico
Según las teorías astronómicas actuales, las galaxias
fueron en origen grandes conglomerados de gas y polvo
cósmico que giraban lentamente, fragmentándose en
vórtices turbulentos y condensándose en estrellas. En
algunas regiones donde la formación de estrellas fue
muy activa, casi todo el polvo y el gas fue a parar a una
estrella u otra. Poco o nada fue lo que quedó en el
espacio intermedio. Esto es cierto para los cúmulos
globulares, las galaxias elípticas y el núcleo central de
las galaxias espirales.
Dicho proceso fue mucho menos eficaz en las afueras de
las galaxias espirales. Las estrellas se formaron en
números mucho menores y sobró mucho polvo y mucho gas. Nosotros, los habitantes de
la Tierra, nos encontramos en los brazos espirales de nuestra galaxia y vemos las
manchas oscuras que proyectan las nubes de polvo contra el resplandor de la Vía
Láctea. El centro de nuestra propia galaxia queda completamente oscurecido por tales
nubes.

El material de que está formado el universo consiste en su mayor parte en hidrógeno y


helio. Los átomos de helio no tienen ninguna tendencia a juntarse unos con otros. Los
de hidrógeno sí, pero sólo en parejas, formando moléculas de hidrógeno (H2). Quiere
decirse que la mayor parte del material que flota entre las estrellas consiste en pequeños
átomos de helio o en pequeños átomos y moléculas de hidrógeno. Todo ello constituye
el gas interestelar, que forma la mayor parte de la materia entre las estrellas.

El polvo interestelar (o polvo cósmico) que se halla presente en cantidades mucho más
pequeñas, se compone de partículas diminutas, pero mucho más grandes que átomos o
moléculas, y por tanto deben contener átomos que no son ni de hidrógeno ni de helio.

El tipo de átomo más común en el universo, después del hidrógeno y del helio, es el
oxígeno. El oxígeno puede combinarse con hidrógeno para formar grupos oxhidrilo
(OH) y moléculas de agua (H2O), que tienen una marcada tendencia a unirse a otros
grupos y moléculas del mismo tipo que encuentren en el camino, de forma que poco a
poco se van constituyendo pequeñísimas partículas compuestas por millones y millones
de tales moléculas. Los grupos oxhidrilo y las moléculas de agua pueden formar parte
del polvo cósmico. En 1965 se detectó por primera vez grupos oxhidrilo en el espacio y
se comenzó a estudiar su distribución. Desde entonces se ha informado también de la
existencia de moléculas más complejas, que contienen átomos de carbono así como de
hidrógeno y oxígeno, tiene que contener también agrupaciones atómicas formadas por
átomos aún menos comunes que los de hidrógeno, oxígeno y carbono. En el espacio
interestelar se han detectado átomos de calcio, sodio, potasio y hierro, observando la luz
que esos átomos absorben.

Dentro de nuestro sistema solar hay un material parecido, aportado quizás por los
cometas. Es posible que fuera de los límites visibles del sistema solar exista una capa
con gran número de cometas, y que algunos de ellos se precipiten hacia el Sol (acaso
por los efectos gravitatorios de las estrellas cercanas). Los cometas son conglomerados
sueltos de diminutos fragmentos sólidos de metal y roca, unidos por una mezcla de
hielo, metano y amoníaco congelados y otros materiales parecidos. Cada vez que un
cometa se aproxima al Sol, se evapora parte de su materia, liberando diminutas
partículas sólidas que se esparcen por el espacio en forma de larga cola. En última
instancia el cometa se desintegra por completo.

A lo largo de la historia del sistema solar se han desintegrado innumerables cometas y


han llenado de polvo el espacio interior del sistema. La Tierra recoge cada día miles de
millones de estas partículas de polvo. Los científicos espaciales se interesan por ellas
por diversas razones; una de ellas es que los micrometeoroides de mayor tamaño
podrían suponer un peligro para los futuros astronautas y colonizadores de la Luna.

La energía de las estrellas


Las estrellas emiten energía de diferentes maneras:

1. En forma de fotones de radiación electromagnética


carentes de masa, desde los rayos gamma más
energéticos a las ondas radioeléctricas menos energéticas
(incluso la materia fría radia fotones; cuanto más fría es
la materia, tanto más débiles son los fotones). La luz visible es parte de esta clase de
radiación.

2. En forma de otras partículas sin masa, como son los neutrinos y los gravitones.

3. En forma de partículas cargadas de alta energía, principalmente protones, pero


también cantidades menores de diversos núcleos atómicos y otras clases de partículas.
Son los rayos cósmicos.

Todas estas partículas emitidas (fotones, neutrinos, gravitones, protones, etc.) son
estables mientras se hallen aisladas en el espacio. Pueden viajar miles de millones de
años sin sufrir ningún cambio, al menos por lo que sabemos.

Así pues, todas estas partículas radiadas sobreviven hasta el momento (por muy lejano
que sea) en que chocan contra alguna forma de materia que las absorbe. En el caso de
los fotones sirve casi cualquier clase de materia. Los protones energéticos son ya más
difíciles de parar y absorber, y mucho más difíciles aún los neutrinos. En cuanto a los
gravitones, poco es lo que se sabe hasta ahora.

Supongamos ahora que el universo sólo consistiese en estrellas colocadas en una


configuración invariable. Cualquier partícula emitida por una estrella viajaría por el
espacio hasta chocar contra algo (otra estrella) y ser absorbida. Las partículas viajarían
de una estrella a otra y, a fin de cuentas, cada una de ellas recuperaría toda la energía
que había radiado. Parece entonces que el universo debería continuar inmutable para
siempre.

El hecho de que no sea así es consecuencia de tres cosas:

1. El universo no consta sólo de estrellas sino que contiene una cantidad importante de
materia fría, desde grandes planetas hasta polvo interestelar. Cuando esta materia fría
frena a una partícula, la absorbe y emite a cambio partículas menos energéticas. Lo cual
significa que en definitiva la temperatura de la materia fría aumenta con el tiempo,
mientras que el contenido energético de las estrellas disminuye.

2. Algunas de las partículas (neutrinos y gravitones, por ejemplo) emitidas por las
estrellas y también por otras formas de materia tienen una tendencia tan pequeña a ser
absorbidas por éstas que desde que existe el universo sólo han sido absorbidas un
porcentaje diminuto de ellas. Lo cual equivale a decir que la fracción de la energía total
de las estrellas que pulula por el espacio es cada vez mayor y que el contenido
energético de las estrellas disminuye.

3. El universo está en expansión. Cada año es mayor el espacio entre las galaxias, de
modo que incluso partículas absorbibles, como los protones y los fotones, pueden viajar
por término medio distancias mayores antes de chocar contra la materia y ser
absorbidas. Esta es otra razón de que cada año sea menor la energía absorbida por las
estrellas en comparación con la emitida, porque hace falta una cantidad extra de energía
para llenar ese espacio adicional, producido por la expansión, con partículas energéticas
y hasta entonces no absorbidas. Esta última razón es suficiente por sí misma. Mientras
el universo siga en expansión, continuará enfriándose.
Naturalmente, cuando el universo comience a contraerse de nuevo (suponiendo que lo
haga) la situación será la inversa y empezará a calentarse otra vez.

Novas y supernovas
Antes de la era de la astronomía, a una estrella que
aparecía súbitamente donde antes no se había visto nada,
se le llamaba nova, o "estrella nueva". Éste es un nombre
inapropiado, ya que estas estrellas existían mucho antes
de que se pudieran ver a simple vista. Los astrónomos
consideran que quizá existan una docena de novas en la
Vía Láctea, la galaxia de la Tierra, cada año, pero dos o
tres de ellas están demasiado lejos para poder verlas o las
oscurece la materia interestelar.

En efecto, a las novas se las observa con más facilidad en


otras galaxias cercanas que en la nuestra. Se les llama
novas de acuerdo con el año de su aparición y la
constelación en la que surgen. De forma característica, una nova incrementa en varios
miles de veces su brillo original en cuestión de días o de horas. Después entra en un
periodo de transición, durante el cual palidece, y cobra brillo de nuevo; a partir de ahí
palidece poco a poco hasta llegar a su nivel original de brillo.

Las novas son estrellas en un periodo tardío de evolución. Se puede considerar que son
un tipo de estrellas variables. En apariencia se comportan así porque sus capas
exteriores han formado un exceso de helio mediante reacciones nucleares y se expande
con demasiada velocidad como para ser contenida. La estrella despide de forma
explosiva una pequeña fracción de su masa como una capa de gas y entonces se
normaliza. La estrella restante es típicamente una enana blanca y por lo general se cree
que es el miembro más pequeño de un sistema binario, sujeto a una continua
disminución de materia de la estrella más grande. Quizá este fenómeno suceda siempre
con las novas enanas, que surgen una y otra vez a intervalos regulares de unos cientos
de días.

Las novas en general muestran una relación entre su máximo brillo y el tiempo que
tardan en palidecer en una cierta cantidad de magnitudes. Mediante mediciones de las
novas más cercanas de las que conocemos la distancia y el brillo, los astrónomos
pueden utilizar las novas de otras galaxias como indicadores de la distancia de esas
galaxias.

La explosión de una supernova es mucho más espectacular y destructiva que la de una


nova y mucho más rara. Estos fenómenos son poco frecuentes en nuestra galaxia, y a
pesar de su aumento de brillo en un factor de miles de millones, sólo unas pocas se
pueden observar a simple vista. Hasta 1987 sólo se habían identificado realmente tres a
lo largo de la historia, la más conocida de las cuales es la que surgió en 1054 d. C. y
cuyos restos se conocen como la nebulosa del Cangrejo.

Las supernovas, al igual que las novas, se ven con más frecuencia en otras galaxias. Así
pues, la supernova más reciente, que apareció en el hemisferio sur el 24 de febrero de
1987, surgió en una galaxia satélite, la Gran Nube de Magallanes. Esta supernova, que
exhibe algunos rasgos insólitos, es hoy objeto de un intenso estudio astronómico.

Los mecanismos que producen las supernovas se conocen menos que los de las novas,
sobre todo en el caso de las estrellas que tienen más o menos la misma masa que el Sol,
las estrellas medias. Sin embargo, las estrellas que tienen mucha más masa explotan a
veces en las últimas etapas de su rápida evolución como resultado de un colapso
gravitacional, cuando la presión creada por los procesos nucleares dentro de la estrella
ya no puede soportar el peso de las capas exteriores. A esto se le denomina supernova de
Tipo II.

Una supernova de Tipo I se origina de modo similar a una nova. Es un miembro de un


sistema binario que recibe el flujo de combustible puro al capturar material de su
compañero.

De la explosión de una supernova quedan pocos restos, salvo la capa de gases que se
expande. Un ejemplo famoso es la nebulosa del Cangrejo; en su centro hay un púlsar, o
estrella de neutrones que gira a gran velocidad. Las supernovas son contribuyentes
significativos al material interestelar que forma nuevas estrellas.

Nebulosas
Una nebulosa es una nube de gas o polvo en el espacio.
Las nebulosas pueden ser oscuras o, si se iluminan por
estrellas cercanas o estrellas inmersas en ellas, pueden
ser brillantes. Generalmente son lugares donde se
produce la formación de estrellas y discos planetarios,
por lo que se suelen encontrar en su seno estrellas muy
jóvenes.

Existe gran variedad de nebulosas acompañando a las


estrellas en todas las etapas de su evolución. La gran
mayoría corresponden a nubes gaseosas de hidrógeno y
helio que experimentan un proceso de contracción
gravitatoria hacia un estado de protoestrella. Así, las
llamadas nebulosas capullo cuentan en su interior
cuentan con una estrella recién formada. La nebulosa no es, en este caso, sino los restos
de gas que no ha colapsado. El gas en cuestión, que puede, mediante colisiones
atómicas, formar moléculas y pequeñas partículas sólidas de mayor o menor
complejidad, se calienta por la radiación emitida por la nueva estrella lo suficiente como
para enmascarar su presencia, y lo que se observa es una imagen parecida a la de un
capullo de oruga.

Otro tipo de nebulosas, llamados glóbulos de Bok, son nubes de gas muy condensado,
en vías de formar una protoestrella. Se revelan, cuando están situadas sobre un fondo
claro, como por ejemplo la Galaxia, como un oscurecimiento del fondo, por ejemplo la
nebulosa llamada Saco de carbón, junto a la constelación Cruz del Sur, y la nebulosa
llamada de Cabeza de caballo.

Los llamados objetos de Herbig-Haro son nebulosas pequeñas, variables, que aparecen
y desaparecen en un periodo de pocos años, que parecen consistir en grumos de materia
gaseosa eyectados en los polos de una estrella en formación, principalmente en la fase
de capullo. Su luminosidad se produce por colisión con la nube circundante de gas, pues
producen una característica onda de choque debido a la gran velocidad con que se
expulsan.

Otro tipo de nebulosas, con una composición química rica en elementos químicos
pesados (helio, carbono y nitrógeno principalmente) son restos de materia estelar
expulsada por las estrellas gigantes y supergigantes a gran velocidad (1000 Km/s) en un
tipo de estrellas llamadas de Wolf-Rayet. semejantes a éstas se producen también en las
últimas etapas estelares, tras la formación de novas y supernovas.

A las nebulosas planetarias se les llama así porque muchas de ellas se parecen a los
planetas cuando son observadas a través de un telescopio, aunque de hecho son capas de
material de las que se desprendió una estrella evolucionada de masa media durante su
última etapa de evolución de gigante roja antes de convertirse en enana blanca. La
nebulosa del Anillo, en la constelación de Lira, es una planetaria típica que tiene un
periodo de rotación de 132.900 años y una masa de unas 14 veces la masa del Sol.

En la Vía Láctea se han descubierto varios miles de nebulosas planetarias. Más


espectaculares, pero menores en número, son los fragmentos de explosiones de
supernovas, y quizás la más famosa de éstas sea la nebulosa del Cangrejo. Las
nebulosas de este tipo son radiofuentes intensas, como consecuencia de las explosiones
que las formaron y los probables restos de púlsares en que se convirtieron las estrellas
originarias.

¿Qué son los pulsares?


En el verano de 1967 Anthony Hewish y sus
colaboradores de la Universidad de Cambridge
detectaron, por accidente, emisiones de radio en los cielos
que en nada se parecían a las que se habían detectado
hasta entonces. Llegaban en impulsos muy regulares a
intervalos de sólo 1 1/3 segundos. Para ser exactos, a
intervalos de 1, 33730109 segundos. La fuente emisora
recibió el nombre de «estrella pulsante» o «pulsar» en
abreviatura (pulsating star en inglés).

Durante los dos años siguientes se descubrieron un


número bastante grande de tales pulsares, y el lector
seguramente se preguntará por qué no se descubrieron antes. El caso es que un pulsar
radia mucha energía en cada impulso, pero estos impulsos son tan breves que por
término medio la intensidad de radioondas es muy baja, pasando inadvertida. Es más,
los astrónomos suponían que las fuentes de radio emitían energía a un nivel constante y
no prestaban atención a los impulsos intermitentes.
Uno de los pulsares más rápidos fue el que se encontró en la nebulosa del Cangrejo,
comprobándose que radiaba en la zona visible del espectro electromagnético. Se
apagaba y se encendía en perfecta sincronización con los impulsos de radio. Aunque
había sido observado muchas veces, había pasado hasta entonces por una estrella
ordinaria. Nadie pensó jamás en observarlo con un aparato de detección lo bastante
delicado como para demostrar que guiñaba treinta veces por segundo. Con pulsaciones
tan rápidas, la luz parecía constante, tanto para el ojo humano como para los
instrumentos ordinarios.

¿Pero qué es un pulsar? Si un objeto emite energía a intervalos periódicos es que está
experimentando algún fenómeno de carácter físico en dichos intervalos. Puede ser, por
ejemplo, un cuerpo que se está expandiendo y contrayendo y que emite un impulso de
energía en cada contracción. O podría girar alrededor de su eje o alrededor de otro
cuerpo y emitir un impulso de energía en cada rotación o revolución.

La dificultad estribaba en que la cadencia de impulsos era rapidísima, desde un impulso


cada cuatro segundos a uno cada 1/30 de segundo. El pulsar tenía que ser un cuerpo
muy caliente, pues si no, no podría emitir tanta energía; y tenía que ser un cuerpo muy
pequeño, porque si no, no podría hacer nada con esa rapidez.

Los cuerpos calientes más pequeños que habían observado los científicos eran las
estrellas enanas blancas. Pueden llegar a tener la masa de nuestro sol, son tanto o más
calientes que él y sin embargo no son mayores que la Tierra. ¿Podría ser que esas
enanas blancas produjesen impulsos al expandirse y contraerse o al rotar? ¿O se trataba
de dos enanas blancas girando una alrededor de la otra? Pero por muchas vueltas que le
dieron los astrónomos al problema no conseguían que las enanas blancas se movieran
con suficiente rapidez.

En cuanto a objetos aún más pequeños, los astrónomos habían previsto teóricamente la
posibilidad de que una estrella se contrajera brutalmente bajo la atracción de la
gravedad, estrujando los núcleos atómicos unos contra otros. Los electrones y protones
interaccionarían y formarían neutrones, y la estrella se convertiría en una especie de
gelatina de neutrones. Una «estrella de neutrones» como ésta podría tener la misma
masa que el Sol y medir sin embargo sólo diez millas de diámetro.

Ahora bien, jamás se había observado una estrella de neutrones, y siendo tan pequeñas
se temía que aunque existiesen no fueran detectables.

Con todo, un cuerpo tan pequeño sí podría girar suficientemente rápido para producir
los impulsos. En ciertas condiciones los electrones sólo podrían escapar en ciertos
puntos de la superficie. Al girar la estrella de neutrones, los electrones saldrían
despedidos como el agua de un aspersor; en cada vuelta habría un momento en que el
chorro apuntase en dirección a la Tierra, haciéndonos llegar ondas de radio y luz visible.

Thomas Gold, de la Universidad Cornell, pensó que, en ese supuesto, la estrella de


neutrones perdería energía y las pulsaciones se irían espaciando cada vez más, cosa que
resultó ser cierta. Hoy día parece muy probable que los pulsares sean esas estrellas de
neutrones que los astrónomos creían indetectables.
¿Qué es un agujero negro?
Para entender lo que es un agujero negro empecemos por
una estrella como el Sol. El Sol tiene un diámetro de
1.390.000 kilómetros y una masa 330.000 veces superior
a la de la Tierra. Teniendo en cuenta esa masa y la
distancia de la superficie al centro se demuestra que
cualquier objeto colocado sobre la superficie del Sol
estaría sometido a una atracción gravitatoria 28 veces
superior a la gravedad terrestre en la superficie.

Una estrella corriente conserva su tamaño normal gracias


al equilibrio entre una altísima temperatura central, que
tiende a expandir la sustancia estelar, y la gigantesca
atracción gravitatoria, que tiende a contraerla y estrujarla.

Si en un momento dado la temperatura interna desciende, la gravitación se hará dueña


de la situación. La estrella comienza a contraerse y a lo largo de ese proceso la
estructura atómica del interior se desintegra. En lugar de átomos habrá ahora electrones,
protones y neutrones sueltos. La estrella sigue contrayéndose hasta el momento en que
la repulsión mutua de los electrones contrarresta cualquier contracción ulterior.

La estrella es ahora una «enana blanca». Si una estrella como el Sol sufriera este
colapso que conduce al estado de enana blanca, toda su masa quedaría reducida a una
esfera de unos 16.000 kilómetros de diámetro, y su gravedad superficial (con la misma
masa pero a una distancia mucho menor del centro) sería 210.000 veces superior a la de
la Tierra.

En determinadas condiciones la atracción gravitatoria se hace demasiado fuerte para ser


contrarrestada por la repulsión electrónica. La estrella se contrae de nuevo, obligando a
los electrones y protones a combinarse para formar neutrones y forzando también a
estos últimos a apelotonarse en estrecho contacto. La estructura neutrónica contrarresta
entonces cualquier ulterior contracción y lo que tenemos es una «estrella de neutrones»,
que podría albergar toda la masa de nuestro sol en una esfera de sólo 16 kilómetros de
diámetro. La gravedad superficial sería 210.000.000.000 veces superior a la que
tenemos en la Tierra.

En ciertas condiciones, la gravitación puede superar incluso la resistencia de la


estructura neutrónica. En ese caso ya no hay nada que pueda oponerse al colapso. La
estrella puede contraerse hasta un volumen cero y la gravedad superficial aumentar
hacia el infinito.

Según la teoría de la relatividad, la luz emitida por una estrella pierde algo de su energía
al avanzar contra el campo gravitatorio de la estrella. Cuanto más intenso es el campo,
tanto mayor es la pérdida de energía, lo cual ha sido comprobado experimentalmente en
el espacio y en el laboratorio.

La luz emitida por una estrella ordinaria como el Sol pierde muy poca energía. La
emitida por una enana blanca, algo más; y la emitida por una estrella de neutrones aún
más. A lo largo del proceso de colapso de la estrella de neutrones llega un momento en
que la luz que emana de la superficie pierde toda su energía y no puede escapar.

Un objeto sometido a una compresión mayor que la de las estrellas de neutrones tendría
un campo gravitatorio tan intenso, que cualquier cosa que se aproximara a él quedaría
atrapada y no podría volver a salir. Es como si el objeto atrapado hubiera caído en un
agujero infinitamente hondo y no cesase nunca de caer. Y como ni siquiera la luz puede
escapar, el objeto comprimido será negro. Literalmente, un «agujero negro».

Hoy día los astrónomos están buscando pruebas de la existencia de agujeros negros en
distintos lugares del universo.

Artículos sobre el Sistema Solar


El Sol es una estrella vulgar, ni grande ni pequeña, ni
caliente ni fría, ni joven ni vieja. Se calcula que su edad
es de 5.000 millones de años y que seguirá brillando con
la misma intensidad otros tantos.

Cuando el sol alcance la edad de 11.000 millones de


años habrá agotado todo el hidrogeno que está utilizando
como combustible, y empezará a consumir helio en sus
reacciones nucleares.

Entonces el sol pasará de ser una estrella normal a


convertirse en una gigante roja. El volumen del Sol
crecerá hasta las proximidades del actual planeta Mercurio, todos los planetas hasta
Marte serán atraídos y englobados en la masa del Sol.

Nuevas transformaciones convertirán al Sol en una estrella pulsátil, y después en una


enana blanca, en la que toda su masa se concentrará en un tamaño similar al de nuestra
Tierra. Los planetas más lejanos se contraerán o se extinguirán, alterándose toda la
mecánica de nuestro sistema solar y posiblemente influyendo en el de las estrellas
próximas.

Pero, mientras tanto, ahí está, y es el centro de nuestra casa. El Sistema Solar, inmenso
según nuestra escala, es, sin embargo, una parte muy pequeña del Universo. ¿Cómo se
formó? ¿De qué está hecho? ¿Cómo funciona?

Este capítulo contiene diversos artículos sobre nuestro Sistema Solar.

Origen del Sistema Solar: Desde los tiempos de Newton se ha podido especular acerca
del origen de la Tierra y el Sistema Solar como un problema distinto ... [ + ]
Origen del Sistema Solar (II): En años recientes, los astrónomos han propuesto que la
fuerza iniciadora en la formación del Sistema Solar debería ser ... [ + ]
Origen del Sistema Solar (III): A partir de 1900 perdió tanta fuerza la hipótesis nebular
para explicar la formación del Sistema Solar, que la idea de ... [ + ]
Las manchas solares: Si la temperatura de la superficie solar es tan alta que está al
blanco, ¿por qué las manchas solares son negras? Para ser negras ... [ + ]
Los planetas del Sistema Solar: Esencialmente, un planeta se diferencia de una estrella
en su cantidad de masa, mucho menor. A causa de este déficit, ... [ + ]
Las órbitas de los planetas: ¿Por qué todos los planetas ocupan aproximadamente el
mismo plano orbital? La mejor conjetura astronómica es que todos se ... [ + ]
¿Podemos viajar al planeta Marte?: La NASA tiene un misterio que resolver:
¿Podemos mandar personas a Marte, o no? Es una cuestión de radiación. ... [ + ]
Asteroides rozadores de la Tierra y objetos Apolo: Si los asteroides penetran más allá
de la órbita de Júpiter, ¿no habría otros que penetrasen más ... [ + ]
Sedna, ¿el décimo planeta del Sistema Solar?: Investigadores auspiciados por la
NASA han descubierto el objeto más distante en órbita del Sol. Es un ... [ + ]
Cometas en el cielo: Los antiguos, observando que los cometas aparecían y
desaparecían de manera imprevisible, rodeados de una pálida cabellera y seguidos ...
[+]
Cometas: La nube de Oort: La nube de Oort es una gran concentración de cometas
sometidos a las fuerzas del Sol y otras estrellas. En el artículo La nube ... [ + ]

Origen del Sistema Solar


Desde los tiempos de Newton se ha podido especular
acerca del origen de la Tierra y el Sistema Solar como un
problema distinto del de la creación del Universo en
conjunto. La idea que se tenía del Sistema Solar era el de
una estructura con unas ciertas características unificadas:

1. - Todos los planetas mayores dan vueltas alrededor del


Sol aproximadamente en el plano del ecuador solar. En
otras palabras: si preparamos un modelo tridimensional
del Sol y sus planetas, comprobaremos que se puede
introducir en un cazo poco profundo.

2. - Todos los planetas mayores giran entorno al Sol en la


misma dirección, en sentido contrario al de las agujas del
reloj, si contemplamos el Sistema Solar desde la Estrella Polar.

3. - Todos los planetas mayores (excepto Urano y, posiblemente, Venus) efectúan un


movimiento de rotación alrededor de su eje en el mismo sentido que su revolución
alrededor del Sol, o sea de forma contraria a las agujas del reloj; también el Sol se
mueve en tal sentido.

4. - Los planetas se hallan espaciados a distancias uniformemente crecientes a partir del


Sol y describen órbitas casi circulares.

5. - Todos los satélites, con muy pocas excepciones, dan vueltas alrededor de sus
respectivos planetas en el plano del ecuador planetario, y siempre en sentido contrario al
de las agujas del reloj. La regularidad de tales movimientos sugirió, de un modo natural,
la intervención de algunos procesos singulares en la creación del Sistema en conjunto.
Por tanto, ¿cuál era el proceso que había originado el Sistema Solar? Todas las teorías
propuestas hasta entonces podían dividirse en dos clases: catastróficas y evolutivas.
Según el punto de vista catastrófico, el Sol había sido creado como singular cuerpo
solitario, y empezó a tener una «familia» como resultado de algún fenómeno violento.
Por su parte, las ideas evolutivas consideraban que todo el Sistema había llegado de una
manera ordenada a su estado actual.

En el siglo XVI se suponía que aun la historia de la Tierra estaba llena de violentas
catástrofes. ¿Por qué, pues, no podía haberse producido una catástrofe de alcances
cósmicos, cuyo resultado fuese la aparición de la totalidad del Sistema? Una teoría que
gozó del favor popular fue la propuesta por el naturalista francés Georges-Louis Leclerc
de Buffon, quien afirmaba, en 1745, que el Sistema Solar había sido creado a partir de
los restos de una colisión entre el Sol y un cometa.

Naturalmente, Buffon implicaba la colisión entre el Sol y otro cuerpo de masa


comparable. Llamó a ese otro cuerpo cometa, por falta de otro nombre. Sabemos ahora
que los cometas son cuerpos diminutos rodeados por insustanciales vestigios de gas y
polvo, pero el principio de Buffon continúa, siempre y cuando denominemos al cuerpo
en colisión con algún otro nombre y, en los últimos tiempos, los astrónomos han vuelto
a esta noción.

Sin embargo, para algunos parece más natural, y menos fortuito, imaginar un proceso
más largamente trazado y no catastrófico que diera ocasión al nacimiento del Sistema
Solar. Esto encajaría de alguna forma con la majestuosa descripción que Newton había
bosquejado de la ley natural que gobierna los movimientos de los mundos del Universo.
El propio Newton había sugerido que el Sistema Solar podía haberse formado a partir
de una tenue nube de gas y polvo, que se hubiera condensado lentamente bajo la
atracción gravitatoria. A medida que las partículas se aproximaban, el campo
gravitatorio se habría hecho más intenso, la condensación se habría acelerado hasta que,
al fin, la masa total se habría colapsado, para dar origen a un cuerpo denso (el Sol),
incandescente a causa de la energía de la contracción.

En esencia, ésta es la base de las teorías hoy más populares respecto al origen del
Sistema Solar. Pero había que resolver buen número de espinosos problemas, para
contestar algunas preguntas clave. Por ejemplo: ¿Cómo un gas altamente disperso podía
ser forzado a unirse, por una fuerza gravitatoria muy débil?

Origen del Sistema Solar (II)


En años recientes, los astrónomos han propuesto que la
fuerza iniciadora en la formación del Sistema Solar
debería ser una explosión supernova. Cabe imaginar que
una vasta nube de polvo y gas que ya existiría,
relativamente incambiada, durante miles de millones de
años, habría avanzado hacia las vecindades de una estrella
que acababa de explotar como una supernova. La onda de
choque de esta explosión, la vasta ráfaga de polvo y gas
que se formaría a su paso a través de la nube casi inactiva a la que he mencionado que
comprimiría esta nube, intensificando así su campo gravitatorio e iniciando la
condensación que conlleva la formación de una estrella.

Si ésta era la forma en que se había creado el Sol, ¿qué ocurría con los planetas? ¿De
dónde procedían? El primer intento para conseguir una respuesta fue adelantado por
Immanuel Kant en 1755 e, independientemente, por el astrónomo francés y matemático
Fierre Simón de Laplace, en 1796. La descripción de Laplace era más detallada.

De acuerdo con la descripción de Laplace, la enorme nube de materia en contracción se


hallaba en fase rotatoria al empezar el proceso. Al contraerse, se incrementó su
velocidad de rotación, de la misma forma que un patinador gira más rápido cuando
recoge sus brazos. Esto es debido a la «conversión del momento angular». Puesto que
dicho momento es igual a la velocidad del movimiento por la distancia desde el centro
de rotación, cuando disminuye tal distancia se incrementa, en compensación, la
velocidad del movimiento.

Según Laplace, al aumentar la velocidad de rotación de la nube, ésta empezó a proyectar


un anillo de materia a partir de su ecuador, en rápida rotación. Esto disminuyó en cierto
grado el momento angular, de tal modo que se redujo la velocidad de giro de la nube
restante; pero al seguir contrayéndose, alcanzó de nuevo una velocidad que le permitía
proyectar otro anillo de materia. Así, el Sol fue dejando tras sí una serie de anillos
(nubes de materia, en forma de rosquillas), que se fueron condensando lentamente, para
formar los planetas; con el tiempo, éstos expelieron, a su vez, pequeños anillos, que
dieron origen a sus satélites.

A causa de este punto de vista, de que el Sistema Solar comenzó como una nube o
nebulosa, y dado que Laplace apuntó a la nebulosa de Andrómeda (que entonces no se
sabía que fuese una vasta galaxia de estrellas, sino que se creía que era una nube de
polvo y gas en rotación), esta sugerencia ha llegado a conocerse como hipótesis nebular.

La «hipótesis nebular» de Laplace parecía ajustarse muy bien a las características


principales del Sistema Solar, e incluso a algunos de sus detalles. Por ejemplo, los
anillos de Saturno podían ser los de un satélite que no se hubiera condensado ya que, al
unirse todos, podría haberse formado un satélite de respetable tamaño. De manera
similar, los asteroides que giraban, en cinturón alrededor del Sol, entre Marte y Júpiter,
podrían ser condensaciones de partes de un anillo que no se hubieran unido para formar
un planeta. Y cuando Helmholtz y Kelvin elaboraron unas teorías que atribuían la
energía del Sol a su lenta contracción, las hipótesis parecieron acomodarse de nuevo
perfectamente a la descripción de Laplace.

La hipótesis nebular mantuvo su validez durante la mayor parte del siglo XIX. Pero
antes de que éste finalizara empezó a mostrar puntos débiles. En 1859, James Clerk
Maxwell, al analizar de forma matemática los anillos de Saturno, llegó a la conclusión
de que un anillo de materia gaseosa lanzado por cualquier cuerpo podría condensarse
sólo en una acumulación de pequeñas partículas, que formarían tales anillos, pero que
nunca podría formar un cuerpo sólido, porque las fuerzas gravitatorias fragmentarían el
anillo antes de que se materializara su condensación.

También surgió el problema del momento angular. Se trataba de que los planetas, que
constituían sólo algo más del 0,1% de la masa del Sistema Solar, ¡contenían, sin
embargo, el 98% de su momento angular! En otras palabras: el Sol retenía únicamente
una pequeña fracción del momento angular de la nube original.

¿Cómo fue transferida la casi totalidad del momento angular a los pequeños anillos
formados a partir de la nebulosa? El problema se complica al comprobar que, en el caso
de Júpiter y Saturno, cuyos sistemas de satélites les dan el aspecto de sistemas solares
en miniatura y que han sido, presumiblemente, formados de la misma manera, el cuerpo
planetario central retiene la mayor parte del momento angular.

Origen del Sistema Solar (III)


A partir de 1900 perdió tanta fuerza la hipótesis nebular
para explicar la formación del Sistema Solar, que la idea
de cualquier proceso evolutivo pareció desacreditada
para siempre. El escenario estaba listo para la
resurrección de una teoría catastrófica.

En 1905, dos sabios americanos, Thomas Chrowder


Chamberlin y Forest Ray Moulton, propusieron una
nueva, que explicaba el origen de los planetas como el
resultado de una cuasicolisión entre nuestro Sol y otra
estrella. Este encuentro habría arrancado materia gaseosa
de ambos soles, y las nubes de material abandonadas en la vecindad de nuestro Sol se
habrían condensado luego en pequeños «planetesimales», y éstos, a su vez, en planetas.
Ésta es la «hipótesis planetesimal».

Respecto al problema del momento angular, los científicos británicos James Hopwood
Jeans y Harold Jeffreys propusieron, en 1918, una «hipótesis de manera», sugiriendo
que la atracción gravitatoria del Sol que pasó junto al nuestro habría comunicado a las
masas de gas una especie de impulso lateral (dándoles «efecto», por así decirlo), motivo
por el cual les habría impartido un momento angular. Si tal teoría catastrófica era cierta,
podía suponerse que los sistemas planetarios tenían que ser muy escasos. Las estrellas
se hallan tan ampliamente espaciadas en el Universo, que las colisiones estelares son
10.000 veces menos comunes que las de las supernovas, las cuales, por otra parte, no
son, en realidad, muy frecuentes. Según se calcula, en la vida de la Galaxia sólo ha
habido tiempo para diez encuentros del tipo que podría generar sistemas solares con
arreglo a dicha teoría.

Sin embargo, fracasaron estos intentos iniciales para asignar un papel a las catástrofes,
al ser sometidos a la comprobación de los análisis matemáticos. Russell demostró que
en cualquiera de estas cuasicolisiones, los planetas deberían de haber quedado situados
miles de veces más lejos del Sol de lo que están en realidad. Por otra parte, tuvieron
poco éxito los intentos de salvar la teoría imaginando una serie de colisiones reales, más
que de cuasicolisiones.

Durante la década iniciada en 1930, Lyttleton especuló acerca de la posibilidad de una


colisión entre tres estrellas, y, posteriormente, Hoyle sugirió que el Sol había tenido un
compañero, que se transformó en supernova y dejó a los planetas como último legado.
Sin embargo, en 1939, el astrónomo americano Lyman Spitzer demostró que un material
proyectado a partir del Sol, en cualquier circunstancia, tendría una temperatura tan
elevada que no se condensaría en planetesimales, sino que se expandiría en forma de un
gas tenue. Aquello pareció acabar con toda la idea de catástrofe.

A pesar de ello, en 1965, un astrónomo británico, M. M. Woolfson, volvió a insistir en


el tema, sugiriendo que el Sol podría haber arrojado su material planetario a partir de
una estrella fría, muy difusa, de forma que no tendrían que haber intervenido
necesariamente temperaturas extremas.

Y, así, una vez se hubo acabado con la teoría planetesimal, los astrónomos volvieron a
las ideas evolutivas y reconsideraron la hipótesis nebular de Laplace.

Por entonces se había ampliado enormemente su visión del Universo. La nueva cuestión
que se les planteaba era la de la formación de las galaxias, las cuales necesitaban,
naturalmente, mayores nubes de gas y polvo que las supuestas por Laplace como origen
del Sistema Solar. Y resultaba claro que tan enormes conjuntos de materia
experimentarían turbulencias y se dividirían en remolinos, cada uno de los cuales podría
condensarse en un sistema distinto.

En 1944, el astrónomo alemán Cari F. von Weizsácker llevó a cabo un detenido análisis
de esta idea. Calculó que en los remolinos mayores habría la materia suficiente como
para formar galaxias. Durante la turbulenta contracción de cada remolino se generarían
remolinos menores, cada uno de ellos lo bastante grande como para originar un sistema
solar, con uno o más soles. En los límites de nuestro remolino solar, esos remolinos
menores podrían generar los planetas. Así, en las uniones en las que se encontraban
estos remolinos, moviéndose unos contra otros como engranajes de un cambio de
marchas, se formarían partículas de polvo que colisionarían y se fundirían, primero los
planetesimales y luego los planetas.

La teoría de Weizsácker no resolvió por sí sola los interrogantes sobre el momento


angular de los planetas, ni aportó más aclaraciones que la versión, mucho más simple,
de Laplace. El astrofísico sueco Hannes Alfven incluyó en sus cálculos el campo
magnético del Sol. Cuando el joven Sol giraba rápidamente, su campo magnético
actuaba como un freno moderador de ese movimiento, y entonces se transmitiría a los
planetas el momento angular.

Tomando como base dicho concepto, Hoyle elaboró la teoría de Weizsácker de tal
forma, que ésta - una vez modificada para incluir las fuerzas magnéticas y gravitatorias
- sigue siendo, al parecer, la que mejor explica el origen del Sistema Solar.

Las manchas solares


Si la temperatura de la superficie solar es tan alta que
está al blanco, ¿por qué las manchas solares son negras?
Para ser negras tendrían que ser frías, y ¿cómo puede
haber algo frío en el Sol?
La pregunta, tal como está formulada, parece una verdadera pega. De hecho, a
principios del siglo pasado el gran astrónomo William Herschel concluyó que las
manchas solares tenían que ser frías porque eran negras. La única manera de explicarlo
era suponer que el Sol no era caliente en su totalidad. Según Herschel, tenía una
atmósfera incandescente, pero debajo había un cuerpo sólido frío, que es lo que nosotros
veíamos a través de una serie de grietas de la atmósfera solar. Estas grietas eran las
manchas solares. Herschel llegó incluso a pensar que el frío interior del Sol podía estar
habitado por seres vivientes.

Pero esto es falso. Hoy día estamos completamente seguros de que el Sol es caliente en
su totalidad. Es más, la superficie que vemos es la parte más fría del Sol, y aun así es ya
demasiado caliente, sin lugar a dudas, para los seres vivos. Radiación y temperatura
están estrechamente relacionadas. En 1894, el físico alemán Wilhelm Wien estudió los
distintos tipos de luz radiada a diferentes temperaturas y concluyó que, en condiciones
ideales, cualquier objeto, independientemente de su composición química, radiaba una
gama determinada de luz para cada temperatura.

A medida que aumenta la temperatura, la longitud de onda del máximo de radiación se


hace cada vez más corta, del mismo modo para todos los cuerpos. A unos 600º C se
desliza en la porción visible suficiente radiación para conferir al objeto un aspecto rojo
mate. A temperaturas aún mayores, el objeto se hace rojo brillante, anaranjado, blanco y
blanco azulado. (A temperaturas suficientemente altas, la radiación se hallaría en su
mayor parte en el ultravioleta, y más allá aún. ) Midiendo con cuidado la longitud de
onda del máximo de radiación solar (que se halla en la región del color amarillo) es
posible calcular la temperatura de la superficie solar: resulta ser de unos 6.000º C.

no se hallan a esta temperatura. Son bastante más frías y su temperatura en el centro hay
que situarla en los 4.000º C solamente. Parece ser que las manchas solares representan
gigantescas expansiones de gases, y tales expansiones, ya sean en el Sol o en un
frigorífico, dan lugar a una importante caída de temperatura. Qué duda cabe que para
mantener fría una gigantesca mancha solar durante días y semanas contra el calor que
afluye de las zonas circundantes, más calientes, hace falta una enorme bomba térmica, y
lo cierto es que los astrónomos no han dado aún con un mecanismo completamente
satisfactorio para la formación de esas manchas.

Incluso a 4.000º C, las manchas solares deberían ser muy brillantes: mucho más que un
arco voltaico, y un arco voltaico es ya demasiado brillante para mirarlo directamente.
Lo que ocurre es que las manchas solares son, efectivamente, más brillantes que un arco
voltaico, y de ello pueden dar fe los instrumentos. El quid está en que el ojo humano no
ve la luz de un modo absoluto, sino que juzga el brillo por comparación con el entorno.
Las zonas más calientes de la superficie solar, las que podríamos llamar normales, son
de cuatro a cinco veces más brillantes que las regiones más frías en el centro de una
mancha solar, y comparando éstas con aquéllas, nos parecen negras. Ese negro es una
especie de ilusión óptica.

Que esto es así puede demostrarse a veces durante los eclipses. La Luna eclipsante, con
su cara oscura vuelta hacia la Tierra, es realmente negra contra el globo brillante del
Sol. Cuando el borde de la Luna pasa por encima de una gran mancha solar, de modo
que el «negro» de la mancha contrasta con la Luna, entonces se ve que la mancha, en
realidad, no es negra.

Los planetas del Sistema Solar


Esencialmente, un planeta se diferencia de una estrella en
su cantidad de masa, mucho menor. A causa de este
déficit, los planetas no desarrollan procesos de fusión
termonuclear y no pueden emitir luz propia; limitándose a
reflejar la de la estrella entorno a la cual giran.
Históricamente se han distinguido nueve: Mercurio,
Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y
Plutón; sin embargo, existen otros cuerpos planetarios que
por sus grandes dimensiones podrían ser considerados
también como planetas. Éste es el caso de Ceres que con
un diámetro superior a los 1. 000 km es empero,
clasificado como un asteroide.

Todos los planetas recorren sus órbitas alrededor del Sol en sentido contrario al de las
agujas del reloj, fenómeno que se conoce como traslación directa. Los Planetas tienen
órbitas prácticamente circulares, según las leyes de Kepler son elipses o círculos
achatados. La desviación de la forma circular está cuantificada por el valor de la
excentricidad.

La distancia media Tierra-Sol se usa como unidad de longitud y se denomina Unidad


Astronómica (UA). Las distancias medias entre el Sol y los Planetas aumentan en
progresión geométrica desde Mercurio hasta Plutón.

Cada Planeta realiza una revolución completa alrededor del Sol en un tiempo
denominado Periodo Sideral. Este periodo aumenta geométricamente con la distancia al
Sol según la tercera ley de Kepler. Los períodos siderales van desde los 88 días de
Mercurio hasta los 248 años de Plutón. Las velocidades orbitales de los planetas
disminuyen con la distancia (desde 45 km/s para Mercurio hasta 5 km/s para Neptuno),
pero son todas del mismo sentido.

Los Planetas tienen un movimiento de rotación entorno a su propio eje y en el mismo


sentido que el de su traslación alrededor del Sol. Los períodos de rotación van desde los
243 días de Venus hasta las 10h que tarda Júpiter en dar una vuelta sobre si mismo. Los
ejes de rotación de los planetas muestran diversas inclinaciones respecto de la eclíptica.
La mayor parte del los Planetas poseen numerosos satélites, que generalmente orbitan
en el plano ecuatorial del planeta y en el mismo sentido de su rotación. Las órbitas de
los diferentes satélites de un planeta siguen a su vez la ley de Titus-Bode.

Los planetas ligeros o gigantes se localizan en la parte externa del Sistema Solar. Tienen
densidades pequeñas, que reflejan su pequeña cantidad de silicatos. Son planetas
constituidos básicamente por hidrógeno y helio, reflejo de la composición de la
nebulosa solar primigenia. Tienen importantes actividades meteorológicas y procesos de
tipo gravitacional en los que el planeta se va compactando, con un pequeño núcleo y
una gran masa de gas en convección permanente. Otra característica común, es el poseer
anillos formados por pequeñas partículas en órbitas más cercanas que las de sus
satélites. A este tipo pertenecen Júpiter, Saturno, Urano y Neptuno.

Los grandes planetas, Júpiter y Saturno, poseen sistemas de satélites, que en cierto
modo, son modelos en miniatura del Sistema Solar. Aunque no disponen de fuentes
termonucleares de energía, siguen liberando energía gravitatoria en cantidad superior a
la radiación solar que reciben.

Los planetas densos o terrestres, están situados en la parte interna del Sistema Solar,
zona que comprende desde la órbita de Mercurio hasta el cinturón de asteroides. Tienen
densidades entre tres y cinco gramos por centímetro cúbico. Se ha producido una
selección muy alta de la materia, dando lugar a productos como uranio, torio, y potasio,
con núcleos inestables que acompañan fenómenos de fisión radiactiva. Estos elementos
han desarrollado el suficiente calor como para generar vulcanismo y procesos tectónicos
importantes. Algunos son todavía activos y han borrado los rasgos de su superficie
original. Son ejemplos la Tierra, Io, y Venus.

No obstante, existen otros cuerpos planetarios que han sufrido una intensa craterización
de su superficie (Luna, Marte, Fobos, Demos, Venus, en parte, Mercurio e incluso los
asteroides). La presencia de cráteres en las superficies planetarias indica cómo ha
variado la abundancia de objetos en el espacio interplanetario a lo largo de su evolución,
proporcionando una clave para comprender la historia de cada uno de los planetas
interiores.

Las órbitas de los planetas


¿Por qué todos los planetas ocupan
aproximadamente el mismo plano orbital? La mejor
conjetura astronómica es que todos se mueven en el
mismo plano orbital porque nacieron de un mismo y
único disco plano de materia.

Las teorías sugieren que el sistema solar fue en


origen una enorme masa de gas y polvo en rotación, que acaso fuese esférica en un
principio. Bajo la influencia de su propia atracción gravitatoria fue condensándose, con
lo cual tuvo que empezar a girar cada vez más deprisa para conservar el momento
angular.

En un cierto momento de este proceso de condensación y rotación cada vez más


acentuadas, el efecto centrífugo acabó por desgajar una porción de materia del plano
ecuatorial. Esta porción de materia desgajada, que representaba un porcentaje pequeño
del total, formó un gran disco plano alrededor de la porción central principal de la nube.
De un modo u otro (pues sobre los detalles no hay ni mucho menos un consenso
general) se condensaron una serie de planetas a partir de ese disco, mientras que el
grueso de la nube se convirtió en el Sol. Los planetas siguieron girando en la región
antes ocupada por el disco, y por esa razón giran todos ellos más o menos en el mismo
plano del ecuador solar.

Por razones parecidas, los planetas, a medida que se fueron condensando, fueron
formando satélites que giran, por lo general, en un único plano, que coincide con el del
ecuador del planeta.

Según se cree, las excepciones a esta regla son debidas a sucesos violentos ocurridos
mucho después de la formación general del sistema solar. El planeta Plutón gira en un
plano que forma un ángulo de 17 grados con el plano de revolución de la Tierra. Ningún
otro planeta tiene una órbita tan inclinada. Algunos astrónomos han conjeturado que
Plutón quizá fuese en otro tiempo un satélite de Neptuno y que logró liberarse gracias a
algún cataclismo no determinado. De los satélites actuales de Neptuno, el principal, que
es Tritón, no gira en el plano ecuatorial de Neptuno, lo cual constituye otro indicio de
algún cataclismo que afectó a ese planeta.

Júpiter posee siete satélites pequeños y distantes que no giran en el plano de su ecuador.
El satélite más exterior de Saturno se halla en el mismo caso. Es probable que estos
satélites no se formaran en su presente posición, en el momento de nacer el sistema
solar, sino que sean asteroides capturados mucho después por esos planetas gigantes.

Muchos de los asteroides que giran entre las órbitas de Marte y Júpiter tienen planos
orbitales muy inclinados. Una vez más, todo parece indicar una catástrofe. Es muy
posible que en origen los asteroides fuesen un solo planeta pequeño que giraba en el
plano general. Mucho después de la formación del sistema solar, una explosión o serie
de explosiones puede que fragmentara ese malhadado mundo, colocando los fragmentos
en órbitas que, en muchos casos diferían grandemente del plano orbital general.

Los cometas giran en todos los planos posibles. Ahora bien, hay astrónomos que creen
que muy en las afueras del sistema solar, como a un año-luz del Sol, existe una nube
dispersa de cometas. Estos cometas puede que se hayan condensado a partir de las
porciones más exteriores de la nube esférica original, antes de comenzar la contracción
general y antes de formarse el disco ecuatorial.

En tales circunstancias, cuando de vez en cuando un cometa abandona esa capa esférica
y se precipita en las regiones interiores del sistema solar (quizá como resultado de la
influencia gravitatoria de estrellas lejanas), su plano de rotación alrededor del Sol puede
ser cualquiera.

¿Podemos viajar al planeta Marte?


La NASA tiene un misterio que resolver: ¿Podemos
mandar personas a Marte, o no? Es una cuestión de
radiación. Conocemos la cantidad de radiación que hay
ahí afuera, esperándonos entre la Tierra y Marte, pero
no estamos seguros del modo en que reaccionará el
cuerpo humano frente a ella.

Los astronautas de la NASA han estado en el espacio,


ocasionalmente, desde hace 45 años. Salvo durante un par de rápidos viajes a la luna,
nunca han permanecido lejos de la Tierra durante un largo período de tiempo. El espacio
profundo está repleto de protones originados por las llamaradas solares, rayos gamma
que provienen de los agujeros negros recién nacidos y rayos cósmicos procedentes de
explosiones estelares. Un largo viaje hasta Marte, sin grandes planetas en las cercanías
que actúen como escudos reflectores de esa radiación, va a ser una nueva aventura.

La NASA mide el peligro de la radiación en unidades de riesgo cancerígeno. Un


norteamericano saludable de 40 años, no fumador, tiene una probabilidad (enorme) del
20% de morir eventualmente a causa del cáncer. Eso si permanece en la Tierra. Si
viajase a Marte, el riesgo aumentaría. La pregunta es ¿cuánto?

Según un estudio del año 2001 sobre gente expuesta a grandes dosis de radiación - p. e.
los supervivientes de la bomba atómica de Hiroshima, e irónicamente, los pacientes de
cáncer que se han sometido a radioterapia -, el riesgo inherente a una misión tripulada a
Marte que durase 1. 000 días, caería entre un 1% y un 19%. La respuesta más probable
es un 3,4%, pero el margen de error es muy amplio. Lo curioso es que es aún peor para
las mujeres. Debido a los pechos y ovarios, el riesgo en astronautas femeninas es
prácticamente el doble que el de sus compañeros varones.

Los investigadores que realizaron el estudio asumieron que la nave a Marte se


construiría principalmente de aluminio, como la cápsula del Apolo. La "piel" de la nave
espacial absorbería casi la mitad de la radiación que impactase contra ella.

Si el porcentaje del riesgo adicional es de sólo un poquito más... estará bien. Podríamos
construir una nave espacial usando aluminio y de cabeza a Marte. El aluminio es el
material favorito en la construcción de naves debido a su ligereza y fortaleza, y a la
larga experiencia que, desde hace décadas, tienen los ingenieros con su manejo en la
industria aeroespacial. Pero si fuese del 19% nuestro astronauta de 40 y pico años se
enfrentaría a un riesgo de fallecer por cáncer del 20% más el 19%, es decir, el 39% tras
su retorno a la Tierra. Eso no es aceptable. El margen de error es amplio, por una buena
razón. La radiación de espacio es una mezcla única de rayos gamma, protones altamente
energéticos y rayos cósmicos. Las ráfagas de explosiones atómicas y los tratamientos
contra el cáncer, que es en lo que se basan muchos estudios, no son un sustituto fiable
para la radiación "real".

La mayor amenaza para los astronautas en ruta a Marte es la de los rayos cósmicos
galácticos. Estos rayos, se componen de partículas aceleradas a casi la velocidad de la
luz, provenientes de las explosiones de supernovas lejanas. Los más peligrosos son los
núcleos ionizados pesadamente. Una oleada de estos rayos atravesaría la coraza de la
nave y la piel de los humanos como diminutas balas de cañón, rompiendo las hebras de
las moléculas de ADN, dañando los genes y matando a las células.

Los astronautas se han visto expuestos muy raramente a una dosis completa de estos
rayos del espacio profundo. Consideremos la Estación Espacial Internacional (ISS): que
orbita a sólo 400 Km. sobre la superficie de la Tierra. El cuerpo de nuestro planeta,
pareciendo grande, solamente intercepta un tercio de los rayos cósmicos antes de que
alcancen a la ISS. Otro tercio es desviado por la magnetosfera terrestre. Los astronautas
de la lanzadera espacial se benefician de reducciones similares.
Los astronautas del proyecto Apolo que viajaron a la luna absorbieron dosis mayores -
cerca de 3 veces la de la ISS - pero solo por unos pocos días durante su travesía de la
Tierra a la luna. En su camino a la luna, las tripulaciones del Apolo informaron haber
visto destellos de rayos cósmicos en sus retinas, y ahora, muchos años más tarde,
algunos de ellos han desarrollado cataratas. Por otro lado no parecen haber sufrido
demasiado. Pero los astronautas que viajen a Marte estarán "ahí afuera" durante un año
o más. No podemos estimar aún, con fiabilidad, lo que los rayos cósmicos nos harán
cuando nos veamos expuestos a ellos durante tanto tiempo.

Averiguarlo es la misión del nuevo Laboratorio de Radiación Espacial de la NASA


(NSRL), con sede en las instalaciones del Laboratorio Nacional Brookhaven, localizado
en Nueva York, dependiente del Departamento de Energía de los EE. UU y que fue
inaugurado en Octubre del 2003. En el NSRL hay aceleradores de partículas que pueden
simular los rayos cósmicos. Los investigadores exponen células y tejidos de mamífero a
haces de partículas, y luego inspeccionan los daños. El objetivo es reducir la
incertidumbre en las estimaciones de riesgo a sólo un pequeño porcentaje para el año
2015.

Una vez que conozcamos el riesgo, la NASA puede decidir que clase de nave espacial
ha de construirse. Es posible que los materiales de construcción ordinarios, como el
aluminio, no sean lo bastante buenos. ¿Qué tal fabricar una nave de plástico?

Los plásticos son ricos en hidrógeno, un elemento que hace un gran trabajo como
absorbente de rayos cósmicos. Por ejemplo, el polietileno, el mismo material con el que
se hacen las bolsas de basura, absorbe un 20% más de rayos cósmicos que el aluminio.
Cierta forma de polietileno reforzado, desarrollado por el Centro de Vuelo Espacial
Marshall, es 10 veces más fuerte que el aluminio, y también más ligero. Este podría
convertirse en el material elegido para la construcción de la nave espacial, si podemos
fabricarlo lo suficientemente barato.

Si el plástico no fuese lo bastante bueno, entonces podría requerirse la presencia de


hidrógeno puro. Litro a litro, el hidrógeno líquido bloquea los rayos cósmicos 2, 5 veces
mejor que el aluminio. Algunos diseños avanzados de nave espacial necesitan grandes
tanques de hidrógeno líquido como combustible, de modo que podríamos proteger a la
tripulación de la radiación envolviendo los habitáculos con los tanques.

¿Podemos ir a Marte? Puede que si, pero antes, debemos resolver la cuestión del nivel
de radiación que puede soportar nuestro cuerpo, y qué clase de nave espacial
necesitamos construir.

Asteroides rozadores de la
Tierra y objetos Apolo
Si los asteroides penetran más allá de la órbita de Júpiter,
¿no habría otros que penetrasen más allá de la órbita de
Marte, más cerca del Sol? El primero de tales casos se
descubrió el 13 de agosto de 1898 por parte de un
astrónomo alemán, Gustav Witt. Detectó el asteroide 433 y vio que su período de
revolución era de sólo 1,76 años, es decir, 44 días menos que el de Marte. Por lo tanto,
su distancia media del Sol debe ser menor que la de Marte. Al nuevo asteroide se le
llamó Eros.

Eros demostró tener más bien una elevada excentricidad orbitaria. En el afelio, está
dentro del cinturón de asteroides, pero en el perihelio, se halla a sólo 170 millones de
kilómetros del Sol, no mucho más de la distancia de la Tierra al Sol. Dado que su órbita
está inclinada respecto de la de la Tierra, no se aproxima a ésta tanto como lo haría si
ambas órbitas estuviesen en el mismo plano.

De todos modos, si Eros y la Tierra se encuentran en los puntos apropiados de sus


órbitas, la distancia entre ambos será sólo de 23 millones de kilómetros. Esto es un poco
más de la mitad de la distancia mínima entre Venus y la Tierra, y significa que, si no
contamos a nuestra propia Luna, Eros era, en el momento de su descubrimiento, nuestro
más próximo vecino.

No es un cuerpo muy grande. A juzgar por los cambios en su brillo, tiene forma de
ladrillo, y su diámetro medio es de unos cinco kilómetros. De todos modos, no es una
cosa despreciable. Si colisionase con la Tierra, ocurriría una catástrofe.

En 1931, Eros se aproximó a un punto distante tan sólo 26 millones de kilómetros de la


Tierra, y se estableció un vasto proyecto astronómico para determinar con exactitud su
paralaje, por lo que las distancias del Sistema Solar podrían determinarse con mayor
exactitud que nunca. El proyecto tuvo éxito, y los resultados no fueron mejorados hasta
que los rayos del radar se reflejaron desde Venus.

Un asteroide que se aproxime a la Tierra más que Venus, es denominado (con cierta
exageración) rozador de la Tierra. Entre 1898 y 1932, sólo se descubrieron tres
rozadores más de la Tierra, y cada uno de ellos se aproximó a nuestro planeta menos
que Eros.

Sin embargo, esta marca fue rota el 12 de marzo de 1932, cuando un astrónomo belga,
Eugéne Delporte, descubrió el asteroide 1.221, y vio que, aunque su órbita era regular
respecto de la de Eros, conseguía aproximarse a 16 millones de kilómetros de la órbita
de la Tierra. Llamó al nuevo asteroide Amor (el equivalente latino de Eros).

El 24 de abril de 1932, exactamente seis semanas después, el astrónomo alemán Karl


Reinmuth descubrió un asteroide al que llamó Apolo, porque era otro rozador de la
Tierra. Se trataba de un asombroso asteroide puesto que, en su perihelio, se halla sólo a
95 millones de kilómetros del Sol. Se mueve no sólo en el interior de la órbita de Marte,
sino también dentro de la Tierra, e incluso de la de Venus. Sin embargo, su
excentricidad es tan grande que en el afelio está a 353.000.000 de kilómetros del Sol,
más lejos de lo que le ocurre a Eros. El período de revolución de Apolo es, por tanto, 18
días más largo que el de Eros. El 15 de mayo de 1932, Apolo se aproximó dentro de los
10.725.000 kilómetros de la Tierra, menos de 30 veces la distancia de la Luna. Apolo
posee menos de dos kilómetros de anchura, pero es lo suficientemente grande para que
no sea bien venido como «rozador». Desde entonces, cualquier objeto que se aproxime
al Sol más de como lo hace Venus, ha sido llamado objeto Apolo.
En febrero de 1936, Delporte, que ya había detectado a Amor cuatro años antes, avistó
otro rozador de la Tierra al que llamó Adonis. Exactamente unos cuantos días antes de
su descubrimiento, Adonis había pasado a sólo 2.475.000 kilómetros de la Tierra, o
únicamente poco más de 6, 3 veces la distancia de la Luna a nosotros. Y lo que es más,
el nuevo rozador de la Tierra tiene un perihelio de 65 millones de kilómetros, ya esa
distancia está muy cerca a la órbita de Mercurio. Fue el segundo objeto Apolo
descubierto.

En noviembre de 1937, Reinmuth (el descubridor de Apolo), avistó un tercero, al que


llamó Hermes. Había pasado a 850. 000 kilómetros de la Tierra, sólo un poco más de
dos veces la distancia de la Luna. Reinmuth, con los datos de que disponía, calculó una
órbita grosso modo, según la cual Hermes podía pasar a sólo 313.000 kilómetros de la
Tierra (una distancia menor de la que nos separa de la Luna), siempre y cuando Hermes
y la Tierra se encontrasen en los puntos apropiados de su órbita. Sin embargo, desde
entonces no se ha vuelto a detectar a Hermes.

El 26 de junio de 1949, Baade descubrió el más desacostumbrado de los objetos Apolo.


Su período de revolución era de sólo 1, 12 años, y su excentricidad orbitaria resultaba la
mayor conocida en los asteroides: 0,827. En su afelio, se encuentra a salvo en el
cinturón de asteroides entre Marte y Júpiter pero, en su perihelio, se aproxima a
28.000.000 de kilómetros del Sol, más cerca que cualquier planeta, incluido Mercurio.
Baade llamó a este asteroide Ícaro, según el joven de la mitología griega que, volando
por los aires con las alas que había ideado su padre Dédalo, se aproximó demasiado al
Sol, con lo que se le fundió la cera que aseguraba las plumas de las alas en su espalda, y
se cayó produciéndole la muerte.

Desde 1949, se han descubierto otros objetos Apolo, pero ninguno se ha acercado tanto
al Sol como Icaro. Sin embargo algunos poseen período orbitario de menos de un año y,
por lo menos, uno está más cerca, en cada punto de su órbita, del Sol que la Tierra.

Algunos astrónomos estiman que hay en el espacio unos 750 objetos Apolo, con
diámetros de un kilómetro y más. Se cree que, en el transcurso de un millón de años,
cuatro respetables objetos Apolo han alcanzado la Tierra, tres a Venus, y uno tanto a
Mercurio, como a Marte o a la Luna, y siete han visto sus órbitas alteradas de tal forma
que todos han abandonado el Sistema Solar. El número de objetos Apolo, sin embargo,
no disminuye con el tiempo, por lo que es probable que se añadan otros de vez en
cuando a causa de perturbaciones gravitatorias de objetos en el cinturón de asteroides.

Sedna, ¿el décimo planeta del Sistema


Solar?
Investigadores auspiciados por la NASA han
descubierto el objeto más distante en órbita del Sol. Es
un misterioso cuerpo tipo planeta en los confines del
Sistema Solar, que está tres veces más alejado de la
Tierra que Plutón.
El Sol aparece tan pequeño desde esa distancia que podría tapársele por completo con la
cabeza de un alfiler. El objeto, llamado Sedna por la diosa Inuit de los océanos, se
encuentra a 13 mil millones de kilómetros (8 mil millones de millas) de distancia, en los
confines del sistema solar.

Esta es, muy probablemente, la primera observación de la hipotética "nube de Oort", un


sitio súper alejado donde se encuentran pequeños cuerpos helados que proporciona los
cometas que cruzan por la Tierra. Otras características notables de Sedna son su tamaño
y su color rojizo. Después de Marte, es el segundo objeto más rojo en el sistema solar.
Se calcula que Sedna es aproximadamente tres cuartas partes del tamaño de Plutón.

Sedna es en definitiva el objeto más grande encontrado en el sistema solar desde el


descubrimiento de Plutón en 1930. Brown, junto con Drs. Chad Trujillo del
Observatorio Gemini, Hawaii, y David Rabinowitz de la Universidad de Yale en New
Haven, Conn. , encontraron al objeto tipo-planeta, o planetoide, el 14 de Noviembre del
2003. Los investigadores utilizaron el Telescopio de 48 pulgadas Samuel Oschin en el
Observatorio de Caltech en Palomar cerca de San Diego.

A los pocos días, telescopios en Chile, España, Arizona y Hawai observaron al objeto.
El nuevo Telescopio Espacial Spitzer de la NASA también lo buscó. Sedna se encuentra
extremadamente alejado del Sol, en la región más fría de nuestro sistema solar, donde
las temperaturas nunca alcanzan los 240 grados Celsius bajo cero. El planetoide es aún
más frío porque solo se acerca brevemente al sol durante su órbita solar de 10, 500 años.
En su distancia mayor Sedna se encuentra a 130 mil millones de kilómetros (84 mil
millones de millas) del Sol, 900 veces la distancia de la Tierra al Sol.

Los científicos utilizaron el hecho, de que incluso el telescopio Spitzer fue incapaz de
detectar el calor de un objeto tan extremadamente distante y frío, para determinar que
debe de tener menos de 1,700 kilómetros de diámetro, lo cual es menor que Plutón.

Combinando los datos disponibles, se calculó el tamaño de Sedna en un punto medio


entre Plutón y Quaoar, un pequeño planetoide descubierto por el mismo equipo en el
2002. La órbita elíptica de Sedna no es parecida a nada visto anteriormente por los
astrónomos. Se asemeja a las órbitas predichas para objetos que se encuentran en la
hipotética nube de Oort, una reserva lejana de cometas.

Pero Sedna está 10 veces más cerca que la distancia pronosticada para la nube de Oort.
Los astrónomos consideran que esta "nube interna de Oort" podría haberse formado
miles de millones de años atrás cuando una estrella coloreada pasó por el Sol,
arrastrando hacia adentro algunos de los cuerpos tipo cometas. La estrella habría estado
lo suficientemente cerca para ser más brillante que la luna llena y habría sido visible
durante el día en el cielo por 20,000 años. Peor aún, habría desplazado a cometas más
allá en la nube de Oort, conduciendo a una intensa lluvia de cometas que podrían haber
hecho desaparecer algunas o todas las formas de vida que existieron en la Tierra en esa
época. Existe una evidencia indirecta de que Sedna tenga una luna. Los investigadores
esperan comprobar esta posibilidad con el Telescopio Espacial Hubble de la NASA.

Sedna se acercará a la Tierra en los años venideros, pero aún en su máximo


acercamiento, dentro de unos 72 años, estará muy lejano, mucho más que Plutón.
Después comenzará su viaje de regreso de 10,500 años a los confines del sistema solar.
La última vez que Sedna fue vista tan cerca del Sol, la Tierra estaba saliendo apenas de
la última era glacial. La próxima vez que regrese, el mundo puede ser un lugar
completamente diferente.

Cometas en el cielo
Los antiguos, observando que los cometas aparecían y
desaparecían de manera imprevisible, rodeados de una
pálida cabellera y seguidos por una cola extremadamente
cambiable, no tuvieron dudas: eran algo que venía a
trastornar el orden celeste.

El hecho mismo de que los cometas no seguían el


movimiento de los planetas, no hacía más que fortalecer
esta creencia que llevó a considerar los cometas como
responsables de acontecimientos históricos generalmente
graves. De este modo, durante siglos se consideró que los
cometas eran mensajeros de infortunios y la aparición de
un cometa era causa de grandes preocupaciones en los pueblos.

En el siglo I a. JC. el escritor Plinio atribuyó la causa de la sangrienta guerra entre Julio
César y Pompeyo al paso de un cometa. Lo mismo sucedió en muchas otras ocasiones;
también en el año 1066, cuando el duque de Normandía Guillermo el Conquistador
desembarcó en Inglaterra y mató al Rey Harold ll proclamándose nuevo rey, fue visto
otro cometa. Hoy sabemos que se trataba del cometa Halley, el representante más ilustre
de esta categoría de astros, que regresa de manera periódica.

Dejando a un lado las supersticiones, la opinión científica sobre la naturaleza de los


cometas, que nuestros antepasados compartieron, era la que Aristóteles estableció
alrededor del 350 a. JC. El gran filósofo griego formuló la teoría que tanto los cometas
como los meteoros no eran otra cosa que fenómenos atmosféricos causados por vapores
en ebullición que se desprendían de la Tierra y eran impulsados hacia la parte superior
de la atmósfera.

La convicción de Aristóteles sobre los cometas sobrevivió durante siglos y el propio


Galileo no logró resolver el enigma de las trayectorias de los cometas, aunque Tycho
Brahe ya había lobrado calcular casi con total precisión sus enormes distancias de la
Tierra.

Sólo en la segunda mitad del siglo XVII, gracias a los estudios de Newton y de Halley,
se logró saber que los cometas están bajo la influencia de la fuerza de atracción del Sol,
pero que, al contrario de los planetas, siguen trayectorias extremadamente alargadas.

Halley calculó que las apariciones de un cometa producidas en 1531, en 1607 y en


1682, debían atribuirse a un mismo objeto celeste y predijo que el cometa volvería en
1758. Halley no vivió tanto como para poder ver con sus propios ojos confirmarse la
predicción. El cometa se presentó puntualmente a la cita y desde entonces se conoce con
su nombre.
Pero llegamos a nuestros días. Hasta hace pocos años se pensaba que los cometas eran
cuerpos celestes formados por residuos cósmicos, muy similares a los meteoritos, que
vagan sin meta por el sistema solar. Hoy nuestros conocimientos sobre los cometas han
experimentado una revolución.

El astrónomo americano Fred Whipple ha formulado una hipótesis que concuerda


perfectamente con la mayor parte de las observaciones astronómicas. Según Whipple,
los cometas son como "bolas de nieve sucia", es decir que estarían formados por un
conglomerado de hielos (agua, amoníaco, dióxido de carbono) y por granos sólidos
constituídos por carbono y silicatos.

Los núcleos así compuestos, debido a su pequeño tamaño, livianos y compactos, son
capaces de resistir la fuerza gravitacional del Sol y de los planetas, pero ai mismo
tiempo son bastante volátiles como para justificar ia enorme nube de la cual se rodean
por efecto del calor solar. Esta hipótesis explicaría también por qué los cometas no son
visibles cuando carecen de cabellera y de cola.

Cometas: La nube de Oort


La nube de Oort es una gran concentración de cometas
sometidos a las fuerzas del Sol y otras estrellas. En el
artículo La nube de Oort, Paul R. Weissman, experto en
dinámica cometaria, habla sobre estos cometas que
orbitan más allá de Plutón. Aquí se reproduce un
fragmento de este artículo en el que el autor comienza
planteando la cuestión del número de cometas que
forman esta inmensa nube.

¿Cuántos cometas se alojan en la nube de Oort? La cifra


depende de la frecuencia con la que los cometas de la
nube escapan al espacio interplanetario. Conforme a la
cifra observada de cometas de largo período, los astrónomos ahora calculan que
contiene seis billones de cometas; son, pues, los cuerpos de algún tamaño más
abundantes del sistema solar. Sólo una sexta parte pertenece a la nube externa y
dinámica que describió Oort; el resto están en el núcleo, más denso. Si se aplica la
mejor estimación realizada hasta el momento de la masa media de un cometa - 40.000
millones de toneladas métricas -, resulta que la masa total de los cometas de la nube de
Oort es en el momento actual unas 40 veces la de la Tierra.

¿Dónde se originaron los cometas de la nube de Oort? No se formaron en su posición


actual, pues el material existente a esas distancias es tan escaso, que no podría
agregarse. Tampoco nacieron en el espacio interestelar; la captura de cometas por parte
del Sol es ineficaz. El único lugar que nos queda es el sistema planetario. Oort conjeturó
que los cometas se crearon en el cinturón de asteroides y fueron expulsados por los
planetas gigantes durante la formación del sistema solar. Pero los cometas son cuerpos
helados, bolas enormes de nieve sucia; en el cinturón de asteroides la temperatura es
demasiado elevada para que se condensen fragmentos de hielo.
Transcurrido un año tras el artículo de Oort de 1950, Gerard P. Kuiper, de la
Universidad de Chicago, propuso que la materia se agregaba formando cometas más
lejos del Sol, en las cercanías de los planetas gigantes. (El cinturón de Kuiper fue
bautizado con el nombre de este investigador porque sugirió que algunos cometas se
constituyeron allende las órbitas planetarias más distantes). A buen seguro, se
originarían cometas por toda la región de los planetas gigantes, pero se sostenía que los
que se crearon cerca de Júpiter y Saturno (los dos planetas de mayor masa) debieron de
ser expulsados al espacio interestelar; no era probable, en cambio, que Urano y
Neptuno, con masas inferiores, diesen trayectorias de escape a tantos cometas.

La investigación en dinámica acaba de arrojar una sombra de duda sobre esta hipótesis.
Júpiter y, sobre todo, Saturno conducen una parte importante de sus cometas a la nube
de Oort, en una cuantía menor quizá que Urano y Neptuno, lo que pudo haberse
compensando con la cantidad mayor de material que al principio poblaba las zonas de
los planetas mayores.

Cabe, pues, que los cometas de la nube de Oort provengan de un amplio intervalo de
distancias solares y, por tanto, de intervalo notable de temperaturas de formación. Ese
fenómeno podría explicar la diversa composición de los cometas. En un trabajo reciente
con Harold E. Levison hemos puesto de manifiesto que la nube podría contener
asteroides procedentes de la región de los planetas interiores. Compuestos de roca, más
que de hielos, estos objetos constituyen de un 2 a un 3 por ciento de la población total
de la nube de Oort.

La clave de estas ideas es la presencia de los planetas gigantes, que arrojan los cometas
hacia el exterior y modifican sus órbitas si alguna vez vuelven a introducirse en la
región planetaria. Otras estrellas con planetas gigantes podrían contar con sus nubes de
Oort. Si todas las estrellas tienen nubes de Oort, cuando pasen cerca del Sol éstas
atravesarán la nuestra. Aun así, no menudearán las colisiones entre cometas, pues el
espacio interpuesto viene a ser de una unidad astronómica o más.

Las nubes de Oort que rodean a cada estrella podrían estar liberando paulatinamente
cometas hacia el espacio interestelar. De pasar cerca del Sol, estos cometas
interestelares deberían reconocerse, porque se aproximarían al sistema solar a
velocidades mucho mayores que los procedentes de nuestra nube de Oort. Hasta la fecha
no se ha detectado ningún cometa interestelar, lo que no debe sorprendernos ya que el
sistema solar es un blanco muy pequeño en la inmensidad del espacio interestelar y la
probabilidad de que alguna vez se haya visto uno es del cincuenta por ciento.

La nube de Oort sigue fascinando a los astrónomos. Gracias a la mecánica celeste, la


naturaleza ha preservado en ese lejano almacén una muestra de material que data de la
formación del sistema solar. Su estudio, y el de las pistas cosmoquímicas que han
quedado congeladas en cada uno de sus helados componentes, permite a los
investigadores conocer valiosos datos sobre el origen del sistema solar.

Artículos sobre la Tierra y la Luna


La Tierra se considera como un sistema físico, de modo
que todos sus fenómenos se investigan y descomponen
en aspectos físicos y químicos para llegar a una mejor
comprensión de su estructura, su exacta composición y
evolución a lo largo de la historia.

Ciencias o ramas que se dedican a la descripción y


comprensión de nuestro planeta, estudian todos sus
procesos con el objeto de entenderlos y determinar su
evolución.

El ser humano, desde su aparición, tiene la necesidad de


comprender los fenómenos medioambientales que lo
rodean. La necesidad de realizar extracciones de minerales metálicos para la realización
de utensilios (herramientas y armas), son indispensables en el desarrollo de las
civilizaciones.

Por otra parte, las observaciones de fenómenos atmosféricos y el conocimiento de sus


variaciones tiene una gran importancia en los comienzos de la vida humana; y el afán
por encontrar y aprovechar los recursos hídricos brindados por la naturaleza (ríos y
aguas subterráneas), permite el establecimiento de las civilizaciones en lugares antes
inhóspitos.

Estos tres aspectos, geológico, atmosférico, hidrológico y biológico son los aspectos
que en la actualidad agrupan todas las disciplinas que constituyen las ciencias de la
Tierra. Tales aspectos son estudiados respectivamente por la Geología, Meteorología,
Hidrología y Biología.

¿Cuál será el fin de la Tierra?


El primero en intentar hacer un estudio detallado de la
historia pasada y previsiblemente futura de la Tierra sin
recurrir a la intervención divina fue el geólogo escocés
James Hutton. En 1785 publicó el primer libro de
geología moderna, en el cual admitía que del estudio de
la Tierra no veía signo alguno de un comienzo ni
perspectivas de fin ninguno.

Desde entonces hemos avanzado algo. Hoy día estamos


bastante seguros de que la Tierra adquirió su forma
actual hace unos 4.600 millones de años. Fue por
entonces cuando, a partir del polvo y gas de la nebulosa
originaria que formó el sistema solar, nació nuestro
mundo tal como lo conocemos hoy. Una vez formada, y
dejada en paz como colección de metales y rocas
cubierta por una delgada película de agua y aire, la Tierra
podría existir para siempre, al menos por lo que sabemos hoy. Pero ¿la dejarán en paz?
¿Como y cuando será el fin del mundo?
El objeto más cercano, de tamaño suficiente y energía bastante para afectar seriamente a
la Tierra es el Sol. Mientras el Sol mantenga su actual nivel de actividad (como lleva
haciendo durante miles de millones de años), la Tierra seguirá esencialmente inmutable.
Ahora bien, ¿puede el Sol mantener para siempre ese nivel? Y, caso de que no, ¿qué
cambio se producirá y cómo afectará esto a la Tierra?

Hasta los años treinta parecía evidente que el Sol, como cualquier otro cuerpo caliente,
tenía que acabar enfriándose. Vertía y vertía energía al espacio, por lo cual este inmenso
torrente tendría que disminuir y reducirse poco a poco a un simple chorrito. El Sol se
haría naranja, luego rojo, iría apagándose cada vez más y finalmente se apagaría.

En estas condiciones, también la Tierra se iría enfriando lentamente. El agua se


congelaría y las regiones polares serían cada vez más extensas. En último término, ni
siquiera las regiones ecuatoriales tendrían suficiente calor para mantener la vida. El
océano entero se congelaría en un bloque macizo de hielo e incluso el aire se licuaría
primero y luego se congelaría. Durante billones de años, esta Tierra gélida seguiría
girando alrededor del difunto Sol.

Pero aun en esas condiciones, la Tierra, como planeta, seguiría existiendo.

Sin embargo, durante la década de los treinta, los científicos nucleares empezaron por
primera vez a calcular las reacciones nucleares que tienen lugar en el interior del Sol y
otras estrellas. Y hallaron que aunque el Sol tiene que acabar por enfriarse, habrá
períodos de fuerte calentamiento antes de ese fin. Una vez consumida la mayor parte del
combustible básico, que es el hidrógeno, empezarán a desarrollarse otras reacciones
nucleares, que calentarán el Sol y harán que se expanda enormemente.

Aunque emitirá una cantidad mayor de calor, cada porción de su ahora vastísima
superficie tocará a una fracción mucho más pequeña de ese calor y será, por tanto, más
fría. El Sol se convertirá en una gigante roja. En tales condiciones es probable que la
Tierra se convierta en un ascua y luego se vaporice. En ese momento, la Tierra, como
cuerpo planetario sólido, acabará sus días. Pero no os preocupéis demasiado. Echadle
todavía unos ocho mil millones de años.

La formación del aire


La opinión de los astrónomos es que los planetas
nacieron de torbellinos de gas y polvo, constituidos en
general por los diversos elementos presentes, en
proporciones correspondientes a su abundancia cósmica.
Un 90 por 100 de los átomos eran hidrógeno y otro 9 por
100 helio. El resto incluía todos los demás elementos,
principalmente neón, oxígeno, carbono, nitrógeno,
carbón, azufre, silicio, magnesio, hierro y aluminio.

El globo sólido de la Tierra en sí nació de una mezcla


rocosa de silicatos y sulfuros de magnesio, hierro y
aluminio, cuyas moléculas se mantenían firmemente unidas por fuerzas químicas. El
exceso de hierro fue hundiéndose lentamente a través de la roca y formó un núcleo
metálico incandescente.

Durante este proceso de aglomeración, la materia sólida de la Tierra atrapó una serie de
materiales gaseosos y los retuvo en los vanos que quedaban entre las partículas sólidas o
bien mediante uniones químicas débiles Estos gases contendrían seguramente átomos de
helio, neón y argón, que no se combinaron con nada; y átomos de hidrógeno, que o bien
se combinaron entre sí por parejas para formar moléculas de hidrógeno (H2), o bien se
combinaron con otros átomos: con oxígeno para formar agua (H2O), con nitrógeno para
formar amoníaco (NH3) o con carbono para formar metano (CH4).

A medida que el material de este planeta en ciernes se fue apelotonando, el efecto


opresor de la presión y el aún más violento de la acción volcánica fueron expulsando los
gases. Las moléculas de hidrógeno y los átomos de helio y neón, al ser demasiado
ligeros para ser retenidos, escaparon rápidamente.

La atmósfera de la Tierra quedó constituida por lo que quedaba: vapor de agua,


amoníaco, metano y algo de argón. La mayor parte del vapor de agua, pero no todo, se
condensó y formó un océano.

Tal es, en la actualidad, la clase de atmósfera que poseen algunos planetas como Júpiter
y Saturno, los cuales, sin embargo, son bastante grandes para retener hidrógeno, helio y
neón.

Por su parte, la atmósfera de los planetas interiores comenzó a evolucionar


químicamente. Los rayos ultravioletas del cercano Sol rompieron las moléculas de
vapor de agua en hidrógeno y oxígeno. El hidrógeno escapó, pero el oxígeno fue
acumulándose y combinándose con amoníaco y metano. Con el primero formó
nitrógeno y agua; con el segundo, anhídrido carbónico y agua. Poco a poco, la
atmósfera de los planetas interiores pasó de ser una mezcla de amoníaco y metano a una
mezcla de nitrógeno y anhídrido carbónico. Marte y Venus tienen hoy día atmósferas
compuestas por nitrógeno y anhídrido carbónico, mientras que la Tierra debió de tener
una parecida hace miles de millones de años, cuando empezó a surgir la vida.

Esa atmósfera es además estable. Una vez formada, la ulterior acción de los rayos
ultravioletas sobre el vapor de agua hace que se vaya acumulando oxígeno libre
(moléculas formadas por dos átomos de oxígeno, O2). Una acción ultravioleta aún más
intensa transforma ese oxígeno en ozono (con tres átomos de oxígeno por molécula,
O3). El ozono absorbe la radiación ultravioleta y actúa de barrera. La radiación
ultravioleta que logra atravesar la capa de ozono en la alta atmósfera y romper las
moléculas de agua más abajo es muy escasa, con lo cual se detiene la evolución química
de la atmósfera..., al menos hasta que aparezca algo nuevo.

Pues bien, en la Tierra apareció de hecho algo nuevo. Fue el desarrollo de un grupo de
formas de vida capaces de utilizar la luz visible para romper las moléculas de agua.
Como la capa de ozono no intercepta la luz visible, ese proceso (la fotosíntesis) podía
proseguir indefinidamente. A través de la fotosíntesis se consumía anhídrido carbónico y
se liberaba oxígeno. Así, pues, hace 500 millones de años, la atmósfera empezó a
convertirse en una mezcla de nitrógeno y oxígeno, que es la que existe hoy.
La cara visible de la luna
La atracción gravitatoria de la Luna sobre la Tierra hace
subir el nivel del océano a ambos lados de nuestro
planeta y crea así dos abultamientos. A medida que la
Tierra gira de oeste a este, estos dos bultos (de los cuales
uno mira siempre hacia la Luna y el otro en dirección
contraria) se desplazan de este a oeste alrededor de la
Tierra.

Al efectuar este desplazamiento, los dos bultos rozan


contra el fondo de los mares poco profundos como el de
Bering o el de Irlanda. Tal rozamiento convierte energía
de rotación en calor, y este consumo de la energía de rotación terrestre hace que el
movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a
poco. Las marcas actúan como un freno sobre la rotación de la Tierra, y como
consecuencia de ello los días terrestres se van alargando un segundo cada mil años.

Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar.
La corteza sólida de la Tierra también acusa el efecto, aunque en medida menos notable.
El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la
Tierra, el uno mirando hacia la Luna y el otro en la cara opuesta de nuestro planeta.
Durante este desplazamiento, el rozamiento de una capa rocosa contra otra va minando
también la energía de rotación terrestre. (Los bultos, claro está, no se mueven
físicamente alrededor del planeta, sino que, a medida que el planeta gira, remiten en un
lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la
Luna. )

La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida
de la Luna acusa la fuerza gravitatoria de la Tierra, y no hay que olvidar que ésta es
ochenta veces más grande que la de la Luna. El abultamiento provocado en la superficie
lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un
período de veinticuatro horas, estaría sometida a un rozamiento muchísimo mayor que
la Tierra. Además, como nuestro satélite tiene una masa mucho menor que la Tierra, su
energía total de rotación sería ya de entrada, para períodos de rotación iguales, mucho
menor.

Así, pues, la Luna, con una reserva inicial de energía muy pequeña, socavada
rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una
disminución relativamente rápida de su período de rotación. Hace seguramente muchos
millones de años debió de decelerarse hasta el punto de que el día lunar se igualó con el
mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara hacia la Tierra.

Esto, a su vez, congela los abultamientos en una posición fija. Uno de ellos mira hacia
la Tierra desde el centro mismo de la cara lunar que nosotros vemos, mientras que el
otro apunta en la dirección contraria desde el centro mismo de la cara que no vemos.
Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de
la Tierra, los bultos no experimentan ningún nuevo cambio ni tampoco se produce
rozamiento alguno que altere el período de rotación del satélite. La Luna continuará
mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna
coincidencia, sino consecuencia inevitable de la gravitación y del rozamiento.

La Luna es un caso relativamente simple. En ciertas condiciones, el rozamiento debido


a las mareas puede dar lugar a condiciones de estabilidad más complicadas. Durante
unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercano al Sol y
el más afectado por la gravedad solar) ofrecía siempre la misma cara al Sol, por el
mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha
comprobado que, en el caso de Mercurio, los efectos del rozamiento producen un
período estable de rotación de 58 días, que es justamente dos tercios de los 88 días que
constituyen el período de revolución de Mercurio alrededor del Sol.

Eclipses
Un eclipse solar consiste en el oscurecimiento total o
parcial del Sol que se observa desde un planeta por el
paso de un satélite, como por ejemplo el paso de la Luna
entre el Sol y la Tierra. Un eclipse de Sol sólo es visible
en una estrecha franja de la superficie de la Tierra.
Cuando la Luna se interpone entre el Sol y la Tierra,
proyecta sombra en una determinada parte de la superficie
terrestre, y un determinado punto de la Tierra puede estar
inmerso en el cono de sombra o en el cono de penumbra.

Aquellos que se encuentren en la zona en la cual se


proyecta el cono de sombra verán el disco de la Luna
superponerse íntegramente al del Sol, y en este caso se
tendrá un eclipse solar total. Quienes se encuentren en una
zona interceptada por el cono de penumbra, verán el disco
de la Luna superponerse sólo en parte al del Sol, y se tiene
un eclipse solar parcial.

Se da también un tercer caso, cuando la Luna nueva se


encuentra en el nodo a una distancia mayor con respecto a
la media, entonces su diámetro aparente es más pequeño
con respecto al habitual y su disco no alcanza a cubrir exactamente el del Sol. En estas
circunstancias, sobre una cierta franja de la Tierra incide no el cono de sombra sino su
prolongación, y se tiene un eclipse solar anular, pues alrededor del disco lunar queda
visible un anillo luminoso.

Según se produzca una de estas situaciones en los eclipses, se habla de zonas de


totalidad, de parcialidad o de anularidad, haciendo referencia con ello al tipo de eclipse
que se puede observar desde cualquier punto de la superficie terrestre. A causa del
movimiento de la Luna alrededor de la Tierra y del movimiento de la Tierra alrededor
de sí misma, la sombra de la Luna sobre la superficie terrestre se mueve a unos 15 km/s.
La fase de totalidad para un determinado punto geográfico no supera por tanto los ocho
minutos. Esta zona puede tener anchura y longitud máxima de 200 y 15.000 km
respectivamente.

Un eclipse lunar consiste en el paso de un satélite planetario, como la Luna, por la


sombra proyectada por el planeta, de forma que la iluminación directa del satélite por
parte del Sol se interrumpe. Tienen lugar únicamente cerca de la fase de luna llena, y
pueden ser observados desde amplias zonas de la superficie terrestre, particularmente de
todo el hemisferio que no es iluminado por el Sol, siempre que la Luna esté por encima
del horizonte.

Normalmente la desaparición de la Luna no es total; su disco queda iluminado por la luz


dispersada por la atmósfera terrestre y adquiere un halo rojizo. La sombra total o umbra
producida por la tierra queda rodeada por una región de sombra parcial llamada
penumbra. En las etapas iniciales y postreras del eclipse lunar, la Luna entra en
penumbra.

Dependiendo de si la luna entra o no completamente en zona de umbra se pueden


distinguir los eclipses totales de Luna, cuando el satélite se sumerge completamente en
umbra, los eclipses parciales de Luna, cuando penetra sólo en parte en umbra y sólo una
parte de la superficie lunar es visiblemente oscurecida, y los eclipses de penumbra,
cuando la Luna pasa sólo a través del cono de penumbra, difícilmente perceptibles a
simple vista y únicamente evidentes mediante adecuadas técnicas fotográficas.

La duración máxima de los eclipses totales de Luna es de 3, 5 horas. Se define la


magnitud de un eclipse lunar como la longitud del camino lunar a través de la umbra
dividido por el diámetro aparente de la Luna.

El estudio de los eclipses de Luna, además de permitir medidas astronómicas como la


verificación de los momentos de contacto entre el disco de nuestro satélite natural y el
cono de sombra, es útil para analizar de forma indirecta las condiciones de la atmósfera
terrestre, pues la densidad y coloración de los conos de umbra y penumbra están muy
influidos por la presencia de ozono y polvo en suspensión en los diversos estratos de la
atmósfera.

¿Qué es el efecto «invernadero»?


Cuando decimos que un objeto es "transparente" porque
podemos ver a través de él, no queremos necesariamente
decir que lo puedan atravesar todos los tipos de luz. A
través de un cristal rojo, por ejemplo, se puede ver,
siendo, por tanto, transparente. Pero, en cambio, la luz
azul no lo atraviesa. El vidrio ordinario es transparente
para todos los colores de la luz, pero muy poco para la
radiación ultravioleta y la infrarroja.

Pensad ahora en una casa de cristal al aire libre y a pleno


sol. La luz visible del Sol atraviesa sin más el vidrio y es
absorbida por los objetos que se hallen dentro de la casa.
Como resultado de ello, dichos objetos se calientan, igual que se calientan los que están
fuera, expuestos a la luz directa del Sol.

Los objetos calentados por la luz solar ceden de nuevo ese calor en forma de radiación.
Pero como no están a la temperatura del Sol, no emiten luz visible, sino radiación
infrarroja, que es mucho menos energética. Al cabo de un tiempo, ceden igual cantidad
de energía en forma de infrarrojos que la que absorben en forma de luz solar, por lo cual
su temperatura permanece constante (aunque, naturalmente, están más calientes que si
no estuviesen expuestos a la acción directa del Sol).

Los objetos al aire libre no tienen dificultad alguna para deshacerse de la radiación
infrarroja, pero el caso es muy distinto para los objetos situados al sol dentro de la casa
de cristal. Sólo una parte pequeña de la radiación infrarroja que emiten logra traspasar el
cristal. El resto se refleja en las paredes y va acumulándose en el interior.

La temperatura de los objetos interiores sube mucho más que la de los exteriores. Y la
temperatura del interior de la casa va aumentando hasta que la radiación infrarroja que
se filtra por el vidrio es suficiente para establecer el equilibrio.

Esa es la razón por la que se pueden cultivar plantas dentro de un invernadero, pese a
que la temperatura exterior bastaría para helarlas. El calor adicional que se acumula
dentro del invernadero - gracias a que el vidrio es bastante transparente a la luz visible
pero muy poco a los infrarrojos -, es lo que se denomina "efecto invernadero".

La atmósfera terrestre consiste casi por entero en oxígeno, nitrógeno y argón. Estos
gases son bastante transparentes tanto para la luz visible como para la clase de radiación
infrarroja que emite la superficie terrestre cuando está caliente. Pero la atmósfera
contiene también un 0,03 por 100 de dióxido de carbono, que es transparente para la luz
visible pero no demasiado para los infrarrojos. El dióxido de carbono de la atmósfera
actúa como el vidrio del invernadero.

Como la cantidad de anhídrido carbónico que hay en nuestra atmósfera es muy pequeña,
el efecto es relativamente secundario. Aun así, la Tierra es un poco más caliente que en
ausencia de dióxido de carbono. Es más, si el contenido en dióxido de carbono de la
atmósfera fuese el doble, el efecto invernadero, ahora mayor, calentaría la Tierra un par
de grados más, lo suficiente para provocar la descongelación gradual de los casquetes
polares.

Un ejemplo de efecto invernadero a lo grande lo tenemos en Venus, cuya densa


atmósfera parece consistir casi toda ella en anhídrido carbónico. Dada su mayor
proximidad al Sol, los astrónomos esperaban que Venus fuese más caliente que la
Tierra. Pero, ignorantes de la composición exacta de su atmósfera, no habían contado
con el calentamiento adicional del efecto invernadero. Su sorpresa fue grande cuando
comprobaron que la temperatura superficial de Venus estaba muy por encima del punto
de ebullición del agua, cientos de grados más de lo que se esperaban.

La formación de los océanos


A principios del siglo XX se pensaba que la Tierra y los
demás planetas estaban formados de materia arrancada
del Sol. Y circulaba la imagen de una Tierra en gradual
proceso de enfriamiento, desde la incandescencia hasta el
rojo vivo, para pasar luego a un calor moderado y
finalmente al punto de ebullición del agua. Una vez
enfriada lo bastante para que el agua se condensase, el
vapor de agua de la atmósfera caliente de la Tierra pasó a
estado líquido y empezó a llover, y llover, y llover.

Al cabo de muchos años de esta increíble lluvia de agua


hirviendo que saltaba y bramaba al golpear el suelo
caliente, las cuencas de la accidentada superficie del planeta acabaron por enfriarse lo
bastante como para retener el agua, llenarse y constituir así los océanos.

Muy espectacular..., pero absolutamente falso, podríamos casi asegurar.

Hoy día, los científicos están convencidos de que la Tierra y demás planetas no se
formaron a partir del Sol, sino a partir de partículas que se conglomeraron hacia la
misma época en que el Sol estaba gestándose. La Tierra nunca estuvo a la temperatura
del Sol, pero adquirió bastante calor gracias a la energía de colisión de todas las
partículas que la formaron. Tanto, que su masa, relativamente pequeña, no era capaz en
un principio de retener una atmósfera ni el vapor de agua.

O lo que es lo mismo, el cuerpo sólido de esta Tierra recién formada no tenía ni


atmósfera ni océanos. ¿De dónde vinieron entonces?

Desde luego había agua (y gases) combinada débilmente con las sustancias rocosas que
constituían la porción sólida del globo. A medida que esa porción sólida se fue
empaquetando de forma cada vez más compacta bajo el tirón de la gravedad, el interior
se fue haciendo cada vez más caliente. Los gases y el vapor de agua se vieron
expulsados de esa su anterior combinación con la roca y abandonaron la sustancia
sólida.

Las pompas gaseosas, al formarse y agruparse, conmocionaron a la joven Tierra con


enormes cataclismos, mientras que el calor liberado provocaba violentas erupciones
volcánicas. Durante muchísimos años no cayó ni una gota de agua líquida del cielo; era
más bien vapor de agua, que salía silbando de la corteza, para luego condensarse. Los
océanos se formaron desde arriba, no desde abajo.

En lo que los geólogos no están de acuerdo hoy día es en la velocidad de formación de


los océanos. ¿Salió todo el vapor de agua en cosa de mil millones de años, de suerte que
el océano tiene el tamaño actual desde que comenzó la vida? ¿O se trata de un proceso
lento en el que el océano ha ido creciendo a través de las eras geológicas y sigue
creciendo aún?

Quienes mantienen que el océano se formó en los comienzos mismos del juego y que ha
conservado un tamaño constante desde entonces, señalan que los continentes parecen
ser un rasgo permanente de la Tierra. No parece que fuesen mucho más grandes en
tiempos pasados, cuando era el océano supuestamente mucho más pequeño.
Por otra parte, quienes opinan que el océano ha venido creciendo constantemente,
señalan que las erupciones volcánicas escupen aún hoy cantidades ingentes de vapor de
agua al aire: vapor de agua de rocas profundas, no del océano. Además, en el Pacífico
hay montañas submarinas cuyas cimas, planas, quizá estuviesen antes al nivel del mar,
pero ahora quedan a cientos de pies por debajo de él.

Acaso sea posible llegar a un compromiso. Se ha sugerido que aunque el océano ha ido
efectivamente creciendo continuamente, el peso del agua acumulada hizo que el fondo
marino cediera. Es decir, los océanos han crecido constantemente en profundidad, no en
anchura. Lo cual explicaría la presencia de esas mesetas marinas sumergidas y también
la existencia de los continentes.

Artículos sobre la vida en el Cosmos


Según el diccionario de la Real Academia de Ciencias
Exactas, Físicas y Naturales de España la vida se define
como:

Una forma de organización de la materia caracterizada


por determinados procesos físicos y químicos, cuya
conjunción le permite autoorganizarse, realizar funciones
de relación y reproducción, y evolucionar.

A simple vista se hace difícil dar una adecuada definición


de vida, pues cuando se mira a nuestro alrededor abruma
la gran abundancia y diversidad de organismos que
pueblan la Tierra. Se habla del origen de la vida, de la evolución de la vida o de las
posibilidades de vida en otros planetas, pero no existe una definición simple de vida.

En realidad, la vida en sentido abstracto tampoco existe, lo que existen son seres vivos,
y resulta muy difícil establecer el límite entre lo vivo y lo no vivo. En este aspecto, la
vida es el ente abstracto común a los seres vivos y para poder definir el concepto de
vida es preciso primeramente aclarar las características que deben cumplir los seres
vivos.

El inicio de la vida
¿Cómo empezó la vida? Una respuesta clara y rotunda no la
hay, porque cuando empezó la vida no había nadie allí que
sirviese de testigo. Pero se pueden hacer análisis lógicos del
problema.

Los astrónomos han llegado a ciertas conclusiones acerca


de la composición general del universo. Han encontrado,
por ejemplo, que un 90 por 100 de él es hidrógeno y un 9
por 100 helio. El otro 1 por 100 está constituido principalmente por oxígeno, nitrógeno,
neón, argón, carbono, azufre, silicio y hierro.

Partiendo de ahí y sabiendo de qué manera es probable que se combinen tales


elementos, es lógico concluir que la Tierra tenía al principio una atmósfera muy rica en
ciertos compuestos de hidrógeno: vapor de agua, amoníaco, metano, sulfuro de
hidrógeno, cianuro de hidrógeno, etc. Y también habría un océano de agua líquida con
gases atmosféricos disueltos en ella.

Para que se iniciase la vida en un mundo como éste es preciso que las moléculas
elementales que existían, al principio se combinaran entre sí para formar moléculas
complejas. En general, la construcción de moléculas complicadas de muchos átomos a
base de moléculas elementales de pocos átomos requiere un aporte de energía. La luz
del: Sol (sobre todo su contenido ultravioleta), al incidir sobre el océano, podía
suministrar la energía necesaria para obligar a las moléculas pequeñas a formar otras
mayores.

Pero ¿cuáles eran esas moléculas mayores?

El químico americano Stanley L. Miller decidió en 1952 averiguarlo. Preparó una


mezcla de sustancias parecida a la que, según se cree, existió en la primitiva atmósfera
terrestre, y se cercioró de que era completamente estéril. Luego la expuso durante varias
semanas a una descarga eléctrica que servía como fuente de energía. Al final comprobó
que la mezcla contenía moléculas algo más complicadas que aquéllas con las que había
comenzado. Todas ellas eran moléculas del tipo que se encuentran en los tejidos vivos y
entre ellas había algunos de los aminoácidos que son los bloques fundamentales de unos
importantes compuestos: las proteínas.

Desde 1952 ha habido muchos investigadores, de diversos países, que han repetido el
experimento, añadiendo detalles y refinamientos. Han construido diversas moléculas
por métodos muy distintos y las han utilizado luego como punto de partida de otras
construcciones.

Se ha comprobado que las sustancias así formadas apuntan directamente hacia las
complejas sustancias de la vida: las proteínas y los ácidos nucleicos. No se ha hallado
ninguna sustancia que difiera radicalmente de las que son características de los tejidos
vivos.

Aún no se ha conseguido nada que ni por un máximo esfuerzo de imaginación pudiera


llamarse viviente, pero hay que tener en cuenta que los científicos están trabajando con
unos cuantos decilitros de líquido, durante unas cuantas semanas cada vez. En los
orígenes de la Tierra, lo que estaba expuesto al Sol era un océano entero de líquido
durante miles de millones de años.

Bajo el azote de la luz solar, las moléculas del océano fueron haciéndose cada vez más
complejas, hasta que en último término surgió una que era capaz de inducir la
organización de moléculas elementales en otra molécula igual que ella. Con ello
comenzó y continuó la vida, evolucionando gradualmente hasta el presente. Las formas
primitivas de «vida» tuvieron que ser mucho menos complejas que las formas más
simples de vida en la actualidad, pero de todos modos ya eran bastante complejas. Hoy
día los científicos tratan de averiguar cómo se formó esa singular molécula que
acabamos, de mencionar.

Parece bastante seguro que la vida se desarrolló, no como un milagro, sino debido a la
combinación de moléculas según una trayectoria de mínima resistencia. Dadas las
condiciones de la Tierra primitiva, la vida no tuvo por menos de formarse, igual que el
hierro no tiene por menos que oxidarse en el aire húmedo. Cualquier otro planeta que se
parezca física y químicamente a la Tierra desarrollaría inevitablemente vida, aunque no
necesariamente inteligente.

El Sol y la vida
Uno de los pocos puntos sobre el cual los científicos
actuales están de acuerdo con los de la antiguedad es que
el Sol es la fuente de toda forma de vida sobre la Tierra.
El continuo fluir de energía radiante que baña la
superficie de nuestro planeta, y que proviene de aquél
auténtico infierno termonuclear que es el Sol, ha
permitido a la vida desarrollarse y prosperar.

Los estudios más precisos sobre el Sol han revelado que


nuestro astro rey no posee zonas verdaderamente sólidas.
Aparece como una enorme bola de gas, en cuyo centro la
presión gravitacional es tan alta como para hacer que el gas se convierta en semisólido.

El Sol tiene una superficie amarilla luminosa, conocida como fotosfera, con una
temperatura variable entre los 10.000O ºC y los 4.400O ºC en la parte más externa. Son
temperaturas extremadamente altas, pero casi sin valor en comparación con las de su
núcleo que, se estima, superaría los 15 millones de grados centígrados. Sobre la
fotosfera existe una cobertura de gas de color rosado que tiene temperaturas que oscilan
entre los 4.400 y el millon de grados centígrados. Es conocida como cromosfera.

La región del Sol más externa y extensa que se conoce es la corona, compuesta de
vapores, filamentos y rayos de luz blanca. El gas que la alimenta está a unos dos
millones de grados centígrados y, precisamente a causa de estas altísimas temperaturas,
el gas ionizado de la corona (llamado plasma), es impulsado desde la superficie del Sol
hacia el espacio. Estas partículas de la corona solar constituyen el viento solar, que llega
hasta la Tierra.

Las manchas solares, uno de los fenómenos más conocidos de nuestro astro, son
probablemente vórtices de gas provocados por complicadas corrientes gaseosas del Sol.
Cuando la actividad solar es muy intensa, se observan las llamadas protuberancias,
lenguas luminosas que salen de la cromosfera, y las famosas erupciones.

Existen muchas relaciones entre los fenómenos solares y la vida sobre la Tierra. Una
relación evidente es la que hay entre actividad solar y crecimiento de las plantas. El
espesor de los anillos de los árboles es mayor durante la época de máxima actividad del
Sol.
Uno de los fenómenos básicos en la evolución de los seres vivos sobre nuestro planeta
es la fotosíntesis, proceso en virtud del cual los organismos con clorofila, como las
plantas verdes, las algas y algunas bacterias, capturan energía en forma de luz y la
transforman en energía química. Prácticamente toda la energía que consume la vida de
la biosfera terrestre procede de la fotosíntesis y, sin el Sol, esta sería imposible.

Incluso se especula que la historia de la humanidad puede estar influenciada por ella. En
1789, el año de la Revolución Francesa, se tuvo el máximo de actividad solar. Tal vez
fue sólo un caso, porque otros acontecimientos históricos importantes se produjeron en
períodos de baja actividad.

Las interrogantes aún existentes sobre nuestra estrella son muchas. La primera entre
todas es la relativa a su vida: ¿por cuanto tiempo continuará el Sol proporcionando a la
Tierra la energía vital? El proceso vital del Sol es el mismo que proporciona la energía
para una bomba H y el propio Sol es comparable a la explosión controlada de millones y
millones de bombas de hidrógeno que estallan ininterrumpidamente. Sólo puede decirse
una cosa: cuando este ciclo se interrumpa y el Sol se apague, habrán transcurrido miles
de millones de años.

¿Hay vida extraterrestre?


Si en torno a la mitad de las estrellas de nuestra galaxia
semejantes al Sol orbitase un planeta, en el lugar preciso
como para tener una temperatura favorable a la aparición de
la vida, entonces en la Vía Láctea habría diez mil millones
de planetas semejantes a la Tierra.

Ahora bien, para conocer en cuántos de ellos puede haber


vida inteligente y con habilidad tecnológica, con la cual
pudiésemos comunicarnos por radio, habría que saber cuán
probable es que esta surja cuando las condiciones de un
planeta son las adecuadas; cuán factible es que evolucione
hasta generar seres inteligentes y, por último, cuán posible
es que estos formen una sociedad de orientación
tecnológica.

La consideración de todos estos factores escapa al dominio de la astronomía y es de


competencia de ciencias como la bioquímica, la biología o la sociología. Sin embargo,
según estimaciones de varios científicos, es posible que en uno de cada cien planetas
surja una civilización técnicamente avanzada. Por lo tanto, en la Vía Láctea habría cien
millones de planetas en los que, en algún momento de su desarrollo, surgió una
civilización tecnológica.

No todas las civilizaciones evolucionan forzosamente hacia sociedades tecnológicas. En


el Universo puede haber muchas integradas por poetas (que posiblemente sobrevivan
mejor), muy respetables por cierto. Desgraciadamente, con ellas nunca podremos
comunicarnos utilizando las ondas de radio. Por eso, nuestra atención se centra en las
civilizaciones tecnológicas no porque las consideremos "las más avanzadas" o las
mejores del cosmos, sino porque solo con ellas podemos entrar en contacto.

Más urgente que conocer cuántas civilizaciones esperamos estén ahí, en algún lugar de
la Vía Láctea, a la espera de comunicarse con nosotros, es importante resolver un
problema crucial: saber cuál es la longevidad de una civilización técnicamente
avanzada. ¿Cuánto vive una civilización de esta naturaleza antes de autodestruirse o de
sucumbir frente a problemas provocados por ella misma y que es incapaz de resolver?

La única civilización tecnológicamente avanzada que conocemos es la nuestra, y ha


vivido como tal (es decir, con capacidad para comunicarse mediante ondas de radio con
otros puntos del espacio) unos 60 años. Esto es, un lapso muy pequeño comparado con
la vida de la galaxia.

Si las civilizaciones avanzadas carecieran de la sabiduría suficiente como para superar


los problemas que trae consigo el avance tecnológico, y solo vivieran (por ejemplo) cien
años, los cien millones de civilizaciones de nuestra galaxia ya estarían extinguidos.

Para saber cuántas están vivas hoy, basta con averiguar qué porcentaje representa cien
años en relación con la edad de la galaxia, una vida del orden de los diez mil millones
de años. La proporción es uno a cien millones. Eso significa que hoy estaría viva solo
una de los cien millones que hayan existido en la Vía Láctea: la nuestra.

Pero no seamos tan pesimistas. Supongamos que una civilización técnicamente


avanzada viviese mucho tiempo, unos cien millones de años, por ejemplo, y que
solucionase todos los problemas que se le presentan. En ese caso habría en toda la
galaxia un millón de civilizaciones que estarían vivas hoy y con las cuales podríamos,
en principio, establecer contacto mediante ondas de radio.

Este número (un millón de civilizaciones) puede parecer muy grande, pero las
posibilidades de comunicación son menores si se recuerda que la distancia típica entre
dos estrellas es de unos cuatro años-luz. Aún si lográsemos saber exactamente cuál
estrella contiene al planeta donde está la civilización más cercana a la nuestra, la posible
conversación con sus miembros no sería fácil. Si en este momento dijésemos ¡Hola!,
nuestro llamado demoraría 400 años en llegar a ellos; si respondiesen de inmediato
pasarían otros 400 años antes de que su respuesta a nuestro saludo llegase de vuelta. Por
lo tanto, es una posibilidad bastante poco excitante la de hablar por teléfono de ida y
vuelta, en vivo y en directo, con nuestros vecinos más próximos.

Las comunicaciones deberían ser en una sola dirección. Nosotros podríamos mandar
una gran cantidad de información en mensajes especialmente codificados para que ellos
comprendieran, y tener la esperanza de que algún día, alguien que los escuche, sepa de
nuestra existencia en el cosmos y aprenda algo de nosotros.

De igual modo, deberíamos escuchar con antenas adecuadas las bandas de radio, para
saber si alguien, desde algún punto de la galaxia, ha radiado ya un mensaje dando a
conocer su presencia y contando cómo es la civilización a la que pertenece. Es como
practicar la actividad de los radioaficionados, pero a escala cósmica
Leyes y teorías astronómicas
Desde los griegos hasta la teoría de Newton el hombre se
esforzaba por dar unas leyes que rigieran el movimiento de
la Tierra y de los planetas. La observación fue el único
método del que se servían y al que planteaban diversas
soluciones matemáticas cada vez mas complicadas.

Pero hasta la publicación de la ley de gravitación de


Newton no se dio respuesta a todos los problemas en
conjunto. A partir de su publicación y su extensión la
ciencia se convirtió en determinista, pues todo lo que
ocurría se debía a la ley de gravitación universal y tenía
carácter de reversibilidad temporal. Sirvió de modelo sobre
el cual se empezó a construir las leyes sobre la electricidad
y magnetismo.

A partir del siglo XIX, el descubrimiento de los fenómenos ondulatorios de la luz


empezó a demostrar que no todos los fenómenos naturales se regían por la ley de
gravitación universal. El gran rebatimiento de esta ley se produjo ya en el siglo XX con
la teoría de la relatividad de Einstein, que demostraba la imposibilidad de que las
interacciones se propaguen instantáneamente y la necesidad de considerar un cuarto eje
con el tiempo como magnitud.

El abandono del determinismo científico (que ahora se conoce como la física clásica) se
realiza tras el surgimiento de la teoría cuántica, formulada por Einstein, Bohr,
Heisenberg y otros, que demostró que para sistemas microscópicos las propiedades
ondulatorias de la materia se ponen de manifiesto y la ley de Newton no es aplicable.

Isaac Newton y la ley de la gravitación


universal
La gravitación es la fuerza de atracción mutua que
experimentan los cuerpos por el hecho de tener una masa
determinada. La existencia de dicha fuerza fue
establecida por el matemático y físico inglés Isaac
Newton en el s. XVII, quien, además, desarrolló para su
formulación el llamado cálculo de fluxiones (lo que en la
actualidad se conoce como cálculo integral).

Isaac Newton nació el 25 de diciembre de 1642, en


Woolsthorpe, Lincolnshire. Cuando tenía tres años, su
madre viuda se volvió a casar y lo dejó al cuidado de su
abuela. Al enviudar por segunda vez, decidió enviarlo a
una escuela primaria en Grantham. En el verano de 1661 ingresó en el Trinity College
de la Universidad de Cambridge, donde recibió su título de profesor.
Durante esa época se dedicó al estudio e investigación de los últimos avances en
matemáticas y a la filosofía natural. Casi inmediatamente realizó descubrimientos
fundamentales que le fueron de gran utilidad en su carrera científica. También resolvió
cuestiones relativas a la luz y la óptica, formuló las leyes del movimiento y dedujo a
partir de ellas la ley de la gravitación universal.

La ley formulada por Newton y que recibe el nombre de ley de la gravitación universal,
afirma que la fuerza de atracción que experimentan dos cuerpos dotados de masa es
directamente proporcional al producto de sus masas e inversamente proporcional al
cuadrado de la distancia que los separa (ley de la inversa del cuadrado de la distancia).
La ley incluye una constante de proporcionalidad (G) que recibe el nombre de constante
de la gravitación universal y cuyo valor, determinado mediante experimentos muy
precisos, es de:

6,670. 10-11 Nm²/kg².

Para determinar la intensidad del campo gravitatorio asociado a un cuerpo con un radio
y una masa determinados, se establece la aceleración con la que cae un cuerpo de
prueba (de radio y masa unidad) en el seno de dicho campo. Mediante la aplicación de
la segunda ley de Newton tomando los valores de la fuerza de la gravedad y una masa
conocida, se puede obtener la aceleración de la gravedad.

Dicha aceleración tiene valores diferentes dependiendo del cuerpo sobre el que se mida;
así, para la Tierra se considera un valor de 9,8 m/s² (que equivalen a 9,8 N/kg), mientras
que el valor que se obtiene para la superficie de la Luna es de tan sólo 1,6 m/s², es decir,
unas seis veces menor que el correspondiente a nuestro planeta, y en uno de los planetas
gigantes del sistema solar, Júpiter, este valor sería de unos 24,9 m/s².

En un sistema aislado formado por dos cuerpos, uno de los cuales gira alrededor del
otro, teniendo el primero una masa mucho menor que el segundo y describiendo una
órbita estable y circular en torno al cuerpo que ocupa el centro, la fuerza centrífuga tiene
un valor igual al de la centrípeta debido a la existencia de la gravitación universal.

A partir de consideraciones como ésta es posible deducir una de las leyes de Kepler (la
tercera), que relaciona el radio de la órbita que describe un cuerpo alrededor de otro
central, con el tiempo que tarda en barrer el área que dicha órbita encierra, y que afirma
que el tiempo es proporcional a 3/2 del radio. Este resultado es de aplicación universal y
se cumple asimismo para las órbitas elípticas, de las cuales la órbita circular es un caso
particular en el que los semiejes mayor y menor son iguales.

La teoria del Big Bang y el origen del


Universo
El Big Bang, literalmente gran estallido, constituye el
momento en que de la "nada" emerge toda la materia, es
decir, el origen del Universo. La materia, hasta ese
momento, es un punto de densidad infinita, que en un momento dado "explota"
generando la expansión de la materia en todas las direcciones y creando lo que
conocemos como nuestro Universo.

Inmediatamente después del momento de la "explosión", cada partícula de materia


comenzó a alejarse muy rápidamente una de otra, de la misma manera que al inflar un
globo éste va ocupando más espacio expandiendo su superficie. Los físicos teóricos han
logrado reconstruir esta cronología de los hechos a partir de un 1/100 de segundo
después del Big Bang. La materia lanzada en todas las direcciones por la explosión
primordial está constituida exclusivamente por partículas elementales: Electrones,
Positrones, Mesones, Bariones, Neutrinos, Fotones y un largo etcétera hasta más de 89
partículas conocidas hoy en día.

En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría


de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una
explosión gigantesca y que los diversos elementos que hoy se observan se produjeron
durante los primeros minutos después de la Gran Explosión o Big Bang, cuando la
temperatura extremadamente alta y la densidad del Universo fusionaron partículas
subatómicas en los elementos químicos.

Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos
primarios del Big Bang, y los elementos más pesados se produjeron más tarde, dentro de
las estrellas. Sin embargo, la teoría de Gamow proporciona una base para la
comprensión de los primeros estadios del Universo y su posterior evolución. A causa de
su elevadísima densidad, la materia existente en los primeros momentos del Universo se
expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se
condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base
física de la ley de Hubble.

Según se expandía el Universo, la radiación residual del Big Bang continuó enfriándose,
hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de
fondo de microondas fueron detectados por los radioastrónomos en 1965,
proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de
la teoría del Big Bang.

Uno de los problemas sin resolver en el modelo del Universo en expansión es si el


Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a
contraer).

Un intento de resolver este problema es determinar si la densidad media de la materia en


el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una
galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la
masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al
10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma
análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa
por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se
aproxima al límite crítico que indicaría que el Universo está cerrado.

La diferencia entre estos dos métodos sugiere la presencia de materia invisible, la


llamada materia oscura, dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta
que se comprenda el fenómeno de la masa oculta, este método de determinar el destino
del Universo será poco convincente.

Muchos de los trabajos habituales en cosmología teórica se centran en desarrollar una


mejor comprensión de los procesos que deben haber dado lugar al Big Bang. La teoría
inflacionaria, formulada en la década de 1980, resuelve dificultades importantes en el
planteamiento original de Gamow al incorporar avances recientes en la física de las
partículas elementales. Estas teorías también han conducido a especulaciones tan osadas
como la posibilidad de una infinidad de universos producidos de acuerdo con el modelo
inflacionario.

Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el paradero de


la materia oscura, mientras que una minoría, encabezada por el sueco Hannes Alfvén,
premio Nobel de Física, mantienen la idea de que no sólo la gravedad sino también los
fenómenos del plasma, tienen la clave para comprender la estructura y la evolución del
Universo.

Albert Einstein y la relatividad


Según las leyes del movimiento establecidas por
primera vez con detalle por Isaac Newton hacia 1680-
89, dos o más movimientos se suman de acuerdo con
las reglas de la aritmética elemental. Supongamos que
un tren pasa a nuestro lado a 20 kilómetros por hora y
que un niño tira desde el tren una pelota a 20
kilómetros por hora en la dirección del movimiento del
tren. Para el niño, que se mueve junto con el tren, la
pelota se mueve a 20 kilómetros por hora. Pero para
nosotros, el movimiento del tren y el de la pelota se
suman, de modo que la pelota se moverá a la velocidad
de 40 kilómetros por hora.

Como veis, no se puede hablar de la velocidad de la


pelota a secas. Lo que cuenta es su velocidad con
respecto a un observador particular. Cualquier teoría del movimiento que intente
explicar la manera en que las velocidades (y fenómenos afines) parecen variar de un
observador a otro sería una «teoría de la relatividad».

La teoría de la relatividad de Einstein nació del siguiente hecho: lo que funciona para
pelotas tiradas desde un tren no funciona para la luz. En principio podría hacerse que la
luz se propagara, o bien a favor del movimiento terrestre, o bien en contra de él. En el
primer caso parecería viajar más rápido que en el segundo (de la misma manera que un
avión viaja más aprisa, en relación con el suelo, cuando lleva viento de cola que cuando
lo lleva de cara). Sin embargo, medidas muy cuidadosas demostraron que la velocidad
de la luz nunca variaba, fuese cual fuese la naturaleza del movimiento de la fuente que
emitía la luz.

Einstein dijo entonces: supongamos que cuando se mide la velocidad de la luz en el


vacío, siempre resulta el mismo valor (unos 299.793 kilómetros por segundo), en
cualesquiera circunstancias. ¿Cómo podemos disponer las leyes del universo para
explicar esto? Einstein encontró que para explicar la constancia de la velocidad de la luz
había que aceptar una serie de fenómenos inesperados.

Halló que los objetos tenían que acortarse en la dirección del movimiento, tanto más
cuanto mayor fuese su velocidad, hasta llegar finalmente a una longitud nula en el límite
de la velocidad de la luz; que la masa de los objetos en movimiento tenía que aumentar
con la velocidad, hasta hacerse infinita en el límite de la velocidad de la luz; que el paso
del tiempo en un objeto en movimiento era cada vez más lento a medida que aumentaba
la velocidad, hasta llegar a pararse en dicho límite; que la masa era equivalente a una
cierta cantidad de energía y viceversa.

Todo esto lo elaboró en 1905 en la forma de la «teoría especial de la relatividad», que se


ocupaba de cuerpos con velocidad constante. En 1915 extrajo consecuencias aún más
sutiles para objetos con velocidad variable, incluyendo una descripción del
comportamiento de los efectos gravitatorios. Era la «teoría general de la relatividad».

Los cambios predichos por Einstein sólo son notables a grandes velocidades. Tales
velocidades han sido observadas entre las partículas subatómicas, viéndose que los
cambios predichos por Einstein se daban realmente, y con gran exactitud. Es más, sí la
teoría de la relatividad de Einstein fuese incorrecta, los aceleradores de partículas no
podrían funcionar, las bombas atómicas no explotarían y habría ciertas observaciones
astronómicas imposibles de hacer.

Pero a las velocidades corrientes, los cambios predichos son tan pequeños que pueden
ignorarse. En estas circunstancias rige la aritmética elemental de las leyes de Newton; y
como estamos acostumbrados al funcionamiento de estas leyes, nos parecen ya de
«sentido común», mientras que la ley de Einstein se nos antoja «extraña».

La teoría inflacionaria
De acuerdo con la teoría de la Gran Explosión o del Big
Bang, generalmente aceptada, el Universo surgió de una
explosión inicial que ocasionó la expansión de la materia
desde un estado de condensación extrema. Sin embargo,
en la formulación original de la teoría del Big Bang
quedaban varios problemas sin resolver. El estado de la
materia en la época de la explosión era tal que no se
podían aplicar las leyes físicas normales. El grado de
uniformidad observado en el Universo también era difícil
de explicar porque, de acuerdo con esta teoría, el
Universo se habría expandido con demasiada rapidez para
desarrollar esta uniformidad.

Según la teoría del Big Bang, la expansión del universo pierde velocidad, mientras que
la teoría inflacionaria lo acelera e induce el distanciamiento, cada vez más rápido, de
unos objetos de otros. Esta velocidad de separación llega a ser superior a la velocidad de
la luz, sin violar la teoría de la relatividad, que prohíbe que cualquier cuerpo de masa
finita se mueva más rápido que la luz. Lo que sucede es que el espacio alrededor de los
objetos se expande más rápido que la luz, mientras los cuerpos permanecen en reposo
en relación con él.

A esta extraordinaria velocidad de expansión inicial se le atribuye la uniformidad del


universo visible, las partes que lo constituían estaban tan cerca unas de otras, que tenían
una densidad y temperatura comunes.

Alan H Guth del Instituto Tecnológico de Massachussets (M.I.T.) sugirió en 1981 que el
universo caliente, en un estadio intermedio, podría expandirse exponencialmente. La
idea de Guth postulaba que este proceso de inflación se desarrollaba mientras el
universo primordial se encontraba en el estado de superenfriamiento inestable. Este
estado superenfriado es común en las transiciones de fase; por ejemplo en condiciones
adecuadas el agua se mantiene líquida por debajo de cero grados. Por supuesto, el agua
superenfriada termina congelándose; este suceso ocurre al final del período
inflacionario.

En 1982 el cosmólogo ruso Andrei Linde introdujo lo que se llamó "nueva hipótesis del
universo inflacionario". Linde se dió cuenta de que la inflación es algo que surge de
forma natural en muchas teorías de partículas elementales, incluidos los modelos más
simples de los campos escalares. Si la mayoría de los físicos han asumido que el
universo nació de una sola vez; que en un comienzo éste era muy caliente, y que el
campo escalar en el principio contaba con una energía potencial mínima, entonces la
inflación aparece como natural y necesaria, lejos de un fenómeno exótico apelado por
los teóricos para salir de sus problemas. Se trata de una variante que no requiere de
efectos gravitatorios cuánticos, de transiciones de fase, de un superenfriamiento o
también de un supercalentamiento inicial.

Considerando todos los posibles tipos y valores de campos escalares en el universo


primordial y tratando de comprobar si alguno de ellos conduce a la inflación, se
encuentra que en los lugares donde no se produce ésta, se mantienen pequeños, y en los
dominios donde acontece terminan siendo exponencialmente grandes y dominan el
volumen total del universo. Considerando que los campos escalares pueden tomar
valores arbitrarios en el universo primordial, Andrei Linde llamó a esta hipótesis
"inflación caótica".

La teoría inflacionaria, predice que el universo debe ser esencialmente plano, lo cual
puede comprobarse experimentalmente, ya que la densidad de materia de un universo
plano guarda relación directa con su velocidad de expansión.

La otra predicción comprobable de esta teoría tiene que ver con las perturbaciones de
densidad producidas durante la inflación. Se trata de perturbaciones de la distribución
de materia en el universo, que incluso podrían venir acompañadas de ondas
gravitacionales. Las perturbaciones dejan su huella en el fondo cósmico de microondas,
que llena el cosmos desde hace casi 15 mil millones de años.

La Paradoja de Olbers
La paradoja de Olbers es la contradicción aparente que
existe entre que el cielo nocturno sea negro y que el
Universo sea infinito. Si lo es, cada línea de visión desde
la Tierra debería terminar en una estrella. Por tanto, el
cielo debería ser completamente brillante.

Pero los astrónomos saben que durante la noche el cielo


que hay entre las estrellas es negro. Una paradoja ocurre
cuando se llega a dos resultados opuestos utilizando dos
métodos de razonamiento en apariencia válidos. La
paradoja de Olbers recibe el nombre del físico y
astrónomo alemán Wilhelm Olbers, que escribió sobre la
paradoja en la década de 1820.

La paradoja existente entre una noche oscura y un


universo infinito se conocía antes de que fuera discutida por Olbers. A principios del
siglo XVII, el astrónomo alemán Johannes Kepler utilizó la paradoja para respaldar la
idea de que el Universo es infinito. En 1715, el astrónomo británico Edmund Halley
identificó en el cielo algunas zonas brillantes y propuso que el cielo no brilla
uniformemente durante la noche porque, aunque el Universo es infinito, las estrellas no
están distribuidas de manera uniforme.

El astrónomo suizo Jean-Philippe Loys de Chéseaux comenzó a estudiar la paradoja


basándose en el trabajo de Halley. Al final de un libro que trataba del brillante cometa
que estudió en 1743, Chéseaux discutió la paradoja de forma explícita. Sugirió que o
bien la esfera de las estrellas no era infinita o bien la intensidad de la luz disminuía
rápidamente con la distancia, quizás debido a cierto material absorbente presente en el
espacio.

En 1823 Olbers planteó la solución de que el cielo era oscuro de noche porque algo en
el espacio bloqueaba la mayor parte de la luz estelar que debía llegar a la Tierra. Los
científicos actuales se han dado cuenta de que la solución de Olbers no funcionaría, ya
que la materia en el espacio que bloqueara la luz se calentaría con el tiempo y,
finalmente, radiaría con tanto brillo como las estrellas. Las traducciones de los artículos
de Olbers al inglés y al francés hicieron que su trabajo fuera bastante conocido. Durante
los cien años siguientes la paradoja no fue discutida.

En 1948, el astrónomo británico Hermann Bondi se refirió a la paradoja de Olbers como


una parte de la teoría del estado estacionario. La solución de Bondi era que la expansión
del Universo provocaba que la luz percibida desde la lejanía fuera rojiza y, por tanto,
con menor energía en cada fotón o partícula de luz. Esta solución es igualmente válida
para la teoría del Big Bang.

En la década de 1960, el astrónomo estadounidense Edward Harrison llegó al


entendimiento y solución actuales de la paradoja de Olbers. Harrison mostró que el cielo
es oscuro de noche porque nosotros no vemos las estrellas que están infinitamente lejos.
La solución de Harrison depende de que el Universo tenga una edad infinita. Dado que
la luz tarda cierto tiempo en alcanzar la Tierra, mirar lejos en el espacio es como mirar
en el pasado. Cada línea de visión desde la Tierra no termina en una estrella porque la
luz de las estrellas más lejanas que se necesitan para crear la paradoja de Olbers todavía
no ha alcanzado la Tierra.

Durante el tiempo de existencia del Universo, las estrellas no han emitido energía
suficiente para hacer que el cielo nocturno brille. El efecto del desplazamiento hacia el
rojo, por el que la energía de las estrellas más lejanas disminuye, es un efecto menor en
este modelo.

Fuerzas fundamentales del Universo


Fuerzas fundamentales son aquellas fuerzas del Universo
que no se pueden explicar en función de otras más
básicas. Las fuerzas o interacciones fundamentales
conocidas hasta ahora son cuatro: gravitatoria,
electromagnética, nuclear fuerte y nuclear débil.

La gravitatoria es la fuerza de atracción que un trozo de


materia ejerce sobre otro, y afecta a todos los cuerpos.
La gravedad es una fuerza muy débil y de un sólo
sentido, pero de alcance infinito.

La fuerza electromagnética afecta a los cuerpos eléctricamente cargados, y es la fuerza


involucrada en las transformaciones físicas y químicas de átomos y moléculas. Es
mucho más intensa que la fuerza gravitatoria, tiene dos sentidos (positivo y negativo) y
su alcance es infinito.

La fuerza o interacción nuclear fuerte es la que mantiene unidos los componentes de los
núcleos atómicos, y actúa indistintamente entre dos nucleones cualesquiera, protones o
neutrones. Su alcance es del orden de las dimensiones nucleares, pero es más intensa
que la fuerza electromagnética.

La fuerza o interacción nuclear débil es la responsable de la desintegración beta de los


neutrones; los neutrinos son sensibles únicamente a este tipo de interacción. Su
intensidad es menor que la de la fuerza electromagnética y su alcance es aún menor que
el de la interacción nuclear fuerte.

Todo lo que sucede en el Universo es debido a la actuación de una o varias de estas


fuerzas que se diferencian unas de otras porque cada una implica el intercambio de un
tipo diferente de partícula, denominada partícula de intercambio o intermediaria. Todas
las partículas de intercambio son bosones, mientras que las partículas origen de la
interacción son fermiones.

En la actualidad, los científicos intentan demostrar que todas estas fuerzas


fundamentales, aparentemente diferentes, son manifestaciones, en circunstancias
distintas, de un modo único de interacción. El término "teoría del campo unificado"
engloba a las nuevas teorías en las que dos o más de las cuatro fuerzas fundamentales
aparecen como si fueran básicamente idénticas.

La teoría de la gran unificación intenta unir en un único marco teórico las interacciones
nuclear fuerte y nuclear débil, y la fuerza electromagnética. Esta teoría de campo
unificado se halla todavía en proceso de ser comprobada. La teoría del todo es otra
teoría de campo unificado que pretende proporcionar una descripción unificada de las
cuatro fuerzas fundamentales.

Hoy, la mejor candidata a convertirse en una teoría del todo es la teoría de supercuerdas.
Esta teoría física considera los componentes fundamentales de la materia no como
puntos matemáticos, sino como entidades unidimensionales llamadas "cuerdas".
Incorpora la teoría matemática de supersimetría, que sugiere que todos los tipos de
partícula conocidos deben tener una "compañera supersimétrica" todavía no descubierta.
Esto no significa que exista una compañera para cada partícula individual (por ejemplo,
para cada electrón), sino un tipo de partícula asociado a cada tipo conocido de partícula.
La partícula hipotética correspondiente al electrón sería el selectrón, por ejemplo, y la
correspondiente al fotón sería el fotino. Esta combinación de la teoría de cuerdas y la
supersimetría es el origen del nombre de "supercuerdas".

Técnica y tecnología
El primer instrumento de observación astronómico fue el
ojo humano, cuyas posibilidades son limitadas. El
desarrollo de una astronomía observacional sufrió estas
limitaciones hasta principios del siglo XVII, cuando Galileo
construyó el primer telescopio astronómico.

Los telescopios astronómicos pueden ser de dos tipos:


refractores y reflectores. Un telescopio refractor está
básicamente compuesto por un objetivo, una lente y un
ocular. Estos instrumentos presentan el problema de la
aberración cromática y de la aberración esférica. Los
telescopios reflectores utilizan espejos como objetivo.
Fueron construidos por primera vez en Inglaterra en el siglo
XVII; el más famoso fue construido por Newton.

Otra forma de conocer el Universo es mediante el estudio de otras radiaciones, además


de la luz. La radioastronomía es la ciencia que estudia los objetos celestes mediante la
detección y el análisis de la radiación electromagnética que emiten en el rango de
longitudes de onda, que van desde 1 milímetro hasta los 30 metros.

Evidentemente, si nos acercamos a los objetos de estudio o, como mínimo, podemos


mejorar las condiciones de observación, obtendremos mejores resultados. El desarrollo
de la misilística ha supuesto que podamos enviar instrumentos y personas más allá de la
atmósfera terrestre.

Este capítulo contiene textos sobre las técnicas y tecnologías que se utilizan para
conocer mejor el Espacio.
Pioneros de la misilística
En el periodo que va de finales del siglo XIX a la segunda
guerra mundial, por lo menos cuatro pioneros de la
misilística y de la astronáutica deben recordarse:
Konstantin E. Tsiolkovsky, en Rusia; Robert H. Goddard,
en EE.UU.; Hermann Oberth, en Alemania; Robert
Esnault-Pelterie, en Francia.

Tsiolkovsky nació en Izev en septiembre de 1857.


Matemático y físico, en 1898 propone por primera vez el
empleo de combustibles líquidos en sustitución de los
sólidos empleados hata el momento, adelantando la idea
de que los cohetes pudieran ser accionados por hidrógeno y oxígeno licuificados, o bien
por oxígeno líquido e hidrocarburos (precisamente como sucede en la actualidad).

En sus estudios revolucionarios, Tsiolkovsky indicó también las líneas fundamentales de


la ley por la cual la velocidad final de los cohetes depende de la reserva de combustible
y de la velocidad de expulsión de los gases de combustión. Sus escritos fueron
publicados en 1923, pero en aquellos años Rusia estaba agitada por gravísimos
problemas económicos, sociales y políticos, por lo cual sus geniales investigaciones
cayeron en la indiferencia general de científicos y profanos.

Sólo después de la Revolución de Octubre Tsiolkovsky encontró estímulos de las


autoridades para continuar sus estudios y experimentos hasta 1935, año en que murió.
Además de haber realizado en 1930 un modelo de cohete de combustible líquido, el
científico ruso logró elaborar los cálculos para lanzar un satélite en órbita terrestre.

También más allá del océano, en EE.UU., otro pionero de la misilística no encontró
mucha acogida a sus estudios: Robert Hutchings Goddard. Nacido en 1882 en
Worcester, Massachusetts, Goddard fue profesor en la Clarke University y hasta 1920 se
ocupó de cohetes de combustible sólido. A partir de aquel año, el científico se dedicó a
los cohetes con combustible líquido y, en el histórico día del 16 de marzo de 1926, lanzó
el primer vehículo con motor de cohete accionado por oxígeno y petróleo ardiente.

A este primer experimento siguieron muchos otros y Goddard inventó el sistema para la
estabilización automática de los misiles, empleando giróscopos y guías montadas a la
salida de las toberas de descarga. Goddard con sus misiles logró alcanzar la altura de
2.750 m. y una velocidad máxima de 880 km/hora. Sus trabajos, como se ha dicho, no
suscitaron gran entusiasmo en sus contemporáneos y sólo después del comienzo de la
segunda guerra mundial pudo ver la aplicación práctica de los principios que había
propuesto muchos anos antes. Goddard murió en agosto de 1945.

Hermann Oberth, nacido en Hermannstadt en 1894, llevó muy adelante la investigación


científica y tecnológica en la misilística. En 1917 propuso al ministro de guerra alemán
usar cohetes con combustible líquido de largo alcance como arma de guerra, pero su
idea no es escuchada. De sus estudios salieron los primeros verdaderos cohetes, las V2
de las cuales, después de la guerra, nacerían los vehículos espaciales rusos y
americanos.
Contemporáneo de estos tres pioneros fue el francés Robert Esnault-Pelterie. Nacido en
París en 1881, graduado en ciencias, con sus estudios estableció serias bases científicas
para la aviación considerándola como un hecho de transición para la astronáutica. En
1930 publicó "La astronáutica", en la cual recogió todos los conocimientos adquiridos
hasta entonces en este campo. Pelterie murió en diciembre de 1957. Los sueños de la
astronáutica que había preconizado en sus obras estaban comenzando a convertirse en
realidad: poco antes, el 4 de octubre de 1957, los rusos habían puesto en órbita el
Sputnik, el primer satélite artificial.

El Telescopio espacial Hubble


El Telescopio espacial Hubble está situado en los bordes
exteriores de la atmósfera, en órbita circular alrededor
alrededor de la Tierra a 593 kilómetros sobre el nivel del
mar, que tarda en recorrer entre 96 y 97 minutos. Fue
puesto en órbita el 24 de abril de 1990 como un proyecto
conjunto de la NASA y de la ESA. El telescopio puede
obtener resoluciones ópticas mayores de 0, segundo de
arco. Tiene un peso en torno a 11.000 kilos, es de forma
cilíndrica y tiene una longitud de 13,2 m y un diámetro
máximo de 4,2 metros.

El telescopio es reflector y dispone de dos espejos,


teniendo el principal 2, 4 metros de diámetro. Para la exploración del cielo incorpora
varios espectrómetros y tres cámaras, una de campo estrecho para fotografiar zonas
pequeñas del espacio (de brillo débil por su lejanía), otra de campo ancho para obtener
imágenes de planetas y una tercera infrarroja. Mediante dos paneles solares genera
electricidad que alimenta las cámaras, los cuatro motores empleados para orientar y
estabilizar el telescopio y el equipos de refrigeración de la cámara infrarroja y el
espectrómetro que trabajan a -180 ºC.

Desde su lanzamiento, el telescopio ha recibido varias visitas de los astronautas para


corregir diversos errores de funcionamiento e instalar equipo adicional. Debido al
rozamiento con la atmósfera (muy tenue a esa altura), el telescopio va perdiendo peso
muy lentamente, ganando velocidad, de modo que cada vez que es visitado, el
transbordador espacial ha de empujarlo a una órbita ligeramente más alta.

La ventaja de disponer de un telescopio más allá de la atmósfera radica principalmente


en que ésta absorbe ciertas longitudes de onda de la radiación electromagnética que
incide sobre la Tierra, especialmente en el infrarrojo lo que oscurece las imágenes
obtenidas, disminuyendo su calidad y limitando el alcance, o resolución, de los
telescopios terrestres. Además, éstos se ven afectados también por factores
meteorológicos (presencia de nubes) y la contaminación lumínica ocasionada por los
grandes asentamientos urbanos, lo que reduce las posibilidades de ubicación de
telescopios terrestres.

Desde que fue puesto en órbita en 1990 para eludir la distorsión de la atmósfera -
históricamente, el problema de todos los telescopios terrestres -, el Hubble ha permitido
a los científicos ver el Universo con una claridad jamás lograda. Con sus observaciones,
los astrónomos confirmaron la existencia de los agujeros negros, aclararon ideas sobre
el nacimiento del Universo en una gran explosión, el Big Bang, ocurrida hace unos
13.700 millones de años, y revelaron nuevas galaxias y sistemas en los rincones más
recónditos del cosmos. El Hubble también ayudó a los científicos a establecer que el
sistema solar es mucho más joven que el Universo.

En principio se pensó traer el telescopio de vuelta a la Tierra cada cinco años para darle
mantenimiento, y que además habría una misión de mantenimiento en el espacio en
cada periodo. Posteriormente, viendo las complicaciones y riesgos que involucraba
hecer regresar el instrumento a la Tierra y volver a lanzarlo, se decidió que habría una
misión de mantenimiento en el espacio cada tres años, quedando la primera de ellas
programada para diciembre de 1993. Cuando al poco tiempo de haber sido lanzado, se
descubrió que el Hubble padecía de una aberración óptica debida a un error de
construcción, los responsables empezaron a contar los días para esta primera misión de
mantenimiento, con la esperanza de que pudiera corregirse el error en la óptica.

A partir de que en esa primera misión de mantenimiento se instaló un sistema para


corregir la óptica del telescopio, sacrificando para ello un instrumento (el fotómetro
rápido), el Hubble ha demostrado ser un instrumento sin igual, capaz de realizar
observaciones que repercuten continuamente en nuestras ideas acerca del Universo.

El Hubble ha proporcionado imágenes dramáticas de la colisión del cometa Shoemaker-


Levy 9 con el planeta Júpiter en 1994, así como la evidencia de la existencia de planetas
orbitando otras estrellas. Algunas de las observaciones que han llevado al modelo actual
del universo en expansión se obtuvieron con este telescopio. La teoría de que la mayoría
de las galaxias alojan un agujero negro en su núcleo ha sido parcialmente confirmada
por numerosas observaciones.

En diciembre de 1995, el telescopio fotografió el campo profundo del Hubble, una


región del tamaño de una treinta millonésima parte del área del cielo que contiene varios
miles de galaxias. Una imagen similar del hemisferio sur fue tomada en 1998
apreciándose notables similitudes entre ambas, lo que ha reforzado el principio que
postula que la estructura del Universo es independiente de la dirección en la cual se
mira.

Radioastronomía: las ondas del espacio


La radioastronomía, importante rama de la astronomía,
estudia los cuerpos celestes a través de sus emisiones en
el dominio de las ondas de radio.

A finales de los anos 1920, un joven ingeniero


americano. Karl Jansky estaba trabajando en Holmdel
(New Jersey) en la investigación de las causas de
perturbaciones de radio de origen atmosférico que
intervienen con las transmisiones de larga distancia.
Jansky construyó una antena formada por una estructura metáíica en forma de jaula y la
suspendió sobre las ruedas de un viejo Ford, de manera que un motor pudicra hacer
girar la antena en diferentes direcciones. Después comenzó un largo y paciente trabajo
de recopilación de datos, que consistía en el registro de los diferentes tipos de ruidos de
radio captados en diferentes longitudes de onda, pero sobre todo en las ondas cortas y
desde varias direcciones del cielo.

Los resultados de este trabajo indicaron la existencia de tres tipos de interferencias:


descargas breves procedentes de temporales locales; descargas análogas
correspondientes a temporales muy lejanos: silbidos persistentes procedentes de una
misteriosa fuente en movimiento regular a través del cielo.

Después de meses de intensa investigación Jansky llegó, en la primavera de 1932 a la


conclusión de que la fuente de aquel ruido estaba localizada en la constelación de
Sagitario: en la dirección del núcleo de nuestra Galaxia.

La noticia causó gran conmoción entre el público y se hicieron múltiples conjeturas


sobre el origen de aquellas señales: sin embargo el propio Jansky, que no era un
astrónomo, se dio cuenta que no había nada de misterioso en ellas comprendió que
muchos cuerpos celestes, además de irradiar energía, bajo forma de luz visible, lo hacen
también bajo forma de ondas de radio.

Nacía un nuevo instrumento de investigación astronómica. que ofrecía la posibilidad de


estudiar los cuerpos celestes no sólo a través del telescopio, sino también a través de las
antenas de radio: aquellas que más tarde se llamaron Radiotelescopio.

Tal vez los tiempos no estaban lo suficientemente maduros para que la nueva ciencia
pudiera desarrollarse, pero lo cierto es que la solicitud de Jansky para construir una
nueva antena con forma de Paraboloide para profundizar en los estudios no fue
atendida.

Las investigaciones del joven ingeniero de la Bell Telephone fueron tomadas por otro
americano, Grote Reber, que puede definirse como el primer y auténtico radioastrónomo
del mundo.

No obstante, sólo después de la segunda guerra mundial, gracias también a los


desarrollos de las tecnologías del Radar, la radioastronomía pudo despegar
definitivamente llevando a los astrónomos al descubrimiento de un nuevo Universo.

Los mecanismos físicos que están en la base de las emisiones de radio por parte de los
objetos celestes, son diferentes de aquellos que hacen brillar a los mismos objetos con
luz visible. Mientras casi todas las ondas electromagnéticas comprendidas en el espectro
visible tienen un origen térmico (es decir son consecuencia de la elevada temperatura a
la que se encuentra la materia de objetos celestes como las estrellas), las ondas
electromagnéticas comprendidas en el espectro radio se deben, sobre todo, al
movimiento de partículas elementales cargadas de energía; uno de los mecanismos
típicos de la emisión de radio-ondas celestes es, por ejemplo, la llamada radiación de
Sincrotón: el movimiento en espiral de los haces de electrones que se desplazan a la
velocidad de la luz a través de los campos magnéticos estelares o galácticos.
No todos los cuerpos celestes que son potentes emisoras de ondas visibles lo son
también de ondas electromagnéticas. Por ejemplo el Sol y las estrellas, que vemos
fácilmente a simple vista, son debilísimas fuentes de radiación electromagnética. Si
nuestros ojos fueran sensibles a las ondas de radio en lugar de a la luz visible, el cielo
cambiaría de aspecto. El Sol se convertiría en una débil fuente, la Luna y los planetas
serían casi invisibles, casi todas las estrellas desaparecerían de la escena y el cielo
estaría dominado por una franja intensa, la Vía Láctea (correspondiente al plano
ecuatorial de nuestra Galaxia). Aquí flujos de partículas componentes de los rayos
cósmicos producen la radiación de sincrotón.

Además de esta franja desmesurada que ocuparía la íntegra bóveda celeste, veríamos
también fuentes aisladas en el interior de nuestra Galaxia, correspondientes a
Supernovas, Púlsar, Nebulosas. Podríamos incluso divisar objetos muy lejanos que se
encuentran más allá de nuestra Galaxia, como galaxias externas del tipo de Andrómeda,
y también los Quásar, es decir los misteriosos núcleos de galaxias que parecen
encontrarse en los confines del Universo.

La radioastronomía ha incrementado notablemente los conocimientos del Universo a


todos los niveles. En la escala planetaria, por ejemplo, ciertos mecanismos de
interacción entre campos magnéticos locales partículas se han conocido gracias a las
observaciones radio, como en el caso de Júpiter, que emite radiación de sincrotrón
precisamente en virtud del potente campo magnético que lo rodea.

Del Sol se podido estudiar algunos fenómenos como las manchas y las erupciones, que
son sedes de emisiones de radio. Incluso las lluvias anuales de meteoros se han
convertido en un objeto de investigación radioastronómica, gracias a que las trazas de
las partículas que se queman en la atmósfera ionizan los átomos por lo tanto, pueden
captarse con técnicas de radio, incluso en pleno día.

En una escala más amplia se ha descubierto que nuestra Galaxia no sólo está compuesta
de un conjunto de estrellas, sino que también hay, entre ellas, grandes cantidades de
hidrógeno frío e invisible a la observación con instrumentos ópticos. La distribución de
este gas, y el hecho de que él le confiere a nuestra Galaxia la característica
configuración de disco espiraliforme, son un resultado de la investigación del cic lo por
medio de las ondas de radio. El hidrógeno frío es visible en el dominio de las radio-
ondas, porque tiene una emisión característica en la longitud de on da de los 21 cm., que
se debe a espontáneas inversiones de rotación de sus electrones como consecuencia de
la absorción de energía.

Uno de los logros de la radioastronomía consiste en la individualización de numerosas


especies de Moléculas interestelares. En una escala extragaláctica, la radioastronomía ha
hecho importantes confirmaciones de la teoría cosmológica del Universo en expansión
después de un Big Bang inicial, gracias al descubrimiento de radiofuentes lejanas que
muestran un fuerte Desplazamiento hacia el rojo y gracias al descubrimiento de la
Radiación de fondo.

También las radiofuentes están catalogadas con criterios análogos a los de los catálogos
estelares. Originariamente se solían indicar las fuentes que estaba dentro de una misma
constelación con una letra de alfabeto a partir de la A, respetando el orden de magnitud.
Por ejemplo, la radiofuente más potente de la constelación de Tauro, la famosa nebulosa
del Cangrejo, fue denominada Taurus A. Sin embargo, el número de radiofuentes se ha
incremento tanto en los últimos años, que esta simple catalogación se ha de mostrado
insuficiente.

¿Cómo medir las distancias?


Uno de los más grandes descubrimientos del siglo XX
en el campo de la física fue el de la expansión del
Universo. La cosmología y la cosmogonía se vieron
particularmente beneficiadas con el trabajo del
astrónomo estadounidense Edwin Hubble (1889-1953).

Mientras trabajaba en el observatorio del Monte


Wilson, California, Hubble logró descubrir una
relación entre la velocidad con que se desplazan las
galaxias en sentido radial y la distancia a que se
encuentran.

La velocidad radial de las galaxias se determina estudiando su espectro y viendo si él se


encuentra desplazado hacia el azul o hacia el rojo y en cuánto. En física este fenómeno
se llama efecto Doppler y consiste en que un observador que recibe luz de una fuente
que se acerca, verá las líneas de su espectro desplazadas hacia el azul. En cambio, si la
fuente luminosa se aleja de este, su espectro se verá corrido hacia el rojo.

Valiéndose de esta propiedad, Hubble estableció que el espectro de la mayoría de las


galaxias está desplazado hacia el rojo, y que la magnitud del desplazamiento es
proporcional a la distancia: las galaxias más lejanas tienen un espectro más corrido
hacia el rojo.

Toda la información anterior coincide con la teoría del Universo en expansión. El


espacio entre las galaxias se dilata, por lo que todas se alejan de todas. Incluso nuestra
galaxia, la Vía Láctea.

Para una mejor comprensión del problema es preciso remitirse a una imagen más
conocida. Supongamos, por ejemplo, que el radio de la Tierra comenzara a aumentar. Al
mismo tiempo, la superficie empezaría a crecer y todas las distancias aumentarían.

Todas las ciudades se alejarían de Madrid, cuanto más lejanas, más rápido. Pero también
todas las ciudades se alejarían de Barcelona, de Bilbao, de Sevilla o de Valencia. Todas
las distancias aumentarían, por lo cual, si nos situáramos en cualquier punto de la Tierra,
veríamos que todos los otros puntos se alejan de nosotros y que lo hacen a mayor
velocidad cuanto más alejados se encuentran. Como puntos dibujados sobre la
superficie de un globo que se hincha.

El que el Universo esté expandiéndose implica que en el pasado las distancias eran
menores. Al calcular el ritmo de expansión actual y proyectarlo al pasado, se llega a la
conclusión que hace 14 mil millones de años todo el Universo estaba concentrado en un
punto; todas las galaxias reunidas; toda la materia confinada a un pequeño volumen de
gran densidad y mucha temperatura.

Es preciso reiterar que este cálculo se hace suponiendo que el ritmo actual de expansión
es el mismo que existió en el pasado. Sin embargo, los astrónomos saben que esto no es
real, pues el viaje de las galaxias es paulatinamente frenado por la fuerza de gravedad
que ejerce la materia.

Primeras mediciones astronómicas


La primera medición científica de una distancia cósmica
fue realizada, hacia el año 240 a. de J. C. , por
Eratóstenes de Cirene - director de la Biblioteca de
Alejandría, por aquel entonces la institución científica
más avanzada del mundo -, quien apreció que el 21 de
junio, cuando el Sol, al mediodía, se hallaba exactamente
en su cénit en la ciudad de Siena (Egipto), no lo estaba
también, a la misma hora, en Alejandría, unos 750 km al
norte de Siena. Eratóstenes concluyó que la explicación
debía de residir en que la superficie de la Tierra, al ser
redonda, estaba siempre más lejos del Sol en unos
puntos que en otros.

Tomando por base la longitud de la sombra de Alejandría, al mediodía en el solsticio, la


ya avanzada Geometría pudo responder a la pregunta relativa a la magnitud en que la
superficie de la Tierra se curvaba en el trayecto de los 750 km entre Siena y Alejandría.
A partir de este valor pudo calcularse la circunferencia y el diámetro de la Tierra,
suponiendo que ésta tenía una forma esférica, hecho que los astrónomos griegos de
entonces aceptaban sin vacilación.

Eratóstenes hizo los correspondientes cálculos (en unidades griegas) y, por lo que
podemos juzgar, sus cifras fueron, aproximadamente, de 12.000 km para el diámetro y
unos 40.000 para la circunferencia de la Tierra. Así, pues, aunque quizá por casualidad,
el cálculo fue bastante correcto. Por desgracia, no prevaleció este valor para el tamaño
de la Tierra. Aproximadamente 100 años a. de J. C, otro astrónomo griego, Posidonio de
Apamea, repitió la experiencia de Eratóstenes, llegando a la muy distinta conclusión de
que la Tierra tenía una circunferencia aproximada de 29.000 km.

Este valor más pequeño fue el que aceptó Ptolomeo y, por tanto, el que se consideró
válido durante los tiempos medievales. Colón aceptó también esta cifra y, así, creyó que
un viaje de 3.000 millas hacia Occidente lo conduciría al Asia. Si hubiera conocido el
tamaño real de la tierra, tal vez no se habría aventurado. Finalmente, en 1521-1523, la
flota de Magallanes - o, mejor dicho, el único barco que quedaba de ella - circunnavegó
por primera vez la Tierra, lo cual permitió restablecer el valor correcto, calculado por
Eratóstenes.

Basándose en el diámetro de la Tierra, Hiparco de Nicea, aproximadamente 150 años a.


de J. C. , calculó la distancia Tierra-Luna. Utilizó el método que había sido sugerido un
siglo antes por Aristarco de Samos, el más osado de los astrónomos griegos, los cuales
habían supuesto ya que los eclipses lunares eran debidos a que la Tierra se interponía
entre el Sol y la Luna. Aristarco descubrió que la curva de la sombra de la Tierra al
cruzar por delante de la Luna indicaba los tamaños relativos de la Tierra y la Luna. A
partir de esto, los métodos geométricos ofrecían una forma para calcular la distancia a
que se hallaba la Luna, en función del diámetro de la Tierra. Hiparco, repitiendo este
trabajo, calculó que la distancia de la Luna a la Tierra era 30 veces el diámetro de la
Tierra, esto significaba que la Luna debía de hallarse a unos 348. 000 km de la Tierra.
Como vemos, este cálculo es también bastante correcto.

Pero hallar la distancia que nos separa de la Luna fue todo cuanto pudo conseguir la
Astronomía griega para resolver el problema de las dimensiones del Universo, por lo
menos correctamente. Aristarco realizó también un heroico intento por determinar la
distancia Tierra-Sol. El método geométrico que usó era absolutamente correcto en
teoría, pero implicaba la medida de diferencias tan pequeñas en los ángulos que, sin el
uso de los instrumentos modernos, resultó ineficaz para proporcionar un valor
aceptable. Según esta medición, el Sol se hallaba unas 20 veces más alejado de nosotros
que la Luna (cuando, en realidad, lo está unas 400 veces más).

En lo tocante al tamaño del Sol, Aristarco dedujo - aunque sus cifras fueron también
erróneas - que dicho tamaño debía de ser, por lo menos, unas 7 veces mayor que el de la
Tierra, señalando a continuación que era ilógico suponer que el Sol, de tan grandes
dimensiones, girase en torno a nuestra pequeña Tierra, por lo cual decidió, al fin, que
nuestro planeta giraba en torno al Sol.

Por desgracia nadie aceptó sus ideas. Posteriores astrónomos, empezando por Hiparco y
acabando por Claudio Ptolomeo, emitieron toda clase de hipótesis acerca de los
movimientos celestes, basándose siempre en la noción de una Tierra inmóvil en el
centro del Universo, con la Luna a 384. 000 km de distancia y otros cuerpos situados
más allá de ésta, a una distancia indeterminada. Este esquema se mantuvo hasta 1543,
año en que Nicolás Copérnico publicó su libro, el cual volvió a dar vigencia al punto de
vista de Aristarco y destronó para siempre a la Tierra de su posición como centro del
Universo.

Artículos sobre astronáutica


La ley de la gravitación universal, enunciada por Isaac
Newton, dice que cualquier partícula de materia atrae a
cada una de las demás con una fuerza directamente
proporcional al producto de sus masas respectivas e
inversamente al cuadrado de la distancia que las separa.

Como los astros están en movimiento constante, la


fuerza centrífuga provocada por ese movimiento
contrarresta en parte la atracción gravitacional,
creándose una complejísima maraña de interacciones
entre unos cuerpos y otros.

La gravedad que nos interesa en este caso, la de la Tierra, es muy poderosa. Nos
mantiene sobre su superficie y da forma a todo nuestro mundo. A nivel intuitivo
sabemos que todo cuerpo dejado en libertad en el aire caerá en dirección al centro de
gravedad de la Tierra con una aceleración, es decir, su movimiento será cada vez más
rápido según pasa el tiempo.

Vencer esta fuerza fue el primer reto de la astronáutica. Pero no el único. Las
condiciones que debían soportar tanto los materiales utilizados como los eventuales
seres vivos son extremas. Aún así, desde mediados del siglo XX se han dedicado
muchos esfuerzos para conseguir viajar por el espacio, más allá de la atmósfera
terrestre.

El oficio de astronauta
¿Cómo se llega a astronauta? ¿Qué requisitos es preciso
tener para ser elegido como protagonista de una misión
orbital o, incluso, planetaria? Era difícil responder a
estas interrogantes cuando la NASA, en el ahora ya
lejano 1959, invitó al ejército americano a
proporcionarle los primeros candidatos a astronautas.
Faltaba experiencia, faltaban precedentes: los únicos
astronautas eran los descritos en los libros de ciencia
ficción o en las tiras de Flash Gordon y Buck Rogers.

En la difícil búsqueda de los hombres adecuados para ser


los primeros en ir al espacio, la NASA tuvo presente
algunas características indispensables para garantizar su aptitud espacial: un título
técnico, una larga experiencia como piloto de aviones militares y una estatura no muy
alta que le permitiera entrar en la pequeña cabina de la cápsula Mercury. Se calificaron
más de 500 hombres, que fueron sometidos a pruebas técnicas y psicológicas por un
personal médico especializado. Finalmente, muchos candidatos fueron eliminados y
otros decidieron no continuar.

Los que sobrevivieron fueron siete: M. Scott Carpenter, Gordon Cooper, Virgil Grissom,
Donald Slayton, John Glenn, Walter Schirra, Alan Shepard. Cada uno de ellos voló en
una cápsula Mercury, con la excepción de Slayton que permaneció en tierra a causa de
no ser satisfactorias sus condiciones cardiacas. Sin embargo, Slayton se reincorporó en
1975, participando en la misión Apolo-Soyuz.

A esta primera hornada de astronautas, naturalmente, siguieron otras que la NASA ha


seleccionado en los años siguientes para los programas Géminis , Apolo y Shuttle.
Sustancialmente, los requisitos exigidos a los primeros astronautas no han cambiado
hasta el día de hoy, aunque para el Space Shuttle en particular se ha bajado la edad a
treinta y cinco años. No es esencial pertenecer al ejército, la altura no debe ser
taxativamente baja y, novedad, las mujeres han podido formar parte de la selección de
los candidatos a las misiones orbitales.

Sin embargo, el programa de adiestramiento sigue siendo tan duro y agotador como en
los primeros tiempos. Sustancialmente, cuando se es elegido para ser astronauta es
como volver a los bancos de la escuela: a pesar del título ya adquirido, los candidatos
deben estudiar nuevamente matemáticas, meteorología, astronomía, física, adquirir
familiaridad con las computadoras y estudiar navegación espacial.

Sin embargo, el entrenamiento físico representa el obstáculo más duro. Para habituar
ante todo a los astronautas a la ausencia de gravedad que encontrarán en el espacio, se
comienza a entrenarlos a bordo de un avión, un C-135 adecuadamente modificado en su
interior, donde se recrea artificialmente la ausencia de gravedad por períodos superiores
a medio minuto. Durante los momentos de gravedad cero, los astronautas deben
practicar diversos tipos de actividad, manipular aparatos, comer y beber. Y no es nada
fácil entrenarse a comer y beber en ausencia de gravedad.

En los tiempos de John Glenn se obviaba con un tubo similar al de la pasta de dientes,
en el cual estaban contenidos los alimentos precisamente en pasta. En cambio, a bordo
del Shuttle, la tecnología espacial permite el milagro de una verdadera comida
liofilizada rehidratada en el momento del consumo.

El entrenamiento de los astronautas, obviamente es mucho más complejo de lo hasta


aquí descrito: para ejercicios más largos en condiciones simuladas de ausencia de peso
se utiliza una piscina especial, donde los astronautas pueden entrenarse incluso con el
modelo de la lanzadera espacial. No faltan después las cotidianas manipulaciones en los
simuladores de vuelo y cursos de especialización con ordenadores. Y es que la
informática ha tomado un protagonismo importante, como en muchos otros aspectos de
nuestra vida.

Saturno y las sondas Voyager


Saturno, el sexto planeta del Sol, está en órbita a una
distancia de 1.430 millones de kilometros y es el
segundo en tamaño de nuestro sistema solar. Muchos
misterios relativos al señor de los anillos han sido
desvelados gracias a las sondas espaciales Voyager 1 y
2, que han convertido en obsoletos hasta algunos datos
enviados en 1979 por la sonda Pioneer 11.

Saturno, como su gigantesco vecino Júpiter, posee,


con toda probabilidad, un núcleo rocoso e
incandescente. Sin embargo esto no significa que sea un planeta caliente: el corazón
candente de Saturno está rodeado por una densa cubierta de hidrógeno sólido, alrededor
del cual hay una capa de gas líquido y hielo que provocan, en la nubosa atmósfera que
envuelve su superficie, temperaturas muy bajas.

En cuanto a su atmósfera, un mortífero combinado de hidrógeno, helio, amoníaco y


metano, puede decirse que es menos turbulenta que la de Júpiter, pero no por esto
completamente tranquila. La notable velocidad de rotación de Saturno alrededor de su
eje (el día saturniano sólo dura diez horas y catorce minutos) hace que esté recorrida por
cinturones de gases multicolores, cuyo único valor es el de convertir al planeta en
variopinto a los ojos de los astrónomos.
No obstante, lo que más ha fascinado y llamado la atención de los estudiosos por más de
trescientos años, son los famosos anillos. A medida que eran descubiertos, los anillos
han sido bautizados con las primeras letras del alfabeto por lo que no indican, en la
sucesión, su posición real con respecto al planeta. Su secuencia, partiendo del planeta y
yendo hacia afuera es, en efecto: D, C, B, A, F y E. La sonda Voyager 1, durante su
cercano encuentro con Saturno, envió espléndidas imágenes de los anillos, poniendo en
evidencia que, en realidad, otros centenares de pequeños anillos estaban comprendidos
entre los viejos anillos A, B y C, invalidando así la teoria que consideraba a estos tres
anillos como un único disco de materia.

El Voyager 1 ha revelado, además, que el anillo F, descubierto en 1979 por el Pioneer


11, está a su vez fraccionado en tres partes, recorridas por pequeños anillos, y ha
confirmado la existencia del anillo D al que ha fotografiado durante su paso a través de
la sombra de Saturno. También el tenue anillo E, visible desde la Tierra cada quince
años, cuando Saturno está en una determinada posición con respecto a nuestro planeta,
ha sido observado por el Voyager 1.

En lo que respecta a la composición de los anillos, con un ancho total de 65.000 km. y
con un grosor de sólo algunos km. , se piensa que están formados por bolas de nieve
heladas o por rocas recubiertas de hielo, cuyas dimensiones varían desde algunas micras
a un metro de diámetro.

Pero los descubrimientos del Voyager 1 no terminaron aquí. También en lo relativo a los
satélites de Saturno la sonda de la NASA nos ha enviado excepcionales informaciones.
Hasta el día de su encuentro con Saturno se sabía que el planeta de los anillos tenía una
decena de lunas, de las cuales la más próxima era Jano, la más distante Febo y la más
interesante, por las dimensiones y atmósfera, Titán.

En sólo doce horas de observación del Voyager, los satélites de Saturno se han
convertido en 15. La sonda había fotografiado, efectivamente 6 pequeñas lunas, algunas
de las cuales eran observadas por primera vez. Dos de ellas, los satélites número 10 y
11, están situados en la misma órbita a 91.000 km. de Saturno. En cambio, poco se sabe
todavía de los satélites número 12, 13, 14 y 15, excepción hecha de la trayectoria de sus
órbitas.

Las sondas gemelas Voyager 1 y 2, fueron hechas en tiempo útil para aprovechar la
"ventana de lanzamiento" de 1977. En aquel año, gracias a la alineación de los planetas
externos, fue posible aprovechar su fuerza de gravedad para enviar sondas espaciales en
misión a Júpiter, Saturno, Urano y Neptuno. El campo gravitatorio de un planeta habría
impulsado a la sonda hacia el planeta sucesivo, supliendo así la necesidad de una gran
reserva de combustible, indispensable para llevar a cabo un viaje tan largo.

Completamente automáticas, las sondas Voyager debían estar en contacto con tierra a
través de monitores, pero también debían ser notablemente autónomas y tener la
capacidad de modificar por sí mismas si fuera necesario, su propia ruta. Cada sonda
funciona con 400 vatios de energía eléctrica proporcionada por generadores nucleares,
mientras la transmisión de los datos a través de los millones de km. que separan a los
Voyager de la Tierra, está asegurada por un transmisor de sólo 25 vatios, la potencia de
una pequeña bombilla familiar.
Un dato anecdótico: el encuentro del Voyager 1 con Saturno comenzó el 22 de agosto de
1980 y se concluyó el 12 de noviembre del mismo año, cuando la fuerza gravitatoria de
Saturno modificó la trayectoria de la sonda impulsándola fuera del plano elíptico. El
Voyager 1, que también ha explorado los satélites internos de Saturno (Mimas,
Encéladus, Tetis, Dione, Rhea), mostrando que casi todos tienen una superficie similar a
la de nuestra Luna, entró en una trayectoria hacia fuera de nuestro sistema solar. En
cambio, el Voyager 2, siguió su trayectoria para un encuentro con Urano.

Cohetes Rusos y Americanos


Los desarrollos tecnológicos, conjuntamente a
consideraciones políticas interesadas, influyeron
inmediatamente después de la Segunda Guerra Mundial
en la evolución de los cohetes. Los últimos meses de
guerra, por otra parte, habían demostrado el evidente
potencial destructivo de los misiles.

Cuando las tropas soviéticas y americanas entraron en


Berlín, todos los ingenieros misilísticos de Peenemunde
terminaron por ser raptados, en parte por los americanos
y en parte por los rusos. En sus nuevas patrias los
ingenieros alemanes construirían más tarde una
generación de nuevas armas que convertirían a los EEUU
y a la URSS en superpotencias.

Los soviéticos, temerosos de la potencia americana en los convencionales bombarderos


de amplio radio de acción, se dedicaron de inmediato a un programa que, a través del
desarrollo de los cohetes a combustible líquido, llevaría a la creación del primer misil
balístico intercontinental. Bajo la guía de los ingenieros alemanes, los rusos lanzaron su
primer V2 en octubre de 1947 y más tarde, en 1949, lograron realizar un misil más
avanzado que llamaron T1.

Cinco años más tarde, en 1954, los rusos construirán ya vehículos de varias secciones,
los primeros de una generación de misiles de largo alcance, capaces de llevar sus
cabezas atómicas a las bases enemigas a miles de quilómetros de distancia.

También los expertos americanos utilizaron la V2 como punto de partida para


desarrollar una nueva tecnología militar. Baste recordar que entre 1946 y 1951 unos
sesenta y seis V2 fueron lanzados de la base de White Sands en New Mexico.

A diferencia de los rusos, los americanos, confiando en la potencia de sus bombarderos


de gran autonomía, al principio no construyeron grandes misiles y prefirieron concentrar
sus esfuerzos en el diseño de pequeños cohetes tácticos. Sin embargo, en 1947, también
los americanos se dedicaron al estudio de misiles balísticos intercontinentales para estar
preparados, en caso necesario, a combatir a los soviéticos.

Surgieron tres proyectos diferentes. El primero fue llamado "Teetotaler" porque no se


utiliza alcohol en el carburante; el segundo fue bautizado "Old Fashioned" (viejo estilo)
porque se basaba en la vieja V 2; el tercero se denominó Manhattam porque el cohete
transportaría una bomba atómica, la criatura del llamado proyecto Manhattan.

Aparecieron así una serie de cohetes. El primero, simple reelaboración de una V 2, fue
llamado Bumper: se había logrado acoplando la primera sección de una V 2 con la
segunda sección de un misil Wac Corporal. El vehículo presentó de inmediato muchos
problemas y pronto fue abandonado.

Después del programa Bumper el ejército americano construyó el primer misil


operativo. El grupo de trabajo estaba dirigido por el ingeniero alemán Werner von
Braun, que más tarde se convertiría en ciudadano americano. Los estudios para el nuevo
cohete se basaron en la vieja V 2 y el misil fue bautizado ~Redstone~. El primer
lanzamiento se realizó con éxito en 1953.

Pero los americanos advirtieron su error en el desarrollo de misiles militares. Para


superarlo, nace el programa Atlas. Comparado con el Redstone, el nuevo cohete era un
gigante. Había comenzado así la era de los grandes cohetes americanos que tendría un
posterior e importante desarrollo a finales de 1955, cuando comenzaron los trabajos
sobre dos misiles de alcance intermedio: el Thor y el Júpiter.

El proyecto Mercury en órbita


EI 12 de abril de 1961 los soviéticos lanzaron el primer
hombre al espacio. La respuesta americana se produce
menos de cuatro semanas más tarde con el primer vuelo
del proyecto "Mercury", el programa iniciado con el fin
de paliar la ventaja adquirida por los soviéticos en el
vuelo espacial humano.

El 5 de mayo de 1961 el comandante Alan B. Shepard,


un oficial de la Marina, se convierte en el primer
astronauta americano propiamente dicho. Aunque
Shepard no estuvo en órbita alrededor de la Tierra,
alcanzó con su cápsula la altura de 186 km., una cota
más que suficiente para ganarse el "título" de astronauta
que, según una valoración de la NASA, corresponde a
quien haya superado la altura de 80 km.

Con su "Mercury 3", rebautizada "Freedom 7" y colocada en la cima de un misil


Redstone modificado para este propósito, Shepard permaneció en vuelo 15 mintuos y 22
segundos antes de amerizar en el Atlántico: un tiempo relativamente corto, pero
suficiente para demostrar que el hombre podía controlar manualmente una astronave en
condiciones de ausencia de peso.

El vuelo suborbital de Shepard fue repetido el 21 de julio de 1961 por su colega Virgil
Grissom, un mayor de la aviación que con la cápsula "Liberty Bell 7" alcanzó la altura
de 190 km.
Para llegar al primer vuelo orbital del proyecto Mercury fue preciso esperar hasta el año
siguiente cuando, el 20 de febrero de 1962, los EE.UU. pusieron su primer astronauta en
órbita. La astronave era la "Mercury 6", colocada sobre un misil Atlas, adecuadamente
modificado.

El primer americano en volar en órbita fue el teniente coronel de los Marines, John
Glenn. Glenn, con la cápsula "Friendship 7", permaneció en órbita cuatro horas
cincuenta y cinco minituos, completando 3 órbitas alrededor de la Tierra antes de
descender sin problemas y alcanzar el objetivo de la misión: poner a prueba las
bondades de la cápsula "Mercury", como astronave orbital.

Como había sucedido con Shepard, el vuelo orbital de Glenn es repetido el 24 de mayo
de 1962 por su colega Scott Carpenter, que con la cápsula "Aurora 7" realizó una misión
prácticamente idéntica.

El 11 de agosto de 1962 los soviéticos volvieron al espacio con la "Vostok 3" pilotada
por el mayor Andrian Nikolaev, quien al día siguiente fue alcanzado en órbita por el
coronel Pavel Popovic a bordo de la "Vostok 4". Las dos astronaves pasaron a una
distancia de 6 km. una de otra. El "rendez-vous" no fue posible porque las "Vostok"
(como por otra parte también las "Mercury") no tenía motores a cohete y el sistema de
control necesario para la reunión orbital. Sin embargo la empresa de los soviéticos tuvo
pleno éxito: Nikolaev realizó 64 órbitas y Popovic 48, lo que, naturalmente, impulsó a
los americanos a proseguir con gran ímpetu el programa "Mercury".

El 3 de octubre de 1962, el comandante de la Marina, Walter M. Schirra fue puesto en


órbita con la "Mercury-Atlas 8". Su misión tenía la finalidad de demostrar que el
hombre y la cápsula "Mercury" podía trabajar juntos por un período más largo que el
totalizado en las empresas precedentes. Schirra lo logró permaneciendo en el espacio 9
horas y 13 minutos, y realizando 6 vueltas alrededor de la Tierra. Bien poco en
comparación a las 64 órbitas de Nikolaev, una diferencia en parte cubierta con la última
misión del proyecto, la "Mercury 9" cuando, el 15 de mayo de 1963, el mayor Gordon
Cooper realizó 22 órbitas permaneciendo en el espacio treinta y cuatro horas y veinte
minutos.

La batalla por la supremacía en el espacio apenas había comenzado y sólo seis años
después, con el primer descenso americano en la Luna, puede decirse que concluyó a
favor de los EE.UU. Al menos, de momento ...

Primeras mujeres astronautas


El 16 de junio de 1963 es una fecha histórica para
la astronáutica y la humanidad: Valentina
Tereshkova, de 26 años, ciudadana soviética, se
convierte en la primera mujer cosmonauta del
mundo. A poco más de dos años de otro histórico
vuelo, el de Juri Gagarin que en la mañana del 12
de abril de 1961 abrió al hombre el camino del
espacio, los rusos se apuntan otro triunfo en la carrera espacial.

Y este de la Tereshkova es también un record destinado a durar en el tiempo, mucho


más que el de su colega Gagarin. Será preciso esperar unos veinte años para que otra
mujer vuelva al espacio. Es otra soviética, Svetlana Savitskaja, en agosto de 1982, quien
repitió la experiencia de Tereshkova.

Sin embargo, como tiempos y medios han cambiado (los rusos han inaugurado a partir
de 1971 el sistema del llamado "tren espacial" y en muchas misiones envían al espacio
tripulaciones de tres o más cosmonautas para ocupar las estaciones espaciales), Svetlana
Savitskaya en su "Soyuz T-7" no viaja sola como Valentina Tereshkova en la "Vostok 6".
junto a ella están el comandante Leonid Popov y el ingeniero de a bordo Alecsandr
Serebrov.

Esta presencia masculina hizo correr rios de tinta en los periódicos de todo el mundo.
Inmediatamente después del vuelo espacial del terceto ruso, se corrió la voz de que
Svetlana, en nombre de la ciencia, habría sido protagonista del primer amor espacial.
Los rusos desmintieron repetidas veces un hecho semejante, aunque en realidad con
poca convicción.

Por otra parte, de las dos primeras cosmonautas de la histora sabemos bien poco. De
Tereshkova se sabe que proviene de una familia modesta, que sedivorció del
cosmonauta Adrian Nikolaev, que tiene una hija y que después del histórico vuelo se
convirtió en una especie de mito en Rusia. Esto es así hasta el punto que, abandonada la
actividad espacial, se dedicó a la política con gran éxito, entrando incluso a formar parte
del presidium del Soviet Supremo.

Svetlana Savitskaya era, en cambio, "hija de especialistas". Su padre fue el mariscal del
aire Evgeni Savitskja, dos veces héroe de la Unión Soviética por los méritos
acumulados durante la segunda guerra mundial; y como "de tal padre tal astilla",
Svetlana desde niña jugaba con aviones en lugar de hacerlo con muñecas. Su gran
pasión era el paracaidismo, hasta el punto que a los 17 años había ya conquistado tres
records mundiales con más de 500 lanzamientos en su haber.
A diferencia de las cosmonautas rusas, de Sally Ride, la primera americana que a bordo
de la lanzadera "Challenger" voló en el espacio en junio de 1983, se sabe todo o casi
todo. Sally Ride nació en Encino, un suburbio algo burgués de Los Angeles Simpática,
de ojos azules y cabello oscuro, 1,63 metros de estatura y 52 kg. de peso. Parecía una
niña que llegó por equivocación al aséptico mundo del organismo espacial americano.
Pero esto es sólo en apariencia. En realidad, Sally siempre deseó ser astronauta: "Desde
que tenía 12 ó 13 años y era la época de las naves Mercury y Géminis" dice. "Y así
cuando leí en un periódico de la Universidad (Sally Ride se licenció en Stanford con
una tesis en astrofísica) que la NASA buscaba candidatos astronautas para el "shuttle",
abandoné todo y corrí a presentarme".

Junto con ella se presentaron, como puede verse en los archivos de la NASA, 8.079
candidatos, de los cuales 1.544 eran mujeres. "Todos", continúa Sally, "me decían que
estaba loca y me preguntaban cuáles podían ser mis posibilidades. Sin embargo yo
estaba firmemente decidida a lograr mis propósitos".
Planeadores propulsados por cohetes
La idea de un planeador impulsado por cohetes es tan
antigua como las primeras máquinas voladoras. Los
intentos de construir algo similar, incluso con otros fines,
se remontan a los años 1920, cuando la moda de los
cohetes invadió Europa.

En 1928 Friedrich Stamer logró volar a lo largo de un


kilometro en un pequeño planeador impulsado por dos
minúsculos cohetes. Un año después Fritz von Opel, el
magnate de los coches, voló en un planeador casi igual
un kilómetro y medio en las cercanías de Frankfurt. El
planeador, impulsado por 16 cohetes a combustible
sólido, alcanzó la velocidad de 153 km. horarios y logró permanecer en el aire durante
75 segundos.

A mediados de los años 1930 Werner von Braun, un joven científico alemán destinado a
convertirse en uno de los padres de la astronáutica, estudiaba la posibilidad de realizar
un planeador con propulsión por cohetes. Los estudios estaban sobre todo dirigidos al
desarrollo del motor-cohete para realizar misiles balisticos.

Dos fueron los planeadores que se experimentaron: el Heinkel 176, el primer aeroplano
impulsado por cohetes, y la famosa V2. Pero el grupo de científicos que trabajaba con
von Braun fue más allá: proyectó un cohete de dos secciones capaz de atravesar el
Atlántico. La primera sección fue llamada "A10", la segunda, "A9" y estaba provista de
alas. La A9 había sido ideada para llegar a Nueva York llevando en su bodega una
mortífera carga de una tonelada de explosivo de alta potencia.

Aunque este cohete transatlántico nunca llegó a ser realidad, el proyecto fue, en la
práctica, un primer intento para realizar una aeronave impulsada por cohetes.

Un desarrollo más ambicioso y sofisticado de esta idea fue propuesto en los años 1940
por el ingeniero vienés Eugen Sanger, que proyectó otro bombardero planeador
impulsado por cohetes. La aeronave habría debido alcanzar una altura de 161 km. a una
velocidad de 6 km/seg., y habría entrado en la atmósfera bajando como un planeador.
Gracias al cálculo de un determinado ángulo de planeo, habría logrado recorrer algo así
como 15.000 km.

Este estudio, nunca llevado a la práctica, sirvió de inspiración al proyecto de la Air


Force denominado "Dyna Soar", más adelante rebautizado "X-20". Se trataba de un
planeador con una longitud de 10 m., con pequeñas alas delta y dos alerones gemelos
verticales en los extremos de las alas. Puesto en órbita por un transportador "Titan lll",
el "X-20" debía volver a entrar en la atmósfera y planear horizontalmente.

A comienzos de los años 60, el proyecto "Dyna Soar" fue abandonado porque la NASA
llevó adelante el programa espacial con hombres a bordo. De todos modos la aeronave
supersónica "X-20" quedó como el prototipo para los sucesivos experimentos y, en la
práctica, es el punto de partida de la idea que llevará a la realización del Space Shuttle y
los sucesivos transbordadores espaciales.

Los proyectos preliminares de la lanzadera espacial también sufrieron la influencia de


otra vieja propuesta: el avión de pasajeros intercontinental ideado por Aalter Dornberger
y Kraft Ehricke. Se trataba de un planeador formado por dos aeroplanos con alas delta.
La primera sección, más grande, era impulsada por 5 cohetes; la segunda, que debía
albergar a los pasajeros, por 3 cohetes; 130 segundos después del lanzamiento, las
secciones se separarían: el cohete auxiliar volvería a tierra, mientras la segunda sección
continuaría el viaje a una velocidad de 13.500 km/h. y a una altura de 44 km., para
después empezar a planear.

En el transbordador espacial, después de haber despegado como un cohete, la nave se


separaba del transportador para seguir su viaje orbitar alrededor de la tierra y retornar
planeando sin utilizar motores.

Los tests sobre el prototipo del Shuttle Orbiter Enterprise (la lanzadera fue llamada así
en homenaje a los millones de fans de la serie televisiva de ciencia-ficción Star Trek)
comenzaron en febrero de 1977 en el Dryden Flight Research Center de la NASA, en la
base de Edwards, California. El Enterprise fue colocado en el dorso de un Boeing 747,
especialmente modificado para realizar una serie de ensayos de vuelo, primero sin
tripulación y después con hombres a bordo.

El primer ensayo de vuelo libre con tripulación fue realizado el 12 de agosto de 1977,
cuando los astronautas Fred W. Haise y C. Gordon Fullerton, abandonaron el avión-
madre, planearon y aterrizaron sin problemas después de un vuelo iniciado a unos 7.000
metros de altura.

Primer viaje del Columbia


Cuando en octubre de 1977 los astronautas Haise y
Fullerton dieron por terminadas la serie de pruebas de
vuelo planeando y el Enterprise fue retirado, los
científicos de la NASA pensaron que la primera misión
orbital del shuttle Columbia podría realizarse en marzo
de 1978.

Como estaba programado, a esta seguirian otras


misiones orbitales de prueba, necesarias para poner a
punto el Columbia hasta el más minimo detalle antes de
llegar a la quinta misión, la primera con objetivos
operativos. Pero surgieron no pocos problemas técnicos
en los motores y en el escudo térmico que hicieron
aplazar unos tres años la fecha del primer lanzamiento que, finalmente, fue fijada para el
10 de abril de 1981.

El mando del Columbia había sido confiado a John W. Young, de 50 años, astronauta de
San Francisco, auténtico veterano del espacio, después de haber participado en dos
misiones Géminis y dos Apolo. Ypung iría acompañado por el piloto Robert C. Crippen,
de 43 años, de Texas, un novato del espacio.

Todo estaba preparado para la partida del Columbia. La cuenta atrás había comenzado
en el Kennedy Space Center, donde habían acudido decenas de miles de espectadores
para asistir al histórico despegue. Aproximadamente 20 minutos antes de la hora cero,
los cuatro ordenadores primarios indicaron la presencia de un desperfecto. La cuenta
atrás se detuvo y, aunque el problema fue rápidamente diagnosticado y solucionado, se
tuvo que posponer la partida dos días.

Finalmente, el 12 de abril de 1981, algunos segundos después de las siete de la mañana


locales, el Columbia se alzaba entre dos enormes lenguas de fuego y dejaba la rampa
para iniciar su primer viaje orbital. La tierra tembló a su alrededor, sacudida por la
potencia de los cohetes, que proporcionaban 3.400.000 kg. de empuje, y el ruido de este
auténtico proyectil pudo oírse a muchos kilómetros de distancia.

La separación de los dos cohetes booster se produjo con perfecta regularidad y también
el gran depósito exterior se separó de la lanzadera después de que el Columbia se
hubiera colocado en la órbita circular preestablecida de 241 km.

Durante esta primera misión, el Columbia viajó prácticamente vacío. En su amplia


bodega no había ninguna carga especial, sin tener en cuenta los instrumentos para medir
los sistemas de protección del vehiculo por las altas temperaturas.

Una vez en órbita, Young y Crippen debieron experimentar por dos veces la
maniobrabilidad de las puertas de la bodega y fue precisamente al realizar esta simple
operación cuando los astronautas se dieron cuenta de una avería: algunas de las placas
de protección térmica que recubren gran parte del Shuttle se habían caído.

Young y Crippen indicaron a Tierra el desperfecto y los técnicos de la NASA


examinaron inmediatamente el caso. Después de precisos cálculos, establecieron que,
afortunadamente, las láminas que faltaban no estaban colocadas en lugares críticos y
que la avería no comprometería la vuelta del Columbia, cuando todo el fuselaje y las
alas del shuttle se pusieran candentes a causa del rozamiento con la atmósfera. Estas
previsiones se revelaron exactas cuando Young y Crippen comenzaron la maniobra de
retorno.

El aterrizaje para esta primera misión debía efectuarse manualmente por los pilotos,
pero esto no perjudicó el resultado: a las 10 de la mañana, hora local, el Columbia
descendió con sorprendente precisión en la pista 23 del lago salado Rogers de la base
Edwards, en California.

Primer vuelo del Shuttle


El programa de la lanzadera espacial Shuttle preveía que
los primeros cuatro vuelos del Columbia en el espacio
servirían exclusivamente para ensayar la lanzadera y
comprobar su eficiencia y funcionalidad. Y así fue.
Después del bautismo en el espacio del Columbia 1, del 1 al 12 de abril de 1981, le tocó
el turno al Columbia 2 (Joe Engle y Richard Truly; del 12 al 14 de noviembre de 1981)
luego al Columbia 3 (entre el 22 y el 30 de marzo de 1982, con Jack Lousma y Gordon
Fullerton) y finalmente al Columbia 4, (Thomas Mattingly y Sherry Harsfield) con el
cual, en junio de 1982, se concluyeron los vuelos de prueba.

Ahora el Shuttle estaba preparado para la primera misión operativa: el Columbia 5. A


las 7,19 horas local, de la mañana del 11 de noviembre de 1982, el Shuttle partía hacia
su quinto viaje en el espacio, el primero en el cual se conviertiría en esa especie de
autobús espacial que los proyectistas habían concebido desde el comienzo.

La nave llevaba en su amplia bodega una carga importante: dos satélites de compañías
privadas de telecomunicaciones, la Satellite Business y System Inc. y la Telesat Canadá,
que la lanzadera pondría en órbita con un simple sistema de muelles.

El quinto vuelo llevaba a bordo cuatro personas de las cuales dos erann pilotos, Vance
Brand, un veterano del espacio que participó en 1975 en el rendez-vous Apolo-Soyuz y
a quien se confió el mando, y Robert Overmyer, y dos especialistas, William Lenoir y
Joseph Allen, dos astronautas especializados en satélites de telecomunicaciones, capaces
de reparar eventuales desperfectos producidos en los satélites después del despegue.

Lenoir y Allen tenían entre sus funciones también una salida al espacio de alrededor de
dos horas, durante la cual estarían fuera de la lanzadera espacial, se ejercitarían en el
uso de diversos utensilios varios y pondrían a prueba un costosísimo nuevo tipo de traje
espacial.

El lanzamiento de los dos satélites se llevó a cabo normalmente: el SBS 3 sde puso en
órbita ocho horas después del lanzamiento y, pocas horas más tarde, el Anik 3
canadiense fue tirado desde la bodega del Columbia. Sin embargo, no se puede decir lo
mismo en lo relativo a la actividad extravehicular de los dos especialistas, que hasta ese
momento permanecieron inactivos porque los dos satélites, afortunadamente, no
requirieron su intervención.

Primero la salida espacial fue postergada porque Lenoir padecía el llamado "mal del
espacio" y existía el riesgo de comprometer el paseo. Al día siguiente, cuando el
astronauta se restableció, fueron los costosísimos trajes de la United Technologies los
que causaron problemas. En el traje de Allen no funcionaba un ventilador para la
circulación del aire, mientras en la de Lenoir había un defecto en el dispositivo de
presurización. La misión de salida debió ser, por tanto, definitivamente suspendida y se
dispuso todo para el regreso, que se llevó a cabo con un aterrizaje perfecto en la pista 22
de la base Edwards a las 6,34, hora local, del 16 de noviembre de 1982.

El Columbia 5 realizó un vuelo de 5 días, 2 horas y 17 minutos. El primer vuelo


comercial del Columbia, a pesar de las dificultades, se consideró un gran éxito. El
transporte de los satélites y su puesta en órbita se demostró factible y a un precio
bastante razonable.
Nace la Agencia Espacial Europea
En diciembre de 1960 algunos científicos europeos
decidieron formar una comisión para promover las
investigaciones espaciales en Europa. Este fue el
comienzo de la European Space Research Organization
(ESRO), un organismo cuyas actividades estarían
vinculadas al desarrollo de satélites.

Casi en el mismo período, algunos gobiernos europeos


quisieron iniciar actividades en el campo de la
construcción de transportadores para satélites. Esto dio
lugar al nacimiento de otra organización, la European
Space Vehicle Launcher Development Organization
(ELDO) que tenía la finalidad primordial de desarrollar
el proyecto del gran transportador Europa.
Las dos organizaciones se hicieron operativas a comienzos de 1964. La ELDO reunía a
los estados miembros de la Unión Europea Occidental y Australia, y otros paises
europeos como España y Dinamarca, mientras quedaban excluídos países neutrales
como Suiza y Suecia. La ESRO reagrupaba a todos los países de Europa occidental con
pocas e insignificantes excepciones.

Durante los primeros años de actividad (1966-68), la ESRO llevó adelante un programa
de inversiones para equipar laboratorios, centros de investigación, centros de control,
etc. Surgieron así dos grandes establecimientos técnicos. Por una parte, el ESTEC
(European Space Research and Technology Centre) en Noordwijk, Holanda, que sería el
responsable del estudio, desarrollo y control de los satélites y vehículos espaciales
construídos por la industria europea. Por otro lado, la ESOC (European Space
Operations Centre) en Darmstadt, Alemania, era responsable del control de las
operaciones de los satélites en órbita.

En el mismo período, con la ayuda de la comunidad cientifica europea, la ESRO


desarrolló sus primeros satélites científicos: el ESRO II (misión: rayos cósmicos y rayos
X solares), el ESRO I (ionosfera y auroras polares) y el HEOS A1 (viento solar y
espacio interplanetario), que fueron lanzados por transportadores americanos: el Scout y
el Thor-Delta.

A finales de 1968 la ESRO tenía 3 satélites en órbita y 22 experimentos en curso, que


sirvieron como test de calificación para la organización. Sin embargo habían existido
dificultades. Un corte del presupuesto obligó a la ESRO a cancelar las dos misiones más
grandes programadas (un gran observatorio astronómico orbital y una misión-cometa) y
el proyecto del satélite TD2.

El TD1, en cambio, se convierte en el primer proyecto espacial facultativo del ESRO y


consiste en un satélite para el estudio de los rayos ultravioletas. Una solución, la de la
participación facultativa en los proyectos por parte de los estados miembros, se
convertiría después en una de las bases de las cuales surgiría la ESA.

A finales de 1970 la ESRO llegó a una conclusión: proporcionar pruebas de la madurez


tecnológica cuidando más el aspecto práctico que el científico de la investigación. Esto
creó cierta confusión en la cooperación espacial en Europa: algunos estados miembros
del ESRO no quisieron financiar nuevos proyectos.

Se tuvo que recurrir al presidente del Consejo del ESRO, el profesor Puppi, quien
intentó una solución logrando un compromiso. Sus propuestas, después de una
minuciosa discusión, se reunieron en lo que se convirtió en el acuerdo global de 1971,
un paquete de propuestas que fue aceptado por unanimidad.

Esta práctica fue adoptada también en 1973, año en que el acuerdo global puso en
marcha tres nuevos proyectos: (el Spacelab, el Ariane, y el Marots (un satélite para las
comunicaciones marítimas). También este año se tomó una decisión fundamental para el
futuro de la colaboración espacial en Europa: la de crear una única Agencia Espacial
Europea (ESA).

Вам также может понравиться