Академический Документы
Профессиональный Документы
Культура Документы
#
Mensaje con motivo del bicentenario (2003) de la Universidad de Antioquia, durante el evento Simposio
Internacional: Hacia un Nuevo Contrato Social en Ciencia y Tecnología para un Desarrollo Equitativo. El evento infructuosamente
intentaba rescatar las recomendaciones de los Diez Sabios. Véase siguiente pie de página.
*
Ellos fueron, en orden alfabético: Eduardo Aldana, Fernando Chaparro, Gabriel García-Márquez, Manuel
Elkin Patarroyo, Rodrigo Gutiérrez, Rodolfo Llinás, Marco Palacios, Eduardo Posada, Ángela Restrepo y
Carlos Eduardo Vasco.
&
Las razones que tenemos para que esta sea apenas una primera parte se esbozan en Prolegómenos de
Quantum Sapiens… ¿Sapiens?, disponible también en versión electrónica
(www.corporacionbuinaima.org). Se recomienda a quienes abordan el tema por primera vez dar al menos
una rápida lectura a esa introducción. (Giraldo, 2018b.)
PRÓLOGO
Carlos Eduardo Vasco Uribe
CONTENIDO
EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Oscilaciones y ondas mecánicas
3. Electrodinámica
REFERENCIAS Y COMPLEMENTOS
INTRODUCCIÓN AL QUANTUM SAPIENS I
«The eternal mystery of the world is its comprehensibility», Albert Einstein (1936).
En Schrödinger life and thought (Vida y pensamiento de Schrödinger), Walter Moore reproduce
la famosa y apasionante discusión entre Erwin Schrödinger y Niels Bohr durante la visita del
primero al segundo en Copenhague en 1926. “You surely must understand, Bohr, that the whole
idea of quantum jumps necessarily leads to nonsense. …” Bohr: “Yes, in what you say, you are
completely right. But that doesn’t prove that there are no quantum jumps.” (Moore, 1989.) Vale
la pena reproducir la réplica completa de Schrödinger:
“Señor Bohr, seguramente debe usted entender que la idea de los saltos cuánticos
necesariamente lleva a un disparate. Se dice que el electrón en una órbita estacionaria de un
átomo da vueltas periódicamente en una suerte de órbita sin emitir radiación. No hay
explicación de por qué no debería radiar; de acuerdo con la teoría de Maxwell, tiene que radiar.
Luego el electrón salta a otra órbita y entonces sí emite radiación. ¿La transición es gradual o
súbita? Si ocurre gradualmente, entonces el electrón debe cambiar gradualmente su frecuencia
de rotación y su energía. No es comprensible cómo esto puede dar lugar a frecuencias agudas
(léase discretas o cuantizadas) para las líneas espectrales. Si la transición ocurre
repentinamente, por decirlo de alguna manera en un salto (la bastardilla es nuestra), entonces
desde luego que uno puede obtener de la formulación de Einstein de los cuantos de luz la
frecuencia de vibración correcta de la luz, pero entonces habrá que preguntarse cómo se mueve
el electrón en el salto. ¿Por qué no emite (el átomo) un espectro continuo, como lo requiere
(predice) la teoría electromagnética? ¿Y qué leyes determinan su movimiento en el salto? En fin,
la idea entera de los saltos cuánticos debe considerarse simplemente absurda.”
La respuesta de Bohr, el que sea absurda no prueba que no haya saltos cuánticos, rompe por
completo la posibilidad de acuerdo entre los dos puntos de vista. Habría que esperar a que
surgiera un hombre nuevo, un sapiens cuántico, para poder, no digamos entender, simplemente
aceptar lo que está pasando. Más que sabio (sapiens) el hombre ha sido práctico y ha sabido
sacar provecho del comportamiento cuántico. Por cerca de un siglo hemos estado bajo el influjo
de la primera revolución cuántica, algo así como la energía cuántica aunque ha sido mucho más
que eso; ahora estamos, lo estaremos cada vez más, inmersos en la segunda, la de la información
cuántica.
Cuando se publican estas notas (las designaremos por brevedad QS I) y las introductorias que le
preceden, Quantum Sapiens…¿sapiens? (QS 0), se cumple una década durante la cual el autor
ha estado ofreciendo un curso de libre elección sobre estos asuntos cuánticos, programado por
la Dirección Académica de la Sede Bogotá de la Universidad Nacional de Colombia y dirigido a
estudiantes de todos los programas académicos de la sede. El curso se ha denominado desde
entonces Cuántica para todos y para todo y goza de gran acogida. Solemos referirnos a él por
sus iniciales, CPTPT, aunque para insistir en la inclusión de género, no suficientemente tenida
en cuenta, agregaríamos otra PT (para todas). El CPTPTPT ha virado cada vez más a un curso de
humanidades desde la perspectiva cuántica. Para ayudar al desarrollo del curso se escribieron
inicialmente unas notas recopiladas en el texto Unos cuantos para todo. (Giraldo, 2009.) Con el
tiempo el formato ha cambiado. La idea central del curso y de las notas es darle una orientación
más humanística a lo que puede derivarse de la cuántica, de sus aplicaciones y sus implicaciones.
En ese orden de ideas, en 2013 se ofreció, por iniciativa nuestra, la cátedra de sede (cátedras
también a cargo de la Dirección Académica) José Celestino Mutis con el título: Cien años de
Saltos Cuánticos. El nombre escogido para la cátedra tuvo que ver con el hecho de que en marzo
de 1913 publicó Bohr un artículo (luego vinieron otros dos) en el que se mencionaba por primera
vez tan descabellado fenómeno, aparentemente producto de la imaginación, como lo sugiere
Schrödinger, pero en la práctica lo único que se puede extraer de la observación experimental.
La primera parte de esta discusión interminable sostenida entre Bohr, Schrödinger y Einstein
(véase el capítulo 6º) concluye en un primer round (Conferencia Solvay 1927) a favor de Bohr
con la famosa sentencia de Schrödinger: “Lamento haber tenido algo que ver con la teoría
cuántica.” Era en cierta medida una aceptación de la derrota en la que, se dice, el gran perdedor
fue Einstein. La frase que nos sirvió de entrada (“El más grande misterio del universo es que sea
comprensible”, suele ser la traducción libre) refleja la no aceptación de la derrota por parte del
gran ícono de la física de todos los tiempos. Recuérdese que fue pronunciada o escrita en 1936.
Los dilemas que se plantea Schrödinger, uno de los más importantes padres fundadores (no en
balde la ecuación más famosa de la teoría lleva su impronta), son los que afrontamos quienes
habíamos creído que el funcionamiento del universo es comprensible. Suponíamos que la
mecánica y la electrodinámica eran las teorías claves para entenderlo. Ahora resulta que no,
como se infiere de los disparatados saltos cuánticos. Ya la radiación no ocurre en la forma en
que lo anticipaba la más exitosa de las teorías a fines del siglo XIX, la electrodinámica clásica
(EDC). Tampoco los electrones se mueven siguiendo las leyes de la mecánica newtoniana, peor
aún, no siguen trayectorias definidas. Habrá que empezar aceptando ese hecho contundente.
Cuando se dio este diálogo entre los dos famosos personajes, se habían logrado poner en su
sitio las primeras piezas de tan complicado rompecabezas. El año anterior (1925) Heisenberg
primero y después él con Born y Jordan formularon la representación matricial de la mecánica
cuántica. Schrödinger elaboró la versión ondulatoria a comienzos de 1926. Si bien las piezas
encajaban en una y otra versión para entender lo que se estaba observando, no podía afirmarse
que se comprendiera lo que estaba pasando. La conferencia más famosa de la serie (todavía se
celebran, pero parece improbable, por no decir imposible, que alguna del futuro sea equiparable
a la de aquel año) no hizo sino reafirmar la creencia de Bohr en los malditos saltos cuánticos,
como podrían calificarse por parte de quienes se propongan comprenderlos. Una década
después (1935) Einstein aceptaría a regañadientes el famoso Principio de Incerteza, o de
incertidumbre como suele llamarse en español, o de Heisenberg, como indudablemente hay que
llamarlo: con el nombre del pionero de la clave del asunto. El artículo conocido como EPR
(recordatorio de sus tres autores, Albert Einstein y sus dos auxiliares, Boris Podolsky y Nathan
Rosen), publicado en 1935 dio lugar a una rápida y enérgica respuesta de Bohr en un artículo
publicado el mismo año, en la misma revista (Physical Review) y con el mismo título (Bohr, 1935).
Pero nadie convenció al padre de la teoría de relatividad, durante sus 20 años restantes de vida
(moriría en 1955, si no se acepta la versión de los universos paralelos, la más escabrosa de todas
para su gusto), de que la mecánica cuántica fuera una teoría completa. “Acciones
fantasmagóricas a distancia” fue su calificativo para lo que hoy es pan de cada día, el
entrelazamiento cuántico, un misterio mayúsculo.
No desgastaremos al lector en las divagaciones del autor de estas notas por cerca de medio siglo
sobre una posible interpretación aceptable de la teoría cuántica (QT por sus siglas en inglés, para
no confundirla con CT, Classical Theory o teoría clásica en su conjunto). Si aceptable es
equivalente a clásica, eso no es posible. La QT es una teoría no local. Sobre las implicaciones de
ese carácter, la no localidad, volveremos detalladamente en el sexto capítulo.
Einstein fue en gran medida el primer responsable de los saltos al hablar de corpúsculos de
energía del campo electromagnético, los hoy denominados fotones. Esto ocurrió en 1905 y él
mismo calificó la idea de revolucionaria. Cinco años atrás Planck había introducido la hipótesis
desesperada de la cuantización de energía de unos supuestos osciladores dentro de la materia.
Lo que se pretende con Quantum sapiens es acercar esos conceptos, sus aplicaciones presentes
y futuras (QS II) y, por qué no, sus implicaciones, incluso las que pueden repercutir en la
educación del futuro, a una audiencia más amplia. Esto es tanto más importante por cuanto las
nuevas tecnologías, no solamente las de la información y de la comunicación, en general las
llamadas tecnologías convergentes, dependen enormemente de la manipulación de la materia
a escala microscópica, vale decir, atómica, molecular y nanométrica. Con respecto a esta última,
el autor de estas notas ha escrito un breve texto divulgativo que incorpora algunas reflexiones
particulares: Nano…¿qué? Nano-(R)Evolución. (Giraldo, 2018a.) Estas últimas son el resultado
de relacionar los fundamentos de la nanotecnología (cuánticos) con sus efectos (clásicos) pero
también con el proceso natural que partió precisamente de allí. Esas reflexiones lo llevaron a
emprender una tarea más ambiciosa que se resume a continuación.
*
Solemos afirmar que el talento, el ingenio y la creatividad, los viejos TIC, están presentes en los niños:
podría decirse que son innatos en ellos y el papel más importante de la educación es potenciarlos al
máximo; de ahí las mayúsculas: son ellos más importantes que las nuevas, apenas un instrumento. A estas
reflexiones sobre la educación del futuro volveremos en el QS IV. Nótese de paso que abreviaremos como
QS seguido de su orden en números romanos a los distintos volúmenes de una posible pentalogía.
¿Y qué tienen que ver las cinco formas de conocimiento, el pentivium, con la pentalogía
anunciada en la contraportada y en la página anterior? A pesar de su coincidencia en la raíz
etimológica, la relación es más simbólica que práctica. El escasa vínculo que se puede establecer
no puede ser uno a uno sino como un todo, en forma integral. Es un ejercicio de búsqueda que
todavía no termina y el lector interesado tendría que esperar al encuentro, si le acompañara la
paciencia suficiente, hasta los últimos volúmenes de la serie sin que estemos seguros de que el
tiempo nos alcance para ello. Se le dio al problema una solución intermedia que comentamos a
continuación.
Cuando empezó a redactar estas notas, tal vez en dos volúmenes, y se le ocurrió titularlas
Quantum Sapiens, el autor juzgó que era necesario justificar el periplo de la idea y escribió una
larga introducción para el primero. Antes de decidir el contenido de la versión definitiva, estimó
que muchas de sus reflexiones o motivaciones iniciales, extendidas ampliamente (perdónese la
redundancia, aunque en realidad deberían ampliarse mucho más), podrían constituir un
volumen introductorio y que los asuntos que tienen que ver con las múltiples aplicaciones
ocuparan un tercer texto. Al introductorio le hemos titulado Quantum Sapiens… ¿Sapiens? El
signo de interrogación será por lo menos sugestivo y refleja bien las dudas que abrigamos,
inspiradas por el rumbo que ha tomado la civilización últimamente… o desde hace ya largo
tiempo. Es innecesario advertir que quienes solo se interesen por el impacto causado por la física
cuántica en la ciencia y la tecnología del momento no requerirán de esa introducción.
La ambiciosa empresa aquí y en el volumen introductorio iniciada no puede ser el producto de
un solo individuo. El autor de este primer ensayo le ha propuesto participar del segundo a
quienes han participado como conferencistas invitados sobre temas específicos dentro del
CPTPT, expertos de diferentes disciplinas y de variados campos de la física, no para un trabajo
solamente interdisciplinario sino principalmente transdisciplinario. Un tercer volumen se ha
venido gestando desde hace más de dos años, sin que hayamos podido llegar los autores (tres)
a un acuerdo sobre el contenido definitivo.
De las primeras tres partes, se ha logrado un consenso que parcialmente se anuncia a
continuación. No así de los dos (a lo mejor sean más) restantes, particularmente el penúltimo,
dedicado a un asunto siempre en crisis: la cuestión educativa. ¿Habrá que desescolarizar la
educación?, es la pregunta de bulto. El 5º retomaría, sin pretender contestarlas, las preguntas
claves que podría formular la filosofía hoy. Sin tener mucho que decir al respecto, sumergido
durante casi toda su vida en lo que otrora se llamara filosofía natural, ni siquiera en la filosofía
de la naturaleza, el autor del presente volumen intentará responder a un asunto que debería
ser inquietante pero que en la sociedad del conocimiento, en la era de la información, parece
tenerse cada vez menos en cuenta: ¿en qué consiste comportarse sabiamente? Difícil pregunta,
todavía abierta.
Resumimos a continuación lo que será el plan del presente volumen, aunque el contenido que
le sigue puede ser claro para muchos de los lectores. El primer capítulo no tendría que ver con
el tema, salvo por el antiguo origen de los conceptos precedentes. El segundo recoge las
primeras ideas y es en cierto sentido el preámbulo a lo que vendría después. El tercero le a un
soporte experimental a la evidencia de que habrá que construir otra teoría que dé cabida a las
nuevas observaciones. El cuarto muestra a las claras el rompimiento con la tradición de la nueva
imagen (dual) del comportamiento de la materia: es el verdadero punto de partida. El quinto
intenta resumir los nuevos conceptos y formular en palabras la teoría matemática resultante. El
sexto se detiene en una conclusión inesperada de los principios cuánticos: el problema del
entrelazamiento y, por ende, de la no localidad que rompe con el punto de vista einsteniano.
Después de la formulación de una teoría matemática para la reconocida fenomenología cuántica
que rompe por completo con el sentido común, no queda otra alternativa que interpretar el
resultado; para disgusto de los físicos, el resultado son múltiples interpretaciones, algunas de
las cuales se esbozan en el capítulo séptimo. En síntesis, a quienes interesa algo más que calcular
con el formalismo no les queda otro camino que regresar a la filosofía, una nueva Filosofía
Natural, tema del capítulo final.
QUANTUM SAPIENS I
Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos o, para decirlo
de manera más general, son detectados por nuestros aparatos de medida. Concordaremos en
afirmar entonces que la observación a que nos referimos en física no es solamente la que
podemos realizar con el sentido de la vista o con otro cualquiera. En otro tiempo percibiríamos
u observaríamos los objetos materiales y quizá dudaríamos en reconocer que la luz es un objeto
material. ¿Es la gravedad un objeto material? Pocos se atreverían a responder positivamente,
pero las ondas gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una
pregunta más sutil se refiere a lo que hoy se denomina información. No estamos hablando de lo
que venden los periódicos o lo que escuchamos en la radio o vemos en la televisión. Exploramos
a nuestro alrededor para informarnos de lo que está pasando, eso es indudable, pero la
información misma es algo más etéreo. Sin embargo, después de Claude Shannon (1948)
debemos reconocer que la información es algo con contenido físico.
Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos del
zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio para
hacer la distinción entre mito y religión, pero toda oportunidad es buena para deslindar terrenos
entre esos dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos
ciencia. Ha habido, y es seguro que se siguen presentando a pesar de los espectaculares avances,
periodos de la historia en los que la ciencia que se dice practicar no difiere mucho de la
pseudociencia. No está lejana la pasada época en que solía hablarse del fluido calórico o del
fluido vital, fluidos que hoy claramente están descartados en la ciencia convencional. Polémicas
*
Cuando se calcula rigurosamente la energía de un oscilador armónico o cuando se habla de campos
cuánticos, hay que referirse a un concepto nuevo denominado energía de punto cero. La expresión y el
concepto ha dado lugar a relatos esotéricos de todo tipo. Los efectos de esa energía de punto cero son
observables; como ejemplo, se suele citar el Efecto Casimir, consistente en la atracción que dos placas
metálicas muy finas sienten a temperatura muy baja (cercana al cero absoluto). En forma general se puede
hablar de fluctuaciones del vacío. A este concepto, al de espín y a otros más volveremos después. Para el
lector menos familiarizado con la terminología hemos agregado un glosario de términos y conceptos
fundamentales al final.
acerca de los organismos genéticamente modificados envuelven mucho de subjetividad; es
difícil deslindar las manipulaciones con intereses comerciales de las rigurosas pruebas de
laboratorio; el asunto merece un examen cuidadoso.
La ciencia clásica es determinista: esta característica es básica. Por el contrario, la nueva ciencia,
la que cae dentro de la comúnmente denominada mecánica cuántica no lo es. Se dice que esta
es una teoría probabilística. Lo es, pero desde una perspectiva que no es clásica. Caos y
complejidad es una nueva rama interdisciplinaria de la ciencia, usualmente desde la perspectiva
clásica. Nos proponemos abordar el tema de algunos fenómenos cuánticos complejos en un
tercer volumen. A las aplicaciones prácticas y teóricas de la fenomenología cuántica estará
dedicado el segundo.
La primera hipótesis sobre cuantización vino con el cuerpo negro, un cuerpo a todas luces
macroscópico, como veremos: la enunció Planck el 14 de diciembre de 1900 ante la Sociedad
Alemana de Física. Para entonces la hipótesis atómica no era aceptada como hipótesis científica
por los más destacados físicos alemanes del momento. Puede decirse que el átomo que se
observa hoy con los más sofisticados instrumentos de observación y manipulación a ese nivel se
manifiesta clásicamente, aunque su comportamiento y las leyes que lo rigen son rigurosamente
cuánticos.
1. Evolución de las ideas
1.1 Visión panorámica con perspectiva histórica
El lector pragmático puede dejar de lado este y el siguiente capítulo, al menos en una primera
lectura. Eventualmente le convenga regresar al segundo.
Hay muchos tratados, con diversos enfoques, sobre el maravilloso tema de la evolución de los
conceptos que dio lugar a las ciencias tal como las concebimos hoy, bien adentrados como
estamos en el siglo XXI. A ese acervo cultural extraordinario no deberíamos seguirlo llamando
ciencia moderna, y mucho menos referirnos a ella en singular; si lo hacemos, tendremos que
buscar una nueva definición del término que las incluya a todas, duras y blandas, humanas y
naturales, antrópicas y pre antrópicas, o cualesquiera otra clasificación que se nos ocurra.
(Vasco, 2015b.) Por razones prácticas nos limitaremos a las ciencias naturales y tangencialmente
a las matemáticas, también en plural. Si es de algún interés para el lector la implicación de las
aplicaciones de las primeras, La perspectiva científica, del matemático y filósofo Bertrand Russell
constituye, a nuestro juicio, un valioso punto de partida. (Russell, 1949.) Aunque más
especializado, Historia de la física, escrito por un físico británico contemporáneo de Russell,
suministra un enfoque más amplio en sus capítulos iniciales sobre el remoto origen. (Jeans,
1948.) No se puede prescindir, por incipiente que haya sido, del aporte de La ciencia griega al
origen de la ciencia moderna, tema que de manera original fue cubierto por otro británico
contemporáneo de Russell (Farrington, 1944, 1949). Para un enfoque intercultural, hay que
hacer referencia a Las dos culturas, de Charles Percy Snow, un británico más (1959), quien
indudablemente inspiró a otros para que a fines del siglo XX introdujeran el término Tercera
cultura. (Brockman, 1995.)
Análisis históricos postmodernos más rigurosos pueden encontrarse en algunos autores
franceses. Para el periodo histórico que comprende desde los inicios hasta mediados del siglo
pasado, puede consultarse Serres y otros (Serres, 1991). Más puntual y centrado en la física es
D'Archiméde à Einstein. Les faces cachées de l'invention scientifique. (Thuillier, 1990.) Todos
ellos, particularmente los últimos, conducen al tema de la relación entre las ciencias naturales y
las otras formas de conocimiento y al peligro de la super-especialización científica o tecnológica.
En gran medida nuestro ensayo está guiado por esta última preocupación; en especial queremos
advertir al lector del riesgo que implica para la verdadera democracia una cultura acientífica,
como lo destacara Carl Sagan (1996):
«Hemos preparado una civilización global en la que los elementos más cruciales –el transporte, las
comunicaciones y todas las demás industrias; la agricultura, la medicina, la educación, el ocio, la
protección del medio ambiente, e incluso la institución democrática clave de las elecciones– dependen
profundamente de la ciencia y la tecnología. También hemos dispuesto las cosas de modo que nadie
entienda la ciencia y la tecnología. Eso es una garantía de desastre. Podríamos seguir así una temporada
pero, antes o después, esta mezcla combustible de ignorancia y poder nos explotará en la cara.»
También por razones prácticas nos limitaremos a la evolución de los conceptos, más que a los
aspectos históricos; un buen punto de referencia lo constituye el desarrollo de las ideas en la
Grecia Antigua. Nuestro propósito no es seguir aquí el tradicional enfoque histórico. Tampoco
nos interesa hacer un ensayo de corte epistemológico, igualmente abundante en la literatura.
Siendo nuestro interés prioritario el grandioso proceso de pensamiento que culminó con lo que
hemos dado en denominar la segunda revolución cuántica, sin duda alguna el más grande
descubrimiento científico a nivel conceptual, pondremos inicialmente el énfasis en la imagen
atomista que se desarrolló desde los epicúreos, con una enorme discontinuidad o vacío
temporal de casi dos milenios, favorecido por la autoridad intelectual de Aristóteles y, en la Edad
Media, por la imposición teológica y teleológica de la Iglesia Católica. El enfoque de Weinberg
(2016) es un valioso complemento.
Empezamos por referirnos a un punto de vista más o menos común a todos los autores
mencionados. Al margen de sus creencias religiosas, para el avance de los conceptos científicos
era necesario desproveerse de la explicación del mundo a partir de las causas sobrenaturales.
Ese fue uno de los grandes méritos de Copérnico, Kepler, Galileo y Newton, para citar unos pocos
ejemplos. Uno de los mecanicistas más destacados fue Laplace, quien en su magna obra
Exposition du système du monde afirma (1796):
«Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se
podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la
naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto
como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los
grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro,
así como el pasado, estarían frente a sus ojos.»
Refiriéndose a ella le pregunta Napoleón: «Me cuentan que ha escrito usted este gran libro
sobre el sistema del universo sin haber mencionado ni una sola vez a su creador», y Laplace
contestó: «Sire, nunca he necesitado esa hipótesis». Ante la insistencia del Emperador replica:
«Aunque esa hipótesis pueda explicar todo, no permite predecir nada». Ese intelecto al que se
refiere Laplace ha de convertirse después en lo que se llamará el demonio de Maxwell. Por
analogía, uno de los autores de la tercera parte (Andrade) lo ha extendido a Los demonios de
Darwin (2003).
A pesar de los indiscutibles avances de las ciencias en los últimos tiempos, la mayoría de la gente,
incluso en ambientes cultos y hasta en entornos académicos, sigue buscando la explicación de
los fenómenos de todo tipo en fuerzas sobrenaturales. Cabe esperar entonces que así ocurriera
desde los albores de la humanidad, o más precisamente de las civilizaciones, con algunas
excepciones. Al contrario de lo que debería suceder, la física cuántica ha dado pie para que
muchos retomen y refuercen esa tendencia tan humana. Vale la pena examinar el desarrollo de
las ideas pre-científicas que abrieron espacios para la ciencia misma y las que posteriormente se
abrieron paso, desde los inicios de la ciencia moderna. El temario de este capítulo se ha dividido
así en dos partes, correspondiendo la primera a lo que se reconoce como Edad Antigua.
Podría argumentarse que la hipótesis atómica fue la más clara renuncia a la explicación mítica o
religiosa que perduró por decenas de miles de años y que todavía sobrevive en ciertos círculos
intelectuales. Eso no es del todo cierto: el atomismo como doctrina se practicó en las escuelas
místicas de la India antes que en la Grecia pre-socrática. Pero la hipótesis de unos átomos o
corpúsculos eternos e inmutables que son los ladrillos básicos de la materia sí puede chocar
contra algunas creencias religiosas, por ejemplo, el llamado dogma de la transubstanciación.
Aunque no es totalmente claro, muchos pasajes oscuros del aun misterioso Juicio a Galileo
apuntan a que fue su aceptación implícita de aquella hipótesis milenaria lo que desencadenó la
obstinada persecución al genio, más que su defensa del punto de vista copernicano. (Hernández,
2009.)
La propuesta atomista de Demócrito y Leucipo estuvo precedida de la idea de que todo en el
universo provendría de una única substancia. Se pasó así del agua al aire, al fuego y a la tierra
misma; después de los presocráticos, Platón planteó que todo era espíritu, mientras que su
discípulo Aristóteles volvió a los 4 elementos, anticipados por Empédocles.
Sin proponérselo, el estagirita cerró por mucho tiempo la exploración del universo al espíritu
científico dejándolo al vaivén de las creencias. Para él, el movimiento de los objetos era natural,
moviéndose ellos hacia arriba o hacia abajo dependiendo de si predominaba aire y fuego o agua
y tierra. Finalmente, con el método teórico-experimental inaugurado por la física, iniciado por
Galileo hace ya cuatro siglos, se abrió el camino no solo a una mejor comprensión de la
naturaleza sino también a un uso más racional del conocimiento y a su construcción, objetiva
hasta cierto punto. Qué entendemos por un uso racional del conocimiento será tema de interés
para estas reflexiones, asunto al que volveremos en la cuarta y quinta partes. El sapiens a
menudo ha sido insapiens, o más bien stultisimus. (Giraldo, 2018b.)
Pero esos métodos que ahora encontramos más racionales tardarían milenios en ensayarse y
tener éxito; no tendrían a la postre mayor acogida, salvo entre los académicos, de no ser por su
impacto en mejorar las condiciones de vida de la especie, en particular por las tecnologías a que
dieron lugar, y por el poder que confirieron a los grupos privilegiados. Muchas técnicas fueron
inventadas empíricamente a partir de la observación cuidadosa de la naturaleza, sin que se
desligaran de las creencias mitológicas. En un comienzo se pensó que para el cabal
funcionamiento de algunas de ellas habría que seguir ciertos rituales, guiados por la casta
sacerdotal. Se preservó así durante mucho tiempo el enfoque teísta (poli o mono) con que se
iniciaron. Ahora predomina el aspecto monetarista. Sin lugar a dudas, la acumulación de capital
depende hoy más que nunca de los avances científicos y tecnológicos.
Para terminar esta sección introductoria al primer capítulo, se recomienda pasar revista a dos
series de conferencias de Feynman que fueron impresas posteriormente en forma de libros: The
meaning of it all (1963) y The character of physical law (1964). A muchos lectores esas ideas
críticas les ayudará a desbrozar el arduo camino por recorrer. Recordémoslo: Caminante, no hay
camino, se hace camino al andar.
1.2 Los primeros hitos
La más remota manifestación de un interés sistemático por la explicación (pseudo)científica
tiene sus orígenes en las antiguas civilizaciones que se formaron en las riveras del Eufrates y del
Nilo durante el quinto y el tercer milenio antes de nuestra era. Para entonces habían corrido
varios milenios, 30 o más, de desarrollo artístico, un desarrollo que se dio simultáneamente en
varios lugares del planeta. Uno de los ejemplos más antiguos y admirables lo constituyen las
esculturas halladas en la caverna de Vogelherd. El interés, generalmente pragmático, no estuvo
separado de la influencia mítica. Eran los albores de la civilización. Puede afirmarse que, si bien
ocurrió en distintos momentos, no hubo una sino varias cunas de la civilización humana. Sin
pretensiones de ser exhaustivos, nos limitamos a reconocer que la más antigua de estas
civilizaciones pre-científicas es la que se conoce con el nombre de sumeria. Formando
poblaciones a lo largo del Tigris y del Eufrates, se convirtieron en los primeros agricultores y
surgieron los primeros especialistas, ingenieros de riego. Algo similar ocurrió en Egipto, con la
variante de las inundaciones periódicas del rio Nilo, generadoras a su vez de un desarrollo
especial de la astronomía. Es notable el desarrollo, en cierta medida prematuro, de la medicina
egipcia. Para entonces había surgido la escritura, no se sabe si independientemente en las dos
regiones. En China se habría presentado un fenómeno similar, con sus variantes, algo que
ocurrió después en América.
El reconocimiento a la importancia de los expertos en los destinos de los países es notorio por
primera vez en el Imperio Asirio. Nos dice James Ritter: “Para saber dónde y cuándo aparecen
como grupo profesional, debemos abandonar Nínive en el apogeo del Imperio Asirio y volver al
primer instante en el que entran juntos en la historia, más de dos mil años antes y más al sur,
en el país de Babilonia. Es en la época que los asiriólogos llaman «paleobabilónica», durante los
400 primeros años del segundo milenio, donde podemos comenzar a seguir el desarrollo de un
campo de estudio y de práctica que los propios mesopotámicos percibieron, según parece, como
unificado y privilegiado en cierto sentido”. (1991.)
Mucho más atrás en el tiempo, en las oscuras edades primitivas, antes de que hubiera vestigios
de ciencia, ni siquiera de arte, antecesores del sapiens descubrieron y aprendieron de alguna
manera a dominar el fuego. Parece que esto ocurrió durante la época del homo erectus, hace
poco menos de un millón de años. Es innecesario resaltar aquí la importancia de tan singular
descubrimiento; sorprende que haya ocurrido en tiempos tan remotos. La edad de la piedra que
le precedió, se remonta en el tiempo más de dos millones de años. En contraste, la invención de
la rueda tuvo que esperar hasta un periodo cercano, hace poco más de 5 mil años, después de
haber pasado por diversos periodos de manipulación de los metales. Por extraño que parezca,
civilizaciones tan avanzadas como las de los Incas y los Mayas se las arreglaron sin la rueda, en
el segundo caso hasta su misterioso declive, antes de la llegada de los españoles al continente
americano. El misterio puede verse en su verdadera dimensión si se recuerda que la Maya fue
una de las tres civilizaciones en la historia de la humanidad que descubrieron el cero y la primera
en utilizarlo plenamente en sus cálculos astronómicos.
Casi todos los historiadores de la ciencia coinciden en reconocer que el arte, y con él las técnicas
para perfeccionarlo, tuvieron un desarrollo mucho más temprano que el de cualquier indicio
que pudiera denominarse primeros pasos hacia la ciencia. (Jeans, 1948; Russell, 1949.)
Probablemente al arte, como forma de conocimiento, le siguió la filosofía, practicada
inicialmente desde el misticismo religioso, quizá precedido del temor a lo desconocido. La
polémica sobre el origen de la filosofía puede continuar; lo que cabe destacar es que también
en Grecia, al igual que en las culturas orientales, los primeros indicios del pensamiento filosófico
están asociados al mito y en gran medida al arte. Si en la Antigua Grecia logró un desarrollo
mayor que en alguna otra parte del mundo, ello se debió probablemente a la ausencia de una
casta sacerdotal y al enfoque holístico que predominó en su ethos cultural. A modo de
propaganda, lo que se propone la organización denominada Buinaima, como herencia recogida
de lo que se llamó en Colombia Misión de Sabios (Colciencias, 1995), es generar en este país un
nuevo ethos cultural. (Para mayor información, véase Giraldo, 2006, disponible en la página
www.corporacionbuinaima.org).
1.3 De Fenicia a Grecia
El origen del pueblo griego es oscuro. Todo indica que fue una mezcla de pueblos venidos de
distintas latitudes. A pesar de la penumbra que rodea la constitución de la civilización griega, es
indudable que recibió una gran influencia de las anteriores, particularmente la asiria y la egipcia.
Es también seguro que sus vecinos fenicios favorecieron su desarrollo. De estos últimos dice el
historiador Estrabón, citado por Jeans, que prestaban especial atención a la ciencia de los
números, la navegación y la astronomía. Agrega Jeans: “Difícilmente habrían podido llegar a ser
la gran potencia comercial de la Antigüedad de no poseer considerable aptitud numérica, ni
haber sido los más grandes navegantes de su tiempo a menos de haber estudiado la navegación
y la astronomía.”
Si se reconoce en Tales y en Pitágoras dos de las mayores figuras de esa ciencia antigua, no deja
de ser interesante que los dos tengan reputación de procedencia fenicia, al igual que Euclides y
Zenón. Ahora bien, es indudable que un aspecto favorece al otro. Las escuelas que fundaron
cada uno de estos personajes influyeron notablemente en el desarrollo futuro de la aritmética,
la geometría y hasta las técnicas para medir tiempo y espacio, indispensables para poder
avanzar.
Escribe Farrington: “El saber organizado de Egipto y de Babilonia ha sido una tradición manejada
de generación en generación por colegios de sacerdotes. Pero el movimiento científico que
empezó en el siglo VI (antes de nuestra Era) entre los griegos era un movimiento enteramente
seglar.” En todo caso, el saber acumulado en aquellas cunas de la civilización, por ende en
Fenicia, tenía un carácter pragmático. Lo nuevo de los griegos fue entender o reflexionar sobre
las causas u orígenes de lo observado.
1.4 El milagro jónico
«En el siglo VI antes de Cristo, en Jonia, se desarrolló un nuevo concepto, una de las grandes
ideas de la especie humana. El universo se puede conocer, afirmaban los antiguos jonios, porque
presenta un orden interno: hay regularidades en la naturaleza que permiten revelar sus
secretos». (Sagan, 1985; p.175.) A ese orden y las leyes que le determinan le llamaron cosmos.
Fue el descubrimiento del cosmos, en ese sentido, lo que les llevó a sentar los fundamentos de
lo que hoy denominamos ciencia.
Así, pues, la naturaleza se comporta de manera regulada y eso es maravilloso; lo más
sorprendente es descubrir que la regulación procede de la naturaleza misma. Afirma Isaac
Asimov, otro gran divulgador de la ciencia: «En la teoría de Tales y de sus discípulos no había
divinidades que se inmiscuyeran en los designios del universo. El universo obraba
exclusivamente de acuerdo con su propia naturaleza». (2001.)
Ese descubrimiento fue el detonante del amor por la sabiduría, que es la filosofía. ¿Y qué es
sabiduría? Para ellos era la persecución de la verdad, la belleza y la bondad, las tres atracciones
que Einstein y Russell compartieron. Escribe este último: «Tres pasiones, simples, pero
abrumadoramente intensas, han gobernado mi vida: el ansia de amor, la búsqueda del
conocimiento y una insoportable piedad por los sufrimientos de la humanidad». (Para qué he
vivido, Autobiografía, 1967.) En la introducción a su texto arriba citado define la sabiduría como
«la concepción justa de los fines de la vida».
Volvamos a aquel maravilloso periodo de la historia. Se interroga Sagan acerca del porqué del
milagro jónico, sin dar una respuesta satisfactoria. Hay otra pregunta más difícil de responder:
¿qué impidió que ese apogeo continuara? La escuela griega que sucedió a la presocrática fue
maravillosa, pero declinó muy pronto. Esos periodos de ascenso y descenso que se sucedieron
desde la antigüedad clásica ocurrieron después, en distintos lugares, en ocasiones con largos
interregnos (y se siguen dando). También sucedió en América, en particular con la civilización
Maya. Probablemente la razón se encuentre en que las ciencias, también la filosofía, dependen
de la observación, sea esta empírica o más elaborada, pero la sistematización del conocimiento
científico, a diferencia del pensamiento filosófico, no puede hacerse al margen de la experiencia.
Si no se perfecciona el instrumento de observación, no se tiene un fundamento mejorado para
la racionalización. Hubo que esperar al invento del telescopio primero y del microscopio después
para lograr un avance formidable.
La Ciencia griega ha sido objeto de estudio minucioso desde comienzos del siglo pasado. Uno
de los primeros clásicos es el de Farrington (1944). Suya es esta frase que continúa vigente:
The science of the earliest Greek period resembles ours; for naive and undeveloped as it was, it regarded
man as a product of natural evolution, it regarded his power of speech and thought as a product of his life
in society, and it regarded his science as part of his technique, of the control of his natural environment.
These bold ideas made their first appearance among the Ionian Greeks shortly after 600 B.C., and were
developed in the course of a couple of centuries with a comprehensiveness of view and an organic
cohesion of design which still astonish us today. The emergence of this mode of thought and its
supersession by the more sophisticated but less scientific outlook of the age of Socrates, Plato, and
Aristotle are the special subject of our enquiry.*
Mencionemos apenas, para terminar esta descripción general, los nombres de algunas de las
más descollantes figuras del saber de aquella brillante época: Tales y Anaximandro, los dos de
Mileto, Anaxímenes e Hipócrates, y por encima de todos en matemáticas, Pitágoras de Samos.
Aristarco, también de Samos, fue prematuramente heliocentrista, ideas tan adelantadas a su
tiempo como lo fueron los conceptos de los atomistas, Demócrito de Abdera y Leucipo de
Mileto. Vendría después la época de Alejandría, con la figura descollante de Eratóstenes, quien
seguramente fue el primero en determinar el radio de la tierra.
1.5 Preconceptos y conceptos
Supondremos por simplicidad que el lector tiene muchos preconceptos clásicos y que en menor
cantidad ha adquirido algunos conceptos cuánticos. Los preconceptos pueden ser equivocados,
pero generalmente ayudan; la construcción de los conceptos es un proceso que prácticamente
no culmina; más arduo y complejo todavía es el cambio conceptual de lo clásico a lo cuántico.
Gracias a la tecnología desarrollada durante los últimos dos siglos, los preconceptos clásicos de
la población promedio se han enriquecido. Las nuevas tecnologías, las de las últimas dos o tres
décadas, han provisto a ese promedio de algunas nociones y términos clásicos y cuánticos que
antes no existían. Expresiones como industria optoelectrónica, dispositivos diversos que hacen
uso de diversos semiconductores y del láser, técnicas espectroscópicas como los rayos X y la
resonancia magnética nuclear (RMN), la más reciente variación de esta, IRMf (imagen por
resonancia magnética funcional), tan útil para la exploración del cerebro en actividad, otras
igualmente recientes como la TAC (tomografía axial computarizada) o las más modernas, como
*
La ciencia del más temprano periodo griego recuerda el nuestro; a pesar de lo ingenuo y subdesarrollado
que fue, asumió al hombre como un producto de la evolución natural, asumió su capacidad discursiva y
de pensamiento como resultado de su vida en sociedad y asumió a su ciencia como parte de su técnica,
del control de su entorno natural. Estas ideas sobresalientes hicieron su primera aparición entre los
griegos jónicos aproximadamente hacia el 600 A.C., y se desarrollaron en el curso de un par de siglos
desde un consistente punto de vista y una cohesión interna de su diseño que todavía nos deja atónitos
hoy. La emergencia de este modo de pensamiento y su sucesión por la más sofisticada pero menos
científica mirada de la era de Sócrates, Platón y Aristóteles son tema especial de investigación y búsqueda
todavía.
PET (por su descripción en inglés, positron emmision tomography) y muchas más, o
instrumentos tan sofisticados como microscopios electrónicos o atómicos se emplean a
menudo, cada vez en ambientes más diversos. Eso no significa que los más, ni siquiera en
medios culturales privilegiados, sepan muy bien lo que hay detrás de estos términos, pero usan
a diario discos compactos, MP5, iPODs, tablets, versátiles computadores portátiles, teléfonos
celulares cada vez más sofisticados en su interior y otros adminículos de alta gama que
incorporan modernísimas t.i.c., las cuales serían impensables sin el dominio logrado y el
conocimiento adquirido sobre fenómenos a nivel submicroscópico, algunos de ellos
rigurosamente cuánticos. Ello le ha permitido a la población, más allá del confort, tener al
menos una vaga idea del uso (y el abuso) de un lenguaje que hasta hace unas pocas décadas
era visto como altamente especializado.
Las nuevas generaciones tienen ventajas (y desventajas) adicionales. Por algo se les denomina
Generación App, y empiezan cada vez a distanciarse más de los inmigrantes digitales; ni qué
decir de los padres o maestros (para el caso es similar) que no se han acercado a ese nuevo
mundo. Volviendo a los conceptos y preconceptos, esas nuevas generaciones corren el riesgo
de asimilar los términos sin haber pasado por el lenguaje; en otras palabras, pensamiento y
lenguaje, como diría Vigotsky, no han ido de la mano. Gran dificultad tendrá una persona fuera
de los campos científico y tecnológico, incluso cuando se ha formado en alguna de las técnicas,
para distinguir entre fenómenos clásicos y otros que no caen en ese rango cuando el lenguaje
es ambiguo.
Si se examina con cuidado, menos impacto tienen en la vida diaria actual otros términos que
fueron de gran importancia hace algunas décadas y que de todas maneras lo siguen siendo:
resistencia (mecánica y eléctrica), maleabilidad, resiliencia… turbulencia, máquina de vapor,
energía trifásica, transformador, tubos o válvulas de vacío (diodo y triodo). El transistor y el
diodo semiconductor pertenecen a nuestra generación; el autor nació con ellos, pero conoció
de cerca los anteriores. Puede afirmarse que el bachiller de hoy no distingue claramente entre
campo eléctrico y magnético, mucho menos se preocupa por entender cómo se transmiten,
propagan y reciben ondas de radio, de televisión, etc. y mucho menos los problemas que atañen
a su transmisión. ¡Su mundo virtual le ha llevado a comunicarse en la nube sin polo a tierra!
De todos modos, alguna noción se adquiere, desde la formación media y con la experiencia
sensible, sobre espacio y tiempo, masa y carga, movimiento y energía, posición, velocidad o
rapidez, aceleraciones, interacciones o fuerzas, vibraciones u oscilaciones y ondas, etcétera.
Con este capítulo no se logrará remediar falencias que pueden deberse al sistema educativo o
al medio cultural o ambas cosas (el tema de la educación se retomará en un tomo posterior, tal
vez el IV). Pero se introducirán o reforzarán algunas nociones o conceptos útiles para ingresar
al mundo de la nueva física. Puede ser útil para algunos lectores apelar al apéndice, en donde
se habla de algunos conceptos clásicos, para que los compare con los nuevos, cuánticos, de los
cuales también diremos algo. Estado, paquete de ondas, colapso de la función de onda,
superposición, observable, operador, espín, espacio de Hilbert, no localidad, enmarañamiento o
entrelazamiento y muchos más que vendrán más adelante, son conceptos y entidades más
complejos; se definirán en términos simplificados a su debido tiempo, sin complicaciones ni
pretensiones mayores, procurando en todo caso ser precisos. Aunque creamos saber qué se
entiende por aparato de medida, realidad objetiva y otros términos aparentemente comunes,
incluido observador consciente, veremos que en el dominio cuántico hay que redefinirlos. No
sobra insistir en que la teoría cuántica, probablemente más que cualquier otro campo de la
ciencia, es contraintuitiva. Se requiere en gran medida de la filosofía, así sea para revaluarla, si
se quiere aprehender, o al menos comparar, la nueva realidad cuántica, con la supuestamente
más material, la clásica. Los resultados cuánticos, los más precisos hasta ahora sin lugar a dudas,
son inesperados, como lo son las conclusiones que de ellos se derivan. De sus aplicaciones
hablaremos en el segundo tomo. Así como se requiere de la filosofía para interpretar, esta
también depende de las observaciones para poder avanzar en un mundo donde la lógica y la
dialéctica ya no son las clásicas. A estos aspectos volveremos también en el futuro.
Hay una premisa fundamental, común a los dos campos, el clásico y el cuántico, que puede
servir como punto de partida: el resultado de una medición es siempre un número o un conjunto
de números reales. Ello es consecuencia del carácter cuantitativo de una ciencia teórico-
experimental: eso es la física; se ocupa de predecir el valor de cantidades que se pueden medir
o determinar, directa o indirectamente o, a partir de observaciones y mediciones cuidadosas,
establecer reglas cuantitativas, formular leyes en un lenguaje matemático, lo más generales que
sea posible, sobre los fenómenos físicos... los de la realidad sensorial (así los sensores sean
sofisticados instrumentos), para decirlo de alguna manera. Se hace necesario entonces
introducir un lenguaje que nos permita precisar de la mejor manera lo que se quiere medir o
determinar. Por ejemplo, cuando nos referimos al todo hay que hacer distinciones como éstas,
para no caer en contradicciones: el Universo Causal es el trozo de universo al que tenemos
acceso a través de observaciones; no se puede hablar de separabilidad, en el sentido exigido
por Einstein, en los sistemas cuánticos correlacionados (véanse la segunda y la tercera parte).
A propósito de Universo, surge la siguiente pregunta todavía sin respuesta: cuando se trata de
hacer observaciones sobre el ‘Universo’ como un todo, ¿quién es el observador? Discutamos el
penúltimo asunto, el de la separabilidad o no. En la tradición griega y en la metódica ciencia
iniciada con Francis Bacon y Galileo Galilei se ha supuesto que para entender el
comportamiento de un objeto compuesto, éste se puede dividir en partes y analizar por
separado cada una de ellas. Está implícita la hipótesis de que cada una de las partes tiene
realidad física en sí misma. Nadie la habría puesto en duda, de no ser por las implicaciones de
la nueva física. La exigencia explícita de respetar esa realidad está contenida en la famosa
publicación de Einstein, Podolsky y Rosen de 1935, mencionada en la presentación de estas
notas y conocida usualmente como paradoja EPR (véase el capítulo sexto). Pues bien, el
problema se trasladó de la filosofía a la física experimental con las también famosas
Desigualdades de Bell: todos los experimentos realizados desde 1982 (Aspect, 1982) muestran
el carácter observable y medible de las correlaciones cuánticas, capaces de tomar valores más
grandes que los límites exigidos por una descripción realista separable de tipo clásico; aquellos
han confirmado los valores predichos cuánticamente, valores clásicamente prohibidos.
Una cantidad física es objeto de predicción y por ende, aunque sea solo en principio, de
medición, cuando es observable. Una vez que se conoce su valor, un conjunto de números
reales, puede decirse en qué estado se encuentra (o se encontraba, porque puede ocurrir que
inmediatamente después de la observación o medición haya cambiado de estado).
Precisaremos el concepto de estado en el capítulo cuarto. Los instrumentos con ayuda de los
cuales se observa son extensión de los sentidos. Es el cerebro, en últimas, quien interpreta. Solía
suponerse que de eso puede encargarse a la teoría, pero no es así.
Hay un aspecto delicado que no puede evadirse: el aparato de medida (ente clásico) influye en
el resultado que se obtenga, independientemente de qué tan preciso sea aquel, o mejor, la
influencia es más fuerte en la medida en que se le exija al aparato una mayor precisión,
particularmente a escala atómica o subatómica. Ésta es una parte esencial del principio de
indeterminación, al cual ya nos hemos referido y volveremos (Caps. 4 y 5), enunciado por
Werner Heisenberg en 1927. Pero, como también se afirmó arriba, no lo es todo: hoy se podrían
hacer observaciones libres de toda interacción, lo que nos llevó a reformular ese famoso
principio.
Uno de los conceptos básicos de la física clásica, de la electrodinámica en particular, es el de
campo. Esa fue la gran generalización que inútilmente buscó Einstein. Es extraño que, a pesar
de haber puesto la piedra fundamental de la materialización del campo con los granos de luz o
partículas del campo electromagnético, no haya sido el primero en postular el gravitón. Este
formaría parte, al igual que el fotón y otros bosones, de las denominadas partículas mediadoras.
También son conceptos fundamentales, por supuesto, corpúsculo y onda. La fuerza no es lo
mismo en el sentido aristotélico que en el newtoniano. En la nueva física, el concepto de
interacción es más rico que el de fuerza y está mediada por bosones. Veremos que el de
entrelazamiento se vuelve un concepto fundamental, desprovisto del de interacción. Antes de
ir a los de la nueva física, vale la pena examinar algunas nociones de la clásica.
1.6 Evolución de la física
La física ha cambiado mucho en el último siglo. Lo mismo puede decirse de las últimas décadas.
Pero hay algo maravilloso que permanece: las aplicaciones de la mecánica (dinámica
preferiríamos llamarla) y del electromagnetismo (electrodinámica), núcleos de la física clásica,
siguen siendo casi siempre rigurosamente válidas en el mundo macroscópico. Lo que ha
evolucionado principalmente son los conceptos mismos.
A pesar de los cambios conceptuales que se han dado, el libro de Einstein e Infeld con el título
Evolución de la física (1938), de carácter no histórico, sigue teniendo validez en lo fundamental.
La actualización hecha por Infeld (1961) es suficiente para la mayoría de los propósitos. La razón
es muy simple: desde entonces, no han surgido teorías verdaderamente nuevas en la física que
nos hagan cambiar de paradigma. Estas últimas son la Teoría Cuántica y la Teoría de Gravitación
(QT y GT por sus siglas en inglés). Un buen complemento, más histórico que el anterior, quizá
menos conceptual y menos profundo pero más amplio y más actual, aunque centrado en la
astronomía, lo constituye To explain the world: the discovery of the modern science. (Weinberg,
2016.)
Es provechoso hacer un recorrido por la historia de las ideas. La ventaja radica principalmente
en poder examinar otros puntos de vista que en su momento no fueron exitosos. En ocasiones
las ideas reviven y, una vez corregidas o ampliadas, tienen éxito. Así ocurrió con la teoría
corpuscular de la luz debida a Newton y con el concepto de constante cosmológica introducido
por Einstein. Aunque el enfoque ondulatorio de la luz era correcto en principio, tuvo durante
mucho tiempo un grave lastre: las ondas se propagarían en un medio sutil, el éter. Además, no
era claro qué era lo que se propagaba. Fue necesario esperar a que se disiparan dos nubes a que
hacía referencia Kelvin en 1900, a las que volveremos más adelante. Una de ellas tenía que ver
precisamente con la existencia o no del éter. La otra, aparentemente más sencilla, tenía que ver
con el problema de la equipartición de la energía. Su solución puso de manifiesto otros
nubarrones en el firmamento clásico, a los que también volveremos.
En esta y la siguiente sección resumiremos algunas de las ideas que llevaron a una mejor
descripción de la naturaleza a partir de una nueva concepción de la materia, la energía y el
espacio-tiempo. Aunque no hemos seguido más que parcialmente la línea de los autores
anteriores, la idea central se mantiene la misma: la ciencia no se inventa, se descubre; en
palabras de Einstein, la construcción del conocimiento científico es una tarea detectivesca. Y
para ello se requiere tanto del razonamiento como de la experimentación… y del olfato de
sabueso investigador; en ocasiones las pistas son falsas… a menudo las conjeturas son
equivocadas; las buenas pistas se constituyen después en avances que nos llevan por el buen
camino; los avances facilitan el diseño de nuevos experimentos y la elaboración de novedosos
planteamientos, luminosas conjeturas y pistas adicionales. Todo esto sumado hace que el
avance de la ciencia, por ende de la tecnología, sea cada vez más vertiginoso, a la vez que
apasionante.
La física hoy es quizá más apasionante de lo que fue en la época de Galileo, Newton y sus
predecesores. La astronomía, la contemplación de la desmesura cósmica, fue en aquella época
su mayor aliciente y para la sociedad lo fue el poder predecir la ocurrencia de algunos
fenómenos naturales de interés para la comunidad. Cuando se pudo mirar a lo que se juzgaba
infinitamente pequeño se tuvo un nuevo espacio para construir modelos y diseñar artefactos
que llevarían simultáneamente a una mejor comprensión de la naturaleza y a mejorar, en
principio, las condiciones de vida de la especie. Nos estamos refiriendo al mundo microscópico,
del que surgiría más recientemente el universo nanoscópico.
En el segundo tomo trataremos el tema de la nanotecnología. (Véase también Giraldo 2018a.)
Esta, convergencia de varias ciencias en la escala nanométrica, no podría haberse desarrollado
sin los descubrimientos que condujeron a la física cuántica. Tampoco habría podido surgir la
física de las altas energías, emparentada con la cosmología.
Reparando en la acepción develar que tiene el verbo descubrir, es como si numerosos velos
cubrieran el entendimiento de la naturaleza, la comprensión de sus fenómenos y la interrelación
entre ellos. Las primeras capas, verdaderos caparazones, son difíciles de separar, pero también
lo son las más profundas. La capacidad de la ciencia, en particular de la física, para abordar esa
tarea develadora, es lo que destacamos a grandes rasgos en esta sección. Contrástese el
significado de este término con el de revelar, palabra mágica a la que apelan las religiones.
Antes hemos presentado sucintamente los orígenes de la ciencia antigua sin detenernos en su
desarrollo. Ahora nos corresponde examinar este último desde que se puede hablar de ciencia
moderna, sin profundizar en los conceptos. A estos nos hemos referido en los apéndices,
dejando de lado la historia. Primero fue el problema de la adecuada descripción del movimiento,
un asunto que está emparentado con la geometría. No bastaba con observar los astros, planetas
o estrellas. El examen de su comportamiento condujo al descubrimiento de la capacidad
predictiva de la ciencia y de su simplicidad.
Después vino el asunto de determinar las causas del cambio de movimiento. Surgió así la
posibilidad de predecir, con la precisión de los mecanismos de relojería, el movimiento de los
planetas y de los objetos que se mueven en la superficie terrestre. Se encontró que las causas
pueden estar en esos mismos cuerpos. Si las causas están en ellos, debe haber un principio de
reciprocidad. Tal vez no fue demasiado complicado para una mente inquieta e imaginativa como
la de Newton adivinar esa reciprocidad en el llamado Principio de Acción y Reacción, conocido
generalmente como su tercera ley. La relatividad del movimiento condujo a Galileo a enunciar
el Principio de Inercia, también llamado primera ley del movimiento de Newton. Fue mucho más
complicado el enunciado de la segunda ley, la ecuación de movimiento por antonomasia.
Galileo había estudiado el problema de la caída de los cuerpos bajo el efecto de la gravedad.
Hay indicios de que en el siglo IX un monje escocés, Duns Scotus, sugirió que la fuerza de
gravedad que hace que los cuerpos caigan decrece con la distancia a la superficie de la tierra,
mas no hizo referencia alguna al movimiento de los planetas.
Fue el cura y astrónomo Ismael Bulliardus quien expuso por primera vez (1645) la hipótesis de
que los planetas eran atraídos por el sol con una fuerza inversamente proporcional al cuadrado
de la distancia y defendió el movimiento elíptico de aquellos a partir de las observaciones de
Kepler, en contra de la suposición de Galileo y Copérnico. La tercera ley de Kepler, que expresa
la proporcionalidad entre el cuadrado del periodo y el cubo del radio medio de la trayectoria, en
particular para el caso del movimiento circular, más fácil de examinar, lleva a la proporcionalidad
con el inverso del cuadrado de la distancia, en este caso el radio de la trayectoria. En efecto, ya
era claro para Huygens (1659), aunque probablemente Newton lo encontró por un
razonamiento independiente, que existía una aceleración asociada al cambio en la dirección del
movimiento: se trata de la aceleración centrípeta, proporcional al cuadrado de la rapidez
(magnitud de la velocidad) e inversamente proporcional al radio, en general el radio de
curvatura, constante para el movimiento circular, variable para el movimiento elíptico. (Véase
apéndice I.) Pero la rapidez en el movimiento circular no es más que el perímetro de la
circunferencia dividido por el periodo. Así, pues,
v2/R = (2ΠR/T)2/R = 4Π2R/T2.
Si se recuerda que el lado izquierdo es la aceleración, proporcional a la fuerza gravitacional, y se
tiene en cuenta la tercera ley de Kepler, que nos dice que el cuadrado del periodo es
proporcional al cubo del radio para este caso, es evidente que la fuerza gravitacional será
proporcional al inverso del cuadrado de la distancia. Hemos pasado por alto la dificultad en
reconocer que la fuerza es la causa del cambio de velocidad en un sentido general, es decir, de
la aceleración. En 1665, el primer año de la peste, Newton empezó a pensar en estos problemas,
a la vez que inventaba como herramienta para resolverlos el cálculo diferencial e integral.
Newton fue más allá y enunció la ley de atracción entre cuerpos masivos o de gravitación
universal en la forma en que hoy la conocemos:
Fg = GMm/R2,
expresión en la cual m es la masa gravitacional del objeto atraído (acelerado) y M la del objeto
que ejerce la fuerza. La situación puede describirse a la inversa, pues entre dos cuerpos masivos
hay una interacción o acción recíproca, por ende una reacción en cada uno de ellos, de acuerdo
con la tercera ley. Pero esas acciones son perturbaciones… y las perturbaciones se propagan o
avanzan, poco a poco o muy rápidamente; no lo hacen instantáneamente. Newton tuvo que
admitir, a su pesar, la acción a distancia, una limitación del esquema mecanicista que no podría
resolverse sino dos siglos más tarde, en forma parcial.
Fue Henry Cavendish quien comprobó, mediante un experimento realizado con gran precisión,
reportado en 1798, la proporcionalidad entre la fuerza de atracción gravitacional y la masa o
cantidad de materia del cuerpo. Para entonces, la ley de Coulomb, que expresa una relación
similar (ley del inverso al cuadrado) para la interacción entre cargas eléctricas, ya había sido
enunciada. Probablemente Cavendish mismo tuvo mucho que ver con ella, aunque nunca
reclamó paternidad en este ni en otros de sus experimentos eléctricos.
1.7 Las dos grandes teorías deterministas y sus limitaciones
Newton y Maxwell tienen el privilegio de haber sintetizado las dos grandes teorías de la física
clásica que seguirán siendo el fundamento de las aplicaciones macroscópicas, el primero de la
mecánica (dinámica), el segundo de la electrodinámica, usualmente llamada
electromagnetismo. Einstein intentó unificar las dos teorías; ese intento continúa vigente. El
gran mérito de Einstein fue descubrir que el campo gravitatorio es una alteración de la curvatura
del espacio-tiempo, debido a la presencia de grandes masas. Otro resultado de su teoría es la
equivalencia entre la masa inercial y la masa gravitacional, o Principio de Equivalencia, el cual
en términos sencillos afirma: un sistema inmerso en un campo gravitatorio es puntualmente
indistinguible de un sistema de referencia no inercial acelerado. Para el lector que no ha seguido
un curso de nivel terciario (o universitario, si se prefiere), hemos hecho un recuento pedagógico
en el apéndice.
Los grandes avances conceptuales que superaron a la mecánica de Newton vinieron
precisamente de la investigación de los fenómenos eléctricos y magnéticos en el siglo siguiente,
particularmente en la segunda parte. Nos dicen Einstein e infeld:
«Durante la segunda mitad del siglo XIX, se introdujeron en la física ideas nuevas y revolucionarias, que
abrieron el camino a un nuevo punto de vista filosófico, distinto del anterior mecanicista. Los resultados
de los trabajos de Faraday, Maxwell y Hertz condujeron al desarrollo de la física moderna… a una nueva
imagen de la realidad».
Antes de hacer una síntesis de los fenómenos eléctricos y su interpretación moderna, volvamos
a la pieza central de la mecánica. Para ello reproducimos aquí dos figuras que pueden verse en
varios textos. La primera ilustra lo que se denomina Campo Gravitatorio de la Tierra, en la región
exterior: decrece con el inverso del cuadrado de la distancia. Por dentro el comportamiento del
campo es diferente: decrece linealmente a medida que nos acercamos al centro. (Intente dibujar
por usted mismo la intensidad o magnitud del campo gravitatorio g, teniendo en cuenta que el
centro de la tierra es el origen de coordenadas. Si quisiera pensar en números, en la superficie
vale aproximadamente 10 m/s2.) Líneas de fuerza del campo se denominan a las flechas que
apuntan hacia la superficie y el centro de la tierra e indican, en cada punto exterior, la dirección
e intensidad en la primera de las figuras.
Figura 1.1a. Campo gravitacional debido a la Tierra. Se ilustran las denominadas líneas de campo, pero
solamente para la región exterior. En el interior no es tan sencillo hacerlo siguiendo el mismo esquema.
Figura 1.1b. Experimento pensado de Newton. Desde lo alto de una montaña (irreal) se lanzan bolas de
cañón cada vez con mayor velocidad (suministrándoles más impulso inicial). Finalmente la bola dará la
vuelta a la tierra, describiendo una trayectoria circular. Eso es lo que hace un satélite artificial (círculo
interno, para un caso extremo, o el externo para una situación real).
1
Hasta hace medio siglo se creía que la carga se presentaba siempre en múltiplos enteros de la carga del
electrón. Gell-Mann y Nishijima, en un intento por reducir a unas pocas el enorme número de partículas
hadrónicas observadas, propusieron un modelo teórico en el que se supone la existencia de algunas
partículas elementales que exhiben carga fraccionaria, 1/3 o 2/3 de la carga del electrón: éstas son los
quarks, de los cuales se han descubierto seis tipos, o mejor, tres colores en dos diferentes sabores.
punto) que eran diminutos corpúsculos; a finales del siglo XIX se creía que los rayos catódicos y
los rayos de luz eran ondas; ahora resulta que los dos haces están compuestos por partículas
que bajo ciertas circunstancias se comportan como ondas. Pero volvamos a la historia del
descubrimiento del electrón como partícula.
En 1709 Francis Hauksbee, conocido por sus observaciones sobre la repulsión eléctrica, reportó
que cuando se extrae aire de una vasija de cristal hasta cuando la presión se reduce a 1/60 la
presión del aire normal y se conecta la vasija con una fuente de electricidad de fricción, aparece
una extraña luz en el interior del recipiente. Destellos similares fueron reportados y asociados
con el vacío parcial que se produce en la superficie superior de columnas de mercurio en los
barómetros. En 1748 el médico naturalista William Watson describía la luz surgida en un tubo
de 81 centímetros en el que se había provocado el vacío, como “un arco de llama lamiente”.
Michael Faraday habla también en sus notas de tales rayos. Al igual que sus contemporáneos no
acertó a comprender la naturaleza de esa luz: era demasiado temprano para realizar los
experimentos que la minuciosa observación (indirecta) de tan diminutas partículas requería.
El rayo, complejo fenómeno de descargas eléctricas que sirvió de punto de partida, tal como lo
concibieron o imaginaron destacados científicos del siglo XIX, podría ser una forma de radiación
producida por las vibraciones del éter, en cuyo caso sería similar en su naturaleza a las ondas
de luz o bien podría ser un haz de partículas diminutas. La naturaleza del rayo que se asocia con
el trueno, una corriente de electricidad, había sido puesta en evidencia en experimentos
realizados en 1752, sugeridos precisamente por el científico y político norteamericano, quien
dedicó muchos de sus esfuerzos a estudiar las intrigantes propiedades de esas descargas,
poniendo en riesgo su vida.
El escenario adecuado para estudios más cuidadosos exigía el desarrollo de tubos de vacío, lo
que se logró por primera vez en Alemania, con los tubos de Geissler. Johan Heinrich Geissler era
un experto soplador de vidrio y encontró la manera de sellar las uniones utilizando mercurio.
Su variante, el tubo de Crookes, permitió la observación más minuciosa de los que inicialmente
fueron bautizados como rayos catódicos. El británico William Crookes e investigadores
alemanes, entre ellos Hertz, quien tuvo el privilegio de producir en su laboratorio las primeras
ondas de radio, inicialmente pensaron que se trataba de ondas electromagnéticas; sus colegas
franceses y británicos eran de la opinión de que se trataba de una corriente eléctrica. En 1894
el colaborador de Hertz Philipp Lenard observó cómo los rayos catódicos traspasaban
fácilmente una delgada lámina metálica sin dejar huella visible, lo que acentuó la creencia de
que se trataba de ondas electromagnéticas. Un factor adicional de confusión lo introdujeron los
rayos X, descubiertos por Wilhelm Röntgen al año siguiente (1895), quien por ese
descubrimiento recibiera el primer premio nobel en Física en 1901. Aunque Crookes cambió de
opinión después de algunos experimentos en los que incluso logró hacer que el haz de rayos
catódicos moviera una liviana paleta, correspondió a su compatriota Thomson dirimir la
cuestión. Todavía no existían razones para creer que existieran partículas de tamaño y masa
mucho menor que los átomos mismos.
La explicación hoy en día es muy sencilla: cuando una corriente eléctrica fluye a través de un
gas, los electrones que forman parte de la corriente (un enjambre de electrones libres) golpean
contra los electrones de los átomos presentes en el gas (electrones ligados) aumentando su
energía (excitándolos y llevándolos a niveles superiores de energía, diríamos hoy), la que torna
a desprenderse en forma de luz (decaimiento o desexcitación) si las condiciones son favorables.
La experiencia que realizaron Franck y Hertz en 1914 lo confirman. Este fue uno de los
experimentos claves que ayudaron a establecer la teoría atómica moderna, pues muestra que
los átomos absorben y emiten energía en pequeñas porciones o cuantos de energía,
verificándose los postulados de Bohr con electrones como proyectiles que proveen la energía.
Las pantallas fluorescentes y las señales de neón se basan en el mismo principio; la coloración
está determinada por la frecuencia de la luz (fotones) que más favorablemente emiten los
átomos del gas (en realidad, los electrones ligados, al pasar de uno a otro nivel de energía).
Era necesario eliminar al máximo permitido por la tecnología de la época el gas residual, antes
de poder detectar al responsable del efecto; era indispensable disponer de bombas de aire
eficaces. En 1885 Geissler inventó una que reducía la presión a una diezmilésima de su valor a
nivel del mar. Julius Plücker, catedrático de filosofía natural en la Universidad de Bonn, realizó
las primeras observaciones bajo estas nuevas condiciones. Utilizando la terminología de
Faraday, se denomina ánodo a la placa unida a la fuente de electricidad positiva y cátodo a la
otra. Resumiendo las observaciones, diríase que algo salía del cátodo, viajaba a través del
espacio casi vacío del tubo, golpeaba el cristal y era recogido por fin en el ánodo. Fue Eugen
Goldstein quien bautizó esa extraña sustancia con el nombre de rayos catódicos.
Pero los rayos catódicos no eran rayos, no formaban parte de la luz, un efecto secundario. Ya el
francés Jean Perrin, más reconocido por la verificación que hizo de las predicciones de Einstein
en torno a los átomos en 1908, desde 1895, en su tesis doctoral, había demostrado que los rayos
depositaban carga eléctrica negativa en un colector de carga. Y el alemán Walter Kaufmann,
asumiendo que se trataba de átomos cargados (o ionizados) del gas residual, trató de establecer
la relación e/m, llegando a la conclusión, para su sorpresa, de que era siempre la misma,
independientemente de qué gas residual se utilizara. Para entonces Thomson había entrado en
escena, pero sus primeras determinaciones de la velocidad de las partículas estaban erradas. El
hábil experimentalista Hertz había descartado prematuramente que las partículas estuvieran
cargadas: los campos eléctricos que aplicó para desviarlas no eran suficientemente intensos, lo
que le impidió culminar exitosamente el estudio emprendido en su laboratorio; téngase
presente además que el alemán estaba influenciado por la posición filosófica de Ernst Mach, su
compatriota. Thomson, libre de ese lastre, aunque no muy hábil con sus manos, de acuerdo con
el testimonio de sus auxiliares, sabía cómo planear el siguiente paso para poder avanzar; y lo
hizo acertadamente.
Rigurosamente hablando, nadie ha visto un electrón, a pesar de que desde hace más de un siglo
su existencia está por fuera de toda duda. Con los instrumentos adecuados, hoy en día se
detecta un electrón o un fotón, o mejor, el paso de un electrón o de un fotón. El tubo de rayos
catódicos (TRC), el mismo que daría lugar a las primeras pantallas de televisión (TV), consistente
en un tubo de vidrio sellado de mediano vacío, con 2 placas metálicas (cátodo y ánodo) que
permiten la producción de una descarga eléctrica con un modesto voltaje, condujo al
descubrimiento del electrón como partícula.
Los aspectos centrales del experimento de Thomson, realizado para determinar la relación
entre la masa y la carga de las partículas responsables de los rayos, pueden verse en cualquier
texto de física y se resumen en una sencilla ecuación que sirve de paso para aplicar los
conceptos de campo eléctrico y campo magnético, novedosos para quienes no tienen
experiencia previa en cursos de física. No así las dificultades que tuvo que vencer. En abril de
1897 expuso ante la Royal Institution su opinión de que esas partículas eran mucho más
diminutas que los denominados átomos: nadie en la audiencia estuvo dispuesto a creerle.
Echemos un rápido vistazo a todo el proceso. No se discuten los detalles por brevedad y porque
el TRC por él utilizado, del cual se ilustra un prototipo en la figura 1.2, forma parte de la anterior
generación de televisores domésticos. Sinteticémoslo de esta manera: el electrón es
previamente acelerado a través de una diferencia de potencial V negativa entre cátodo y ánodo,
ganando así una energía cinética ½mv2 = eV. Al entrar con rapidez v en una región donde existe
un campo eléctrico o un campo magnético (vertical u horizontal, según el caso,
aproximadamente uniforme) es desviado de su trayectoria horizontal una pequeña distancia δ
(δe o δb respectivamente).
Lo esencial del experimento de Thomson se resume en la expresión que obtuvo para la relación
entre la masa y la carga del electrón, m/e, a partir de las desviaciones experimentadas por esa
partícula indivisible (rigurosamente a-tómica) en campos eléctrico E y magnético B,
desviaciones fácilmente evaluables a partir de la fuerza de Lorentz discutida en el apéndice II,
aplicada al electrón en el estricto sentido newtoniano. Simbolizando por ℓ la longitud de la
región de desviación y por L la de la región de proyección (llamada también de deriva), se
encuentra:
m/e = E ℓ L/v2δe
o
m/e = B ℓ L/vδb
según el caso. Nótese que la rapidez de los electrones para desviación con campo eléctrico
envuelve solo la componente horizontal de velocidad. (En todo caso, la componente de
velocidad vertical es insignificante frente a la anterior.) Ella depende solamente de la energía
eléctrica suministrada a los electrones al acelerarlos en el campo eléctrico existente entre el
cátodo y el ánodo, dependiente a su vez de la diferencia de potencial aplicado entre los dos.
Thomson la encontró experimentalmente tomando la relación entre las dos expresiones
anteriores:
v = Eδb/Bδe
puesto que la rapidez es la misma en ambos casos. Es notable que el orden de magnitud de la
velocidad de los electrones así acelerados es una fracción importante de la velocidad de la luz,
alrededor de 108 m/s. Esto permite no tener en cuenta la atracción que de todos modos ejercerá
el campo gravitacional de la Tierra sobre la diminuta masa de los electrones, del orden de 10-31
kg: el tiempo que tardan en cruzar la región de desviación es del orden de 10 -9 s, lo cual se
traduce en caída gravitacional insignificante, despreciable para los cálculos.
Fuerza de Lorentz:
F = q(E + v×B)
Figura 1.2 Vista esquemática de un tubo de rayos catódicos similar al utilizado por Thomson para
establecer experimentalmente la relación entre la masa y la carga del electrón. En la parte superior se
ilustran los campos eléctrico y magnético como los utilizados por Thomson en su experimento para
desviar los electrones, salvo que en el segundo caso dispuso de dos embobinados adecuadamente
dispuestos para que produjeran un campo magnético uniforme, de acuerdo con el diseño de Helmholtz.
‘Jugando’ con voltajes y campos de variadas intensidades, Thomson pudo finalmente controlar
y medir las desviaciones y probar al mundo científico de su época que el responsable principal
de los rayos catódicos era otra cosa: minúsculas partículas, mucho más diminutas que el
supuesto indivisible átomo, presentes por doquier, con manifestaciones visuales
impresionantes en las auroras boreales y australes y en todo tipo de descargas eléctricas
fuertes. En otras palabras, los tales rayos catódicos que finalmente se dejaron desviar por
campos eléctricos y magnéticos suficientemente intensos son los mismos que producen esos
campos, en condiciones usuales menos extremas. Esas partículas iban a ser los actores
principales en la electrónica de los tubos de vacío de la primera mitad del siglo XX. Unas décadas
más tarde, acompañados de los agujeros (‘holes’) que dejan al ser desprendidos por campos
internos en semiconductores dopados, huecos viajeros cargados positivamente, pues son
carencia de carga negativa, darían igualmente lugar a la electrónica del silicio y otros materiales
de banda prohibida (semiconductores; véase el segundo tomo).
Estas últimas expresiones, tan en boga en la electrónica contemporánea, no tendrían sentido
clásicamente. No solo eso, el electrón tiene mucho más para ofrecernos que simplemente
producir las corrientes que circulan en diodos y transistores. Este ente cuántico por excelencia
habría de revelarnos otras pistas sobre el extraño comportamiento de la materia a nivel
submicroscópico. Referimos al lector al texto de Eugenio Ley Koo, El electrón centenario (serie
Ciencia para todos # 165, FCE), en donde se hace un meritorio recuento del siglo del electrón
(Siglo XX). (Ley Koo, 1997.)
1.9.2 Fotoelectrones
Figura 1.3 Efecto fotoeléctrico. Los fotones incidentes sobre el cátodo desprenden fotoelectrones.
Figura 1.4. a) Energía de amarre de los electrones y energía de los fotones incidentes. b) Variación de la
corriente con el voltaje (des)acelerador, para dos intensidades luminosas diferentes ((Ic)1 ˃ (Ic)2).
Heinrich Rudolf Hertz reformuló, con base en sus resultados, la teoría de las ondas
electromagnéticas. A él le debemos también la observación meticulosa (1887) del hoy
importantísimo fenómeno del efecto fotoeléctrico, una corriente eléctrica debida a los
denominados fotoelectrones, electrones desprendidos por la energía luminosa incidente sobre
una placa metálica que para el caso se denomina fotocátodo. Philipp Lenard, quien había sido
ayudante de Hertz, entre 1899 y 1902 estudió minuciosamente las características de los
fotoelectrones, razón principal para que fuera uno de los primeros físicos distinguidos con el
premio Nobel. Hertz había observado, en su estudio de los rayos catódicos, que bajo ciertas
condiciones se producía una chispa en una superficie metálica colocada en el tubo de vacío
iluminada con luz. Se trataba de la corriente fotoeléctrica. Así, pues, quien produjo en su
laboratorio las ondas EM por primera vez, observó también por primera vez el efecto de los
corpúsculos de luz. Hertz murió a los 36 años de edad (1894); su sobrino Gustav Ludwig recibió,
por su participación en el famoso experimento Franck-Hertz, la distinción Nobel que con toda
seguridad habría recibido también Heinrich de no haber muerto prematuramente.
Tras los resultados de Thomson, Lenard pudo comprobar que esos electrones inicialmente
confundidos con rayos podían producirse favorablemente con luz visible de alta frecuencia. La
explicación cualitativa del fenómeno era obvia: la luz transmitía energía a los electrones de la
placa, lo que les permitía salir despedidos. Pero un análisis minucioso del fenómeno trajo
muchas sorpresas.
Entre otras peculiaridades del fenómeno, observó que aplicando un contra-voltaje adecuado del
emisor al colector, como indica la figura 1.4, se puede impedir el flujo de la corriente para un
valor Vo que no depende de la intensidad de la fuente luminosa sino del color o frecuencia de la
luz utilizada: para ese voltaje todos los fotoelectrones son frenados. Por otro lado, por más que
se aumente el voltaje acelerador, la corriente será la misma (corriente de saturación) para una
intensidad luminosa dada: para ese caso, todos los electrones que se desprenden llegarán al
colector. Esto indica que el número de electrones desprendidos sí depende de la intensidad,
como cabe esperar.
Figura 1.5. Tubo al vacío para producir fotoelectrones. El voltaje se puede invertir mediante un
conmutador para frenar los electrones desprendidos.
Aunque la aceptación de los corpúsculos cargados no fue unánime, a pesar de la fuerte evidencia
experimental, Thomson fue más allá: durante los años siguientes, con la colaboración de algunos
auxiliares, entre los que destacaba Charles Wilson, el inventor de las cámaras de niebla,
determinó aproximadamente el valor de la carga del electrón y elaboró un modelo de átomo
que fue compartido por muchos (1899). En ese modelo estático, originalmente propuesto por
Kelvin, los electrones estarían colocados en una especie de jalea con carga positiva distribuida
en una pequeña región del espacio, algo así como un pudín con pasas. El valor preciso de la carga
del electrón fue determinado por Millikan mediante su famoso experimento de la gota de aceite,
una década más tarde.
El modelo de Thomson da cuenta de fenómenos bien conocidos como la electrólisis y las
descargas eléctricas a baja presión. La ionización de la materia es fácil de explicar mediante dicho
modelo. Si bien explica adecuadamente muchos de los hechos observados en la química y el
comportamiento de los rayos catódicos sometidos a campos eléctricos y magnéticos, hace
predicciones incorrectas sobre la distribución de la carga positiva en el interior de los átomos.
Desde otro punto de vista, puede afirmarse que el modelo mecanicista y electrostático de cargas
depositadas en un medio homogéneamente cargado no puede pretender explicar fenómenos
que por su naturaleza son dinámicos. A la luz de la física actual, el mayor éxito de Thomson fue
establecer con gran precisión la relación entre la carga y la masa de los supuestos corpúsculos
cargados. El premio Nobel le fue entregado en 1906 “en reconocimiento a los méritos a sus
investigaciones teóricas y experimentales sobre la conducción de la electricidad en los gases”.
En la literatura es frecuente encontrar referencias a otros modelos similares al de Thomson. Esas
variantes no agregan mucho, salvo resaltar la aceptación que inicialmente tuvo ese modelo en
ciertos círculos. Pero hay algo que sobrevive del modelo de Thomson y trasciende en la teoría
cuántica: es el gas de electrones, inmerso en una especie de jalea de carga positiva que
neutraliza el sistema, útil para representar el comportamiento de los llamados metales simples.
Debe aclararse que en el gas de electrones el comportamiento de estos es el de un gas cuántico,
más específicamente, el gas de Fermi, al que volveremos en la segunda parte (QS II).
1.9.4 Descubrimiento del núcleo y modelo planetario
Figura 1.7. Comparación entre los resultados que cabría esperar de un modelo tipo Thomson y de un
modelo nuclear como el de Rutherford.
La mayor debilidad del modelo de pudín con pasas saltaría a la vista a partir de cuidadosos
experimentos realizados en la Universidad de Manchester por quien fuera inicialmente el
auxiliar de Thomson en el laboratorio de Cavendish (Cambridge). Rutherford, ayudado por sus
auxiliares Hans Geiger y Ernest Marsden, dispuso una serie de experimentos que se realizaron
entre 1908 y 1910. A esto se agregó un modelo teórico implementado por él mismo entre 1911
y 1913.
El experimento consistió esencialmente en bombardear finas láminas metálicas, finalmente de
oro por su peso atómico y maleabilidad, con partículas alfa (núcleos de helio). Las propiedades
dúctiles del oro permiten la elaboración de láminas muy delgadas que son fácilmente
atravesadas por la radiación (emanación del radio, le llamaron entonces). De ser correcto el
modelo atómico de Thomson, el haz de partículas debería atravesar la lámina sin sufrir
desviaciones significativas a su trayectoria; a lo sumo unos pocos grados. Rutherford y sus
colaboradores observaron que un alto porcentaje de partículas atravesaban la lámina sin sufrir
una desviación apreciable, pero un cierto número de ellas era desviado significativamente, a
veces bajo ángulos de difusión mayores de 90 grados, en raras ocasiones rebotando
frontalmente. (Véase la figura 1.7.) Tales desviaciones no podrían darse si el modelo de Thomson
fuese correcto.
Puesto que la carga positiva debería estar concentrada en una pequeñísima región (a la que
llamó Rutherford núcleo atómico), muy inferior a la de la supuesta esfera en que estaría
distribuida la carga negativa (electrones), teniendo en cuenta la ley de Coulomb de atracción
entre cargas de diferente clase, los electrones deberían girar alrededor de la carga positiva
(núcleo) de manera similar a como hacen los planetas alrededor del sol (órbitas elípticas) o la
luna alrededor de la tierra (órbita circular), para que no fueran atrapados por el núcleo.
Figura 1.8. Representación esquemática de las delgadas láminas metálicas atravesadas por radiación α e
ilustración de trayectorias típicas en la dispersión por un núcleo de oro.
El modelo, teóricamente establecido, tenía sentido salvo por un pequeño detalle que se
consideró inicialmente irrelevante: a diferencia de la luna, con carga neta nula, los electrones
tienen una carga que sumada iguala a la del núcleo; la existencia de este se reveló precisamente
a partir de los experimentos encomendados a Geiger y Marsden; téngase en cuenta que el
experimento de la gota de aceite que permitió determinar la carga del electrón fue realizado en
1909 por Robert Millikan y Harvey Fletcher. Una vez conocida la carga del electrón, era posible
estimar la fuerza eléctrica (esencialmente electrostática) que ejercería el núcleo sobre él; esta
debería ser en muchos órdenes de magnitud (~10 40) superior a la fuerza gravitacional. Por otra
parte, las variaciones de los campos electromagnéticos producidos por los electrones al girar no
podrían despreciarse, por lo que las ondas electromagnéticas que se generarían
irremediablemente harían colapsar el átomo si se cumplieran las leyes clásicas. A pesar de lo
equivocado del modelo, era un gran avance comparado con el anterior, debido a Kelvin y a
Thomson. De todos modos, la dificultad presente en el modelo de Rutherford parecía insalvable.
El modelo de Bohr, al que volveremos más adelante, postula que la radiación electromagnética
no se da, si los electrones se encuentran en ciertas órbitas estacionarias, las cuales deberían
satisfacer otros postulados que Bohr agregó al anterior.
El modelo de Rutherford estaba mal, a pesar de lo ingenioso. El danés Niels Bohr, ayudado en
gran medida y sobre todo apoyado por Rutherford, propuso algo mejor, a la postre también
equivocado, pero con ingredientes adecuados para generar las nuevas ideas que la construcción
del edificio cuántico requería. Los dos modelos eran, a pesar de todo, mucho más realistas que
el imaginado por Thomson y Kelvin, una especie de jalea con pasas, en donde las pasas serían
los electrones y la jalea contendría la carga positiva indispensable para neutralizar el átomo; un
modelo infantil para un universo que equivocadamente se supone lleno de lo que en apariencia
se deja ver, a pesar de las brillantes especulaciones de los primeros atomistas. No, el átomo no
solamente es divisible, su interior está prácticamente vacío, como previeron los atomistas, y la
materia (bariónica o hadrónica, hemos de corregir desde ya) se concentra en una pequeñísima
región, el núcleo, un núcleo en el que están firmemente ligados otros constituyentes, los quarks.
Las nubes electrónicas son solo eso: insignificantes nubarrones en el universo nuclear; y sin
embargo, de ellos depende el comportamiento de la materia que observamos en la Tierra, la
misma de la que estamos hechos.
Descubiertos los rayos X (1895), el electrón (1897) y el núcleo atómico (1909), el camino estaba
preparado para examinar más a fondo la constitución de la materia. Una de las primeras
aplicaciones de los rayos X fue precisamente la que llevó a su descubrimiento: su difracción y la
consecuente formación de espectros, no ya solamente de un elemento sino también de un
compuesto y en general de un objeto sólido. Espectroscopio de rayos X o difractómetro de rayos
X es el nombre genérico que recibe el aparato (y la técnica). El fotón, propuesto por Einstein mas
no con ese nombre sino como unidad fundamental de energía de radiación, tendría que esperar
para su aceptación hasta que los experimentos cuidadosamente montados por Millikan durante
una década para refutar a aquel arrojaran resultados totalmente inesperados.
1.9.5 Nubarrones y tormentas
La debilidad ya señalada del modelo de Rutherford venía a agregarse a la lista de problemas que
se habían empezado a manifestar, no solo con la radiación del cuerpo negro: el panorama de la
física clásica tendía a obscurecerse. En efecto, si se mira en perspectiva, a finales del siglo XIX las
dificultades que enfrentaba la concepción clásica mecanicista de los fenómenos naturales eran
grandes. A pesar de las fuertes evidencias en contra, algunos de los más destacados físicos del
momento creían que eran superables. Es famosa una conferencia de Kelvin en la Royal
Institution, pronunciada en abril de 1900, tal vez más destacable por su ingenuo título que por
su contenido: Nineteenth Century clouds over the dynamical theory of heat and ligh. Afirmaba:
«La belleza y claridad de la teoría dinámica (se refiere a la EDC) que concibe el calor y la luz como
modos de movimiento se ve obscurecida por dos nubes. La primera surgió con el carácter
ondulatorio de la luz, ya resuelto por Fresnel y Young, y tiene que ver con la pregunta: ¿Cómo
podría moverse la tierra a través de un sólido elástico, como debe ser esencialmente el éter
luminífero? La segunda es la doctrina de Maxwell-Boltzmann sobre la equipartición de la
energía.» No viene al caso detenerse en los intentos de Kelvin por subsanar estas dificultades,
puesto que ello no es posible dentro de los esquemas de la física clásica conocida hasta
entonces. Einstein resolvió en 1905 la primera dificultad con su nueva concepción del espacio-
tiempo y los dos postulados que sirvieron de base a la teoría de la relatividad especial. Para la
segunda el camino fue más arduo, pero la solución empezó a vislumbrarse con la hipótesis de
cuantización de la energía propuesta por Planck.
Lo que queremos concluir de esta sección, es que no solamente empañaban el panorama las
dos nubes a que se refería Kelvin. Una fuerte tormenta se avecinaba y habría de derribar toda
la concepción clásica del mundo, empezando por su fundamentación determinista. Podría
afirmarse que las primeras ideas se parecían más a paliativos, remiendos que intentaban
preservar las ideas centrales de las teorías ya establecidas.
1.10 Espectros de absorción, de emisión y en el continuo
Nos hemos referido ya a algunos modelos que explican la materia en torno a la existencia de los
átomos y a los modelos atómicos mismos. Los griegos presocráticos habían intuido que existe
una estrecha relación entre esos átomos y la luz. Era necesario entender que esa luz, la luz visible
a que ellos podían referirse, no es más que parte del denominado espectro electromagnético,
parcialmente mencionado en el apéndice II. Yendo todavía más lejos, era indispensable
entender que en últimas observamos esos constituyentes de la materia por la emisión de luz de
todo tipo, en todo el rango de frecuencias, particularmente en la que más emiten.
Figura 1.9. Espectros de radiación en el continuo, de emisión y de absorción.
Todavía incompleto, el modelo estándar de las partículas elementales, o de la física de las altas
energías, como se denomina hoy, nos habla de la estructura básica de esos ingredientes, materia
y energía, y de la forma en que interaccionan o se entrelazan, mucho de ello contenido en la
información. El perfeccionamiento del modelo, como de seguro tendrá que hacerse, no afectará
a la Teoría. Una de las búsquedas incesantes es la Teoría Unificada de las interacciones.