Вы находитесь на странице: 1из 15

BREVE HISTORIA DE LA FÍSICA TEÓRICA

Autor: Zigrino Pompilio Zigrino

Revoluciones
Puede considerarse al 24 de Mayo de 1543 como la fecha simbólica en la que se inicia la ciencia experimental. En ese día muere el sacerdote
católico Nicolás Copérnico (1473-1543) y aparece el primer ejemplar de su libro “De las revoluciones de los cuerpos celestes”, en el que
propone su modelo de sistema planetario solar heliocéntrico. Mantuvo guardados los manuscritos de su libro, antes de editarlo, durante unos
treinta y cinco años. No lo publicaba porque sentía temor por las críticas adversas que podría despertar. Sus estudios universitarios ocupan diez
años de su vida y los realiza en Cracovia, en su Polonia natal, y luego viaja a Italia, donde se gradúa de Doctor en Derecho Canónico. También
estudió Medicina.
En griego, la palabra “planeta” significa “errante”. Esta denominación se asignó a los cuerpos celestes que describen trayectorias en forma de
“S” (vistas desde la Tierra). La antigua astronomía de Claudio Tolomeo (90-168) supone que la Tierra está inmóvil en el centro del universo y que
los planetas describen epiciclos, a su alrededor, o trayectorias en forma de hélice.
En cambio, Copérnico supone que los planetas se mueven siguiendo órbitas circulares alrededor del Sol. Los planetas cercanos giran más
rápido que los externos. Si se observa desde la Tierra, respecto de las estrellas lejanas, el movimiento de un planeta exterior, aparece la
trayectoria en forma de “S” antes mencionada.
En este modelo viene implícita la igualdad entre el reposo y el movimiento rectilíneo uniforme, ya que las trayectorias de los planetas pueden
considerarse como rectas, en pequeños tramos, debido a sus enormes longitudes.
Mientras que en la escala de observación humana existen fuerzas de fricción, que detienen al movimiento inercial, tanto en la escala astronómica
como en la escala atómica son permitidos los movimientos perpetuos, por no existir esas fuerzas.

Física experimental
Galileo Galilei (1564-1642) fue el fundador de la física experimental y uno de los primeros científicos que asoció relaciones matemáticas al
movimiento, siendo el iniciador de la cinemática. Fue el primer observador del cielo que utiliza el telescopio. Con ese instrumento observa que las
sombras proyectadas por la luz solar sobre los cráteres lunares siguen las mismas leyes que en la Tierra. Dio lugar a lo que más tarde se denominó
“principio de Galileo”, el cual establece la invariancia universal de las leyes de la física; algo novedoso en esa época.
En la actualidad podemos afirmar que muchos de los átomos que componen nuestro cuerpo, alguna vez formaron parte de alguna estrella, ya
que el Sol, por su (relativo) reducido tamaño, sólo puede producir (como residuo de la fusión nuclear) átomos de los elementos más simples de la
tabla periódica.
Los adversarios de Copérnico aducían que, si la Tierra gira alrededor del Sol, siendo que la Luna gira en torno de la Tierra, ésta la “perdería”
por su camino. Galileo descubre con su telescopio a cuatro de los satélites naturales que orbitan alrededor de Júpiter, haciendo evidente que un
planeta puede moverse sin inconvenientes junto a sus satélites.
Para difundir las evidencias observadas utilizando el método experimental, Galileo debe luchar contra la opinión adversa de la Iglesia, que no
aceptaba el modelo copernicano. Este rechazo se debió, en principio, a que alguien descubrió que en la Biblia aparece que “Josué ordenó al Sol
que se detuviera”, de ahí se dedujo que el Sol se movía. También debe luchar contra la opinión adversa de los profesores universitarios (que se
basaban en la errónea descripción que Aristóteles realiza respecto del movimiento y de sus causas).
Una de esas descripciones afirma que los cuerpos pesados caen a Tierra antes que los livianos, si se los deja caer desde una misma altura y si se
ignora la resistencia que al aire ofrece al movimiento. Es decir, si M pesa más que m, entonces M caerá antes que m. Galileo, mediante un
razonamiento lógico, muestra la inconsistencia de esa posibilidad. Por ello, piensa en un experimento imaginario en el cual se atan ambos cuerpos,
y ahora se tiene M+m. Si la opinión de Aristóteles es válida, m debería retardar a M, y la unión de ambos debería caer en un instante intermedio
entre las caídas de m y M. Por otra parte, como M+m tiene mayor masa que M y m solas, deberá caer antes que ambas, lo cual es incompatible
con la caída única. Por lo tanto, Galileo asegura que todos los cuerpos caen simultáneamente. Ello se debe a que la mayor masa inercial se opone
más a un movimiento causado por una mayor fuerza de atracción gravitacional, compensándose ambos efectos y cayendo todos los cuerpos con
una misma aceleración.
Galileo describe matemáticamente al movimiento acelerado, en el cual viene implícita la inercia, ya que, el movimiento causado por la fuerza de
gravedad es mantenido por la inercia. Al persistir la aplicación de esa fuerza, el móvil se ha de acelerar.
También descubre la “composición del movimiento”. Así, si arrojamos horizontalmente, desde cierta altura, a un objeto, en el sentido horizontal
tenderá a moverse inercialmente (a velocidad constante), mientras que la Tierra le impondrá un movimiento descendente uniformemente acelerado.
La trayectoria final será la descripta por un movimiento combinado de ambos efectos superpuestos.

Órbitas elípticas

Johannes Kepler (1571-1630) encuentra las leyes que rigen el movimiento de los planetas del sistema planetario solar:

1) Cada planeta se mueve según una órbita elíptica, ocupando el Sol uno de los focos de la elipse.
2) Considerando una recta que va desde un planeta al Sol, en tiempos iguales la recta “barre” áreas iguales.
3) Existe un valor constante para la relación entre el cubo de la distancia media (R) de un planeta al Sol y el cuadrado del tiempo
medio (T) empleado para girar una vuelta.

Kepler, astrónomo alemán, colabora con Tycho Brahe (1546-1601), quien, antes de la aparición del telescopio, es el mayor observador del
cielo. La diferencia entre las órbitas circulares de Copérnico y las órbitas elípticas de Kepler se evidencian en la observación de un ángulo de
apenas 8 minutos. Cualquiera hubiese supuesto un error de observación, pero Kepler conocía el nivel de precisión con el que Brahe realizaba sus
mediciones y pudo así iniciar el camino hacia la ley de la gravitación universal que más tarde descubriría Newton.
En la época de Kepler se conocían seis planetas, mientras que los pitagóricos descubrieron la existencia de sólo cinco sólidos perfectos, es
decir, cuerpos geométricos limitados por una misma figura geométrica. Por ejemplo, el cubo limitado por cuadrados. Kepler estableció la hipótesis
de que los planetas se moverían a través de esferas intercaladas entre los sólidos pitagóricos concéntricos. Esta idea errónea fue su mayor orgullo
y fue la que motivó sus intensos trabajos de investigación.

Mecánica y gravitación

Isaac Newton (1642-1727) dijo: Si he tenido una visión más amplia, es porque me he subido a los hombros de gigantes. Esos gigantes son,
sin duda, Galileo y Kepler. Al igual que Kepler, Newton nació prematuramente. Se dice que, al nacer, pesaba apenas un kilogramo. Es
considerado como el científico más sobresaliente de la historia. Estableció las leyes de la mecánica, la ley de gravitación universal, el vínculo entre
el cálculo diferencial y el integral, la composición de la luz blanca, etc.
Las leyes básicas de la mecánica newtoniana son: 1) Principio de inercia, 2) Ley de la dinámica (F = m.a) , 3) Principio de acción y reacción.
En la segunda ley viene implícita la igualdad dinámica existente entre el reposo y el movimiento rectilíneo uniforme, ya que, si la fuerza aplicada es
nula, también lo será la aceleración, lo que equivale a una velocidad nula o bien a una velocidad constante.
Antes de Newton, los científicos suponían que la fuerza que movía a los planetas tenía la misma dirección que su movimiento; incluso se pensaba
que eran empujados por “ángeles invisibles”. A partir de Newton se consideró que la fuerza estaba dirigida hacia el Sol y que el movimiento era
inercial. Luego aparece Einstein y describe los mencionados movimientos sin considerar fuerza alguna, sino estableciendo que el movimiento es
inercial y que los planetas se mueven por el espacio-tiempo curvo, siendo esta curvatura un efecto del campo gravitacional del Sol.
Si consideramos que un cuerpo se mueve en línea recta, a velocidad constante, decimos que se trata de un “movimiento inercial” (si no hay
tampoco fuerzas de fricción). Las longitudes recorridas serán proporcionales a los tiempos empleados. Si trazamos un punto exterior a la recta, a
una cierta distancia, y si, además, trazamos desde el punto algunas rectas de manera que se formen segmentos iguales sobre la recta, veremos que
se forma una sucesión de triángulos que tienen igual área. La segunda ley de Kepler fue interpretada por Newton como una consecuencia
necesaria de un movimiento inercial.
Si arrojamos horizontalmente un objeto, describimos al movimiento como el efecto de dos causas: un movimiento inercial (en sentido horizontal)
y un movimiento uniformemente acelerado (caída a Tierra), tal como fue establecido por Galileo. La idea de que la gravitación celeste es la misma
que la gravitación terrestre, aparece cuando Newton supone que la misma fuerza que hace caer una manzana a Tierra, es la que hace “caer” a la
Luna. Como la Luna mantiene un movimiento inercial, la parábola se convierte en una circunferencia, dado que posee velocidad suficiente para
escapar a la caída.
Para la deducción de la ley de la gravitación universal se pueden considerar movimientos circulares. Cristian Huygens (1626-1695) había
encontrado la fórmula para calcular la aceleración centrípeta (a = v² / R). Esta aceleración se reemplaza en la segunda ley de la dinámica (F =
m.a). Como el movimiento es circular, la velocidad es la relación entre la longitud de la órbita (2 π R) y el tiempo empleado en recorrerla (T).
Kepler había descubierto una relación constante que expresa con su tercera ley (K = R³ / T²). Agrupando constantes, se llega a la ley de la
gravitación universal. (Esta es una forma elemental de deducción no utilizada por Newton):

Msol x Mtierra
Fuerza = Constante ────────────

En épocas de Newton se conocía un fenómeno que no se podía explicar y que podría llevar a la destrucción del sistema planetario solar. Júpiter
aumentaba su velocidad de traslación mientras que Saturno la disminuía. Newton dijo que …quizás las irregularidades irán en aumento hasta
que el sistema sea de nuevo puesto en orden por su Creador.
Debido a la existencia de órbitas elípticas, los planetas se acercan al Sol en una época mientras que se alejan en otra. De ahí que cambia la
posición del centro de masa del sistema. Este cambio perturba las órbitas y, en el caso de Júpiter y Saturno, se invierte el adelanto y el atraso con
un periodo de 929 años. Tales cálculos los realizó Pierre Simón de Laplace (1749-1827), quien respondió: No he tenido necesidad de esa
hipótesis, cuando Napoleón le preguntó por la supuesta intervención divina mencionada por Newton.

Funciones y cálculo
A las magnitudes físicas tales como espacio, tiempo, velocidad, aceleración, etc., se les asocian entes matemáticos tales como variables continuas,
vectores, matrices, etc. Realizando operaciones matemáticas sobre estos entes asociados, se reproduce el ordenamiento existente en los
fenómenos naturales. De ahí que la “ley natural humana” (la descripción de la ley natural) en física adquiere una forma matemática. La física teórica
es la física “del lápiz y del papel”, permitiendo el progreso de esta rama de la ciencia a través de predicciones puramente matemáticas.
En la descripción del movimiento se utilizan variables numéricas ligadas funcionalmente. La ley natural humana vendría a ser el vínculo
permanente (función matemática) entre dichas variables.
Para medir el cambio relativo existente entre dos variables ligadas funcionalmente se estableció la operación denominada “derivación”. Podemos
considerar al cálculo diferencial como una forma de medir la velocidad de cambio del cociente entre dos variables que cumplen el requisito
mencionado.
Siendo y = f (x), podemos denominar a (y2 – y1 ) como el “cambio absoluto de la variable y”. Si a ese cambio lo dividimos por el cambio
correspondiente en x, tendremos el “cambio relativo de y respecto de x”, es decir:

y2 − y1 Δy
Cambio relativo = ────── = ───
x2 − x1 Δx

Para obtener el “cambio relativo generalizado”, para todos los valores de (x), debemos saltar al límite:
,
Δy
Cambio relativo generalizado = lím ───
Δx → 0 Δx
Por ejemplo, si tenemos la función y = constante la gráfica respectiva, en un sistema de coordenadas cartesiano, tendrá la forma de una recta
“horizontal”. En este caso, el cambio relativo de y respecto de x es nulo (no hay cambio). Por ello la derivada será y’ = 0. Otro ejemplo: si es y
= x (recta a 45º) será y’ = 1. Decimos que es un “crecimiento unitario”, ya que y crece tanto como lo hace x.
Podemos escribir la segunda ley de Newton como:

d(velocidad)
Fuerza = masa ────────
d(tiempo)
En donde la aceleración ha sido reemplazada por el “ritmo de cambio de la velocidad respecto del tiempo”.
Existe una operación inversa a la derivación y es la integración. Así como la derivada es una medida del cambio entre variables que se estudia
observando cómo varía el cociente de dichas variables, la integral es una medida de cómo varía el producto de esas variables. Geométricamente,
en un plano, dicho producto es un área. Por ejemplo, si partimos de la función y = 1 (recta paralela al eje x) , al integrarla nos da Int = x
(recta creciente a 45º). Esto puede interpretarse diciendo que el área correspondiente a y = 1 crece linealmente a medida que “nos movemos por
el eje x hacia la derecha”. En física se dice que “la integral es el efecto total en un proceso continuo”.

Ondas
La materia se presenta al físico bajo dos formas básicas: una es la continua y la otra la discontinua. Al aspecto continuo lo presentan los líquidos
(alrededor del agua hay agua), mientras que al aspecto discontinuo lo presentan las partículas (alrededor de una piedra hay aire). Así como la
segunda ley de Newton es la ley básica del movimiento de las partículas, ha de existir una ley básica para el movimiento de los medios continuos,
tal el caso de la “ecuación de onda” de D’Alembert. Jean Le Rond D’Alembert (1717-1783) fue abandonado por su madre, luego de nacer, en
las puertas de la iglesia de Saint Jean Le Rond, de ahí el nombre que le dan sus padres adoptivos.
Así como una ecuación algebraica es una igualdad condicional, que se cumple sólo para algunos números (raíces o soluciones de la ecuación),
pueden realizarse “ecuaciones diferenciales” que son igualdades condicionales que, al tener derivadas de funciones, se cumplen sólo para ciertas
funciones que han de ser las “soluciones” de la ecuación diferencial. La ecuación de ondas tiene, en física, una importancia tan grande como la ley
del movimiento de las partículas.
Para una onda que se mueve en dirección del eje x, en un medio continuo caracterizado por alguna magnitud u = u (x,t), siendo u una función
del espacio y del tiempo, la ecuación diferencial será la siguiente:

∂²u 1 ∂²u
─── = ── ───
∂²x² v² ∂t²

En este caso aparecen derivadas parciales (se deriva respecto de la variable indicada considerando constante a la otra variable). La velocidad de
propagación del movimiento ondulatorio será v. La solución general de esta ecuación tendrá la siguiente forma:

u = U sen 2π (x ⁄ λ – t ⁄ T)
U es el valor máximo o amplitud del movimiento, λ es la longitud de onda y T es el periodo de la onda senoidal. En esta solución aparece una
“periodicidad espacial” (si detenemos al tiempo, como si sacáramos una fotografía, aparece una forma senoidal) y también una “periodicidad
temporal” (si nos detenemos en un punto del espacio, la magnitud u varía en el tiempo en forma senoidal).
A la periodicidad espacial se la caracteriza por el “número de onda”, mientras que a la periodicidad temporal se la caracteriza mediante la
“velocidad angular”.

Número de onda: k = 2π ⁄ λ

Velocidad angular: ω = 2π ⁄ T

Luego; u = U sen ( k x – ω t)
La función trigonométrica seno está aplicada a un ángulo. Dicho ángulo se denomina “fase” del movimiento ondulatorio.

Mecánica analítica
La mecánica newtoniana es esencialmente una “mecánica vectorial”, o geométrica, cuyas magnitudes básicas son la “fuerza” y la “cantidad de
movimiento”. A partir de Goodfried Leibniz (1646-1716) comienza a buscarse una “mecánica escalar” cuyas magnitudes básicas serán la “energía
cinética” y la “energía potencial”.
Joseph Louis Lagrange (1736-1813) logró establecer una nueva formulación de la mecánica que aparece en su libro “Mecánica analítica” en
cuyo prefacio indica: ..en esta obra no encontrará gráficos. Utilizando como magnitudes básicas a la posición x y a la velocidad v logra una
mecánica escalar que sigue la tendencia iniciada por Leibniz.
Lagrange utiliza “coordenadas generalizadas” y a sus respectivas derivadas. Así, puede describirse al movimiento circular en base a ángulo y a
velocidad angular con un tratamiento matemático idéntico al utilizado para la descripción del movimiento lineal. Puede decirse que “unifica” al
movimiento lineal con el circular. Incluso la descripción de Lagrange se adapta a cualquier tipo de coordenadas, ya sean cartesianas, polares,
cilíndricas, etc., y su forma matemática permanece inalterada. Incluso su forma permanece invariante ante una traslación de coordenadas a
velocidad uniforme, lo que la hace apta para la mecánica relativista. La ecuación básica (para cada grado de libertad del sistema) es la
denominada “ecuación de Euler-Lagrange):

d ∂L ∂L
── ─── − ─── = 0 para L = T − U
dt ∂v ∂x

En este caso se hace referencia al movimiento lineal, mientras que L (función de Lagrange o lagrangiano) es la diferencia entre la energía cinética T
y la energía potencial U. Realizando las operaciones indicadas se obtienen las leyes de Newton de la mecánica.
Si tuviésemos que sintetizar en pocas palabras a todo el desarrollo de la física teórica, desde sus inicios hasta nuestros días, podríamos decir que
ha consistido en buscar, en distintas situaciones, la “función de Lagrange” para ser introducida en la “ecuación de Euler-Lagrange” para
permitirnos encontrar todas las ecuaciones importantes de la física teórica; incluso los principios de conservación vienen implícitos en esta
maravillosa ecuación diferencial. En realidad, históricamente no se ha procedido de esa manera sino que, indirectamente, en ello ha consistido el
progreso de la física teórica.

Hamilton
La dinámica de Newton aparece en el siglo XVII, la dinámica de Lagrange en el siglo XVIII, mientras que la tercera formulación de la dinámica se
debe a William R. Hamilton (1805-1865) y fue realizada durante el siglo XIX. Las tres descripciones son equivalentes, si bien las formulaciones
de Hamilton y de Lagrange se aplicarán fuera del ámbito original en donde fueron planteadas.
Hamilton describe los fenómenos mecánicos considerando dos magnitudes básicas: la cantidad de movimiento p y la posición x. Las
ecuaciones básicas serán:

dx ∂H dp ∂H
─── = ─── ─── = − ─── para H = T + U
dt ∂p dt ∂x

en donde H es la “función de Hamilton” o “hamiltoniano”, T y U las energías cinética y potencial, respectivamente. A partir de esta formulación
pueden reencontrarse las fórmulas de la dinámica newtoniana y de la dinámica de Lagrange.
Cuando se habla de la “mecánica clásica” se hace referencia a la “mecánica de Newton-Lagrange-Hamilton”, en la que no se han hecho las
“correcciones relativistas” ni las “correcciones cuánticas” que han de caracterizar a la física del siglo XX.
En 1805, Hamilton descubre una importante analogía entre la óptica y la mecánica. Una de las ecuaciones obtenidas por Hamilton, junto a Carl
Jacobi (1804-1851), incluye a la acción S (energía x tiempo) como magnitud física fundamental. Tal ecuación, para el movimiento de una partícula
de masa m que se mueve en la dirección x es la siguiente:

(∂S ⁄ ∂x) ² = 2 m (E − U)
Mientras que en la óptica se conocía una ecuación similar:

(∂u ⁄ ∂x) ² = n² ⁄ c²
En donde E es la energía total, u es una magnitud asociada a una onda transversal, n es el índice de refracción y c la velocidad de propagación de
dicha onda (luz).
A partir de estas ecuaciones se comprobó que un rayo luminoso resulta ser (desde el punto de vista de la óptica ondulatoria) una trayectoria
perpendicular a los frentes de ondas esféricos emitidos por una fuente luminosa puntual. Tales frentes de onda serían superficies de igual fase. Por
otra parte, la trayectoria que describe una partícula que se mueve en el campo gravitacional de la Tierra resulta ser perpendicular a las superficies
de igual acción.
La propagación de los rayos luminosos cumple con el “principio del tiempo mínimo” establecido por Pierre de Fermat (1601-1665), mientras
que el movimiento de una partícula como la mencionada, sigue el “principio de mínima acción” establecido originalmente por Pierre de Maupertuis
(1698-1759) y perfeccionado por físicos posteriores.
A partir de esta analogía se produce una vinculación matemática entre el movimiento en medios continuos (ondas) y el movimiento en medios
discontinuos (partículas). Esta analogía, sintetizada a continuación, ha de tener influencia posterior en la física del átomo y del núcleo atómico, pero
esta vez a través de un vínculo concreto entre las magnitudes físicas asociadas a ambos tipos de movimiento, lo que se conocerá como la
“dualidad onda-partícula”.

ONDAS LUMINOSAS PARTÍCULAS

Rayo luminoso Trayectoria


Principio del tiempo mínimo Principio de mínima acción
Frecuencia Energía
Velocidad de grupo Velocidad de la partícula
Fase Acción
Número de onda Cantidad de movimiento

Ya en el siglo XIX comienza a vislumbrarse una tendencia que es necesario tener presente para seguir el desarrollo histórico de la física. Para
comprender los trabajos de Kepler, Galileo o Newton, “miramos las fórmulas pensando en los fenómenos”, ya que es posible tener una imagen
mental bastante cercana a la realidad. El cambio de actitud consiste en “imaginar los fenómenos pensando en las fórmulas”. La analogía descripta
surgió al realizarse un análisis teórico, o matemático, antes que establecer una asociación de imágenes surgidas de los propios fenómenos
naturales.

Electricidad y magnetismo
Christian Oersted (1777-1851) descubre que, junto a un conductor metálico que conduce una corriente eléctrica, aparece un campo magnético
capaz de desviar la aguja de una brújula. Este vínculo entre electricidad (en movimiento) y magnetismo fue descripto matemáticamente por André
Marie Ampere (1775-1836). El paso siguiente habría de darse encontrando un vínculo entre magnetismo y electricidad, es decir, a partir de un
campo magnético habría de obtenerse algún fenómeno eléctrico.
Michael Faraday (1791-1867) utilizó dos bobinas arrolladas sobre un núcleo de material ferromagnético (logrando un “transformador”) y le
conectó al bobinado primario una fuente de tensión continua. En el momento de cerrar el circuito, se produce una expansión del campo magnético
y aparece una tensión eléctrica en el bobinado secundario (aguja de un voltímetro hacia la derecha). Cuando el interruptor queda cerrado, hay
corriente, hay campo magnético, pero no hay variación del mismo. Tampoco hay tensión en el secundario (aguja en cero). Cuando se abre el
interruptor que alimenta al primario, el campo magnético se contrae y aparece una tensión de polaridad opuesta a la del primer caso (aguja hacia
la izquierda). De esta experiencia se concluye que la tensión inducida depende de la velocidad de variación del flujo magnético asociado a cierto
bobinado:


Tensión = − N ───
dt
Esta ley también está asociada a los nombres de Joseph Henry (1797-1878) y de Heinrich Lenz (1804-1865).
El concepto de “campo de fuerza” es introducido en la física por Faraday. Generalmente se piensa que todo descubrimiento implica conocer,
por parte del descubridor, la casi totalidad de los trabajos ya realizados en el tema respectivo. Sin embargo, como Faraday no había ido a la
universidad, desconocía el cálculo infinitesimal y le costaba mucho trabajo comprender los artículos de físicos franceses como Biot, Savart,
Ampere, etc. Estas circunstancias lo obligan a describir los fenómenos electromagnéticos con el mencionado concepto. A partir de Faraday se
deja de lado la “acción a distancia” y se describen las interacciones diciendo que “la partícula A crea un campo de fuerzas que actúa sobre la
partícula B“.

El capacitor de Maxwell
Si conectamos un capacitor a un generador de tensión alterna, existirá una corriente alterna por el circuito asociado al capacitor (corriente de
carga y descarga), sin embargo, a través del aislante (entre las placas del capacitor) no habrá circulación de corriente eléctrica, ya que el aislante
no dispone de cargas móviles.
Cada vez que existe una corriente eléctrica, aparece un campo magnético que la rodea. Por lo tanto, habría un campo magnético alrededor de
todo el circuito, excepto en la zona que corresponde al aislante. Entonces James Clerk Maxwell (1831-1879) pensó que podía establecerse la
continuidad del campo magnético si se supone que a un campo magnético no sólo lo produciría una corriente eléctrica, sino también una variación
de campo eléctrico no asociado al movimiento de cargas eléctricas, como sucede en el espacio comprendido entre las placas del capacitor.
La existencia de estas “corrientes de desplazamiento” fueron previstas por Maxwell observando las ecuaciones de la electricidad y del
magnetismo vigentes en su época. Si existiese el nuevo fenómeno por él imaginado, cumplirían idéntico papel matemático las magnitudes físicas
asociadas al campo eléctrico tanto como las asociadas al campo magnético. Así, las nuevas leyes del electromagnetismo permitirían la existencia
de ondas electromagnéticas. Maxwell calculó la velocidad de propagación de dichas ondas y resultó que coincidía con la velocidad de
propagación de la luz, concluyendo en que la luz es también una perturbación electromagnética. De esta forma se produce la unificación de la
radiación con el electromagnetismo.

Ecuaciones de Maxwell
El conjunto de ecuaciones vectoriales que permitieron describir la mayor parte de los fenómenos electromagnéticos conocidos, se conoce como
las “ecuaciones de Maxwell”, y son las siguientes:

GAUSS div E = ρ

GAUSS div B = 0

AMPERE – MAXWELL ∂E
rot B = J + ───
∂t

FARADAY ∂B
rot E = − ───
∂t

Así como un vector está caracterizado por tres números (que son las componentes según algún sistema de coordenadas), las ecuaciones del
cálculo vectorial, agrupan tres ecuaciones del cálculo diferencial, dando lugar a nuevas operaciones matemáticas, como las indicadas.
El cálculo vectorial permite describir los campos de fuerzas asociando un vector a cada punto del espacio. Por ejemplo, si consideramos el caso
de un río que lleva cierto caudal, en cada punto del cauce podemos asociar un vector “velocidad”, y así tendremos un campo vectorial de
velocidades.
Mediante una pequeña rueda exploradora podremos saber si existen torbellinos que tiendan a hacerla girar. El sentido de giro, la velocidad
angular y la orientación del eje de la ruedita exploradora constituirán otro campo vectorial que será el “rotor” (rot) del campo de velocidades. Si
no se forman torbellinos, caracterizaremos a ese campo de velocidades diciendo que rot v = 0. Cuando se destapa la salida ubicada en el fondo
de un recipiente con agua, tendremos un rotor resultante no nulo que será coincidente con el centro de la abertura.
El gradiente (grad) de un campo vectorial es la máxima derivada direccional en un punto del mismo. Para comprender su significado
consideraremos el campo vectorial constituido por la fuerza de gravedad. Además, consideraremos una pequeña esfera que será abandonada en
la ladera de una montaña. El movimiento de la esfera exploradora determinará la máxima pendiente. Así, en cada punto de la montaña podremos
asociar un vector y tendremos el campo vectorial “gradiente”.
Para saber cuántas líneas de fuerza eléctrica parten (o entran) de una carga eléctrica, podemos encerrarla con una esfera imaginaria y así
podremos “contar” las líneas mencionadas. Si, con la esfera de referencia, encerramos una carga positiva, la divergencia (div) tendrá un valor
distinto de cero, mientras que si encerramos igual cantidad de cargas positivas como negativas, la divergencia será nula. La divergencia se aplica a
los campos vectoriales, pero su resultado no es un vector, sino un número (magnitud escalar).
Respecto de las ecuaciones de Maxwell, podemos interpretarlas de la siguiente manera: la primera indica que las cargas eléctricas (cuya
densidad volumétrica ρ se indica en el miembro derecho de la igualdad) producen un campo vectorial eléctrico E, cuyas líneas de fuerza tienen
origen y fin. La segunda indica que un campo magnético estático está constituido por líneas de fuerzas cerradas (sin origen ni fin). Estas ecuaciones
se justifican mediante el teorema de Gauss. La tercera es la ecuación de Ampere-Maxwell e indica que a un campo magnético B lo produce la
circulación de una corriente eléctrica de densidad J y también una variación temporal del campo eléctrico E, tal como antes se mencionó. La
cuarta indica que a un campo eléctrico dinámico E lo produce un campo magnético variable B, lo que constituye la “ley de inducción
electromagnética” de Faraday.
Hendrik Lorentz (1853-1928) agrega a estas ecuaciones otra que expresa a la “fuerza de Lorentz” y que se utiliza para la descripción del
movimiento de partículas cargadas eléctricamente y que se mueven en campos eléctricos y magnéticos.

Potenciales y lagrangiano
En la mecánica, podemos vincular a la energía potencial gravitacional con la fuerza de gravedad mediante la siguiente expresión:

Fuerza = − grad U = − ÑU

En donde el operador nabla (Ñ) aplicado a U produce ÑU = ∂U ⁄ ∂x i + ∂U ⁄ ∂y j + ∂U ⁄ ∂z k

Decimos que la fuerza es el gradiente de la energía potencial gravitacional. Esta igualdad puede comprenderse considerando la existencia de
superficies equipotenciales, que serían superficies de igual nivel (como las marcas que dejaría el agua al sumergir parcialmente a una montaña). El
gradiente resulta ser un campo vectorial perpendicular a las superficies de nivel, que en realidad son esferas concéntricas con la Tierra. En cuanto
al signo menos, debemos tener presente que, al alejarnos de la Tierra, aumenta la energía potencial, mientras que las líneas de fuerza
gravitacionales tienen sentido opuesto a ese crecimiento de U.
Si buscamos la divergencia de dicha fuerza, en una zona en donde no existe distribución de masa, pero sí un campo gravitacional, dicha
divergencia será nula (ya que en la esfera medidora entran tantas líneas de fuerza como las que salen). Aplicando nuevamente el operador vectorial
nabla (Ñ) , tendremos:

div F = Ñ. F = 0 o también Ѳ U = 0

Esta última es la “ecuación de Laplace”, mientras que si realizamos una evaluación similar en zonas en donde existe una distribución de masas
distinta de cero, tendremos:

Ѳ U = σ

siendo ésta la “ecuación de Poisson” (por Denis Poisson (1781-1840)).


Para obtener las ecuaciones de Laplace y de Poisson en electrostática, se definió al “potencial escalar eléctrico” (V) de tal manera que:

E = − ÑV y Ѳ V = 0 Ѳ V = ρ

que da lugar a la ecuación de Laplace para zonas donde no hay carga eléctrica y a la ecuación de Poisson para lugares con densidad volumétrica
de carga distinta de cero.
Para obtener algunas ventajas matemáticas posteriores, se definió también al “potencial vectorial magnético” (A) que está vinculado a la
densidad de flujo magnético (B) de la siguiente manera;

B = rot A = Ñ x A

Pudo establecerse la anterior igualdad ya que, de la segunda ecuación de Maxwell , es (div B = 0) , mientras que existe una identidad del cálculo
vectorial que indica que la divergencia de un rotor es siempre nula, lo que nos da cierta libertad de elegir alguno en forma arbitraria. Al adoptar
este potencial vectorial, la intensidad de campo eléctrico quedará:

E = −ÑV − ∂A ⁄ ∂t

Debido a que el rotor implica derivadas parciales respecto de las coordenadas espaciales x, y, z, si al potencial vectorial A le agregamos el
gradiente de una función arbitraria, no cambiará el valor de los campos B y E. Esto se debe a que siempre se cumple que rot grad f = 0
cualquiera sea f, luego:

A = A’ + Ñχ V = V’ + ∂χ ⁄ ∂t
Estas últimas igualdades, que permiten introducir una función arbitraria, se conocen como “transformación gauge electromagnética”, que es una
“calibración invariante”. Junto a la “transformación gauge cuántica” habrá de desempeñar un importante papel en la física del siglo XX.
Para la descripción de la radiación de ondas electromagnéticas se establece la “condición de Lorentz”, que vincula ambos potenciales:

div A = − (1 ⁄ c²) ∂V ⁄ ∂t
Es interesante destacar que es posible encontrar un “lagrangiano de Maxwell” el que, al ser introducido en la ecuación de Euler-Lagrange, nos
permite obtener las ecuaciones de Maxwell. Debe aclararse que, en el caso de los campos de fuerzas, el lagrangiano es una “densidad de
energía”. La función mencionada es la siguiente:

L = ½ (E² − B²) − ρ V + J A
A la primera parte la llamaremos Lem (lagrangiano del campo electromagnético), es decir, a ½ (E²−B²), y al resto le llamaremos Lint
(lagrangiano de la interacción). Tal interacción es la que ocurre entre dicho campo y las fuentes que lo producen (densidad de carga ρ y densidad
de corriente J). Esta distinción es importante para aplicaciones posteriores.
Podemos decir que toda la física clásica (mecánica y electromagnetismo) puede describirse a partir de la ecuación de Euler-Lagrange.

Espacios reales y abstractos


Cuando René Descartes (1596-1650) y Pierre de Fermat (1601-1665) vinculan el álgebra con la geometría, creando la geometría analítica, no
sólo permiten resolver problemas geométricos mediante métodos algebraicos, sino también generalizar conceptos asociados al espacio real para
lograr espacios abstractos que, en cierta forma, también son partes del mundo real.
Una de las relaciones matemáticas más importantes la constituye el teorema de Pitágoras, conocido desde el siglo VI AC, y al que podemos
interpretar como la expresión matemática de la mínima distancia entre dos puntos de un plano. Como el plano está descripto mediante dos
variables continuas, o dimensiones, dicho teorema implicará:

ds² = dx² + dy²


En esta expresión aparecen diferenciales , los que pueden interpretarse como longitudes muy pequeñas comparadas con las magnitudes reales del
espacio que representan. Podemos ahora generalizar la expresión anterior a tres dimensiones:

ds² = dx² + dy² + dz²


Este espacio euclideano es el marco en el que se desarrolla la física newtoniana y caracterizó la imagen más profunda que el hombre tenía sobre el
mundo físico. El espacio y el tiempo fueron considerados como partes de un marco exterior a la materia y a la radiación con propiedades
independientes de éstas. También el espacio y el tiempo se consideraban independientes entre ellos.
Según la geometría analítica, un punto en el plano puede caracterizarse mediante dos componentes cartesianas (x1, y1) , aunque cambiaremos la
denominación de las dimensiones espaciales para establecer una generalización posterior y diremos que esas componentes serán (x1, x2) . Luego,
un punto en el espacio será caracterizado por tres componentes (x1, x2, x3). En todos los casos con la ya mencionada distancia mínima o
“métrica euclídea”.
Físicamente hablando, no es admisible considerar un espacio cuyas dimensiones sean mayores a tres, pero en la representación algebraica
podemos escribir (x1, x2, x3, x4) y así lograr el primer espacio abstracto: el tetradimensional. También podemos escribir: (x1, x2, ......, xn), o
también (x1, x2,...., xn,.....) siendo este último el espacio abstracto de infinitas dimensiones. En todos los casos hemos supuesto una “métrica
euclídea” (o pitagórica) aunque es posible crear espacios con una métrica, o distancia mínima, distinta a la euclídea.
En el siglo XIX, Carl Gauss encuentra una expresión matemática para la distancia mínima sobre una superficie curva:

ds² = E dp² + 2 F dp dq + G dq²


Esta es una métrica más general que incluye a la euclídea cuando es F = 0. Podemos decir que la geometría plana es un caso especial de la
geometría curva. Recordemos que sobre la superficie de una esfera, la suma de los ángulos interiores de un triángulo no suman 180°, ni la relación
entre la longitud de una circunferencia y su diámetro e s p, ya que dicha superficie “padece de incurable curvatura” es la expresión del físico
George Gamow (1904-1968). Posteriormente, Bernhard Riemann (1826-1866) generaliza la métrica no euclideana y la aplica a espacios curvos
n-dimensionales, mientras que David Hilbert (1862-1943) estudia espacios de infinitas dimensiones con métrica euclídea.

Espacio-tiempo y relatividad
A principios del siglo XX aparece la teoría de la relatividad especial, o restringida, en donde se considera la existencia de un intervalo de espacio-
tiempo. Este intervalo tetradimensional se atribuye al matemático Hermann Minkowski (1864-1909), y resulta invariante a los distintos sistemas de
coordenadas inerciales (SC):

ds² = c² dt² - dx² - dy² - dz²

Esta vez la distnacia mínima pasa a ser un “intervalo mínimo” de espacio y tiempo. Dicho intervalo ha de ser establecido por la propagación de un
rayo luminosos en vez de ser una característica intrínseca del espacio. Se considera, por lo tanto, que el espacio tiempo y el tiempo son
magnitudes derivadas de la radiación y de la materia, como se verá luego. Albert Einstein (1879-1955) dijo: ..antes pensábamos que si
sacásemos todas las cosas del universo, nos quedaría el espacio y el tiempo. Ahora pensamos que no quedaría nada.
Se dijo que el intervalo espacio-tiempo anterior es el mismo para dos observadores en movimiento inercial. Ello se debe a que la luz es un
fenómeno similar para todos. Esto resulta poco intuitivo por cuanto estamos habituados a referir todo tipo de movimiento a un espacio universal y
absoluto, independiente de lo que en él exista. Así, llegamos a pensar que si nos moviéramos a la misma velocidad que un rayo de luz, le veríamos
“detenido”. Como no existe tal espacio universal, siempre medimos la misma velocidad c.
Ya que la luz es una perturbación electromagnética, regida por las ecuaciones de Maxwell, al movernos (supuestamente) a la misma velocidad
que la luz, no habría variación de campos eléctricos ni variación de campos magnéticos, es decir, ya no habría luz. El universo tendría un aspecto
distinto según el estado de movimiento del observador. Tampoco habría igualdad entre los observadores que se mueven entre sí a velocidad
constante. Había que aceptar el principio de relatividad (igualdad entre el estado de reposo y el movimiento inercial) aceptando la independencia
de la velocidad de la luz, dejando de lado el concepto de espacio y tiempo universales. A esta actitud nos obligan las circunstancias.
A comienzos del siglo XX, casi todos los fenómenos físicos conocidos estaban descriptos por la mecánica clásica y por el electromagnetismo.
Según el principio de relatividad, es equivalente el estado de reposo al movimiento rectilíneo uniforme (inercial), por lo que las leyes de la física
deberán tener la misma forma matemática si han de ser referidas a dos sistemas de coordenadas en movimiento rectilíneo uniforme. En el caso de
la mecánica, para pasar de uno al otro sistema, existe la “transformación de coordenadas de Galileo” que tiene la siguiente forma (para el
movimiento en el eje x):

x’ = x − vt t’ = t
Nótese que al derivar dos veces x’ respecto de t (como lo exige la segunda ley de Newton), nos queda:

d²x’ d²x
─── = ───
dt² dt²
Hendrik Lorentz había descubierto que las leyes del electromagnetismo eran invariantes, en dos sistemas de coordenadas inerciales, si se les
aplicaba la “transformación de coordenadas de Lorentz” (denominación actual). Luego se vio que dicha transformación era una consecuencia de la
invariabilidad del intervalo de Minkowski para dos sistemas de coordenadas inerciales.
Einstein pensaba que una de las dos transformaciones; la de Galileo o la de Lorente, había de ser la adecuada para todos los fenómenos físicos,
ya fuesen mecánicos o electromagnéticos. Se presentaban dos alternativas: cambiar las leyes del electromagnetismo para que mantuvieran su
nueva forma matemática invariante ante la transformación de Galileo, o bien cambiar las leyes de la mecánica para que su nueva forma fuera
invariante a la transformación de Lorentz. La primera alternativa llevaba a resultados no verificados experimentalmente, mientras que la segunda
alternativa permitió lograr la “corrección relativista” de la mecánica, que consistió, esencialmente, en considerar la variación de la masa con la
velocidad:

m = mo ⁄ √ (1 − v²⁄ c²)

Desarrollando la potencia fraccionaria mediante el binomio de Newton, se llegó a que una variación de masa implica una variación de energía, de
donde:

E = m c²

Relatividad generalizada
Si todos los cuerpos caen a Tierra simultáneamente, como descubrió Galileo, significa que dicho fenómeno no es una propiedad de los cuerpos,
sino del campo de fuerzas gravitacional. Además, como la aceleración producida por la gravedad es única, los fenómenos gravitacionales han de
ser descriptos como si se tratase de movimientos en sistemas de coordenadas uniformemente acelerados.
Así como la métrica del espacio-tiempo de Minkowski viene determinada por la radiación (luz), la métrica del espacio-tiempo de la relatividad
generalizada vendrá determinado por la materia (masa y energía). Dicho intervalo no euclideano (intervalo de Riemann) viene dado por la siguiente
expresión:

ds² = g 11 dt² + g 12 dt dx + g 13 dt dy + g 14 dt dz + g 22 dx² + g 23 dx dy +

g 24 dx dz + g 33 dy² + g 34 dy dz + g 44 dz²

No es posible encontrar alguna transformación de coordenadas para pasar de un sistema acelerado a otro manteniendo invariante, esta vez, al
intervalo anterior. Así como las magnitudes vectoriales son invariantes en sistemas de coordenadas inerciales, los tensores resultan invariantes en
los sistemas de coordenadas acelerados.
Para la determinación de los potenciales gravitacionales, de la forma gij , Einstein tomó como referencia a la ecuación de Laplace (para espacio
sin masas), mientras que tomó como referencia a la ecuación de Poisson para espacios con masa distribuida. Ambas condiciones quedaron así:

Rij = 0 Espacio sin masas

Rij − ½ g ij R = (8 π k ⁄ c 4) Tij Espacio con masas distribuidas

En donde R ij agrupa un sistema de varias ecuaciones que permiten obtener los coeficientes del intervalo ds, mientras que Tij es un tensor que
tiene en cuenta a la masa, a la cantidad de movimiento y a la energía que han de producir a dicho intervalo curvo. La constante k incluye a la
constante de gravitación universal para permitir obtener la ley de Newton de la gravitación (para campos gravitacionales débiles), siendo resueltas
por primera vez por Karl Schwarzchild (1873-1916) al ser aplicadas al sistema planetario solar.
Las ecuaciones de Einstein han permitido la realización de modelos cosmológicos que describen al universo conocido. Utilizando dichas
ecuaciones, Aleksandr Friedmann (1888-1925) pudo predecir en forma teórica la existencia de la expansión universal del universo.

Cuanto de acción
Para describir la forma en que se distribuye la energía contenida en una cavidad cerrada (cuerpo negro), Max Planck (1858-1947) tuvo que
introducir cierta discontinuidad en la cantidad de acción interviniente en los fenómenos de radiación. Como la frecuencia de la radiación
electromagnética puede adoptar cualquier valor, siendo una variable continua, se debió asignar a cada frecuencia cierta cantidad de “cuantos de
acción” (fotones) siendo la energía de cada fotón proporcional a la frecuencia asociada:

E = h f (Energía = Constante de Planck x Frecuencia)

De esta forma, Planck pudo encontrar concordancia entre la teoría y los datos experimentales. Su trabajo fue enunciado en el año 1900.
La teoría electromagnética de Maxwell no contemplaba, para la radiación, ningún tipo de discontinuidad, por lo que la teoría de Planck fue
bastante discordante con lo aceptado en esa época. Emilio Segré dijo que Planck era un revolucionario a pesar suyo, ya que su constante de
acción fue introducida tan sólo para que la teoría se adaptara a los datos experimentales, actitud que fue adoptada por gran parte de los físicos
posteriores.
Resultaba evidente que la teoría de Maxwell describía los fenómenos de la radiación en un nivel macroscópico, mientras que las leyes a una
escala de observación inferior resultaban bastante distintas.
Planck asociaba la discontinuidad de la acción a ciertos osciladores hipotéticos que reciben e irradian energía electromagnética, ya que todavía
no estaba bien establecida la existencia de los átomos.
En 1905, Einstein pudo describir al efecto fotoeléctrico. Para ello estableció que los cuantos de acción no sólo intervienen en las fuentes y en los
receptores de la radiación, sino que también las propias ondas electromagnéticas presentaban tal discontinuidad.
Si se ilumina una superficie conductora de electricidad con la luz emitida por una lámpara, es posible que la superficie emita electrones con cierta
energía cinética. Si ahora se ilumina la misma superficie con dos lámparas, la teoría macroscópica predice la emisión de electrones con mayor
energía cinética. Sin embargo, se comprobó que en ese caso tan sólo aumentaba la cantidad de electrones que salían con la misma energía que
antes. Si, en cambio, se cambia el color de la luz emitida (frecuencia de la onda electromagnética) cambia la energía cinética de los electrones en
proporción directa a la frecuencia. La constante de Planck resultó ser el vínculo concreto entre la energía (de una partícula) y la frecuencia (de una
onda) en la analogía establecida por Hamilton.
Posteriormente, Arthur H. Compton (1892-1962) comprobó experimentalmente, al hacer chocar un fotón muy energético (rayos X) con un
electrón, que el fotón se comporta como una partícula a la que se le puede asociar cierta cantidad de movimiento (p = E ⁄ c) y que en el
mencionado choque se sigue cumpliendo la ley de conservación de la cantidad de movimiento.
En el siglo XIX, Gustav Kirchhoff (1824-1887) y Robert Bunsen (1811-1899) inician la astrofísica, ya que perfeccionan un método para
encontrar el espectro de radiación característico de cada elemento químico. Así se pudo descubrir al helio en el Sol antes que en la Tierra. Luego,
otros físicos encontraron la ley que regía a los espectros mencionados. Un modelo de átomo debería reproducir la ley que rige a los espectros
característicos de los elementos químicos. Niels Bohr (1885-1962), basándose en el modelo de átomo de Ernest Rutherford (1871-1937), el cual
se parece a un pequeño sistema planetario solar, postula que los electrones no irradian si están en órbitas estables y que sólo emiten un fotón
cuando saltan de uno a otro de dichos estados.

E1 − E2
f = ───── Frecuencia = (Energía estado 1 − Energía estado 2) ⁄ Cte. de Planck
h
La relación anterior vincula la frecuencia de un fotón emitido con los estados estables de energía asociados a los electrones dentro de un átomo.
Además, la cantidad de acción asociada a un electrón de masa m que se mueve por una órbita circular de radio r, con una velocidad v, es un
múltiplo entero de la constante de Planck dividida por 2 π:

nh
m v r = ──── Masa x velocidad x radio = Número entero h ⁄ 2π

Con esta teoría (antigua teoría cuántica) se pudo justificar varios datos experimentales asociados al átomo más simple, que es el hidrógeno.

Ondas de materia
Louis de Broglie (1892-1987), quien en un tiempo estudió historia medieval, se interesaba por la historia de la física y así llegó a conocer la
analogía entre óptica y mecánica establecida por Hamilton en el siglo XIX.
Una vez que Planck y Einstein vinculan, por medio de la constante de acción (h), a la energía con la frecuencia (E = h f) en el caso del fotón,
Compton confirma el vínculo entre el número de onda y la cantidad de movimiento o, lo que es lo mismo, entre la longitud de onda y la inversa de
la cantidad de movimiento (λ = h ⁄ p).
De Broglie propone que ambas relaciones no sólo tienen validez para la luz, sino también para la materia. En este caso, cada partícula debería
comportarse como una onda, en ciertas circunstancias, y así debería exhibir el comportamiento propio de una onda; incluso producir los
fenómenos de difracción e interferencia. Algo completamente nuevo e inesperado para la época. La relación de De Broglie será entonces:

h
λ = ─── Longitud de onda = h ⁄ Masa x velocidad
mv
La dualidad onda-partícula puede hacerse algo menos abstracta considerando que las partículas materiales presentan campos de fuerzas
asociados que se extienden a cierta distancia. La variación espacial de líneas de fuerzas presenta cierto aspecto ondulante y, posiblemente, de ahí
provenga tal atributo.
La velocidad de fase de las ondas de De Broglie no tiene un significado físico, por el momento, mientras que la velocidad de grupo coincide con
la velocidad de la partícula; vínculo que ya aparecía en la analogía del siglo XIX.
De Broglie pudo interpretar la condición de Bohr, ya que al ser:

mvr = nh⁄ 2π se obtiene 2 π r = n λ


La última igualdad implica que las órbitas circulares de Bohr requieren tener la longitud necesaria para que en ella se establezca una onda
estacionaria, mientras que, para una longitud distinta, la onda interfiere consigo misma y se destruye.

Mecánica ondulatoria
El siguiente paso, en la dirección adoptada por De Broglie, fue dado por Edwin Schrodinger (1887-1961), quien estableció una ecuación
diferencial para las ondas de materia. Esta vez no sólo aparece la longitud de onda, sino la amplitud de tales ondas. Para poder reproducir la
existencia de estados estables en el átomo, plantea una ecuación para ondas estacionarias (utilizada en varias ramas de la física), pero
introduciendo la condición de De Broglie. Para el caso unidimensional tal ecuación será:

( h ⁄ 2π)² d²ψ
− ────── ──── + Vψ = Eψ
2m dx²
Las ecuaciones diferenciales de este tipo presentan soluciones sólo para algunos valores de energía E. De ahí que los estados estables del átomo,
en los que los electrones no irradian, provienen de la existencia de ondas estacionarias tridimensionales, expresadas por la ecuación anterior
generalizada a las tres dimensiones del espacio.
Para encontrar el vínculo entre la ecuación de onda y los datos experimentales, Schrodinger descubrió ciertas propiedades algebraicas de los
operadores asociados a las magnitudes físicas intervinientes. Para construir la ecuación de ondas progresivas, partió del hamiltoniano clásico (no
relativista):

E = p² ⁄ 2m + V Energía total = Energía cinética + Energía potencial

y asoció a la energía E y a la cantidad de movimiento p los operadores siguientes:

E ──> i h ⁄ 2π ∂ ⁄ ∂t p ──> h ⁄ 2πi ∂ ⁄ ∂x


Obteniendo la ecuación para las ondas progresivas (unidimensional):

(h ⁄ 2π) ² ∂²ψ ∂ψ
− ───── ─── + V ψ = i (h ⁄ 2 π) ───
2m ∂x² ∂t
Respecto de la amplitud de onda ψ , apareció la duda acerca de qué era lo que ondulaba. En una época había siete interpretaciones distintas,
siendo finalmente aceptada la propuesta por Max Born (1881-1970), la que establece que el cuadrado del módulo de dicha función compleja es
una medida de la densidad volumétrica de probabilidad de que aparezca la partícula (en el punto del espacio en donde se evalúa la función). Para
ello observó que existe una relación similar entre la amplitud del campo eléctrico y la probabilidad de existencia del fotón. En este caso, la
dualidad onda-partícula parece ser una consecuencia del vínculo entre dos escalas de observación distintas; entre el macro y el micromundo.
Es interesante destacar que existe una forma matemática de la ecuación de Schrodinger en la cual, al hacer tender h a cero, queda la ecuación
de Hamilton-Jacobi de la mecánica. La nueva teoría resultó ser una ampliación de la anterior, o bien una “corrección cuántica” de la mecánica.

Mecánica cuántica
A mediados de la década de los veinte, no sólo había aparecido la mecánica ondulatoria, sino también, y previamente, la mecánica matricial de
Werner Heisenberg (1901-1976). Ambas serían incluidas en una teoría más general, tal el caso de la mecánica cuántica de Paul Dirac (1902-
1984). Las tres teorías son equivalentes, de la misma manera en que lo son las teorías de Newton, Lagrange y Hamilton en el caso de la mecánica
clásica.
Heisenberg trata de utilizar sólo magnitudes observables (intensidad de las líneas espectrales, probabilidad de transición entre estados, etc.) en
lugar de las hipotéticas órbitas circulares que Bohr había propuesto. Aplicando matrices a magnitudes observables encuentra las condiciones
matemáticas que deben cumplir, resultando similares a las de la mecánica clásica.
A Dirac le llama la atención, leyendo el trabajo de Heisenberg, la existencia de productos no conmutativos (de las matrices) y los pudo asociar a
los “corchetes de Poisson”, un concepto que aparece en la mecánica hamiltoniana. Emilio Segré (1905-1989) escribió: “También la teoría de
Dirac es equivalente a las teorías de Heisenberg y de Schrodinger. Para los tres, la relación esencial que produce la cuantificación es:

pq -qp = h/2p

Para Heisenberg, p y q son matrices; para Schrodinger q es un número y p es el operador diferencial

p = h/2pi ¶/¶q
Para Dirac, p y q son números especiales que se rigen por un álgebra no conmutativa. En el caso de un problema concreto, los resultados de los
cálculos realizados por cualquiera de los tres métodos son idénticos” (De “De los rayos X a los quarks”).
En la condición cuántica general, si hacemos h = 0 , obtenemos nuevamente el producto conmutativo de p (cantidad de movimiento) por q
(posición) de la mecánica clásica. Además, la mecánica cuántica de Dirac se desarrolla en el “espacio de Hilbert”, que es un espacio vectorial de
infinitas dimensiones. Este método presenta la ventaja de poder utilizar métodos algebraicos en la solución de problemas. Puede hacerse una
analogía con los vectores del espacio tridimensional:

MATERIA VECTORES ESPACIO E3 VECTORES ESPACIO H

Vector Segmento orientado, v Función compleja, Ψ(x)


Escalar Número real, r Número complejo, c
Combinación lineal v = r1 v1 + r2 v2 Ψ = c1 Ψ1 + c2 Ψ2
Producto escalar v1 . v2 = | v1 | | v2 | cos θ12 (Ψ1 ,Ψ2 ) = ∫ Ψ1 * Ψ2 dx

Indeterminación
La integral, sobre todo el espacio, del módulo de la función de onda, elevado al cuadrado, resulta divergente para una onda individual, mientras
que, para un “paquete de ondas”, en donde participan varias de ellas, se refuerzan en una zona del espacio y se interfieren en el resto. De ahí que
las partículas reales admiten sólo ondas con varias componentes. Ello lleva implícita cierta imposibilidad de poder determinar con exactitud algunos
pares de magnitudes físicas, cumpliéndose:

Dx Dp ³ h / 2p DE Dt ³ h / 2p

Las desigualdades anteriores se conocen como las “relaciones de indeterminación” de Heisenberg. También en este caso existen distintas
interpretaciones sobre su significado físico, aunque resulta adecuado asociarlo al conocido principio de “indeterminación en radiolocalización”
(radar).
Joseph Fourier (1768-1830) estableció que cualquier función periódica puede descomponerse en una suma de funciones senoidales de distintas
amplitudes y frecuencias (series de Fourier). También es posible descomponer un pulso breve en cierta distribución continua de componentes
como las mencionadas (integral de Fourier).
El principio de indeterminación en la radiolocalización implica que, mientras más breve sea un pulso de energía electromagnética, enviado para
su posterior reflexión en un objeto a localizar, mayor será el espectro de Fourier correspondiente, y mayor ha de ser el ancho de banda necesario
que ha de tener un amplificador para poder procesar dicha información. Como no es posible realizar amplificadores electrónicos con un ancho de
banda infinito (para procesar un pulso muy estrecho) existe una limitación insuperable en tal procedimiento. Como se dijo, es un proceso
matemáticamente análogo al principio de indeterminación de la mecánica cuántica.

Gauge cuántico
Ya que sólo puede ser observable, o medible, el cuadrado del módulo de la función de onda, si se le aplica un desplazamiento de fase arbitrario a
a la función de onda Y , mientras que a la compleja conjugada Y* se la desplaza un ángulo de fase -a, al obtenerse el producto YY* , no se
afecta la probabilidad calculada:

Y.Y* = Y e ia Y* e -ia

Decimos que la función de onda es invariante ante una transformación de fase. Esto se conoce como la “calibración invariante de fase”, o
“transformación gauge cuántica”. Junto a la “transformación gauge electromagnética” aparecen como si fuesen “comodines” en un juego de naipes.
Si se los sabe utilizar, se podrá lograr importantes progresos con ellos, como en realidad ha sucedido.
Para comprobar cómo funciona esta transformación, supongamos que cambiáramos la fase de la función de onda y la introducimos en la
ecuación de Schrodinger. Se observa que la ecuación no resulta invariante a dicha transformación. Entonces agregamos a la ecuación algunas
magnitudes que expresan la existencia de un campo electromagnético. Si ahora aplicamos simultáneamente las transformaciones gauge cuántica y
electromagnética, adoptando la misma función arbitraria en ambas transformaciones, esta vez la ecuación de Schrodinger resulta invariante.
Podemos decir que se ha “redescubierto” la interacción electromagnética . El hallazgo de nuevas partículas y de nuevas interacciones se realiza
mediante técnicas similares, aunque con una creciente dificultad matemática.

Spin
En la teoría de Bohr, algunos físicos propusieron órbitas elípticas e incluso un giro del electrón sobre sí mismo. En realidad, no es posible hacer
una analogía estricta entre spin y giro, aunque podemos hablar de cierto grado de libertad propio de cada partícula libre.
Wolfgang Pauli (1900-1958) fue quien logró describir matemáticamente al spin del electrón. Para ello introdujo las “matrices de pauli” (matrices
de 2 filas por 2 columnas) y las incluyó en la ecuación de Schrodinger, dando lugar a la “ecuación de Pauli”.
También pudo interpretar, a través del spin respectivo, la ley de distribución de partículas en los distintos estados cuánticos (estadísticas
cuánticas). Así, las partículas de la mecánica clásica siguen la estadística de Maxwell-Boltzmann, las partículas con spin ½ h/2p a las que se les
aplica el principio de exclusión de Pauli, siguen la estadística de Fermi-Dirac, mientras que las partículas con spin entero (n h/2p) siguen la
estadística de Bose-Einstein.
Schrodinger dio la siguiente descripción elemental de las distintas estadísticas (para dos partículas a ubicar en tres estados):

Tres escolares, Juan, Enrique y Pedro, merecen un premio. El profesor tiene dos premios para distribuir entre ellos. Antes de hacerlo,
quiere asegurarse de cuántas diferentes maneras es posible hacerlo:

a) Los premios son dos medallas conmemorativas, con imágenes de Newton y de Shakespeare, respectivamente. El profesor puede
dar “Newton” a Juan, a Enrique o a Pedro, y “Shakespeare” a Juan, a Enrique o a Pedro. Tenemos así tres veces tres, o sea
nueve distribuciones (Estadística clásica).
b) Los premios son dos piezas de un chelín (que, para nuestros propósitos hemos de considerar como indivisibles) Se pueden dar a
dos de los muchachos, y el tercero, Juan, Enrique o Pedro, se quedará sin nada. Además de estas tres posibilidades, hay otras
tres: o Juan, o Enrique o Pedro pueden recibir los dos chelines, con lo que tenemos seis distribuciones diferentes (Estadística de
Bose-Einstein.
c) Los premios consisten en dos puestos vacantes en el equipo de fútbol que representa a la escuela. Dos de los muchachos podrán
ingresar, en tanto que el tercero se quedará afuera. Así encontramos aquí tres diferentes distribuciones (Estadística de Fermi-
Dirac). (De “Qué es una ley de la naturaleza ?”).

En el mundo atómico y nuclear, descripto por la mecánica cuántica, existen dos tipos de partículas principales: las “fuentes”, que interactúan con
las demás partículas fuentes emitiendo y absorbiendo partículas “mensajeras”, que es el segundo tipo mencionado. Las partículas fuentes tienen un
spin ½ de la unidad fundamental y se denominan “fermiones” (también pueden tener spin semientero). Las partículas mensajeras tienen un spin
entero y se denominan “bosones”.

Mecánica cuántica relativista


La relatividad especial puede considerarse como una “corrección relativista” de la mecánica, mientras que la mecánica cuántica puede
considerarse como una “corrección cuántica” de la mecánica, por lo que es de esperar una “corrección cuántica y relativista” de la mecánica.
Además, el electromagnetismo de Maxwell es relativista desde sus orígenes, aunque admite una corrección cuántica, que habrá de constituirla la
“electrodinámica cuántica”.
Se vio cómo Schrodinger “eleva el rango” de las magnitudes físicas convirtiéndolas en “operadores”. Obtiene la ecuación para ondas
progresivas partiendo del hamiltoniano clásico, o energía total. Luego, para establecer una ecuación relativista debería partirse de la expresión
relativista de la energía total de una partícula y reemplazar las magnitudes físicas por los operadores respectivos, siendo la energía total:

E² − p²c² = m² c 4
La sustitución mencionada condujo a la ecuación de Klein-Gordon, que Schrodinger encontró antes , pero que no publicó porque no se adaptaba
al electrón, aunque después se comprobó que era adecuada para la descripción de partículas de spin 0.
Para encontrar una ecuación relativista adecuada al electrón, Dirac partió de la misma expresión anterior, pero escrita así:

E = √ p²c² + m² c 4
Esto lo hace teniendo presente que E se reemplaza por un operador en el que aparece una derivada temporal de primer orden (en el método de
Schrodinger). También la raíz cuadrada de operadores elevados al cuadrado llevarán a derivadas espaciales de primer orden (por estar en una
misma igualdad matemática). Se cumpliría con el requisito de la relatividad especial; tal el de aplicar similar tratamiento matemático al tiempo y al
espacio. Es interesante destacar que abandona el intento de encontrar una ecuación de onda con derivadas parciales segundas, como aparecen en
toda ecuación de ondas.
Se sabía cómo obtener operadores asociados a p, a E, a H, o a p², E², etc., pero a Dirac se le presentó el inconveniente de tener que obtener
operadores bajo una raíz cuadrada. Entonces establece la siguiente igualdad:

√ c² p² + m² c 4 = c (α p) + β m c²
Los operadores son p, α y β. Reemplazando p² = (px)² + (py)² + (pz)² y elevando al cuadrado a ambos miembros de la igualdad, encuentra
las condiciones que deben cumplir los operadores α y β para que se cumpla la igualdad. La ecuación de Dirac queda, finalmente:

h ∂Ψ
− ── ─── = c (α p) Ψ + m c² β Ψ
i ∂t

Tanto p como α tienen componentes según x, y, z, por lo que esta ecuación en forma expandida consiste, en realidad, de cuatro ecuaciones.
En las soluciones de esta ecuación venía implícito el spin del electrón, mientras que en la ecuación no relativista habían de agregarse las matrices
de Pauli como una ampliación de la ecuación de Schrodinger. También aparecen los estados de energía negativos, introduciéndose en la física a
las antipartículas (antimateria), algo totalmente inesperado. Por ello Dirac decía de su ecuación que “era más inteligente que su autor”.
La ecuación de Dirac no sólo se adaptó al electrón y al positrón, sino a todas las partículas con spin ½ de la unidad fundamental. Posteriormente
pudo obtenerse una ecuación relativista que describe las partículas de spin 1, y es la denominada “ecuación de Proca”. Tanto la ecuación de
Dirac, como la de Klein-Gordon y como la de Proca admiten un lagrangiano, diferente en cada caso, para poder obtener dichas ecuaciones a
partir de la ecuación de Euler-Lagrange.
El interés por lograr, en cada caso, el lagrangiano respectivo implica que ha de ser posible aplicar los “diagramas de Feynman” y las “reglas de
Feynman” para hacer predicciones teóricas sobre algún fenómeno concreto.
Se considera que el lagrangiano está compuesto por dos partes: el lagrangiano de la partícula libre y el de la interacción. El primero está
vinculado al “propagador” (línea del diagrama de Feynman), mientras que el segundo está asociado al vértice de dicho diagrama. Con la
información obtenida al aplicar las reglas de Feynman, pueden calcularse las secciones eficaces o los tiempos de decaimiento de las partículas
intervinientes en un fenómeno.
Teoría cuántica de campos
Tanto la mecánica cuántica no relativista como la relativista, describen el comportamiento de partículas individuales, mientras que la cantidad de las
mismas se mantiene constante luego de alguna interacción.
Uno de los problemas que presenta la física de partículas deriva de la equivalencia entre masa y energía (E = m c²) . Esto significa que puede
darse el caso en que, luego de chocar dos partículas, parte de la energía cinética se convierta en masa y aparezca, como resultado, tres o cuatro
partículas finales. Siempre se ha de cumplir el principio de conservación de la energía, aunque pueda no cumplirse la conservación de la cantidad
de partículas. Así como en el micromundo conocemos varias formas de energía (mecánica, eléctrica, magnética, química, etc.) en el micromundo
se agrega a estas formas la energía asociada a la masa. Además, cuando se encuentra un electrón con su antipartícula (positrón) moviéndose a
bajas velocidades, se aniquilarán y aparecerán dos fotones moviéndose a la velocidad de la luz.
La teoría cuántica de campos tiene en cuenta estos fenómenos e incorpora “operadores de creación” y de “aniquilación” de partículas. Así como
la mecánica cuántica “eleva el rango” de las magnitudes físicas convirtiéndolas en operadores, en la teoría cuántica de campos ello se realiza con
las propias funciones de onda. Esto se conoce como la “segunda cuantización”.
Así como el análisis matemático, o cálculo, estudia funciones de una variable real, en el análisis funcional, utilizado en las teorías cuánticas de
campos, las variables independientes son, a su vez, funciones. Mientras que la mecánica cuántica se expresa en un “espacio de Hilbert”, las teorías
cuánticas de campos se desarrollan en el “espacio de Fock” (por Vladimir Fock (1898- ?).

Electrodinámica cuántica
La electrodinámica cuántica (en inglés Quantum Electrodynamics – QED) es una teoría cuántica de campos que describe con gran exactitud a la
mayoría de los fenómenos de la escala atómica. Los tres “actores” principales son el electrón, el positrón y el fotón.
Las ecuaciones básicas de esta teoría son las de Maxwell y la de Dirac. La versión definitiva fue establecida por Richard Feynman (1918-
1988), Julian Schwinger (1918-1994) y Sinitiro Tomonaga (1905-1979), quienes compartieron el Premio Nobel de Física en 1965.
Es posible obtener el “lagrangiano de Maxwell” (densidad de Lagrange) para deducir luego las ecuaciones de Maxwell, a partir de la ecuación
de Euler-Lagrange. El lagrangiano anterior está constituido por el del campo electromagnético (Lem) y por el de la interacción (del campo con sus
fuentes) (Lint), según se vio antes. Para utilizarlos en la electrodinámica cuántica, se los expresa mediante una forma relativista que emplea
cuadrivectores.

Lint = e Ψ* γμ Ψ Aμ
En donde el primer factor es la carga eléctrica del electrón, el segundo es la función de onda conjugada, el tercer factor es un cuadrivector que
proviene de la ecuación de Dirac, el cuarto es la función de onda y el último es el cuadrivector cuyas componentes son los potenciales escalar
eléctrico y vectorial magnético.
Respecto de las funciones convertidas en operadores que crean o aniquilan partículas, tenemos:

Ψ Crea electrones o aniquila positrones


Ψ* Crea positrones o aniquila electrones
Aμ Crea o aniquila fotones

La ampliación de la teoría, a partir de la teoría de Maxwell, consistió en agregar el lagrangiano de Dirac, de manera tal que se tenga en cuenta la
presencia de electrones y positrones, del campo electromagnético (campo de fotones) y de las fuentes que lo producen. El lagrangiano de Dirac
también aporta operadores de creación y de aniquilación de partículas.
Respecto de la transformación gauge cuántica, debemos distinguir entre un exponente (i α), que da lugar a una “transformación gauge global”
(en todas partes igual) y un exponente i α (x) que da lugar a una “transformación gauge local” (distinta en cada lugar, por ser función de x).
El lagrangiano completo, si ha de describir al mundo real, debe ser invariante ante la transformación gauge electromagnética como para la
transformación gauge local, siendo:

L = Lem + Lint + LDirac

Las dos primeras componentes resultan invariantes a todas las transformaciones, mientras que el lagrangiano de Dirac sólo lo es respecto del
gauge global, pero no local. Para lograr la invariabilidad del lagrangiano completo, se lo modifica adecuadamente. Luego se realizan los diagramas
de Feynman y se calcula aplicando las reglas de Feynman.

Teoría Standard
Los siguientes avances de la física teórica consistieron en generalizar las técnicas utilizadas en la electrodinámica cuántica. Así, los físicos Chen
Ning Yang (1922-) y Robert Mills propusieron colocar en el exponente, como función arbitraria en la transformación gauge local, algo más
complicado que una función del espacio. Colocaron una expresión en la que intervienen las matrices de Pauli, estableciendo un requisito más
amplio a cumplir por los lagrangianos propuestos. Las partículas de la naturaleza deberían surgir de un ordenamiento que respondiera al grupo
matemático SU (2).
Un grupo es una estructura algebraica que permite obtener a todos los elementos de un conjunto a partir de la aplicación de una operación
matemática, la cual ha de ser asociativa, ha de existir un inverso y un elemento neutro. Los elementos de un grupo surgirían del ordenamiento
subyacente de las partículas subatómicas.
Así se llega a la unificación de la fuerza electromagnética con la fuerza nuclear débil (fuerza electrodébil). Ahora la transformación gauge local se
cumple con U(1) x SU(2) significando que SU(2) es un grupo más amplio que U(1), siendo este último un número. La unificación mencionada está
asociada a los nombres de Sheldon Glashow (1932-), Steven Weinberg (1933-) y Abdus Salam (1926-).
Un posterior avance consistió en la utilización de las “matrices de Gell-Mann” (por Murray Gell-Mann (1929-)), que son matrices de 3 filas por
3 columnas y que responden al grupo SU(3), más amplio que los anteriores. Por ese camino se llegó a la “cromodinámica cuántica” que describe
la fuerza nuclear fuerte y está asociada a los nombres de Howard Georgi, H.D. Politzer, David Gross y Frank Wilczek. La secuencia histórica fue,
entonces, electrodinámica cuántica, flavordinámica cuántica (electrodébil) y cromodinámica cuántica, teorías que constituyen el “modelo Standard”
o “teoría Standard”. Tan sólo la gravedad “rehusa” de entrar en este esquema. En esto se vislumbra, posiblemente, la existencia de un límite para
la física de partículas puntuales (entes de dimensión 0) para dar lugar a la física de cuerdas (entes de dimensión 1).

Principios de la física
Debido a que los principios de la física utilizan distintos entes matemáticos, y en cada rama de la matemática es posible encontrar cierta
axiomatización, es interesante preguntarse por los principios básicos existentes en la física, ya que en ellos se sustentaría toda la estructura del
mundo material.
La física clásica está caracterizada por la existencia de una trayectoria única para el movimiento de las partículas. Pensemos en un objeto que se
mueve en el campo gravitacional terrestre. Esta trayectoria única se determina mediante el “principio de la acción estacionaria”. Esto implica que si
evaluamos la acción interviniente en la trayectoria real y variamos un poco el recorrido suponiendo trayectorias virtuales (no reales), se establece
que no hubo cambio en la cantidad de acción.
El concepto descripto viene expresado por el principio de la acción estacionaria de Hamilton, y dice así: El movimiento del sistema entre el
tiempo t 1 y el tiempo t 2 es tal que la integral curvilínea

t2
S = ∫ L dt
t1

donde L = T − V, tiene un valor estacionario para el camino del movimiento correcto. (De “Mecánica clásica” de H. Goldstein). Y la
condición matemática para el cumplimiento de este principio es justamente la ecuación de Euler-Lagrange.
Mientras que en el cálculo diferencial analizamos el cambio relativo entre las variables x e y, correspondientes a una función y = f(x), en el
cálculo de variaciones observamos el cambio que existe entre dos funciones y1 (x) e y2 (x) para un mismo valor de x . En nuestro caso,
suponemos que existe una trayectoria real y suponemos otra trayectoria próxima (que tiene en común con la anterior los puntos extremos) y
evaluamos la diferencia entre ambas a lo largo de toda la trayectoria.
Así como en la física existen “principios diferenciales”, tal como el principio de conservación de la energía (dE ⁄ dt = 0), también existen los
“principios integrales”, como el de la acción estacionaria. Para los primeros se utiliza el cálculo diferencial, mientras que para los segundos se utiliza
el cálculo de variaciones.
Hemos visto que la constante de Planck resultó ser el vínculo entre magnitudes asociadas a partículas y a ondas considerando la analogía entre
mecánica y óptica, establecida por Hamilton. Así, se estableció el vínculo entre energía y frecuencia (Planck – Einstein) y entre el número de onda
y la cantidad de movimiento (De Broglie), quedando todavía por establecer el vínculo entre fase y acción, problema que fue resuelto por Dirac y
por Feynman.
El ángulo de fase φ es una magnitud adimensional (si se lo mide en radianes). Si lo relacionamos con la acción S, a través de la constante de
Planck h, sólo cabe la posibilidad:

S
φ = ──
h
Asociado a la función de onda, será:

Ψ = e iφ = e iS/h
Como la mecánica cuántica es análoga a la clásica, debe existir algún vínculo entre el principio de acción de Hamilton y algún principio similar
correspondiente al mundo cuántico. Podemos hacer entonces:

t2
i ∫ L dt ⁄ h
Ψ= e t1

Cuando L adopta valores muy grandes respecto de h, la fase oscila rápidamente y los valores positivos y negativos de la función de onda se
cancelan, mientras que sólo adquiere un valor significativo para un valor mínimo de L, como es el que corresponde al establecido por el principio
de Hamilton.
La expresión anterior forma parte de la expresión matemática del “camino integral de Feynman” que es el principio de acción de la mecánica
cuántica y de donde puede derivarse la ecuación de Schrodinger y todo lo demás. Feynman lo enunció cuando todavía era un estudiante
universitario, pudiendo considerarse como el fundamento básico de toda la física.
Feynman enunció dos postulados básicos para fundamentar la mecánica cuántica:

1) Si se realiza una medición ideal para determinar cómo una partícula adopta un camino en una región del espacio-tiempo, la
probabilidad que resulte afirmativo es el cuadrado del valor absoluto de la suma de las contribuciones complejas, una para cada
camino en la región

P = | Ψ1 + Ψ2 + Ψ3 + . . . . | 2
2) Los caminos contribuyen igualmente en magnitud, pero la fase de esas contribuciones es la acción clásica (en unidades de h/2π) ; esto
es, la integral en el tiempo del lagrangiano tomado a lo largo del camino.

|Ψ1| = |Ψ2| = |Ψ3| = . . . . .

El físico Michael Green escribió sobre la “suma de historias”: Se trata de un recurso para explicar, en mecánica cuántica, la interpretación
probabilista que seguirá la trayectoria de una partícula. Se imagina la partícula puntual moviéndose simultáneamente a lo largo de
todas las posibles líneas de universo del espacio-tiempo; a cada trayectoria se le asigna un peso, o probabilidad estadística, de tal
manera que las trayectorias más cortas del espacio-tiempo sean, con mucho, las más probables. El resultado es una maraña de líneas de
universo que presentan su densidad máxima a lo largo de la trayectoria clásica. (De “Supercuerdas” en Scientific American).
Cuando se habla de “las trayectorias más cortas del espacio-tiempo”, la expresión nos recuerda a los intervalos espacio-tiempo invariantes que
ayudaron a construir tanto la relatividad especial como la general. La determinación de los intervalos mínimos posiblemente sea también un
problema del cálculo de variaciones.
En 1917, la matemática Emmy Noether (1882-1935) enunció un importante teorema que vincula la existencia de invariantes a principios de
conservación. Gordon Kane escribió: Para un sistema descripto por un lagrangiano, cualquier simetría continua la cual deje invariante a
la acción ∫ L dt conduce a la existencia de una corriente conservada Sμ , con ∂μ Sμ = 0. Siempre es posible definir una carga como
Q(t) = ∫ S(x) dx3 y la carga es conservada en el sentido de que dQ/ dt = 0. (De “Modern Elementary Particle Physics”).
A partir de este teorema aparece la siguiente correspondencia:

INVARIANCIA CONSERVACIÓN

Translación en el espacio Momento lineal


Translación en el tiempo Energía
Rotación en un ángulo fijo Momento angular
Fase cuántica Carga eléctrica

Deseando que este escrito haya despertado en el lector algún interés por este apasionante tema, se menciona una frase de Richard Feynman: La
física forma parte de la verdadera cultura de la humanidad.