You are on page 1of 14

INSTITUTO UNIVERSITARIO METROPOLITANO

COMPLEMENTARIO RADIOLOGIA
HISTORIA DE LAS CIENCIAS RADIOLÓGICAS
MARIO ALEJANDRO HERAS TERAN
1. Física del siglo XIX.

Electromagnetismo y estructura atómica


La investigación física de la primera mitad del siglo XIX estuvo dominada por el
estudio de los fenómenos de la electricidad y el magnetismo. Coulomb, Luigi
Galvani, Faraday, Ohm y muchos otros físicos famosos estudiaron los fenómenos
dispares y contraintuitivos que se asocian a este campo. En 1855 Maxwell unificó
las leyes conocidas sobre el comportamiento de la electricidad y el magnetismo en
una sola teoría con un marco matemático común mostrando la naturaleza unida
del electromagnetismo. Los trabajos de Maxwell en el electromagnetismo se
consideran frecuentemente equiparables a los descubrimientos de Newton sobre
la gravitación universal y se resumen con las conocidas, ecuaciones de Maxwell,
un conjunto de cuatro ecuaciones capaz de predecir y explicar todos los
fenómenos electromagnéticos clásicos. Una de las predicciones de esta teoría era
que la luz es una onda electromagnética. Este descubrimiento de Maxwell
proporcionaría la posibilidad del desarrollo de la radio unas décadas más tarde
por Heinrich Hertz en 1888.
En 1895 Roentgen descubrió los rayos X, ondas
electromagnéticas de frecuencias muy altas. Casi simultáneamente, Henri
Becquerel descubría la radioactividad en 1896. Este campo se desarrolló
rápidamente con los trabajos posteriores de Pierre Curie, Marie Curie y muchos
otros, dando comienzo a la física nuclear y al comienzo de la estructura
microscópica de la materia.
En 1897 Thomson descubrió el electrón, la partícula elemental que transporta la
corriente en los circuitos eléctricos proponiendo en 1904 un primer modelo
simplificado del átomo.

2. Conceptos de la física en el siglo XX


La Física moderna parte de Newton y su ley de la gravitación universal, y de la
investigación sobre la naturaleza de la energía y la luz. En el siglo XX aparecen
dos teorías físicas irreconciliables, la teoría de la relatividad y la mecánica
cuántica.
La teoría de la relatividad es la última teoría de corte clásico, aunque revoluciona
los conceptos de espacio y tiempo. En realidad, es una teoría sobre la gravedad.
En 1905Albert Einstein formula la teoría especial de la relatividad, y en 1916
la teoría general de la relatividad.
En 1820 Hans Oersted relaciona la electricidad con el magnetismo, lo que es
demostrado por Michael Faraday, descubriendo la inducción electromagnética. A
finales del siglo XIX William Crookes descubre los rayos catódicos. Wilhelm
Conrad
von Roenstgen descubre en 1901 los rayos X. En 1903 Pierre Curie y Marie
Curie, descubren la radiación del radio.
En 1803 John Dalton formula una teoría sobre la composición atómica de la
materia. En 1897 Joseph John Thomson descubre el electrón, una partícula más
pequeña que el átomo, por lo que tiene que formular una teoría de su estructura.
En 1911 Ernest Rutherford descubre espacios vacíos en el átomo, y formula una
nueva estructura para él. Se lo imagina como el Sistema Solar. En 1919 descubre
el protón y el núcleo atómico. En 1932 James Chadwick descubre el neutrón. De
esta forma nace la mecánica cuántica.
La mecánica cuántica es la teoría que ha revolucionado, no sólo la física, sino
todas las ciencias. Está en el fondo de todas las tecnologías modernas, desde las
lavadoras a la fecundación asistida. En 1900 Max Planck es quien formula lo
principal de la teoría cuántica. Aunque la teoría se desarrolla con físicos
como Niels Bohr, Louis de Broglie, Erwin Shroedinger, Arnold
Sommerfeld, Wolfgang Pauli, Werner Heisenberg y Paul Dirac. Planck afirma que
la energía no se transmite de forma continua sino en paquetes, a los que
llama cuanto. Niels Bohr formula en 1913 un nuevo modelo atómico, en el que
distribuye los electrones en niveles de energía, a un cuanta de distancia. Arnold
Sommerfeld se imagina al átomo con un núcleo central y los electrones en órbita
elíptica alrededor de núcleo. Werner Heisenberg formula en 1927 el principio de
incertidumbre, lo que nos lleva a imaginar el átomo con un núcleo y una serie
electrones que se encuentran en algún lugar, como una nube de carga. Esto nos
llevará a la desintegración del átomo. En 1936 Enrico Fermi consigue elementos
más pesados que los que se encuentran en la naturaleza. En 1938 Otto
Hahn y Fritz Stranmanndescubren la fisión del átomo. En 1941 el proyecto
Manhattan construye la bomba atómica.
Lo curioso de estas dos teorías es que son incompatibles. La teoría de la
relatividad funciona en las grandes magnitudes, pero no sirve en las partículas
subatómicas; la mecánica cuántica funciona en el mundo subatómico pero no sirve
en las grandes magnitudes. Y además sus supuestos se contradicen. Los
científicos actuales están buscando una teoría que las unifique a ambas.
3. El descubrimiento de los rayos
La denominación rayos X designa a una radiación electromagnética, invisible para
el ojo humano, capaz de atravesar cuerpos opacos y de imprimir las películas
fotográficas. Los actuales sistemas digitales permiten la obtención y visualización
de la imagen radiográfica directamente en una computadora (ordenador) sin
necesidad de imprimirla.

La historia de los rayos X comienza con los experimentos del científico


británico William Crookes, que investigó en el siglo XIX los efectos de ciertos
gases al aplicarles descargas de energía. Estos experimentos se desarrollaban en
un tubo vacío, y electrodos para generar corrientes de alto voltaje. Él lo llamó tubo
de Crookes. Este tubo, al estar cerca de placas fotográficas, generaba en las
mismas algunas imágenes borrosas. Pese al descubrimiento, Nikola Tesla, en
1887, comenzó a estudiar este efecto creado por medio de los tubos de Crookes.
Una de las consecuencias de su investigación fue advertir a la comunidad
científica el peligro para los organismos biológicos que supone la exposición a
estas radiaciones.

El físico alemán Wilhelm Conrad Röntgen descubrió los rayos X en 1895, mientras
experimentaba con los tubos de Hittorff-Crookes y la bobina de Ruhmkorff para
investigar la fluorescencia violeta que producían los rayos catódicos. Tras cubrir el
tubo con un cartón negro para eliminar la luz visible, observó un débil resplandor
amarillo-verdoso proveniente de una pantalla con una capa de platino-cianuro de
bario, que desaparecía al apagar el tubo. Determinó que los rayos creaban
una radiación muy penetrante, pero invisible, que atravesaba grandes espesores
de papel e incluso metales poco densos. Usó placas fotográficas para demostrar
que los objetos eran más o menos transparentes a los rayos X dependiendo de su
espesor y realizó la primera radiografía humana, usando la mano de su mujer. Los
llamó "rayos incógnita", o "rayos X" porque no sabía qué eran, solo que eran
generados por los rayos catódicos al chocar contra ciertos materiales. Pese a los
descubrimientos posteriores sobre la naturaleza del fenómeno, se decidió que
conservaran ese nombre.

En Europa Central y Europa del Este, los rayos se llaman rayos Röntgen .

Radiografía tomada por Wilhelm Röntgenen 1896.


Wilhelm Conrad Röntgen

3. Radiactividad natural y artificial

R. Natural

En 1896, Henri Becquerel descubrió que ciertas sales de uranio emiten


radiaciones espontáneamente, al observar que, cuando colocaba placas
fotográficas envueltas en papel negro cerca de este mineral, los rayos-X velaban
la placa a pesar de su envoltorio opaco, descartando que se tratara de una
propiedad de los materiales fosforescentes.
El estudio del nuevo fenómeno y su desarrollo posterior se debe casi
exclusivamente al matrimonio de Marie y Pierre Curie, quienes encontraron otras
sustancias radiactivas: el torio, el polonio y el radio. La intensidad de la radiación
emitida era proporcional a la cantidad de uranio presente, por lo que los Curie
dedujeron que la radiactividad era una propiedad atómica. El fenómeno de la
radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Se
cree que se origina debido a la interacción neutrón-protón. Al estudiar la radiación
emitida por el radio, se comprobó que era compleja, pues al aplicarle un campo
magnético, parte de ella se desviaba de su trayectoria y otra parte no.
Pronto se vio que todas estas reacciones provienen del núcleo atómico que
describió Ernest Rutherford en 1911, quien también demostró que las radiaciones
emitidas por las sales de uranio pueden ionizar el aire y producir la descarga de
cuerpos cargados eléctricamente.
Con el uso del neutrón, partícula teorizada en 1920 por Ernest Rutherford, se
consiguió describir la radiación beta.
En 1932, James Chadwick descubrió la existencia del neutrón que Rutherford
había predicho en 1920, e inmediatamente después Enrico Fermi descubrió que
ciertas radiaciones emitidas en fenómenos no muy comunes de desintegración
son en realidad neutrones.
R. Artificial

La radiactividad artificial, también llamada radiactividad inducida, se produce


cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la
energía de estas partículas tiene un valor adecuado, penetran el núcleo
bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se
desintegra después radiactivamente. Fue descubierta por la pareja Frédéric Joliot-
Curie e Irène Joliot-Curie, bombardeando núcleos de boro y
de aluminio con partículas alfa. Observaron que las sustancias bombardeadas
emitían radiaciones (neutrones libres) después de retirar el cuerpo radiactivo
emisor de las partículas de bombardeo. El plomo es la sustancia que mayor fuerza
de impenetración posee por parte de los rayos x y gamma.
En 1934 Fermi se encontraba en un experimento bombardeando núcleos
de uranio con los neutrones recién descubiertos. En 1938, en Alemania, Lise
Meitner, Otto Hahn y Fritz Strassmann verificaron los experimentos de Fermi.
En 1939 demostraron que una parte de los productos que aparecían al llevar a
cabo estos experimentos era bario. Muy pronto confirmaron que era resultado de
la división de los núcleos de uranio: la primera observación experimental de
la fisión. En Francia, Frédéric Joliot-Curie descubrió que, además del bario, se
emiten neutrones secundarios en esa reacción, lo que hace factible la reacción en
cadena.
También en 1932, Mark Lawrence Elwin Oliphant2 teorizó sobre la fusión de
núcleos ligeros (de hidrógeno), y poco después Hans Bethe describió el
funcionamiento de las estrellas con base en este mecanismo.
El estudio de la radiactividad permitió un mayor conocimiento de la estructura del
núcleo atómico y de las partículas subatómicas. Se abrió la posibilidad de convertir
unos elementos en otros. Incluso se hizo realidad el ancestral sueño de
los alquimistas de crear oro a partir de otros elementos, como por ejemplo átomos
de mercurio, aunque en términos prácticos el proceso de convertir mercurio en oro
no resulta rentable debido a que el proceso requiere demasiada energía.
4. Scanner multicorte

Tomografía viene del griego τομή que significa corte o sección y de γραφή que
significa imagen o gráfico. Por tanto la tomografía es la obtención de imágenes de
cortes o secciones de algún objeto. La posibilidad de obtener imágenes de cortes
tomográficos reconstruidas en planos no transversales ha hecho que en la
actualidad se prefiera denominar a esta técnica tomografía computarizada o TC en
lugar de TAC.
En lugar de obtener una imagen de proyección, como la radiografía convencional,
la TC obtiene múltiples imágenes al efectuar la fuente de rayos X y los detectores
de radiación movimientos de rotación alrededor del cuerpo. La representación final
de la imagen tomográfica se obtiene mediante la captura de las señales por los
detectores y su posterior proceso mediante algoritmos de reconstrucción.

Historia
El prototipo de los tomógrafos computados.
Este tomógrafo computado histórico fue manufacturado por la compañía británica
EMI.
En los fundamentos de esta técnica trabajaron de forma independiente el
ingeniero electrónico y físico sudafricano nacionalizado norteamericano Allan
McLeod Cormack y el ingeniero electrónico inglés Sir Godfrey Newbold
Hounsfield, que dirigía la sección médica del Laboratorio Central de Investigación
de la compañía EMI. Ambos obtuvieron de forma compartida el Premio Nobel de
Fisiología o Medicina en 1979.
En 1967 Cormack publica sus trabajos sobre la TC siendo el punto de partida de
los trabajos de Hounsfield, que diseña su primera unidad. En 1972 comenzaron
los ensayos clínicos cuyos resultados soprendieron a la comunidad médica, si bien
la primera imagen craneal se obtuvo un año antes.
Los primeros cinco aparatos se instalaron en Reino Unido y Estados Unidos; la
primera TC de un cuerpo entero se consiguió en 1974.
En el discurso de presentación del comité del Premio Nobel se destacó que previo
al escáner, “las radiografías de la cabeza mostraban solo los huesos del cráneo,
pero el cerebro permanecía como un área gris, cubierto por la neblina.
Súbitamente la neblina se ha disipado”.
En recuerdo y como homenaje a Hounsfield, las unidades que definen las distintas
atenuaciones de los tejidos estudiadas en TC se denominan unidades Hounsfield
o número TC (CT number), donde el agua corresponde a 0HU, tejidos blandos +30
a+60HU, grasa -40 a -120HU, entre otros que permiten hacer caracterización de
tejidos.

Principio de funcionamiento
Interior de un tomógrafo axial computarizado. Leyenda:
D: detectores de radiación.
T: tubo emisor de rayos X.
X: haz de rayos X.
R: rotación del "gantry".
El aparato de TC emite un haz colimado de rayos X que incide sobre el objeto que
se estudia. La radiación que no ha sido absorbida por el objeto es recogida por los
detectores. Luego el emisor del haz, que tenía una orientación determinada (por
ejemplo, estrictamente vertical a 90º) cambia su orientación (por ejemplo, haz
oblicuo a 95º). Este espectro también es recogido por los detectores. El ordenador
'suma' las imágenes, promediándolas. Nuevamente, el emisor cambia su
orientación (según el ejemplo, unos 100º de inclinación). Los detectores recogen
este nuevo espectro, lo 'suman' a los anteriores y 'promedian' los datos. Esto se
repite hasta que el tubo de rayos y los detectores han dado una vuelta completa,
momento en el que se dispone de una imagen tomográfica definitiva y fiable.
Para comprender qué hace el ordenador con los datos que recibe lo mejor es
examinar el diagrama que se aprecia líneas abajo.

La figura '1' representa el resultado en imagen de una sola incidencia o proyección


(vertical, a 90º). Se trata de una representación esquemática de un miembro, por
ejemplo un muslo. El color negro representa una densidad elevada, la del hueso.
El color gris representa una densidad media, los tejidos blandos (músculos).

En la figura '4' el ordenador dispone de datos de cuatro incidencias: 45º, 90º, 135º
y 180º. Los perfiles de la imagen son ortogonales, lo que la aproximan mucho más
a los contornos circulares del objeto real.

Una vez que ha sido reconstruido el primer corte, la mesa donde el objeto reposa
avanza (o retrocede) una unidad de medida (hasta menos de un milímetro) y el
ciclo vuelve a empezar. Así se obtiene un segundo corte (es decir, una segunda
imagen tomográfica) que corresponde a un plano situado a una unidad de medida
del corte anterior.
A partir de todas esas imágenes transversales (axiales) un computador
reconstruye una imagen bidimensional que permite ver secciones de la pierna (o el
objeto de estudio) desde cualquier ángulo. Los equipos modernos permiten incluso
hacer reconstrucciones tridimensionales. Estas reconstrucciones son muy útiles en
determinadas circunstancias, pero no se emplean en todos los estudios, como
podría parecer. Esto es así debido a que el manejo de imágenes tridimensionales
no deja de tener sus inconvenientes.
Un ejemplo de imagen tridimensional es la imagen 'real'. Como casi todos los
cuerpos son opacos, la interposición de casi cualquier cuerpo entre el observador
y el objeto que se desea examinar hace que la visión de éste se vea
obstaculizada. La representación de las imágenes tridimensionales sería inútil si
no fuera posible lograr que cualquier tipo de densidad que se elija no se vea
representada, con lo que determinados tejidos se comportan como transparentes.
Aun así, para ver completamente un órgano determinado es necesario mirarlo
desde diversos ángulos o hacer girar la imagen. Pero incluso entonces veríamos
su superficie, no su interior. Para ver su interior debemos hacerlo a través de una
imagen de corte asociada al volumen y aun así parte del interior no siempre sería
visible. Por esa razón, en general, es más útil estudiar una a una todas las
imágenes consecutivas de una secuencia de cortes que recurrir a
reconstrucciones en bloque de volúmenes, aunque a primera vista sean más
espectaculares.
Escaneres de primera generación (Tipo I Translación-rotación)
El funcionamiento se basa en un tubo de Rx y un detector, este sistema hace en
movimiento de translación rotación. Para obtener un corte tomográfico son
necesarias muchas mediciones y, por tanto muchas rotaciones del sistema, lo que
nos lleva a tiempos de corte muy grandes (superiores a 5 minutos). Se usa para
hacer Cráneos.
GENERACIONES DE TAC

Escaneres de primera generación (Tipo I Translación-rotación)

El funcionamiento se basa en un tubo de Rx y un detector, este sistema hace el


movimiento de translación rotación. Para obtener un corte tomográfico son
necesarias muchas mediciones y, por tanto muchas rotaciones del sistema, lo que
nos lleva a tiempos de corte muy grandes (superiores a 5 minutos). Se usa para
hacer Cráneos.

Escáneres de segunda generación (Tipo II Translación-rotación)


En esta generación se utilizan varios detectores y un haz de Rx en abanico (lo que
aumentaba la radiación dispersa), con esto se consigue que el tiempo de corte se
reduzca entre 20 y 60 seg.

Escáneres de tercera generación (Rotación-rotación)

En los cuales el tubo de Rx y la matriz de detectores giraban en movimientos


concéntricos alrededor del paciente. Como equipos de sólo rotación, los
escáneres de tercera generación eran capaces de producir una imagen por
segundo.

El escáner de TC de tercera generación utiliza una disposición curvilínea que


contiene múltiples detectores y un haz en abanico. El número de detectores y la
anchura del haz en abanico, de entre 30 y 60° y el haz en abanico y la matriz de
detectores permiten ver al paciente completo en todos los barridos.
La disposición curvilínea de detectores se traduce en una longitud constante de la
trayectoria del conjunto fuente-detector, lo que ofrece ventajas a la hora de
reconstruir las imágenes. Esta característica de la matriz de detectores de tercera
generación permite además obtener una mejor colimación del haz de Rx, con la
reducción de la radiación dispersa.
Una de las principales desventajas de los escáneres de tercera generación es la
aparición ocasional de artefactos, debida a a a un fallo de algún un detector.

Escáneres de cuarta generación (Rotación-estacionaria)

Los escáneres de cuarta generación poseen sólo movimiento rotatorio. El tubo de


Rx gira, pero la matriz de detectores no. La detección de la radiación se realiza
mediante una disposición circular fija de detectores. El haz de rayos X tiene forma
de abanico, con características similares a las de los haces usados en equipos de
tercera generación. Estas unidades alcanzan tiempos de barrido de 1 segundo y
pueden cubrir grosores de corte variables, así como suministrar las mismas
posibilidades de manipulación de la imagen que los modelos de generaciones
anteriores.
La matriz de detectores fijos de los escáneres de cuarta generación no produce
una trayectoria de haz constante desde la fuente a todos los detectores, sino que
permite calibrar cada detector y normalizar su señal durante cada barrido.
El principal inconveniente de los escáneres de de cuarta generación es la alta
dosis que recibe el paciente, bastante superior a la que se asocia a los otros tipos
de escáneres.

Escáneres de quinta generación (Estacionario-estacionaria)

En esta clase de TC hay múltiples fuentes fijas de Rx que no se mueven y


numerosos detectores también fijos. Son muy caros, muy rápidos y con tiempos
de corte cortísimos. Apenas se utilizaron en ningún lugar el mundo escepto en
EEUU.

Escáneres de sexta generación


Se basan en un chorro de electrones. Es un cañón emisor de electrones que
posteriormente son reflexionados (desviados) que inciden sobre laminas de
tugnsteno. El detector esta situado en el lado opuesto del Gantry por donde entran
los fotones. Consigue 8 cortes contiguos en 224 mseg. Apenas se utilizaron en
ningún lugar el mundo escepto en EEUU, eran carisimos y enormes, poco utiles.

TC Helicoidal
En estos sistemas el tubo de rayos x y los detectores se montan, sobre anillos
deslizantes y no se necesitan cables para recibir electricidad o enviar información
recibida.
Esto permite una rotación completa y continua del tubo y detectores, tras la camilla
de exploración, se desplaza con una velocidad constante.

El haz de rayos x traza un dibujo en forma de hélice sobre la superficie del


paciente, mientras se adquieren inmediatamente los datos de un volumen de su
anatomía, por esto se denomina TC volumétrico o helicoidal.
Las imágenes o cortes axiales se reconstruyen a partir de los datos obtenidos en
cada uno de los ciclos del TC helicoidal, también puede funcionar como un TC
convencional.
Fue introducida por Siemens en el año 1990, actualmente casi todos los equipos
de TC que se venden son helicoidales, los tiempos de exploración son de 0.7 y 1
sg por ciclo.