Академический Документы
Профессиональный Документы
Культура Документы
Comparando ambas figuras, vemos que un buen absorbedor de radiación es un buen emisor,
y un mal absorbedor es un mal emisor. También podemos decir, que un buen reflector es un
mal emisor, y un mal reflector es un buen emisor.
Una aplicación práctica está en los termos utilizados para mantener la temperatura de los
líquidos como el café. Un termo tiene dobles paredes de vidrio, habiéndose vaciado de aire
el espacio entre dichas paredes para evitar las pérdidas por conducción y convección. Para
reducir las pérdidas por radiación, se cubren las paredes con una lámina de plata que es
altamente reflectante y por tanto, mal emisor y mal absorbedor de radiación.
haga clic en esta liga para ver un video:
http://www.youtube.com/watch?v=4PV3HIx4sjQ
El cuerpo negro
La superficie de un cuerpo negro es
un caso límite, en el que toda la
energía incidente desde el exterior es
absorbida, y toda la energía incidente
desde el interior es emitida.
Efecto fotoeléctrico
Un diagrama ilustrando la emisión de los electrones de una placa metálica, requiriendo de la energía que es
absorbida de un fotón.
El efecto fotoeléctrico consiste en la emisión de electrones por un metal o fibra de carbono cuando
se hace incidir sobre él una radiación electromagnética (luz visible o ultravioleta, en general). A veces
se incluyen en el término otros tipos de interacción entre la luz y la materia:
Fotoconductividad: es el aumento de la conductividad eléctrica de la materia o en diodos provocada
por la luz. Descubierta por Willoughby Smith en el selenio hacia la mitad del siglo XIX.
El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz en 1887, al observar que el arco
que salta entre dos electrodos conectados a alta tensión alcanza distancias mayores cuando se
ilumina con luz ultravioleta que cuando se deja en la oscuridad. La explicación teórica fue hecha
por Albert Einstein, quien publicó en 1905 el revolucionario artículo “Heurística de la generación y
conversión de la luz”, basando su formulación de la fotoelectricidad en una extensión del trabajo
sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años
experimentando para demostrar que la teoría de Einstein no era correcta, para finalmente concluir
que sí lo era. Eso permitió que Einstein y Millikan fueran condecorados con premios Nobel en 1921
y 1923, respectivamente.
Se podría decir que el efecto fotoeléctrico es lo opuesto a los rayos X, ya que el efecto fotoeléctrico
indica que los fotones luminosos pueden transferir energía a los electrones. Los rayos X (no se sabía
la naturaleza de su radiación, de ahí la incógnita "X") son la transformación en un fotón de toda o
parte de la energía cinética de un electrón en movimiento. Esto se descubrió casualmente antes de
que se dieran a conocer los trabajos de Planck y Einstein (aunque no se comprendió entonces).
2. Para cada metal dado, existe una cierta frecuencia mínima de radiación incidente debajo de
la cual ningún fotoelectrón puede ser emitido. Esta frecuencia se llama frecuencia de corte, también
conocida como "Frecuencia Umbral".
3. Por encima de la frecuencia de corte, la energía cinética máxima del fotoelectrón emitido es
independiente de la intensidad de la luz incidente, pero depende de la frecuencia de la luz incidente.
Formulación matemática
Para analizar el efecto fotoeléctrico cuantitativamente utilizando el método derivado por Einstein es
necesario plantear las siguientes ecuaciones:
Energía de un fotón absorbido = Energía necesaria para liberar 1 electrón + energía cinética del
electrón emitido.
Algebraicamente:
,
Los rayos x, son energía electromagnética invisible, la cual es utilizada, como una
manera para obtener o sacar imágenes internas de los tejidos, huesos y órganos de
nuestro cuerpo u organismo.
los rayos x, son utilizados para descubrir si una persona posee o no, algún tumor
cancerígeno.
La historia de los rayos x comienza con los experimentos del científico William
Crookes, en el siglo XIX, quien investigó los efectos de ciertos gases, en conjunto
con descargas de energía. Estos experimentos, se desarrollaban en un tubo que
contenía al vacío, y electrodos para que se generaran corrientes de alto voltaje. El
lo llamó tubo de Crookes. Pues bien, este tubo al estar cerca de placas fotográficas,
generaba en las mismas algunas imágenes ciertamente borrosas. Pero este físico
inglés, no continuó investigando mayormente este efecto.
Es así, como Nikola Telsa en 1887, comenzó a estudiar este efecto creado por medio de los tubos
de Crookes. Claro que tras su investigación, se dio cuenta de los peligros para los organismos
biológicos de estas radiaciones y alerto a la comunidad científica.
Pero no fue hasta 1895, que Wilhelm Conrado Röntgen, que es considerado quien
inventó los rayos x, documentando estos experimentos con tubos al vacío fue el
primero en llamar rayos x a la radiación emitida, por ser de tipo desconocida. Por
ello, este científico fue galardonado con el primer Premio Nobel de Física. Más
adelante en sus experimentos notó casualmente que esta radiación podía atravesar
objetos materiales y dejar impresiones de su paso a través de estos y por supuesto,
al pasar a través del cuerpo humano con sus huesos; se dió cuenta de esto al sujetar
con su mano objetos para la experimentación. En 1896 publicó su descubrimiento y
dio la primera demostración.
Segundo postulado
No todas las órbitas para electrón están permitidas, tan solo se puede
encontrar en órbitas cuyo radio cumpla que el momento angular, , del
electrón sea un múltiplo entero de Esta condición matemáticamente se
escribe:
con
A partir de ésta condición y de la expresión para el radio obtenida antes,
podemos eliminar y queda la condición de cuantización para los radios
permitidos:
con ; subíndice introducido en esta expresión para resaltar que el radio
ahora es una magnitud discreta, a diferencia de lo que decía el primer
postulado.
Ahora, dándole valores a , número cuántico principal, obtenemos los
radios de las órbitas permitidas. Al primero de ellos (con n=1), se le
llama radio de Bohr:
expresando el resultado en ångström.
Del mismo modo podemos ahora sustituir los radios permitidos en la
expresión para la energía de la órbita y obtener así la energía
correspondiente a cada nivel permitido:
Igual que antes, para el átomo de Hidrógeno (Z=1) y el primer nivel
permitido (n=1), obtenemos:
que es la llamada energía del estado fundamental del átomo de
Hidrógeno.
Y podemos expresar el resto de energías para cualquier Z y n como:
Tercer postulado
El electrón solo emite o absorbe energía en los saltos de una órbita
permitida a otra. En dicho cambio emite o absorbe un fotón cuya energía
es la diferencia de energía entre ambos niveles. Este fotón, según la ley
de Planck tiene una energía:
Donde identifica la órbita inicial y la final, y es la frecuencia.
Entonces las frecuecias de los fotones emitidos o absorbidos en la
transición serán:
A veces, en vez de la frecuencia se suele dar la inversa de la longitud
de onda:
Ésta última expresión fue muy bien recibida porque explicaba
teóricamente la fórmula fenomenológica hallada antes por Balmerpara
describir las líneas espectrales observadas desde finales delsiglo
XIX en la des excitación del Hidrógeno, que venían dadas por:
con , y donde es la constante de Rydberg para el hidrógeno. Y como
vemos, la expresión teórica para el caso , es la expresión predicha por
Balmer, y el valor medido experimentalmente de la constante de
Rydberg ( ), coincide con el valor de la fórmula teórica.
Se puede demostrar que este conjunto de hipótesis corresponde a la
hipótesis de que los electrones estables orbitando un átomo están
descritos por funciones de onda estacionarias. Un modelo atómico es
una representación que describe las partes que tiene un átomo y como
están dispuestas para formar un todo. Basándose en laconstante de
Planck consiguió cuan tizar las órbitas observando las líneas del
espectro.
haga clic en la siguiente liga para ver un video:
http://www.youtube.com/watch?v=3wMf9we2ThE
Intensidad
Si ahora repetimos el experimento de las dos rendijas pero enviando
partículas
materiales macroscópicas, como por ejemplo granitos de arena, ¿qué
pasará?. El
diagrama que contiene la intensidad de impactos sobre una pantalla,
fig.12.19, será
la suma de los impactos debidos a las partículas que pasan por cada
una de las
rendijas y es una curva en forma de campana centrada en un punto
equidistante de
las dos rendijas y abierta hacia los lados, debido a la dispersión de las
partículas al
colisionar con los bordes de las rendijas, presentando una distribución
continua.
haga clic en la siguiente liga para ver un video:
http://www.youtube.com/watch?v=hd--sq5U9kg
N U C L E O Y S U S F U E R Z A S
ttp://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ciencia3/110/h
tm/sec_11.htm
LA FÍSICA puede describirse como un continuo vaivén entre teoría y
experimento, aunque éste tiene siempre la última palabra. Mientras los
grandes teóricos desarrollaban las ideas cuánticas, Rutherford y sus
alumnos continuaban ocupados desentrañando los misterios del núcleo.
Una vez que se descubrió el núcleo, la pregunta que surgió de inmediato
fue, ¿de qué está compuesto? Como se sabía ya desde el siglo pasado
que las masas de los elementos químicos se aproximan mucho a múltiplos
enteros de la masa del hidrógeno, resultó natural pensar que los distintos
núcleos estaban formados por protones, puesto que el del hidrógeno
consiste de un solo protón. Sin embargo, ésta no puede ser la historia
completa, ya que para entender la neutralidad eléctrica del átomo se
requiere postular la existencia de un cierto número de protones en el
núcleo, mientras que para explicar la masa es necesario el doble de ellos.
Tomó dos décadas descifrar esta incógnita y muchos físicos siguieron
pistas falsas —entre ellas la de suponer la existencia de electrones dentro
del núcleo— antes de encontrar al acompañante del protón en el centro
de los átomos. En vista de las predicciones de la mecánica cuántica se
puede entender fácilmente uno de los argumentos más contundentes para
descartar un núcleo compuesto por protones y electrones. Si aplicamos el
principio de incertidumbre a los electrones dentro del núcleo, concluimos
de inmediato que las energías electrónicas serían muy superiores a las
medidas en la desintegración beta y, también, mucho mayores a las
producidas por el campo eléctrico de atracción debido a los protones,
fuerza que se consideraba como responsable de confinar a protones y
electrones dentro del núcleo. El razonamiento teórico es el siguiente: si
una partícula de masam se confina en un local de largo l, su
incertidumbre en la correspondiente componente de la velocidad es
mayor queh/ml, pues de lo contrario se violaría el principio de Heisenberg.
A medida que l se hace menor, crece esta incertidumbre y por ende la
energía cinética de m. El efecto es mayor, también, mientras menor sea
la masa de la partícula, y afecta, por tanto, más a los electrones que a los
protones, pues la masa de éstos es 2 000 veces mayor que la de aquéllos.
Si usamos los datos de la Tabla 1, tomando para l el valor de 10-13 cm,
que es el apropiado al núcleo, las energías resultan enormes.
El 27 de febrero de 1932 James Chadwick, alumno de Rutherford, informó
a la comunidad científica que había encontrado pruebas de la existencia
de una nueva partícula neutra, a la cual llamó neutrón. Los físicos no
tardaron mucho en darse cuenta que éste era el acompañante misterioso
del protón en el núcleo atómico. La existencia del neutrón, cuya masa es
muy parecida a la del protón, permitió ver viejos conocimientos desde
una nueva perspectiva. Primero, fue evidente que la razón de que la masa
atómica sea casi un múltiplo entero de la masa del átomo de hidrógeno,
hecho ya conocido desde el siglo pasado, es que las masas del neutrón y
del protón sean casi iguales.
MASAS
mp = 1.6725 x 10-24 g =
protón
1836 me
mn = 1.6748 x 10-24 g =
neutrón
1839 me
CARGAS
electrón -e
protón +e
RADIOS
atómico cm
núclear -13 cm = 1 f
ENERGÍAS TÍPICAS
OTRaS CONSTANTES
IMPORTANTES
velocidad
c = 2.998 x 108 m/s
de la luz
RADIOACTIVADAD
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se
mantienen en unestado excitado en sus capas electrónicas o nucleares, con lo que, para
alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones
electromagnéticas o en emisiones de partículas con una determinada energía cinética.
Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de
sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el
núcleo electrones, positrones,neutrones, protones o partículas más pesadas), y en varios
pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno
mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba
convirtiéndose en plomo.
RADIOACTIVIDAD NATURAL
interior mismo del átomo. En 1896 Henri Becquerel descubrió que ciertas sales de uranio
emiten radiaciones espontáneamente, al observar que velaban las placas fotográficas
envueltas en papel negro. Hizo ensayos con el mineral en caliente, en frío, pulverizado,
disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por
tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no
dependía de la forma física o química en la que se encontraban los átomos del cuerpo
radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
DESINTEGRACION RADIACTIVA
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( ).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo promedio de
vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de
desintegración radiactiva ( ).
Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo
radiactivo se reduzca a la mitad de la cantidad inicial se le conoce como periodo de
semidesintegración, período, semiperiodo, semivida o vida media (no confundir con el ya
mencionado tiempo de vida) ( ). Al final de cada período, la radiactividad se reduce a la
mitad de la radiactividad inicial
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( )
La desintegración radiactiva se comporta en función de la ley de decaimiento exponencial:
donde:
es el número de radionúclidos existentes en un instante de tiempo .
es el número de radionúclidos existentes en el instante inicial .
, llamada constante de desintegración radiactiva, es la probabilidad de desintegración por
unidad de tiempo. A partir de la definición de actividad (ver Velocidad de desintegración),
es evidente que la constante de desintegración es el cociente entre el número de
desintegraciones por segundo y el número de átomos radiactivos ( ).
Se llama tiempo de vida o tiempo de vida media de un radioisótopo el tiempo promedio de
vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de
desintegración radiactiva ( ).
Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo
radiactivo se reduzca a la mitad de la cantidad inicial se le conoce como periodo de
semidesintegración, período, semiperiodo, semivida o vida media (no confundir con el ya
mencionado tiempo de vida) ( ). Al final de cada período, la radiactividad se reduce a la
mitad de la radiactividad inicial
da ceredito alos autores de esta informacion.
http://www.google.com.mx/images?q=radioactividad&hl=es&gbv=2&gs_l=hp.3...7703.84
406.0.86281.62.37.3.22.0.2.704.7237.0j18j10j1j0j1j1.31.0...0.0.cnzV9Bmt6y8&nfpr=1&spe
ll=1&prmdo=1&sa=X&oi=image_result_group
Cosmología física
A pesar de que el modelo del Big Bang o La Gran Explosion, es un modelo teórico
observacionalmente bastante robusto y ampliamente aceptado entre la comunidad científica,
hay algunos aspectos que todavía quedan por resolver:
Se desconoce qué ocurrió en los primeros instantes tras el Big Bang. La respuesta se
busca mediante el estudio del universo temprano, una de cuyas metas es encontrar la
explicación a una posible unificación de las cuatrofuerzas fundamentales (fuerte, débil,
electromagnética y gravitacional).
No existe un modelo definitivo de la formación de las estructuras actuales, a partir
del Big Bang. La respuesta se busca mediante el estudio de la formación y evolución de las
galaxias y la inflación cósmica.
Queda por saber a qué se debe el hecho de que el universo se expanda
conaceleración (Véase Aceleración de la expansión del universo).
No se sabe cuál es el destino final del universo.
Se desconoce en su mayor parte la naturaleza de la materia oscura y la energía oscura.
En el momento después del Big Bang las partículas elementales aparecieron, los
quarks arriba en los protones y los quarks abajo en los neutrones, y no se conoce la
proporcion entre protones y neutrones, estas particulas estan hechas por dos quarks con la
misma carga eléctrica, no se habrían podido unir gracias a la interacción electromagnética,
es inútil recurrir a la interacción nuclear fuerte, pues ésta solo tiene un alcance del tamaño
máximo de un núcleo atómico y además porque la interacción electromagnética tiene un
alcance gigantesco y si el universo se agrandó en un solo segundo cien octillones de veces,
en este brevísimo lapso de tiempo la interacción nuclear fuerte no podría unir la casi totalidad
(si no es la totalidad) de los quarks.
para mas informacion consulte la siguiente pagina:
http://es.wikipedia.org/wiki/Cosmolog%C3%ADa
da clic e la siguiente liga para ver un video:
http://www.youtube.com/watch?v=6cN37YCv2jg&feature=fvwrel
Curiosamente, la expresión Big Bang proviene -a su pesar- del astrofísico inglés Fred Hoyle,
uno de los detractores de esta teoría y, a su vez, uno de los principales defensores de la teoría
del estado estacionario, quien en 1949, durante una intervención en la BBC dijo, para
mofarse, que el modelo descrito era sólo un big bang (gran explosión). No obstante, hay que
tener en cuenta que en el inicio del Universo ni hubo explosión ni fue grande, pues en rigor
surgió de una «singularidad» infinitamente pequeña, seguida de la expansión del propio
espacio.[1]
La idea central del Big Bang es que la teoría de la relatividad general puede combinarse con
las observaciones de isotropía y homogeneidad a gran escala de la distribución de galaxias y
los cambios de posición entre ellas, permitiendo extrapolar las condiciones del Universo
antes o después en el tiempo.
Una consecuencia de todos los modelos de Big Bang es que, en el pasado, el Universo tenía
una temperaturamás alta y mayor densidad y, por tanto, las condiciones del Universo actual
son muy diferentes de las condiciones del Universo pasado. A partir de este modelo, George
Gamow en 1948 pudo predecir que debería de haber evidencias de un fenómeno que más
tarde sería bautizado como radiación de fondo de microondas
El Universo ilustrado en tres dimensiones espaciales y una dimensión temporal.
Michio Kaku ha señalado cierta paradoja en la denominación big bang (gran explosión): en
cierto modo no puede haber sido grande ya que se produjo exactamente antes del surgimiento
del espacio-tiempo, habría sido el mismo big bang lo que habría generado
las dimensiones desde una singularidad; tampoco es exactamente una explosión en el sentido
propio del término ya que no se propagó fuera de sí mismo.
Basándose en medidas de la expansión del Universo utilizando observaciones de
las supernovas tipo 1a, en función de la variación de la temperatura en diferentes escalas en
la radiación de fondo de microondas y en función de la correlación de las galaxias, la edad
del Universo es de aproximadamente 13,7 ± 0,2 miles de millones de años. Es notable el
hecho de que tres mediciones independientes sean consistentes, por lo que se consideran una
fuerte evidencia del llamado modelo de concordancia que describe la naturaleza detallada del
Universo.
El universo en sus primeros momentos estaba lleno homogénea e isótropamente de
una energía muy densa y tenía una temperatura y presión concomitantes. Se expandió y se
enfrió, experimentando cambios de faseanálogos a la condensación del vapor o a la
congelación del agua, pero relacionados con las partículas elementales.
Aproximadamente 10-35 segundos después del tiempo de Planck un cambio de fase causó que
el Universo se expandiese de forma exponencial durante un período llamado inflación
cósmica. Al terminar la inflación, los componentes materiales del Universo quedaron en la
forma de un plasma de quarks-gluones, en donde todas las partes que lo formaban estaban en
movimiento en forma relativista. Con el crecimiento en tamaño del Universo, la temperatura
descendió, y debido a un cambio aún desconocido denominado bariogénesis, los quarks y
los gluones se combinaron en bariones tales como el protón y el neutrón, produciendo de
alguna manera la asimetría observada actualmente entre la materia y la antimateria. Las
temperaturas aún más bajas condujeron a nuevos cambios de fase, que rompieron la simetría,
así que les dieron su forma actual a las fuerzas fundamentales de la física y a las partículas
elementales. Más tarde, protones y neutrones se combinaron para formar
los núcleos de deuterio y de helio, en un proceso llamado nucleosíntesis primordial. Al
enfriarse el Universo, la materia gradualmente dejó de moverse de forma relativista y su
densidad de energía comenzó a dominar gravitacionalmente sobre la radiación. Pasados
300.000 años, los electrones y los núcleos se combinaron para formar
los átomos (mayoritariamente de hidrógeno). Por eso, la radiación se desacopló de los
átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la radiación de fondo
de microondas.
Base teórica
2. El principio cosmológico
3. El principio de Copérnico
4. Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente se intenta
verificar cada una de ellas. La universalidad de las leyes de la física ha sido verificada al
nivel de las más grandes constantes físicas, llevando su margen de error hasta el orden de 10-
5
. La isotropía del universo que define el principio cosmológico ha sido verificada hasta un
orden de 10-5. Actualmente se intenta verificar el principio de Copérnico observando la
interacción entre grupos de galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con
un nivel de exactitud del 1 por ciento.
5. La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el tiempo en
cualquier momento en el pasado a partir del la época de Planck. Las medidas en este sistema
dependen de coordenadas conformales, en las cuales las llamadas distancias
codesplazantes y los tiempos conformales permiten no considerar la expansión del universo
para las medidas de espacio-tiempo. En ese sistema de coordenadas, los objetos que se
mueven con el flujo cosmológico mantienen siempre la misma distancia codesplazante, y el
horizonte o límite del universo se fija por el tiempo codesplazante.
Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un universo vacío; es
el espacio-tiempo el que se extiende.Y es su expansión la que causa el incremento de la distancia
física entre dos puntos fijos en nuestro universo.Cuando los objetos están ligados entre ellos (por
ejemplo, por una galaxia), no se alejan con la expansión del espacio-tiempo, debido a que se asume
que las leyes de la física que los gobiernan son uniformes e independientes del espacio métrico. Más
aún, la expansión del universo en las escalas actuales locales es tan pequeña que cualquier
dependencia de las leyes de la física en la expansión no sería medible con las técnicas actuales