Вы находитесь на странице: 1из 74

UNIVERSIDAD NACIONAL DE

JAÉN

o CARRERRA PROFESIONAL: Ingeniería Mecánica Eléctrica

o CICLO ACADEMICO: 2018 - II

o CICLO ESTUDIANTIL: I

o CURSO: Química General

o TRABAJO ACADEMICO: Nº 2

o TEMA: TRABAJO ACADÉMICO

o DOCENTE: Linder Ruvio Cueva

o INTEGRANTES:
● Carlos Pomachari, Luis
● Gonzales Perez, Henry Elzer
● Lopez Perez, Dante Wuilliamms
● Mesones Linares, Teddy Sebastian
● Vargas Quispe, Deyvis Yair

o FECHA: 18/09/2018

JAÉN - PERÚ
1. ECUACIÓN DE ERWIN SCHRÖDINGER:

Definición y origen:

En 1926, el físico austríaco Erwin Schrödinger derivó una ecuación de ondas desde el
principio variacional de Hamilton inspirándose en la analogía existente entre la
Mecánica y la Óptica. Esta ecuación, cuya formulación se puede ver en el artículo An
Undulatory Theory of the Mechanics of Atoms and Molecules de la revista Physical
Review, explicaba mucha de la fenomenología cuántica que se conocía en aquel
momento.

Aunque estaba claro que esta ecuación describía la evolución temporal del estado
cuántico de un sistema físico no relativista, fue pocos días después de su publicación
cuando el físico alemán Max Born desarrolló la interpretación probabilista del objeto
principal de la ecuación, la función de onda, que sigue vigente hoy en día ya que entró
a formar parte de la llamada interpretación de Copenhague de la Mecánica Cuántica,
con la que Schrodinger nunca estuvo del todo de acuerdo. Sus ambiciones al abordar
la tarea eran encontrar, en analogía con la Óptica, el límite en el cual se pudieran
describir de forma determinista las trayectorias de las partículas. Llegó a proponer una
interpretación de la función de onda como densidad de carga que no fructificó. En este
sentido Schrödinger fue, al igual que Einstein, profeta y hereje de la teoría cuántica.

El desarrollo que haremos aquí no es el histórico. Partiremos de principios de simetría


apoyados en el teorema de Wigner, físico húngaro artífice entre otros de la llamada
interpretación ortodoxa de la Mecánica Cuántica, para llegar a una formulación general
que devenirá la original de Schrödinger cuando nos ocupemos de la representación en
el llamado espacio de posiciones.

Transformaciones de simetría:

Como se ha dicho en estos apuntes, las leyes físicas deben ser invariantes bajo ciertas
simetrías, representadas por las transformaciones de los objetos matemáticos que
definen estas leyes. En particular en Mecánica Cuántica cabe preguntarse por las
transformaciones de los estados y de los observables

En el caso cuántico estas transformaciones deben cumplir lo que constituye la esencia


del llamado teorema de Wigner, es decir, que los observables transformados deben
poseer los mismos conjuntos posibles de valores que los antiguos (autovalores) y que
las transformaciones de los estados nos deben dar las mismas probabilidades, deben
estar siempre dadas por operadores unitarios que conservan los productos escalares:

en realidad, el teorema permite también los operadores antiunitarios, pero estos sólo
se usarán para determinados tipos de simetrías.

Por tanto, la expresión de los observables transformados está dada por:

Si enfocamos nuestra atención a las transformaciones infinitesimales:

la unitariedad demanda:

que implica que la derivada será de tipo imaginario puro:

luego suponiendo U(0)=I esos operadores unitarios deben tener la forma

siendo G los generadores de las transformaciones asociadas a los parámetros s. En el


caso general multiparamétrico tendríamos las relaciones

Estos generadores obedecerán, como vimos en el capítulo de teoría de grupos, una


serie de relaciones de conmutación. Si consideramos dos transformaciones y sus
inversas:

y teniendo en cuenta que cualquier composición de transformaciones debe equivaler,


salvo fase, a otra transformación del grupo, se tiene, observando que:

que el conmutador de dos generadores será una combinación lineal de generadores y


el operador identidad:

en donde el último término se puede hacer cero haciendo ω=0 y las constantes c serán
fruto de la idiosincrasia de las transformaciones a considerar.

Ecuación del movimiento. Partícula libre

En el caso que nos ocupa la dinámica de una partícula libre, suponiendo velocidades
no relativistas, debería ser invariante bajo las transformaciones del grupo de Galileo,
cuyos 10 parámetros definen, como se sabe, los siguientes operadores unitarios
asociados a cada simetría:

en donde se introducen signos menos por convención. Para hallar las ecuaciones del
movimiento nos preguntaremos por la evolución temporal:

es decir, haciendo s=t:

que constituirá la ecuación del movimiento de la función de onda. Por razones


históricas es conveniente redefinir el operador H por H/ħ (eventualmente se usará un
sistema de unidades en el que ħ=1), quedando la ecuación del movimiento como:
en donde el generador H es el hamiltoniano del sistema. Destacar que muchos textos
introducen esta ecuación como uno de los postulados de la Mecánica Cuántica.

Imágenes de evolución temporal

Siguiendo con nuestra discusión, vamos a sacar la ecuación de evolución para el


operador estado. Primero observemos que la evolución de la función de onda desde un
instante inicial t0 está dada por:

Este operador evolución deberá satisfacer por tanto también la ecuación del
movimiento:

en donde lógicamente se supone que U(t0)=I.

Si H es independiente del tiempo (sistemas conservativos) el operador evolución


tendrá la forma:

de lo contrario no tendrá una forma concreta y dependerá del caso a estudiar. Vamos
a ver qué sucede con los operadores estado. Supongamos que no perdemos
generalidad al considerar un operador representando un estado puro:

Derivando respecto al tiempo y usando la ecuación del movimiento para U se tiene:

Si prestamos nuestra atención a la evolución temporal de los valores medios de los


observables:
vemos que hasta ahora hemos supuesto que la dependencia temporal explícita la lleva
el estado, esta es la llamada imagen de Schrödinger, pero observando que:

podemos suponer que la dependencia temporal la llevan los operadores observables,


definiendo:

lo que constituye la llamada imagen de Heisenberg, en donde son las variables


dinámicas las que evolucionan.

En el caso de un estado puro, las medias tienen la forma, en la imagen de Schrödinger


y en la de Heisenberg respectivamente:

Podemos deducir las ecuaciones de evolución de los observables en la imagen de


Heisenberg, suponiendo que el hamiltoniano también se desarrolla en esa imagen:

En esta imagen el operador estado sólo dará cuenta de los datos iniciales de la
preparación del experimento. La evolución de la media será por tanto:

mientras que en la imagen de Schrödinger tendremos la fórmula similar:


En el caso de un estado puro la fórmula general de evolución de un valor esperado
está dada por:

lo que indica que para un sistema arbitrario la evolución del valor esperado de un
observable es debida en parte a la evolución del vector estado y en parte a la
dependencia explícita en el tiempo del observable.

De aquí también se puede apreciar que una constante del movimiento es un


observable que no depende explícitamente del tiempo y que conmuta con H:

de lo que se deduce que para sistemas conservativos el hamiltoniano será una


constante del movimiento.

Representación de posición

Asumiendo que el espacio es continuo y que las tres componentes del vector posición
x=(x1,x2,x3) de la partícula son cinemáticamente independientes, podemos suponer
que los operadores que las representan son mutuamente conmutativos, lo que
equivale a decir que poseen un conjunto común de autovectores, de forma que:

La representación de posición o representación en el espacio de posiciones o de


coordenadas o de configuración del espacio de Hilbert que estudiamos será aquella en
donde los vectores estén desarrollados en la base ortonormal de la posición, es decir:

con las relaciones de ortonormalidad y cierre habituales para los espacios continuos:
Los coeficientes en la expansión definen funciones de variable continua que a menudo
se suelen identificar con la función de onda propiamente dicha, por ser esta la
definición original:

Los operadores actuarán por simplicidad indistintamente en el espacio de Hilbert o en


el espacio funcional. Para ver la forma que tiene el operador momento en esta
representación debemos recordar su papel de generador de traslaciones:

de forma que, para traslaciones infinitesimales

que en el espacio funcional toma la forma

comparándolo con el desarrollo de Taylor en análisis tenemos que

cuyas componentes en coordenadas cartesianas tienen la forma simple

apariencia que no es tan sencilla en cualquier otro tipo de coordenadas generalizadas.

La ecuación de onda de Schrödinger para una partícula sometida a un potencial escalar


V(x) vendrá dada por la expresión del hamiltoniano no relativista, que suponemos que
es, en la representación de posición:

y por tanto tenemos


Ecuación de continuidad

Una de las observaciones que hay que hacer acerca de la ecuación de Schrödinger es
que, como no podía ser de otra manera, conserva la norma del vector de estado:

que es una forma equivalente de expresar la unitariedad de la evolución o la


hermiticidad del hamiltoniano.

Ahora vamos a ir más allá y vamos a ver cómo evoluciona la probabilidad, para
cerciorarnos de que no encontremos fuentes ni sumideros de la misma en nuestro
dominio de definición. Para ello vamos a definir la llamada densidad de probabilidad
como

que nos daría, como vimos en el postulado III, si la integramos sobre un volumen
dado, la probabilidad de que la partícula se encuentre en ese volumen en el instante t.
Veamos pues cómo evoluciona en dos instantes de tiempo:

en donde se ha usado la conservación de la norma. Por otra parte podemos escribir,


para un volumen arbitrario Ω, usando la ecuación de Schrödinger:

en donde se ha usado el teorema de la divergencia de Gauss, siendo n el vector


unitario normal hacia el exterior de Ω, y la llamada densidad de corriente de
probabilidad:

y, como la región Ω es arbitraria, llegamos a la ecuación de continuidad:

formalmente idéntica a la ecuación de un fluido sin fuentes ni sumideros, es decir, la


probabilidad se propaga como un fluido.

Lógicamente, si elegimos el volumen de integración de forma que coincida con todo el


espacio tridimensional, debido a las condiciones de acotación de la norma la función de
onda se anulará en la superficie del infinito, el segundo término de la ecuación de
continuidad se anulará y recuperaremos la conservación de la norma propiamente
dicha. En la mayoría de los casos esto de hecho sucederá aún si restringimos nuestro
volumen al dominio del problema.

Soluciones de la ecuación

Método general

Para hallar soluciones de la ecuación se suele ensayar el método de separación de


variables, que funciona siempre que la energía potencial no dependa del tiempo, y
consiste en suponer para la función de onda la forma factorizada:

llegando a la conclusión de que esta función debe ser de la forma:

en donde E es la energía total de la partícula, ω la frecuencia angular de la onda


asociada y la parte espacial debe satisfacer la llamada ecuación de Schrödinger
independiente del tiempo:

1.1. Potencial cero. Partícula libre


En este caso la ecuación se reduce, teniendo en cuenta la expresión clásica de la
energía cinética (E=p2/2m), llegando a la ecuación:

en donde k es el llamado número de onda angular, inverso de la longitud de onda, que


se deduce de la relación de de Broglie p=ħk, y las soluciones serán de la forma:

con lo que una solución particular de la ecuación de Schrödinger será la onda plana
monocromática:

sin olvidar que la frecuencia depende de la longitud de onda por la relación de


dispersión de la partícula libre:

Esta solución describe una onda viajera ya que, por ejemplo, los nodos de su parte real
se encuentran en los puntos x=(n+1/2)π/k+ωt/k, que se van desplazando con el
tiempo.

La densidad de probabilidad en este caso no nos aporta información ya que las


amplitudes de las ondas son las mismas en todas la regiones espaciales:

lo que indica que la partícula se encontrará con la misma probabilidad en cualquier


punto del espacio. Podemos calcular el valor medio del momento de la partícula, que
estará dado por:

en donde hemos hecho actuar la delta de Dirac y la condición de normalización.

No obstante, la solución de partícula libre a la ecuación de onda no es normalizable en


todo el espacio, no pertenece a las funciones de cuadrado integrable y no se ajustaría
a los postulados de la Mecánica Cuántica. Este es un viejo caballo de batalla en la
Física de los sistemas ideales, no sólo cuánticos, que a veces dan lugar a
inconsistencias matemáticas. Para empezar, tampoco tiene mucho sentido el
considerar todo el espacio euclídeo como el laboratorio de nuestra partícula. Además,
un sentido mucho más realista del problema es considerarlo como un proceso límite de
un verdadero fenómeno físico descrito por un paquete de onda, es decir un grupo de
ondas viajeras. En efecto, es muy aventurado asegurar que la partícula se encuentra
en un estado con un momento lineal perfectamente definido, se acerca más a la
realidad suponer una distribución de momentos. De este modo la densidad de
probabilidad correspondiente será más aproximada a la descripción del movimiento de
la partícula libre. No obstante, las matemáticas necesarias para describir el grupo de
ondas analíticamente son muy complicadas y las dejaremos para un capítulo posterior.

En cualquier caso, para hacernos una idea más aproximada de lo que estamos
hablando, podemos hacer una descripción aproximada del comportamiento de un
paquete de ondas suponiendo una distribución en números de onda (es decir,
energías, momentos) debida tan solo a dos componentes ondulatorias:

usando la identidad trigonométrica:

encontramos la expresión (para dk<<2k y $dω<<2k$):

que podemos representar, para los instantes t=0 y t=20, en cualquier programa de
representación online como el Wolfram Alpha o el propio Google, con los valores
correspondientes a ħ=m=k=1, obteniendo algo como en la figura, en donde se ve
claramente el viaje del grupo y cómo la densidad de probabilidad sería más
aproximada a nuestra experiencia.

Vemos que el segundo factor de la onda es como la inicial pero modulada por el primer
factor, de forma que las oscilaciones de Ψ caen dentro de una envolvente cuya
amplitud varía periódicamente. Las ondas se interfieren y se refuerzan
alternativamente.

La velocidad de las ondas individuales se puede evaluar considerando el segundo


factor en los nodos de la función:
vemos que esta velocidad de la onda no es igual a la velocidad de la partícula que
representa. Esto es así porque la velocidad que debe tener correspondencia con la
partícula es la llamada velocidad de grupo, que se evalúa considerando los nodos del
primer factor de la onda:

Estas consideraciones sobre el movimiento de la partícula se pueden continuar


calculando los valores promedios de los observables y recuperando, al menos
formalmente, las leyes de la Mecánica Clásica, lo que constituye el contenido del
llamado teorema de Ehrenfest.

Potencial cuadrado

Como hemos visto, el estudio de la partícula libre no arroja ninguna condición para la
energía. Vamos a empezar a ver ahora los llamados estados ligados, que como
veremos darán lugar naturalmente al hecho típico de la Mecánica Cuántica de que la
energía suele estar discretizada o cuantizada en sólo unos estados permitidos
determinados por el problema.

El más sencillo de estos problemas es el del pozo cuadrado, en donde tenemos una
zona de ancho a en donde la partícula no se ve sometida a potencial alguno y a ambos
lados de esta zona se tiene un potencial constante de altura V0.

En la figura vemos un esquema y el potencial concreto tiene la forma:


Lógicamente se trata de una situación idealizada, pero puede servir para estudiar
cualitativamente sistemas físicos sencillos como un electrón de conducción en un
bloque de metal. Por supuesto supondremos los casos en que la energía de la partícula
sea menor que la altura del pozo:

para los que, según la Mecánica Clásica, la partícula sólo podría estar en la región
|x|<a/2 (dentro del pozo).

La solución general de la ecuación de Schrödinger independiente del tiempo dentro del


pozo es la que hayamos para la partícula libre, esta vez con las constantes de
integración añadidas:

que representa ondas que viajan en sentido positivo y negativo de x respectivamente.


No obstante, la simetría del problema sugiere la igualdad en valor absoluto de las
constantes de integración, lo que lleva a considerar mejor las siguientes soluciones
generales:

suma de dos ondas estacionarias en donde se conocerá el momento de la partícula


pero no su sentido de movimiento.

Para el caso hipotético en que la partícula se encuentre fuera del pozo, como su
energía es menor que la potencial, la ecuación a resolver será:

que tendrá las soluciones, en la regiones que llamaremos 0 (x<a/2) y 1 (x>a/2), que a
continuación se detallan:

Estas ondas estacionarias no tienen nodos, pero deben superponerse con las ondas
estacionarias del interior del pozo que sí tienen nodos. El hecho de que la función de
onda debe ser normalizable anula las ramas divergentes de las soluciones, con lo que
D=F=0, con lo que las soluciones en esas zonas del pozo quedarían:
Nos resta obtener por tanto las cuatro ecuaciones más para las constantes restantes, y
eso se realiza demandando que ψ y dψ/dx sean continuas en las dos fronteras. Los
cálculos nos llevan a dos ecuaciones trascendentes que se deben satisfacer
independientemente, es decir, hay dos conjuntos de soluciones, las correspondientes a
función de onda par:

y las correspondientes a la función de onda impar:

Las constantes se ajustan por las condiciones de normalización. Un ejemplo de la


forma de estas funciones se puede ver en la figura:
El hecho de que la paridad de las soluciones esté definida es consecuencia de que la
ecuación de Schrödinger de partida es invariante bajo el cambio x---< -x y lo podíamos
haber supuesto de inicio llegando a la misma forma de solución.

Los niveles de energía y por tanto la escala concreta de las autofunciones hay que
calcularla resolviendo numéricamente las dos ecuaciones trascendentes halladas:

lo cual se puede hacer en cada


caso por varios métodos, y en
donde se encuentran como dijimos
al inicio las energías discretizadas
correspondientes a los puntos de
corte de las gráficas como en la
figura.

De esta forma encontramos que


sólo existen un número restringido
de valores permitidos de la energía
para E<V0 que corresponderán a
los estados ligados de la partícula, estando permitido cualquier valor para E>V0, es
decir, ahí formarán un continuo como en el caso de la partícula libre. Tendremos al
menos un estado ligado dependiendo de la altura del pozo, correspondiente a una
función par.

Una de las consecuencias más notables de estos primeros cálculos cuánticos es que
hay regiones no accesibles por la Mecánica Clásica en donde existe cierta probabilidad
de encontrar a la partícula. Esto es así porque en las paredes del pozo finito la función
de onda no se hace nula, sino que existe cierto rango de penetración. Esta distancia de
penetración, para el caso de un electrón en un metal, por ejemplo, es del orden de las
dimensiones atómicas y en la mayoría de los casos muy pequeña respecto al ancho del
pozo. Esto sugiere tratar con otro ejemplo límite en el cual el pozo de potencial tenga
un valor inaccesible o infinito (en el caso del metal sería un superficie del metal cuya
distribución de carga creara un potencial neto insalvable para el electrón).

Por tanto el siguiente paso natural es considerar el llamado potencial cuadrado infinito
o pozo de paredes infinitas, que a menudo se conoce como el estudio de la partícula
en una caja.
En este caso todos los estados están ligados y por tanto la energía está cuantizada en
todo su dominio. La forma analítica vendría dada por:

como se vio las soluciones dentro del pozo tienen la forma estacionaria:

En este caso, a diferencia del caso del pozo finito, no puede haber regiones de
penetración en la barrera en donde la función de onda sea no nula. Esto es así por las
características del límite:

y la función de onda deberá ser

y como consecuencia la onda estacionaria en este caso tendrá nodos en las paredes de
la caja y además no podremos exigir continuidad a la derivada en esos puntos.

Aplicando estas condiciones en los dos puntos frontera obtenemos:


que son precisamente las condiciones de cuantificación que, al no poder satisfacerse
simultáneamente, definen de nuevo dos clases de autofunciones, pares e impares:

Las ecuaciones trascendentes para el número de onda (y por tanto la energía) en esta
ocasión son triviales y conducen a las soluciones:

en donde se ha ignorado la solución n=0 porque correspondería a una función de onda


idénticamente nula y, por tanto, a la inexistencia de la partícula. De aquí se deduce
otra de las características de la Mecánica Cuántica, que la partícula no puede tener
energía total cero, es decir, la energía de punto cero o energía más baja que puede
tener la partícula será:

este resultado es consecuencia del principio de incertidumbre que veremos más


adelante.

Las condiciones de normalización para las funciones de onda arrojarán valores


concretos para las constantes:

con lo que la expresión final de estas funciones será

que se pueden ver en la figura para a=1.


El oscilador armónico unidimensional

El primer caso realista de potencial lo constituye el oscilador armónico. Este potencial


es de enorme importancia ya que se puede obtener su solución analíticamente y es
modelo para multitud de sistemas físicos, desde el estudio de las vibraciones de
átomos en moléculas diatómicas hasta las vibraciones de las ondas electromagnéticas
en teoría cuántica de campos.

Para vibraciones pequeñas escogiendo adecuadamente los ejes el potencial a estudiar


tiene la forma parabólica:

donde k es la llamada constante de recuperación, ya que una partícula que se mueva


sobre su influencia experimentará una fuerza restauradora lineal F=-kx (ley de Hooke).

Método analítico

La ecuación de Schrödinger independiente del tiempo tendrá la forma

teniendo en cuenta la expresión de la frecuencia clásica de oscilación:

la ecuación resulta
Por comodidad se introducen los parámetros:

con lo que la ecuación a resolver será

Rescalando la variable x adecuadamente se puede poner:

que para valores muy grandes de u toma la forma:

pero como la función de onda debe converger en el infinito se tiene:

lo cual sugiere que se busquen soluciones generales de la forma:

de forma que H(u) no explote en el infinito como una exponencial. Sustituyendo en la


ecuación se tiene, para la función H(u):

ecuación diferencial que, al contrario que la original, se puede resolver por la técnica
de series de potencias. Identificando coeficientes y obteniendo relaciones de
recurrencia entre ellos, se obtiene la solución en términos de dos series (una par y otra
impar):

De nuevo imponemos convergencia. Es claro que para u grandes los términos de las
potencias bajas en u no son considerables, pero las razones de los términos de
potencias altas de las series son análogos a los de la exponencial cuadrática:

como esta función no converge, hay que cortar la serie de potencias en algún valor de
l=n, definido por

Esta solución resultante ya no define una serie infinita sino unos polinomios llamados
polinomios de Hermite:

en donde la regla de cuantificación obtenida ahora se puede poner como


Las funciones ψ2n(x) son pares y las ψ2n+1(x) son impares. La constante de
normalización toma la forma:

Teniendo en cuenta que los primeros polinomios de Hermite son de la forma:

podemos ver en la figura la representación gráfica de los primeros autoestados:

Los niveles de energía son análogos a los deducidos por Planck y los físicos de la teoría
cuántica antigua, salvo que aquí la energía de punto cero es ħ ω/2 (como veremos que
exige el principio de incertidumbre).

Método algebraico

Este método comienza por definir los operadores:


en donde el último es formalmente hermítico, como se puede ver sacando su expresión
en términos de las variables dinámicas y el hamiltoniano:

y por tanto

de donde también se deducen las expresiones:

Vamos a ver que en efecto los autovalores del operador N son los enteros no
negativos, y es por esto por lo que se le conoce como operador número. Para empezar
tengamos en cuenta los conmutadores:

y supongamos que |n> es el autovector normalizado del operador N con autovalor n:


N|n>=n|n>, entonces:

es decir, a|n> y a+|n> son autovectores de N con autovalores n-1 y n+1


respectivamente, dicho de otra forma, son proporcionales a los autovectores |n-1> y
|n+1>. La constante de proporcionalidad se calcula mediante la norma:

con esto ya queda claro que n >= 0, es decir, N es definido positivo, aparte de
deducirse las fórmulas:

en donde en el primer caso n no podrá ser cero. A los operadores a y a+ se los


denomina operadores destrucción y creación respectivamente por estar relacionados
con la desaparición y aparición de cuantos. Nótese que además a|0>=0.

Todavía no hemos demostrado que los n son enteros. Es muy fácil, por reducción al
absurdo, imaginemos que existe un autovalor semientero q:

es fácil darse cuenta de que se puede construir una cadena de autovectores ap|q> de
N con autovalores q-p:

y por tanto an|q> es autovector de N con autovalor (q-n)>0, y si aplicamos a podemos


construir el autovalor no nulo:

lo cual es absurdo ya que según vimos no podían existir esos autovalores negativos.
Luego n debe ser un entero no negativo.

En resumen, hemos probado que los autoestados del hamiltoniano son de la forma

que pueden ser generados a partir del fundamental como


Si queremos recuperar la solución analítica, podemos hacerlo mediante:

y aplicando ahora el operador de creación se encuentra

2.El efecto fotoeléctrico

El efecto fotoeléctrico consiste en la emisión


de electrones por un material al incidir sobre
él una radiación electromagnética (luz visible
o ultravioleta, en general). A veces se
incluyen en el término otros tipos de
interacción entre la luz y la materia:

o Fotoconductividad: Es el aumento de la conductividad eléctrica de la materia o


en diodos provocada por la luz.
o Efecto fotovoltaico: Transformación parcial de la energía lumínica en energía
eléctrica.
El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz, en 1887, al
observar que el arco que salta entre dos electrodos conectados a alta tensión alcanza
distancias mayores cuando se ilumina con luz ultravioleta que cuando se deja en la
oscuridad. Se podría decir que el efecto fotoeléctrico es lo opuesto a los rayos X, ya
que el efecto fotoeléctrico indica que los fotones pueden transferir energía a los
electrones. Los rayos X son la transformación en un fotón de toda o parte de la energía
cinética de un electrón en movimiento.

Los fotones tienen una energía característica determinada por la frecuencia de onda de
la luz. Si un átomo absorbe energía de un fotón y tiene más energía que la necesaria
para expulsar un electrón del material y además posee una trayectoria dirigida hacia la
superficie, entonces el electrón puede ser expulsado del material. Si la energía del
fotón es demasiado pequeña, el electrón es incapaz de escapar de la superficie del
material. Los cambios en la intensidad de la luz no modifican la energía de sus fotones,
tan sólo el número de electrones que pueden escapar de la superficie sobre la que
incide y por tanto la energía de los electrones emitidos no depende de la intensidad de
la radiación que le llega, sino de su frecuencia. Si el fotón es absorbido, parte de la
energía se utiliza para liberarlo del átomo y el resto contribuye a dotar de energía
cinética a la partícula libre.

En principio, todos los electrones son susceptibles de ser emitidos por efecto
fotoeléctrico. En realidad los que más salen son los que necesitan menos energía para
ser expulsados y, de ellos, los más numerosos.

En un aislante (dieléctrico), los electrones más energéticos se encuentran en la banda


de valencia. En un metal, los electrones más energéticos están en la banda de
conducción. En un semiconductor de tipo N, son los electrones de la banda de
conducción los que son más energéticos. En un semiconductor de tipo P también, pero
hay muy pocos en la banda de conducción. Así que en ese tipo de semiconductor hay
que tener en cuenta los electrones de la banda de valencia.

A la temperatura ambiente, los electrones más energéticos se encuentran cerca del


nivel de Fermi (salvo en los semiconductores intrínsecos en los cuales no hay
electrones cerca del nivel de Fermi). La energía que hay que dar a un electrón para
llevarlo desde el nivel de Fermi hasta el exterior del material se llama función de
trabajo, y la frecuencia mínima necesaria, de radiación incidente, para sacar un
electrón del metal, recibe el nombre de frecuencia umbral. El valor de esa energía es
muy variable y depende del material, estado cristalino y, sobre todo, de las últimas
capas atómicas que recubren la superficie del material. Los metales alcalinos (sodio,
calcio, cesio, etc.), presentan las más bajas funciones de trabajo. Aún es necesario que
las superficies estén limpias a nivel atómico. Una de las mayores dificultades en los
experimentos de Millikan era que había que fabricar las superficies de metal en el
vacío. Los fotones del rayo de luz tienen una energía característica determinada por la
frecuencia de la luz. En el proceso de fotoemisión, si un electrón absorbe la energía de
un fotón y este último tiene más energía que la función de trabajo, el electrón es
arrancado del material. Si la energía del fotón es demasiado baja, el electrón no puede
escapar de la superficie del material.

Aumentar la intensidad del haz no cambia la energía de los fotones constituyentes,


solo cambia el número de fotones. En consecuencia, la energía de los electrones
emitidos no depende de la intensidad de la luz, sino de la energía de los fotones.

Los electrones pueden absorber energía de los fotones cuando son irradiados, pero
siguiendo un principio de "todo o nada". Toda la energía de un fotón debe ser
absorbida y utilizada para liberar un electrón de un enlace atómico, o si no la energía
es re-emitida. Si la energía del fotón es absorbida, una parte libera al electrón del
átomo y el resto contribuye a la energía cinética del electrón como una partícula libre.

Leyes de la emisión fotoeléctrica

1. Para un metal y una frecuencia de radiación incidente dados, la cantidad de


fotoelectrones emitidos es directamente proporcional a la intensidad de luz
incidente.
2. Para cada metal dado, existe una cierta frecuencia mínima de radiación
incidente debajo de la cual ningún fotoelectrón puede ser emitido. Esta
frecuencia se llama frecuencia de corte, también conocida como "Frecuencia
Umbral".
3. Por encima de la frecuencia de corte, la energía cinética máxima del
fotoelectrón emitido es independiente de la intensidad de la luz incidente, pero
depende de la frecuencia de la luz incidente.
4. La emisión del fotoelectrón se realiza instantáneamente, independientemente
de la intensidad de la luz incidente. Este hecho se contrapone a la teoría
Clásica, la Física Clásica esperaría que existiese un cierto retraso entre la
absorción de energía y la emisión del electrón, inferior a un nanosegundo.
El efecto fotoeléctrico es la base de la producción de energía solar fotovoltaica. Este
principio se utiliza también para la fabricación de células utilizadas en los detectores de
llama de las calderas de las grandes centrales termoeléctricas, así como para los
sensores utilizados en las cámaras digitales. También se utiliza en diodos fotosensibles
tales como los que se utilizan en las células fotovoltaicas y en electroscopios o
electrómetros. En la actualidad los materiales fotosensibles más utilizados son, aparte
de los derivados del cobre —ahora en menor uso—, el silicio, que produce corrientes
eléctricas mayores.

El efecto fotoeléctrico también se manifiesta en cuerpos expuestos a la luz solar de


forma prolongada. Por ejemplo, las partículas de polvo de la superficie lunar adquieren
carga positiva debido al impacto de fotones. Las partículas cargadas se repelen
mutuamente elevándose de la superficie y formando una tenue atmósfera. Los
satélites espaciales también adquieren carga eléctrica positiva en sus superficies
iluminadas y negativa en las regiones oscurecidas, por lo que es necesario tener en
cuenta estos efectos de acumulación de carga en su diseño.

3. TEORIA ATOMICA:

3.1. Modelo atómico de Jhon Dalton.

El modelo atómico de Dalton fue el primer modelo atómico con bases científicas,
propuesto entre 1803 y 1807 por John Dalton, aunque el autor lo denominó más
propiamente "teoría atómica".

El modelo permitió aclarar por primera vez por qué las sustancias químicas
reaccionaban en proporciones estequiométricas fijas (Ley de las proporciones
constantes), y por qué cuando dos sustancias reaccionan para formar dos o más
compuestos diferentes, entonces las proporciones de estas relaciones son números
enteros (Ley de las proporciones múltiples). Por ejemplo 12 g de carbono (C), pueden
reaccionar con 16 g de oxígeno (O2) para formar monóxido de carbono (CO) o pueden
reaccionar con 32 g de oxígeno para formar dióxido de carbono (CO2).
Además el modelo aclaraba que aun existiendo una gran variedad de sustancias
diferentes, estas podían ser explicadas en términos de una cantidad más bien pequeña
de constituyentes elementales o elementos.

En esencia, el modelo explicaba la mayor parte de la química de fines del siglo XVIII y
principios del siglo XIX, reduciendo una serie de hechos complejos a una teoría
combinatoria realmente simple.

Postulados de Dalton.

Dalton postuló su teoría formulando una serie de enunciados simples:

a) La materia está formada por partículas muy pequeñas llamadas átomos, que
son indivisibles y no se pueden destruir.

b) Átomos de un mismo elemento son iguales entre sí, tienen la misma masa e
iguales propiedades. Los átomos de diferentes elementos tienen masa
diferente. Comparando la masa de los elementos con los del hidrógeno tomado
como la unidad, propuso el concepto de peso atómico relativo.

c) Los átomos permanecen sin división, aun cuando se combinen en las


reacciones químicas.

d) Los átomos, al combinarse para formar compuestos, guardan relaciones


simples de números enteros y pequeños.

e) Los átomos de elementos diferentes se pueden combinar en proporciones


distintas y formar más de un compuesto.

f) Los compuestos químicos se forman al unirse átomos de dos o más elementos.

g) La materia está formada por partículas muy pequeñas llamadas “átomos”.

h) Estos átomos no se pueden dividir ni romper, no se crean ni se destruyen en


ninguna reacción química, y nunca cambian.

i) Los átomos de un mismo elemento son iguales entre sí, tienen la misma masa y
dimensiones. Por ejemplo: todos los átomos de hidrógeno son iguales.
j) Por otro lado, los átomos de elementos diferentes son diferentes. Por ejemplo:
los átomos de oxígeno son diferentes a los átomos de hidrógeno.

k) Los átomos pueden combinarse para formar compuestos químicos. Por


ejemplo: los átomos de hidrógeno y oxígeno pueden combinarse y formar
moléculas de agua

l) Los átomos se combinan para formar compuestos en relaciones numéricas


simples. Por ejemplo: al formarse agua, la relación es de 2 a 1 (dos átomos de
hidrógeno con un átomo de oxígeno).

m) Los átomos de elementos diferentes se pueden combinar en proporciones


distintas y formar más de un compuesto. Por ejemplo: un átomo de carbono
con uno de oxígeno forman monóxido de carbono (CO), mientras que dos
átomos de oxígeno con uno de carbono, forman dióxido de carbono (CO2).
Insuficiencias del modelo.

La hipótesis de John Dalton, que afirmaba que los elementos en estado gaseoso eran
monoatómicos y que los átomos de los elementos se combinaban en la menor
proporción posible para formar átomos de los compuestos, lo que hoy llamamos
moléculas, generó algunas dificultades. Por ejemplo, Dalton pensó que la fórmula del
agua era HO. En consecuencia de esto se realizaron cálculos erróneos sobre la masa y
peso de algunos compuestos básicos.

En 1805, Gay-Lussac y Alexander von Humboldt mostraron que el agua estaba


formada por dos átomos de hidrógeno y uno de oxígeno.6 En 1811, Amedeo Avogadro
concretó la exacta composición del agua, basándose en lo que hoy se conoce como
Ley de Avogadro y la evidencia de la existencia de moléculas diatómicas
homonucleares. No obstante, estos resultados fueron ignorados en su mayor parte
hasta 1860. Esto fue, en parte, por la creencia de que los átomos de un elemento no
tenían ninguna afinidad química hacia átomos del mismo elemento. Además, algunos
conceptos de la disociación de moléculas no estaban explicados en la Ley de Avogadro.

En 1860, en el Congreso de Karlsruhe sobre masas estables y pesos atómicos,


Cannizzaro revivió las ideas de Avogadro y las usó para realizar una tabla periódica de
pesos atómicos, que tenían bastante similitud con los actuales valores. Estos pesos
fueron un importante prerrequisito para el descubrimiento de la Tabla periódica de
Dimitri Mendeleiev y Lothar Meyer.

Hasta la segunda mitad del siglo XIX no aparecieron evidencias de que los átomos
fueran divisibles o estuvieran a su vez constituidos por partes más elementales.9 Por
esa razón el modelo de Dalton no fue cuestionado durante décadas, ya que explicaba
adecuadamente los hechos. Si bien el modelo usualmente nacido para explicar los
compuestos químicos y las regularidades estequiométricas, no podía explicar las
regularidades periódicas en las propiedades de los elementos químicos tal como
aparecieron en la tabla periódica de los elementos de Mendeleiev (esto solo sería
explicado por los modelos que suponían que el átomo estaba formado por electrones
dispuestos en capas). El modelo de Dalton tampoco podía dar cuenta de las
investigaciones realizadas sobre rayos catódicos que sugirieron que los átomos no eran
indivisibles pero que contenían partículas más pequeñas cargadas eléctricamente.

3.2. Modelo Atómico de Thomson.

El modelo atómico de Thomson fue reconocido en el mundo por dar las primeras luces
sobre la configuración de protones y electrones dentro de la estructura del átomo.
Mediante esta propuesta, Thomson sugirió que los átomos eran uniformes y contenían
carga positiva de forma homogénea, con incrustaciones aleatorias de electrones dentro
de cada átomo.

Para describirlo, Thomson comparó su modelo con el budín de ciruelas. Este símil se
empleó posteriormente como un nombre alternativo del modelo. Sin embargo, debido
a varias inconsistencias (teóricas y experimentales) sobre la distribución de las cargas
eléctricas dentro del átomo, el modelo de Thomson fue descartado en 1911.

Origen:

Este modelo atómico fue planteado por el científico inglés Joseph John “J.J.” Thomson
en 1904, con la finalidad de explicar la composición de los átomos con base en las
nociones de las cuales se tenía conocimiento para entonces.

Además, Thomson fue el responsable del descubrimiento del electrón a finales del siglo
XIX. Vale destacar que el modelo atómico de Thomson fue propuesto poco después del
descubrimiento del electrón pero antes de conocer la existencia de un núcleo atómico.

Por ende, la propuesta consistía en una configuración dispersa de todas las cargas
negativas dentro de la estructura atómica que, a su vez, estaba conformada por una
masa uniforme de carga positiva.

Características:

.El átomo tiene carga neutra.

.Existe una fuente de carga positiva que neutraliza la carga negativa de los electrones.

.Esta carga positiva se encuentra distribuida uniformemente en el átomo.

.En palabras de Thomson: “los corpúsculos electrificados negativamente “es decir, los
electrones se encuentran contenidos dentro de la masa uniforme de carga positiva.

.Los electrones podían derivar libremente en el interior del átomo.

.Los electrones tenían órbitas estables, argumento fundamentado en la Ley de Gauss.


Si los electrones se desplazaban a través de la “masa” positiva, las fuerzas internas
dentro de los electrones se equilibraban con la carga positiva que se generaba
automáticamente alrededor de la órbita.

.El modelo de Thomson fue conocido popularmente en Inglaterra como modelo de


budín de ciruela, ya que la distribución de electrones propuesta por Thomson era
similar a la disposición de las ciruelas en dicho postre.

Experimentos para desarrollar el modelo:

Thomson realizó varios ensayos con tubos de rayos catódicos para probar las
propiedades de las partículas subatómicas y sentar las bases de su modelo. Los tubos
de rayos catódicos son tubos de vidrio cuyo contenido de aire ha sido vaciado casi en
su totalidad.

Estos tubos están electrificados con una batería que polariza el tubo para tener un
extremo de carga negativa (cátodo) y un extremo de carga positiva (ánodo).

También están sellados por ambos lados y son sometidos a altos niveles de tensión
mediante la electrificación de dos electrodos colocados en el cátodo del dispositivo.
Mediante esta configuración se induce la circulación de un haz de partículas desde el
cátodo hacia el ánodo del tubo.

Rayos catódicos:

He allí el origen del nombre de este tipo de herramientas, ya que se llaman rayos
catódicos debido al punto de salida de las partículas dentro del tubo. Al pintar el ánodo
del tubo con un material como el fósforo o el plomo, se genera una reacción en el
extremo positivo justo cuando choca contra este el haz de partículas.

En sus experimentos, Thomson determinó la desviación del rayo en su trayecto desde


el cátodo hacia el ánodo. Posteriormente, Thomson intentó validar las propiedades de
dichas partículas: básicamente la carga eléctrica y la reacción entre ellas.

El físico inglés colocó dos placas eléctricas con carga opuesta en los extremos superior
e inferior del tubo. Debido a esta polarización, el rayo se desvió hacia la placa con
carga positiva, colocada en el tope superior.

De esta manera, Thomson demostró que el rayo catódico estaba conformado por
partículas con carga negativa que, debido a su carga opuesta, fueron atraídas hacia la
placa con carga positiva.

Evolución en la investigación:

Thomson evolucionó en sus suposiciones y, luego de ese hallazgo, colocó dos imanes a
ambos lados del tubo. Esta incorporación también incidió en algunas desviaciones del
rayo catódico.

Al analizar el campo magnético asociado, Thomson fue capaz de determinar la relación


masa-carga de las partículas subatómicas y detectó que la masa de cada partícula
subatómica era ínfima en comparación con la masa atómica.

J.J. Thomson creó un dispositivo que antecedió al invento y perfeccionamiento de lo


que hoy se conoce como espectrómetro de masas.

Este aparato realiza una medición bastante precisa de la relación entre masa y carga
de los iones, lo que arroja información sumamente útil para determinar la composición
de los elementos presentes en la naturaleza.

Repetición del experimento:

Thomson realizó el mismo experimento en múltiples ocasiones, modificando los


metales que empleaba para la colocación de los electrodos en el tubo de rayos
catódicos.

Finalmente determinó que las propiedades del rayo se mantenían constantes,


independientemente del material que se empleara para los electrodos. Es decir, este
factor no era determinante en la ejecución del experimento.

Los estudios de Thomson fueron de gran provecho para explicar la estructura


molecular de algunas sustancias, así como la formación de los enlaces atómicos.
Postulados:

El modelo de Thomson reunía en un solo enunciado las conclusiones favorables del


científico británico John Dalton sobre la estructura atómica, e insinuaba la presencia de
electrones dentro de cada átomo.

En complemento, Thomson también realizó varios estudios sobre los protones en el


gas neón, y de este modo demostró la neutralidad eléctrica de los átomos. Sin
embargo, la carga positiva en el átomo estaba propuesta como una masa uniforme y
no como partículas.

El experimento de Thomson con rayos catódicos permitió el enunciado de los


siguientes postulados científicos:

a) El rayo catódico está constituido por partículas subatómicas de carga negativa.


Thomson definió inicialmente a estas partículas como “corpúsculos”.

b) La masa de cada partícula subatómica es apenas 0,0005 veces la masa de un


átomo de hidrógeno.

c) Estas partículas subatómicas se encuentran en todos los átomos de todos los


elementos de la Tierra.

d) Los átomos son eléctricamente neutros; es decir, la carga negativa de los


“corpúsculos” se equipara con la carga positiva de los protones.

Polémica del modelo:

El modelo atómico de Thomson resultó sumamente polémico dentro de la comunidad


científica, ya que contrariaba al modelo atómico de Dalton.

Este último postulaba que los átomos eran unidades indivisibles, a pesar de las
combinaciones que puedan generarse durante las reacciones químicas.

Por ende, Dalton no contemplaba la existencia de partículas subatómicas como los


electrones dentro de los átomos.
Como contraposición, Thomson halló un modelo novedoso que proporcionaba una
explicación alternativa de la composición atómica y subatómica, luego del
descubrimiento del electrón.

El modelo atómico de Thomson se dio a conocer rápidamente por el símil con el


popular postre inglés “budín de ciruela”. La masa del budín simboliza una visión
integral del átomo y las ciruelas representan cada uno de los electrones que conforman
el átomo.

Limitaciones:

El modelo sugerido por Thomson gozó de gran popularidad y aceptación en su


momento, y sirvió como punto de partida para indagar sobre la estructura atómica y
afinar los detalles asociados.

La mayor causa de aceptación del modelo radicó en lo bien que se adaptaba a las
observaciones de los experimentos con rayos catódicos de Thomson.

Sin embargo, el modelo tenía importantes oportunidades de mejora para poder


explicar la distribución de las cargas eléctricas dentro del átomo, tanto las cargas
positivas como las negativas.

Las investigaciones de Rutherford:

Posteriormente, en la década de 1910, la escuela científica liderada por Thomson


continuó las investigaciones sobre los modelos de estructura atómica.

Es así como Ernest Rutherford, antigüo alumno de Thomson, determinó las


limitaciones del modelo atómico de Thomson, en compañía del físico británico Ernest
Marsden y del físico alemán Hans Geiger.

El trío de científicos realizó varios experimentos con partículas alfa (α), es decir,
núcleos ionizados de moléculas 4He, sin la cubierta de electrones alrededor.

Este tipo de partículas están conformadas por dos protones y dos neutrones, por lo
cual predomina la carga positiva. Las partículas alfa se producen en reacciones
nucleares o mediante experimentos con desintegración radioactiva.

Rutherford diseñó un arreglo que permitió evaluar el comportamiento de las partículas


alfa al atravesar sustancias sólidas, como por ejemplo, láminas de oro.

En el análisis del trayecto se detectó que algunas partículas presentaron un ángulo de


desviación al penetrar las láminas de oro. En otros casos también se percibió un ligero
rebote sobre el elemento de choque.

Luego de las averiguaciones con partículas alfa, Rutherfod, Marsden y Geiger


contradijeron el modelo atómico de Thomson y propusieron en su lugar una nueva
estructura atómica.

3.3. Modelo atómico de Rutherford.

Modelo de un átomo de Rutherford. Propuso un núcleo con protones y electrones


girando alrededor de este.

El modelo atómico de Rutherford1 es un modelo atómico o teoría sobre la estructura


interna del átomo propuesto por el químico y físico británico-neozelandés Ernest
Rutherford2 en 1911, para explicar los resultados de su «experimento de la lámina de
oro».

Rutherford llegó a la conclusión de que la masa del átomo se concentraba en una


región pequeña de cargas positivas que impedían el paso de las partículas alfa. Sugirió
un nuevo modelo en el cual el átomo poseía un núcleo o centro en el cual se concentra
la masa y la carga positiva, y que en la zona extra nuclear se encuentran los electrones
de carga negativa.

Historia:

Antes de que Rutherford propusiera su modelo atómico, los físicos aceptaban que las
cargas eléctricas en el átomo tenían una distribución más o menos uniforme.

Rutherford trató de ver cómo era la dispersión de las partículas alfa por parte de los
átomos de una lámina de oro muy delgada. Los ángulos resultantes de la desviación de
las partículas supuestamente aportarían información sobre cómo era la distribución de
carga en los átomos. Era de esperar que, si las cargas estaban distribuidas
uniformemente según el modelo atómico de Thompson, la mayoría de las partículas
atravesarían la delgada lámina sufriendo solo ligeras deflexiones, siguiendo una
trayectoria aproximadamente recta. Aunque esto era cierto para la mayoría de las
partículas alfa, un número importante de estas sufrían deflexiones de cerca de 180º,
es decir, prácticamente salían rebotadas en dirección opuesta al incidente.

Rutherford pensó que esta fracción de partículas rebotadas en dirección opuesta podía
ser explicada si se suponía la existencia de fuertes concentraciones de carga positiva
en el átomo. La mecánica newtoniana en conjunción con la ley de Coulomb predice
que el ángulo de deflexión de una partícula alfa relativamente liviana por parte de un
átomo de oro más pesado, depende del "parámetro de impacto" o distancia entre la
trayectoria de la partícula y el núcleo.

Postulados:

a) Los átomos poseen el mismo número de protones y electrones, por tanto son
entidades neutras.

b) El núcleo atómico está formado por partículas de carga positiva y gran masa
(protones).

c) El núcleo, además, debe estar compuesto por otras partículas con carga neutra
para explicar la elevada masa del átomo (superior a lo esperado teniendo en
cuenta solo el número de protones).

d) Los electrones giran sobre el núcleo compensando la atracción electrostática


(que produce la diferencia de cargas respecto al núcleo) con su fuerza
centrífuga.

Importancia del modelo y limitaciones:

La importancia del modelo de Rutherford residió en proponer por primera vez la


existencia de un núcleo central en el átomo (término que acuñó el propio Rutherford
en 1912, un año después de que los resultados de Geiger y Mardsen fueran
anunciados oficialmente). Lo que Rutherford consideró esencial, para explicar los
resultados experimentales, fue «una concentración de carga» en el centro del átomo,
ya que, sin ella, no podía explicarse que algunas partículas fueran rebotadas en
dirección casi opuesta a la incidente. Este fue un paso crucial en la comprensión de la
materia, ya que implicaba la existencia de un núcleo atómico donde se concentraba
toda la carga positiva y más del 99,9 % de la masa. Las estimaciones del núcleo
revelaban que el átomo en su mayor parte estaba vacío.

Rutherford propuso que los electrones orbitarían en ese espacio vacío alrededor de un
minúsculo núcleo atómico, situado en el centro del átomo. Además, se abrían varios
problemas nuevos que llevarían al descubrimiento de nuevos hechos y teorías al tratar
de explicarlos:

Por un lado se planteó el problema de cómo un conjunto de cargas positivas podían


mantenerse unidas en un volumen tan pequeño, hecho que llevó posteriormente a la
postulación y descubrimiento de la fuerza nuclear fuerte, que es una de las cuatro
interacciones fundamentales.

Por otro lado existía otra dificultad proveniente de la electrodinámica clásica que
predice que una partícula cargada y acelerada, como sería el caso de los electrones
orbitando alrededor del núcleo, produciría radiación electromagnética, perdiendo
energía y finalmente cayendo sobre el núcleo. Las leyes de Newton, junto con las
ecuaciones de Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan
a que en un determinado tiempo del orden de, toda la energía del átomo se habría
radiado, con la consiguiente caída de los electrones sobre el núcleo. Se trata, por tanto
de un modelo físicamente inestable, desde el punto de vista de la física clásica.

Según Rutherford, las órbitas de los electrones no están muy bien definidas y forman
una estructura compleja alrededor del núcleo, dándole un tamaño y forma algo
indefinidas. Los resultados de su experimento le permitieron calcular que el radio
atómico era diez mil veces mayor que el núcleo mismo, y en consecuencia, que el
interior de un átomo está prácticamente vacío.

Modelos posteriores

El modelo atómico de Rutherford fue sustituido muy pronto por el de Bohr. Bohr
intentó explicar fenomenológicamente que solo algunas órbitas de los electrones son
posibles. Lo cual daría cuenta de los espectros de emisión y absorción de los átomos
en forma de bandas discretas.

El modelo de Bohr «resolvía» formalmente el problema, proveniente de la


electrodinámica, postulando que sencillamente los electrones no radiaban, hecho que
fue explicado por la mecánica cuántica según la cual la aceleración promedio del
electrón deslocalizado es nula.

Tabla periódica de los elementos:

Definición:

La tabla periódica de los elementos es una disposición de los elementos químicos en


forma de tabla, ordenados por su número atómico (número de protones),por su
configuración de electrones y sus propiedades químicas. Este ordenamiento muestra
tendencias periódicas, como elementos con comportamiento similar en la misma
columna.

En palabras de Theodor Benfey, la tabla y la ley periódica «son el corazón de la


química comparables a la teoría de la evolución en biología (que sucedió al concepto
de la Gran Cadena del Ser), y a las leyes de la termodinámica en la física clásica.

Las filas de la tabla se denominan períodos y las columnas grupos. 4Algunos grupos
tienen nombres. Así por ejemplo el grupo 17 es el de los halógenos y el grupo 18 el de
los gases nobles.5 La tabla también se divide en cuatro bloques con algunas
propiedades químicas similares.6 Debido a que las posiciones están ordenadas, se
puede utilizar la tabla para obtener relaciones entre las propiedades de los elementos,
o pronosticar propiedades de elementos nuevos todavía no descubiertos o sintetizados.
La tabla periódica proporciona un marco útil para analizar el comportamiento químico y
es ampliamente utilizada en química y otras ciencias.

Dmitri Mendeléyev publicó en 1869 la primera versión de tabla periódica que fue
ampliamente reconocida. La desarrolló para ilustrar tendencias periódicas en las
propiedades de los elementos entonces conocidos, al ordenar los elementos basándose
en sus propiedades químicas, si bien Julius Lothar Meyer, trabajando por separado,
llevó a cabo un ordenamiento a partir de las propiedades físicas de los átomos.8
Mendeléyev también pronosticó algunas propiedades de elementos entonces
desconocidos que anticipó que ocuparían los lugares vacíos en su tabla.
Posteriormente se demostró que la mayoría de sus predicciones eran correctas cuando
se descubrieron los elementos en cuestión.

La tabla periódica de Mendeléyev ha sido desde entonces ampliada y mejorada con el


descubrimiento o síntesis de elementos nuevos y el desarrollo de modelos teóricos
nuevos para explicar el comportamiento químico. La estructura actual fue diseñada por
Alfred Werner a partir de la versión de Mendeléyev. Existen además otros arreglos
periódicos de acuerdo a diferentes propiedades y según el uso que se le quiera dar (en
didáctica, geología, etc).

Se han descubierto o sintetizado todos los elementos de número atómico del 1


(hidrógeno) al 118 (oganesón); la IUPAC confirmó los elementos 113, 115, 117 y 118
el 30 de diciembre de 2015,10 y sus nombres y símbolos oficiales se hicieron públicos
el 28 de noviembre de 2016.3 Los primeros 94 existen naturalmente, aunque algunos
solo se han encontrado en cantidades pequeñas y fueron sintetizados en laboratorio
antes de ser encontrados en la naturaleza. Los elementos con números atómicos del
95 al 118 solo han sido sintetizados en laboratorios. Allí también se produjeron
numerosos radioisótopos sintéticos de elementos presentes en la naturaleza. Los
elementos del 95 a 100 existieron en la naturaleza en tiempos pasados pero
actualmente no. La investigación para encontrar por síntesis nuevos elementos de
números atómicos más altos continúa.

Historia:

La historia de la tabla periódica está íntimamente relacionada con varios aspectos del
desarrollo de la química y la física:

● El descubrimiento de los elementos de la tabla periódica.


● El estudio de las propiedades comunes y la clasificación de los
elementos.
● La noción de masa atómica (inicialmente denominada «peso atómico»)
y, posteriormente, ya en el siglo xx, número atómico.
● Las relaciones entre la masa atómica (y, más adelante, el número
atómico) y las propiedades periódicas de los elementos y la aparición de
nuevos elementos.
Descubrimiento de los elementos:

Aunque algunos elementos como el oro (Au), plata (Ag), cobre (Cu), plomo (Pb) y
mercurio (Hg) ya eran conocidos desde la antigüedad, el primer descubrimiento
científico de un elemento ocurrió en el siglo xvii, cuando el alquimista Henning Brand
descubrió el fósforo (P). En el siglo xviii se conocieron numerosos nuevos elementos,
los más importantes de los cuales fueron los gases, con el desarrollo de la química
neumática: oxígeno (O), hidrógeno (H) y nitrógeno (N). También se consolidó en esos
años la nueva concepción de elemento, que condujo a Antoine Lavoisier a escribir su
famosa lista de sustancias simples, donde aparecían 33 elementos. A principios del
siglo xix, la aplicación de la pila eléctrica al estudio de fenómenos químicos condujo al
descubrimiento de nuevos elementos, como los metales alcalinos y alcalino-térreos,
sobre todo gracias a los trabajos de Humphry Davy. En 1830 ya se conocían 55
elementos. Posteriormente, a mediados del siglo xix, con la invención del
espectroscopio, se descubrieron nuevos elementos, muchos de ellos nombrados por el
color de sus líneas espectrales características: cesio (Cs, del latín caesĭus, azul), talio
(Tl, de tallo, por su color verde), rubidio (Rb, rojo), etc. Durante el siglo xx, la
investigación en los procesos radioactivos llevó al descubrimiento en cascada de una
serie de elementos pesados (casi siempre sustancias artificiales sintetizadas en
laboratorio, con periodos de vida estable muy cortos), hasta alcanzar la cifra de 118
elementos con denominación oficialmente aceptados por la IUPAC en noviembre de
2016.

Noción de elemento y propiedades periódicas:

Lógicamente, un requisito previo necesario a la construcción de la tabla periódica era


el descubrimiento de un número suficiente de elementos individuales, que hiciera
posible encontrar alguna pauta en comportamiento químico y sus propiedades.
Durante los siguientes dos siglos se fue adquiriendo un mayor conocimiento sobre
estas propiedades, así como descubriendo muchos elementos nuevos.

La palabra «elemento» procede de la ciencia griega, pero su noción moderna apareció


a lo largo del siglo xvii, aunque no existe un consenso claro respecto al proceso que
condujo a su consolidación y uso generalizado. Algunos autores citan como precedente
la frase de Robert Boyle en su famosa obra El químico escéptico, donde denomina
elementos «ciertos cuerpos primitivos y simples que no están formados por otros
cuerpos, ni unos de otros, y que son los ingredientes de que se componen
inmediatamente y en que se resuelven en último término todos los cuerpos
perfectamente mixtos». En realidad, esa frase aparece en el contexto de la crítica de
Robert Boyle a los cuatro elementos aristotélicos.

A lo largo del siglo xviii, las tablas de afinidad recogieron un nuevo modo de entender
la composición química, que aparece claramente expuesto por Lavoisier en su obra
Tratado elemental de química. Todo ello condujo a diferenciar en primer lugar qué
sustancias de las conocidas hasta ese momento eran elementos químicos, cuáles eran
sus propiedades y cómo aislarlas.

El descubrimiento de gran cantidad de elementos nuevos, así como el estudio de sus


propiedades, pusieron de manifiesto algunas semejanzas entre ellos, lo que aumentó el
interés de los químicos por buscar algún tipo de clasificación.

Los pesos atómicos:

A principios del siglo xix, John Dalton (1766-1844) desarrolló una concepción nueva del
atomismo, a la que llegó gracias a sus estudios meteorológicos y de los gases de la
atmósfera. Su principal aportación consistió en la formulación de un «atomismo
químico» que permitía integrar la nueva definición de elemento realizada por Antoine
Lavoisier (1743-1794) y las leyes ponderales de la química (proporciones definidas,
proporciones múltiples, proporciones recíprocas).

Dalton empleó los conocimientos sobre proporciones en las que reaccionaban las
sustancias de su época y realizó algunas suposiciones sobre el modo como se
combinaban los átomos de las mismas. Estableció como unidad de referencia la masa
de un átomo de hidrógeno (aunque se sugirieron otros en esos años) y refirió el resto
de los valores a esta unidad, por lo que pudo construir un sistema de masas atómicas
relativas. Por ejemplo, en el caso del oxígeno, Dalton partió de la suposición de que el
agua era un compuesto binario, formado por un átomo de hidrógeno y otro de
oxígeno. No tenía ningún modo de comprobar este punto, por lo que tuvo que aceptar
esta posibilidad como una hipótesis a priori.

Dalton sabía que una parte de hidrógeno se combinaba con siete partes (ocho,
afirmaríamos en la actualidad) de oxígeno para producir agua. Por lo tanto, si la
combinación se producía átomo a átomo, es decir, un átomo de hidrógeno se
combinaba con un átomo de oxígeno, la relación entre las masas de estos átomos
debía ser 1:7 (o 1:8 se calcularía en la actualidad). El resultado fue la primera tabla de
masas atómicas relativas (o pesos atómicos, como los llamaba Dalton), que fue
posteriormente modificada y desarrollada en los años posteriores. Las inexactitudes
antes mencionadas dieron lugar a toda una serie de polémicas y disparidades respecto
a las fórmulas y los pesos atómicos, que solo comenzarían a superarse, aunque no
totalmente, en el congreso de Karlsruhe en 1860.

Primeros intentos de sistematización:

En 1789 Antoine Lavoisier publicó una lista de 33 elementos químicos, agrupándolos


en gases, metales, no metales y tierras.1415 Aunque muy práctica y todavía funcional
en la tabla periódica moderna, fue rechazada debido a que había muchas diferencias
tanto en las propiedades físicas como en las químicas.

Los químicos pasaron el siglo siguiente buscando un esquema de clasificación más


preciso. Uno de los primeros intentos para agrupar los elementos de propiedades
análogas y relacionarlos con los pesos atómicos se debe al químico alemán Johann
Wolfgang Döbereiner (1780-1849) quien en 1817 puso de manifiesto el notable
parecido que existía entre las propiedades de ciertos grupos de tres elementos, con
una variación gradual del primero al último. Posteriormente (1827) señaló la existencia
de otros grupos en los que se daba la misma relación : cloro, bromo y yodo; azufre,
selenio y telurio; litio, sodio y potasio.

Tríadas de Döbereine:

A estos grupos de tres elementos se los denominó tríadas. Al clasificarlas, Döbereiner


explicaba que el peso atómico promedio de los pesos de los elementos extremos, es
parecido al del elemento en medio.Esto se conoció como la ley de Tríadas. Por
ejemplo, para la tríada cloro-bromo-yodo, los pesos atómicos son respectivamente 36,
80 y 127; el promedio es 81, que es aproximadamente 80; el elemento con el peso
atómico aproximado a 80 es el bromo, lo cual hace que concuerde con el aparente
ordenamiento de tríadas.

El químico alemán Leopold Gmelin trabajó con este sistema, y en 1843 había
identificado diez tríadas, tres grupos de cuatro, y un grupo de cinco. Jean-Baptiste
Dumas publicó el trabajo en 1857 que describe las relaciones entre los diversos grupos
de metales. Aunque los diversos químicos fueron capaces de identificar las relaciones
entre pequeños grupos de elementos, aún tenían que construir un esquema que los
abarcara a todos.

En 1857 el químico alemán August Kekulé observó que el carbono está a menudo
unido a otros cuatro átomos. El metano, por ejemplo, tiene un átomo de carbono y
cuatro átomos de hidrógeno.Este concepto eventualmente se conocería como
«valencia».

En 1862 de Chancourtois, geólogo francés, publicó una primera forma de tabla


periódica que llamó la «hélice telúrica» o «tornillo». Fue la primera persona en notar la
periodicidad de los elementos. Al disponerlos en espiral sobre un cilindro por orden
creciente de peso atómico, de Chancourtois mostró que los elementos con propiedades
similares parecían ocurrir a intervalos regulares. Su tabla incluye además algunos iones
y compuestos. También utiliza términos geológicos en lugar de químicos y no incluye
un diagrama; como resultado, recibió poca atención hasta el trabajo de Dmitri
Mendeléyev.

En 1864 Julius Lothar Meyer, un químico alemán, publicó una tabla con 44 elementos
dispuestos por valencia. La misma mostró que los elementos con propiedades similares
a menudo compartían la misma valencia.Al mismo tiempo, William Odling —un químico
inglés— publicó un arreglo de 57 elementos ordenados en función de sus pesos
atómicos. Con algunas irregularidades y vacíos, se dio cuenta de lo que parecía ser una
periodicidad de pesos atómicos entre los elementos y que esto estaba de acuerdo con
«las agrupaciones que generalmente recibían». Odling alude a la idea de una ley
periódica, pero no siguió la misma. En 1870 propuso una clasificación basada en la
valencia de los elementos.

Ley de las octavas de Newlands:

El químico inglés John Newlands produjo una serie de documentos de 1863 a 1866 y
señaló que cuando los elementos se enumeran en orden de aumentar el peso atómico,
las propiedades físicas y químicas similares se repiten a intervalos de ocho.
Comparó esta periodicidad con las octavas de la música. Esta llamada «ley de las
octavas» fue ridiculizada por los contemporáneos de Newlands y la Chemical Society se
negó a publicar su obra, porque dejaba de cumplirse a partir del calcio. Newlands fue
sin embargo capaz de elaborar una tabla de los elementos y la utilizó para predecir la
existencia de elementos faltantes, como el germanio. La Chemical Society solamente
reconoció la importancia de sus descubrimientos cinco años después de que se le
acreditaran a Mendeléyev, y posteriormente fue reconocido por la Royal Society, que le
concedió a Newlands su más alta condecoración, la medalla Davy.

En 1867 Gustavus Hinrichs, un químico danés, publicó un sistema periódico en espiral


sobre la base de los espectros, los pesos atómicos y otras similitudes químicas. Su
trabajo fue considerado como idiosincrásico, ostentoso y laberíntico y esto puede
haber llevado a que se desaconsejase su reconocimiento y aceptación.

Tabla periódica de Mendeléyev

Tabla de Mendeléyev publicada en 1872. En ella deja casillas libres para los elementos
por descubrir.

En 1869, el profesor de química ruso Dmitri Ivánovich Mendeléyev publicó su primera


Tabla Periódica en Alemania. Un año después Julius Lothar Meyer publicó una versión
ampliada de la tabla que había creado en 1864, basadas en la periodicidad de los
volúmenes atómicos en función de la masa atómica de los elementos.

Por esta fecha ya eran conocidos 63 elementos de los 90 que existen en la naturaleza.
Ambos químicos colocaron los elementos por orden creciente de sus masas atómicas,
los agruparon en filas o periodos de distinta longitud y situaron en el mismo grupo
elementos que tenían propiedades químicas similares, como la valencia. Construyeron
sus tablas haciendo una lista de los elementos en filas o columnas en función de su
peso atómico y comenzando una nueva fila o columna cuando las características de los
elementos comenzaron a repetirse.

El reconocimiento y la aceptación otorgada a la tabla de Mendeléyev vino a partir de


dos decisiones que tomó. La primera fue dejar huecos cuando parecía que el elemento
correspondiente todavía no había sido descubierto. No fue el primero en hacerlo, pero
sí en ser reconocido en el uso de las tendencias en su tabla periódica para predecir las
propiedades de esos elementos faltantes. Incluso pronosticó las propiedades de
algunos de ellos: el galio (Ga), al que llamó eka-aluminio por estar situado debajo del
aluminio; el germanio (Ge), al que llamó eka-silicio; el escandio (Sc); y el tecnecio
(Tc), que, aislado químicamente a partir de restos de un sincrotrón en 1937, se
convirtió en el primer elemento producido de forma predominantemente artificial.

La segunda decisión fue ignorar el orden sugerido por los pesos atómicos y cambiar los
elementos adyacentes, tales como telurio y yodo, para clasificarlos mejor en familias
químicas. En 1913, Henry Moseley determinó los valores experimentales de la carga
nuclear o número atómico de cada elemento, y demostró que el orden de Mendeléyev
corresponde efectivamente al que se obtiene de aumentar el número atómico.

El significado de estos números en la organización de la tabla periódica no fue


apreciado hasta que se entendió la existencia y las propiedades de los protones y los
neutrones. Las tablas periódicas de Mendeléyev utilizan el peso atómico en lugar del
número atómico para organizar los elementos, información determinable con precisión
en ese tiempo. El peso atómico funcionó bastante bien para la mayoría de los casos
permitiendo predecir las propiedades de los elementos que faltan con mayor precisión
que cualquier otro método conocido entonces. Moseley predijo que los únicos
elementos que faltaban entre aluminio (Z = 13) y oro (Z = 79) eran Z = 43, 61, 72 y
75, que fueron descubiertos más tarde. La secuencia de números atómicos todavía se
utiliza hoy en día incluso aunque se han descubierto y sintetizado nuevos elementos.

Segunda tabla periódica de Mendeléyev y desarrollos posteriores

En 1871, Mendeléyev publicó su tabla periódica en una nueva forma, con grupos de
elementos similares dispuestos en columnas en lugar de filas, numeradas I a VIII en
correlación con el estado de oxidación del elemento. También hizo predicciones
detalladas de las propiedades de los elementos que ya había señalado que faltaban,
pero deberían existir.Estas lagunas se llenaron posteriormente cuando los químicos
descubrieron elementos naturales adicionales.

En su nueva tabla consigna el criterio de ordenación de las columnas se basan en los


hidruros y óxidos que puede formar esos elementos y por tanto, implícitamente, las
valencias de esos elementos. Aún seguía dando resultados contradictorios (Plata y Oro
aparecen duplicados, y no hay separación entre Berilio y Magnesio con Boro y
Aluminio), pero significó un gran avance. Esta tabla fue completada con un grupo más,
constituido por los gases nobles descubiertos en vida de Mendeléyev, pero que, por
sus características, no tenían cabida en la tabla, por lo que hubo de esperar casi treinta
años, hasta 1904, con el grupo o valencia cero, quedando la tabla más completa.

A menudo se afirma que el último elemento natural en ser descubierto fue el francio
designado por Mendeléyev como eka-cesi en 1939. Sin embargo, el plutonio,
producido sintéticamente en 1940, fue identificado en cantidades ínfimas como un
elemento primordial de origen natural en 1971.

La disposición de la tabla periódica estándar es atribuible a Horace Groves Deming, un


químico americano que en 1923 publicó una tabla periódica de 18 columnas.En 1928
Merck and Company preparó un folleto con esta tabla, que fue ampliamente difundida
en las escuelas estadounidenses. Por la década de 1930 estaba apareciendo en
manuales y enciclopedias de química. También se distribuyó durante muchos años por
la empresa Sargent-Welch Scientific Company.

Mecánica cuántica y expansión progresiva de la tabla:

La tabla periódica de Mendeléyev presentaba ciertas irregularidades y problemas. En


las décadas posteriores tuvo que integrar los descubrimientos de los gases nobles, las
«tierras raras» y los elementos radioactivos. Otro problema adicional eran las
irregularidades que existían para compaginar el criterio de ordenación por peso
atómico creciente y la agrupación por familias con propiedades químicas comunes.
Ejemplos de esta dificultad se encuentran en las parejas telurio-yodo, argón-potasio y
cobalto-níquel, en las que se hace necesario alterar el criterio de pesos atómicos
crecientes en favor de la agrupación en familias con propiedades químicas semejantes.
Durante algún tiempo, esta cuestión no pudo resolverse satisfactoriamente hasta que
Henry Moseley (1867-1919) realizó un estudio sobre los espectros de rayos X en 1913.
Moseley comprobó que al representar la raíz cuadrada de la frecuencia de la radiación
en función del número de orden en el sistema periódico se obtenía una recta, lo cual
permitía pensar que este orden no era casual sino reflejo de alguna propiedad de la
estructura atómica. Hoy sabemos que esa propiedad es el número atómico (Z) o
número de cargas positivas del núcleo.

La explicación que se acepta actualmente de la ley periódica surgió tras los desarrollos
teóricos producidos en el primer tercio del siglo XX, cuando se construyó la teoría de la
mecánica cuántica. Gracias a estas investigaciones y a desarrollos posteriores, se
acepta que la ordenación de los elementos en el sistema periódico está relacionada
con la estructura electrónica de los átomos de los diversos elementos, a partir de la
cual se pueden predecir sus diferentes propiedades químicas.

En 1945 Glenn Seaborg, un científico estadounidense, sugirió que los actínidos, como
los lantánidos, estaban llenando un subnivel f en vez de una cuarta fila en el bloque d,
como se pensaba hasta el momento. Los colegas de Seaborg le aconsejaron no
publicar una teoría tan radical, ya que lo más probable era arruinar su carrera. Como
consideraba que entonces no tenía una carrera que pudiera caer en descrédito, la
publicó de todos modos. Posteriormente se encontró que estaba en lo cierto y en 1951
ganó el Premio Nobel de Química por su trabajo en la síntesis de los actínidos.

En 1952, el científico costarricense Gil Chaverri presentó una nueva versión basada en
la estructura electrónica de los elementos, la cual permite ubicar las series de
lantánidos y actínidos en una secuencia lógica de acuerdo con su número atómico.

Aunque se producen de forma natural pequeñas cantidades de algunos elementos


transuránicos,11 todos ellos fueron descubiertos por primera vez en laboratorios, el
primero de los cuales fue el neptunio, sintetizado en 1939. La producción de estos
elementos ha expandido significativamente la tabla periódica. Debido a que muchos
son altamente inestables y decaen rápidamente, son difíciles de detectar y caracterizar
cuando se producen. Han existido controversias relativas a la aceptación de las
pretensiones y derechos de descubrimiento de algunos elementos, lo que requiere una
revisión independiente para determinar cuál de las partes tiene prioridad, y por lo tanto
los derechos del nombre. Flerovio (elemento 114) y livermorio (elemento 116) fueron
nombrados el 31 de mayo de 2012. En 2010, una colaboración conjunta entre Rusia y
Estados Unidos en Dubná, región de Moscú, Rusia, afirmó haber sintetizado seis
átomos de teneso (elemento 117).

El 30 de diciembre de 2015 la IUPAC reconoció oficialmente los elementos 113, 115,


117, y 118, completando la séptima fila de la tabla periódica. El 28 de noviembre de
2016 se anunciaron los nombres oficiales y los símbolos de los últimos cuatro nuevos
elementos aprobados hasta la fecha por la IUPAC (Nh, nihonio; Mc, moscovio; Ts,
teneso; y Og, oganesón),3 que sustituyen a las designaciones temporales.

Estructura y organización de la tabla periódica

La tabla periódica actual es un sistema donde se clasifican los elementos conocidos


hasta la fecha. Se colocan de izquierda a derecha y de arriba a abajo en orden
creciente de sus números atómicos. Los elementos están ordenados en siete hileras
horizontales llamadas periodos, y en 18 columnas verticales llamadas grupos o
familias.

Hacia abajo y a la izquierda aumenta el radio atómico y el radio iónico.Hacia arriba y a


la derecha aumenta la energía de ionización, la afinidad electrónica y la
electronegatividad.

Grupos

Ejemplo de tabla periódica (en lengua vietnamita), en la que figuran los tres sistemas
de numeración de los grupos

A las columnas verticales de la tabla periódica se las conoce como grupos o familias.
Hay 18 grupos en la tabla periódica estándar. En virtud de un convenio internacional
de denominación, los grupos están numerados de 1 a 18 desde la columna más a la
izquierda los metales alcalinos hasta la columna más a la derecha los gases nobles.

Anteriormente se utilizaban números romanos según la última cifra del convenio de


denominación de hoy en día por ejemplo, los elementos del grupo 4 estaban en el IVB
y los del grupo 14 en el IVA. En Estados Unidos, los números romanos fueron seguidos
por una letra «A» si el grupo estaba en el bloque s o p, o una «B» si pertenecía al d.
En Europa, se utilizaban letras en forma similar, excepto que «A» se usaba si era un
grupo precedente al 10, y «B» para el 10 o posteriores. Además, solía tratarse a los
grupos 8, 9 y 10 como un único grupo triple, conocido colectivamente en ambas
notaciones como grupo VIII. En 1988 se puso en uso el nuevo sistema de
nomenclatura IUPAC y se desecharon los nombres de grupo previos.

Algunos de estos grupos tienen nombres triviales no sistemáticos, como se ve en la


tabla de abajo, aunque no siempre se utilizan. Los grupos del 3 al 10 no tienen
nombres comunes y se denominan simplemente mediante sus números de grupo o por
el nombre de su primer miembro —por ejemplo, «el grupo de escandio» para el 3, ya
que presentan un menor número de similitudes y/o tendencias verticales.

La explicación moderna del ordenamiento en la tabla periódica es que los elementos de


un grupo poseen configuraciones electrónicas similares y la misma valencia, entendida
como el número de electrones en la última capa. Dado que las propiedades químicas
dependen profundamente de las interacciones de los electrones que están ubicados en
los niveles más externos, los elementos de un mismo grupo tienen propiedades
químicas similares y muestran una tendencia clara en sus propiedades al aumentar el
número atómico.

Grupo 1 (I A): metales alcalinos

Grupo 2 (II A): metales alcalinotérreos

Grupo 3 (III B): familia del escandio (tierras raras y actinidos)

Grupo 4 (IV B): familia del titanio


Grupo 5 (V B): familia del vanadio
Grupo 6 (VI B): familia del cromo
Grupo 7 (VII B): familia del manganeso
Grupo 8 (VIII B): familia del hierro
Grupo 9 (VIII B): familia del cobalto
Grupo 10 (VIII B): familia del níquel
Grupo 11 (I B): familia del cobre
Grupo 12 (II B): familia del zinc
Grupo 13 (III A): térreos
Grupo 14 (IV A): carbonoideos
Grupo 15 (V A): nitrogenoideos
Grupo 16 (VI A): calcógenos o anfígenos
Grupo 17 (VII A): halógenos
Grupo 18 (VIII A): gases nobles
Por ejemplo, los elementos en el grupo 1 tienen una configuración electrónica ns1 y
una valencia de 1 un electrón externo y todos tienden a perder ese electrón al
enlazarse como iones positivos de +1. Los elementos en el último grupo de la derecha
son los gases nobles, los cuales tienen lleno su último nivel de energía regla del octeto
y, por ello, son excepcionalmente no reactivos y son también llamados «gases
inertes».

Los elementos de un mismo grupo tienden a mostrar patrones en el radio atómico,


energía de ionización y electronegatividad. De arriba abajo en un grupo, aumentan los
radios atómicos de los elementos. Puesto que hay niveles de energía más llenos, los
electrones de valencia se encuentran más alejados del núcleo. Desde la parte superior,
cada elemento sucesivo tiene una energía de ionización más baja, ya que es más fácil
quitar un electrón en los átomos que están menos fuertemente unidos. Del mismo
modo, un grupo tiene una disminución de electronegatividad desde la parte superior a
la inferior debido a una distancia cada vez mayor entre los electrones de valencia y el
núcleo.

Hay excepciones a estas tendencias, como por ejemplo lo que ocurre en el grupo 11,
donde la electronegatividad aumenta más abajo en el grupo. Además, en algunas
partes de la tabla periódica como los bloques d y f, las similitudes horizontales pueden
ser tan o más pronunciadas que las verticales.

Períodos

Las filas horizontales de la tabla periódica son llamadas períodos.68 El número de


niveles energéticos de un átomo determina el periodo al que pertenece. Cada nivel
está dividido en distintos subniveles, que conforme aumenta su número atómico se
van llenando en este orden:

Siguiendo esa norma, cada elemento se coloca según su configuración electrónica y da


forma a la tabla periódica.

Los elementos en el mismo período muestran tendencias similares en radio atómico,


energía de ionización, afinidad electrónica y electronegatividad. En un período el radio
atómico normalmente decrece si nos desplazamos hacia la derecha debido a que cada
elemento sucesivo añadió protones y electrones, lo que provoca que este último sea
arrastrado más cerca del núcleo.Esta disminución del radio atómico también causa que
la energía de ionización y la electronegatividad aumenten de izquierda a derecha en un
período, debido a la atracción que ejerce el núcleo sobre los electrones.La afinidad
electrónica también muestra una leve tendencia a lo largo de un período. Los metales
a la izquierda generalmente tienen una afinidad menor que los no metales a la derecha
del período, excepto para los gases nobles.

La tabla periódica consta de 7 períodos:

Metales, metaloides y no metales

De acuerdo con las propiedades físicas y químicas que comparten, los elementos se
pueden clasificar en tres grandes categorías: metales, metaloides y no metales. Los
metales son sólidos generalmente brillantes, altamente conductores que forman
aleaciones de unos con otros y compuestos iónicos similares a sales con compuestos
no metálicos siempre que no sean los gases nobles. La mayoría de los no metales son
gases incoloros o de colores; pueden formar enlaces covalentes con otros elementos
no metálicos. Entre metales y no metales están los metaloides, que tienen propiedades
intermedias o mixtas.

Metales y no metales pueden clasificarse en sub_categorías que muestran una


gradación desde lo metálico a las propiedades no metálicas, de izquierda a derecha, en
las filas: metales alcalinos altamente reactivos, metales alcalinotérreos menos
reactivos, lantánidos y actínidos, metales de transición y metales post-transición. Los
no metales se subdividen simplemente en no metales poliatómicos que, por estar más
cercanos a los metaloides, muestran cierto carácter metálico incipiente, no metales
diatómicos que son esencialmente no metálicos y los gases nobles, que son
monoatómicos no metálicos y casi completamente inertes. Ocasionalmente también se
señalan subgrupos dentro de los metales de transición, tales como metales refractarios
y metales nobles.

La colocación de los elementos en categorías y subcategorías en función de las


propiedades compartidas es imperfecta. Hay un espectro de propiedades dentro de
cada categoría y no es difícil encontrar coincidencias en los límites, como es el caso
con la mayoría de los sistemas de clasificación. El berilio, por ejemplo, se clasifica
como un metal alcalinotérreo, aunque su composición química anfótera y su tendencia
a formar compuestos covalentes son dos atributos de un metal de transición
químicamente débil o posterior. El radón se clasifica como un no metal y un gas noble
aunque tiene algunas características químicas catiónicas más características de un
metal. También es posible clasificar con base en la división de los elementos en
categorías de sucesos, mineralógicos o estructuras cristalinas. La categorización de los
elementos de esta forma se remonta a por lo menos 1869, cuando Hinrichs escribió
que se pueden extraer líneas sencillas de límites para mostrar los elementos que tienen
propiedades similares, tales como metales y no metales, o los elementos gaseosos.
5. ENLACE QUÍMICO

Definición

Es la unión entre dos o más átomos para formar una entidad de orden superior, como
una molécula o una estructura cristalina. El compuesto que resulta de este enlace es
químicamente y físicamente único y diferente de sus átomos originarios. La formación
de enlaces se produce siempre por un balance favorable de energía, es decir, los
átomos enlazados constituyen un sistema de menos energía que los átomos por
separado.

Tipos

• Enlace iónico. Debido a la atracción electrostática entre iones. Combinación de


elementos metálicos con elementos no metálicos.

• Enlace covalente. Debido a la compartición de pares de electrones. Unión entre


elementos no metálicos.

• Enlace metálico. Debido a la compartición de electrones de forma colectiva. Unión


entre elementos metálicos.

TEORÍA DE LEWIS DEL ENLACE QUÍMICO

En 1916, de manera independiente, los científicos Walter Kossel y Gilbert Lewis


explicaron el enlace químico a través de la Regla del Octeto. “Cuando se forma un
enlace químico los átomos reciben, ceden, o comparten electrones de tal forma que la
capa más externa de cada átomo contenga ocho electrones, y así adquieran la
estructura electrónica del gas noble más cercano en el sistema periódico”

5.1. EL ENLACE SIGMA:

El enlace sigma es un tipo de enlace covalente, que se forma por hibridación de


orbitales atómicos. El enlace sigma puede formarse como producto de la hibridación de
dos orbitales s, un orbital s y uno p, o dos orbitales p que se hibridan lateralmente.
El enlace sigma es uno de los enlaces más fuertes, con mayor estabilidad; La densidad
electrónica se dispone de manera simétrica entre los núcleos de los átomos.
Según los orbitales que se hayan hibridado para formar el enlace sigma, éste tipo de
enlace se puede clasificar en:
Enlace sigma s. Es el formado por la hibridación de dos orbitales s. 6

Enlace sigma sp. Formado por la hibridación de un orbital s y uno p.

Enlace sigma p. Se obtiene cuando se traslapan dos orbitales p en sentido


longitudinal.

De acuerdo con la teoría de orbitales moleculares, cuando dos electrones forman un


enlace covalente, sus orbitales atómicos se traslapan, formando un orbital molecular
que pasa a depender de dos o más núcleos de la molécula.

Según esta teoría, el número de orbitales moleculares formados es igual al número de


orbitales atómicos que lo formaron, es decir que cuando dos orbitales atómicos se
traslapan, se forman dos orbitales moleculares, uno llamado enlazante, y otro
antienlazante.

De esta manera, cuando dos orbitales s se hibridan, se forma un orbital sigma (s)
enlazante y un orbital (s*) antienlazante. El orbital enlazante es de menor energía que
los orbitales atómicos que lo formaron, y el antienlazante tiene mayor energía, por lo
tanto los electrones ocupan el orbital molecular enlazante primero, dejando vacío el
orbital antienlazante.
Esta teoría es fácilmente aplicable a moléculas diatómicas, sobre todo si los átomos
son pequeños e iguales. El clásico ejemplo de enlace sigma es el que se forma en la
unión de dos átomos de hidrógeno.

Cada átomo tiene un solo electrón en el orbital 1s, cuando se unen mediante enlace
covalente, los orbitales 1s de cada átomo se hibridan, ocupando ambos electrones el
orbital molecular enlazante sigma. En moléculas poliatómicas, la aplicación de esta
teoría es mucho más compleja, para encontrar la mayor estabilidad de la molécula hay
que considerar varios enlaces entre distintos núcleos y la formación de los distintos
orbitales moleculares.

De todas maneras, para evitar cálculos tan complejos, sobre todo desde el punto de
vista matemático, se aceptan algunas simplificaciones, por ejemplo, se admite que los
orbitales moleculares se ubican esencialmente entre los dos núcleos que lo formaron, y
que su forma y orientación tienen similitud con las de los orbitales atómicos que se
hibridaron para conformarlo.

Con estas simplificaciones se puede explicar la geometría y los parámetros de enlace


de la mayoría de las moléculas, aunque no de todas.

5.2. ENLACES PI (ENLACES Π):

En la química los enlaces pi son enlaces químicos covalentes donde dos lóbulos de un
orbital involucrado en el enlace solapan con dos lóbulos del otro orbital involucrado.
Estos orbitales comparten un plano nodal que pasa a través de los núcleos
involucrados.

La letra griega π en su nombre se refiere a los orbitales p, dado que la simetría de los
orbitales de los enlaces pi es la misma de la de los orbitales p. Generalmente, los
orbitales p están involucrados en este tipo de enlace. Se asume que los orbitales
d también participan en el enlace pi, pero esto no es necesariamente el caso en la
realidad, aunque el concepto de enlace por medio de orbitales d explica bien
la hipervalencia.
Los enlaces pi son generalmente más débiles que los enlaces sigma, porque su
densidad electrónica negativamente cargada está más lejos de la carga positiva
del núcleo atómico, lo que requiere más energía. Desde la perspectiva de la mecánica
cuántica, la debilidad del enlace se explica por el traslape significativamente menor
entre los componentes de los orbitales p, debido a la orientación paralela.
Aunque los enlaces pi por sí mismos son más débiles que un enlace sigma, los enlaces
pi son componentes frecuentes de los enlaces múltiples, junto con los enlaces sigma.
La combinación de enlace pi y enlace sigma es más fuerte que cualquiera de los
enlaces por sí solo. El aumento de la fuerza de un enlace múltiple comparado con un
enlace simple (enlace sigma) está indicado de varias formas, pero la más evidente es
la contracción de la longitud de enlace. Por ejemplo, en química orgánica, la longitud
de enlace carbono-carbono en el etano es (154 pm), etileno (133 pm) y acetileno (120
pm).
Además del enlace sigma, un par de átomos conectados por un enlace doble, enlace
triple, enlace cuádruple o enlace quíntuple pueden tener uno, dos, tres o cuatro
enlaces pi, respectivamente. Los enlaces pi resultan del traslape de orbitales atómicos
que tienen dos áreas de traslape. Los enlaces pi son más difusos que los enlaces
sigma. Los electrones en los enlaces pi son referidos algunas veces como electrones pi.
Los fragmentos moleculares unidos por un enlace pi no pueden rotar libremente
alrededor del enlace sin la ruptura del enlace pi, porque la rotación involucra la
destrucción de la orientación paralela de los orbitales p constituyentes.
Casos especiales
Los enlaces pi no necesariamente conectan a pares de átomos que están unidos sino
también por enlaces sigma.
En algunos complejos metálicos, las interacciones pi entre un átomo metálico y los
orbitales antienlazantes pi de un alquino o un alqueno forman enlaces pi.
En algunos casos de enlaces múltiples entre dos átomos, no hay enlaces sigma del
todo, sólo enlaces pi. Tales casos incluyen, por ejemplo,
el hexacarbonildihierro (Fe2(CO)6), dicarbono (C2) y el borano B2H2. En estos
compuestos, los enlaces centrales consisten sólo de enlaces pi, y para conseguir el
máximo traslape de orbitales, la longitud de enlace es mucho menor de la esperada.

5.3. EL ENLACE METÁLICO:

Los metales han acompañado al hombre a lo largo de su historia y su tratamiento


(metalurgia) ha ido parejo a la evolución del mismo. No es de extrañar que tan pronto
como se descubrió el electrón, el primer enlace en ser tratado a partir de aquél, fue el
metálico. Lo hicieron Lorentz y Drude en 1900 con el modelo de gas electrónico.

Revisión del modelo de gas electrónico

Los metales presentaban unas características peculiares que los diferenciaban de los
demás elementos químicos, brillaban, la mayoría eran sólidos, algunos tenían un punto
de fusión muy elevado, eran duros y muy densos y la mayoría eran maleables (forman
láminas), dúctiles(forman hilos) y sobre todo conducían la electricidad y el calor. Por
ello el primer modelo para interpretar dicho enlace, tenía que justificar todas esas
propiedades. Las estructuras cristalinas de los compuestos metálicos eran muy
parecidas a las de los compuestos iónicos, por eso se partió de configurar un enrejado
con iones positivos, formando los electrones el gas electrónico que los rodeaba y que
se podía mover libremente lo que justificaba la conductividad.

El modelo del gas electrónico era incapaz de explicar el calor específico de los metales,
menor de lo que cabría esperar y tampoco justificaba su brillo característico, ya que si
los electrones estaban libres deberían absorber libremente energía sin volver a
remitirla y muchas otras propiedades que se interpretaron después a través de la
mecánica cuántica. Sin embargo el modelo de gas electrónico o de los electrones libres
explica una serie de importantes propiedades, especialmente las derivadas de sus
empaquetamientos, que se van a tratar a continuación teniendo en cuenta siempre
que lo que en la teoría inicial de Drude y Lorentz fueron iones positivos en redes,
después sería átomos en su adaptación a las teorías actuales.

Propiedades de los metales.

Las estructuras cristalinas más características de los metales son las cúbicas centradas
en el cuerpo (CCE), en las caras (CCC) y la hexagonal compacta (HC) (ésta es
exclusiva para metales). Las primeras han sido tratadas en el enlace iónico. En este
caso los empaquetamientos se simplifican por que a diferencia de los compuestos
iónicos, el tamaño de los iones o átomos es el mismo, lo cual facilita los planos de
deslizamiento, especialmente en la red CCC. Por eso aquellos metales que cristalizan
en ella (Cu, Ag y Au etc) son muy dúctiles (forman hilos) y maleables (forman
láminas). Precisamente esta propiedad ha sido responsable de alguno de sus usos
(hilos de Cu, chapas de Ag y Au).

La gran variación en los empaquetamientos, que va a proporcionar la de la densidad y


punto de fusión, se debe al tipo de red, a su tamaño, y a la masa de los átomos
incluidos en ella.

En la red CCE, existe un átomo o ion en el centro del cubo, y 8 en los vértices (1/8
dentro del cubo), lo cual implica que dentro de cada cubo existen 2 átomos o iones (1
+ 8 x 1/8 = 2), mientras que en la CCC hay un átomo o ion en el centro de las caras
(1/2 dentro del cubo) y en cada vértice), totalizando 4 átomos o iones(8x 1/8 + 6 x
½).

En la hexagonal compacta (HC) existen un átomo o ion en cada vértice del prisma
hexagonal (1/6 dentro) otro en el centro de cada base (2x ½=1) y 3 dentro del mismo
en los huecos que quedan entre los iones insertados en las bases, totalizando 6
átomos o iones(12 x 1/6 + 1 + 3= 6). Sin embargo mientras que en la CCE, el % de
espacio ocupado es del 68%, tanto en la CCC como en la HC, el % de ocupación es del
74%. Esto nos indica que en función de la masa de los iones o átomos, del tipo de red,
y del tamaño de esta se obtendrá una determinada densidad, por eso difiere tanto en
sus valores, hasta el extremo que los metales alcalinos como el sodio con red CCE,
flotan en el agua, mientras que algunos del centro del sistema periódico como el osmio
6s2 5d6 (red HC), tienen una densidad 22,6 veces mayor que la del agua, en cambio
otro metal, el rutenio, electrónicamente similar(5s2 4d6 ), con la misma red, y radio
atómico similar (134pm), tiene una densidad sólo 12,2 veces la del agua. La diferencia
está en que la masa atómica del Os es de 190 mientras que la del Ru es de 101. El
tamaño de la red cristalina se puede conocer por difracción de rayos X, aplicando la ley
de Bragg. De esta forma conociendo el tipo de red y su tamaño se puede comprobar la
determinación teórica de la densidad, con su valor experimental (métodos físicos). La
dureza y los puntos de fusión están ligados al empaquetamiento y por lo tanto a la
densidad. Hay metales que funden fácilmente como los alcalinos (red CCE) y el estaño
o el plomo que tienen redes CCC muy abiertas que también los hacen blandos. Por eso
la densidad del plomo pese a la fama de “pesado” no es tan grande.

Introducción a la Teoría de Bandas en los metales.

La aparición de la TOM, con la consiguiente deslocalización electrónica permitió


aplicarla al gas electrónico en el modelo existente del enlace metálico, a fin de resolver
algunas contradic-ciones con los datos experimentales. Esto fue lo que desarrollaron
Sommerfeld y Bloch, entre otros muchos, a partir de 1928. Así nació la Teoría de
Bandas en los metales que se puede extender a todos los sólidos no iónicos. Si se
quisiera aplicar la TOM a la formación de una hipotética molécula de Na2 (Na: 1s2 2s2
p6 3s1 ) habría que hacer el CLOA con la funciones atómicas 3s, obteniendo un OME
σ3s y otro OMAE σ3s, introduciéndose los dos electrones de valencia en el primero por
tener menor energía. Para una macromolécula de Na formada por 6Na, las
combinaciones lineales entre las funciones dan lugar a 6 OM, tres de menor energía
con dominio enlazante, y otros tres de mayor energía antienlazantes. Entre ellos la
variación energética es muy pequeña. Como en cada OM del mismo tipo, como se ha
visto, caben dos electrones, los 6 de valencia ocuparán los 3OME. La diferencia
energética entre los OME y los OMAE va disminuyendo al aumentar el número de
funciones de onda que entran en combinación. Si se trabaja con un mol de átomos de
sodio, no existe discontinuidad entre la energía de los OME y los OMAE.

El enlace metálico es el que mantiene unidos los átomos de los metales. Mediante la
estructura del enlace metálico podemos explicarnos las propiedades más características
de los metales, tales como su facilidad para conducir la electricidad y el calor
(conductividad), la capacidad para extenderse en hilos muy finos (ductilidad) , la
capacidad para obtener láminas finas (maleabilidad), densidades elevadas, puntos de
fusión altos... etc. El modelo más sencillo de enlace metálico se basa en una de las
propiedades características de los metales: su baja electronegatividad (ceden
electrones con facilidad). Así pues, el enlace metálico podemos describirlo como una
disposición muy ordenada y compacta de iones positivos del metal (red metálica) entre
los cuales se distribuyen los electrones perdidos por cada átomo a modo de “nube
electrónica”. Es importante observar que los electrones pueden circular libremente
entre los cationes, no están ligados (sujetos) a lo núcleos y son compartidos por todos
ellos (se dice que los electrones están deslocalizados). Esta nube electrónica hace de
“colchón” entre las cargas positivas impidiendo que se repelan, a la vez que mantienen
unidos los átomos del metal.

En los metales tampoco se forman moléculas individuales. La situación es muy


parecida a la encontrada en el caso de los compuestos iónicos. Propiedades de los
metales.

► Son sólidos a temperatura ambiente (a excepción del mercurio) de densidad


elevada. Observar que la red metálica es una estructura muy ordenada (típica de los
sólidos) y compacta (con los iones muy bien empaquetados, muy juntos, densidad
alta)
► Temperaturas de fusión y ebullición altas, síntoma de que el enlace entre los
átomos es fuerte.

► Buenos conductores del calor y la electricidad, debido a la existencia de electrones


libres que pueden moverse.

► Ductilidad y maleabilidad, debido a la posibilidad de que las capas de iones se


pueden deslizar unas sobre otras sin que se rompa la red metálica.

5.4. ENLACE DIPOLO DIPOLO

La interacción dipolo-dipolo es la observada entre un dipolo positivo de una molécula


polar con el dipolo negativo de otra. En los enlaces covalentes polares, el átomo con
mayor electronegatividad atrae los electrones hacia sí, formándose un dipolo negativo
en torno al mismo. En el átomo con menor electronegatividad, el dipolo formado es de
carga positiva, ya que cede parcialmente sus electrones. Las atracciones
electrostáticas entre dipolos de carga contraria, de diferentes moléculas son las
llamadas interacciones dipolo-dipolo.

Otro ejemplo puede ser el de las moléculas de cloruro de bromo. Las interacciones
dipolo-dipolo se representan con líneas punteadas.

La fuerza de este tipo de interacción es bastante débil, de un promedio de 4 kJ por


mol, en comparación con la energía de enlaces covalentes o iónicos.

Existen varios tipos de interacción dipolo-dipolo:

Interacción dipolo permanente.

Es el que ocurre entre dos moléculas cuyos enlaces son covalentes polares, es decir,
que forman dipolos por diferencia de electronegatividad entre sus átomos.
Interacción dipolo inducido.

Se produce cuando en moléculas no polares, el dipolo es inducido, por ejemplo


mediante un campo eléctrico.

También existen interacciones entre un dipolo permanente y un dipolo inducido. Los


iones también son capaces de interaccionar con dipolos de moléculas, ya sean éstos
permanentes o inducidos.La interacción dipolo-dipolo también puede suceder entre dos
partes de la misma molécula, si ésta es lo suficientemente grande.

En un líquido, por ejemplo, las moléculas están muy cercanas entre sí, unidas por
fuerzas intermoleculares, por ejemplo interacciones dipolo-dipolo. Cuanto mayor es la
fuerza intermolecular que las une, mayor será el punto de ebullición del líquido, dado
que se necesitará más energía para romper dichos enlaces.

Esto es lo que sucede con las moléculas de agua, que están unidas por un tipo especial
de interacción dipolo, el puente de hidrógeno. En el puente de hidrógeno el dipolo
positivo de este átomo interacciona con el par libre de electrones del átomo de
oxígeno.

Estos enlaces dan mayor cohesión a las moléculas y es la razón por la cual el punto de
ebullición del agua es mucho más alto del esperado para su peso molecular.

La interacción dipolo-dipolo existe independientemente de otras fuerzas


intermoleculares, como las fuerzas de dispersión de London, donde los movimientos de
las moléculas causan dipolos temporarios que ejercen fuerzas de atracción
electrostática temporarias también.

5.5. ENLACE O PUENTE DE HIDRÓGENO

El enlace o “puente” de hidrógeno es un tipo de enlace muy particular, que aunque en


algunos aspectos resulta similar a las interacciones de tipo dipolo-dipolo, tiene
características especiales. Es un tipo específico de interacción polar que se establece
entre dos átomos significativamente electronegativos, generalmente O - N, y un
átomo de H, unido covalentemente a uno de los dos átomos electronegativos. En un
enlace de hidrógeno tenemos que distinguir entre el átomo DADOR del hidrógeno
(aquel al que está unido covalentemente el hidrógeno) y el ACEPTOR, que es al átomo
de O o N al cual se va a enlazar el hidrógeno.

DADOR

Un enlace O-H está muy polarizado por la elevada electronegatividad del oxígeno y por
el hecho de que el único protón del núcleo del hidrógeno atrae débilmente a los
electrones del enlace. Así, se estima que la carga positiva sobre el hidrógeno es de 0,4
unidades. En el caso de que el átomo electronegativo sea nitrógeno la situación es
similar, aunque dada la menor electronegatividad del nitrógeno la polarización del
enlace va a ser algo menor menor. Los grupos O-H y el N-H van a actuar como
donadores de hidrógeno en el enlace de hidrógeno. A pesar de la similitud química el
grupo S-H es un mal donador, debido a la baja electronegatividad del azufre.

ACEPTOR

El aceptor del hidrógeno va a ser un átomo electronegativo (otra vez oxígeno o


nitrógeno) pero con una peculiaridad: el hidrógeno se va a unir a un orbital ocupado
por dos electrones solitarios. Estos orbitales tienen una densidad de carga negativa
alta, y por consiguiente se pueden unir a la carga positiva del hidrógeno. En el caso del
oxígeno, con un total de 8 electrones, se presentan DOS pares de electrones solitarios,
tanto en el caso de la hibridación sp3 como de la sp2:

Sin hibridar 1𝑠2 2𝑠2 2𝑠𝑠 2 2𝑠𝑠 1 2𝑠𝑠 1 AGUA

Hibridación sp3 1𝑠2 2𝑠2 2𝑠2 2𝑠1 2𝑠1

Hibridación sp2 1𝑠2 2𝑠2 2𝑠2 2𝑠1 2𝑠𝑠 1

Los dos pares de electrones solitarios se muestran en rojo: los orbitales en verde,
ocupados por un electrón cada uno que son los que van a participar en los enlaces. En
el caso de la hibridación 2𝑠2 trigonal, como en el C=O, también hay dos pares de
electrones solitarios. En resumen, un átomo de oxígeno puede actuar como aceptor de
dos puentes de hidrógeno.

Modelo de la estructura del hielo


cúbico.

El oxígeno de la molécula de agua


central (rojo, "spacefill") acepta dos
hidrógenos (en azul) de otras dos
moléculas de agua vecinas. Note la
geometría tetraédrica de los cuatro
hidrógenos que rodean al oxígeno
central

El nitrógeno tiene un electrón menos y por consiguiente presenta solo un par de


electrones solitarios, pero tiene tres electrones en orbitales que pueden participar en
enlaces. Un átomo de nitrógeno puede actuar como aceptor de un solo puente de
hidrógeno.
Por último un carbono, que tiene un electrón menos que el nitrógeno no presenta
pares de electrones solitarios y puede formar cuatro enlaces que en la hibridación sp3
se disponen en la forma tetraédrica bien conocida. El carbono no puede actuar como
aceptor de puentes de hidrógeno, porque ni es suficientemente electronegativo ni tiene
pares de electrones solitarios.

Otros aceptores de puentes de hidrógeno de importancia son los aniones


monovalentes, principalmente el Cl-

PROPIEDADES

El enlace de hidrógeno presenta un cierto carácter covalente. O podemos considerar


que el enlace resuena entre estas dos posibles estructuras.

En condiciones óptimas esto supone un 100% de carácter covalente. Una consecuencia


importante de esta resonancia es que pueden intercambiar los hidrógenos de una
molécula con los hidrógenos del agua disolvente. Este fenómeno se aprecia fácilmente
si la molécula se disuelve en agua pesada D2O; si los hidrógenos son accesibles al
disolvente, se intercambian por deuterio:
La distancia interatómica entre el hidrógeno y el aceptor es menor que la suma de sus
radios de Van der Waals (0,27 nm aproximadamente para un par oxígeno –
hidrógeno), aunque están separados que si estuvieran unidos por enlace covalente
puro:

La energía del enlace de hidrógeno depende del ángulo de enlace; es máxima cuando
los tres átomos (dador – hidrógeno – aceptor) están alineados y disminuye cuando se
disponen en ángulo. Es un enlace muy direccional aunque pequeñas variaciones de
hasta 20° no tienen demasiada importancia. Por último, la energía de un enlace de
hidrógeno depende de los aceptores y dadores. De mayor a menor energía de enlace,
tenemos las siguientes posibilidades:
En condiciones óptimas la energía de un enlace de hidrógeno puede alcanzar unos
23kJ/mol (unas 15 veces más que la energía de la fuerzas de dispersión de London).

La fuerza relativamente alta de estos enlaces y su direccionalidad hacen que sean muy
importantes en la estructura de las macromoléculas. Un ejemplo bien conocido es el
emparejamiento de bases de ADN. Por ejemplo en este par GC perteneciente a un
dodecámetro cuya estructura en disolución ha sido determinada por RMN. Lo que
permite visualizar los átomos de hidrógeno.

5.6. FUERZAS DE VAN DER WAALS

Las fuerzas de Van der Waals se llaman así en honor al físico holandés Johannes
Van der Waals. Estas fuerzas son las responsables de muchos fenómenos físicos y
químicos como la adhesión, rozamiento, difusión, tensión superficial y la viscosidad.
Vamos a explicar fácilmente para que se entienda lo que son las fuerzas de van der
waals, los tipos que hay (dipolo-dipolo, dipolo-dipolo inducido y fuerzas de london),
su importancia y por último la ecuación de van der waals.

Las fuerzas de Van der Waals se llaman así en honor al físico holandés Johannes Van
der Waals. Estas fuerzas son las responsables de muchos fenómenos físicos y químicos
como la adhesión, rozamiento, difusión, tensión superficial y la viscosidad. Vamos a
explicar fácilmente para que se entienda lo que son las fuerzas de van der waals, los
tipos que hay (dipolo-dipolo, dipolo-dipolo inducido y fuerzas de london), su
importancia y por último la ecuación de van der waals.
¿Qué son las Fuerzas de Van Der Waals?

Lo primero que tenemos que saber es que las sustancias químicas son formadas por
moléculas compuestas de átomos, unidos entre si por medio de enlaces químicos
(covalente, iónico o metálico).

La energía almacenada por estos enlaces, sumada a la red molecular de todo el


conjunto de moléculas que forma la sustancia, determina la estabilidad de estos
enlaces.

Piensa que si en varias moléculas, por ejemplo con enlaces covalente, no hubiera
ninguna fuerza de unión entre ellas, estarían moviéndose libremente y por lo tanto
siempre estarían en estado gaseoso (movimiento libre de las moléculas).

Ya sabemos que eso no es así, por que pueden estar también en estado sólido o
líquido (no se mueven libremente), y esto quiere decir que habrá algún tipo de
conexión-unión entre las moléculas. Ha este tipo de interacción o fuerza es lo que se
conoce como fuerzas de interacción intermoleculares o de van der Waals.

Las fuerzas de van der Waals son fuerzas de estabilización molecular (dan estabilidad a
la unión entre varias moléculas), también conocidas como atracciones intermoleculares
o de largo alcance y son las fuerzas entre moléculas (fuerzas entre molecula-
molecula).
Son fuerzas mas débiles que las internas que unen la molécula ya que dependen
exclusivamente del tamaño y forma de la molécula pudiendo ser de atracción o de
repulsión. Son tan débiles que no se las puede considerar un enlace, como el enlace
covalente o iónico, solo se las considera una atracción.

Para tener una idea de la poca fuerza que tienen, si un enlace covalente tuviera una
fuerza de 100, las de Van der Waals serían de valor 1 (100 veces menor).

De hecho las fuerzas de van der Waals son las fuerzas atractivas o repulsivas entre
moléculas (o entre partes de una misma molécula) distintas a aquellas debidas a un
enlace (covalente, iónico o metálico). Incluyen a atracciones entre átomos, moléculas y
superficies fuera de los enlaces normales.

Antes de explicar cada una de los tipos de fuerzas posibles de Van der Waals es
importante conocer que hay moléculas polares y no polares.
Moléculas Polares y NO Polares

Moléculas Polares son aquellas cuyos enlaces son formados por átomos distintos con
grandes diferencias de electronegatividad, formando moléculas polares.

La molécula es eléctricamente neutra en su conjunto por tener igual de partículas


positivas y negativas, pero no existe simetría en la distribución de la electricidad. La
distribución de las cargas eléctricas no es simétrica respecto a un centro.

Las moléculas están formadas por átomos diferentes y la carga eléctrica está más
concentrada en una zona de la molécula que en otra. En este caso ocurre igual que en
una pila, se forman polos eléctricos, con una pequeña carga negativa y otra positiva
separadas, por eso se llaman polares.

Aquellas en las que no hay esa diferencia de zonas eléctricas positiva y negativa en la
molécula se llaman NO polares.

Las moléculas polares tienen distorsionada su nube electrónica con respecto a su


centro.

Este tipo de moléculas, las polares, tiene lo que se llama un dipolo permanente, es
decir es como un imán pequeñito pero molecular, por eso, la parte negativa atraerá a
la zona positiva de otras moléculas cercanas y viceversa.
Ejemplos de moléculas Polares: Agua H2O , Amoníaco NH3 , Fluoruro de Hidrógeno
HF , Fosfina PH3 , Cloformo CHCl3.

Moléculas NO Polares o también llamadas Apolares:

Cuando se forman en un enlace covalente entre átomos iguales, la molécula es neutra,


es decir, tiene carga eléctrica cero. Estas moléculas no tienen esas zonas de carga
eléctrica separadas y por lo tanto no forman dipolos permanentes.

Ejemplos de Moléculas No Polares: Tetracloruro de Carbono CCl4 , Dióxido de Carbono


CO2 , Cloro Cl2 , Trióxido de Azufre SO3 , Hidrógeno H2.

Resumiendo, las MOLÉCULAS POLARES son las que tienen una zona con una
pequeña carga negativa y otra zona con una pequeña carga positiva. (la
parte negativa atraerá a la zona positiva de otras moléculas y viceversa).

Las MOLÉCULAS NO POLARES son las que no tienen esas zonas de carga
eléctrica separadas.

¿CÓMO SABER SI UNA SUSTANCIA ES POLAR O NO?

Hay una forma sencilla, que nos vale para la mayoría de casos. LOS DISOLVENTES
POLARES DISUELVEN A SUSTANCIAS POLARES, LOS DISOLVENTES APOLARES A
SUSTACIAS APOLARES.

La regla química de que "lo semejante disuelve a lo semejante". Es decir, ya sabemos


que el agua es un disolvente polar. Si echas en ella azúcar, ¿se disuelve?...si ¿verdad?.
Pues ya sabes que el azúcar sería una sustancia Polar.

Pero, ¿y si echas aceite en el agua?. El aceite queda flotando, no se disuelve en el


agua. Por tanto el aceite sería una sustancia No Polar.

TIPOS DE FUERZAS DE VAN DER WAALS

Ahora que ya sabemos que hay moléculas polares y no polares explicaremos los 3 tipos
de fuerzas diferentes de van der Waals que pueden darse entre moléculas.

DIPOLO-DIPOLO:

Cuando dos moléculas polares (dipolo) se aproximan, se produce una atracción entre
el polo positivo de una de ellas y el negativo de la otra . Se forma entre un dipolo
positivo de una molécula polar con el dipolo negativo de otra polar. Una atracción
dipolo-dipolo es una interacción no covalente entre dos moléculas polares. Las
moléculas que son dipolos se atraen entre sí cuando la región positiva de una está
cerca de la región negativa de la otra. Podríamos decir que es similar al enlace iónico
pero mucho más débil. Esta fuerza de atracción entre dos dipolos es tanto más intensa
cuanto mayor es la polarización de dichas moléculas polares.

Ejemplos podrían ser el sulfuro de hidrógeno H2S , el metanol CH3OH y la glucosa


C6H12O6.

Los Puentes de hidrógeno es un tipo especial de interacción dipolo-dipolo entre el


átomo de hidrógeno que está formando un enlace polar, tal como N—H, O—H, ó F—H,
y un átomo electronegativo como O, N ó F.

INTERACCIONES IONICAS O DIPOLO-DIPOLO INDUCIDO:

En ciertas ocasiones, una molécula polar (dipolo), al estar próxima a otra no polar,
induce en ésta un dipolo transitorio, produciendo una fuerza de atracción
intermolecular llamada dipolo-dipolo inducido o interacción iónica. Son interacciones
que ocurren a nivel de catión-anión, entre distintas moléculas cargadas, y que por lo
mismo tenderán a formar una unión electrostática entre los extremos de cargas
opuestas debido a la atracción entre ellas.

Un ejemplo: El agua cuya molécula es un dipolo, produce una pequeña polarización en


la molécula no polar de oxígeno, la cual se transforma en un dipolo inducido.
Esto hace que el oxígeno y el dioxido de carbono, que son no polares presenten cierta
solubilidad en solventes polares, como el agua.

FUERZAS DE LONDON O DISPERSIÓN:

En las moléculas no polares puede producirse transitoriamente un desplazamiento


relativo de los electrones, originando un polo positivo y otro negativo (dipolo
transitorio) que determinan una atracción entre dichas moléculas (el polo positivo de
una molécula atrae al polo negativo de la otra, y viceversa). Son dipolos instantáneos,
desaparecerán en muy poco tiempo.

Pensemos en una molécula como en algo no estático, sino en movimiento, pero


además conteniendo electrones en constante movimiento. Es razonable pensar que en
un determinado momento la distribución en esa molécula puede no ser perfectamente
simétrica y aparecen entonces pequeños dipolos instantáneos en este momento.

Estas fuerzas de atracción son muy débiles y se denominan fuerzas de London. Las
fuerzas de London se presentan en todas las sustancias moleculares. Son el resultado
de la atracción entre los extremos positivo y negativo de dipolos inducidos en
moléculas adyacentes. En general, cuantos más electrones haya en una molécula más
fácilmente podrá polarizarse. Así, las moléculas más grandes con muchos electrones
son relativamente polarizables. En contraste, las moléculas más pequeñas son menos
polarizables porque tienen menos electrones.

IMPORTANCIA DE LAS FUERZAS DE VAN DER WAALS

Gracias a ellas podemos explicar la adhesión, el rozamiento, la difusión, la tensión


superficial y la viscosidad. Por ejemplo, sabemos porque la nafta es liquida, el metano
es un gas y el polietileno (que es un polímero compuesto por C y por H únicamente) es
un solido.

Las fuerzas de Van der Waals, aún siendo tan débiles, definen el carácter químico de
muchos compuestos orgánicos.

Ecuación de Van der Waals

Van der Waals introdujo correcciones a la ecuación de estado de un gas ideal, que
tenían en cuenta el volumen finito de las moléculas y las fuerzas atractivas que una
molécula ejercía sobre otra a distancias muy cercanas entre ellas. Si te interesa, en
este enlace puedes ver su ecuación: Ecuación de Van der Waals.

6. La hibridación

Hibridación, es el proceso de formación de orbitales electrónicos híbridos. En algunos


átomos, los orbitales de los subniveles atómicos s y p se mezclan , dando origen a
orbitales híbridos sp, sp² y sp³.

Según la teoría de los enlaces covalentes, un enlace de este tipo se efectúa por la
superposición de orbitales semillenados.

La hibridación explica la formación de algunos enlaces que serían imposibles por las
teorías asociadas, así como la disposición geométrica de algunas moléculas.

Elementos posibles de hibridar

Los elementos que se hibridan son el carbono, silicio, azufre, etc. El oxígeno y el
nitrógeno también se hibridan, sin embargo, sin activación.

Formas de hibridación

▪ Hibridación sp3

El átomo de carbono tiene seis electrones: dos se ubican en el orbital 1smmm (1s²),
dos en el 2s (2s²) y los restantes dos en el orbital 2p (2p²). Debido a su orientación en
el plano tridimensional el subnivel 2p tiene capacidad para ubicar 6 electrones: 2 en el
orbital px, dos en el orbital py y dos electrones en el orbital pz. Los dos últimos
electrones del carbono se ubicarían uno en el 2px, el otro en el 2py y el orbital 2pz
permanece vacío (2px¹ 2py¹). El esquema de lo anterior es (cada flecha un electrón):
Para satisfacer su estado energético inestable, un átomo de valencia como el del
carbono, con orbitales parcialmente llenos (2px y 2py necesitarían tener dos
electrones) tiende a formar enlaces con otros átomos que tengan electrones
disponibles. Para ello, no basta simplemente colocar un electrón en cada orbital
necesitado. En la naturaleza, éste tipo de átomos redistribuyen sus electrones
formando orbitales híbridos. En el caso del carbono, uno de los electrones del orbital
2s es extraído y se ubica en el orbital 2pz. Así, los cuatro últimos orbitales tienen un
electrón cada uno:

El estímulo para excitar al electrón del 2s al 2pz es aportado por el primer electrón en
formar enlace con un átomo con este tipo de valencia. Por ejemplo, el hidrógeno en el
caso del metano. Esto a su vez incrementa la necesidad de llenado de los restantes
orbitales. Estos nuevos orbitales híbridos dejan de ser llamados 2s y 2p y son ahora
llamados sp3 (un poco de ambos orbitales):
De los cuatro orbitales así formados, uno (25%) es proveniente del orbital s (el 2s) del
carbono y tres (75%) provenientes de los orbitales p (2p). Sin embargo todos se
sobreponen al aportar la hibridación producto del enlace. Tridimensionalmente, la
distancia entre un hidrógeno y el otro en el metano son equivalentes e iguales a un
ángulo de 109,5°.

▪ Hibridación sp2

Se define como la combinación de un orbital s y dos orbitales p, para formar 3


orbitales híbridos, que se disponen en un plano formando ángulos de 120º.

Los átomos que forman hibridaciones sp2 pueden formar compuestos con enlaces
dobles. Forman un ángulo de 120º y su molécula es de forma plana. A los enlaces
simples se les conoce como enlaces sigma (σ) y los enlaces dobles están compuestos
por un enlace sigma y un enlace pi . Las reglas de ubicación de los electrones en estos
casos, como el alqueno etileno obligan a una hibridación distinta llamada sp2, en la
cual un electrón del orbital 2s se mezcla sólo con dos de los orbitales 2p: surge a partir
o al unirse el orbital s con dos orbitales p; por consiguiente, se producen tres nuevos
orbitales sp2, cada orbital nuevo produce enlaces covalentes.
Tridimensionalmente, la distancia entre un hidrógeno y otro en algún carbono del
etileno son equivalentes e iguales a un ángulo de 120°.

▪ Hibridación sp

Se define como la combinación de un orbital s y un orbital p, para formar 2 orbitales


híbridos, con orientación lineal. Este es el tipo de enlace híbrido, con un ángulo de
180º y que se encuentra existente en compuestos con triples enlaces como los
alquinos (por ejemplo el acetileno):

7. GEOMETRIA MOLECULAR

La geometría molecular es la disposición tridimensional de los átomos que conforman


una molécula. Es muy importante conocer correctamente la geometría de una
molécula, ya que está relacionada directamente con la mayoría de propiedades físicas
y químicas como, por ejemplo, punto de ebullición, densidad, solubilidad, etc.

Si conocemos la estructura de Lewis de una molécula, podremos predecir su geometría


utilizando la teoría de repulsión de pares electrónicos de la capa de valencia (RPECV).
Esta teoría se basa en el hecho que los electrones tienden a repelerse entre sí (por
similitud de cargas). Por tal motivo, los orbitales que contienen a los electrones se
orientan de tal forma que queden lo más alejados entre sí.

Es importante notar que la geometría de la molécula está referida siempre al átomo


central, y que, para determinarla correctamente, debemos conocer el número de
coordinación total de dicho átomo.

N° coordinación = N° átomos unidos + N° pares libres

jemplo 3.7. Analicemos la molécula de CO2.

Previamente hemos determinado su estructura de Lewis, la cual es la siguiente:

Determinemos el número de coordinación del carbono (átomo central): tiene dos


átomos unidos y ningún par libre. Por tanto, su número de coordinación es 2, debido a
los dos átomos de oxígeno unidos. Estos átomos querrán estar lo más alejado posible
entre sí, y para ello, deberán oponerse entre sí 180°.

Por tanto, dado que los tres átomos pueden ser colocados a lo largo de una línea
recta, decimos que la geometría de la molécula de CO2 es LINEAL. Observe la
hibridación del carbon: es sp.

Observación

Cualquier molécula diatónica (formada sólo por dos átomos) será necesariamente lineal.
Tratándose de un ion molecular, podemos establecer también su geometría. Hemos
determinado previamente su estructura de Lewis:
El carbono (átomo central) tiene número de coordinación 3, debido a que está unido a
tres átomos de oxígeno y no tiene pares libres. Por tanto, estos tres átomos deben
repelerse lo máximo posible entre ellos. Para que esto ocurra, debemos orientar los
oxígenos hacia los vértices de un triángulo, ya que así estarán separados 120° entre
ellos:

Por tanto, diremos que la geometría del ión carbonato es TRIANGULAR. Observa que
la hibridación del carbono es sp2.

La estructura de Lewis es la siguiente:


El número de coordinación del nitrógeno es 4. Por tanto, los cuatro átomos unidos
querrán separarse lo máximo posible. Orientarse hacia los vértices de un cuadrado los
separaría 90°, pero mejor resulta orientarse hacia los vértices de un tetraedro, ya que,
en este caso, los átomos de hidrógeno estarán separados entre ellos 109,5°.

En consecuencia, la geometría del ion amonio es TETRAÉDRICA. Observa que la


hibridación del átomo de nitrógeno essp3.

Pero, ¿y qué pasa con aquellos átomos centrales que sí poseen pares libres? En tales
casos, debemos considerar a los pares libres para saber la orientación que tendrán los
orbitales. Sin embargo, cuando determinamos la geometría, LOS PARES LIBRES NO
SE DEBEN CONSIDERAR, ya que la geometría sólo está determinada por los átomos
que conforman una molécula.

En el agua, tenemos dos átomos unidos y dos pares libres. Por tanto, los orbitales que
contienen a los electrones correspondientes deben orientarse hacia los vértices de un
tetraedro:

Sin embargo, al momento de determinar la geometría de la molécula, no debemos


tomar en cuenta los pares libres. Por tanto, si los eliminamos, observaremos que el
agua tiene una geometría ANGULAR (tipo búmeran), donde el ángulo entre H-O-H
es 109,5°.

En el caso del NH3, el átomo central tiene tres átomos unidos y un par de electrones
libre. (número de coordinación 4) Nuevamente, los orbitales deben orientarse hacia los
vértices de un tetraedro:

Al momento de decidir la geometría, no debemos considerar el par libre. Por tanto,


vemos que los tres átomos de hidrógeno están orientados hacia los vértices de un
triángulo, pero con el nitrógeno destacando por encima: una especie de pirámide con
base triangular. Esta geometría se llama PIRÁMIDE TRIGONAL.

El siguiente cuadro resume la geometría de las moléculas según el número de


coordinación que presenten.
Geometría molecular según el número de coordinación.

Вам также может понравиться