Вы находитесь на странице: 1из 22

Tema 18

Física y Química
MECÁNICA
Mecánica, rama de la física que se ocupa del movimiento de los objetos y de su respuesta a las fuerzas. Las
descripciones modernas del movimiento comienzan con una definición cuidadosa de magnitudes como el
desplazamiento, el tiempo, la velocidad, la aceleración, la masa y la fuerza. Sin embargo, hasta hace unos 400 años el
movimiento se explicaba desde un punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las
ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae porque su posición natural está en el
suelo; el Sol, la Luna y las estrellas describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven por
naturaleza en círculos perfectos.
El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores de su tiempo y empezó a
analizar el movimiento a partir de la distancia recorrida desde un punto de partida y del tiempo transcurrido. Demostró
que la velocidad de los objetos que caen aumenta continuamente durante su caída. Esta aceleración es la misma para
objetos pesados o ligeros, siempre que no se tenga en cuenta la resistencia del aire (rozamiento). El matemático y físico
británico Isaac Newton mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la aceleración. Para los
objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton han sido sustituidas por la
teoría de la relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las leyes de Newton han sido
sustituidas por la teoría cuántica. Pero para los fenómenos de la vida diaria, las tres leyes del movimiento de Newton
siguen siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el movimiento).

CINEMÁTICA
La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La velocidad (la tasa
de variación de la posición) se define como la distancia recorrida dividida entre el intervalo de tiempo. La magnitud de
la velocidad se denomina celeridad, y puede medirse en unidades como kilómetros por hora, metros por segundo,...
La aceleración se define como la tasa de variación de la velocidad: el cambio de la velocidad dividido entre el
tiempo en que se produce. Por tanto, la aceleración tiene magnitud, dirección y sentido, y se mide en unidades del tipo
metros por segundo cada segundo.
En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el objeto es
muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea un punto llamado centro de
masas, cuyo movimiento puede considerarse característico de todo el objeto. Si el objeto gira, muchas veces conviene
describir su rotación en torno a un eje que pasa por el centro de masas.
Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar, aquél en el que la
velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no cambiaría en el intervalo
de tiempo considerado. Si la velocidad es constante, la velocidad media (o promedio) es igual a la velocidad en
cualquier instante determinado. Si el tiempo t se mide con un reloj que se pone en marcha con t = 0, la distancia d
recorrida a velocidad constante v será igual al producto de la velocidad por el tiempo:
d=v·t
Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la velocidad
varía, hay que definir la velocidad instantánea, que es la velocidad en un instante determinado. En el caso de una
aceleración a constante, considerando una velocidad inicial nula (v = 0 en t = 0), la velocidad instantánea transcurrido el
tiempo t será:
v=a·t
La distancia recorrida durante ese tiempo será:
d = 1/2at2
Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t2, o “t al
cuadrado”, es la forma breve de escribir t × t). Un objeto pesado que cae libremente (sin influencia de la fricción del
aire) cerca de la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es
aproximadamente de 9,8 m/s cada segundo. Al final del primer segundo, una pelota habría caído 4,9 m y tendría una
velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una velocidad de 19,6 m/s.
-1-
El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad constante pero
la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un círculo. La aceleración está dirigida
hacia el centro del círculo y se denomina aceleración normal o centrípeta. En el caso de un objeto que se desplaza a
2
velocidad v en un círculo de radio r, la aceleración centrípeta es a = v /r. Otro tipo de movimiento sencillo que se
observa frecuentemente es el de una pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la
gravedad, la pelota experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical
hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el suelo. Entretanto, la
componente horizontal de la velocidad inicial permanece constante (si se prescinde de la resistencia del aire), lo que
hace que la pelota se desplace a velocidad constante en dirección horizontal hasta que alcanza el suelo. Las
componentes vertical y horizontal del movimiento son independientes, y se pueden analizar por separado. La trayectoria
de la pelota resulta ser una parábola.

DINÁMICA
Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa.
Puede medirse en función de uno de estos dos efectos: una fuerza puede deformar algo, como un muelle, o
acelerar un objeto. El primer efecto puede utilizarse para calibrar la escala de un muelle, que a su vez puede emplearse
para medir la magnitud de otras fuerzas: cuanto mayor sea la fuerza F, mayor será el alargamiento del muelle x. En
muchos muelles, y dentro de un rango de fuerzas limitado, es proporcional a la fuerza:
F=k·x
Donde k es una constante que depende del material y dimensiones del muelle.

FUERZA
Definición
Fuerza, en física, es cualquier acción o influencia que modifica el estado de reposo o de movimiento de un
objeto. La fuerza que actúa sobre un objeto de masa m es igual a la variación del momento lineal (o cantidad de
movimiento) de dicho objeto respecto del tiempo. Si se considera la masa constante, para una fuerza también constante
aplicada a un objeto, su masa y la aceleración producida por la fuerza son inversamente proporcionales. Por tanto, si
una fuerza igual actúa sobre dos objetos de diferente masa, el objeto con mayor masa resultará menos acelerado.
Las fuerzas se miden por los efectos que producen, es decir, a partir de las deformaciones o cambios de
movimiento que producen sobre los objetos. Un dinamómetro es un muelle o resorte graduado para distintas fuerzas,
cuyo módulo viene indicado en una escala. En el Sistema Internacional de unidades, la fuerza se mide en newton: 1
newton (N) es la fuerza que proporciona a un objeto de 1 kg de masa una aceleración de 1 m/s2.
Fuerza resultante
La fuerza es una magnitud vectorial, puesto que el momento lineal lo es, y esto significa que tiene módulo,
dirección y sentido. Al conjunto de fuerzas que actúan sobre un cuerpo se le llama sistema de fuerzas. Si las fuerzas
tienen el mismo punto de aplicación se habla de fuerzas concurrentes. Si son paralelas y tienen distinto punto de
aplicación se habla de fuerzas paralelas.
Cuando sobre un objeto actúan varias fuerzas, éstas se suman vectorialmente para dar lugar a una fuerza total o
resultante. Si la fuerza resultante es nula, el objeto no se acelerará: seguirá parado o detenido o continuará moviéndose
con velocidad constante. Esto quiere decir que todo cuerpo permanece en estado de reposo o de movimiento rectilíneo y
uniforme mientras no actúe sobre él una fuerza resultante no nula. Por ejemplo, si una persona empuja un triciclo con
una fuerza de magnitud igual a la fuerza de rozamiento que se opone al movimiento del triciclo, las fuerzas se
compensarán, produciendo una fuerza resultante nula. Eso hace que se mueva con velocidad constante. Si la persona
deja de empujar, la única fuerza que actúa sobre el triciclo es la fuerza de rozamiento. Como la fuerza ya no es nula, el
triciclo experimenta una aceleración, y su velocidad disminuye hasta hacerse cero.
Acción y reacción
Una fuerza es siempre una acción mutua que se ejerce entre dos objetos (fuerzas exteriores) o entre dos partes
de un mismo objeto (fuerzas interiores). Así, un objeto experimenta una fuerza cuando otro objeto lo empuja o tira de
él. Si una bola de billar golpea a otra que está en reposo y ambas se mueven después de chocar es porque existen
fuerzas que actúan sobre cada una de las bolas, ya que las dos modifican sus movimientos. Por sí mismo, un objeto no
puede experimentar ni ejercer ninguna fuerza.
Las fuerzas aparecen siempre entre los objetos en pares de acción y reacción iguales y opuestas, pero que
nunca se pueden equilibrar entre sí puesto que actúan sobre objetos diferentes.

-2-
Esta acción mutua no siempre se ejerce entre dos objetos en contacto. En muchas ocasiones parece tener lugar
“a distancia”; éste es el caso de un objeto atraído por la Tierra, y viceversa, con una fuerza que es el peso del objeto.
Entonces se habla de campos de fuerzas, y en el caso concreto del objeto atraído por la Tierra se habla del campo
gravitatorio terrestre; las cargas eléctricas se atraen o se repelen debido a la presencia de un campo eléctrico.

MASA
Masa (física), propiedad intrínseca de un cuerpo, que mide su inercia, es decir, la resistencia del cuerpo a
cambiar su movimiento. La masa no es lo mismo que el peso, que mide la atracción que ejerce la Tierra sobre una masa
determinada. La masa inercial y la masa gravitacional son idénticas. El peso varía según la posición de la masa en
relación con la Tierra, pero es proporcional a la masa; dos masas iguales situadas en el mismo punto de un campo
gravitatorio tienen el mismo peso. Un principio fundamental de la física clásica es la ley de conservación de la masa,
que afirma que la materia no puede crearse ni destruirse. Esta ley se cumple en las reacciones químicas, pero no ocurre
así cuando los átomos se desintegran y se convierte materia en energía o energía en materia.
La teoría de la relatividad, formulada inicialmente en 1905 por Albert Einstein, cambió en gran medida el
concepto tradicional de masa. La relatividad demuestra que la masa de un objeto varía cuando su velocidad se aproxima
a la de la luz, es decir, cuando se acerca a los 300.000 kilómetros por segundo; la masa de un objeto que se desplaza a
260.000 km/s, por ejemplo, es aproximadamente el doble de su llamada masa en reposo. Cuando los cuerpos tienen
estas velocidades, como ocurre con las partículas producidas en las reacciones nucleares, la masa puede convertirse en
energía y viceversa, como sugería la famosa ecuación de Einstein E = mc2 (la energía es igual a la masa por el cuadrado
de la velocidad de la luz).

VECTORES
Si un objeto está en equilibrio, la fuerza total ejercida sobre él debe ser cero. Un libro colocado sobre una mesa
es atraído hacia abajo por la atracción gravitacional de la Tierra y es empujado hacia arriba por la repulsión molecular
de la mesa. La suma de las fuerzas es cero; el libro está en equilibrio. Para calcular la fuerza total, hay que sumar las
fuerzas como vectores.

MOMENTO DE UNA FUERZA


Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto deben
cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta condición es necesaria para el
equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca un libro de pie sobre una mesa y lo empuja igual de
fuerte con una mano en un sentido y con la otra en el sentido opuesto, el libro permanecerá en reposo si las manos están
una frente a otra. (El resultado total es que el libro se comprime). Pero si una mano está cerca de la parte superior del
libro y la otra mano cerca de la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio también es necesario
que la suma de los momentos en torno a cualquier eje sea cero.
El momento de una fuerza es el producto de dicha fuerza por la distancia perpendicular a un determinado eje
de giro. Cuando se aplica una fuerza a una puerta pesada para abrirla, la fuerza se ejerce perpendicularmente a la puerta
y a la máxima distancia de las bisagras. Así se logra un momento máximo. Si se empujara la puerta con la misma fuerza
en un punto situado a medio camino entre el tirador y las bisagras, la magnitud del momento sería la mitad. Si la fuerza
se aplicara de forma paralela a la puerta (es decir, de canto), el momento sería nulo. Para que un objeto esté en
equilibrio, los momentos dextrógiros (a derechas) en torno a todo eje deben cancelarse con los momentos levógiros (a
izquierdas) en torno a ese eje. Puede demostrarse que si los momentos se cancelan para un eje determinado, se cancelan
para todos los ejes.

LAS TRES LEYES DEL MOVIMIENTO DE NEWTON


Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la dinámica.
La 1ª Ley
La primera ley de Newton afirma que si la suma vectorial de las fuerzas que actúan sobre un objeto es cero, el
objeto permanecerá en reposo o seguirá moviéndose a velocidad constante. El que la fuerza ejercida sobre un objeto sea
cero no significa necesariamente que su velocidad sea cero. Si no está sometido a ninguna fuerza (incluido el
rozamiento), un objeto en movimiento seguirá desplazándose a velocidad constante.
La 2ª Ley
La segunda ley de Newton relaciona la fuerza total y la aceleración. Una fuerza neta ejercida sobre un objeto lo
acelerará, es decir, cambiará su velocidad. La aceleración será proporcional a la magnitud de la fuerza total y tendrá la
misma dirección y sentido que ésta. La constante de proporcionalidad es la masa m del objeto

-3-
F=m·a
En el Sistema Internacional de unidades (conocido también como SI), la aceleración a se mide en metros por
segundo cuadrado, la masa m se mide en kilogramos, y la fuerza F en newton. Un newton se define como la fuerza
necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por segundo cada segundo; esta fuerza es
aproximadamente igual al peso de un objeto de 100 gramos.
Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos masa. Lo
asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la velocidad), también mide la
atracción gravitacional que ejerce sobre otros objetos. Resulta sorprendente, y tiene consecuencias profundas, que la
propiedad inercial y la gravitacional estén determinadas por una misma cosa. Este fenómeno supone que es imposible
distinguir si un punto determinado está en un campo gravitatorio o en un sistema de referencia acelerado. Einstein hizo
de esto una de las piedras angulares de su teoría general de la relatividad, que es la teoría de la gravitación actualmente
aceptada.
Rozamiento
El rozamiento, generalmente, actúa como una fuerza aplicada en sentido opuesto a la velocidad de un objeto.
En el caso de deslizamiento en seco, cuando no existe lubricación, la fuerza de rozamiento es casi independiente de la
velocidad. La fuerza de rozamiento tampoco depende del área aparente de contacto entre un objeto y la superficie sobre
la cual se desliza. El área real de contacto —esto es, la superficie en la que las rugosidades microscópicas del objeto y
de la superficie de deslizamiento se tocan realmente— es relativamente pequeña. Cuando un objeto se mueve por
encima de la superficie de deslizamiento, las minúsculas rugosidades del objeto y la superficie chocan entre sí, y se
necesita fuerza para hacer que se sigan moviendo. El área real de contacto depende de la fuerza perpendicular entre el
objeto y la superficie de deslizamiento. Frecuentemente, esta fuerza no es sino el peso del objeto que se desliza. Si se
empuja el objeto formando un ángulo con la horizontal, la componente vertical de la fuerza dirigida hacia abajo se
sumará al peso del objeto. La fuerza de rozamiento es proporcional a la fuerza perpendicular total.
Cuando hay rozamiento, la segunda ley de Newton puede ampliarse a
F efectiva = F – F rozamiento = m · a
Sin embargo, cuando un objeto se desplaza a través de un fluido, el valor del rozamiento depende de la
velocidad. En la mayoría de los objetos de tamaño humano que se mueven en agua o aire (a velocidades menores que la
del sonido), la fricción es proporcional al cuadrado de la velocidad. En ese caso, la segunda ley de Newton se convierte
en
F efectiva = F – kv2 = m · a
La constante de proporcionalidad k es característica de los dos materiales en cuestión y depende del área de
contacto entre ambas superficies, y de la forma más o menos aerodinámica del objeto en movimiento.
La 3ª Ley
La tercera ley de Newton afirma que cuando un objeto ejerce una fuerza sobre otro, este otro objeto ejerce
también una fuerza sobre el primero. La fuerza que ejerce el primer objeto sobre el segundo debe tener la misma
magnitud que la fuerza que el segundo objeto ejerce sobre el primero, pero con sentido opuesto. Por ejemplo, en una
pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño, no sólo existe la fuerza que el adulto ejerce
sobre el niño, sino que el niño ejerce una fuerza igual pero de sentido opuesto sobre el adulto. Sin embargo, como la
masa del adulto es mayor, su aceleración será menor.
La tercera ley de Newton también implica la conservación del momento lineal, el producto de la masa por la
velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento debe ser constante. En el ejemplo
del adulto y el niño en la pista de patinaje, sus velocidades iniciales son cero, por lo que el momento inicial del sistema
es cero. Durante la interacción operan fuerzas internas entre el adulto y el niño, pero la suma de las fuerzas externas es
cero. Por tanto, el momento del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el
producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la masa pequeña y la velocidad
grande del niño. Los momentos respectivos son iguales en magnitud pero de sentido opuesto, por lo que su suma es
cero.
Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto en rotación
depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da vueltas cada vez más rápido
sobre el hielo, prácticamente sin rozamiento, el momento angular se conserva a pesar de que la velocidad aumenta. Al
principio del giro, el patinador tiene los brazos extendidos. Parte de la masa del patinador tiene por tanto un radio de
giro grande. Cuando el patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe
aumentar para mantener constante el momento angular.
-4-
TRABAJO
Se define como el producto de una fuerza aplicada sobre un cuerpo y del desplazamiento del cuerpo en la
dirección de esta fuerza. Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo,
por lo que puede decirse que el trabajo es energía en movimiento. Las unidades de trabajo son las mismas que las de
energía. Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza trabajo al
tener que vencer la fuerza de la gravedad, dirigida hacia abajo; la energía comunicada al cuerpo por este trabajo
aumenta su energía potencial. También se realiza trabajo cuando una fuerza aumenta la velocidad de un cuerpo, como
ocurre por ejemplo en la aceleración de un avión por el empuje de sus reactores. La fuerza puede no ser mecánica, como
ocurre en el levantamiento de un cuerpo o en la aceleración de un avión de reacción; también puede ser una fuerza
electrostática, electrodinámica o de tensión superficial. Por otra parte, si una fuerza constante no produce movimiento,
no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo extendido no implica trabajo alguno sobre el libro,
independientemente del esfuerzo necesario.
La unidad de trabajo en el Sistema Internacional de Unidades es el julio, que se define como el trabajo
realizado por una fuerza de 1 newton a lo largo de un metro. El trabajo realizado por unidad de tiempo se conoce como
potencia. La potencia correspondiente a un julio por segundo es un vatio.
Caballo de vapor
Caballo de vapor, unidad tradicional para expresar la potencia mecánica, es decir, el trabajo mecánico que
puede realizar un motor por unidad de tiempo; suele abreviarse por CV. En el Sistema Internacional de unidades, la
unidad de potencia es el vatio; 1 caballo de vapor equivale a 736 vatios. Su valor original era, por definición, 75
kilográmetros por segundo.

ENERGÍA
Energía, capacidad de un sistema físico para realizar trabajo. La materia posee energía como resultado de su
movimiento o de su posición en relación con las fuerzas que actúan sobre ella. La radiación electromagnética posee
energía que depende de su frecuencia y, por tanto, de su longitud de onda. Esta energía se comunica a la materia cuando
absorbe radiación y se recibe de la materia cuando emite radiación. La energía asociada al movimiento se conoce como
energía cinética, mientras que la relacionada con la posición es la energía potencial. Por ejemplo, un péndulo que oscila
tiene una energía potencial máxima en los extremos de su recorrido; en todas las posiciones intermedias tiene energía
cinética y potencial en proporciones diversas. La energía se manifiesta en varias formas, entre ellas la energía mecánica,
térmica, química, eléctrica, radiante o atómica. Todas las formas de energía pueden convertirse en otras formas
mediante los procesos adecuados. En el proceso de transformación puede perderse o ganarse una forma de energía, pero
la suma total permanece constante.
Un peso suspendido de una cuerda tiene energía potencial debido a su posición, puesto que puede realizar
trabajo al caer. Una batería eléctrica tiene energía potencial en forma química. Un trozo de magnesio también tiene
energía potencial en forma química, que se transforma en calor y luz si se inflama. Al disparar un fusil, la energía
potencial de la pólvora se transforma en la energía cinética del proyectil. La energía cinética del rotor de una dinamo o
alternador se convierte en energía eléctrica mediante la inducción electromagnética. Esta energía eléctrica puede a su
vez almacenarse como energía potencial de las cargas eléctricas en un condensador o una batería, disiparse en forma de
calor o emplearse para realizar trabajo en un dispositivo eléctrico. Todas las formas de energía tienden a transformarse
en calor, que es la forma más degradada de la energía. En los dispositivos mecánicos la energía no empleada para
realizar trabajo útil se disipa como calor de rozamiento, y las pérdidas de los circuitos eléctricos se producen
fundamentalmente en forma de calor.
Las observaciones empíricas del siglo XIX llevaron a la conclusión de que aunque la energía puede
transformarse no se puede crear ni destruir. Este concepto, conocido como principio de conservación de la energía,
constituye uno de los principios básicos de la mecánica clásica. Al igual que el principio de conservación de la materia,
sólo se cumple en fenómenos que implican velocidades bajas en comparación con la velocidad de la luz. Cuando las
velocidades se empiezan a aproximar a la de la luz, como ocurre en las reacciones nucleares, la materia puede
transformarse en energía y viceversa. En la física moderna se unifican ambos conceptos, la conservación de la energía y
de la masa.

ELECTRICIDAD
Electricidad, categoría de fenómenos físicos originados por la existencia de cargas eléctricas y por la
interacción de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas eléctricas
sobre las otras cargas situadas en su misma región del espacio; cuando está en movimiento, produce además efectos
magnéticos. Los efectos eléctricos y magnéticos dependen de la posición y movimiento relativos de las partículas con
carga. En lo que respecta a los efectos eléctricos, estas partículas pueden ser neutras, positivas o negativas. La
-5-
electricidad se ocupa de las partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las
partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En cambio, las partículas
negativas y positivas se atraen entre sí. Este comportamiento puede resumirse diciendo que las cargas del mismo signo
se repelen y las cargas de distinto signo se atraen.
Electrostática
Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos
estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza eléctrica uno sobre otro. La
carga eléctrica de cada cuerpo puede medirse en culombios. La fuerza entre dos partículas con cargas q 1 y q 2 puede
calcularse a partir de la ley de Coulomb según la cual la fuerza es proporcional al producto de las cargas dividido entre
el cuadrado de la distancia que las separa. La constante de proporcionalidad K depende del medio que rodea a las
cargas. La ley se llama así en honor al físico francés Charles de Coulomb.
Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede
representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto. Para mover otra
partícula cargada de un punto a otro del campo hay que realizar trabajo. La cantidad de energía necesaria para efectuar
ese trabajo sobre una partícula de carga unidad se conoce como diferencia de potencial entre ambos puntos. Esta
magnitud se mide en voltios. La Tierra, un conductor de gran tamaño que puede suponerse sustancialmente uniforme a
efectos eléctricos, suele emplearse como nivel de referencia cero para la energía potencial. Así, se dice que el potencial
de un cuerpo cargado positivamente es de tantos voltios por encima del potencial de tierra, y el potencial de un cuerpo
cargado negativamente es de tantos voltios por debajo del potencial de tierra.
Propiedades eléctricas de los sólidos
El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas sustancias
resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o un trapo de lana, tras lo cual
atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones. Una varilla de vidrio frotada con seda tiene una
capacidad similar para atraer objetos no cargados, y atrae los cuerpos cargados negativamente con una fuerza aún
mayor. El vidrio tiene una carga positiva, que puede describirse como un defecto de electrones o un exceso de protones.
Cuando algunos átomos se combinan para formar sólidos, frecuentemente quedan libres uno o más electrones,
que pueden moverse con facilidad a través del material. En algunos materiales, llamados conductores, ciertos electrones
se liberan fácilmente. Los metales, en particular el cobre y la plata, son buenos conductores.
Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como aislantes, no
conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.
Existe un tercer tipo de materiales en los que un número relativamente pequeño de electrones puede liberarse
de sus átomos de forma que dejan un ‘hueco’ en el lugar del electrón. El hueco, que representa la ausencia de un
electrón negativo, se comporta como si fuera una unidad de carga positiva. Un campo eléctrico hace que tanto los
electrones negativos como los huecos positivos se desplacen a través del material, con lo que se produce una corriente
eléctrica. Generalmente, un sólido de este tipo, denominado semiconductor, tiene una resistencia mayor al paso de
corriente que un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la corriente es
transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si la mayoría de la corriente
corresponde a los huecos positivos, se dice que es de tipo p.
Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por su parte, un
aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna sustancia que presente alguno
de estos comportamientos extremos a temperatura ambiente. A esta temperatura, los mejores conductores ofrecen una
resistencia muy baja (pero no nula) al paso de la corriente y los mejores aislantes ofrecen una resistencia alta (pero no
infinita). Sin embargo, la mayoría de los metales pierden toda su resistencia a temperaturas próximas al cero absoluto;
este fenómeno se conoce como superconductividad.
Cargas eléctricas
El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas eléctricas. En la
figura 1 se muestra el instrumento tal como lo utilizó por primera vez el físico y químico británico Michael Faraday. El
electroscopio está compuesto por dos láminas de metal muy finas colgadas de un soporte metálico en el interior de un
recipiente de vidrio u otro material no conductor. Una esfera recoge las cargas eléctricas del cuerpo cargado que se
quiere observar; las cargas, positivas o negativas, pasan a través del soporte metálico y llegan a ambas láminas. Al ser
iguales, las cargas se repelen y las láminas se separan. La distancia entre éstas depende de la cantidad de carga.
Pueden utilizarse tres métodos para cargar eléctricamente un objeto:
1) Contacto con otro objeto de distinto material (como por ejemplo, ámbar y piel) seguido por separación;
-6-
2) Contacto con otro cuerpo cargado;
3) Inducción.
Medidas eléctricas
El flujo de carga, o intensidad de corriente, que recorre un cable conductor se mide por el número de
culombios que pasan en un segundo por una sección determinada del cable. Un culombio por segundo equivale a 1
amperio, unidad de intensidad de corriente eléctrica llamada así en honor al físico francés André Marie Ampère.
Cuando una carga de 1 culombio se desplaza a través de una diferencia de potencial de 1 voltio, el trabajo
realizado equivale a 1 julio, unidad llamada así en honor al físico británico James Prescott Joule. Esta definición facilita
la conversión de cantidades mecánicas en eléctricas.
Una unidad de energía muy usada en física atómica es el electronvoltio (eV). Corresponde a la energía
adquirida por un electrón acelerado por una diferencia de potencial de 1 voltio. Esta unidad es muy pequeña y muchas
veces se multiplica por un millón o mil millones, abreviándose el resultado como 1 MeV o 1 GeV.
Corriente eléctrica
Si dos cuerpos de carga igual y opuesta se conectan por medio de un conductor metálico, por ejemplo un cable,
las cargas se neutralizan mutuamente. Esta neutralización se lleva a cabo mediante un flujo de electrones a través del
conductor, desde el cuerpo cargado negativamente al cargado positivamente (en ingeniería eléctrica, se considera por
convención que la corriente fluye en sentido opuesto, es decir, de la carga positiva a la negativa). En cualquier sistema
continuo de conductores, los electrones fluyen desde el punto de menor potencial hasta el punto de mayor potencial. Un
sistema de esa clase se denomina circuito eléctrico. La corriente que circula por un circuito se denomina corriente
continua (CC) si fluye siempre en el mismo sentido y corriente alterna (CA) si fluye alternativamente en uno u otro
sentido.
El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí. La primera es la
diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (fem), tensión o voltaje. La
segunda es la intensidad de corriente. Esta magnitud se mide en amperios; 1 amperio corresponde al paso de unos
6.250.000.000.000.000.000 electrones por segundo por una sección determinada del circuito. La tercera magnitud
es la resistencia del circuito. Normalmente, todas las sustancias, tanto conductores como aislantes, ofrecen cierta
oposición al flujo de una corriente eléctrica, y esta resistencia limita la corriente. La unidad empleada para cuantificar la
resistencia es el ohmio (Ω), que se define como la resistencia que limita el flujo de corriente a 1 amperio en un circuito
con una fem de 1 voltio. La ley de Ohm, llamada así en honor al físico alemán Georg Simon Ohm, que la descubrió en
1827, permite relacionar la intensidad con la fuerza electromotriz. Se expresa mediante la ecuación e = I × R, donde e
es la fuerza electromotriz en voltios, I es la intensidad en amperios y R es la resistencia en ohmios. A partir de esta
ecuación puede calcularse cualquiera de las tres magnitudes en un circuito dado si se conocen las otras dos.
Cuando una corriente eléctrica fluye por un cable pueden observarse dos efectos importantes: la temperatura
del cable aumenta y un imán o brújula colocada cerca del cable se desvía, apuntando en dirección perpendicular al
cable. Al circular la corriente, los electrones que la componen colisionan con los átomos del conductor y ceden energía,
que aparece en forma de calor. La cantidad de energía desprendida en un circuito eléctrico se mide en julios. La
potencia consumida se mide en vatios; 1 vatio equivale a 1 julio por segundo. La potencia P consumida por un circuito
determinado puede calcularse a partir de la expresión P = e × I, o la que se obtiene al aplicar a ésta la ley de Ohm: P =
I2 × R. También se consume potencia en la producción de trabajo mecánico, en la emisión de radiación
electromagnética como luz u ondas de radio y en la descomposición química.
Electromagnetismo
El movimiento de la aguja de una brújula en las proximidades de un conductor por el que circula una corriente
indica la presencia de un campo magnético alrededor del conductor. Cuando dos conductores paralelos son recorridos
cada uno por una corriente, los conductores se atraen si ambas corrientes fluyen en el mismo sentido y se repelen
cuando fluyen en sentidos opuestos. El campo magnético creado por la corriente que fluye en una espira de alambre es
tal que si se suspende la espira cerca de la Tierra se comporta como un imán o una brújula, y oscila hasta que la espira
forma un ángulo recto con la línea que une los dos polos magnéticos terrestres.
Puede considerarse que el campo magnético en torno a un conductor rectilíneo por el que fluye una corriente se
extiende desde el conductor igual que las ondas creadas cuando se tira una piedra al agua. Las líneas de fuerza del
campo magnético tienen sentido antihorario cuando se observa el conductor en el mismo sentido en que se desplazan
los electrones. El campo en torno al conductor es estacionario mientras la corriente fluya por él de forma uniforme.
Cuando un conductor se mueve de forma que atraviesa las líneas de fuerza de un campo magnético, este campo
actúa sobre los electrones libres del conductor desplazándolos y creando una diferencia de potencial y un flujo de
-7-
corriente en el mismo. Se produce el mismo efecto si el campo magnético es estacionario y el cable se mueve que si el
campo se mueve y el cable permanece estacionario. Cuando una corriente empieza a circular por un conductor, se
genera un campo magnético que parte del conductor. Este campo atraviesa el propio conductor e induce en él una
corriente en sentido opuesto a la corriente que lo causó (según la llamada regla de Lenz). En un cable recto este efecto
es muy pequeño, pero si el cable se arrolla para formar una bobina, el efecto se amplía ya que los campos generados por
cada espira de la bobina cortan las espiras vecinas e inducen también una corriente en ellas. El resultado es que cuando
se conecta una bobina así a una fuente de diferencia de potencial, impide el flujo de corriente cuando empieza a
aplicarse la diferencia de potencial. De forma similar, cuando se elimina la diferencia de potencial, el campo magnético
se desvanece, y las líneas de fuerza vuelven a cortar las espiras de la bobina. La corriente inducida en estas
circunstancias tiene el mismo sentido que la corriente original, y la bobina tiende a mantener el flujo de corriente.
Debido a estas propiedades, una bobina se resiste a los cambios en el flujo de corriente, por lo que se dice que posee
inercia eléctrica o autoinducción. Esta inercia tiene poca importancia en circuitos de corriente continua, ya que no se
observa cuando la corriente fluye de forma continuada, pero es muy importante en los circuitos de corriente alterna
(véase más adelante el apartado Corrientes alternas).
Conducción en líquidos y gases
Cuando fluye una corriente eléctrica por un conductor metálico, el flujo sólo tiene lugar en un sentido, ya que
la corriente es transportada en su totalidad por los electrones. En cambio en los líquidos y gases, se hace posible un flujo
en dos sentidos debido a la ionización. En una solución líquida, los iones positivos se mueven en la disolución de los
puntos de potencial más alto a los puntos de potencial más bajo; los iones negativos se mueven en sentido opuesto. De
forma similar, en los gases —que pueden ser ionizados por radiactividad, por los rayos ultravioletas de la luz solar, por
ondas electromagnéticas o por un campo eléctrico muy intenso— se produce un movimiento de iones en dos sentidos
que produce una corriente eléctrica a través del gas.
Fuentes de fuerza electromotriz
Para producir un flujo de corriente en cualquier circuito eléctrico es necesaria una fuente de fuerza
electromotriz. Las fuentes disponibles son las siguientes:
1) Máquinas electrostáticas, que se basan en el principio de inducir cargas eléctricas por medios mecánicos.
2) Máquinas electromagnéticas, en las que se genera corriente desplazando mecánicamente un conductor a través de un
campo o campos magnéticos.
3) Células voltaicas, que producen una fuerza electromotriz a través de una acción electroquímica.
4) Dispositivos que producen una fuerza electromotriz a través de la acción del calor.
5) Dispositivos que generan una fuerza electromotriz por la acción de la luz.
6) Dispositivos que producen una fuerza electromotriz a partir de una presión física, como los cristales piezoeléctricos.
Corrientes alternas
Cuando se hace oscilar un conductor en un campo magnético, el flujo de corriente en el conductor cambia de
sentido tantas veces como lo hace el movimiento físico del conductor. Varios sistemas de generación de electricidad se
basan en este principio, y producen una forma de corriente oscilante llamada corriente alterna. Esta corriente tiene una
serie de características ventajosas en comparación con la corriente continua, y suele utilizarse como fuente de energía
eléctrica tanto en aplicaciones industriales como en el hogar. La característica práctica más importante de la corriente
alterna es que su voltaje puede cambiarse mediante un sencillo dispositivo electromagnético denominado
transformador. Cuando una corriente alterna pasa por una bobina de alambre, el campo magnético alrededor de la
bobina se intensifica, se anula, se vuelve a intensificar con sentido opuesto y se vuelve a anular. Si se sitúa otra bobina
en el campo magnético de la primera bobina, sin estar directamente conectada a ella, el movimiento del campo
magnético induce una corriente alterna en la segunda bobina. Si esta segunda bobina tiene un número de espiras mayor
que la primera, la tensión inducida en ella será mayor que la tensión de la primera, ya que el campo actúa sobre un
número mayor de conductores individuales. Al contrario, si el número de espiras de la segunda bobina es menor, la
tensión será más baja que la de la primera.
La acción de un transformador hace posible la transmisión rentable de energía eléctrica a lo largo de grandes
distancias. Si se quieren suministrar 200.000 vatios de potencia a una línea eléctrica, puede hacerse con un voltaje de
200.000 voltios y una corriente de 1 amperio o con un voltaje de 2.000 voltios y una corriente de 100 amperios, ya que
la potencia es igual al producto de tensión y corriente. La potencia perdida en la línea por calentamiento es igual al
cuadrado de la intensidad de la corriente multiplicado por la resistencia. Por ejemplo, si la resistencia de la línea es de
10 ohmios, la pérdida de potencia con 200.000 voltios será de 10 vatios, mientras que con 2.000 voltios será de 100.000
vatios, o sea, la mitad de la potencia disponible.
-8-
En un circuito de corriente alterna, el campo magnético en torno a una bobina varía constantemente, y la
bobina obstaculiza continuamente el flujo de corriente en el circuito debido a la autoinducción. La relación entre el
voltaje aplicado a una bobina ideal (es decir, sin resistencia) y la intensidad que fluye por dicha bobina es tal que la
intensidad es nula cuando el voltaje es máximo, y es máxima cuando el voltaje es nulo. Además, el campo magnético
variable induce una diferencia de potencial en la bobina de igual magnitud y sentido opuesto a la diferencia de potencial
aplicada. En la práctica, las bobinas siempre presentan resistencia y capacidad además de autoinducción.
Si en un circuito de corriente alterna se coloca un condensador (también llamado capacitor) la intensidad de
corriente es proporcional al tamaño del condensador y a la velocidad de variación del voltaje en el mismo. Por tanto,
por un condensador cuya capacidad es de 2 faradios pasará el doble de intensidad que por uno de 1 faradio. En un
condensador ideal, el voltaje está totalmente desfasado con la intensidad. Cuando el voltaje es máximo no fluye
intensidad, porque la velocidad de cambio de voltaje es nula. La intensidad es máxima cuando el voltaje es nulo, porque
en ese punto la velocidad de variación del voltaje es máxima. A través de un condensador circula intensidad —aunque
no existe una conexión eléctrica directa entre sus placas— porque el voltaje de una placa induce una carga opuesta en la
otra.
De los efectos indicados se deduce que si se aplica un voltaje alterno a una bobina o condensador ideales, no se
consume potencia. No obstante, en todos los casos prácticos los circuitos de corriente alterna presentan resistencia
además de autoinducción y capacidad, y se consume potencia. Esta potencia consumida depende de la proporción
relativa de las tres magnitudes en el circuito.
Campo eléctrico
Campo eléctrico, región del espacio donde se ponen de manifiesto los fenómenos eléctricos. Se representa por
E y es de naturaleza vectorial. En el Sistema Internacional de unidades el campo eléctrico se mide en newton/culombio
(N/C).
La región del espacio situada en las proximidades de un cuerpo cargado posee unas propiedades especiales. Si
se coloca en cualquier punto de dicha región una carga eléctrica de prueba, se observa que se encuentra sometida a la
acción de una fuerza. Este hecho se expresa diciendo que el cuerpo cargado ha creado un campo eléctrico. La intensidad
de campo eléctrico en un punto se define como la fuerza que actúa sobre la unidad de carga situada en él. Si E es la
intensidad de campo, sobre una carga Q actuará una fuerza
F=Q·E
La dirección del campo eléctrico en cualquier punto viene dada por la de la fuerza que actúa sobre una carga
positiva unidad colocada en dicho punto.
Las líneas de fuerza en un campo eléctrico están trazadas de modo que son, en todos sus puntos, tangentes a la
dirección del campo, y su sentido positivo se considera que es el que partiendo de las cargas positivas termina en las
negativas.
La intensidad de un campo eléctrico creado por varias cargas se obtiene sumando vectorialmente las
intensidades de los campos creados por cada carga de forma individual.
Diferencia de potencial
Diferencia de potencial, también llamada tensión eléctrica, es el trabajo necesario para desplazar una carga
positiva unidad de un punto a otro en el interior de un campo eléctrico; en realidad se habla de diferencia de potencial
entre ambos puntos (VA - VB). La unidad de diferencia de potencial es el voltio (V).
Un generador de corriente eléctrica permite mantener una diferencia de potencial constante y, en consecuencia,
una corriente eléctrica permanente entre los extremos de un conductor. Sin embargo, para una determinada diferencia
de potencial, los distintos conductores difieren entre sí en el valor de la intensidad de corriente obtenida, aunque el
campo eléctrico sea el mismo. Existe una relación de proporcionalidad, dada por la ley de Ohm, entre la diferencia de
potencial entre los extremos de un conductor y la intensidad que lo recorre. La constante de proporcionalidad se
denomina resistencia del conductor y su valor depende de su naturaleza, de sus dimensiones geométricas y de las
condiciones físicas, especialmente de la temperatura.
La diferencia de potencial entre dos puntos de un circuito se mide con un voltímetro, instrumento que se coloca
siempre en derivación entre los puntos del circuito cuya diferencia de potencial se quiere medir.

TEMPERATURA
Temperatura, propiedad de los sistemas que determina si están en equilibrio térmico. El concepto de
temperatura se deriva de la idea de medir el calor o frialdad relativos y de la observación de que el suministro de calor a
un cuerpo conlleva un aumento de su temperatura mientras no se produzca la fusión o ebullición. En el caso de dos
-9-
cuerpos con temperaturas diferentes, el calor fluye del más caliente al más frío hasta que sus temperaturas sean idénticas
y se alcance el equilibrio térmico. Por tanto, los términos de temperatura y calor, aunque relacionados entre sí, se
refieren a conceptos diferentes: la temperatura es una propiedad de un cuerpo y el calor es un flujo de energía entre dos
cuerpos a diferentes temperaturas.
Los cambios de temperatura tienen que medirse a partir de otros cambios en las propiedades de una sustancia.
Por ejemplo, el termómetro de mercurio convencional mide la dilatación de una columna de mercurio en un capilar de
vidrio, ya que el cambio de longitud de la columna está relacionado con el cambio de temperatura. Si se suministra
calor a un gas ideal contenido en un recipiente de volumen constante, la presión aumenta, y el cambio de temperatura
puede determinarse a partir del cambio en la presión según la ley de Gay-Lussac, siempre que la temperatura se exprese
en la escala absoluta.

ESCALAS DE TEMPERATURA
Una de las primeras escalas de temperatura, todavía empleada en los países anglosajones, fue diseñada por el
físico alemán Gabriel Daniel Fahrenheit. Según esta escala, a la presión atmosférica normal, el punto de solidificación
del agua (y de fusión del hielo) es de 32 °F, y su punto de ebullición es de 212 °F. La escala centígrada o Celsius,
ideada por el astrónomo sueco Anders Celsius y utilizada en casi todo el mundo, asigna un valor de 0 °C al punto de
congelación del agua y de 100 °C a su punto de ebullición. En ciencia, la escala más empleada es la escala absoluta o
Kelvin, inventada por el matemático y físico británico William Thomson, lord Kelvin. En esta escala, el cero absoluto,
que está situado en -273,15 °C, corresponde a 0 K, y una diferencia de un kelvin equivale a una diferencia de un grado
en la escala centígrada.
Calor específico
Calor específico, cantidad de calor necesaria para elevar la temperatura de una unidad de masa de una sustancia
en un grado. En el Sistema Internacional de unidades, el calor específico se expresa en julios por kilogramo y kelvin; en
ocasiones también se expresa en calorías por gramo y grado centígrado. El calor específico del agua es una caloría por
gramo y grado centígrado, es decir, hay que suministrar una caloría a un gramo de agua para elevar su temperatura en
un grado centígrado.
De acuerdo con la ley formulada por los químicos franceses Pierre Louis Dulong y Alexis Thérèse Petit, para
la mayoría de los elementos sólidos, el producto de su calor específico por su masa atómica es una cantidad
aproximadamente constante. Si se expande un gas mientras se le suministra calor, hacen falta más calorías para
aumentar su temperatura en un grado, porque parte de la energía suministrada se consume en el trabajo de expansión.
Por eso, el calor específico a presión constante es mayor que el calor específico a volumen constante.
Calor latente
Calor latente, relativo a un cambio de estado, es la energía térmica necesaria para que un kilogramo de una
sustancia cambie de un estado de agregación a otro, suponiendo este cambio realizado de manera reversible a
temperatura y a presión constantes. Se expresa en J·kg-1. El concepto de calor latente fue introducido hacia 1761 por el
químico británico Joseph Black.
Cuando una transferencia de energía térmica tiene lugar en un cuerpo, generalmente se modifica su
temperatura. Sin embargo, la energía térmica también puede dar lugar a un cambio de fase sin que exista variación de la
temperatura del cuerpo. Un cambio de fase, por ejemplo de líquido a gas, requiere que se realice un trabajo en contra de
las fuerzas de atracción que existen entre las moléculas del cuerpo, es decir, hace falta que se suministre una cierta
cantidad de energía a las moléculas para separarlas, aun cuando no se modifique la energía cinética de las mismas y, por
tanto, la temperatura.
En el caso de sustancias puras se requiere una cantidad de energía térmica determinada para cambiar la fase de
una sustancia dada. Esta energía térmica Q es proporcional a la masa m de la sustancia:
Q=m·L
Donde L es el calor latente de cambio de estado y es una constante característica de la sustancia y del cambio de fase
que se trate.

ESTADOS DE LA MATERIA
Estados de la materia, en física clásica, las tres formas que puede tomar la materia: sólido, líquido o gas. El
plasma, un conjunto de partículas gaseosas eléctricamente cargadas, con cantidades aproximadamente iguales de iones
positivos y negativos, se considera a veces un cuarto estado de la materia. Los sólidos se caracterizan por su resistencia
a cualquier cambio de forma, resistencia que se debe a la fuerte atracción entre las moléculas que los constituyen. En
estado líquido, la materia cede a las fuerzas tendentes a cambiar su forma porque sus moléculas pueden moverse

- 10 -
libremente unas respecto de otras. Los líquidos, sin embargo, presentan una atracción molecular suficiente para
resistirse a las fuerzas que tienden a cambiar su volumen. Los gases, en los que las moléculas están muy dispersas y se
mueven libremente, no ofrecen ninguna resistencia a los cambios de forma y muy poca a los cambios de volumen.
Como resultado, un gas no confinado tiende a difundirse indefinidamente, aumentando su volumen y disminuyendo su
densidad.
La mayoría de las sustancias son sólidas a temperaturas bajas, líquidas a temperaturas medias y gaseosas a
temperaturas altas, pero los estados no siempre están claramente diferenciados. La temperatura en la que una sustancia
pasa del estado sólido al líquido se denomina punto de fusión, y la temperatura a la que pasa del estado líquido al
gaseoso punto de ebullición. El rango de temperaturas de los puntos de fusión y ebullición es muy amplio. El helio
permanece en estado gaseoso por encima de -269 ºC y el wolframio, hasta aproximadamente 3.370 ºC, es un sólido.
Ley de los gases ideales
La teoría atómica de la materia define los estados, o fases, de acuerdo al orden que implican. Las moléculas
tienen una cierta libertad de movimientos en el espacio. Estos grados de libertad microscópicos están asociados con el
concepto de orden macroscópico. Las moléculas de un sólido están colocadas en una red, y su libertad está restringida a
pequeñas vibraciones en torno a los puntos de esa red. En cambio, un gas no tiene un orden espacial macroscópico. Sus
moléculas se mueven aleatoriamente, y solo están limitadas por las paredes del recipiente que lo contiene.
Se han desarrollado leyes empíricas que relacionan las variables macroscópicas. En los gases ideales, estas
variables incluyen la presión (p), el volumen (V) y la temperatura (T). La ley de Boyle-Mariotte afirma que el volumen
de un gas a temperatura constante es inversamente proporcional a la presión (P · V = cte) La ley de Charles y Gay-
Lussac afirma que el volumen de un gas a presión constante es directamente proporcional a la temperatura absoluta
(V/T = cte). La combinación de estas dos leyes proporciona la ley de los gases ideales pV = nRT (n es el número de
moles), también llamada ecuación de estado del gas ideal. La constante de la derecha, R, es una constante universal
cuyo descubrimiento fue una piedra angular de la ciencia moderna.
Teoría cinética de los gases
Con la llegada de la teoría atómica de la materia, las leyes empíricas antes mencionadas obtuvieron una base
microscópica. El volumen de un gas refleja simplemente la distribución de posiciones de las moléculas que lo
componen. Más exactamente, la variable macroscópica V representa el espacio disponible para el movimiento de una
molécula. La presión de un gas, que puede medirse con manómetros situados en las paredes del recipiente, registra el
cambio medio de momento lineal que experimentan las moléculas al chocar contra las paredes y rebotar en ellas. La
temperatura del gas es proporcional a la energía cinética media de las moléculas, por lo que depende del cuadrado de su
velocidad. La reducción de las variables macroscópicas a variables mecánicas como la posición, velocidad, momento
lineal o energía cinética de las moléculas, que pueden relacionarse a través de las leyes de la mecánica de Newton,
debería de proporcionar todas las leyes empíricas de los gases. En general, esto resulta ser cierto.
La teoría física que relaciona las propiedades de los gases con la mecánica clásica se denomina teoría cinética
de los gases. Además de proporcionar una base para la ecuación de estado del gas ideal, la teoría cinética también puede
emplearse para predecir muchas otras propiedades de los gases, entre ellas la distribución estadística de las velocidades
moleculares y las propiedades de transporte como la conductividad térmica, el coeficiente de difusión o la viscosidad.
Ecuación de Van der Waals
La ecuación de estado del gas ideal no es del todo correcta: los gases reales no se comportan exactamente así.
En algunos casos, la desviación puede ser muy grande. Por ejemplo, un gas ideal nunca podría convertirse en líquido o
sólido por mucho que se enfriara o comprimiera. Por eso se han propuesto modificaciones de la ley de los gases ideales,
pV = nRT. Una de ellas, muy conocida y particularmente útil, es la ecuación de estado de Van der Waals
(p + a/v2) (v - b) = RT
Donde v = V/n, y a y b son parámetros ajustables determinados a partir de medidas experimentales en gases reales. Son
parámetros de la sustancia y no constantes universales, puesto que sus valores varían de un gas a otro.
La ecuación de Van der Waals también tiene una interpretación microscópica. Las moléculas interaccionan
entre sí. La interacción es muy repulsiva a corta distancia, se hace ligeramente atractiva a distancias intermedias y
desaparece a distancias más grandes. La ley de los gases ideales debe corregirse para considerar las fuerzas atractivas y
repulsivas. Por ejemplo, la repulsión mutua entre moléculas tiene el efecto de excluir a las moléculas vecinas de una
cierta zona alrededor de cada molécula. Así, una parte del espacio total deja de estar disponible para las moléculas en su
movimiento aleatorio. En la ecuación de estado, se hace necesario restar este volumen de exclusión (b) del volumen del
recipiente; de ahí el término (v - b).

- 11 -
Transiciones de fase
A temperaturas bajas (a las que el movimiento molecular se hace menor) y presiones altas o volúmenes
reducidos (que disminuyen el espacio entre las moléculas), las moléculas de un gas pasan a ser influidas por la fuerza de
atracción de las otras moléculas. Bajo determinadas condiciones críticas, todo el sistema entra en un estado ligado de
alta densidad y adquiere una superficie límite. Esto implica la entrada en el estado líquido. El proceso se conoce como
transición de fase o cambio de estado. La ecuación de Van der Waals permite estas transiciones de fase, y también
describe una región de coexistencia entre ambas fases que termina en un punto crítico, por encima del cual no existen
diferencias físicas entre los estados gaseoso y líquido. Estos fenómenos coinciden con las observaciones
experimentales. En la práctica se emplean ecuaciones más complejas que la ecuación de Van der Waals.
La mejor comprensión de las propiedades de los gases a lo largo del último siglo ha llevado a la explotación a
gran escala de los principios de la física, química e ingeniería en aplicaciones industriales y de consumo.

HIDRÁULICA
La hidráulica resuelve problemas como el flujo de fluidos por conductos o canales abiertos y el diseño de
presas de embalse, bombas y turbinas. En otros dispositivos como boquillas, válvulas, surtidores y medidores se
encarga del control y utilización de líquidos.
Las dos aplicaciones más importantes de la hidráulica se centran en el diseño de activadores y prensas. Su
fundamento es el principio de Pascal, que establece que la presión aplicada en un punto de un fluido se transmite con la
misma intensidad a cada punto del mismo. Como la fuerza es igual a la presión multiplicada por la superficie, la fuerza
se amplifica mucho si se aplica a un fluido encerrado entre dos pistones de área diferente. Si, por ejemplo, un pistón
tiene un área de 1 y el otro de 10, al aplicar una fuerza de 1 al pistón pequeño se ejerce una presión de 1, que tendrá
como resultado una fuerza de 10 en el pistón grande. Este fenómeno mecánico se aprovecha en activadores hidráulicos
como los utilizados en los frenos de un automóvil, donde una fuerza relativamente pequeña aplicada al pedal se
multiplica para transmitir una fuerza grande a la zapata del freno. Los alerones de control de los aviones también se
activan con sistemas hidráulicos similares. Los gatos y elevadores hidráulicos se utilizan para levantar vehículos en los
talleres y para elevar cargas pesadas en la industria de la construcción. La prensa hidráulica, inventada por el ingeniero
británico Joseph Bramah en 1796, se utiliza para dar forma, extrusar y marcar metales y para probar materiales
sometidos a grandes presiones.
Mecánica de los fluidos
Hidráulica, aplicación de la mecánica de fluidos en ingeniería, para construir dispositivos que funcionan con
líquidos, por lo general agua o aceite.
Introducción
Mecánica de fluidos, parte de la física que se ocupa de la acción de los fluidos en reposo o en movimiento, así
como de las aplicaciones y mecanismos de ingeniería que utilizan fluidos. La mecánica de fluidos es fundamental en
campos tan diversos como la aeronáutica, la ingeniería química, civil e industrial, la meteorología, las construcciones
navales y la oceanografía.
La mecánica de fluidos puede subdividirse en dos campos principales: la estática de fluidos, o hidrostática, que
se ocupa de los fluidos en reposo, y la dinámica de fluidos, que trata de los fluidos en movimiento. El término de
hidrodinámica se aplica al flujo de líquidos o al flujo de los gases a baja velocidad, en el que puede considerarse que el
gas es esencialmente incompresible. La aerodinámica, o dinámica de gases, se ocupa del comportamiento de los gases
cuando los cambios de velocidad y presión son lo suficientemente grandes para que sea necesario incluir los efectos de
la compresibilidad.
Entre las aplicaciones de la mecánica de fluidos están la propulsión a chorro, las turbinas, los compresores y las
bombas. La hidráulica estudia la utilización en ingeniería de la presión del agua o del aceite.
Hidrostática
Una característica fundamental de cualquier fluido en reposo es que la fuerza ejercida sobre cualquier partícula
del fluido es la misma en todas direcciones. Si las fuerzas fueran desiguales, la partícula se desplazaría en la dirección
de la fuerza resultante. De ello se deduce que la fuerza por unidad de superficie —la presión— que el fluido ejerce
contra las paredes del recipiente que lo contiene, sea cual sea su forma, es perpendicular a la pared en cada punto. Si la
presión no fuera perpendicular, la fuerza tendría una componente tangencial no equilibrada y el fluido se movería a lo
largo de la pared.
Este concepto fue formulado por primera vez en una forma un poco más amplia por el matemático y filósofo
francés Blaise Pascal en 1647, y se conoce como principio de Pascal. Dicho principio, que tiene aplicaciones muy

- 12 -
importantes en hidráulica, afirma que la presión aplicada sobre un fluido contenido en un recipiente se transmite por
igual en todas direcciones y a todas las partes del recipiente, siempre que se puedan despreciar las diferencias de presión
debidas al peso del fluido y a la profundidad.
Cuando la gravedad es la única fuerza que actúa sobre un líquido contenido en un recipiente abierto, la presión
en cualquier punto del líquido es directamente proporcional al peso de la columna vertical de dicho líquido situada
sobre ese punto. La presión es a su vez proporcional a la profundidad del punto con respecto a la superficie, y es
independiente del tamaño o forma del recipiente. Así, la presión en el fondo de una tubería vertical llena de agua de 1
cm de diámetro y 15 m de altura es la misma que en el fondo de un lago de 15 m de profundidad. De igual forma, si una
tubería de 30 m de longitud se llena de agua y se inclina de modo que la parte superior esté sólo a 15 m en vertical por
encima del fondo, el agua ejercerá la misma presión sobre el fondo que en los casos anteriores, aunque la distancia a lo
largo de la tubería sea mucho mayor que la altura de la tubería vertical. Veamos otro ejemplo: la masa de una columna
de agua dulce de 30 cm de altura y una sección transversal de 6,5 cm2 es de 195 g, y la fuerza ejercida en el fondo será
el peso correspondiente a esa masa. Una columna de la misma altura pero con un diámetro 12 veces superior tendrá un
volumen 144 veces mayor, y pesará 144 veces más, pero la presión, que es la fuerza por unidad de superficie, seguirá
siendo la misma, puesto que la superficie también será 144 veces mayor. La presión en el fondo de una columna de
mercurio de la misma altura será 13,6 veces superior, ya que el mercurio tiene una densidad 13,6 veces superior a la del
agua
El segundo principio importante de la estática de fluidos fue descubierto por el matemático y filósofo griego
Arquímedes. El principio de Arquímedes afirma que todo cuerpo sumergido en un fluido experimenta una fuerza hacia
arriba igual al peso del volumen de fluido desplazado por dicho cuerpo. Esto explica por qué flota un barco muy
cargado; el peso del agua desplazada por el barco equivale a la fuerza hacia arriba que mantiene el barco a flote.
El punto sobre el que puede considerarse que actúan todas las fuerzas que producen el efecto de flotación se
llama centro de flotación, y corresponde al centro de gravedad del fluido desplazado. El centro de flotación de un
cuerpo que flota está situado exactamente encima de su centro de gravedad. Cuanto mayor sea la distancia entre ambos,
mayor es la estabilidad del cuerpo.
El principio de Arquímedes permite determinar la densidad de un objeto cuya forma es tan irregular que su
volumen no puede medirse directamente. Si el objeto se pesa primero en el aire y luego en el agua, la diferencia de peso
será igual al peso del volumen de agua desplazado, y este volumen es igual al volumen del objeto, si éste está
totalmente sumergido. Así puede determinarse fácilmente la densidad del objeto (masa dividida por volumen). Si se
requiere una precisión muy elevada, también hay que tener en cuenta el peso del aire desplazado para obtener el
volumen y la densidad correctos.
Hidrodinámica
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son
enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la hidrostática, sólo
podemos tratar aquí algunos conceptos básicos.
El interés por la dinámica de fluidos se remonta a las aplicaciones más antiguas de los fluidos en ingeniería.
Arquímedes realizó una de las primeras contribuciones con la invención, que se le atribuye tradicionalmente, del
tornillo sin fin. La acción impulsora del tornillo de Arquímedes es similar a la de la pieza semejante a un sacacorchos
que tienen las picadoras de carne manuales. Los romanos desarrollaron otras máquinas y mecanismos hidráulicos; no
sólo empleaban el tornillo de Arquímedes para bombear agua en agricultura y minería, sino que también construyeron
extensos sistemas de acueductos, algunos de los cuales todavía funcionan. En el siglo I a.C., el arquitecto e ingeniero
romano Vitrubio inventó la rueda hidráulica horizontal, con lo que revolucionó la técnica de moler grano.
A pesar de estas tempranas aplicaciones de la dinámica de fluidos, apenas se comprendía la teoría básica, por
lo que su desarrollo se vio frenado. Después de Arquímedes pasaron más de 1.800 años antes de que se produjera el
siguiente avance científico significativo, debido al matemático y físico italiano Evangelista Torricelli, que inventó el
barómetro en 1643 y formuló el teorema de Torricelli, que relaciona la velocidad de salida de un líquido a través de un
orificio de un recipiente, con la altura del líquido situado por encima de dicho agujero. El siguiente gran avance en el
desarrollo de la mecánica de fluidos tuvo que esperar a la formulación de las leyes del movimiento por el matemático y
físico inglés Isaac Newton. Estas leyes fueron aplicadas por primera vez a los fluidos por el matemático suizo Leonhard
Euler, quien dedujo las ecuaciones básicas para un fluido sin rozamiento (no viscoso).
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de forma
relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden despreciar los efectos
del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso de los fluidos reales en movimiento, los
resultados de dicho análisis sólo pueden servir como estimación para flujos en los que los efectos de la viscosidad son
pequeños.

- 13 -
Flujos incompresibles y sin rozamiento
Estos flujos cumplen el llamado teorema de Bernoulli, enunciado por el matemático y científico suizo Daniel
Bernoulli. El teorema afirma que la energía mecánica total de un flujo incompresible y no viscoso (sin rozamiento) es
constante a lo largo de una línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son
paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las
partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la
velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante
para la medida de flujos, y también puede emplearse para predecir la fuerza de sustentación de un ala en vuelo.
Flujos viscosos: Movimiento laminar y turbulento
Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a través
de tuberías fueron realizados independientemente en 1839 por el fisiólogo francés Jean Louis Marie Poiseuille. El
teorema de Bernoulli no se puede aplicar aquí, porque parte de la energía mecánica total se disipa como consecuencia
del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la tubería. Las ecuaciones sugieren que, dados
una tubería y un fluido determinados, esta caída de presión debería ser proporcional a la velocidad de flujo. Los
experimentos realizados por primera vez a mediados del siglo XIX demostraron que esto sólo era cierto para
velocidades bajas; para velocidades mayores, la caída de presión era más bien proporcional al cuadrado de la velocidad.
Este problema no se resolvió hasta 1883, cuando se demostró la existencia de dos tipos de flujo viscoso en tuberías. A
velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados experimentales
coinciden con las predicciones analíticas. A velocidades más elevadas, surgen fluctuaciones en la velocidad del flujo, o
remolinos (flujo turbulento), en una forma que ni siquiera en la actualidad se puede predecir completamente. También
se determinó que la transición del flujo laminar al turbulento era función de un único parámetro, que desde entonces se
conoce como número de Reynolds. Si el número de Reynolds —que carece de dimensiones y es el producto de la
velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido— es menor de 2.100,
el flujo a través de la tubería es siempre laminar; cuando los valores son más elevados suele ser turbulento. El concepto
de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su
análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la investigación
moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede observarse la
transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende
en aire muy tranquilo. Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de
cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados.
Flujos de la capa límite
La complejidad de los flujos viscosos, y en particular de los flujos turbulentos, restringió en gran medida los
avances en la dinámica de fluidos hasta que ingenieros alemanes observaron en 1904 que muchos flujos pueden
separarse en dos regiones principales. La región próxima a la superficie está formada por una delgada capa límite donde
se concentran los efectos viscosos y en la que puede simplificarse mucho el modelo matemático. Fuera de esta capa
límite, se pueden despreciar los efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas
para flujos no viscosos. La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones
modernos y del diseño de turbinas de gas y compresores.
Flujos compresibles
El interés por los flujos compresibles comenzó con el desarrollo de las turbinas de vapor. En esos mecanismos
se descubrió por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas
llevó a una mejora del análisis de los flujos compresibles. Pero los avances modernos tuvieron que esperar al estímulo
que supuso el desarrollo de la turbina de combustión y la propulsión a chorro en la década de 1930. El interés por los
flujos de alta velocidad sobre superficies surgió de forma temprana en los estudios de balística, donde se necesitaba
comprender el movimiento de los proyectiles. Los avances más importantes comenzaron hacia el final del siglo XIX y
crecieron con la introducción de los aviones de alta velocidad y los cohetes en la II Guerra Mundial.
Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas se ve
sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también cambia, lo que lleva a
problemas de análisis más complejos. El comportamiento de flujo de un gas compresible depende de si la velocidad de
flujo es mayor o menor que la velocidad del sonido. El sonido es la propagación de una pequeña perturbación, u onda
de presión, dentro de un fluido.

- 14 -
Cavitación
La cavitación es un fenómeno que se produce siempre que la presión en algún punto o zona de la corriente de
un líquido desciende por debajo de un cierto valor mínimo admisible. El fenómeno puede producirse lo mismo en
estructuras hidráulicas estáticas (tuberías, Venturis, etc.), Que en máquinas hidráulicas (bombas, hélices, turbinas). Por
los efectos destructivos que en las estructuras y máquinas hidráulicas mal proyectadas o mal instaladas produce la
cavitación es preciso estudiar este fenómeno, para conocer sus causas y controlarlo. (Los constructores de bombas
hidráulicas, por ejemplo, reciben con frecuencia reclamaciones y encargos de reposición.
Cuando un líquido fluye a través de una región donde la presión es menor que su presión de vapor, él liquido
hierve y forma burbujas de vapor. Estas burbujas son transportadas por el líquido hasta llegar a una región de mayor
presión, donde el vapor regresa al estado líquido de manera súbita, implotando bruscamente las burbujas. Este
fenómeno se llama cavitación. Si las burbujas de vapor se encuentran cerca o en contacto con una pared sólida cuando
cambian de estado, las fuerzas ejercidas por el líquido al aplastar la cavidad dejada por el vapor dan lugar a presiones
localizadas muy alto, ocasionando picaduras sobre la superficie sólida. El fenómeno generalmente va acompañado de
ruido y vibraciones, dando la impresión de que se tratara de grava que golpea con diferentes partes de la máquina.
Según se ha dicho, cuando, la corriente de un punto de una estructura o de una máquina alcanza una presión
inferior a la presión de saturación de vapor, el líquido se evapora y se originan en el interior del líquido “cavidades” de
vapor, de ahí el nombre de cavitación. En el interior del fluido existen, pues, zonas en que reina un gradiente fuerte de
presiones que aceleran las burbujas y producen un impacto en el contorno (Venturis, bombas, turbinas, etc.).
El fenómeno de la cavitación se explica con el mecanismo siguiente: si la presión en un líquido como el agua
baja suficientemente, empieza a hervir a temperatura ambiente. Consideremos un cilindro lleno de agua y tapado con un
pistón en contacto con el agua. Si se mueve el pistón en dirección fuera del agua, se reduce la presión y el agua se
evapora formando burbujas de vapor, si ahora bajamos el pistón hacia el agua la presión aumenta, el vapor se condensa
y la burbuja se destruye (colapso de la burbuja).
Cuando se repite este proceso con alta velocidad como por ejemplo -en el interior de una bomba de agua, se
forman y se destruyen las burbujas rápidamente. Se demostró con cálculos que una burbuja en colapso rápido produce
ondas de choque con presiones hasta de 410 MPa. Estas fuerzas ya son capaces de deformar varios metales hasta la
zona plástica, lo que está comprobado por la presencia de bandas de deslizamiento sobre partes de bombas o de otro
equipo sujeto a cavitación.
El incremento de la velocidad va acompañado de un descenso en la presión. Por ejemplo, la velocidad del aire
sobre la parte superior del ala de un aeroplano es, en promedio, más rápida que la que pasa por debajo de la misma ala.
Entonces, la fuerza de presión neta es mayor en la parte inferior del ala que en la parte superior de esta (el ala genera
sustentación).
Si la diferencia de velocidad es considerable, las diferencias de presión pueden también serlo. Para flujos de
líquidos, esto podría resultar con problemas de cavitación, una situación potencialmente peligrosa que resulta cuando la
presión del líquido se reduce hasta la presión de saturación del vapor y entonces este hierve.
La presión de saturación del vapor es la presión a la cual comienzan a formarse burbujas de vapor en el líquido.
Obviamente esta presión depende del tipo de líquido y de la temperatura.
Una manera de producir cavitación es denotada en la ecuación de Bernoulli. Si la velocidad del fluido se
incrementa (por ejemplo en una reducción de área), la presión descendería. Este descenso de presión al acelerar el
líquido podría ser menor que la presión de saturación de vapor de dicho fluido.
En algunas situaciones la ebullición ocurre (cuando la temperatura no necesariamente es muy alta), formando
burbujas de vapor, entonces estas se colapsan cuando el fluido las arrastra a una zona de mayor presión (con una
velocidad menor). Este proceso puede introducir efectos dinámicos (implosión), si la burbuja se colapsa cerca de una
pared de un dispositivo hidráulico esta podría, luego de un periodo de tiempo, causar daños en este por cavitación.
Daño por cavitación
El daño por cavitación es una forma especial de corrosión-erosión debido a la formación y al colapso de
burbujas de vapor en un líquido cerca de una superficie metálica, que ocurre en turbinas hidráulicas, hélices de barcos,
impulsores de, bombas y otras superficies sobre las cuales se encuentran líquidos de alta velocidad con cambios de
presión.
Un daño por cavitación tiene un aspecto semejante a picaduras por corrosión, pero las zonas dañadas son más
compactas y la superficie es más irregular en el caso de la cavitación. El daño por cavitación se atribuye parcialmente a
efectos de desgaste mecánico. La corrosión interviene cuando el colapso de la burbuja destruye la película protectora,
como se muestra esquemáticamente en la siguiente figura, con los pasos siguientes:
- 15 -
1. Se forma una burbuja de cavilación sobre la película protectora.
2. El colapso de la burbuja causa la destrucción local de la película.
3. La superficie no protegida del metal está expuesta al medio corrosivo y se forma una nueva película por medio de
una reacción de corrosión.
4. Se forma una nueva burbuja en el mismo lugar, debido al aumento de poder nucleante de la superficie irregular.
5. El colapso de la nueva burbuja destruye otra vez la película.
6. La película se forma de nuevo y el proceso se repite indefinidamente hasta formar huecos bastante profundos.
El mecanismo anterior también funciona sin la presencia de una película protectora, ya que la implosión de la
burbuja ya es suficiente para deformar el metal plásticamente y arrancarle pedazos de material. Se acepta generalmente
que la cavitación es un fenómeno de corrosión-erosión.
Para caracterizar la susceptibilidad de un sistema que maneja un líquido a la cavitación, se utiliza el parámetro
de cavitación, definido por

Donde p es la presión absoluta en el punto de interés, pv la presión de vapor del líquido, p la densidad del líquido y v
una velocidad de referencia. Obsérvese que el parámetro de cavitación es una especie de coeficiente de presión.

SISTEMA INTERNACIONAL DE UNIDADES


Sistema Internacional de unidades, nombre adoptado por la XI Conferencia General de Pesas y Medidas
(celebrada en París en 1960) para un sistema universal, unificado y coherente de unidades de medida, basado en el
sistema mks (metro-kilogramo-segundo). Este sistema se conoce como SI, iniciales de Sistema Internacional. En la
Conferencia de 1960 se definieron los patrones para seis unidades básicas o fundamentales y dos unidades
suplementarias (radián y estereorradián); en 1971 se añadió una séptima unidad fundamental, el mol. Las dos unidades
suplementarias se suprimieron como una clase independiente dentro del Sistema Internacional en la XX Conferencia
General de Pesas y Medidas (1995); estas dos unidades quedaron incorporadas al SI como unidades derivadas sin
dimensiones.
Longitud
El metro tiene su origen en el sistema métrico decimal. Por acuerdo internacional, el metro patrón se había
definido como la distancia entre dos rayas finas sobre una barra hecha de una aleación de platino e iridio y conservada
en París. La conferencia de 1960 redefinió el metro como 1.650.763,73 longitudes de onda de la luz anaranjada-rojiza
emitida por el isótopo criptón 86. El metro volvió a redefinirse en 1983 como la longitud recorrida por la luz en el vacío
en un intervalo de tiempo de 1/299.792.458 de segundo.
Masa
Cuando se creó el sistema métrico decimal el kilogramo se definió como la masa de 1 decímetro cúbico de
agua pura a la temperatura en que alcanza su máxima densidad (4,0 °C). Se fabricó un cilindro de platino que tuviera la
misma masa que dicho volumen de agua en las condiciones especificadas. Después se descubrió que no podía
conseguirse una cantidad de agua tan pura ni tan estable como se requería. Por eso el patrón primario de masa pasó a ser
el cilindro de platino, que en 1889 fue sustituido por un cilindro de platino-iridio de masa similar. En el SI el kilogramo
se sigue definiendo como la masa del cilindro de platino-iridio conservado en París.
Tiempo
Durante siglos el tiempo se ha venido midiendo en todo el mundo a partir de la rotación de la Tierra. El
segundo, la unidad de tiempo, se definió en un principio como 1/86.400 del día solar medio, que es el tiempo de una
rotación completa de la Tierra sobre su eje en relación al Sol. Sin embargo, los científicos descubrieron que la rotación
de la Tierra no era lo suficientemente constante para servir como base del patrón de tiempo. Por ello, en 1967 se
redefinió el segundo a partir de la frecuencia de resonancia del átomo de cesio, es decir, la frecuencia en que dicho
átomo absorbe energía. Ésta es igual a 9.192.631.770 Hz (hercios, o ciclos por segundo). El segundo es la duración de
9.192.631.770 periodos de la radiación correspondiente a la transición entre los dos niveles energéticos hiperfinos del
estado fundamental del átomo de cesio 133.
- 16 -
Temperatura
La escala de temperaturas adoptada por la Conferencia de 1960 se basó en una temperatura fija, la del punto
triple del agua. El punto triple de una sustancia corresponde a la temperatura y presión a las que sus formas sólida,
líquida y gaseosa están en equilibrio. Se asignó un valor de 273,16 K a la temperatura del punto triple del agua,
mientras que el punto de congelación del agua a presión normal se tomó como 273,15 K, que equivalen exactamente a 0
°C en la escala de temperaturas de Celsius. La escala Celsius, o centígrada, toma su nombre del astrónomo sueco del
siglo XVIII Anders Celsius, el primero en proponer la utilización de una escala en la que se dividiera en 100 grados el
intervalo entre los puntos de congelación y ebullición del agua. Por acuerdo internacional la denominación grado
Celsius ha sustituido oficialmente a la de grado centígrado.
Presión
Presión, en mecánica, fuerza por unidad de superficie que ejerce un líquido o un gas perpendicularmente a
dicha superficie. La presión suele medirse en atmósferas (atm); en el Sistema Internacional de unidades (SI), la presión
se expresa en newton por metro cuadrado; un newton por metro cuadrado es un pascal (Pa). La atmósfera se define
como 101.325 Pa, y equivale a 760 mm de mercurio en un barómetro convencional.
Otras unidades
En el SI el amperio se define como la intensidad de una corriente eléctrica constante que, al fluir por dos
conductores paralelos de longitud infinita situados en el vacío y separados entre sí 1 metro, produciría entre ambos
conductores una fuerza por unidad de longitud de 2 · 10-7 newton por metro.
En 1971 se definió el mol como la cantidad de sustancia existente en un sistema que contiene tantas entidades
elementales —que pueden ser moléculas, átomos, iones y otras— como átomos hay en 0,012 kilogramos de carbono 12.
Esta cifra, conocida como número de Avogadro, es aproximadamente 6,022 · 1023.
La unidad internacional de intensidad luminosa, la candela, se definió en 1948 como 1/60 de la luz radiada por
un centímetro cuadrado de un cuerpo negro —un emisor perfecto de radiación— a la temperatura de solidificación
normal del platino. En 1979, la Conferencia Internacional de Pesas y Medidas modificó esa definición: “La candela es
la intensidad luminosa, en una dirección dada, de una fuente que emite una radiación monocromática de frecuencia
540·1012 Hz y cuya intensidad energética en esa dirección es 1/683 vatios por estereorradián (W/sr)”.

PARTÍCULAS ELEMENTALES
Durante mucho tiempo, los físicos han buscado una teoría para poner orden en el confuso mundo de las
partículas. En la actualidad, las partículas se agrupan según la fuerza que domina sus interacciones. Todas las partículas
se ven afectadas por la gravedad, que sin embargo es extremadamente débil a escala subatómica. Los hadrones están
sometidos a la fuerza nuclear fuerte y al electromagnetismo; además del neutrón y el protón, incluyen los hiperones y
mesones. Los leptones “sienten” la fuerza electromagnética y nuclear débil; incluyen el tau, el muón, el electrón y los
neutrinos. Los bosones (una especie de partículas asociadas con las interacciones) incluyen el fotón, que “transmite” la
fuerza electromagnética, las partículas W y Z, portadoras de la fuerza nuclear débil, y el hipotético portador de la
gravitación (gravitón). La fuerza nuclear débil aparece en procesos radiactivos o de desintegración de partículas, como
la desintegración alfa (la liberación de un núcleo de helio por parte de un núcleo atómico inestable). Además, los
estudios con aceleradores han determinado que por cada partícula existe una antipartícula con la misma masa, cuya
carga u otra propiedad electromagnética tiene signo opuesto a la de la partícula correspondiente. En 1963, los físicos
estadounidenses Murray Gell-Mann y George Zweig propusieron la teoría de que los hadrones son en realidad
combinaciones de otras partículas elementales llamadas quarks, cuyas interacciones son transmitidas por gluones, una
especie de partículas. Ésta es la teoría subyacente de las investigaciones actuales, y ha servido para predecir la
existencia de otras partículas.

ATOMO
Átomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra
“átomo” se empleaba para referirse a la parte de materia más pequeña que podía concebirse. Esa “partícula
fundamental”, por emplear el término moderno para ese concepto, se consideraba indestructible. De hecho, átomo
significa en griego “no divisible”. A lo largo de los siglos, el tamaño y la naturaleza del átomo sólo fueron objeto de
especulaciones, por lo que su conocimiento avanzó muy lentamente. Con la llegada de la ciencia experimental en los
siglos XVI y XVII, los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto
de que todos los líquidos, gases y sólidos se pueden descomponer en sus constituyentes últimos, o elementos. Por
ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión
íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

- 17 -
Características del átomo
La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo periodo en el
que la falta de instrumentos y técnicas apropiadas impidió obtener respuestas satisfactorias. Posteriormente se diseñaron
numerosos experimentos ingeniosos para determinar el tamaño y masa de los diferentes átomos. El átomo más ligero, el
de hidrógeno, tiene un diámetro de aproximadamente 10-10 m (0,0000000001 m) y una masa alrededor de 1,7 · 10-27 kg
(la fracción de un kilogramo representada por 17 precedido de 26 ceros y una coma decimal). Un átomo es tan pequeño
que una sola gota de agua contiene más de mil trillones de átomos.
De la ley de Avogadro se desprende que las masas de un volumen patrón de diferentes gases (es decir, sus
densidades) son proporcionales a la masa de cada molécula individual de gas. Si se toma el carbono como patrón y se le
asigna al átomo de carbono un valor de 12,0000 unidades de masa atómica (u), resulta que el hidrógeno tiene una masa
atómica de 1,0079 u, el helio de 4,0026, el flúor de 18,9984 y el sodio de 22,9898. En ocasiones se habla de “peso
atómico” aunque lo correcto es “masa atómica”. La masa es una propiedad del cuerpo, mientras que el peso es la fuerza
ejercida sobre el cuerpo a causa de la gravedad.
La observación de que muchas masas atómicas se aproximan a números enteros llevó al químico británico
William Prout a sugerir, en 1816, que todos los elementos podrían estar compuestos por átomos de hidrógeno. No
obstante, medidas posteriores de las masas atómicas demostraron que el cloro, por ejemplo, tiene una masa atómica de
35,453 (si se asigna al carbono el valor 12). El descubrimiento de estas masas atómicas fraccionarias pareció invalidar
la hipótesis de Prout hasta un siglo después, cuando se descubrió que generalmente los átomos de un elemento dado no
tienen todos la misma masa. Los átomos de un mismo elemento con diferente masa se conocen como isótopos. En el
caso del cloro, existen dos isótopos en la naturaleza. Los átomos de uno de ellos (cloro 35) tienen una masa atómica
cercana a 35, mientras que los del otro (cloro 37) tienen una masa atómica próxima a 37. Los experimentos demuestran
que el cloro es una mezcla de tres partes de cloro 35 por cada parte de cloro 37. Esta proporción explica la masa
atómica observada en el cloro.
Durante la primera mitad del siglo XX era corriente utilizar el oxígeno natural como patrón para expresar las
masas atómicas, asignándole una masa atómica entera de 16. A principios de la década de 1960, las asociaciones
internacionales de química y física acordaron un nuevo patrón y asignaron una masa atómica exactamente igual a 12 a
un isótopo de carbono abundante, el carbono 12. Este nuevo patrón es especialmente apropiado porque el carbono 12 se
emplea con frecuencia como patrón de referencia para calcular masas atómicas mediante el espectrómetro de masas.
Además, la tabla de masas atómicas basada en el carbono 12 se aproxima bastante a la tabla antigua basada en el
oxígeno natural.
El átomo de Rutherford
El descubrimiento de la naturaleza de las emisiones radiactivas permitió a los físicos profundizar en el átomo,
que según se vio consistía principalmente en espacio vacío. En el centro de ese espacio se encuentra el núcleo, que sólo
mide, aproximadamente, una diezmilésima parte del diámetro del átomo. Rutherford dedujo que la masa del átomo está
concentrada en su núcleo. También postuló que los electrones, de los que ya se sabía que formaban parte del átomo, se
movían en órbitas alrededor del núcleo. El núcleo tiene una carga eléctrica positiva; los electrones tienen carga
negativa. La suma de las cargas de los electrones es igual en magnitud a la carga del núcleo, por lo que el estado
eléctrico normal del átomo es neutro.
El átomo de Bohr
Para explicar la estructura del átomo, el físico danés Niels Bohr desarrolló en 1913 una hipótesis conocida
como teoría atómica de Bohr. Bohr supuso que los electrones están dispuestos en capas definidas, o niveles cuánticos, a
una distancia considerable del núcleo. La disposición de los electrones se denomina configuración electrónica. El
número de electrones es igual al número atómico del átomo: el hidrógeno tiene un único electrón orbital, el helio dos y
el uranio 92. Las capas electrónicas se superponen de forma regular hasta un máximo de siete, y cada una de ellas puede
albergar un determinado número de electrones. La primera capa está completa cuando contiene dos electrones, en la
segunda caben un máximo de ocho, y las capas sucesivas pueden contener cantidades cada vez mayores. Ningún átomo
existente en la naturaleza tiene la séptima capa llena. Los “últimos” electrones, los más externos o los últimos en
añadirse a la estructura atómica, determinan el comportamiento químico del átomo.
Todos los gases inertes o nobles (helio, neón, argón, criptón, xenón y radón) tienen llena su capa electrónica
externa. No se combinan químicamente en la naturaleza, aunque los más pesados (argón, criptón, xenón y radón)
pueden formar compuestos químicos en el laboratorio. Por otra parte, las capas exteriores de los elementos como litio,
sodio o potasio sólo contienen un electrón. Estos elementos se combinan con facilidad con otros elementos
(transfiriéndoles su electrón más externo) para formar numerosos compuestos químicos. De forma equivalente, a los
elementos como el flúor, el cloro o el bromo sólo les falta un electrón para que su capa exterior esté completa. También
se combinan con facilidad con otros elementos de los que obtienen electrones.
- 18 -
Las capas atómicas no se llenan necesariamente de electrones de forma consecutiva. Los electrones de los
primeros 18 elementos de la tabla periódica se añaden de forma regular, llenando cada capa al máximo antes de iniciar
una nueva capa. A partir del elemento decimonoveno, el electrón más externo comienza una nueva capa antes de que se
llene por completo la capa anterior. No obstante, se sigue manteniendo una regularidad, ya que los electrones llenan las
capas sucesivas con una alternancia que se repite. El resultado es la repetición regular de las propiedades químicas de
los átomos, que se corresponde con el orden de los elementos en la tabla periódica.
Resulta cómodo visualizar los electrones que se desplazan alrededor del núcleo como si fueran planetas que
giran en torno al Sol. No obstante, esta visión es mucho más sencilla que la que se mantiene actualmente. Ahora se sabe
que es imposible determinar exactamente la posición de un electrón en el átomo sin perturbar su posición. Esta
incertidumbre se expresa atribuyendo al átomo una forma de nube en la que la posición de un electrón se define según
la probabilidad de encontrarlo a una distancia determinada del núcleo. Esta visión del átomo como “nube de
probabilidad” ha sustituido al modelo planetario.

TEORÍA DE DALTON
El profesor y químico británico John Dalton estaba fascinado por el “rompecabezas” de los elementos. A
principios del siglo XIX estudió la forma en que los diversos elementos se combinan entre sí para formar compuestos
químicos. Aunque muchos otros científicos, empezando por los antiguos griegos, habían afirmado ya que las unidades
más pequeñas de una sustancia eran los átomos, se considera a Dalton una de las figuras más significativas de la teoría
atómica porque la convirtió en algo cuantitativo. Mostró que los átomos se unían entre sí en proporciones definidas. Las
investigaciones demostraron que los átomos suelen formar grupos llamados moléculas. Cada molécula de agua, por
ejemplo, está formada por un único átomo de oxígeno (O) y dos átomos de hidrógeno (H) unidos por una fuerza
eléctrica denominada enlace químico, por lo que el agua se simboliza como HOH o H 2 O.
Todos los átomos de un determinado elemento tienen las mismas propiedades químicas. Por tanto, desde un
punto de vista químico, el átomo es la entidad más pequeña que hay que considerar. Las propiedades químicas de los
elementos son muy distintas entre sí; sus átomos se combinan de formas muy variadas para formar numerosísimos
compuestos químicos diferentes. Algunos elementos, como los gases nobles helio y neón, son inertes, es decir, no
reaccionan con otros elementos salvo en condiciones especiales. Al contrario que el oxígeno, cuyas moléculas son
diatómicas (formadas por dos átomos), el helio y otros gases inertes son elementos monoatómicos, con un único átomo
por molécula.

LEY DE AVOGADRO
El estudio de los gases atrajo la atención del físico italiano Amedeo Avogadro, que en 1811 formuló una
importante ley que lleva su nombre. Esta ley afirma que dos volúmenes iguales de gases diferentes contienen el mismo
número de moléculas si sus condiciones de temperatura y presión son las mismas. Si se dan esas condiciones, dos
botellas idénticas, una llena de oxígeno y otra de helio, contendrán exactamente el mismo número de moléculas. Sin
embargo, el número de átomos de oxígeno será dos veces mayor puesto que el oxígeno es diatómico.

LA TABLA PERIÓDICA
A mediados del siglo XIX, varios químicos se dieron cuenta de que las similitudes en las propiedades químicas
de diferentes elementos suponían una regularidad que se podía ilustrar ordenándolos de forma tabular o periódica. El
químico ruso Dmitri Mendeléiev propuso una tabla de elementos llamada tabla periódica, en la que los elementos están
ordenados en filas y columnas de forma que quedan agrupados los que tienen propiedades químicas similares. Según
este orden, a cada elemento se le asigna un número (número atómico) de acuerdo con su posición en la tabla, que va
desde el 1 para el hidrógeno hasta el 92 para el uranio, que tiene el átomo más pesado de todos los elementos que
existen de forma natural en nuestro planeta. Como en la época de Mendeléiev no se conocían todos los elementos, se
dejaron espacios en blanco en la tabla periódica correspondientes a elementos que faltaban. Las investigaciones
posteriores, facilitadas por el orden que los elementos conocidos ocupaban en la tabla, llevaron al descubrimiento de los
elementos restantes. Los elementos con mayor número atómico tienen masas atómicas mayores, y la masa atómica de
cada isótopo se aproxima a un número entero, de acuerdo con la hipótesis de Prout.

RADIACTIVIDAD
Una serie de descubrimientos importantes realizados hacia finales del siglo XIX dejó claro que el átomo no era
una partícula sólida de materia e indivisible. En 1895, el científico alemán Wilhelm Conrad Roentgen anunció el
descubrimiento de los rayos X, que pueden atravesar láminas finas de plomo. En 1897, el físico inglés Joseph J.
Thomson descubrió el electrón, una partícula con una masa muy inferior a la de cualquier átomo. Y, en 1896, el físico
francés Antoine Henri Becquerel comprobó que determinadas sustancias, como las sales de uranio, generaban rayos
penetrantes de origen misterioso. El matrimonio de científicos franceses formado por Marie y Pierre Curie aportó una
contribución adicional a la comprensión de esas sustancias “radiactivas”. Como resultado de las investigaciones del
- 19 -
físico británico Ernest Rutherford y sus coetáneos, se demostró que el uranio y algunos otros elementos pesados, como
el torio o el radio, emiten tres clases diferentes de radiación, inicialmente denominadas rayos alfa (a), beta (β) y gamma
(g). Las dos primeras, que según se averiguó están formadas por partículas eléctricamente cargadas, se denominan
actualmente partículas alfa y beta. Más tarde se comprobó que las partículas alfa son núcleos de helio (ver más abajo) y
las partículas beta son electrones. Estaba claro que el átomo se componía de partes más pequeñas. Los rayos gamma
fueron finalmente identificados como ondas electromagnéticas, similares a los rayos X pero con menor longitud de
onda.

LÍNEAS ESPECTRALES
Uno de los grandes éxitos de la física teórica fue la explicación de las líneas espectrales características de
numerosos elementos. Los átomos excitados por energía suministrada por una fuente externa emiten luz de frecuencias
bien definidas. Si, por ejemplo, se mantiene gas hidrógeno a baja presión en un tubo de vidrio y se hace pasar una
corriente eléctrica a través de él, desprende luz visible de color rojizo. El examen cuidadoso de esa luz mediante un
espectroscopio muestra un espectro de líneas, una serie de líneas de luz separadas por intervalos regulares. Cada línea es
la imagen de la ranura del espectroscopio que se forma en un color determinado. Cada línea tiene una longitud de onda
definida y una determinada energía asociada.
La teoría de Bohr permite a los físicos calcular esas longitudes de onda de forma sencilla. Se supone que los
electrones pueden moverse en órbitas estables dentro del átomo. Mientras un electrón permanece en una órbita a
distancia constante del núcleo, el átomo no irradia energía. Cuando el átomo es excitado, el electrón salta a una órbita
de mayor energía, a más distancia del núcleo. Cuando vuelve a caer a una órbita más cercana al núcleo, emite una
cantidad discreta de energía que corresponde a luz de una determinada longitud de onda. El electrón puede volver a su
órbita original en varios pasos intermedios, ocupando órbitas que no estén completamente llenas. Cada línea observada
representa una determinada transición electrónica entre órbitas de mayor y menor energía.
En muchos de los elementos más pesados, cuando un átomo está tan excitado que resultan afectados los
electrones internos cercanos al núcleo, se emite radiación penetrante (rayos X). Estas transiciones electrónicas implican
cantidades de energía muy grandes.

FUERZAS NUCLEARES
La teoría nuclear moderna se basa en la idea de que los núcleos están formados por neutrones y protones que se
mantienen unidos por fuerzas “nucleares” muy intensas. Para estudiar estas fuerzas, los físicos tienen que perturbar los
neutrones y protones bombardeándolos con partículas extremadamente energéticas. Estos bombardeos han revelado más
de 200 partículas elementales, minúsculos trozos de materia, la mayoría de los cuales sólo existe durante un tiempo
mucho menor a una cienmillonésima de segundo.
Este mundo subnuclear salió a la luz por primera vez en los rayos cósmicos. Estos rayos están constituidos por
partículas de muy alta energía que bombardean constantemente la Tierra desde el espacio exterior; muchas de ellas
atraviesan la atmósfera y llegan incluso a penetrar en la corteza terrestre. La radiación cósmica incluye muchos tipos de
partículas, de las que algunas tienen energías que superan con mucho a las logradas en los aceleradores de partículas.
Cuando estas partículas altamente energéticas chocan contra los núcleos, pueden crearse nuevas partículas. Entre las
primeras en ser observadas estuvieron los muones (detectados en 1937). El muón es esencialmente un electrón pesado,
y puede tener carga positiva o negativa. Es aproximadamente 200 veces más pesado que un electrón. La existencia del
pión fue profetizada en 1935 por el físico japonés Yukawa Hideki, y fue descubierto en 1947. Según la teoría más
aceptada, las partículas nucleares se mantienen unidas por “fuerzas de intercambio” en las que constantemente se
intercambian piones comunes a los neutrones y los protones. La unión de los protones y los neutrones a través de los
piones es similar a la unión en una molécula de dos átomos que comparten o intercambian un par de electrones. El pión,
unas 200 veces más pesado que el electrón, puede tener carga positiva, negativa o nula.

ENLACES QUÍMICOS
Enlace químico, fuerza entre los átomos que los mantiene unidos en las moléculas. Cuando dos o más átomos
se acercan lo suficiente, se puede producir una fuerza de atracción entre los electrones de los átomos individuales y el
núcleo de otro u otros átomos. Si esta fuerza es lo suficientemente grande para mantener unidos los átomos, se dice que
se ha formado un enlace químico. Todos los enlaces químicos resultan de la atracción simultánea de uno o más
electrones por más de un núcleo.
Tipos de enlace
Si los átomos enlazados son elementos metálicos, el enlace se llama metálico. Los electrones son compartidos
por los átomos, pero se pueden mover a través del sólido proporcionando conductividad térmica y eléctrica, brillo,
maleabilidad y ductilidad.

- 20 -
Si los átomos enlazados son no metales e idénticos (como en N 2 o en O 2 ), los electrones son compartidos por
igual por los dos átomos, y el enlace se llama covalente apolar. Si los átomos son no metales pero distintos (como en el
óxido nítrico, NO), los electrones son compartidos en forma desigual y el enlace se llama covalente polar —polar
porque la molécula tiene un polo eléctrico positivo y otro negativo, y covalente porque los átomos comparten los
electrones, aunque sea en forma desigual. Estas sustancias no conducen la electricidad, ni tienen brillo, ductilidad o
maleabilidad.
Cuando una molécula de una sustancia contiene átomos de metales y no metales, los electrones son atraídos
con más fuerza por los no metales, que se transforman en iones con carga negativa; los metales, a su vez, se convierten
en iones con carga positiva. Entonces, los iones de diferente signo se atraen electrostáticamente, formando enlaces
iónicos. Las sustancias iónicas conducen la electricidad cuando están en estado líquido o en disolución acuosa, pero no
en estado cristalino porque los iones individuales son demasiado grandes para moverse libremente a través del cristal.
Cuando los electrones son compartidos simétricamente, el enlace puede ser metálico o covalente apolar; si son
compartidos asimétricamente, el enlace es covalente polar; la transferencia de electrones proporciona enlace iónico.
Generalmente, la tendencia a una distribución desigual de los electrones entre un par de átomos aumenta cuanto más
separados están en la tabla periódica.
El enlace covalente se forma cuando ambos átomos carecen del número de electrones del gas noble más
cercano.
Valencia
En la mayoría de los átomos, muchos de los electrones son atraídos con tal fuerza por sus propios núcleos que
no pueden interaccionar de forma apreciable con otros núcleos. Sólo los electrones del “exterior” de un átomo pueden
interaccionar con dos o más núcleos. A éstos se les llama electrones de valencia.

CARBONO
Carbono, de símbolo C, es un elemento crucial para la existencia de los organismos vivos, y que tiene muchas
aplicaciones industriales importantes. Su número atómico es 6; y pertenece al grupo 14 (o IVA) del sistema periódico.
Propiedades
La masa atómica del carbono es 12,01115. Las tres formas de carbono elemental existentes en la naturaleza
(diamante, grafito y carbono amorfo) son sólidos con puntos de fusión extremadamente altos, e insolubles en todos los
disolventes a temperaturas ordinarias. Las propiedades físicas de las tres formas difieren considerablemente a causa de
las diferencias en su estructura cristalina. En el diamante, el material más duro que se conoce, cada átomo está unido a
otros cuatro en una estructura tridimensional, mientras que el grafito consiste en láminas débilmente unidas de átomos
dispuestos en hexágonos.
El carbono amorfo se caracteriza por un grado de cristalización muy bajo. Puede obtenerse en estado puro
calentando azúcar purificada a 900 °C en ausencia de aire.
El carbono tiene la capacidad única de enlazarse con otros átomos de carbono para formar compuestos en
cadena y cíclicos muy complejos. Esta propiedad conduce a un número casi infinito de compuestos de carbono, siendo
los más comunes los que contienen carbono e hidrógeno. Sus primeros compuestos fueron identificados a principios del
siglo XIX en la materia viva, y debido a eso, el estudio de los compuestos de carbono se denominó química 'orgánica'.
A temperaturas normales, el carbono se caracteriza por su baja reactividad. A altas temperaturas, reacciona
directamente con la mayoría de los metales formando carburos, y con el oxígeno formando monóxido de carbono (CO)
y dióxido de carbono (CO 2 ). El carbono en forma de coque se utiliza para eliminar el oxígeno de las menas que
contienen óxidos de metales, obteniendo así el metal puro. El carbono forma también compuestos con la mayoría de los
elementos no metálicos, aunque algunos de esos compuestos, como el tetracloruro de carbono (CCl 4 ), han de ser
obtenidos indirectamente.
Estado natural
El carbono es un elemento ampliamente distribuido en la naturaleza, aunque sólo constituye un 0,025% de la
corteza terrestre, donde existe principalmente en forma de carbonatos. El dióxido de carbono es un componente
importante de la atmósfera y la principal fuente de carbono que se incorpora a la materia viva. Por medio de la
fotosíntesis, los vegetales convierten el dióxido de carbono en compuestos orgánicos de carbono, que posteriormente
son consumidos por otros organismos.
El carbono amorfo se encuentra con distintos grados de pureza en el carbón de leña, el carbón, el coque, el
negro de carbono y el negro de humo. El negro de humo, al que a veces se denomina de forma incorrecta negro de
carbono, se obtiene quemando hidrocarburos líquidos como el queroseno, con una cantidad de aire insuficiente,
- 21 -
produciendo una llama humeante. El humo u hollín se recoge en una cámara separada. Durante mucho tiempo se utilizó
el negro de humo como pigmento negro en tintas y pinturas, pero ha sido sustituido por el negro de carbono, que está
compuesto por partículas más finas. El negro de carbono, llamado también negro de gas, se obtiene por la combustión
incompleta del gas natural y se utiliza sobre todo como agente de relleno y de refuerzo en el caucho o hule.
En 1985, los científicos volatilizaron el grafito para producir una forma estable de molécula de carbono
consistente en 60 átomos de carbono dispuestos en una forma esférica desigual parecida a un balón de fútbol. La
molécula recibió el nombre de buckminsterfulereno. La molécula podría ser común en el polvo interestelar.
Aplicaciones científicas
El isótopo del carbono más común es el carbono 12; en 1961 se eligió este isótopo para sustituir al isótopo
oxígeno 16 como medida patrón para las masas atómicas, y se le asignó la masa atómica 12.
Los isótopos carbono 13 y carbono 14 se usan como trazadores en la investigación bioquímica. El carbono 14
se utiliza también en la técnica llamada método del carbono 14, que permite estimar la edad de los fósiles y otras
materias orgánicas. Este isótopo es producido continuamente en la atmósfera por los rayos cósmicos, y se incorpora a
toda la materia viva. Como el carbono 14 se desintegra con un periodo de semidesintegración de 5.760 años, la
proporción entre el carbono 14 y el carbono 12 en un espécimen dado, proporciona una medida de su edad aproximada.

HIDROCARBUROS
Hidrocarburos, en química orgánica, familia de compuestos orgánicos que contienen carbono e hidrógeno. Son
los compuestos orgánicos más simples y pueden ser considerados como las sustancias principales de las que se derivan
todos los demás compuestos orgánicos. Los hidrocarburos se clasifican en dos grupos principales, de cadena abierta y
cíclicos. En los compuestos de cadena abierta que contienen más de un átomo de carbono, los átomos de carbono están
unidos entre sí formando una cadena lineal que puede tener una o más ramificaciones. En los compuestos cíclicos, los
átomos de carbono forman uno o más anillos cerrados. Los dos grupos principales se subdividen según su
comportamiento químico en saturados e insaturados.

- 22 -

Вам также может понравиться