Академический Документы
Профессиональный Документы
Культура Документы
Enrico Nasi
I. MÓDULO DE BIOELECTRICIDAD
1. Introducción
2. Elementos básico de electricidad
• El concepto de carga eléctrica
- Introducción histórica.
- Cuantificación de la carga
- La ley de Coulomb
- El principio de superposición
- Carga elemental
- Relación con la estructura de la materia
• El campo eléctrico
• Potencial eléctrico
• Corriente eléctrica
3. Resistencia
• Aislantes y conductores
• La ley de Ohm
• Combinación de resistencias en serie y en paralelo
• Leyes de Kirkhoff
4. Capacitancia
• Combinación de condensadores en serie y en paralelo
• Corriente capacitativa
• Filtros
5. Impedancia
6. Medios electrolíticos
• Dipolos eléctricos, solventes polares, coeficiente dieléctrico
• Diferencias entre conducción en metales y electrolitos
• Aislantes en sistemas electrolíticos
7. Electroforesis
• Separación de moléculas
• Micro-ionoforesis
8. Mediciones bio-eléctricas e instrumentación
• Medición de voltaje
• Medición y de corriente
• Amplificación
• Amplificadores operacionales
• Mediciones eléctricas en células
• Principios de registro eléctrico extracelular
• El osciloscopio
9. Ruido eléctrico
• Fuentes de ruido
• Reducción de ruido por filtros de frecuencias
• Reducción de ruido por promedio de ensamble
10. Transductores
• Fuerza
• Ondas acústicas
• Temperatura
• Luz
• Concentraciones químicas
1. Introducción
• Naturaleza de la luz
- Teoría corpuscular
- Teoría ondulatoria
• Polarización
• Espectro electromagnético
• Luz visible
2. Cuantificación de la luz
• Escalas radiométricas
• Escalas fotométricas
3. Absorción de la luz
• Efectos de la luz absorbida
- Mediciones bolométricas.
- Detección fotoquímica
- Efecto fotoeléctrico
4. Óptica geométrica
• Reflexión
- El principio de distancia mínima
- Formación de imágenes por espejos curvos
• Refracción
- Principio de Fermat de tiempo mínimo
- Refracción y el principio de Huygens
• Lentes
- Imágenes virtuales
- Dioptrías
- Profundidad de campo
- Aberración esférica
- Aberración cromática
- El límite de difracción
- Sistemas ópticos complejos
• Reflexión total interna y sus aplicaciones
- Fibras ópticas
- Aplicaciones a endoscopia
5. Fluorescencia
• Fenómeno básico
• Espectros de excitación y de absorción
• Aplicación de la fluorescencia al marcaje de moléculas
• Uso de fluorescencia para monitorear función celular
- Indicadores ‘cociente-métricos’ (‘ratiometric’)
- Seguimiento óptico de cambios de voltaje
- Medición de cambios conformacionales de proteínas
- FRET
6. Elementos de microscopia
• Diseño básico de un microscopio
- Tren óptico de la imagen
- Tren óptico del iluminador
• Objetivos de inmersión
• Aumento de contraste
- Microscopía de Nomarski
- Microscopía de contraste de fase
• Microscopía de fluorescencia
- Microscopía confocal
- Microscopía multifotónica
- Microscopía de fluorescencia con reflexión interna total (TIRF)
- Superando el límite de difracción: microscopia de reconstrucción
estocástica
7. Imágenes digitales
- Acoplamiento microscopio-cámara
- Resolución espacial
- Profundidad de pixel
- Tamaño de archivo y compresión
- Histograma de intensidad
- Filtros espaciales
8. El láser
- Aplicaciones del láser: (iii) cirugía y micro-cirugía
- Aplicaciones del láser: (ii) pinzas y trampas ópticas
9. Óptica fisiológica
- El ojo de los vertebrados
- Acomodación
- Resolución óptica del ojo
- Limitaciones ópticas del mosaico retinal
- Defectos de visión
- Visión cromática
- Visión de luz polarizada
I. MÓDULO DE BIOELECTRICIDAD
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
1. Introducción
1
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
2
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
3
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Figura 2.4
4
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Potencial eléctrico y su relación al campo. Si en un dominio dado del espacio hay un campo
eléctrico no nulo, debe ser que existe una distribución no-homogénea de cargas: de lo
contrario, si éstas estuvieran uniformemente esparcidas en todas partes, en cualquier punto las
varias fuerzas se anularían mutuamente. En cambio, si se congrega en alguna región un
exceso de carga de una polaridad respecto a otra región, se engendran fuerzas netas: una
carga de prueba experimentaría una atracción hacia una dirección y repulsión hacia la dirección
opuesta. Diríamos entonces que existe una diferencia de potencial entre esos dos puntos. Toda
situación en la cual ocurre algún evento eléctrico ‘interesante’ involucra una distribución
asimétrica de cargas en el espacio y/o un re-arreglo de las mismas. Tratemos de esbozar una
visión de lo que es el potencial eléctrico a partir de lo que hemos aprendido respecto al campo
eléctrico, y proporcionar una medida cuantitativa de los que es la diferencia de potencial. Para
ese fin pensemos en lo que ocurre si se tuviera que mover una carga de un punto a otro del
espacio; la presencia de un campo eléctrico en ese dominio hace que, según la orientación del
campo a lo largo del recorrido, ese movimiento pueda verse bien sea favorecido o impedido. La
diferencia de potencial entre el punto de partida y el punto de llegada se reflejará en el balance
final de trabajo que hay que llevar a cabo para cubrir ese recorrido (positivo o negativo, según
si el campo requirió esfuerzo o si ayudó). Formalicemos esta noción: dado un campo E(x,y,z),
si uno tomara una carga unitaria y la desplazara del punto P1= (x1,y1,z1) al punto P2= (x2,y2,z2)
(Figura 2.4B) el trabajo (eléctrico) realizado sería el producto de cada elemento de
desplazamiento, llamémoslo Si (indicados por las flechas azules en el panel C) multiplicado por
el componente de la fuerza del campo en ese punto que esté orientado en la dirección del
desplazamiento, y sumado a lo largo de todo el recorrido efectuado (análogo a la definición de
trabajo mecánico, que es fuerza×desplazamiento). Notar que, para un recorrido cualquiera, en
ciertos puntos del espacio la fuerza del campo puede estar alineada con la dirección del
desplazamiento (es decir ‘a favor’), en otros solamente en parte, o en contra, y así
sucesivamente. Para extraer en cada punto el componente de la fuerza alineado con la
dirección de desplazamiento, efectuamos una operación denominada ‘producto punto’ entre el
vector del campo eléctrico, y un vector de magnitud unitaria en la dirección del movimiento;
esta operación se define como el producto de las magnitudes de los dos vectores, multiplicado
a su vez por el coseno del ángulo entre sus respectivas direcciones. Se trata simplemente de la
magnitud de la proyección del vector fuerza sobre la línea del desplazamiento local (notar que
es un valor escalar, sin dirección). Si las dos direcciones fueran ortogonales (90°), este valor
sería cero (la proyección es nula, siendo cos(90°) = 0); esto quiere decir que en ese punto la
fuerza ni ayuda ni impide el movimiento. Si, en el extremo opuesto, los dos vectores fueran
perfectamente co-lineales, el 100% de la fuerza bien sea ayudaría o se opondría al movimiento
(dependiendo del sentido de las dos flechas). En los casos intermedios, habrá un componente
del vector fuerza que coincide con la dirección del movimiento. Es como tomar el vector fuerza,
usar la regla del paralelogramo para descomponerlo en dos componentes ortogonales, uno de
los cuales esté alineado con el eje del movimiento, y solamente tomar en cuenta la magnitud de
éste último. Al sumar los valores obtenidos en cada paso del recorrido y sumarlos, obtenemos
un valor total, φ2,1, que nos dice si, al final de cuentas, el viaje entre el punto P1 y el punto P2
requirió algún esfuerzo (haciendo el balance de los tramos favorables y los desfavorables) o si
fue, globalmente, ‘cuesta abajo’. Esto se representa como:
φ2,1 = ∑Ei ⋅ Si
Más correctamente, si el campo eléctrico cambiara de una manera continua en diferentes
regiones del espacio, habría que partir el recorrido en elementos incrementales infinitamente
pequeños (dS), multiplicarlos puntualmente con F en cada sitio del trayecto, y sumar los
resultados, lo cual define una integral:
∫ E ⋅ dS
5
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Corriente eléctrica. Una carga tiende a ser atraída por una región cuyo potencial eléctrico es de
la polaridad opuesta. Por lo tanto si existe una diferencia de potencial entre dos puntos y
existen cargas que puedan moverse libremente, éstas tenderán a fluir. Si llamamos la rata de
desplazamiento de carga corriente, simbolizada por la letra I, esta se medirá en
Coulombs/segundo, lo cual define la unidad fundamental de medida de corriente, el Amperio
(simbolizado por la letra A; 1 A = 1 Coul/seg). La corriente eléctrica implica una re-distribución
de cargas, y por lo tanto está estrechamente asociada con la generación de cambios de
potencial.
6
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
temperatura; por lo tanto, en numerosas aplicaciones en las cuales puede ocurrir daño térmico
es imprescindible tener en cuenta estos parámetros.
7
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
3. Resistencia
• Corriente eléctrica y la ley de Ohm. La magnitud de un flujo de cargas será más grande
entre mayor la diferencia de potencial entre los dos puntos (voltaje), y entre menos difícil
el movimiento de las cargas en el material examinado; la relación cuantitativa entre
voltaje (diferencia de potencial eléctrico), resistencia, y corriente está dada por la ley de
Ohm:
I=V/R
La misma ley se puede expresar despejando bien sea V (V=I×R) o R (R=V/I). A veces, en
lugar de una medida de la dificultad que enfrenta un flujo de carga, i.e. la resistencia, se
8
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
habla de la facilidad, i.e. su recíproco, llamada conductancia, que se representa con la letra
g y se mide en Siemens (S; 1 S = 1/Ω). En este caso podríamos escribir la ley de Ohm
como I = V×g.
(i) En serie: El voltaje entre los dos extremos del circuito, Vtot, debe ser la suma de
los dos incrementos de voltaje a través de cada una de las dos resistencias
(además, la corriente que fluye por las dos resistencias es la misma):
Vtot=∆V1+∆V2 = IR1+IR2=I(R1+R2)
pero también Vtot=IRtot ⇒ Rtot= R1+R2. Es decir, el valor de la resistencia total de
dos resistencias colocadas en serie es la suma de los valores individuales (y por
lo tanto es necesariamente mayor que la de cada elemento por separado).
(ii) En paralelo: La corriente total que pasa por el arreglo de las dos resistencias, Itot,
debe ser la suma de las corrientes que pasan por las dos ramas:
9
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
su vez conectado en serie con R5. Aplicando las dos reglas secuencialmente varias veces,
obtenemos la respuesta deseada. De nuevo, parece un ejercicio abstracto, pero eso es
justamente lo que se hace cuando uno ha de establecer las pautas de flujo de corriente en un
tejido constituido por elementos eléctricamente excitables como el cerebro o el corazón.
10
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
circuito en sub-tramos. La batería genera 1 Voltio y los valores de las resistencias son
R1 = 5 Ω, R2 = 3 Ω, y R3 = 2 Ω. La corriente que fluye por el circuito se calcula fácilmente
considerando la regla de combinación de resistencias en series, lo cual da la resistencia
total del circuito: RTot = 10 Ω. Aplicando la ley de
Ohm (I = V/R) el resultado es I = 1/10 = 0.1 A.
Ahora la magnitud del voltaje en el tramo entre A y
B es I×RA,B = 0.1×8 = -0.8 V (el signo negativo se
debe a que el punto B es necesariamente menos
positivo que el punto A, por encontrarse más
alejado del polo positivo de la batería). El voltaje
entre B y C es I×RB,c = -0.1×2 = -0.2 V. Y el voltaje
entre C y A es el voltaje generado por la batería = 1 Figura 3.5
V. Si sumamos los tres valores, el resultado es
cero.
(2) En cada punto del circuito, la suma de todas las corrientes es cero. El caso no-trivial es
cuando el punto en cuestión es un nodo, es decir, la unión entre 3 o más conductores.
Como ilustración, consideremos un circuito con dos resistencias en paralelo y una
batería, y el nodo ‘N’ (Figura 3.5). La batería genera 5 Voltios y las dos resistencias
tienen valores R1 = 20 Ω y R2 = 50 Ω. La resistencia total obedece a la regla de
combinación de resistencias en paralelo RTot = 20×50/(20+50) = 14.3 Ω, y por lo tanto la
corriente total del circuito es 5/14.3 = 0.35 A. Esta es la corriente que entra al nodo “N”.
La que sale por las dos ramas es I1 = V/R1 = 5/20 = -0.25, y I2 = V/R2 = 5/50 = -0.1 A.
La suma de las tres es cero. Esto, en esencia, simplemente reafirma el principio de
conservación de carga: si no hay fuentes ni sumideros en un punto nodal, la cantidad
total de carga que entra ha de ser igual a la que sale.
11
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
4. Capacitancia.
Mientras una resistencia permite el paso de corriente de un lado a otro, existe otro componente,
llamado condensador o capacitador, por el cual no fluye corriente pero que es capaz de
acumular carga. Un condensador está constituido por una delgada capa de aislante entre dos
conductores (Figura 4.1A), cuya superficie tenga un área considerable (e.g. dos placas
metálicas separadas por una brecha de aire). Al aplicar un voltaje entre sus dos terminales,
cargas de polaridad opuesta ocupan la
superficie de los dos conductores, y, aunque no
pueden físicamente saltar la barrera aislante, se
encuentran lo suficientemente cerca para que
puedan atraerse mutuamente por la ley de
Coulomb (Figura 4.1B). Por lo tanto, aún si se
desconectara la fuente de voltaje, el
condensador queda cargado (i.e. quedan cargas
de polaridad opuesta separadas por el Figura 4.1
dieléctrico; Figura 10C). La cantidad de carga
acumulada (Q) depende del voltaje aplicado (V), y de la capacitancia intrínseca del
condensador (C):
Q = V×C
Por consiguiente, la capacitancia de un condensador representa cuanta carga es capaz de
acumular para un voltaje dado (C = Q/V). A su vez, la capacitancia es directamente
proporcional al área de las placas (entre más grandes más cargas pueden acomodarse;
comparar Figura 4.2 A y B), e inversamente proporcional a su separación (entre más cercanas
una a la otra, menor la distancia entre cargas de polaridad opuesta, y por lo tanto mayor la
fuerza de atracción, por la ley de Coulomb; comparar Figura 4.2 A y C):
C ∝ A/d
(la constante de proporcionalidad, que omitimos, tiene que ver con propiedades del material
aislante entre los dos conductores). Estos parámetros tendrán relevancia en sistemas
biológicos, cuando encontraremos capas eléctricamente
aislantes que son supremamente delgadas, como la
membrana que envuelve una célula, y que pueden
presentar numerosos pliegues que le confieren una
superficie de área considerable: su capacidad de
acumular carga será por lo tanto significativa, lo cual
tendrá importantes repercusiones en su comportamiento
eléctrico. La capacitancia se mide en unidades de Farad,
y se simboliza con la letra F.
12
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
13
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
ascendiente o descendiente del ciclo); en cambio la corriente será cero justo cuando el voltaje
alcanza su pico máximo o mínimo (en esos puntos la tangente, cuya pendiente representa la
rata de cambio, es horizontal). Siendo más formales, IC = C⋅d/dt(A⋅sin(ωt)) = C⋅ A⋅cos(ωt) [la
derivada de la función seno es el coseno]. Pero cos(x) = sin(x+π/2). Evidentemente corriente y
voltaje estarán desfasados, como ilustra la Figura 4.3.
14
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
15
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
5. Impedancia
Las consideraciones anteriores sugieren que en un circuito que contenga tanto resistencias
como condensadores, la corriente que fluye no dependerá solamente de la magnitud del voltaje
aplicado, sino además de sus características temporales. Por lo tanto, el concepto de
resistencia entre dos puntos, tal como se había presentado, ya no se aplica en un sentido
estricto: por ejemplo, un cierto circuito podrá fácilmente permitir el flujo de una corriente (i.e.
ofrecer baja resistencia) en respuesta a un voltaje dado si este se mantiene constante, pero no
si varía rápidamente (en cuyo caso aparecería como un medio de alta resistencia), o viceversa.
Claramente, un simple número ya no basta para caracterizar que tan fácilmente fluye corriente
por un medio o un circuito dados. Esto nos lleva a la noción de impedancia, lo cual constituye
una generalización del concepto de resistencia: la impedancia eléctrica, usualmente
representada por la letra Z, ya no es un numero, sino una función que depende de la frecuencia
de oscilación del voltaje que se aplica (asumiendo que los cambios son sinusoidales), es decir
Z(f). Para cada frecuencia, la impedancia estará dada por el cociente entre la magnitud del
voltaje y la de la corriente resultante (análogo a la ley de Ohm, solo que especificada
separadamente para cada frecuencia). Pero hay una complejidad adicional: hemos visto que la
presencia de una capacitancia resulta en un desplazamiento de fase entre voltaje y corriente.
En el caso de un condensador solo, el desplazamiento es de 90˚ (π/2): Entonces una
descripción de la corriente que fluye por un circuito que solamente tome en cuenta la magnitud
de la corriente para cada frecuencia de voltaje aplicado es insuficiente: hace falta además
especificar el tamaño de cualquier ‘corrimiento’ temporal entre voltaje y corriente, es decir, el
desplazamiento de fase que puede ocurrir a cada frecuencia. Por lo tanto la impedancia tiene
que especificar dos números para cada valor de la frecuencia, y por consiguiente representa
dos funciones. Si uno analizara un filtro (por ejemplo, el filtro pasa-bajos considerado
previamente), se podría caracterizar enteramente su comportamiento conociendo la atenuación
y el desplazamiento de fase que sufre un sinusoide aplicado a su entrada, en función de la
frecuencia de oscilación del mismo.
16
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
6. Medios electrolíticos
Dipolos eléctricos, solventes polares, coeficiente dieléctrico. La razón por la cual en un medio
acuoso pueden estar disueltas particulas cargadas es que el agua es un solvente polar. Esta
propiedad hace referencia al hecho de que las moléculas de agua, aunque eléctricamente
neutras, son alargadas y manifiestan una distribución asimétrica de su nube electrónica, la cual
es más densa alrededor del oxígeno (más electronegativo), como muestra la Figura 6.1A. Esto
confiere una carga negativa a esta región de la molécula, mientras que los dos protones de los
hidrógenos quedan neutralizados de una manera incompleta y por lo tanto mantienen una
carga neta positiva (Figura 6.1B).
La separación espacial de las dos
regiones con carga opuesta
confiere a la molécula de agua
propiedades de un dipolo eléctrico:
la aplicación de un campo eléctrico
no produce una fuerza neta ni una
migración, ya que la carga total de
la molécula es cero, pero aplica un
torque (T = E×μ, donde μ es el
momento dipolo, definido como el
producto de la carga y la distancia
que la separa, μ = r⋅q), el cual re- Figura 6.1
orienta la molécula, alineándola
con el vector del campo eléctrico. Esto hace que una partícula cargada disuelta en un medio
acuoso pueda encontrarse en una situación energéticamente favorable, rodeada de moléculas
de solvente apropiadamente alineadas, apuntando hacia su centro de carga y neutralizándola
parcialmente. A nivel macroscópico, la presencia y magnitud de un momento dipolo en las
moléculas del medio se traduce en el coeficiente dieléctrico, ε. Moléculas polares y ionizadas
se disuelven fácilmente en un solvente con alto coeficiente dieléctrico como el agua (ε≈80); en
cambio, moléculas no-polares lo harían con dificultad, porque interferirían con las interacciones
electrostáticas entre las moléculas del solvente, y tenderán por lo tanto a agregarse y formar un
precipitado insoluble. Por ejemplo, en agua el cloruro de sodio (NaCl; Figura 6.1C) se disocia
en Na y Cl, pero el cloro, siendo más electronegativo, retiene un electrón extra, y adquiere una
carga neta negativa (Cl-, un anión). Recíprocamente, el sodio queda ‘corto’ de un electrón y
tendrá por lo tanto una carga neta positiva (Na+, un catión). Ambos constituyentes se
encontrarán en una situación energéticamente favorable, rodeados de moléculas polares
orientadas apropiadamente para neutralizar su carga (la así llamada concha de hidratación;
Figura 6.1D).
Ahora podemos considerar que ocurre con la conductividad de un medio acuoso. En principio,
uno diría que si se trata de agua pura, la conductividad debería ser nula, por ser las moléculas
de H2O eléctricamente neutras y por lo tanto incapaces de migrar en respuesta a un campo
17
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
eléctrico y mediar una corriente. Pero realmente, además de H2O, el agua contiene una
cantidad finita de protones libres (H+) y de hidroxilos (OH-) debido al equilibrio de la reacción:
H2O ' H+ + OH-
El pH representa –log([H+]), donde la concentración de protones está dadas en molares
(mol/litro). Por lo tanto a pH ‘neutro’ = 7 la concentración de protones es 10-7 M o 0.1 μM (una
deci-millonésima de molar); lo mismo con los hidroxilos. Tanto los protones como los hidroxilos
son cargados (i.e. son iones) por lo tanto confieren al agua propiedades de conductor. Pero a
pH neutro (lo cual es inevitable si se trata de agua pura, porque se disocia el mismo número de
H+ y de OH-) su concentración es muy baja, y por consiguiente la conductividad eléctrica es
muy modesta (i.e. alta resistividad): 18 MΩ⋅cm. Pero si el pH fuera, por ejemplo, muy acídico,
digamos pH=3 (lo cual implica añadir algún ácido, por ejemplo HCl), ya se tendría un milimolar
de protones libres, lo cual constituye una concentración apreciable y determina una
conductividad significativa. El mismo efecto se obtendría si disolviéramos una buena cantidad
de sal (NaCl): ésta de disociaría en iones de sodio (Na+) y de cloruro (Cl-), los cuales
incrementarían significativamente la conductividad. Los fluídos intra- y extra-celulares contienen
gran cantidad de iones disueltos (totalizando casi 300 mM en un mamífero, y mas de 1M en un
animal marino), y esto implica que estamos tratando con medios de alta conductividad,
propicios para mediar fenómenos eléctricos. Otras sustancias como la sacarosa (C12H22O11)
también se disuelven en agua, pero sus moléculas no se disocian, y al quedar intactas son
eléctricamente neutras; por lo tanto la conductividad de la solución no incrementa.
Clarificación de las diferencias entre conducción en metales y electrolitos. En resumen,
mientras en metales la matriz de átomos es fija y la única manera de tener movimiento de
carga es desplazando electrones, en líquidos no hay una estructura fija de la materia: las
moléculas mismas, tanto de solvente como de soluto, son móviles y capaces de desplazarse
por difusión. Por lo tanto, la conducción eléctrica ocurre con el desplazamiento de moléculas
enteras que posean una carga neta (iones). Podemos fácilmente ver cuales factores
determinan la resistividad/conductividad de un medio electrolítico. En primer lugar, es obvio que
la concentración iónica de la solución va a jugar un papel importante: entre más disponibilidad
partículas cargadas, más corriente puede fluir bajo un voltaje dado. Segundo, la movilidad de
los iones es determinante: evidentemente una molécula pequeña experimentará menor fricción
al desplazarse por un medio que tiene cierta viscosidad, y por lo tanto puede fluir más
fácilmente (su coeficiente de difusión será mayor). Finalmente, entre más grande la carga
eléctrica neta que lleva la molécula en cuestión - i.e. z×e, z siendo la valencia y e la carga
elemental - mayor la fuerza que experimentarán al aplicarse un campo eléctrico. Los últimos
dos factores a menudo suelen juntarse en un solo parámetro, denominado la movilidad
electroforética.
18
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Ahora que sabemos que los fenómenos eléctricos en medios electrolíticos representan la re-
distribución de iones, a menudo querremos cuantificar el flujo de moléculas a partir del tamaño
de la corriente o, viceversa, conociendo el movimiento de una cierta especie de moléculas
tendremos la necesidad de calcular cuanta corriente eso representa. La constante de Faraday
(96500 coul×mol-1) y el número de Avogadro (No ≈ 6×1023 partículas/mol) permiten convertir
entre cantidades eléctricas y químicas, haciendo posible el cálculo del número de partículas
implicadas en un fenómeno eléctrico (o viceversa). Por ejemplo, si fluye una corriente de 0.1 A
(es decir, 0.1 Coul/s), al dividir por la constante de Faraday sabríamos que es equivalente a
0.1/96500 mol/s de iones monovalentes. Multiplicando por No podríamos determinar cuantos
iones/segundo están fluyendo.
19
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
20
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
7. Electroforesis
Podemos brevemente considerar una de las tantas aplicaciones de los principios de
electricidad en sistemas electrolíticos, donde la conducción eléctrica es mediada por moléculas
enteras ionizadas y por lo tanto la aplicación de un voltaje causa su migración. La
electroforesis consiste en el desplazamiento de una partícula cargada bajo la influencia de
fuerzas eléctricas, y tiene considerable relevancia a las ciencias biológicas.
Separación de moléculas
La aplicación más típica concierne la separación de macromoléculas que se encuentren
mezcladas en una muestra; esto se basa en que si distintos compuestos depositados en un
punto de un medio migran a velocidades diferentes, entonces al cabo de un cierto tiempo
habrán recorrido distancias diferentes y por lo tanto se habrán separado unos de otros. Este
acercamiento puede servir bien sea para ayudar la identificación e inclusive la cuantificación de
constituyentes presentes en la mezcla (electroforesis analítica) o bien para su purificación para
uso posterior (electroforesis preparativa). En esta breve introducción se enfatizarán solamente
los fundamentos eléctricos de la técnica, no los aspectos bioquímicos. Por supuesto, es
imprescindible que las moléculas en cuestión posean una carga eléctrica neta, lo cual puede
ocurrir naturalmente en el caso de muchos tipos de sustancias, o puede requerir el uso de
algún compuesto exógeno que se adhiera a ellas y les confiera una carga. Los determinantes
fundamentales de la velocidad de migración en un campo eléctrico dado son (i) la carga de la
molécula (la cual dictamina la fuerza ejercida sobre ella por el campo: F = E⋅q, donde F es la
fuerza, E el campo eléctrico y q la carga) y (ii) su tamaño (el cual establece una fuerza de
fricción que se opone al movimiento). De esto se desprende que una molécula puede migrar
más rápidamente que otra bien sea porque tuviera una mayor carga eléctrica, o bien porque
aún teniendo la misma carga su tamaño fuera menor, lo cual facilita el desplazamiento; por
consiguiente, aunque podríamos fácilmente lograr la separación eléctrica entre especies
moleculares, desconoceríamos el porqué (es decir, cuales propiedades de las diferentes
sustancias son responsables por esa separación). Más aún, el mismo campo eléctrico podría
producir la migración de diferentes moléculas en direcciones opuestas, si la polaridad de su
carga es también opuesta. Claramente hace falta imponer algún orden para que el concepto de
electroforesis se vuelva de utilidad práctica. La aplicación más común pretende separar
moléculas según su masa y para lograrlo hace falta tomar dos medidas. Un primer paso es
cerciorarse de que las diferentes moléculas no difieran de una manera caprichosa en cuanto a
su carga eléctrica, sino posean una carga neta de la misma polaridad, que sea proporcional a
su masa. Esto sucede naturalmente en polímeros cuyos elementos constituyentes (i.e. los
monómeros) tienen una carga y un tamaño más o menos fijos (por ejemplo, las cadenas de
ácidos nucléicos, ADN y ARN, las cuales están constituidas por nucleótidos que son aniónicos
y de peso molecular similar). En cambio, en las proteínas la composición de aminoácidos varía
mucho, y éstos a su vez pueden diferir drásticamente tanto en la carga neta (que puede ser
positiva, negativa o neutra) como en el peso molecular (desde 75 Dalton para glicina, hasta 204
Da para triptófano). Para obviar este problema, se aplica un detergente aniónico, sodio dodecil
sulfato (SDS), que se combina con las proteínas en una relación prácticamente constante: ≈1.4
gramos de SDS por cada gramo de proteína. La carga introducida por el SDS es (i)
cuantitativamente mucho mayor que toda carga endógena que poseyera inicialmente la
proteína, y (ii) proporcional a la masa del polipéptido; por consiguiente, se obtiene una
población de proteínas modificadas que son todas negativamente cargadas (cualquier carga
positiva habrá sido abrumada por las cargas negativas mucho más numerosas del SDS
adsorbido), y con una relación carga-masa aproximadamente constante. Esta primera medida
sirve para uniformar la carga eléctrica de las proteínas, pero no nos ayuda a separarlas, ya que
la constancia del cociente carga-masa hace que la movilidad de diferentes moléculas tenderá a
21
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
ser la misma: las más grandes son las que experimentan la mayor fuerza eléctrica, pero
también sufren mayor fricción con el medio, y viceversa. Para obviar este inconveniente se
introduce entonces un medio que proporcione un impedimento diferencial a moléculas de
diferentes tamaño: en lugar de un líquido, se usa alguna matriz cuya textura dificulte más el
paso de moléculas grandes: por ejemplo, un gel,
constituido por una ‘telaraña’ de algún polímero (tal
como acrilamida o agarosa), con los intersticios
ocupados por un líquido conductivo. Ahora las
moléculas se verán selectivamente retardadas en su
migración dependiendo de su tamaño, y, debido a sus
diferentes velocidades, al cabo de un determinado
período se encontrarán segregadas en posiciones
distintas (Figura 7.1). La comparación con la
migración de moléculas de referencia cuya masa sea
conocida permite asignar un peso molecular a las
moléculas que se han separado en la muestra. Figura 7.1
También es posible recoger solamente una población
de moléculas de cierta masa, una vez separadas de las demás, y obtener por lo tanto su
purificación.
Hay dos maneras de implementar una separación electroforética: por voltaje constante, o por
corriente constante; cada uno de los dos acercamientos presenta ventajas y desventajas. En el
primer caso la fuente de poder se encarga de mantener una diferencia de potencial fija (el
voltaje, V) entre los extremos del medio (el cual, como se ha dicho, suele ser un gel). En el
segundo caso, la fuente de poder impone un flujo de corriente pre-determinado (I) a través del
medio. Aquí el voltaje que resulta depende, por la ley de Ohm, de la resistencia del medio: V =
IR; para una corriente dada, entonces, el voltaje será mayor si el medio es de alta resistencia.
La resistencia, recapitulando conceptos presentados en una sección anterior, crece con la
longitud del recorrido por el medio resistivo, y decrece con el área de sección del mismo: R =
ρL/A. Es importante tener en claro el impacto de diferentes parámetros eléctricos para lograr el
objetivo y evitar percances: (i) se necesita un campo eléctrico de intensidad apropiada para
impulsar la migración de moléculas cargadas, y (ii) se quiere evitar excesiva disipación de
energía en calor, lo cual podría perjudicar la integridad de la muestra y/o del medio mismo.
Recordemos que la disipación de energía (medida en vatios, y simbolizada por la letra W) es el
producto de corriente y voltaje: W = IV. Pensemos en casos prácticos: usualmente la
separación electroforética se lleva a cabo por un medio cuya geometría es un paralelepípedo
(Figura 16) que tiene una longitud considerable (muchos centímetros) en la dirección del campo
que se aplica; esto permite que las diferentes clases de moléculas puedan llegar a distanciarse
significativamente unas de otras. Por otra parte, el espesor del medio (y por lo tanto el área de
sección) es muy modesto (0.5 a 5 mm); conjuntamente, estos dos parámetros se traducen en
una alta resistencia longitudinal. Si uno opta por usar voltaje constante, éste suele ser
considerable (típicamente > 100 V), para poder engendrar un campo aceptablemente intenso
22
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
(voltaje/distancia). Si uno prefiere corriente constante, ésta en cambio tendrá que ser modesta
(milliamperios), porque al cruzar un medio de tan alta resistencia aún una corriente pequeña
genera un voltaje grande (V = IR). Ambos parámetros, además, han de cumplir con el requisito
de que la disipación de energía no sobrecaliente el medio (por ejemplo si tenemos 120 V y 20
mA, se disipan 24 W, lo equivalente a un bombillo de baja potencia; si en cambio, para acelerar
la migración, subiéramos mucho el voltaje y la corriente, podríamos llegar a tener una
disipación en calor de muchas decenas o cientos de vatios, que llevaría a una enorme
elevación de temperatura y la consecuente destrucción de la muestra y del gel – y tal vez
también de la fuente de poder!
Micro-ionoforesis
Una segunda aplicación es el uso de fuerzas eléctricas para lograr la aplicación controlada de
diminutas cantidades de una molécula dada, siempre y cuando ésta posea una carga neta (es
decir, esté ionizada). El principio es simplemente que si se toma una micro-pipeta y se llena
con una solución de la sustancia en cuestión, al pasar una corriente eléctrica entre la pipeta y el
baño externo esta corriente necesariamente refleja la migración de moléculas, que va a incluir
la eyección de la sustancia de interés (si la polaridad de la corriente es correcta!) En una
primera aproximación, el flujo obedece la Ley de Faraday:
J (∅ mol⋅s-1) = nI/zF
I es la corriente, z la carga de la molécula en cuestión, F la constante de Faraday (si corriente
se mide en amperios = coul×s-1 y F = coul×mol-1, entonces I/zF es número de mol de carga z
que fluye por segundo) . El parámetro n se conoce como el número de transporte y representa
la fracción total de la corriente que es llevada por la molécula de interés: por supuesto ésta no
será la única clase de molécula ionizada en la pipeta (debe existir un contra-ión, para respetar
la condición de electro-neutralidad) ni en el baño externo. Por consiguiente, la corriente total
implica la movilización también de otras especies; moléculas que se desplacen con mayor
facilidad (por ejemplo, por ser pequeñas y/o con una gran carga eléctrica) o que estén
presentes en grandes concentraciones harán una contribución dominante al flujo total. Por lo
tanto, es imprescindible poder cuantificar cual porción de la corriente es llevada por la sustancia
23
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
que se quiere aplicar. Pero una vez se conozca dicho parámetro, esta técnica brinda la
oportunidad de producir inyecciones finamente controladas (por ejemplo, al interior de una
célula individual), de una forma que sería difícil de lograr por aplicación a presión.
24
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
El esta sección se mirarán de una manera elemental los principios técnicos que hacen posible
medir fenómenos bioeléctricos generados por muchos tipos de células del organismo.
Medición de voltaje.
Todo acercamiento a medir una variable se esmera para no alterar significativamente la
variable que pretende cuantificar, de lo contrario el resultado obtenido es ficticio. Lo mismo es
válido en las mediciones eléctricas. En el caso del voltaje, sabemos que una diferencia de
potencial eléctrico entre dos regiones en el espacio implica que existe una distribución
asimétrica de carga eléctrica. Si no se quiere perturbar este estado de cosas, el sistema
utilizado para medir, compuesto por el voltímetro o electrómetro y las dos sondas que
establecen contacto eléctrico con los dos puntos en cuestión, no
deben proporcionar un camino por el cual esas cargas
encuentren la manera de fluir y re-distribuirse. Esto implica que
el voltímetro debe tener una resistencia interna (Rin) muy alta.
Las sondas simplemente se colocan a contacto de los dos
puntos del circuito, cuya diferencia de potencial se quiere medir
(Figura 8.1). Este instrumento, estrictamente hablando, mide el
voltaje presentado a su entrada, no el valor que existe en el
punto donde la sonda hace contacto con la muestra; por lo
tanto, las sondas deben garantizar buen contacto eléctrico con
la muestra, y su resistencia debe ser mucho menor que la
resistencia interna del voltímetro, de lo contrario se forma un
circuito de divisor de voltaje (repasar el concepto, presentado Figura 8.1
anteriormente!), y por consiguiente el voltaje reportado por el
voltímetro sería solamente una fracción del voltaje verdadero. La
Figura 8.2 ilustra el problema, suponiendo que una de las dos
sondas (usualmente un simple cable de muy baja resistencia),
tuviera en cambio una resistencia considerable (Rs). En la
entrada 1 del voltímetro (IN1) el voltaje experimentado por el
instrumento ya no será el valor que se tiene en el punto que se
quería medir (A), sino un valor modificado por el cociente entre la
resistencia de acceso y la resistencia total del sistema. En
circunstancias normales estas consideraciones son innecesarias,
ya que las sondas son unos cables que conducen muy bien la
electricidad. Pero en ciencias bio-medicas este problema surge
cuando se miden potenciales en dominios microscópicos, porque
Figura 8.2 en esos casos la sonda también necesita ser muy fina, y por
consiguiente su diminuta área de sección implica una muy alta
resistencia eléctrica (repasar sección sobre resistencia!) que podría llegar a niveles
comparables a la del instrumento (que, como ya sabemos, de por sí debe ser alta), y generar
una división de voltaje. En una sección posterior se considerará el caso de mediciones del
voltaje que existe a través de la membrana celular, con lo cual es imprescindible insertar un
electrodo de minúsculas dimensiones en el interior de una célula individual. Para estas
aplicaciones es entonces indispensable que la entrada del instrumento utilice un tipo de
transistor especial (llamado transistor de efecto de campo, o FET) que tiene una resistencia de
entrada extraordinariamente alta (billones de Ohms) y por lo tanto seguramente mayor que la
de un microelectrodo, por fino que sea. Notar también que el sistema de medición se introduce
sin alterar el circuito en cuestión, es decir, se añade en paralelo a éste.
25
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Medición de corriente
Para medir la corriente que fluye por un cierto tramo de un
circuito (incluyendo tejidos, etc.) es imprescindible saber que
toda esa corriente pase por el instrumento (llamado
amperímetro) y esto requiere abrir el circuito en cuestión (el
corte que en la Figura 8.3 se representa por la línea
punteada) e introducir las sondas y el amperímetro como
único camino posible: en otras palabras, se trata de introducir
el instrumento en serie con el circuito, desviando el flujo
original de corriente. Además, se quiere que el instrumento
no altere la cantidad de corriente que fluye normalmente, y
por consiguiente su resistencia debe ser lo más baja posible
(lo opuesto que para voltaje).
Figura 8.3
Amplificación
Las señales eléctricas relevantes en un contexto biológico suelen ser muy pequeñas: los
voltajes trans-membrana no alcanzan una décima de voltio, mientras que los potenciales
extracelulares son del orden de fracciones de milésima de voltio. Por otra parte, las corrientes
eléctricas generadas por las células y los tejidos son igualmente diminutas: millonésimas a
billonésimas de amperio (la única excepción está dada por los órganos eléctricos de algunos
organismos acuáticos, que usan fuertes descargas para poner fuera de combate a presas y
enemigos). Así que poder agrandar señales bioeléctricas es una necesidad, y el uso de
amplificadores es pan de cada día para muchas áreas de la fisiología. Un amplificador, en
esencia, es un aparato que presenta dos entradas y una salida; el voltaje que se produce en la
salida es proporcional la diferencia de voltaje aplicado a las dos entradas, multiplicado por un
factor de ganancia, G:
26
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
27
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Parecería que un factor de ganancia tan alto hace inútil un amplificador operacional, ya que con
el más mínimo voltaje de entrada (digamos, 1 mV) la salida seguramente va a exceder
ampliamente el rango posible del aparato (el cual, como hemos visto, no puede ser mayor que
el voltaje que alimenta el circuito mismo, usualmente ±10 o ±15 V); por lo tanto uno esperaría
que con la más mínima perturbación en el input, el output quedaría en saturación, atascado al
máximo voltaje que es capaz de generar. Esto no tendría utilidad alguna; sin embargo, el
circuito es ‘domado’ introduciendo un camino de retroalimentación negativa (‘feedback’
negativo), lo cual se logra conectando la salida del amplificador a la entrada ‘negativa’ (IN-); el
efecto es que se aplica a dicha entrada un voltaje que neutraliza la discrepancia con respecto a
la otra entrada. Al hacerlo, el circuito se torna
estable, y su salida guarda una relación útil con la
entrada, dependiendo de la naturaleza de las
conexiones y los componentes utilizados en la
retroalimentación negativa. Por ejemplo, se puede
generar un amplificador con una ganancia
controlada y razonable (bien sea que invierta o no
invierta la señal), o un amplificador que convierta
una corriente en un voltaje, un amplificador que
integre en el tiempo la señal de entrada, etc.
Examinemos algunas configuraciones clásicas. En
todos los casos el análisis se basa en el hecho de
que la retroalimentación negativa hace que el
potencial en los dos puntos de entrada se mantiene
a todas horas al mismo nivel (esto es válido
ignorando breves instantes de transición...); el
porque es obvio: si el voltaje en IN+ se torna más
positivo que el de IN-, Vout se volverá positivo
(recuerden que Vout = [IN+ - IN -]×G), y al aplicárse
el voltaje de salida a IN- se neutraliza la diferencia.
Viceversa, si IN+ es más positivo que IN-,
inmediatamente Vout se vuelve negativo, y la acción
correctiva de nuevo anula las diferencias entre las
dos entradas. Sabiendo esto, en general solo hace
falta usar la ley de Ohm y el concepto de divisor de
voltaje para entender exactamente el
comportamiento de un circuito, o para diseñar un
circuito que cumpla con las especificaciones
precisas que uno requiere. La figura 8.6A ilustra un
caso particular, conocido como amplificador
invertido. Debido a que IN+ está conectado a tierra
(en la figura se indican las dos entradas del
OpAmp simplemente como “+” y “-“), la entrada IN-
también se encontrará siempre a 0 V (tierra), es
decir al mismo potencial que IN+, por el motivo ya
explicado. La corriente que fluye desde la fuente de
la señal a través de la resistencia Rin es igual, por
la ley de Ohm, al voltaje de la señal dividido por la
resistencia de entrada: I = Vin/Rin. Esta corriente
solo puede seguir su camino por la resistencia Rf,
ya que la resistencia de entrada del OpAmp es
supremamente alta. Por consiguiente, Vout, siendo Figura 8.6
28
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
la diferencia de voltaje entre los terminales de Rf, será –IRf (de nuevo, por la ley de Ohm). El
signo negativo se debe a que si la corriente fluye desde la fuente de la señal hacia tierra
(virtual), y de allí hacia la salida del OpAmp, debe ser que el potencial en los dos extremos del
recorrido tiene polaridad opuesta. Una manera sencilla de visualizar la situación es viendo que
las dos resistencias, Rin y Rf, forman un divisor de voltaje cuyo punto medio se mantiene a 0 V;
si un extremo (la señal) se torna positivo, el otro se vuelve negativo, y viceversa. Si las dos
resistencias fueran iguales, el valor absoluto de Vin y Vout sería el mismo, solo que la polaridad
sería opuesta. Si Rf fuera mayor, Vout sería más grande que Vin (y con el signo opuesto), ya que
a igual corriente el cambio de voltaje entre los terminales de una resistencia es proporcional a
su valor. En resumen, la relación entrada-salida estará dada por:
La ganancia del circuito (G) está dada por el cociente entre las dos resistencias (G = Rf/Rin), lo
cual permite que una señale se agrande (si Rf/Rin > 1) o se achique (si Rf/Rin < 1). La
resistencia de entrada del amplificador en esta configuración es Rin (la resistencia que la señal
ha de cruzar para fluir al potencial de tierra).
Como construir un amplificador que no invierta la señal? Intuitivamente, es obvio que ésta
deberá aplicarse a la entrada IN+ (en lugar de IN-). La Figura 8.6B muestra el esquema de un
amplificador no-invertido. La señal entra directamente a IN+. Por retroalimentación, V- se
mantiene también al mismo potencial que Vin. Aquí IN- es el punto medio de un divisor de
voltaje, y podemos hacer un razonamiento análogo al caso anterior: la corriente que fluye por
Rin es I = Vin/Rin. Esa misma corriente fluye por Rf, así que la diferencia entre Vout y IN- es I×Rf.
Entonces Vout = Vin+I×Rf. = Vin + (Vin/Rin )×Rf, decir:
Vout = Vin(1+Rf/Rin)
G = Vout/Vin = 1+Rf/Rin
Notar dos diferencias respecto al caso anterior (aparte el hecho de que la polaridad de la salida
no se invierte): en primer lugar, la ganancia mínima tiende a 1, en el caso límite cuando
Rf<<Rin. En segundo lugar, la resistencia de entrada del circuito esta dada por la del OpAmp, la
cual sabemos que es extremadamente alta.
29
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Uno podría tener interés en determinar y amplificar no simplemente el nivel de potencial de una
fuente sino la diferencia entre dos señales. En este caso, las dos señales se aplican a las dos
entradas, respectivamente, y las resistencias adicionales establecen la ganancia, dada por G =
Rf/R1, como ilustra la Figura 8.6D. En esta configuración se mantiene simetría entre los dos
caminos, poniendo R1=R2 y Rf=R3. Este se llama un amplificador diferencial y tiene importantes
aplicaciones en electrofisiología.
En esta breve reseña hemos esbozado las más comunes configuraciones de amplificadores
operacionales. Muchas funciones específicas (e.g. registrar un voltaje con una ganancia y una
resistencia de entrada prescrita, generar un estímulo eléctrico, cuantificar una corriente, etc.) se
pueden lograr de esta manera.
30
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Figura 8.7
fabrica un electrodo reversible que haga contacto con el medio electrolítico; éste está
constituido por un metal recubierto por una delgada capa porosa de una sal del mismo metal.
Esta sal debe ser poco soluble (de lo contrario, al entrar en contacto con el líquido, la capa se
disolvería, dejando solamente el metal expuesto), y el contra-ion debe ser una especie
representada en la solución electrolítica. Típicamente se usa plata (Ag) como metal, cubierto de
AgCl (ya que es poco soluble, y el Cl suele ser el principal anión presente en soluciones
fisiológicas). Esto permite la siguiente reacción reversible:
AgCl + e- ↔ Ag + Cl-
De esta manera, un electrón que viaje por el metal se combina preferencialmente con el Cl de
una molécula de AgCl (por ser el Cl más electronegativo) y el ión de Cl- resultante se
desprende y puede entrar en solución, llevando corriente en el medio líquido (y dejando atrás
un Ag). Viceversa, un ión de Cl- difundiéndose por el líquido hasta la interfase con el metal se
puede combinar con Ag formando AgCl, y el electrón que ‘sobra’ lleva la corriente por la matriz
metálica del cable (Figura 8.7B). Otros arreglos utilizan mercurio (Hg) en lugar de plata
(‘electrodos de calomel’).
La finísima punta de un microelectrodo, necesaria para no inducir daño a la célula,
inevitablemente se acompaña, como ya se ha dicho, de una muy alta resistencia eléctrica
(desde unos cuantos Megaohms hasta
cientos de Megaohms). Esta situación
tiene repercusiones indeseables para la
fidelidad del registro eléctrico. En primer
lugar, el efecto de divisor de voltaje que
ya se analizado: al existir una diferencia
de potencial entre la punta del
microelectrodo (que muestrea el
verdadero potencial que existe en el
compartimiento intracelular) y el otro
lado, donde el alambre de Ag/AgCl hace
contacto con la solución salina, quiere
decir que el voltaje aplicado al input del
amplificador no es aquel que el
experimentador pretende medir. La Figura 8.8
31
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Figura 8.8 ilustra este problema, que, como se ha mencionado, puede ser aliviado
cerciorándose de que la resistencia de entrada del amplificador sea aún más alta. Pero esta
precaución no evita un segundo problema. Un microelectrodo de vidrio está constituido por una
delgada pared de material aislante que separa dos medio conductivos (la solución salina dentro
del electrodo mismo, por una parte, y los fluídos electrolíticos en el exterior); como tal,
constituye un condensador (cuya capacitancia, Ce, tiene un valor que típicamente puede ser del
órden de unos 10 pF). Conjuntamente con la resistencia del electrodo, este arreglo forma un
filtro pasa-bajo, idéntico al que se analizó previamente (la señal del voltaje intracelular
encuentra primero la alta resistencia del electrodo, que se concentra en la punta donde el
diámetro es mínimo, y más arriba una capacitancia - donde la superficie de área del aislante es
mayor; el otro terminal de este condensador está conectado al potencial de referencia del
medio exterior, es decir, a tierra). Este arreglo implica que las señales transmitidas desde el
interior de la célula al amplificador están sujetas a una atenuación de frecuencias altas; por
consiguiente, transientes rápidos, como un potencial de acción producido por una neurona,
podrán ser significativamente atenuados, comprometiendo la fidelidad del registro. En el
ejemplo de un microelectrodo con Ce = 10 pF (10-11 F) y una resistencia Re = 100 MΩ (108 Ω) su
constante de tiempo sería 1 ms (τ = Re×Ce = 10-3 s); quiere decir que un potencial de acción
que alcance su pico máximo en menos de un milisegundo, se verá aparentemente reducido a
un ≈63% de su de amplitud real; para obviar estas deficiencias se han desarrollado varias
estrategias que bien sea reducen la constante de tiempo del microelectrodo (reduciendo su
resistencia y/o su capacitancia), o compensan electronicamente la pérdida de frecuencias altas.
32
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
cuando haya una corriente neta que fluya entre esos dos puntos. Por otra parte, si ante el
mismo patrón de corriente colocáramos nuestro par de electrodos en una dirección ortogonal a
la de la corriente (Figura 8.9B), entonces no habrá diferencia de potencial alguna reportada por
los dos electrodos, ya que ninguna corriente fluye entre las dos regiones muestreadas. Si
consideramos el conjunto de curvas que interceptan a 90˚ las líneas de flujo de corriente
(como, por ejemplo, las líneas puntuadas en la figura 8.9), a lo largo de cada una de ellas no
fluye corriente alguna, y por lo tanto todos sus puntos se encuentran al mismo potencial
eléctrico: las llamamos curvas isopotenciales. En el caso más general, quiere decir que dos
electrodos ubicados en dos puntos del dominio espacial, llamémoslos A y B, podrán detectar
una diferencia de potencial proporcional a la magnitud de aquel componente de la corriente que
fluye en la dirección del eje imaginario que une a los dos puntos. Si la corriente total en esa
región fuese representada por un vector, esa cantidad estaría dada por la proyección del vector
sobre el eje A-B; cuantitativamente, eso representa M⋅cos(α),
M siendo la magnitud de la corriente y α el ángulo entre el
vector del flujo neto de corriente y el eje que une los dos
electrodos. Es lo mismo que decir el producto punto entre los
dos vectores. La Figura 8.10 ilustra este concepto. En un
medio homogéneo está fluyendo una corriente I,
representada por la flecha verde diagonal; dos electrodos, A
y B, miden la diferencia de potencial entre dos puntos de ese
medio. La línea imaginaria que une los dos electrodos (el eje
de los electrodos) forma un ángulo α con respecto a la
dirección del vector de la corriente. Proyectando este último
sobre el eje de los electrodos obtenemos el componente de I
en la dirección entre A y B, llamémoslo la ‘corriente efectiva’,
Figura 8.10 Ieff o IA,B (ya que viene siendo la porción de la corriente total
que fluye entre A y B). Entonces, por la ley de Ohm, la
diferencia de potencial entre A y B será la magnitud de IA,B multiplicada por la resistencia entre
esos dos puntos, RA,B.Lejos de ser una desventaja, podemos aprovechar el hecho de que
nuestro registro depende de la orientación relativa entre el flujo de corriente y el eje del par de
electrodos para reconstruir la pauta de actividad eléctrica en el dominio de interés: por ejemplo,
si colocáramos dos pares de electrodos (A-B y A’-B’) perpendicularmente alrededor de una
región de tejido, y uno mostrara en un momento dado una diferencia de potencial mientras que
el otro no, podríamos concluir que existe actividad eléctrica la cual se manifiesta en un flujo
neto de corriente orientado en la dirección del eje de uno de los dos pares de electrodos (y, por
supuesto, ortogonal al otro). Si ambos pares reportaran la misma magnitud de voltaje, la
corriente estaría fluyendo a 45° respecto a los dos ejes de los pares de electrodos, y así
sucesivamente.
33
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
El osciloscopio
Uno de los instrumentos de mayor utilidad para mediciones eléctricas es el osciloscopio,
aparato que proporciona de una manera gráfica una medida de voltaje en función del tiempo.
Para ese fin se utiliza un tubo de rayos
catódicos, parecido a los de los televisores
análogos, el cual tiene una forma
aproximadamente cónica o piramidal: en el
ápex, el extremo más estrecho, se encuentra
un filamento que, al conectarse a una fuente
de voltaje (VF), se calienta (Figura 8.12). El
extremo opuesto (la base del cono o de la
pirámide) está recubierto internamente con
una molécula usualmente referida como
‘fósforo’, e.g. P1, P22, etc. (pero en general se
trata de un compuesto de zinc y otros
elementos que ni siquiera contienen fosforo!), Figura 8.12
34
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
y estos recubren la pantalla del instrumento. Además, en los dos extremos también se
encuentran dos rejillas metálicas, las cuales se mantienen a potenciales muy diferentes (VA,
que tiene valores de hasta miles de voltios): la del lado del filamento es negativa (el cátodo) la
del lado de la pantalla es positiva (el ánodo). Con esto se establece un fuerte campo eléctrico
orientado longitudinalmente al interior del tubo. Al ponerse incandescente el filamento, la
agitación térmica de las moléculas del metal es suficiente para que continuamente algunos de
los electrones se desprendan de sus respectivos núcleos. Estos electrones libres son
acelerados fuertemente por el campo eléctrico en la dirección de la pantalla, contra la cual se
estrellan. Su energía cinética es tal que la colisión con
las moléculas de fósforo lleva a éstas últimas a un
estado de excitación electrónica (los electrones externos
brincan a un orbital superior) el cual es de muy corta
duración, y al devolverse la molécula al estado inicial
disipa el excedente energético con la emisión de un
fotón de luz visible. Por consiguiente, si un chorro
continuo de electrones chocara contra el mismo lugar de
la pantalla, el observador al frente de la pantalla vería un
punto luminoso fijo. El resto del aparato consiste en
circuitos para controlar espacialmente este haz de
electrones, con lo cual se logra desplazar arbitrariamente
la posición del punto luminoso en la pantalla. Un par de
placas metálicas horizontales en la mitad del camino,
una por encima y la otra por debajo del eje del tubo,
permite que al aplicárseles una diferencia de voltaje, se
Figura 8.13 induzca una deflexión al rayo: si la placa superior fuera
más positiva que la inferior, los electrones no solamente
serían sometidos al campo longitudinal que los acelera hacia la pantalla, sino que al cruzar la
zona de las placas experimentarían simultáneamente una fuerza transversal que los desviaría
hacia arriba. Es decir, la resultante de los dos vectores de fuerza sería una trayectoria
inclinada. Si el voltaje fuera opuesto, la desviación será hacia abajo. Por consiguiente la
ubicación del punto luminoso en la pantalla cambiará en la dimensión vertical (el eje Y),
dependiendo de la polaridad y de la magnitud del voltaje aplicado a las placas horizontales de
deflexión. La Figura 8.13 ilustra este arreglo. Lo mismo se puede lograr en cuanto a desplazar
el punto luminoso horizontalmente; en este caso, un segundo par de placas metálicas
colocadas verticalmente causarán un desplazamiento del haz de electrones en el eje X (Figura
8.14). Ahora, controlando los voltajes aplicados a los dos pares de placas de deflexión,
estamos en posición de ubicar el punto luminoso en cualquier lugar del plano X-Y de la
pantalla. En un osciloscopio la
dimensión Y representa el voltaje, la
dimensión X el tiempo. Por lo tanto,
necesitamos que el voltaje a ser
medido produzca, a través de un
amplificador, un desplazamiento del
punto luminoso que, por convención, es
hacia arriba cuando el voltaje es
positivo, y viceversa. Ahora
necesitamos que el desplazamiento
horizontal represente el tiempo. Para
eso el punto debe moverse a una
velocidad fija de izquierda a derecha y,
Figura 8.14 al llegar al extremo de la pantalla,
35
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
devolverse y re-empezar. Esto se logra aplicando inicialmente un voltaje que fuera más positivo
en la placa de deflexión vertical izquierda, y cuyo valor fuera lo requerido para que desviar el
rayo ubicándolo inicialmente en el margen izquierdo de la pantalla; el voltaje debe luego
disminuir linealmente en el tiempo, hasta quedar anulado (el punto luminoso se moverá
gradualmente hasta el centro de la pantalla), luego seguir cambiando, ahora con la placa
derecha volviéndose cada vez más positiva (lo cual desvía el rayo hacia la derecha, hasta que
el punto luminoso llegue al margen derecho). A ese punto dos cosas ocurren: (i) el ciclo se
repite, volviendo abruptamente al voltaje positivo en la placa izquierda (ii) durante ese
brevísimo intervalo el punto luminoso se apaga, para que no se vea el trayecto de retorno.
Estos cambios simplemente se obtienen conectando las dos placas a un generador de ondas
que produzca una señal cíclica en forma de ‘serrucho’ (representada por el trazo azul en la
Figura 8.14), e interrumpiendo momentáneamente el potencial del filamento al final de cada
ciclo para que cese transitoriamente el haz de electrones. Con esto tenemos lo básico: el
movimiento horizontal representa el tiempo, el vertical el voltaje. Si quisiéramos medir voltajes
más pequeños o más grandes, simplemente variaríamos la ganancia del amplificador de
entrada para que la deflexión vertical para un voltaje dado fuera mayor o menor. La perilla de
‘Ganancia’ indica la calibración en mV/división, referida a un gratículo marcado en la pantalla
misma, cuyas líneas usualmente están a 1 cm de distancia una de otra. De la misma manera, si
quisiéramos discernir eventos cuyo curso temporal fuera muy rápido, aceleraríamos la
velocidad de barrido horizontal, lo cual simplemente implica utilizar una onda serrucho con una
pendiente mayor (más corto el tiempo para cruzar horizontalmente toda la pantalla, y por lo
tanto más ciclos por segundo). La perilla de control de barrido (‘Time Base’) tiene posiciones
calibradas en segundos (o mili-, o micro-segundos) por división.
Queda un último problema. Si se quisiera mirar un evento que ocurre bien sea
espontáneamente o bien en respuesta a un estimulo aplicado por el experimentador, sería
deseable sincronizar el barrido con la ocurrencia del evento de interés. De lo contrario, éste
aparecería cada vez en distintas posiciones de la
pantalla, y sería difícil examinar sus características. La
Figura 8.15 muestra un ejemplo típico en neurofisiología,
en el cual un estimulador aplica pulsos despolarizantes a
una neurona a través de un microelectrodo, mientras un
segundo microelectrodo registra, a través de un
amplificador, los cambios de voltaje intracelular. Como
sabemos, en un célula eléctricamente excitable si el
voltaje a través de la membrana se despolariza por
encima de un cierto valor umbral, se desencadena un
rápido cambio impulsivo de voltaje, llamado el potencial
de acción. Quisiéramos examinar en detalle los
potenciales de acción, pero, debido a que el barrido del
osciloscopio ocurre repetitivamente de una manera
continua sin tener en cuenta cuando se aplican los
estímulos, los potenciales de acción ocurren
Figura 8.15
aleatoriamente durante cada barrido, y su posición
horizontal en la pantalla es variable. Esto dificulta las mediciones. Pero podríamos aprovechar
el hecho de que el evento de interés es gatillado por un estímulo bajo el control del
experimentador: entonces, en lugar de dejar que el barrido ocurra repetitivamente de una
manera automática, utilizaríamos el modo de ‘gatillo externo’, en el cual el mismo estímulo que
desencadena el evento (en este caso, el pulso aplicado a la célula) se aplica también a una
entrada especial del osciloscopio (“Trigger”), e inicia cada vez un solo barrido (gatilla un solo
ciclo en el generador de onda de serrucho). Con lo cual habrá siempre una relación temporal
36
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
fija entre el inicio del barrido y la ocurrencia del evento, el cual aparecerá por lo tanto siempre
en una posición determinada de la pantalla (Figura 8.16). Cuando el evento no es controlado
por un estímulo explícito sino que ocurre espontáneamente, se puede usar otra modalidad, en
la cual el mismo evento a ser medido también inicia el
barrido. Esto se logra fijando un umbral y cuando la variable
a ser medida lo excede, se gatilla el barrido. De nuevo, en la
medida en que el evento examinado tenga un curso
temporal estereotipado, el barrido empezará siempre en un
punto fijo del evento, y sucesivas repeticiones aparecerán
en la misma posición de la pantalla (aunque en esta
modalidad uno perdería lo que ocurrió antes de que la señal
alcanzara el nivel-umbral).
37
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
9. Ruido eléctrico.
La discusión de las dos secciones anteriores podría dejar la impresión de que nuestra
capacidad de extraer información representada por una señal eléctrica, por pequeña y/o rápida
que fuera, depende solamente de la disponibilidad de un amplificador con suficiente ganancia y
ancho de banda. En la realidad nos topamos con los límites impuestos por la presencia de
ruido eléctrico, fluctuaciones espúreas de voltaje (o de corriente) que contaminan la señal de
interés.
Fuentes de ruido
Hay muchos orígenes del ruido, y algunas instancias son susceptibles de ser corregidas (por
ejemplo, alejándose de la fuente de interferencia), pero existe un componente de ruido que no
se puede evitar, y hace parte intrínseca de la naturaleza; como tal, establece el límite supremo
de la detectabilidad. Primero aclaremos conceptos básicos: todo evento que podamos registrar
representa en realidad la superposición de dos componentes (i) la señal de interés y (ii) el
ruido. Es obvio que el tamaño relativo de los dos dictamina el grado de contaminación, y por lo
tanto la fidelidad con la cual recibimos la señal; en el caso en que la amplitud del ruido fuera
mucho mayor que la de la señal, podría ser imposible para el observador percatarse la señal
misma. Esta relación se conoce como cociente señal/ruido (S/R, o en Ingles S/N – signal-to-
noise ratio) y es un parámetro crítico de la calidad de una medición. Si el cociente S/R fuera
muy pequeño, nuestra señal está muy contaminada, y de nada nos sirve aplicar una ganancia
alta: nuestro instrumento amplificaría de la misma manera tanto la señal como el ruido, y por lo
tanto no mejoraría nuestra capacidad de extraer información. En electricidad pueden existir
variadas fuentes que producen señales indeseadas, las cuales calificaríamos de ‘ruido’:
motores eléctricos ubicados en proximidad de un instrumento de medición, luces fluorescentes,
emisoras de radio, etc. Uno logra escudar la señal de interés, protegiéndola de tales
interferencias, resguardando las sondas y los instrumentos de medición dentro de un
compartimiento cerrado cuyas paredes son conductivas y conectadas a tierra (una así llamada
caja de Faraday). Sin embargo, siempre queda un ruido residual que es ineludible y se debe a
lo siguiente: en todo cuerpo en equilibrio térmico con su entorno las partículas están en
constante agitación aleatoria (el movimiento Browniano), que depende de la temperatura. Esto
se aplica también a partículas eléctricamente cargadas, como los electrones en una matriz
metálica, o los iones en una solución. El carácter estocástico de dicho movimiento implica que
entre dos regiones del espacio se pueden congregar transitoriamente cargas, resultando en
diferencias de potencial. Pensemos en una simple resistencia, cuyos terminales no están
conectados a nada; el voltaje entre ellos será cero, pero solo en promedio: en cada instante
dado, puede ser que varios electrones hayan brincado a un átomo vecino a la izquierda, no
contrabalanceados por un número exactamente igual de electrones que hayan sufrido un
desplazamiento en la dirección opuesta; lo mismo en una solución electrolítica. El resultado
será una momentánea separación de cargas positivas y negativas, es decir, la creación de una
diferencia de potencial eléctrico. No hay ninguna tendencia sistemática que propicie una
distribución asimétrica de carga, así que, probabilísticamente, esta situación no perdurará sino
que se compensará rápidamente; pero instantes más tarde puede crearse un desbalance
transitorio en la dirección opuesta, y así sucesivamente. A lo largo del tiempo el voltaje
promedio será nulo, sin embargo, se darán constantemente breves desviaciones en una
dirección y la otra, lo cual representa un voltaje fluctuante alrededor de 0, con excursiones
positivas y negativas de amplitud variable (entre más grandes menos frecuentes, porque la
probabilidad de que por simple azar ocurra un gran número de desplazamientos netos en una
dirección es muy baja – igual que la expectativa de obtener una gran predominancia neta de
‘caras’ vs. ‘sellos’ al lanzar al aire un número considerable de monedas). Entre mayor la
temperatura, mayor la agitación térmica y mayor el ruido. De la misma manera, si en lugar del
38
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
voltaje estuviéramos monitoreando la corriente que fluye por un corte de sección de nuestro
objeto, veríamos una corriente fluctuante en ambas direcciones, alrededor de 0. Si se midiera el
ruido térmico como voltaje, éste aumenta con la resistencia del objeto (cada desplazamiento de
una carga repercute como un voltaje más conspicuo si la resistencia es alta, ya que V =I×R); en
cambio, el ruido de corriente decrece con la resistencia, porque la facilidad de que una partícula
cargada se desplace por un medio es inversamente proporcional a la resistencia. El ruido
eléctrico debido a la agitación térmica de partículas cargadas se conoce como el ruido de
Johnson-Nyquist. Este ruido está presente en el objeto a ser medido (como en el ejemplo de la
resistencia), pero también lo está en los componentes de los circuitos del instrumento utilizado
para medir: sondas, transistores, etc. Todas nuestras mediciones inevitablemente están
superpuestas a unas incesantes fluctuaciones; cuando la señal de interés es muy grande, la
contribución relativa de estas fluctuaciones es mínima y a menudo ni siquiera somos
conscientes de que existe esa variabilidad de fondo. Pero en otras situaciones se pretende
medir voltajes diminutos, como los potenciales post-sinápticos producidos por la exocitosis de
una sola vesícula cargada de neuro-transmisor, o las corrientes iónicas mediadas por proteínas
transportadoras individuales; en estos casos la amplitud de la señal puede ser comparable a la
del ruido térmico, y la tarea de obtener información aceptablemente fiel e interpretable se torna
ardua.
Reducción de ruido por filtros de frecuencias
Existen dos acercamientos que nos permiten recuperar en parte la calidad de la señal. El
primero consiste en hacer uso de filtros. El ruido térmico se caracteriza por excursiones que no
solamente tienen amplitud variable sino también rapidez variable, incluyendo transientes
supremamente breves que contribuyen a la variabilidad total. Si la señal de interés tiene un
curso temporal que no contempla transiciones muy rápidas, podemos pasar el registro total
(señal + ruido) por un filtro pasa-bajos, el cual
descarta las fluctuaciones de más alta frecuencia.
Como ningún aspecto de nuestra señal tiene esas
características temporales, ésta queda prácticamente
intacta, mientras que buena parte del ruido es
eliminada. La Figura 9.1 muestra el efecto de un filtro
pasa-bajo ajustado a dos niveles progresivamente
más drásticos de corte de frecuencias altas
(rechazando frecuencias >200 y >50 Hz,
respectivamente); notar que, aunque el trazo se limpia
significativamente, fluctuaciones lentas sobreviven la
acción del filtro. Es preciso tener en cuenta que el
ruido no necesariamente concierne las frecuencias
más altas: por ejemplo, un investigador podría estar
interesado en estudiar el patrón de distribución
Figura 9.1 temporal de potenciales de acción (los cuales son de
muy breve duración) en alguna área del cerebro. Esta
actividad, si se registra mediante electrodos extracelulares, es de muy baja amplitud (en la
escala de microvoltios a fracciones de milivoltios) y se encuentra inevitablemente sumergida en
las oscilaciones lentas de la actividad eléctrica del cerebro, que pueden tener una amplitud
comparable. Esto dificulta la extracción confiable de los potenciales de acción, como por
ejemplo se podría desear lograr con un método automatizado que contara como potencial de
acción toda excursión que cruzara un cierto voltaje-umbral. De nuevo, es posible a través de un
filtro que rechaze selectivamente ciertas frecuencias, obtener la separación o la eliminación del
componente indeseado. Sin embargo, debido a que en este caso la señal de interés está
constituida por frecuencias altas mientras el ‘ruido’ contaminante está constituido por
39
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
40
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
10. Transductores
En las secciones anteriores se han esbozado algunos principios básicos de mediciones
eléctricas; posteriormente se examinará como empalmar dicha clase de registros con un
computador, el cual permita adquirir, almacenar y procesar datos. Pero antes de proceder es
importante recalcar que todas estas consideraciones realmente se extienden a muchos otros
tipos de mediciones, aunque la forma de energía originalmente implicada no sea eléctrica, tal
como el caso de la temperatura, fuerzas mecánicas, ondas acústicas, concentraciones
químicas de ciertas sustancias, y luz. En todas estas instancias la variable a ser medida es
primero convertida a electricidad, así que luego se pueden aplicar exactamente los mismos
acercamientos que se utilizan para mediciones eléctricas. La clave radica en disponer de algún
aparato, denominado transductor, cuya función es precisamente encargarse de esa conversión.
Esta estrategia, por supuesto, no es novedosa y la naturaleza la ha adoptado hace millones de
años: por ejemplo, el mismo proceso ocurre en los órganos sensoriales de cualquier
organismo, los cuales absorben diferentes modalidades de energía para transducirlas a
cambios eléctricos en la membrana celular que constituyen el lenguaje biológico utilizado por el
organismo para procesamiento y transmisión de información. A continuación se describirán
algunos ejemplos comunes de trasductores que tienen amplia utilización en muchas ramas de
la ciencia, incluyendo biofísica, fisiología y ciencias biomédicas en general.
Fuerza
El más común de los trasductores de fuerzas mecánicas, llamado medidor de deformación
(‘strain gauge’) explota los cambios en la resistencia que ocurren
en una lámina de material que sea sometida a tensión o
compresión, con la resultante deformación: si se estira, la
longitud, l, aumenta, y el sensor se adelgaza (A, el área de
sección, disminuye); por consiguiente, la resistencia aumenta
(recuerden que R = ρl/A); la compresión producirá el efecto
opuesto (Figura 10.1A). Para lograr que minúsculos cambios en
longitud de un sensor sometido a estiramiento se traduzcan en
cambios apreciables de resistencia los strain gauges tienen un
diseño ingenioso y sencillo: simplemente, una delgada lámina de
conductor forma una tupida serpentina, montada sobre un
sustrato deformable (Figura 10.1B). Si la serpentina tiene n
vueltas, al estirar (o comprimir) el sensor en la dirección
longitudinal por una distancia ∆l, el cambio total de longitud de la
serpentina será n×∆l, es decir, se incrementará
multiplicativamente con el numero de segmentos; con eso se
logra que los cambios en su resistencia sean también
significativos. Para medir fuerzas, se coloca el sensor de tal
manera que la fuerza en cuestión cause una deformación a lo
largo de su eje principal, y luego se trata entonces de monitorear Figura 10.1
continuamente la resistencia del aparato, por ejemplo, pasando
una corriente y registrando el voltaje resultante (ya que V = IR). La Figura 10.2 ilustra una
aplicación típica en fisiología o biofísica: se conecta un strain gauge en serie con un músculo
escindido (Panel A) o inclusive una fibra muscular aislada. A su vez, el otro lado del medidor
está sujetado a un soporte rígido. Al aplicar un estímulo eléctrico al músculo, que gatilla una
contracción, el sensor, al estirarse, mide la fuerza ejercida (Panel B). Otro tipo transductor
mecano-eléctrico se fabrica con cristales piezoeléctricos, materiales compuestos de moléculas
que posean un marcado momento dipolo (es decir, sus moléculas son polares). Al deformarse,
41
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
42
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
43
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
44
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
El computador utiliza un sistema numérico binario, es decir, sus dígitos individuales solo
pueden asumir dos valores (usualmente referidos como ‘0’ y ‘1’); estos representan dos niveles
de voltaje (típicamente 0 V y +5 V) utilizados por los circuitos de electrónica digital. Así que, al
igual que en nuestro acostumbrado sistema numérico decimal, formamos un número
constituido por una serie de dígitos, pero en el caso del computador el número siempre tiene
una cantidad pre-definida de dígitos, lo cual limita su precisión. Por ejemplo, si eligiéramos
establecer que los dígitos (llamados bits) que constituyen nuestro número binario fueran 8, éste
podría solamente asumir 256 posibles valores: cada bit tiene 2 posibilidades, así que un
conjunto de 8 bits (llamado un byte) puede tener 28 valores, desde 0 (=00000000) hasta 255
(=11111111). Si fueran números de 12 bits, habría 4096 posibilidades, si fueran de 16 bits
habría 65532, etc. Al adquirir datos, se dedica una cierta área de la memoria RAM del
computador para esta tarea (a veces llamado el ‘buffer’ de adquisición), y ésta tiene un tamaño
dado: por ejemplo si el buffer fuera de 200 KB, y los valores muestreados fueran representados
en números binarios de 16 bits (2 bytes), podríamos almacenar 100 mil muestras. Qué tan
rápido se nos acabaría la memoria disponible dependerá de la rapidez, o mas exactamente, la
frecuencia, con la cual muestreáramos la variable. Por ejemplo, si lo hiciéramos 5 mil veces por
segundo (5 KHz, es decir una muestra cada 200 μs), podríamos seguir muestreando durante
20 segundos, al cabo de los cuales habríamos agotado la memoria y tendríamos que
45
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
interrumpir el proceso. El arte (en realidad, la ciencia) de adquirir datos por computador radica
en saber minimizar la pérdida de información implícita en el proceso de conversión análogo-
digital. A continuación se esbozarán los dos aspectos más importantes.
Rango dinámico
Un conversor análogo-digital (ADC, “analog-digital converter’) puede recibir un voltaje dentro de
un rango definido (por ejemplo desde -10 V hasta +10 V) y convertirlo a un número binario de
una cierta resolución (llamada la profundidad de bits, por ejemplo, 8 bits). Al hacerlo, asigna el
número binario menor (000000, es decir 0 decimal) al valor mínimo de su rango permitido (en
nuestro ejemplo, -10 V), y el numero binario máximo (11111111, o 255 decimal) al valor
máximo (que en este caso sería +10 V) [Nota: existen otras formas de codificación binaria para
representar números positivos y negativos, pero el esquema presente es representativo y basta
para lo que se quiere examinar aquí]. Valores de voltaje de entrada que estén bien sea por
debajo o por encima del rango permisible serían asignados a 0 o 255, respectivamente, sin
hacer distinciones de que tan negativo o positivo es el voltaje en cuestión: en ambos casos el
conversor estaría saturado, habiendo excedido su capacidad (y si se excede ese rango de
voltaje por un margen muy grande se puede quemar el conversor!). En cambio, voltajes dentro
del rango lícito serían convertidos en números variables entre 0 y 255, según su tamaño; en
otras palabras, el rango entre -10 V y +10 V (en este ejemplo) se dividiría en 256 intervalos
iguales (asumiendo conversión en 8 bits), y cualquier voltaje al caer en un intervalo dado se
convertiría en el número binario correspondiente. Por supuesto, uno quisiera optimizar este
proceso, el cual sufre del problema de no hacer distinciones más finas que el tamaño de los
256 ‘escalones’. Esta limitante, de por sí significativa, es susceptible de empeorar mucho más
si el rango dinámico de la señal a ser medida (es decir, el voltaje mínimo y máximo que la señal
de interés efectivamente asume en el curso de una medición) no fuera más o menos
equiparable al rango dinámico de entrada del ADC:
para hacer un ejemplo, el conversor podría ser
capaz de recibir valores desde -10 a +10 V, y ya
sabemos que si la señal a ser medida se excediera
en cualquiera de los extremos, por ejemplo llegando
hasta voltajes de +27 V, entonces parte del tiempo
el conversor entraría en saturación, asignando
indiscriminadamente a toda excursión por encima
de +10 V el valor ‘255’. Esto, por supuesto no sería
una representación fiel de la señal. Pero un
problema igualmente serio ocurre si la señal a ser
medida fuera demasiado pequeña y, por ejemplo,
oscilar solamente entre -0.05 V y +0.1 V (-50 mV a
+100 mV). En nuestro ejemplo, el tamaño de los
‘escalones’ del ADC es de ≈78 mV (rango dinámico Figura 11.2
del conversor dividido por el numero de valores
posibles, es decir [+10 –[-10]]/256] = 0.078 V), así que nuestra señal apenas daría excursiones
que abarcarían solo unos 3 escalones, y su apariencia, una vez digitizada, sería una serie de
saltos rectangulares (pese a haber podido ser originalmente una señal que cambiara de una
forma lisa y continua, Figura 11.2); en particular, todas la fluctuaciones cuya amplitud hubiera
sido menor que 78 mV desaparecerían del registro, quedando convertidas al valor constante =
0. Una vez efectuada la conversión digital, no hay manera de corregir estas fallas y recuperar la
información perdida. Estas consideraciones nos indican que es imprescindible tener una idea
del rango de valores de la variable a ser medida, para amplificarla o atenuarla antes de entrar
al ADC, de tal manera que ‘ocupe’ una porción generosa del rango dinámico del ADC, sin llegar
a saturarlo en ninguno de los dos extremos.
46
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Frecuencia de muestreo
Un problema paralelo ocurre con el requisito de tener que muestrear solamente en momentos
discretos; aquí la dificultad radica en poder resolver los cambios temporales de la señal. Si la
señal cambiara lentamente (por ejemplo, una onda sinusoidal que realizara una oscilación cada
segundo i.e. 1 Hz), evidentemente muestreando a 100 Hz podríamos dar cuenta con bastante
precisión de su crecer y decrecer gradual (cada ciclo estaría representado por 100 puntos).
Pero eso no ocurriría si, con la misma frecuencia de muestreo, tratáramos de seguir el rastro de
un voltaje que estuviera oscilando a 1000 Hz, ya que solamente se tomaría una muestra cada
10 ciclos de la onda, y claramente perderíamos toda posibilidad de seguir sus cambios. Para
entender como ajustar correctamente la frecuencia de muestreo, hay que introducir, aunque
sea como simple concepto (sin matemáticas ni demostraciones) dos teoremas.
• Si se muestreara una onda sinusoidal simple por lo menos dos veces por cada ciclo, se
puede reconstruir su curso temporal (acudiendo a un malabarismo matemático que en
este contexto no viene al caso detallar). Este
enunciado se conoce como el teorema de
muestreo de Nyquist. Por supuesto, entre
mayor el número de muestras por ciclo de
oscilación, más fácil ver, por simple
interpolación, que se trata de un sinusóide de
cierta frecuencia, sin necesidad de cómputos
complejos. Pero si la frecuencia fuera menor
que 2/ciclo, no sería posible discernirla como
tal: la Figura 12.4 muestra un ejemplo en el
cual una onda rápida (trazo rojo) fue Figura 11.4
muestreada con baja frecuencia (menos de 2
muestras por ciclo), y la secuencia resultante de valores da la idea errónea de que se
tratara de un sinusoide lento (trazo azul). A este fenómeno se le llama ‘aliasing’.
47
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Ahora juntemos los dos conceptos. Si tenemos una señal arbitraria (cuya forma fuera compleja,
no un simple sinusóide) podemos descomponerla en sus sinusóides constituyentes (su
espectro de Fourier). Por lo tanto, si muestreáramos dicha señal con una frecuencia por lo
menos el doble que la frecuencia del sinusóide más rápido, tendríamos la certeza de que cada
componente estaría muestreado lo suficientemente a menudo para garantizar su reproducción
fiel, y por lo tanto lo mismo se aplica a la suma de todos ellos, es decir, nuestra señal original.
Dicho en otras palabras, si se conoce de antemano el rango de frecuencias constituyentes de
una señal (su ancho de banda) se puede definir cual es el límite mínimo de frecuencia de
muestreo para evitar pérdida de información. De no ser posible, se puede modificar la señal
misma, pasándola por un filtro que rechaza frecuencias mayores a un cierto límite (un así
llamado filtro pasa-bajos) antes de que llegue al conversor análogo-digital, y luego establecer la
rata de muestreo con base en la frecuencia crítica del filtro.
48
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
49
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Ahora pasamos a examinar la manera como la señal es transformada para generar la señal de
salida. Un sistema lineal posee la fundamental propiedad de que la respuesta a un input
sinusoidal es también un sinusoide de la misma frecuencia (aunque su amplitud y fase, por
supuesto, pueden cambiar). La importancia de estas características radica en que, como ya
sabemos, una función arbitraria (físicamente realizable) siempre se puede descomponer, por el
teorema de Fourier, en sus componentes sinusoidales. En un sistema lineal la respuesta a un
input compuesto de la suma de ciertos sinusoides, debe ser igual a la suma de las respuestas a
cada uno de los sinusoides (por definición de linealidad). Por lo tanto, si conociéramos para
cada frecuencia la manera como el sistema transforma un input sinusoidal, podríamos predecir
la respuesta para cualquier estimulo: lo que haríamos es (i) descomponer el input arbitrario
(representándolo como la suma de sinusoides de diferentes amplitudes y fase), (ii) aplicar a
cada constituyente la trasformación predicha (lo cual consiste sencillamente en un cambio de
amplitud y fase) y (iii) sumar todas las respuestas elementales obtenidas. Solo hace falta haber
establecido de antemano cual es el cambio de amplitud y fase que sufre un sinusoide,
dependiendo de su frecuencia. Esta regla de transformación es lo que se conoce como la
función de transferencia de modulación, y caracteriza plenamente el comportamiento de un
sistema lineal. La Figura 12.3 muestra el proceso: para predecir la respuesta al input, éste se
decompone en sus constituyentes
sinusoidales (análisis de Fourier,
ilustrado por los trazos a la
izquierda); en este caso, para
simplificar, asumimos que solamente
3 frecuencias (f1, f2, y f3) contribuyen
a la señal original. Al pasar por el
sistema, la amplitud y la fase de cada
uno de los tres sinusoides son
modificadas según la función de
transferencia (representada por las
dos gráficas en el panel central),
generando los tres sinusoides de de
la derecha. Notar que según la
función de transferencia f1 no sufre
atenuación alguna, ni cambio de
fase; en cambio f3 debe reducirse
Figura 12.3 considerablemente en amplitud y
desfasarse. Las respuestas
sinusoidales resultantes luego se suman para reconstituir la respuesta del sistema al estímulo
inicial (síntesis). Las aplicaciones de este tipo de análisis para determinar el desempeño de un
circuito son obvias, y de hecho ya hemos estado tratando estos mismos conceptos, aunque
fuera de una manera un poco encubierta, cuando se discutió la noción de impedancia y cuando
se describió la función de los filtros pasa-bajos y pasa-altos. Tal vez es menos obvia la
trascendencia de este mismo acercamiento en fisiología, pero resulta ser una herramienta
crucial en muchos campos, y no necesariamente ciñéndose a fenómenos eléctricos. Por
ejemplo, el estudio del sistema auditivo claramente se puede beneficiar de un análisis en el
dominio de frecuencia, y la caracterización de la función de transferencia nos brinda no
solamente una descripción compacta de sus límites de desempeño, sino también proporciona
una visión de como una onda acústica compleja (un compás de música, una frase hablada) es
transformada en cada paso del proceso auditivo: desde las vibraciones inducidas en la
membrana timpánica, a la conversión en potenciales de receptor de las células ciliadas, a su
transmisión sináptica a las neuronas del ganglio espiral que forman el nervio auditivo, con la
consecuente modulación de la producción de potenciales de acción. En la medida de que las
50
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
51
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
52
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
Falta solamente añadir una nota de sobriedad a estas consideraciones que parecen mostrar el
análisis de sistemas lineales como una panacea universal: muchos sistemas (la mayoría, muy
probablemente) no son lineales. Que hacer entonces? No es imprescindible abandonar por
completo este acercamiento: resulta que aún para un sistema no lineal el cambio en el output
que se obtiene al modificar muy poco el input siempre guarda una relación aproximada de
proporcionalidad entre estímulo y respuesta; por consiguiente, todavía podemos proceder de la
misma manera, siempre y cuando los estímulos en cuestión cambien muy poco. Si eso fuera
inaceptablemente restrictivo, existen otras técnicas matemáticas de análisis no-lineal, pero
notablemente más complejas.
53
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
54
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
inmediatamente otro sube, ya que ocurren tan seguidos, y así sucesivamente. En este caso el
potencial bioeléctrico, pese a tener la misma amplitud promedio que en el caso anterior, tendrá
una apariencia mucho más lisa y menos ruidosa (Figura 13.1B). Esto nos da una idea: si el
grado de variabilidad, relativa al valor promedio, refleja el tamaño de los eventos unitarios,
entonces este parámetro debería poderse estimar a partir de la relación entre alguna medida
de variabilidad y de la amplitud media. Los detalles matemáticos del asunto y su justificación
rigurosa exceden los propósitos de esta introducción elemental al tema, pero es suficiente
presentar una descripción que proporcione un sentido intuitivo a este acercamiento analítico.
En primer lugar, se determina la varianza de la señal y el valor promedio. Tanto la varianza, σ2,
como el promedio, μ, se estiman en el tiempo (es decir, dentro del mismo trazo registrado):
μ = 1/T∫V(t)⋅dt
(T siendo el intervalo de integración). Es como sumar valores sucesivos del voltaje, el cual está
cambiando en el transcurso del tiempo, y promediarlos; solo que, tratándose de un continuo, no
podemos simplemente sumar y dividir por N (hay una infinidad de valores), sino tomamos la
integral del trazo de voltaje y dividimos por la medida del intervalo considerado. La varianza,
σ2, es calculada como:
1/T ∫(V(t) - μ)2dt])
Tal como en la definición tradicional, restamos del valor del voltaje en cada instante el promedio
(para quedarnos solo con las fluctuaciones alrededor del promedio), elevamos al cuadrado el
resultado (evitando que luego al ‘sumar’ se anulen mutuamente desviaciones positivas y
negativas), e integramos. El cociente entre los dos parámetros estimados proporcionaría
entonces información respecto al tamaño de los eventos unitarios. De esta manera se
obtuvieron los primeros estimativos de la magnitud de las corrientes elementales debidas al
flujo de iones a través de proteínas individuales en la membrana de la célula.
55
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad
constituyentes, no su exacta relación de fase. Como tal, la medida más típica es el espectro de
potencia, también llamado la densidad espectral; conceptualmente, ésta se estima sumando los
cuadrados de los productos de la función de interés con senos y cosenos de cada frecuencia.
Si una frecuencia dada está representada en nuestro trazo, el producto de éste con un
funciones sinusoidales (seno y coseno) de dicha frecuencia debe contener, como ya se ha
visto, un componente DC (un término no-periódico que solo depende de la diferencia de fase
entre los multiplicandos): si el sinusóide presente en nuestro trazo está perfectamente en fase
con el seno, esta multiplicación arrojará el máximo tamaño del componente DC mientras que
en la multiplicación con el coseno se anula (ya que habrá un desfase de 90˚), y viceversa. Si el
desfase es parcial con respecto tanto al seno como al coseno (el caso más general), ambos
productos contribuyen un componente DC, y se trata de usar el teorema de Pitágoras (el
cuadrado de la hipotenusa de un triángulo rectángulo es la suma de los cuadrados de los
catetos) para obtener la amplitud de esa frecuencia en nuestro trazo: la hipotenusa representa
dicha amplitud, y los catetos sus componentes ortogonales. Las unidades de medida
resultantes, por lo tanto, también serán al cuadrado (e.g. V2).
Consideremos un caso concreto. En la Figura 13.2 se muestran dos instancias en las cuales un
evento ‘elemental’ estereotipado puede tener un curso temporal bien sea rápido o lento (panel
A). Podría tratarse, por ejemplo, del cambio de voltaje producido en la membrana de diferentes
células de la retina al absorber un fotón. Supongamos que dichos eventos ocurren
repetidamente en el tiempo, de una forma aleatoria (panel B); el efecto resultante será la suma
de todos esos eventos, lo cual genera un trazo ‘ruidoso’ (panel C). Sin embargo, es evidente
que las fluctuaciones del trazo de la izquierda, el cual representa la superposición de eventos
breves, tienden a ser más rápidas que en el trazo de la derecha. Esto se puede analizar
cuantitativamente extrayendo el espectro de potencia en los dos casos: el resultado (panel D)
muestra que el trazo de la izquierda efectivamente está constituido por muchos componentes
que se extienden hasta frecuencias bastante altas; la curva luego cae, indicando que no hay
representación de frecuencias aún mayores. El límite superior se denomina frecuencia crítica (o
también frecuencia de ‘roll-off’) simbolizada como fc. Para el trazo de la derecha, la curva de
densidad espectral muestra un comportamiento cualitativamente similar, pero solo frecuencias
relativamente bajas contribuyen, y el valor de fc se encuentra por lo tanto significativamente
desplazado hacia la izquierda. Con este acercamiento es posible entonces inferir parámetros
de las características temporales de la ‘respuesta unitaria’.
Al final de cuentas, entre las dos estrategias habremos logrado derivar un estimativo tanto del
tamaño como de la rapidez de los eventos elementales cuya superposición ha dado origen a
una señal que aparentemente es irregular y azarosa. Este acercamiento ha sido valioso para
derivar información de un sinnúmero de fenómenos microscópicos cuando su medición directa
no era factible. Cabe recalcar, sin embargo, que padece de limitaciones: para poderse aplicar
es imprescindible tener un ‘modelo’ inicial. Por ejemplo, hay que asumir que el ruido está
constituido por excursiones rectangulares que se superponen al azar, o que los eventos
elementales decaen en el tiempo según una función exponencial, etc. Muchas veces
consideraciones teóricas dan pie para proponer el modelo y respaldarlo con argumentos
convincentes. Entonces el análisis de fluctuaciones arroja parámetros interpretables. Pero en
ausencia de un modelo, los parámetros que resultan del análisis de ruido carecen de
significado.
56
II. MÓDULO DE ÓPTICA
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
1. Introducción
Relevancia de la óptica a la biomedicina: Desde el punto de vista del funcionamiento de células
y organismos, los principios ópticos solo vienen al caso en relación al ojo (contrariamente a la
bioelectricidad, que es ubicua). Con lo cual su aplicación a aspectos fisiológicos es más bien
especializada. Sin embargo, en cuanto a tecnología para observación y monitoreo de función
(y, en el caso de la medicina, diagnóstico e intervención) hay una gran variedad de enfoques
ópticos de gran utilidad, lo cual justifica el esfuerzo invertido en aprender por lo menos los
principios más fundamentales.
Naturaleza de la luz.
Parte de los motivos por los cuales la teoría de la óptica tiene diferentes marcos conceptuales y
diferentes acercamientos, es que la “materia prima” de la cual trata, es decir la luz, es
concebida de dos maneras diferentes. Cada una de las propuestas proporciona una buena
aproximación para una clase de fenómenos, pero falla en otros, por lo tanto las dos visiones
alternativas coexisten una al lado de la otra:
- Teoría corpuscular: la luz es conceptualizada como un haz de partículas luminosas que
viajan a gran velocidad.
o Pro:
La propagación de la luz procede en trayectorias rectas (en analogía con el principio
inercial de Galileo, que se aplica a cuerpos en movimiento).
Cuando un haz de luz choca contra la superficie lisa de un sólido, rebota según las
mismas leyes que gobiernan la colisión elástica de un cuerpo contra una pared rígida.
o Contra:
Las ‘partículas luminosas’ no se chocan entre sí: si dos
rayos luminosos se cruzan, ninguno de los dos altera su
dirección, contrariamente a lo que ocurriría en una colisión
mecánica entre partículas
Si se intercepta un haz de luz con una pantalla opaca en
la cual hay un pequeño orificio, la hipótesis corpuscular
contemplaría que aquellas partículas que pasan por el
orificio seguirían derechas, las otras serán bloqueadas.
Por consiguiente, si se colocara un detector de luz
directamente al frente del orificio, éste detectaría la luz
(Figura 1.1A, detector verde), pero si se desplazara a un
Figura 1.1
57
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
lado, nada le debería llegar (detector rojo). En cambio, lo que se observa es que la luz
emerge propagándose en todas las direcciones, y un detector ubicado lateralmente
también recibe luz (Figura 1.1B). Este fenómeno ha sido bautizado difracción.
Si la luz se puede concebir como una onda oscilatoria, es imprescindible entonces esclarecer
que es lo que oscila. Debemos a Maxwell la explicación, según la cual se trata de la oscilación
del campo electromagnético. Aclaremos que quiere decir: en electroestática se propuso que un
sistema de cargas fijas en el espacio puede ejercer una influencia sobre otra carga arbitraria
colocada en cualquier punto del espacio, y denominamos esa función vectorial el campo
eléctrico (cuya existencia es independiente de la presencia o no de la carga de prueba). De la
misma manera, si tuviéramos una o mas cargas que están oscilando, éstas ejercerían una
influencia fluctuante sobre cargas distantes. Debido a las aceleraciones de las cargas, dicha
influencia incluye un componente magnético, además del componente eléctrico, y decae
linealmente con la distancia (contrariamente a las interacciones electrostáticas, que decaen con
el cuadrado de la distancia); esta última característica hace que el campo electromagnético
pueda influir a distancias mucho mayores. Tratándose solamente de fuerzas electromagnéticas
oscilatorias ejercidas sobre una carga, tales influencias se hacen sentir también a través del
vacio, obviando la necesidad de un medio de propagación. Estas interacciones no actúan
instantáneamente, sino se propagan con una velocidad finita, en una dirección perpendicular a
las oscilaciones de las cargas. Decimos por lo tanto que la radiación electromagnética es una
onda transversal (lo opuesto, por ejemplo, a una onda acústica, en la cual las moléculas aire se
58
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
desplazan oscilando en la misma dirección que la dirección de propagación del sonido, es decir
es una onda longitudinal)
Polarización
Considerando la luz como onda transversal, se puede analizar cual es la forma de esa
oscilación en el plano ortogonal a la dirección de propagación. Si, en un espacio tri-
dimensional, llamamos z la dirección de propagación de un haz de luz, el plano de la oscilación
del campo eléctrico es el x-y. La Figura 1.3 muestra
una fuente de luz no-polarizada (la oscilación
transversal del vector eléctrico se da en todas las
direcciones en el plano x-y); al pasar por un elemento
llamado polarizador, solo se propagan ondas cuyo
vector eléctrico está confinado a una dirección
particular; diríamos entonces que la luz es linealmente
polarizada. Hay otras posibilidades, sin embargo: por
ejemplo, si la oscilación es el resultado de dos
componentes que no están necesariamente en fase, Figura 1.3
su forma en el plano x-y sería una elipse, o un círculo.
Debido a que un haz de luz puede volverse polarizado al cruzar un medio en el cual hay una
preponderancia de moléculas alineadas en una cierta dirección, esto nos puede servir para
inferir propiedades estructurales de un material transparente; viceversa, al irradiar una muestra
transparente con luz polarizada (por ejemplo, una célula), se puede dar transmisión diferencial
por diferentes componentes, lo cual permite visualizar características morfológicas que de otra
manera pasarían desapercibidas.
El Espectro Electromagnético
La luz visible sólo representa la manifestación de una minúscula porción de un fenómeno
llamado radiación electromagnética. Distintas ‘formas’ de esta radiación difieren con respecto a
un parámetro, la frecuencia (vista como onda), o su contraparte, la energía (vista como
partícula). Hay una relación directa, propuesta por Einstein, entre la frecuencia (ν, en unidades
de Hz o s-1) de una onda electromagnética y su energía cuántica (E, en unidades de ergs):
E = hν (h es la constante de Planck = 6.62×10-27 erg⋅sec)
Esta relación nos permite pasar de un marco conceptual al otro con facilidad. Cuando se habla
de luz dentro del marco de la teoría corpuscular, denominamos la partícula luminosa un fotón.
Más a menudo, en lugar de la frecuencia se utiliza la longitud de onda (λ) que es la distancia
que recorre una onda en el tiempo que demora un ciclo de oscilación; en el vacío tenemos:
λ = c/ν (c es la velocidad de la luz en el vacío, ≈ 3×108 m⋅s-1, ν la
frecuencia).
Contrariamente a la frecuencia, sin embargo, la
longitud de onda no es una característica intrínseca
de la radiación, sino depende además del medio por
el cual se está propagando. Es fácil ver que si la
frecuencia de una onda se mantiene al pasar de un
medio a otro, pero su velocidad de propagación
cambia, la longitud de onda también cambiará: por
Figura 1.4 ejemplo, si la velocidad de propagación en el nuevo
medio es menor, la onda avanzará menos por cada
59
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
ciclo de oscilación, y la longitud de onda habrá disminuido de tal manera que en una distancia
dada cabrán más ciclos (Figura 1.4). Así que en un medio en el cual la velocidad de la luz fuera
V, tendríamos:
λ’ = λ V/c
En el aire, la velocidad de propagación de la luz es casi idéntica a la del vacío, pero otros
medios transparentes de mayor densidad como el agua, el aceite, o el vidrio la enlentecen
significativamente. El índice de refracción (n) de un material es el cociente entre la velocidad de
la luz en el vacío y su velocidad en dicho medio (llamémosla V):
n = c/V
Índices de refracción (relativos al vacío, tomado como 1.0) de materiales transparentes
comunes, medidos a λ = 589 nm:
Aire: 1.0003
Agua: 1.33
Vidrio: 1.52-1.66 (según la composición)
Luz visible.
La porción del espectro electromagnético que es visible (para los humanos) comprende las
longitudes de onda entre 400 y 700 nm (1 nm = 10-9 m) aproximadamente. Hacia longitudes de
onda más cortas encontramos la radiación ultravioleta (UV, as su vez dividida entre UVA y UVB),
luego los rayos X, los rayos gamma (γ), y los rayos cósmicos. Hacia longitudes de onda más
largas, en cambio, tenemos
radiación infrarroja (IR), micro-
ondas, radio, etc. (Figura 1.5).
Este rango es supremamente
amplio, y va desde
billonésimas de milímetro
hasta kilómetros; por lo tanto,
lo que nosotros percibimos
como luz es realmente una
franja minúscula. Porque esta
limitación? Considerando la
Figura 1,5
energía de un cuanto (E=hν),
el espectro visible es
particularmente idóneo para conllevar información, porque (i) los cuantos son lo
suficientemente energéticos para sobresalir con respecto al ruido de fondo (e.g. la agitación
térmica de toda materia), mientras que, por ejemplo, un fotón infrarrojo no tiene mucha más
energía que la energía térmica de una molécula, especialmente a la temperatura corporal de un
mamífero, y al ser absorbido no haría gran diferencia; (ii) un cuanto visible es capaz de
desencadenar reacciones fotoquímicas ‘inocuas’ (isomerizaciones, excitación electrónica que
pueden iniciar el proceso de señalización), pero no tiene energía suficiente para deshacer
enlaces químicos covalentes, lo cual podría causar daños a tejido biológico (por ejemplo, los
60
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
efectos cancerígenos de la luz ultravioleta y de los rayos X). Por lo tanto, la capacidad de
absorber esas otras longitudes de onda puede ser no muy útil, o inclusive dañina, si el
propósito es solamente extraer información del entorno.
61
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
2. Cuantificación de la luz
Es imprescindible disponer de algún criterio para cuantificar la intensidad de un haz de luz, lo
cual requiere una aclaración inicial: consideremos un haz de luz como un flujo de fotones.
Hemos hablado de la energía de fotones de diferentes frecuencias, pero eso se refería a un
fotón individual. Debemos además considerar cuantos fotones fluyen por unidad de tiempo y
por unidad de área, ya que en la energía total del haz de luz ambos factores estarán
implicados. De la misma manera, si pensamos en la luz como onda, además de su frecuencia
(o su longitud de onda) habría que considerar su amplitud (es decir la amplitud de la oscilación
del campo electromagnético).
En general, hay dos enfoques fundamentales para determinar la intensidad de la luz, que
originan sistemas diferentes de unidades de medida. Las técnicas específicas serán
consideradas posteriormente:
Escalas radiométricas
Podemos cuantificar la intensidad de la luz en términos de sus características físicas, lo cual
típicamente hace referencia a algún parámetro de energía. Si una fuente puntual emite luz en
todas las direcciones, el flujo radiante es la energía total emitida por unidad de tiempo (erg×s-1
o W); similarmente, la intensidad radiante es el flujo
restringido a un steradian de ángulo sólido, lo cual se
define como un cono con el vértice en la fuente, tal que a
1 m de distancia la base subtiende una superficie de 1 m2
(Figura 2.1). Alternativamente, es 1/4π del total del flujo
radiante, ya que la superficie total de una esfera es 4πr2.
Las dos medidas anteriores hacen referencia a la luz
emitida por una fuente; también se puede pensar en la luz
que llega a un objeto. La irradiancia es la intensidad de
radiación que incide sobre una superficie por unidad de
área (W/m2). A medida de que una fuente de luz se aleja
de la superficie que ilumina, la irradiancia decrece con el Figura 2.1
cuadrado de la distancia: consideremos una fuente
puntual de luz y una superficie cuadrada sobre las cual
inciden los rayos. Si los rayos divergen y viajan en línea recta, a una distancia del doble estarán
incidiendo sobre un cuadrado del doble de lado, es decir es cuádruple en cuanto a área: por lo
tanto, el flujo de fotones por unidad de área habrá disminuido según el cuadrado de la distancia
de la fuente luminosa (entonces, porque no nos parece que los objetos mas distantes sean más
tenues que los cercanos?). Debido a que los fotones pueden tener energía diferente, uno
podría obtener la misma energía con un haz que consiste de pocos fotones (por segundo) pero
muy energéticos (longitud de onda corta) o con un haz de muchos fotones por segundo, pero
de baja energía (longitud de onda larga); los efectos de los dos rayos podrían ser radicalmente
diferentes. Por lo tanto, en muchas instancias, saber la energía total de una luz sin conocer su
longitud de onda no es suficiente; además, la luz puede ser policromática (i.e. compuesta por
una mezcla de varias longitudes de onda) y uno podría necesitar aclarar como están
distribuidas las intensidades de las varias longitudes de onda que la conforman. Para lograrlo,
haría falta pasar el rayo de luz por un monocromador, en el cual una rejilla de difracción rebota
los rayos de luz a un ángulo distinto según la longitud de onda, separándolos (algo similar al
prisma de Newton que descomponía la luz blanca del sol en un arco iris). Alternativamente, se
pueden utilizar filtros de banda (los cuales solo dejan pasar longitudes de onda selectas, como
veremos mas tarde). Luego, mediríamos separadamente la intensidad (energía) en cada
banda. La intensidad de la luz en función de la longitud de onda determina el espectro de la luz
62
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
(o, más técnicamente, la irradiancia espectral) Debido a que conocemos la energía de un fotón
en cada banda de longitud de onda, también podríamos convertir tales medidas de energía en
número de fotones, lo cual suele ser mucho más informativo, especialmente para propósitos
fisiológicos. Las complejidades implicadas en cuantificaciones de luz policromática, indujeron la
CIE (la comisión internacional que establece criterios estándar de medición en óptica) a
proponer como punto de referencia para muchas aplicaciones el ‘iluminador estándar A’, el cual
consiste en un cuerpo negro calentado a 2854°K, ya que se conoce exactamente la
composición de su emisión luminosa.
Consideremos un ejemplo práctico, en el cual se pretende cuantificar el flujo de fotones con el
cual estamos iluminando continuamente un objeto. Para este propósito interceptaríamos el rayo
de luz con el sensor de un radiómetro, el cual reporta la potencia de la luz que recibe, es decir,
la energía por unidad de tiempo (e.g. Joules/seg, es decir, Watios); supongamos que la lectura
arrojara el resultado ’40 μW’. Si queremos saber cuántos fotones por segundo por cm2
representa esa intensidad, es preciso saber la energía por fotón, lo cual solamente está
definido si la luz es monocromática: la relación de Einstein nos dice que E = hν = hc/λ. El valor
de h, la constante de Planck es h= 6.6262×10-34 J×Hz-1 (o J×seg), y c (la velocidad de la luz en
el vacío) es 2.998×108 m×s-1. Si se tratara de una luz de 500 nm, entonces:
E = 6.6262×10-34 J×seg ×2.998×108 m×s-1/500×10-9 m = 3973.1×10-22 J
Con eso podemos concluir que nuestros 40 μW = 40×10-6 J×s-1 corresponden a:
40×10-6 J×s-1/3973.1×10-22 J ≈ 1014 fotones/seg
Ahora se necesita ulterior información, porque podría tratarse de un rayo estrecho e intenso, o
la misma cantidad de fotones podría estar distribuida en un área mayor (con lo cual la
intensidad del rayo resultaría menor): es decir, necesitamos conocer la densidad del flujo de
fotones por unidad de área. Si se trata de una rayo ancho, del cual sólo una porción fue
captada por un sensor de área 0.5 cm2, la densidad del flujo de fotones por unidad de área
(cm2) será 1014/0.5 = 2×1014 fotones×s-1×cm-2. Alternativamente, podría tratarse de un rayo
estrecho, menor que el tamaño del sensor, por ejemplo de 5 mm2 (0.05 cm2); en este caso el
parámetro relevante es el área de sección del rayo, no la del sensor, y obtendríamos 1014/0.05
= 2×1015 fotones×s-1×cm-2. Finalmente, si en lugar de iluminación continua se tratara de un
destello de duración finita, podríamos saber el número total de fotones en el destello
multiplicando el flujo por la duración.
Escalas fotométricas
Alternativamente, podemos cuantificar la luz en términos de los efectos sobre un observador (lo
cual, por supuesto, depende de su sensibilidad). La fuente de luz utilizada para determinar la
sensibilidad de los humanos era la candela (una vela fabricada con ciertas especificaciones,
cuya intensidad – o flujo luminoso – se definió como 4π lumens). Esta fuente fue luego
reemplazada por un emisor negro calentado a la temperatura de fusión del platino, 2042°K).
Una serie de unidades de medida fotométricas han sido desarrolladas, que son homólogas a
sus contrapartes radiométricas: por ejemplo, la iluminancia es el equivalente fotométrico de la
irradiancia, etc. De allí se establecieron equivalencias de efectividad de estimulación a distintas
longitudes de onda, según lo percibido por un “observador estándar” (con todos los caveats
variaciones entre individuos, y las diferencias entre visión diurna o fotópica y visión nocturna o
escotópica...). La jungla de unidades derivadas es impenetrable para el novato: lumen,
candelas, trolands, lamberts, etc.).
63
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
3. Absorción de la luz
Cuando un rayo atraviesa un medio y la intensidad del rayo que emerge es menor que la del
rayo incidente, parte de la luz ha sido absorbida. Si consideramos una capa delgada de
material parcialmente absorbente, y denotamos con φo la intensidad de la luz incidente, la
magnitud del cambio al atravesar el medio es proporcional a (i) la intensidad, (ii) una constante
k, característica del medio y denominada el coeficiente de absorción, y (iii) el espesor de la
capa de material por la cual pasa el rayo, Δx:
Δφ = -k φ Δx ⇒ Δφ/Δx = -kφ.
(el signo negativo es debido a que la intensidad de la luz va disminuyendo al pasar por un
medio absorbente). Tomando el límite cuando la capa se hace infinitesimalmente delgada,
obtenemos:
dφ/dx = -kφ.
Esta ecuación diferencial tiene como solución la función:
φ(x) = φoe-kx
Esta relación se conoce como la Ley de Lambert. Notar que lo que se pierde en intensidad es
la suma de las pérdidas a lo largo del camino, pero es erróneo pensar que entonces uno podría
sencillamente considerar que para cualquier cuerpo arbitrariamente espeso la absorción es
proporcional a su espesor: esto se debe a que si en la primera capa se absorbe una cierta
fracción de la luz incidente, le llega menos luz a la segunda capa; si la misma fracción de luz es
absorbida por la segunda capa, la pérdida representa un cambio absoluto menor que en la
capa anterior. Aún menos luz llega a la tercera capa, así que la cantidad que se absorberá
decrece ulteriormente, y así sucesivamente. La Figura 3.1A ilustra este proceso asumiendo que
cada 2 capas laminares del medio absorbente se pierde la mitad de los fotones (las cruces
verdes representan los fotones que dejan de existir al ser absorbidos, las flechas rojas los que
sobreviven y siguen adelante). De allí la necesidad de calcular por separado en cada capa
delgada, integrando la ecuación diferencial (dφ/dl = -kφ): el resultado que se obtiene nos dice
que la cantidad de luz que emerge (o su complemento, la que ha sido absorbida) no se
relaciona linealmente sino exponencialmente con el espesor del medio que la luz ha de
atravesar (Figura 3.1B).
64
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
sustancia:
φ/φo = e-Cεx ⇒ ln(φ/φo) = -Cεx, i.e. C = -ln(φ/φo)/εx.
Por ejemplo, supongamos que una sustancia tuviera ε = 10000 M-1cm-1, y, medida en una
cuveta de 1 cm, la luz disminuyera al 10% de la intensidad incidente. Entonces:
C = -ln(1/10)/(10000×1) = 2.3/10000 M = 230 μM.
Viceversa, midiendo la absorbancia de una sustancia, podríamos averiguar el coeficiente de
extinción conociendo su concentración. Por consiguiente, un instrumento capaz de medir la
absorción (un fotómetro) es de gran utilidad en un laboratorio bioquímico.
Un medio que selectivamente absorba ciertas longitudes de onda hace que la composición
espectral de la luz que lo atraviese se altere. Por ejemplo, si la luz incidente es blanca (i.e.
compuesta por una mezcla balanceada de todas las longitudes de onda visibles) y el medio
absorbe solamente ondas menores que un cierto límite, digamos 580 nm, lo que emerge es un
rayo que se percibe como rojo (λ>580 nm). Este es el principio por el cual se genera luz de
colores con los tipos más comunes de filtros cromáticos.
65
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
transfiera la energía del fotón al medio por el cual transita, no habría rastro de su paso o de su
existencia, y sería imposible detectarla. Por lo tanto, todo medidor de energía radiante debe
poder absorber la luz a las longitudes de onda de interés; en general, sería deseable que la
absorción fuera total, con lo cual el problema de la medición se reduciría a determinar cuanta
energía ha sido transferida al instrumento. Pero en la práctica el detector tiene su característico
espectro de absorción, y uno ha de proceder por bandas limitadas, midiendo cuanta energía ha
sido absorbida en cada banda, corrigiendo luego por la fracción que no ha sido absorbida.
Los efectos de los fotones absorbidos se manifiestan de distintas formas, dependiendo de su
energía y de la naturaleza de las moléculas que los absorben. Estos efectos dan origen a
diferentes maneras de detectar la luz, y de cuantificar su intensidad.
• Mediciones bolométricas. Si la energía de los fotones incidentes es demasiado baja para
desencadenara cambios químicos en el material que los absorbió, la energía transferida se
ha de convertir en calor (es decir, manifestarse en una mayor agitación térmica de las
moléculas, bien sea en forma de vibraciones o rotaciones). Entonces, una manera de medir
la radiación es tener un cuerpo negro, i.e. cuya absorción sea total a todas las longitudes de
onda, y determinar los cambios de temperatura que sufre al ser expuesto a la luz. Este
instrumento, que se conoce como termopila, permite mediciones de gran precisión, y es
especialmente idónea para luz de longitudes de onda relativamente largas. Algunos
organismos que son sensibles a luz infrarroja (ciertas serpientes del desierto y escarabajos
que viven en cuevas) la detectan debido a la exquisita sensibilidad de algunas de sus
células a diminutos cambios de temperatura.
• Detección fotoquímica. Por otra parte, los fotones absorbidos podrían tener suficiente
energía para gatillar algún cambio estructural: la mayoría de los organismos biológicos
utilizan una detección fotoquímica, mediada por moléculas cuyas características son
alteradas por la luz de una manera que las haga propensas a sufrir ciertas reacciones
químicas, pero sin llegar a ser ionizadas (i.e. sin la pérdida de un electrón). En el caso del
ojo la luz es absorbida por un fotopigmento llamado rodopsina, cuyo coeficiente de
extinción es muy alto (≈40000 M-1cm-1), y está presente en alta ‘concentración’ (>108
moléculas/célula). En los bastones, el fotopigmento absorbe luz particularmente a λmax ≈500
nm (lo que un observador humano llamaría luz verde). Cabe mencionar que la rodopsina es
una molécula protéica, y las proteínas de por sí no
absorben luz en el rango visible: para adquirir esa
capacidad, la parte protéica de la molécula, llamada
opsina, se liga a otra molécula no protéica, un grupo
prostético que absorbe luz visible y se denomina el
cromóforo. El panel superior de la figura 3.3
representa esquemáticamente la opsina como un
‘manojo’ de 7 cilindros, que representan los dominios
que cruzan la membrana formada por una bi-capa
lipídica. En el centro de la proteína se encuentra el
cromóforo (constituido por un anillo aromático y una
cadena de hidrocarbono), En el caso del ojo, el Figura 3.3
cromóforo es un derivado de la vitamina A (aldehído
de vitamina A, llamado 11-cis-retinal); la absorción de un fotón por el cromóforo altera su
conformación (lo foto-isomeriza, cambiándolo a 11-trans-retinal; ver panel inferior de la
Figura 3.3) lo cual inicia una series de eventos bioquímicos que señalizan la recepción de la
luz. Posteriormente, otro ciclo complejo devuelve el fotopigmento a su conformación inicial,
permitiéndole estar listo para responder nuevamente a la llegada de otro fotón.
66
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
67
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
4. Óptica Geométrica
Además de la absorción, existen otras dos formas de interacción entre luz y materia, la
reflexión y la refracción, las cuales son relevantes a los tópicos que trataremos en esta revisión.
A diferencia de la absorción, éstas no implican la aniquilación del fotón, sino solamente un
cambio en su dirección, sin pérdida de energía.
Reflexión
Ésta se da cuando un rayo de luz que se propaga por un cierto medio encuentra la interfase
con un medio diferente y no lo penetra, sino que rebota. Fenomenológicamente, se puede
hacer una distinción entre dos clases de superficies reflectivas: reflexión especular ocurre
cuando la superficie en la cual rebota el haz de luz es muy lisa, i.e. tiene ‘irreguaridades’ que
son pequeñas, comparadas con la longitud de onda de la luz
utilizada. Si un rayo llega a una superficie plana reflectiva,
rebota con una trayectoria que forma un ángulo, con respecto
a la normal de la superficie, que es igual al ángulo que forma
el rayo incidente: θr = θi (Figura 4.1A). Un espejo es el
ejemplo típico. Si en cambio la superficie fuera áspera, cada
uno de los rayos paralelos en el haz se choca con una
superficie cuya orientación local es distinta (a escala
microscópica), y por lo tanto el ángulo de reflexión va a ser
distinto para distintos rayos; la dispersión que resulta hace
que la luz rebotada sea difusa (por ejemplo, una hoja de
papel). Se puede demostrar que en un difusor perfecto la
intensidad de la luz que rebota es máxima en la dirección
normal a la superficie, sin importar el ángulo de incidencia, y
decrece en otras direcciones con el coseno del ángulo con la
normal (Figura 4.1B). Cuando la reflexión no se da de manera
Figura 4.1
igual para todas las longitudes de onda, sino que alguna
banda selecta es reflejada preferencialmente, el material adquiere características cromáticas: el
color que vemos en cualquier objeto opaco (no transparente) es precisamente debido a que,
pese a ser iluminado con una luz blanca, solo rebota ciertas longitudes de onda, mientras que
absorbe las otras. El principio de conservación de energía exige que podamos dar cuenta de lo
que le sucedió a la totalidad de la luz incidente: si no toda la luz rebota de un objeto, debe ser
que una parte bien sea ha sido absorbida o bien ha sido transmitida por ese objeto.
68
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
rayo incidente, AP, debido a que α+θ = 90°, por lo tanto 2×α+θr+θi = 180°. Ahora consideremos
cualquier otra trayectoria alternativa que fuera de A hasta B, rebotando por otro punto P’ en la
superficie del espejo; el tramo P’B tendría la misma longitud que su reflexión, P’B’. Pero
evidentemente AP’ y P’B’ no son co-lineales, y, como la distancia menor entre dos puntos es la
línea recta, esta nueva trayectoria entre A y B necesariamente será más larga que la original
que pasaba por P. Es decir, la más corta es aquella para la cual se cumple que θr = θi.
69
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
70
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
71
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
verdes, depende de que tanto las ondas elementales hayan avanzado durante el intervalo
necesario para completar un ciclo de oscilación. Este haz de luz incide oblicuamente sobre la
superficie plana de un medio transparente en el cual la velocidad de propagación es menor
(mayor índice de refracción). Consideremos las ondas elementales que emanan de cada punto
de incidencia de los diferentes rayos en la interfase. El rayo A, teniendo que recorrer menos
camino para alcanzar la interfase, llega antes que los otros. En el tiempo de un ciclo, cuando el
rayo B también llega a la interfase, se ha por lo tanto generado una onda esférica en el nuevo
medio, pero ésta es de menor diámetro debido a la reducida velocidad de propagación. Un ciclo
más tarde ésta habrá avanzado al segundo círculo concéntrico, mientras se ha completado el
primer círculo para el rayo B y simultáneamente el rayo C alcanza la interfase. Y así
sucesivamente. Ahora tomemos la tangente a estos círculos para cada ciclo, formando los
frentes de onda que se propagan en el nuevo medio. Debido al menor diámetro de las ondas
esféricas, estos frentes tienen una diferente inclinación respecto a los que avanzaban por el
medio original. La dirección de propagación, la cual es perpendicular a los frentes, muestra por
lo tanto el cambio de rumbo del haz, es decir la refracción.
Lentes
En lugar de usar una superficie plana para refractar la luz por un medio como el vidrio, se
puede arreglar una curvatura de la superficie de tal manera que distintos rayos que emanan de
un punto dado al llegar al vidrio encuentren un ángulo de incidencia distinto, que los haga
doblar diferencialmente. Esta es la esencia de un lente. La Figura 4.8 muestra tres ejemplos; en
cada caso los rayos del haz paralelo que se dirigen al centro del lente (el ‘eje óptico’) inciden a
90° y por lo tanto siguen derecho sin ser desviados, pero los que llegan a la periferia
encuentran una superficie más y más oblicua, según la
distancia desde el centro, y por consiguiente sufren
desviaciones progresivamente mayores. Con una cierta forma
de la superficie curva, el resultado es que todos los rayos que
emergen al otro lado del lente llegan a cruzarse en un mismo
punto (el punto focal) cuya distancia desde el lente se
denomina la longitud focal de lente y se simboliza con la letra
‘f’. Entre mayor la curvatura del lente, más cerca el punto
donde convergen los rayos (menor la distancia focal f). Esto
define el poder refractivo (o dióptrico) de lente. Las
trayectorias de los rayos de luz no tienen una direccionalidad
intrínseca (la ley de Snell es simétrica); por lo tanto,
invirtiendo la dirección, podemos decir que la longitud focal
también representa la distancia del lente a la cual, si se
coloca una fuente luminosa puntual, los rayos emergen
paralelos al otro lado (i.e. forman un rayo ‘colimado’). Figura 4.8
Si el objeto puntual no se coloca a la distancia focal, sino a una distancia mayor que f los rayos
no emergen paralelos al otro lado, sino se enfocan en un punto, como ilustra la figura 4.9B y C.
Para un lente delgado (el caso más simple), la relación se puede cuantificar de la siguiente
manera:
1/do + 1/di = 1/f
Donde do= distancia del lente al objeto, di= distancia de la imagen al lente. Notar que, puesto
que los recíprocos de la distancia al objeto y la distancia a la imagen deben siempre sumar el
recíproco de la distancia focal (que es una constante para cada lente), si do crece di debe
decrecer, y viceversa. Las dos distancias serán iguales (do= di= d) si d = 2f. Los dos casos
72
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
73
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
respecto al objeto, es decir la magnificación. Notar que al seguir las trayectoria de los rayos
que se originan de dos puntos diferentes del objeto se entiende porque una imagen real el
invertida.
De una manera similar, si en cambio nos dijeran que do = 20 mm y f = 4 mm, entonces para
encontrar di:
di = do×f / (do- f)
⇒ di = 20×4/(20-4) = 80/16 = 5 mm. M = di/do = 5/20 = 0.25
Como empalma el principio de tiempo mínimo de Fermat con el hecho de que con un lente se
puede enfocar un punto luminoso en un punto-imagen? Evidentemente, en este caso para ir de
un punto al otro, los rayos de luz toman muchos caminos, no uno solo (de lo contrario no habría
muchos rayos que nacen del mismo punto y vuelven a converger a un mismo punto). Por lo
tanto debe ser que los distintos recorridos requieren exactamente el mismo tiempo, lo cual los
hace todos igualmente viables: el rayo que viaja desde el objeto puntual pasando por el centro
de un lente convexo tiene menos recorrido en el aire, pero luego debe cruzar la porción más
espesa del lente, por el cual se propaga más lentamente. Los rayos que emanan del mismo
punto pero se dirigen a la periferia del lente tienen en cambio un recorrido mayor por el aire,
pero este se compensa luego por tener que atravesar solo la parte más delgada del lente ⇒ Si
no hay un camino más rápido que escoger entre los dos puntos, la luz ‘los toma todos!` Si
calculáramos los tiempos totales para los distintos caminos, tomando en cuenta las varias
distancias y la velocidad de propagación en el aire y en el vidrio, llegaríamos exactamente a la
misma conclusión que se desprende de la ley de refracción: al diseñar un lente que iguale el
tiempo de viaje para todos los distintos rayos, éste resulta teniendo la misma forma que se
deriva de la aplicación de la ley de Snell.
Imágenes virtuales
Al colocar un objeto puntual más cerca al lente que la distancia focal, los rayos divergen al
cruzar el lente, con trayectorias como si provinieran de una imagen del objeto ubicada al mismo
lado que el objeto mismo (‘imagen virtual); esta
imagen no es invertida. Es decir, no se forma
una imagen ‘verdadera’, sino que un observador
ubicado al otro lado del lente (respecto al
objeto) vería el objeto mismo como si estuviera
a una distancia diferente a su posición real (lo
mismo ocurre si uno utiliza un lente cóncavo,
que se suele llamar lente divergente). La Figura
4.11 muestra esta situación. Un ejemplo familiar
es la impresión que puede dar una piscina de Figura 4.11
74
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
ser más panda que su verdadera profundidad: los rayos que emanan del fondo de la piscina
divergen ulteriormente al cruzar la interfase agua-aire, y un observador vería el fondo como si
estuviera más cerca de la superficie de lo que realmente es.
Dioptrías
Como ya se discutió, para un lente convexo (convergente) a mayor curvatura de la(s)
superficie(s), mayor la desviación de los rayos y por lo tanto menor la distancia focal. En óptica
fisiológica se suele utilizar, en lugar de la distancia focal, otra medida para indicar el poder
refractivo de un lente: este es el recíproco de la distancia focal medida en metros, y su unidad
es la dioptría. Por lo tanto, un lente que tuviera distancia focal f = 50 cm (= 0.5 m) tendría un
poder de 1/0.5 = 2 dioptrías. Las dioptrías son las unidades comúnmente utilizadas en
optometría. Si el lente fuera divergente, el valor sería negativo.
Profundidad de campo
Dos lentes pueden tener la misma curvatura, pero diferente diámetro. Por supuesto, la distancia
focal será la misma, pero los dos lentes diferirán en un aspecto importante: para un objeto
puntual ubicado a una distancia do, el cono de rayos que emanan del objeto y que serán
captados por el lente es necesariamente más estrecho si el diámetro es menor. La apertura
numérica (N.A.) de un lente que enfoca un objeto se define como N.A. = N⋅sinθ, N siendo el
índice de refracción del medio y θ es ½ del ángulo de aceptación de los rayos de luz que se
originan de un punto. Para una distancia dada del objeto, N.A. depende evidentemente del
diámetro del lente. Una mayor apertura numérica confiere al lente mayor luminosidad, ya que
implica una fracción más grande de luz captada. La apertura numérica también repercute en lo
que sucede con la imagen de objetos que se encuentren más cerca o más lejos del plano al
cual se está enfocando. La Figura 4.13 ilustra este concepto: dos objetos puntuales, o1 y o2 se
encuentran a diferentes distancias de un lente (mayor que la longitud focal del lente para que
ambas imágenes sean reales); sus respectivas imágenes, por lo tanto, también se formarán a
diferentes distancias al otro lado del lente (i1 y i2). Supongamos que el plano imagen de interés
(donde ‘interceptamos’ la imagen, poniendo un pantalla, o el sensor de una cámara) fuera i2
donde se enfoca el objeto o2. Nos preguntamos como se verá en ese plano la imagen del
75
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Aberración esférica
La curvatura de un lente que esté diseñado para enfocar exactamente todos los rayos de un
haz colimado en un solo punto está descrita por una función de cuarto orden. A menudo, la
fabricación de lentes, al igual que en el caso de espejos, utiliza una aproximación esférica, la
cual provee un desempeño excelente para rayos paraxiales, pero los rayos periféricos no son
enfocados en el mismo plano, y por lo tanto contribuyen, en el plano focal, una luz difusa que
degrada la calidad de la imagen. Este fenómeno se denomina aberración esférica y ocurre
frecuentemente en elementos ópticos de sistemas biológicos, donde la forma del lente es a
menudo esférica, por estar determinada por la isotropía del campo de fuerzas que lo moldean
durante el desarrollo (por ejemplo, lo mismo ocurre con la tensión superficial de una gota, o con
la agregación de material rodeado por un medio líquido). La Figura 4.14 muestra lo que sucede
con un lente cuya curvatura en ambas caras se
asemeja a una porción de la superficie de una
esfera. Los rayos centrales (flechas negras) se
enfocan todos en el mismo punto, pero a medida
que los rayos se alejan del eje óptico (flechas
grises oscuras y claras) encuentran un ángulo de
incidencia más y más pronunciado que lo
necesario, y son desviados hacia puntos
progresivamente más cercanos. Una posible
estrategia para corregir la aberración esférica
consiste en limitar la luz utilizada a los rayos Figura 4.14
76
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Aberración cromática
Otro problema que altera la calidad de la imagen deriva del hecho que el índice de refracción
normalmente manifiesta una cierta dependencia con respecto a la longitud de onda. Es por este
fenómeno que una luz blanca (como la del sol) que pasa por un prisma de cristal se
descompone en un arco iris: distintas longitudes de onda son refractadas por un ángulo
diferente, y por lo tanto se separan una de otra. Para el caso de un lente, esto implica que
rayos de una cierta longitud de onda se enfocan en un plano, pero para otra longitud de onda el
plano imagen se ubicaría a una distancia ligeramente diferente. En particular, para una fuente
puntual de luz blanca, los distintos componentes
espectrales (por ejemplo, rojo, verde, azul, etc.)
llegarían a concentrarse en un punto a distintas
distancias del lente. Por consiguiente, uno
observaría, en el plano focal apropiado para una
longitud de onda particular, un punto de ese color
rodeado de un halo más difuso de otros colores
(ver Figura 4.15). El fenómeno se denomina
aberración cromática, y en la fabricación de
elementos ópticos se logra corregir en buena
medida utilizando lentes constituidos por varias
capas de vidrios de distintas propiedades, los
cuales se compensan mutuamente (‘lentes Figura 4.15
acromáticos’). En aplicaciones en las cuales el
color puede no ser importante (por ejemplo, fotografía en blanco y negro, y ciertas aplicaciones
de microscopía), una forma sencilla de eliminar de raíz el problema es utilizando luz
monocromática (i.e. de una sola longitud de onda), interponiendo un filtro que solo transmita
una estrecha banda de longitudes de onda y absorba o refleje las demás.
El límite de difracción
Aún con un lente de forma ideal y perfecta corrección cromática, resulta que la imagen de un
punto proyectada en el correspondiente plano focal (o, equivalentemente, lo que se observa en
el plano de la distancia focal de un lente
sobre el cual incide un rayo colimado),
no es un punto perfecto (i.e.
infinitamente pequeño), sino una
‘mancha’ diminuta pero algo difusa,
rodeada por una serie de anillos
luminosos progresivamente más tenues,
que se denomina el disco de Airy. Para
explicar el origen y la naturaleza de este
fenómeno no es posible basarse en
óptica geométrica, en la cual
conceptualizamos la luz como rayos que
viajan en forma rectilínea, sino se
requiere analizar la luz como ondas
electromagnéticas tri-dimensionales que
Figura 4.16
77
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
se propagan y que pueden interferir unas con otras en forma constructiva (cuando dos frentes
de onda al encontrarse están en fase y se suman) o destructivamente (cuando están fuera de
fase y se anulan mutuamente). Una discusión detallada del tema excede las metas de esta
revisión, pero podemos esbozar un argumento intuitivo de la siguiente manera. Consideremos
un lente ideal que está enfocando un objeto en su imagen, lo cual implica que forma unos
frentes de onda esféricos cuyo centro es el punto-imagen (recordar que si los tiempos de viaje
son iguales, por el principio de Fermat, entonces en el punto-imagen así como en cualquier
conjunto de puntos equi-distantes de él, el campo electromagnético estará oscilando en
sincronía). Acudamos al principio de Huygens, según el cual cada punto en un frente de onda
se puede considerar el origen de una nueva onda que se propaga en todas las direcciones;
tomemos las ondas originadas en dos puntos distintos sobre el mismo frente y consideremos la
dirección de propagación bien sea hacia el foco (Figura 4.16 A) o hacia un punto lateral al foco,
pero en el mismo plano (B). Para llegar al foco, la distancia recorrida por las dos ondas es la
misma, por lo tanto llegan en fase e interfieren constructivamente, sumándose. En cambio, para
llegar al otro punto las distancias son diferentes, lo cual implica un desfase, que crece al
aumentar la distancia del foco. En regiones aledañas habría parcial cancelación de las ondas
que llegan, y por consiguiente menor intensidad de la luz, pero donde la diferencia de distancia
implique un desfase de 180°, la interferencia destructiva sería total: las dos ondas se
aniquilarían, i.e. no habría luz en ese punto. En el plano del foco, entonces, habrá una región
brillante que desvanece gradualmente a los lados, hasta la oscuridad; más aún, en regiones
aún más lejanas, donde la diferencia de fase se aproxime a 360°, de nuevo vuelve a ocurrir una
interacción constructiva; esto implica que se formarán anillos
concéntricos alrededor de la región luminosa. El disco de Airy
tiene por lo tanto un perfil de intensidad de iluminación con
forma de campana, rodeado de anillos ulteriores de luz cada
vez más tenues. El panel superior de la Figura 4.17 ilustra su
apariencia, mientras que en el panel inferior de la misma
figura se muestra el perfil de intensidad a lo largo de una línea
que pase por el centro del disco de Airy.
78
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Hasta ahora se ha enfatizado la refracción en situaciones en las cuales la luz viaja de un medio
de menor a mayor índice de refracción, como es el caso de un lente. Sin embargo hay casos
importante en los cuales sucede lo contrario. Consideremos la ley de Snell, Sin(θ1)/ Sin(θ2) =
N21, aplicada a una instancia en la cual la luz viaja de un medio de menor velocidad de
propagación (mayor índice de refracción, llamémoslo Medio 2) a otro de mayor velocidad de
propagación (menor índice de refracción, Medio 1), como por ejemplo de vidrio a aire. En este
caso sabemos que, a medida que aumente el ángulo de incidencia del rayo sobre la interfase,
mayor será la desviación del rayo refractado, respecto a la trayectoria rectilínea, y esta
desviación ocurrirá en la dirección que lo aleja de la normal (es decir, el rayo refractado tiende
a ‘acostarse’ hacia la superficie de la interfase vidrio-aire). Esto implica que, con un cierto
ángulo incidente, el rayo refractado podría quedar paralelo a la interfase: θ1 = π/2 (90°) y por lo
tanto sin(θ1) = 1. La ley de Snell en este caso se reduce a 1/ Sin(θ2) = N21 y por lo tanto Sin(θ2)
= 1/N21 = N12; el ángulo de incidencia al cual este fenómeno ocurrirá será θ2 = arcsin(N12), y se
conoce como el ángulo crítico. A ángulos de incidencia aún mayores, la luz rebota de la
interfase; el fenómeno se denomina reflexión interna total.
Fibras ópticas. La luz, como se dijo al comienzo de estas notas, viaja en línea recta
(contrariamente a la electricidad, que sigue la trayectoria del conductor). En algunas
situaciones esto llega a complicar la aplicación de iluminación, o la colección de luz en sitios de
difícil acceso. Existe una manera de obviar esta dificultad, haciendo que un haz de luz se
propague a lo largo de una fibra que puede dar curvas, de la misma manera como una
corriente eléctrica fluye por un cable. La reflexión interna total se ha utilizado para guiar la
transmisión de luz por caminos no rectilíneos, haciendo uso de un conducto sólido de material
transparente (vidrio, plástico etc.) rodeado de aire u otro medio de menor índice de refracción
que el conducto mismo. El artefacto se llama fibra óptica y asegura que, mientras el rayo viaje
internamente incidiendo sobre las paredes de la fibra formando un ángulo mayor que el ángulo
crítico (respecto a la normal de la pared), procederá hacia adelante rebotando múltiples veces
sin escapes laterales. La Figura 4.18A muestra esquemáticamente la situación. Notar que si se
doblara la fibra de una manera pronunciada, rayos de luz podrían encontrar un ángulo de
incidencia con la pared de la fibra por debajo del límite crítico, en cuyo caso el rayo saldría de
la fibra (panel B de la misma figura). Usualmente, las fibras ópticas se pueden fabricar en
diámetros desde 0.02 hasta ≈2 mm, y se suelen juntar en un ‘manojo’ que puede contener
muchos cientos o miles de fibras, con un diámetro
total de unos 2-8 mm; por supuesto, es
imprescindible que las fibras estén separadas una de
otra por un material de bajo índice de refracción,
para que la luz quede confinada dentro de cada fibra
separadamente. La versión más sofisticada de fibra
óptica contempla un conducto transparente en el
cual el índice de refracción es máximo en el centro y
disminuye radialmente hacia la periferia; de esta
manera los rayos de luz curvan gradualmente y son
guiados a lo largo de la fibra, usualmente sin llegar y
tener que rebotar de la superficie del cilindro (’fibras
indexadas’). Las aplicaciones más comunes
Figura 4.18
conciernen iluminadores de varios tipos, que
permiten traer un haz de luz a sitios poco accesibles (por ejemplo, un campo de cirugía, un
microscopio), ya que (i) el conducto de fibras ópticas suele ser flexible, (ii) su cabeza terminal
es mucho más pequeña que un iluminador (constituido por una lámpara, colector, etc.), y (iii) el
79
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
conducto de fibras ópticas no transmite sino una mínima fracción del calor que genera la
lámpara.
80
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
5. Fluorescencia
Fenómeno básico. Existe un ulterior fenómeno óptico de gran relevancia a las ciencias
biomédicas, que consiste en que cierta clase de moléculas, cuando se les irradia con luz,
emiten luz a su vez. La absorción de un fotón implica que su energía (E = h⋅ν) debe haber sido
transferida a la molécula en cuestión y puede llevar un electrón a saltar a un orbital más alto.
Este incremento en el nivel energético dura poco (por lo general billonésimas de segundo), y
tiende a disiparse en movimientos moleculares como vibraciones y rotaciones, lo cual
simplemente se traduce en calor. Pero moléculas cuya estructura es muy rígida (por ejemplo,
cuando contienen anillos aromáticos) no se prestan para ‘descargar’ con movimientos toda esa
energía absorbida, debido a su limitada flexibilidad. Entonces, solo una pequeña fracción de la
absorción inicial se disipa en calor, el resto en un brinco abrupto de vuelta a un estado
energético más bajo, cuando el electrón retorna a su orbital original. Esta diferencia de energía
no puede simplemente desvanecer (de lo contrario se violaría la primera ley de la
termodinámica, el principio de conservación de energía), sino se debe manifestar en algo. Este
‘algo’ es la emisión de radiación electromagnética (i.e. otro fotón). Puesto que, antes de
lograrlo, la molécula en cuestión inevitablemente
ya habrá perdido alguna fracción de la energía
adquirida, el camino no es totalmente reversible
y por lo tanto la energía del fotón emitido es
menor que la del fotón absorbido. Es decir, por la
relación de Einstein, la longitud de onda de la luz
emitida es necesariamente mayor que la de la
luz absorbida (también llamada ‘de excitación’);
esta discrepancia entre la longitud de onda de la
luz de excitación y la de emisión se llama el
desplazamiento de Stokes. La Figura 5.1
Figura 5.1
muestra esquemáticamente este proceso.
Moléculas capaces de emitir luz luego de ser
irradiadas se conocen como ‘fluoróforos’ (por ejemplo, la fluoresceína, o la rodamina).
Espectros de excitación y de absorción. El fenómeno de la fluorescencia es sumamente
versátil, y ha generado una enorme variedad de aplicaciones en ciencias bio-médicas. En
primer lugar, la absorción y la emisión de luz de cada fluoróforo tienen características
específicas en cuanto a longitud de onda. Esto se puede determinar utilizando diferentes filtros
que dejen pasar solo una longitud de onda particular, e interponiéndolos en el camino del rayo
de excitación, y en el camino de la emisión. Por
ejemplo, se puede mantener un filtro fijo al frente del
detector, y medir la intensidad de la emisión mientras
se varía la longitud de onda de excitación; la
representación gráfica de esta relación define el
espectro de excitación de la molécula en cuestión.
Alternativamente, se puede excitar el fluoróforo con una
longitud de onda fija y variar en cambio la longitud de
onda del filtro de emisión (también llamado filtro de
barrera). La determinación de cómo distintas longitudes
de onda contribuyen a la fluorescencia emitida se llama
el espectro de emisión. La Figura 5.2 ilustra los
espectros de absorción (línea punteada) y de emisión Figura 5.2
(línea contínua) de un compuesto fluorescente.
81
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Aplicación de la fluorescencia al marcaje de moléculas. Puesto que estas curvas suelen tener
una forma y un pico máximo característicos para diferentes moléculas, al examinarlas se deriva
información sobre la presencia de dichas sustancias en una muestra. Ciertos fluoróforos
tienden a combinarse específicamente con otra molécula, la cual
puede ser de interés biológico, permitiendo así detectarla; este
es el caso del bromuro de etidio, que se intercala con el ADN, de
tal manera que cuando la muestra es irradiada con luz
ultravioleta el bromuro de etidio emite luz anaranjada y se puede
facilmente visualizar. La Figura 5.3 muestra un ejemplo de ADN
separado electroforéticamente en un gel de agarosa (banda
brillante a la derecha); en el carril de la izquierda se encuentran
marcadores de diferentes tamaños como referencia. En otras
aplicaciones se puede conjugar un fluoróforo a un anticuerpo que
reconozca alguna proteína particular, lo cual permite establecer Figura 5.3
su localización en un tejido.
Uso de fluorescencia para monitorear función celular.
Otra aplicación muy importante de la fluorescencia concierne la medición de cambios en la
concentración de sustancias de interés biológico. Un reto particularmente complejo concierne
mediciones en el interior de la célula, por ser un compartimiento de difícil acceso y diminutas
dimensiones, el cual por lo tanto suele estar fuera del alcance de métodos bioquímicos
convencionales. La fluorescencia, en cambio, hace posible realizar mediciones mínimamente
invasivas en células vivas y en tiempo real. Este acercamiento requiere el uso de alguna
molécula reportera fluorescente la cual cumpla con las siguientes condiciones: (i) sea capaz de
establecer un enlace reversible con la sustancia de interés (ii) exista alguna diferencia en sus
propiedades de fluorescencia entre el estado libre vs. cuando se liga al sustrato. Las
alteraciones inducidas por la interacción entre el reportero (o indicador) y el sustrato pueden
implicar (a) cambios en la intensidad de la emisión fluorescente (b) cambios en la absorción de
la luz de excitación (c) un desplazamiento del espectro de excitación (d) un desplazamiento del
espectro de emisión. Por supuesto, la lógica que subyace a este tipo de medición es que la
concentración del sustrato determina la cantidad de complejos (sustrato-indicador) que se
forman. Consideremos el caso más simple, una reacción bi-molecular en la cual una molécula
de indicador (I) se une reversiblemente a una molécula de sustrato (S):
α
I+S ↔ IS
β
Este esquema cinético es muy conocido y lo resumiremos brevemente (aunque el tema debería
resultar familiar a todos). La rata de cambio en la concentración del complejo, [IS], se
representa como:
d[IS]/dt = α[I][S] - β[IS]
Si la reacción es rápida en comparación con la velocidad de los cambios en la concentración
del sustrato, se puede considerar que en todo momento estará prácticamente en equilibrio, en
cuyo caso d[IS]/dt = 0, y por lo tanto:
α[I][S] - β[IS] = 0 (*)
Considerando que en el sistema se ha introducido una cantidad total fija de indicador,
llamémosla IT, entonces podemos reducir el número de variables libres tomando en cuenta que:
[I] = [IT] -[IS]
82
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Esto simplemente denota que la cantidad de moléculas de indicador libre es igual a la cantidad
total menos las que se han unido al sustrato. Entonces, re-escribimos la expresión (*) como:
α([IT] -[IS] )[S] - β[IS] = 0
Ahora como variables sólo tenemos la concentración de sustrato libre, [S], y la del complejo
[IS]. Queremos despejar [IS] en función de [S]:
α[IT][S] -α[IS][S] - β[IS] = 0
α[IT][S] = α[IS][S] + β[IS]
α[IT][S] = [IS](α[S] + β)
[IS] = α[IT][S] /(α[S] + β)
Dividiendo tanto el numerador como el denominador por α y representando β/α como KD (la
constante de equilibrio de disociación), finalmente obtenemos:
[IS] = [IT][S] /([S] + KD)
Esta es la muy familiar hipérbola rectangular
conocida como ‘Michaelis-Menten’ o ‘Iso-terma
de Langmuir’: si se grafica la concentración del
complejo en función de la concentración del
sustrato libre, como se ilustra en la Figura 5.4,
se obtiene una curva negativamente acelerada
que empieza en 0 y tiende asintóticamente
hacia IT a medida que [S] incrementa; esta
deducción se desprende más fácilmente
dividiendo tanto el numerador como el
denominador del lado derecho de la ecuación
por [S], con lo cual queda:
[IS] = [IT] /(1 + KD/[S]) Figura 5.4
83
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
y por lo tanto el cociente entre la concentración del sustrato unido al indicador y el sustrato libre
es:
[IS]/[S] = [I]/KD
Si nos encontramos en la porción casi lineal de la curva (Figura 30) quiere decir que:
[IS] << [IT]
Por consiguiente, [I], el indicador libre, se puede aproximar con la constante IT, lo cual quiere
decir que el cociente entre sustrato ligado y libre es también prácticamente constante (este
parámetro se conoce como la capacidad de tamponamiento o ‘buffering capacity”). Si hay que
formar muchos complejos para detectar la fluorescencia, este cociente, llamémoslo B, es
grande. Supongamos que B fuera = 9, es decir el 90% del sustrato está ligado. Pero entonces,
al introducir el indicador en tan alta concentración, la concentración del sustrato libre ha bajado
drásticamente con respecto al valor original (al 10%). No solamente esto perturba la línea de
base; pensemos que pasa si luego el sustrato aumentara por una cantidad X (por ejemplo al
aplicar algún estímulo): puesto que B permanece prácticamente constante, sólo 1/10 de este
aumento se verá reflejado en la concentración libre, y estaremos seriamente interfiriendo con la
fisiología del sistema. Es imprescindible, por lo tanto, mantener esta contaminación al mínimo,
si se quiere evitar que nuestra medición sea invasiva.
Con el debido entendimiento de las variables implicadas y el uso de las precauciones
necesarias, de todos modos este acercamiento se ha revelado muy poderoso, y en las últimas
dos décadas ha permitido por primera vez proporcionar un registro de una variada gama de
iones intracelulares de interés biológico: protones (pH), calcio, sodio, cloruro, o zinc. Más aún,
conjugando un fluoróforo a moléculas que liguen sustancias orgánicas más complejas, tales
84
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
como el mensajero interno AMP cíclico (cAMP) se torna posible seguir en tiempo real la
dinámica de diferentes procesos de señalización celular. La Figura 5.5 ilustra un ejemplo en el
cual una célula fue cargada con el indicador de calcio Oregon Green (el cual incrementa su
fluorescencia cuando se une a calcio). Al aplicar
estimulación que despolariza la membrana y
causa la apertura de canales iónicos calcio-
selectivos, el influjo de calcio (y por consiguiente
la elevación de su concentración citosólica)
produce un aumento significativo en la
fluorescencia, medida por medio de un
fotomultiplicador. Es asombroso que se logra
monitorear cambios en la concentración de calcio
que son del orden de pocas millonésima de
molar y ocurren en una sola célula cuyas
dimensiones son de una decena de micras, el
todo mientras la célula sigue desempeñando sus Figura 5.5
funciones normales.
85
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
ejemplo del indicador de calcio Indo-1 (el hecho de que los dos espectros difieran además en
su amplitud es irrelevante). Consideremos dos longitudes de onda: una (λ1) que coincide con el
punto donde las dos curvas se cruzan (conocido como un punto isosbéstico) y otra (λ2) donde
las dos curvas difieren considerablemente. La luz emitida a la longitud de onda λ1 sólo depende
de la cantidad total de indicador (i.e. concentración y volumen muestreado), sin importar su
estado (libre o ligado) y por lo tanto es independiente de la concentración de sustrato. En
cambio, la luz emitida a la longitud de onda λ2 depende además de la fracción de indicador que
se encuentra libre vs. ligado: obviamente, si gran parte del indicador está en complejo con el
sustrato (como se espera cuando [S] aumenta), en el ejemplo de la Figura 5.6 el total de luz
emitida será menor, puesto que a λ2 el complejo fluoresce menos que el indicador libre (si
escogiéramos λ2 entre 400 y ≈440 nm, lo opuesto ocurriría). Podemos ahora calcular el
cociente de la fluorescencia registrada a las dos longitudes de onda:
Fλ2/ Fλ1
El valor obtenido ya no depende de la intensidad de la luz de excitación, ni de la concentración
del indicador, ni del volumen, ya que todos éstos factores han sido normalizados al dividir por la
fluorescencia medida en el punto isosbéstico: el cociente sólo refleja cual fracción del indicador
se ha unido al sustrato, lo cual reporta la concentración del sustrato. Es posible entonces
construir una escala cuantitativa de calibración, y derivar información sobre concentraciones
absolutas. Lo mismo se podría obtener con un indicador fluorescente cuyo espectro de emisión
permaneciera constante pero cuyo espectro de excitación sufriera un desplazamiento entre las
conformaciones libre y ligada (otro popular indicador de calcio celular, llamado Fura-2, funciona
de esta manera).
Seguimiento óptico de cambios de voltaje. El monitoreo de cambios de concentración de
diferentes sustancias no es la única aplicación de la fluorescencia a la fisiología y la biofísica
celular: teniendo en cuenta que la emisión de fluorescencia es sensible al coeficiente dieléctrico
del entorno del fluoróforo (i.e. si el entorno es hidrofílico o hidrofóbico) se abren ulteriores
puertas. Una de ellas es construir moléculas que se insertan en la membrana y, al poseer
grupos cargados, se ‘hunden’ más o menos según el potencial eléctrico de la membrana. Si
estos cambios de posición desplazan el fluoróforo de un medio lipídico (la membrana
plasmática) a uno acuoso (bien sea el citoplasma o el medio extracelular) o viceversa, las
variaciones resultantes en la fluorescencia reportarán el voltaje de la membrana celular sin
necesidad de un microelectrodo interno,
es decir de una manera mínimamente
invasiva. La Figura 5.7 ilustra
esquemáticamente la lógica de este
acercamiento. Más aún, si se utiliza una
cámara como detector, se tiene el
potencial de permitir el seguimiento del
voltaje de membrana de muchas células
al mismo tiempo, lo cual es
particularmente ventajoso, por ejemplo,
para estudiar redes interconectadas de
células neuronales o el propagarse de Figura 5.7
la ola de despolarización en tejido
cardíaco.
Medición de cambios conformacionales de proteínas. Por último, se puede también aprovechar
la sensibilidad de la fluorescencia al coeficiente dieléctrico del entorno para monitorear posibles
cambios en la conformación de una proteína de membrana. Este acercamiento puede
86
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
87
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
6. Elementos de microscopia
Habiendo revisado los principios más elementales de la óptica, en las secciones siguientes de
estas notas se considerará la aplicación de dichos principios primero a la instrumentación en
bio-medicina, y luego a la fisiología del ojo. En primera instancia nos enfocaremos en el
microscopio, instrumento que tiene la dudosa distinción de ser tal vez el más ubicuo y al mismo
tiempo el más abusado: al introducir una descripción elemental pero sistemática del
microscopio se espera establecer las bases para su uso correcto: de nada sirve una invertir una
cuantiosa suma para adquirir un instrumento de calidad si luego, al desconocer los principios,
se utiliza de una manera falaz y se obtienen imágenes de mediocre calidad, que aún un
instrumento de juguete podría producir! Más aún, se quiere también mostrar la existencia de
una miríada de acercamientos que proporcionan nuevos horizontes para la observación, y
enfatizar que la tecnología de la microscopia no es un libro cerrado, sino un campo en perenne
desarrollo, en el cual nuevos retos y acercamientos creativos originan constantemente
novedosos diseños de instrumentos que pueden proporcionar información insospechada.
Diseño básico de un microscopio. En una gran cantidad de ramas de las ciencias bio-médicas,
se trabaja con objetos de dimensiones minúsculas (células, por ejemplo) y en muchas
instancias es preciso poderlos visualizar. Uno de los instrumentos más ubicuos es el
microscopio de luz, cuyo propósito es generar imágenes altamente magnificadas que revelen
finos detalles del espécimen. Ya sabemos que, debido al límite de difracción, la resolución que
se puede alcanzar dependerá de la longitud de onda utilizada y de la apertura numérica del
sistema óptico; para luz visible, en la práctica esto quiere decir que se podrán resolver detalles
de poco menos de una micra (10-6 m o una milésima de milímetro), lo cual es adecuado para
células y algunas estructuras sub-celulares. Si se requiere una resolución más fina, hay que
utilizar radiación de menor longitud de onda, y eso precluye el uso de de la luz visible; para
aplicaciones de esa índole hay que acudir al microscopio electrónico.
El diseño del microscopio de luz contempla dos estadios, de allí el nombre microscopio
compuesto. En primer lugar, el objeto (la muestra) es enfocado por el objetivo. En lo que sigue
consideraremos el objetivo como si estuviera constituido por un solo lente delgado; en la
realidad se trata de un sistema complejo de hasta más de una docena de lentes, designados
para corregir las varias aberraciones, pero este acercamiento simplificado nos permite extraer
la esencia básica del como esta construido un microscopio. El objetivo se designa por su
magnificación (10×, 20×, 40× etc), pero realmente sabemos que un lente (convergente) puede
producir cualquier magnificación (dependiendo de que tan lejos esté del plano-objeto y del
plano-imagen). En este caso, la magnificación queda fijada al establecer una distancia estándar
entre objetivo e imagen; tradicionalmente los microscopios (‘derechos’ o upright) prescriben una
distancia de 160 mm (los invertidos 210
mm). Por lo tanto, si un objetivo esta
designado como ‘40×’, quiere decir que la
imagen que se ha de formar 160 mm
atrás del objetivo debe ser 40 veces más
grande que el espécimen, lo cual implica
que la distancia entre el frente del objetivo
y el espécimen debe se 40 veces menor
que 160 mm, i.e. 4 mm. Debido a la ley
1/f = 1/d1 + 1/d2, esto es lo mismo que
especificar para ese objetivo una
distancia focal tal que 1/f = 1/160 + ¼ =
Figura 6.1
41/160 ⇒ f ≈ 3.9 mm. La imagen
88
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
89
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Los microscopios de luz transmitida se fabrican en dos versiones, derechos, e invertidos. Tanto
el tren óptico de la imagen como el del iluminador son esencialmente idénticos en los dos
casos, la única diferencia concierne la dirección del haz de luz respecto a la muestra: en el
microscopio derecho, éste ilumina al espécimen desde abajo, mientras que en el invertido lo
hace desde arriba. La Figura 6.4 ilustra los dos tipos de microscopio. Existen unas ventajas del
microscopio invertido cuando se trabaja con una muestra biológica como células en cultivo: al
encontrarse el espécimen en el fondo (preferiblemente de vidrio delgado) de la cámara, se
puede acercar mucho al objetivo, lo cual es especialmente valioso cuanto se trata de objetivo
de gran apertura numérica y magnificación, que suelen tener una distancia de trabajo reducida
(la distancia entre el lente frontal del objetivo y la muestra). De lo contrario, si el objetivo
estuviese arriba (como en un microscopio derecho), podría no lograrse la corta distancia
necesaria para enfocar la muestra, o tocaría utilizar objetivos especialmente diseñados para
sumergirlos en el
medio acuoso
(objetivos de
inmersión, ver más
adelante). Una
segunda ventaja es
disponer de un mejor
acceso a la muestra
para manipulaciones
fisiológicas durante la
visualización (por
ejemplo, para insertar
microelectrodos), ya
que la separación
entre muestra y
condensador es
mucho mayor y deja
considerable espacio
Figura 6.4
libre.
90
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
91
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Aumento de contraste
En la descripción anterior, el observador visualiza el objeto por medio de un haz de luz que
pasa a través de la muestra (microscopía de luz transmitida). Esto implica que la imagen
necesariamente refleja que tanto distintas partes del objeto absorben diferencialmente la luz
que lo atraviesa. Muchas células
y tejidos son básicamente
transparentes y además, por la
ley de Lambert, la absorción de
luz crece exponencialmente con
el espesor del medio, y el
trayecto a través de una célula es
sumamente corto. Por
consiguiente, en la imagen que
se forma es difícil reconocer
estructuras o detalles, ya que
todos los rayos de luz, sin
importar por donde pasen, tienen Figura 6.7
casi la misma intensidad. El panel
A de la Figura 6.7 muestra gráficamente este problema.Una estrategia en uso desde los
comienzos de la histología pretende obviar esta limitante tiñendo los tejidos o células con
colorantes de muy alto coeficiente de extinción que diferencialmente adhieren a distintas
estructuras (por ejemplo al núcleo, o a la membrana); debido a que un colorante absorbe luz,
es posible entonces discernir células individuales o algunas de sus características. En el panel
B de la Figura 6.7 se puede comparar una misma preparación de células en cultivo sin y con un
colorante que las haga visibles. En muchos casos esas tinturas son nocivas y por lo tanto se
suelen aplicar solo a tejidos muertos preservados con un fijativo (por ejemplo, formaldehido).
Esto ha estimulado el desarrollo de métodos alternativos que se pudieran aplicar de una
manera no invasiva a células vivas, para incrementar el contraste de la imagen y poder
visualizar detalles que sería imposible discernir con base en la simple intensidad de la luz que
pasa por la muestra. La mayoría de estos métodos explotan una de las dos siguientes
características de la luz y su interacción con la materia:
• El comportamiento de la luz polarizada al pasar a través de estructuras constituidas
por elementos alargados y alineados en forma sistemática o repetitiva, que por lo
tanto transmitan luz diferencialmente, según la dirección de la polarización.
• La diferente velocidad de propagación de la luz por diferentes medios (i.e. las
diferencias en el índice de refracción de la solución acuosa extracelular, el
citoplasma, organelos, etc.). Esto ha dado origen, entre muchas otras, a la técnica de
microscopía de contraste de fase, inventada por Zernike (quién recibió el Premio
Nobel para la Medicina por esa contribución) y la de contraste de interferencia
diferencial (DIC), inventada por Nomarski. A continuación se describirá brevemente la
segunda, por ser un método más moderno y simple de explicar:
92
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Microscopía de Nomarski. Primero que todo, aclaremos de que forma las diferencias en índice
de refracción entre el espécimen y su entorno (y las diferencias entre distintos puntos del
espécimen) pueden utilizarse para generar diferencias en la intensidad de luz. En la Figura 6.8
se ilustran dos rayos colimados y coherentes (i.e. paralelos, con la misma frecuencia de
oscilación y fase). Uno de ellos (el de
arriba) solo pasa por el medio en el
cual se encuentra el objeto de interés,
sin atravesarlo, el otro en cambio pasa
por el espécimen, que asumimos tiene
un mayor índice de refracción). El
segundo rayo por lo tanto se retrasa al
transitar por un medio de menor
velocidad de propagación de la luz, y
cuando emerge está desfasado con
Figura 6.8 respecto al primero. Si a este punto los
dos rayos interactuaran, habría
interferencia destructiva y por consiguiente una disminución de la amplitud de la onda
resultante (menor intensidad). Este principio sugiere que podríamos crear algún arreglo que
nos permitiera convertir cambios locales en índice de refracción en cambios de intensidad de
luz, pese a que el objeto mismo, al ser transparente, no ha absorbido luz alguna. La esencia de
la microscopía de Nomarski se ilustra en la Figura 6.9A, y consiste en pasar un rayo de luz
linealmente polarizado por un prisma (‘prisma de Wollaston’) que lo descompone en dos rayos
también polarizados pero perpendicularmente el uno al otro, y separados ligeramente. Cuando
este par de rayos cruzan el espécimen (e.g. una célula) pueden bien sea pasar por medios
similares (pares de rayos #1 y #3 en la figura 6.9B), o pueden encontrar distintas estructuras
que difieren en términos de índice de refracción (par de rayos #2). En este último caso, uno de
los dos rayos se retarda respecto al otro, y su oscilación electromagnética se desfasa. Al
emerger del espécimen, los dos rayos son re-combinados por otro prisma de Wollaston llamado
el analizador, e interactúan: si están en fase (i.e. si ninguno se atrasó respecto al otro) lo harán
de una manera constructiva
(se sumarán), mientras que si
están desfasados (por
haberse retardado
diferencialmente) lo harán
destructivamente (el caso
límite es un desfasamiento
de 180°, en cuyo caso se
cancelarán). Por lo tanto se
crearán diferencias en la
intensidad de luz que emerge
de la muestra (que el ojo
puede percibir), a partir de
diferencias en el índice de
refracción de distintas
estructuras (que el ojo no
podría percibir directamente).
Esto permite revelar detalles
que de otra manera serían
invisibles. La Figura 6.10 Figura 6.9
muestra como ejemplo una
micrografía de Nomarski de unas células de neuroblastoma en cultivo: notar la apariencia ‘en
93
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
94
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
95
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Microscopía de fluorescencia
Hay otra técnica de microscopía que no pretende incrementar el contraste, sino visualizar
muestras o localizar moléculas, aprovechando el fenómeno de la fluorescencia, descrito
anteriormente. Las moléculas fluorescentes
pueden ser intrínsecas de la muestra, o pueden
haber sido añadidas por el observador (por
ejemplo, anticuerpos conjugados a un
fluoróforo, que han sido generados para
reconocer una proteína específica).
Usualmente se utiliza un arreglo en el cual el
rayo de excitación se aplica a la muestra por el
mismo objetivo (microscopía de epi-
fluorescencia, ver Figura 6.14). Para lograrlo, el
haz proveniente de la fuente de luz de
excitación (colocada perpendicular al tren
óptico de la imagen), rebota contra un reflector
dicróico (un espejo de interferencia colocado a
45°, el cual refleja la luz de λ más corta que un
cierto valor crítico pero deja pasar la luz de λ Figura 6.14
más larga que el valor crítico). Así que el haz
de excitación (flecha azul) se mete por el objetivo, e irradia la muestra excitando el fluoróforo.
La luz fluorescente emitida por la muestra es colectada por el objetivo pero, siendo de longitud
de onda más larga (por el desplazamiento de Stokes descrito anteriormente), al llegar al espejo
dicróico pasa derecha y puede ser visualizada. Para incrementar la especificidad de la
observación, es decir la confianza de que la fluorescencia observada se debe específicamente
a la molécula en la cual uno está interesado, se acostumbra limitar la luz que irradia la muestra
de tal manera que contenga solamente longitudes de onda a
las cuales el fuoróforo en cuestión responde de una manera
óptima; esto se logra con un filtro interpuesto en el haz de epi-
iluminación, llamado el filtro de excitación, el cual deja pasar
una banda limitada de longitudes de onda, seleccionada con
base en el espectro de absorción del fluoróforo.
Sin embargo, esto no garantiza que en la muestra no estén
presentes otras moléculas fluorescentes que también sean
excitadas por esas mismas longitudes de onda; pero si éstas
emiten luz a otra longitud de onda (flecha amarilla) entonces
uno puede limitar tal contaminación interponiendo un segundo
filtro, el filtro de barrera, ubicado antes del detector o de los
oculares, con lo cual la recolección de luz se ciñe a una banda
estrecha que represente solamente al espectro de emisión del
fluoróforo de interés (flecha verde). En la Figura 6.15 se ilustra
un ejemplo: células de una línea tumoral (HEK 293) fueron
trasfectadas con un plasmido que codifica la proteína amarilla
fluorescente (YFP, la cual en realidad emite luz verde, pese al
nombre) fusionada a otra proteína de interés. Bajo un
Figura 6.15 microscopio de fluorescencia equipados con filtros de
excitación y de emisión idóneos para la YFP, las células en la
cuales hubo expresión heteróloga del constructo emiten luz de una manera muy clara.
96
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Microscopía confocal
El uso de la microscopía de fluorescencia ha sido sumamente útil para visualizar estructuras
celulares, co-localizar moléculas, monitorear cambios en la concentración de iones como el
calcio, etc. Una limitación de esta técnica es la interferencia de la fluorescencia que se origine
en planos por encima o por debajo del plano focal, y que contribuyen un halo difuso que
degrada la calidad de la imagen. Esto se debe a que moléculas fluorescentes ubicadas en otras
posiciones a lo largo del eje z también son irradiadas por el haz de excitación, como ilustra el
panel de la izquierda de la Figura 6.16, en el cual se muestra solo el camino de la luz de
excitación. Para simplificar el análisis, solamente están indicados dos fluoróforos, uno en el
plano enfocado y otro por debajo (puntos rojos). Al emitir luz, las moléculas ubicadas fuera del
plano focal (O2) contribuyen una luz desenfocada; el camino de la luz emitida está
representado en el panel de la derecha
de la Figura 6.16, el cual muestra este
efecto (los rayos emitidos por el objeto
en foco y por el objeto fuera de foco se
colorearon de lila y de azul,
respectivamente, para distinguirlos);
notar que, debido a que la posición del
punto O2 está fuera del plano focal, los
rayos que emanan de él convergen
prematuramente en un punto-imagen, y
vuelven a desenfocarse al llegar al
detector. Inevitablemente, la presencia
de un fondo difuso de fluorescencia
Figura 6.16
disminuye el contraste de la imagen.
Uno de los acercamientos que permite obviar este problema es la así llamada microscopía
confocal, representada esquemáticamente en la Figura 6.17. En esta técnica el camino de epi-
iluminación solo permite paso de luz por un diminuto agujero en un plano óptico conjugado al
de la muestra. Como tal, sólo se ilumina un punto de la muestra. En el tren óptico de la imagen
hay un segundo agujero, también en un plano conjugado, así que la imagen del primero es
proyectada sobre el segundo y la luz de la emisión fluorescente puede por lo tanto pasar y
llegar a un detector muy sensible, como un foto-multiplicador. Miremos ahora que sucede con
la fluorescencia que se origina en otros planos ópticos: en primer lugar, puesto que el rayo de
excitación está enfocado para
concentrarse en un punto en un cierto
plano, a distancias menores o mayores
este haz estará distribuido sobre un área
mayor (es decir, los rayos bien sea no
habrán convergido o bien habrán
convergido prematuramente y estarán
nuevamente divergiendo). Por
consiguiente, la
densidad del flujo de fotones
(fotones/unidad de área) será menor que
en el plano focal, y la excitación de
moléculas fluorescentes también será
menor. Pero además, cada punto
fluorescente en otros planos proyectarán
su imagen a una distancia que no Figura 6.17
97
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Microscopía multifotónica
En años recientes se han desarrollado otras modalidades de microscopía cuyo objetivo
principal es también la reducción de la profundidad de campo, para obtener una rodaja óptica
del espécimen, minimizando la contaminación de fluorescencia que se origine de otros planos
focales. Una de ellas, muy en auge hoy en día, se denomina microscopía multi-fotónica, y se
basa en el siguiente principio: para excitar un fluoróforo hace falta un fotón de una cierta
longitud de onda, i.e. de una cierta energía (Figura 6.19, panel superior). Sin embargo, el
mismo efecto debería poderse lograr con dos fotones de la mitad de energía cada uno (por lo
tanto, el doble de longitud de onda), siempre y cuando éstos fueran absorbidos
simultáneamente por el fluoróforo de tal manera que transferirían la misma cantidad total de
energía necesaria para elevar un electrón a un orbital más alto (Figura 6.19, panel inferior). Por
ejemplo, si el pico de absorción del fluoróforo fuera de 380 nm, se podría excitar también con
dos fotones simultáneos de 760 nm (en el infrarrojo). Por supuesto, para lograr que una
molécula-blanco absorbiera dos fotones al mismo tiempo haría falta un flujo de fotones no
98
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
99
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
consiguiente generar la imagen de una rodaja óptica, sin necesidad de limitar la colección de
luz a la que pase por un agujero en un plano focal conjugado; esto hace el diseño del
instrumento más sencillo. Pero hay otras dos ventajas fundamentales: (i) la densidad de
energía incidente alcanza un nivel muy alto solamente en el plano focal, por lo tanto el daño
fotoquímico (tal como la producción de radicales libres tóxicos debidos a la luz absorbida) es
mucho menor respecto a un confocal tradicional. Esto hace posible observación prolongada del
espécimen mientras se preserva su integridad fisiológica. (ii) El uso de longitudes de onda más
largas, usualmente en el infrarrojo, hace que el rayo incidente sufra menos dispersión al
penetrar un medio heterogéneo, y permite por lo tanto obtener imágenes de capas más
profundas de un tejido, en lugar de tener que ceñirse a los estratos superficiales.
Figura 6.20
100
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
101
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
7. Imagenes Digitales
La importancia creciente de técnicas de adquisición y procesamiento de imágenes por
computador, especialmente en el área de microscopía, justifica el esfuerzo de esclarecer
aunque sea los principios subyacentes más fundamentales de este tema. Pero antes de
enfrentar las tareas directamente pertinentes a las imágenes digitales, es preciso introducir
una breve descripción del problema de empalmar una cámara al microscopio, tema que se
descuida con frecuencia y que lleva a registrar imágenes degradadas y de calidad marginal
(cuando no del todo inutilizables).
Acoplamiento microscopio-cámara. Retomando el diseño tradicional de un microscopio
compuesto, hay que recordar que el objetivo proyecta una imagen real del espécimen, y que
ésta, encontrándose más cerca del ocular que su distancia
focal, forma a su vez una imagen virtual ulteriormente
magnificada. El campo que típicamente se visualiza por el
microscopio tiene unas dimensiones, a nivel de la imagen
intermedia, del orden de 20-25 mm; si se acopla la cámara al
puerto lateral del microscopio, ésta necesitaría poder enfocar
un objeto del tamaño de una moneda ubicado a una distancia
de unos 20-30 cm, tarea que requiere un objetivo tele-macro. Si
en cambio tratáramos de utilizar el lente convencional de una
cámara (e.g. 50 mm para el formato de película de 35 mm), a
esa distancia se abarcaría un campo mucho mayor: por
consiguiente el área de interés se vería diminuta, al centro de
un gran fondo negro, un fenómeno conocido como ‘vignetting’
(Figura 7.1). Una de las consecuencias es que solo una
pequeña porción del sensor de la cámara se utilizaría para
visualizar el espécimen, resultando en una seria degradación
de la resolución de la imagen, como se discutió anteriormente.
Por lo tanto, el uso (lamentablemente, muy común) de cámaras
convencionales para tomar directamente una imagen desde un
microscopio delata desconocimiento de los principio de óptica y
de diseño del microscopio! Lo que hace falta es un ‘ocular’
especial, llamado lente de proyección, tal que su punto focal
esté más cerca que la imagen intermedia, permitiendo así Figura 7.1
proyectarla sobre el sensor de la cámara.
Resolución espacial. El primer punto a tener en cuenta es que una imagen digital está
compuesta por un número finito de puntos. Esto resulta bien sea de haber sido adquirida por un
sensor constituido por una matriz de elementos discretos fotosensibles (e.g. el chip CCD de
una cámara digital), o bien digitizando la salida de un sensor análogo (e.g. por medio de una
tarjeta de conversión análogo-digital para TV o videos). En lo que sigue asumiremos que la
adquisición original fue digital, que es el caso más frecuente. Se acostumbra llamar “pixel”
(picture element) tanto a cada punto de la imagen misma como (impropiamente) a cada
elemento de un sensor digital. La resolución de una imagen digital depende fundamentalmente
de dos factores cuya relevancia es obvia:
- La resolución óptica del instrumento con el cual fue obtenida (e.g. el
microscopio)
- El número de pixels
102
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Menos trivial es la importancia de como éstos dos factores interactúan: ya sabemos que el
límite de resolución óptica está determinado por el tamaño del disco de Airy, y que dos puntos
del objeto podrán discriminarse solamente si sus respectivos
discos de Airy en el plano-imagen no están sobrelapados. Para
preservar esta resolución en la imagen digital es imprescindible
que en el sensor las imágenes de dos puntos apenas
separables ópticamente caigan sobre pixeles diferentes En la
Figura 7.2 se muestran las imágenes de dos puntos apenas
separables opticamente. En un caso (panel superior) la matriz
del sensor está compuesta de pixels finos, y los dos discos de
Airy estimulan pixels separados; la imagen digital mostrará la
presencia de dos puntos distintos. En el otro caso (panel
inferior) la misma imagen óptica es colectada por una matrix de
elementos más grandes, y los dos discos de Airy ocupan el
mismo pixel; la imagen digital reportará un solo punto. Es fácil
imaginar condiciones en las cuales este requisito no se cumple,
por ejemplo cuando la magnificación óptica de la imagen es
insuficiente para el tamaño del sensor: consideremos un
microscopio equipado con una cámara digital de alta resolución,
digamos 2400x2400 pixels (5.7 Mpixels), cuyo sensor tiene una
superficie de área de 1 cm2. Si la imagen del objeto en ese
plano fuera mucho más pequeña, por ejemplo un disco de 2
mm de diámetro (como por ejemplo cuando se magnifica una Figura 7.2
célula de 20 μm de diámetro con un objetivo de 100×), se
estaría utilizando solamente el 3% de la superficie del sensor, es decir aproximadamente ≈173
mil pixels. La imagen efectiva no podría llamarse de ‘alta resolución’, y muchos detalles finos se
perderían ya que no quedarían registrados por pixels separados. Por lo tanto, para obviar el
problema, se debería bien sea magnificar ulteriormente la imagen por medio de un lente, antes
de proyectarla sobre el sensor, o bien tener un sensor de esa misma resolución pero de
dimensiones mucho más pequeñas.
Profundidad de pixel. Otra consideración igualmente
importante, para establecer diferencias finas entre
distintas regiones de la imagen, concierne el número
de niveles de intensidad de luz codificados por cada
pixel. Si la cámara fuera de 8 bits, quiere decir que el
número binario que representa la intensidad de luz
en cada pixel admite 256 valores posibles (28). Si se
tratara de una cámara de 12 bits, serían 4096
niveles, etc. Claramente, la posibilidad de discernir
detalles mejorará al aumentar la cantidad de bits, ya
que permitirá distinguir puntos de la imagen que,
aunque ópticamente separable, tienen intensidades
parecidas; en cambio, una codificación capaz de
establecer solamente pocos niveles de intensidad
podría asignar el mismo valor a dichos puntos.
Nuevamente, las especificaciones nominales no
quieren decir que ese desempeño se realiza en la
práctica. Por ejemplo, supongamos que en una
cámara de 8 bits el máximo de luz que puede recibir
Figura 7.3 un pixel durante el intervalo de exposición fuera de
103
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
20000 fotones; es decir, esa intensidad representa el valor máximo (11111111 binario o 256
decimal), más allá del cual estaríamos en saturación. Si en la imagen adquirida los diferentes
pixels hubieran sido expuestos a un rango entre 1 y 500 fotones, esto representaría solamente
unos 6 niveles (de los 256 posibles), y por lo tanto diferencias de intensidad entre pixels
menores de un 15% no podrían discernirse, porque serían asignadas a los mismos números;
sería como trabajar con una cámara de solo 3 bits. La Figura 7.3 ilustra este problema: la
imagen de la misma neurona fue tomada a la misma resolución espacial, pero con direferente
profundidad de bits: sin lugar a duda la imagen A, codificada con ≈64 diferentes matizes de gris
entre negro y blanco, proporciona información mucho más detallada que la imagen B, en la cual
sólo se permiten 5 niveles de intensidad. Para dar un ejemplo práctico, pensemos en un
estudio de inmuno-fluorescencia para determinar si hay o no una segregación de la expresión
una cierta proteína-blanco en diferentes regiones de una célula. Si efectivamente existiera un
patrón de distribución espacial diferencial pero, una vez digitizada la fluorescencia, los distintos
niveles de marcaje aparecieran comprimidos, asignándosele el mismo número a los diferentes
pixels, se llegaría a la conclusión errónea de que la expresión es uniforme. Nuevamente, la falla
radica en un mal uso del instrumento, que impide extraer la información pertinente.
Tamaño de archivo y compresión. Juntando los conceptos anteriores, podemos ahora
formarnos una idea de los requerimientos de memoria para almacenar imágenes digitales. En
primer lugar, si la imagen es monocromática, se necesita un número binario para cada pixel, el
cual consiste de cierto número de bits; multiplicando esta cantidad por el número de pixels se
obtiene el total de bits (o, dividiendo por 8, el número de bytes). Por ejemplo, una cámara de
1280×1024 a 8 bits genera imágenes que requieren ≈1.3 MBytes de memoria. Si la cámara
fuera de colores, en cada pixel habría 3 sensores distintos (para rojo, vede y azul), cada uno de
los cuales codifica separadamente la intensidad de luz en esa banda espectral; haría falta
entonces el triple de memoria para almacenar la imagen. A esto hay que agregar un
encabezamiento del archivo, el cual contiene información crítica para que el computador pueda
decodificar y mostrar la imagen en la pantalla (es decir, la resolución, modalidad, profundidad
de bits, etc.). Existen diversas estrategias para reducir el tamaño del archivo que contiene una
imagen, y se conocen como algoritmos de compresión, las cuales pueden ser más o menos
efectivas según las características de cada imagen. A continuación describimos un ejemplo
muy simple, conocido como “codificación de longitud de carrera”. Consideremos una imagen
monocromática sencilla, que consiste en la silueta de una rana, ilustrada en la Figura 7.4. En
principio, su representación debería consistir en una lista de números que representan,
secuencialmente, la intensidad de cada pixel
en cada hilera, repetido para todas las
hileras. Supongamos que solo hay blanco y
negro. Si hubiera solamente 32 pixel por
hilera (una imagen de bajísima resolución) y
lo mismo por columna, se necesitarían 32×32
= 1024 bytes para representar dicha imagen.
Pero si la misma intensidad se repite a
menudo en pixels contiguos, existe una
estrategia más ventajosa: indicar el nivel de
intensidad y cuantas veces se repite. Por
ejemplo, el la primera línea de la imagen
ejemplo, todos los pixels son blancos, y
digamos que el blanco esté codificado por ek
numero “0”. En lugar de hacer una lista de 32
números, todos con el valor “0”, podemos
utilizar solamente dos números, uno para Figura 7.4
104
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
indicar el valor del pixel (0) y otro para indicar cuantas veces ocurre consecutivamente en la
hilera (32). Otra hilera de la imagen, en una región donde se encuentra el sujeto, requiere
información más elaborada: por ejemplo, que hay 5 pixels blancos (valor “0), seguidos de 11
negros (valor “1”), otrs 2 blancos, 4 negros, y 10 blancos (ver figura). Aún así, para esta hilera
de pixels más compleja, sólo hicieron falta 10 números para representarla, en lugar de 32. En
otras palabras, estamos logrando presentar la misma información contenida en una lista
completa de los valores de intensidad de todos los pixels, utilizando solo un número reducido
de bits. Faltaría añadir alguna información ulterior para decodificar la imagen (por ejemplo,
donde termina cada línea), pero de todas manera el ahorro de memoria puede ser enorme.
Naturalmente, entre más largas las carreras de números repetidos, más dramática la
compresión; por otra parte, si las intensidades cambiaran muy a menudo a lo largo de la hilera
(lo que en un capítulo anterior hemos denominado “altas frecuencias espaciales”; ver sección
sobre sistemas lineales), entonces la ganancia podría ser marginal. En este ejemplo, la
totalidad de la información de la imagen original es retenida, pero otros esquemas de
compresión optan por lograr una mayor compresión sacrificando aspectos de importancia
relativamente secundaria, para que las pérdidas no sean visualmente notorias; sin embargo,
para cierto tipo de análisis cuantitativo podría no sea aceptable descartar información alguna,
así que sería preciso tener conocimiento del algoritmo a ser empleado.
105
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
106
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
valor = 0 entre la intensidad mínima y un cierto nivel (el umbral), y creciera de allí en adelante;
esta manipulación puede ser útil para suprimir el ‘fondo’ de una imagen y hacer resaltar el
sujeto. Este caso es como eliminar la porción del histograma de intensidades por debajo de
cierto valor de la abscisa. En todas estas manipulaciones, un constante monitoreo del
histograma de intensidad permite evaluar que las transformaciones produzcan una distribución
deseable de intensidades, evitando la saturación.
Filtros espaciales. Así como es posible mejorar significativamente una imagen ya digitizada
alterando la intensidad de los diferentes pixels, también se puede reducir el ruido de la imagen
o, viceversa, mejorar la nitidez del enfoque; ambas modificaciones hubieran sido inconcebibles
antes del desarrollo de las imágenes digitales. En este tipo de manipulación las reglas para
modificar intensidades tienen en cuenta no solamente el valor de cada pixel individual (como
era el caso de la función de transferencia para aplicar cambios de luminosidad, de contraste, o
de gama), sino también los valores de los pixels que lo rodean. Es decir, el nuevo valor de
intensidad de cada pixel de la imagen será el resultado de alguna operación en la cual se
combinan su valor original con los valores de otros pixels en el vecindario. La manera
específica como se efectúa esta combinación determina el resultado. Por ejemplo, si se
cambiara cada pixel por el promedio de los valores de una matriz de 3x3 pixels (centrada en
él), inevitablemente se reducirían fluctuaciones locales de intensidad: dos pixels contiguos que
difirieran significativamente en sus respectivas intensidades quedarían mas similares por el
efecto de promediar; en cambio, pixels contiguos que de por sí se asemejan no se verían
afectados (porque sus valores ya se parecen al promedio). Se trataría entonces de un filtro que
rechaza selectivamente transiciones locales abruptas: en jerga técnica diríamos que elimina
altas frecuencias espaciales, mientras deja pasar bajas frecuencias espaciales (el equivalente
espacial de lo que un filtro pasa-bajos hace en el dominio temporal). En la práctica, resulta más
efectivo no llevar a cabo un simple promedio, sino un promedio ponderado que asigne
diferentes ‘pesos’ a diferentes pixels, según su distancia del pixel
central.
La Figura 7.7 muestra tres ejemplos de matrices de coeficientes,
que se conocen como el kernel de un filtro y representan los
factores por los cuales se multiplicaría el valor de intensidad de
cada pixel, antes de sumarlos y colocar el resultado en el pixel
central, reemplazando el valor original. El panel A muestra un
ejemplo en el cual se promedia una matriz de 3x3 (i.e. se suman
los 9 valores y se divide el resultado por 9; equivalentemente, se
multiplica primero cada valor por 1/9 y se hace la suma), mientras
que el panel B ilustra el caso de un promedio ponderado en una
matriz que atribuye mas peso al pixel central (notar que la suma
de los coeficientes es siempre =1, con lo cual no se está
alterando la luminosidad general de la imagen, sólo sus
características espaciales). Los ejemplos anteriores tenderían a Figura 7.7
desenfocar una imagen porque ‘suavizan’ linderos nítidos y bien demarcados (el precio que se
paga por reducir ruido); a veces se busca en cambio acentuar linderos para hacer resaltar
objetos en la imagen. Esto se puede lograr con un filtro que tienda a enfatizar transiciones
locales abruptas, y es simplemente el resultado de cambiar la matriz de coeficientes (es decir,
el kernel). Si, por ejemplo, el coeficiente central fuera positivo y los de los alrededores
negativos (Figura 7.7C), entonces todo pixel rodeado de otros de similar intensidad se vería
reducido en intensidad (porque a su valor se le restaría un cantidad similar); esto de-enfatiza
regiones de intensidad más o menos uniforme. En cambio, pixels de alta intensidad rodeados
de otros de baja intensidad (o viceversa) resaltarán su contraste. La aplicación de un filtro de
107
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
108
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
8. El láser
En secciones anteriores se ha mencionado varias veces el láser como fuente de iluminación
para algunas técnicas de microscopía, tales como TIRF, microscopía multifotónica, y muchos
microscopios confocales. Este instrumento es de amplia utilización en diversos contextos, no
solamente la microscopía, lo cual justifica presentar una breve introducción a sus principios de
funcionamiento. El nombre “láser” es la sigla de Light Amplification by Stimulated Emission of
Radiation (amplificación de luz por emisión estimulada de radiación). Su característica
fundamental es que la luz que emite es coherente, es decir, se trata de ondas que tienen la
misma frecuencia (luz monocromática) y además la misma fase de oscilación. La emisión
ocurre en un haz altamente colimado (rayos paralelos) que puede ser muy fino (o enfocarse
ulteriormente en un punto extremadamente
pequeño). Los mecanismos detallados de
generación de la luz láser trascienden las
metas des estas notas; sin embargo, podemos
resumir brevemente sus características
fundamentales. En pocas palabras, una
población de cierta clase de moléculas es
mantenida activamente en un estado de
excitación electrónica, al ser irradiada de una
manera continua (‘bombeada’), típicamente por
una fuente convencional de luz. Al decaer un
electrón a un orbital más bajo, se emite un
fotón, el cual puede ser absorbido por otra
molécula del medio; ésta, al encontrarse ya en
el estado excitado, por el principio de emisión
estimulada, sufre una transición de de-
excitación, con la consiguiente emisión de luz.
Pero, por supuesto, el fotón incidente no es Figura 8.1
absorbido (de lo contrario el proceso no estaría
acompañado por una disminución de la energía de la molécula - la de-excitación -, sino un
aumento), lo cual implica que se tienen ahora dos fotones; estos pueden interactuar con otras
moléculas del medio que también se mantienen en estado excitado, y el proceso se repite.
Como tal, las emisiones espontáneas se multiplican a través de emisiones estimuladas. El
panel A de la Figura 8.1 ilustra el fenómeno. Así que, mientras la mayoría de las moléculas se
mantengan en estado activado (‘inversión de la población’), la luz se va amplificando. Este
proceso ocurre en un compartimiento cerrado (la ‘cavidad resonante’) que tiene a un lado un
espejo y al otro un espejo parcialmente transparente, que deje pasar una fracción diminuta de
la luz (Figura 8.1B). De esta manera, los fotones quedan rebotando de un lado a otro,
incrementando la probabilidad de inducir más y más emisiones estimuladas; siendo la longitud
de la cavidad resonante un múltiplo de la longitud de onda emitida, se forman ondas
estacionarias: las que no están en fase se anulan, las que están en fase se refuerzan. De esta
manera, solamente ondas coherentes salen por el lado semi-transparente. La longitud de onda
de la luz emitida por un láser depende de la naturaleza del material utilizado, por eso se habla
de láser de gas (por ejemplo, Helio-Neón que emite principalmente a las a longitudes de onda
de 543 y 633 nm – las así llamadas ‘líneas’ de emisión), lásers de estado sólido (por ejemplo,
de rubí, que emite a 694 y 628 nm), etc. Además, diferentes lásers pueden emitir luz de una
manera continua (los así llamados ‘continuous wave’ o CW), o bien lo hacen por pulsos
discretos cuya duración puede llegar a ser extremadamente corta, hasta de fempto-segundos
(10-15 s, i.e. milésimas de trillonésimas de segundo!).
109
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
110
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
inciden sobre la partícula). El rayo central, al encontrar una interfase a 90 grados no alteraría su
dirección sino solamente se enlentecería (por el mayor índice de refracción); el cambio de
momento implicaría una fuerza igual y opuesta que empujaría la partícula hacia adelante; esto
representa una manifestación de la presión de radiación mencionada anteriormente. Pero los
rayos periféricos también incidirían sobre la superficie de la partícula con un ángulo cercano a
la normal, y sufrirían poca refracción (el caso límite, ilustrado en la figura, es que el centro de la
partícula esférica coincidiera con el foco, en cuyo caso no habrá ninguna refracción porque
todos los ángulos de incidencia serán de 90 grados). La presión de radiación de cada rayo se
puede descomponer, por la ley del paralelogramo, en un componente vertical que empuja la
partícula, y otro horizontal hacia el eje óptico, el cual se anula entre diferente rayos, por
simetría (flechas rojas). La fuerza neta resultante tenderá a alejar la partícula. Si ésta llega
poco mas lejos del punto focal, la situación cambia: mientras el rayo central sigue empujando,
un rayo periférico encontrará la interfase con un ángulo muy oblicuo y será fuertemente
refractato, como muestra la Figura 8.2B; nuevamente, la fuerza sobre la partícula debida a ese
cambio en momento (flecha verde, igual y opuesta al cambio de momento representado por la
flecha negra) se puede descomponer en un componente transversal y otro alineado con eje
óptico pero esta vez apuntando hacia el objetivo (flecha roja vertical). Lo mismo ocurriría con un
rayo simétricamente ubicado al otro lado de la partícula. Es decir, mientras la presión de
radiación del rayo central ‘empuja’ la partícula, los rayos periféricos ahora la ‘jalan’. En otras
palabras, existirá, a lo largo del eje óptico una distribución de fuerzas en dirección opuestas:
una en la misma dirección que la luz, y la otra que puede oponérsele; ésta última cobra más
fuerza cerca del foco. Si en algún punto a lo largo del eje las dos tendencias se equiparan, una
partícula quedará atrapada en ese sitio. Por consiguiente, una partícula que entrara al cono de
luz se desplazaría hasta el punto en el cual las fuerzas en direcciones opuestas se balancean,
y allí permanecería en estado estacionario; si se moviera el rayo, la partícula lo seguirá. Con
esto se ha logrado, por ejemplo, inmovilizar bacterias, o separarlas, y hasta manipular
espacialmente estructuras sub-celulares como mitocondrias. Otro campo de aplicación ha sido
el estudio de la interacción de motores moleculares, como miosinas o kinesinas, con filamentos
de actina o microtúbulos inmovilizados sobre una lámina de vidrio. Para observar la función del
motor molecular, éste se acopla a una ‘bolita’ (por ejemplo, una micro-esfera de sefarosa) la
cual fungirá de ‘carga’ que será transportada por el motor al deslizarse por el filamento-
sustrato, y, siendo de tamaño suficiente, podrá visualizarse por un microscopio óptico de alta
resolución. Tradicionalmente, experimentos de este tipo han sido muy dispendiosos porque en
una solución diluida la probabilidad de interacción entre los dos partners es muy baja, y el
experimentador debe esperar interminablemente para que ocurra una asociación y empiece el
movimiento. Con pinzas ópticas, en cambio, se puede agarrar un complejo miosina/sefarosa, y
físicamente colocarlo sobre la actina para dar inicio al experimento, sin demora alguna. Otra
área muy fructífera se ha desarrollado a partir de la noción de que una pinza óptica puede
oponerse al movimiento de un objeto microscópico, por ejemplo un cilio. Si se logra anular por
completo su movimiento, quiere decir que la fuerza de la pinza óptica, la cual depende de la
intensidad del haz de luz (la cual está bajo el control del experimentador), es exactamente igual
y opuesta a la del sujeto; por lo tanto, es posible cuantificar ésta última (hasta en trillonésimas
de Newton!). De esta manera se ha podido determinar la fuerza ejercida por un flagelo de una
bacteria, o inclusive la de una molécula de polimerasa mientras se desplaza a lo largo de la
hebra de ADN que le sirve de templete, generando un RNA mensajero!
111
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
112
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
9. Óptica Fisiológica
En esta sección aplicaremos los principios de la óptica al análisis del ojo: la formación de
imágenes, la resolución, y, en algunos casos, la presencia de mecanismos básicos para
controlar el enfoque y la cantidad de luz que reciben las células fotosensibles. Finalmente,
también se elucidarán las bases de la visión cromática, i.e. la capacidad de percibir colores.
El ojo de los vertebrados
El sistema visual de la gran mayoría de los organismos utiliza un aparato óptico refractivo para
formar una imagen del mundo externo (solo se conocen pocos ojos que utilicen un espejo). El
propósito es enfocar la luz de cada punto de un plano focal del mundo externo sobre el sensor,
la retina, que está formada por de células fotosensibles. Se conocen dos diseños
fundamentales de ojo en la naturaleza. Uno es el así
llamado ojo simple por estar constituido por un solo
sistema dióptrico; ojos simples se encuentran en todos los
vertebrados, y en varios invertebrados como los
cefalópodos (e.g. calamares y pulpos). Otro diseño,
llamado ojo compuesto es común entre la mayoría de los
invertebrados, y consiste en una matriz de elementos
ópticos independientes, cada uno con sus propio aparato
para enfocar la luz. A su vez, los ojos compuestos admiten
variantes, cuyas características difieren de una manera
fundamental. En esta discusión son concentraremos en el
ojo simple de los vertebrados, en el cual el sensor de luz Figura 9.1
está constituido por un mosaico de células altamente
especializadas, conocidas como conos y bastones; los bastones son más sensibles y se
distribuyen en la mayoría de la retina periférica, mientras que los conos se concentran el la
pequeña región central conocida como la fóvea (Figura 9.1; el diagrama representa los conos y
bastones con su segmento externo foto-sensible apuntando hacia la dirección de llegada de la
luz: en realidad en los vertebrados la retina es invertida, y la luz ha de atravesar todas las
capas de la retina hasta llegar a los fotorreceptores, los cuales apuntan hacia afuera!).
Dos elementos ópticos cumplen la función de proyectar la imagen de los objetos del espacio
visual sobre la retina: (i) la córnea, que forma la primera interfase, i.e. la superficie externa de la
porción frontal del ojo (ii) el lente o cristalino, ubicado más internamente. A pesar de la
curvatura y espesor del cristalino, es la córnea que desempeña el rol principal como elemento
refractivo, en parte debido al cambio mucho más abrupto de índice de refracción en la interfase
aire-córnea, comparado con la interfase entre los fluídos intra-oculares (‘humor acuoso’) y el
cristalino: del poder total de ≈59 dioptrías del ojo humano, ≈43 se deben a la córnea. Por
supuesto, si el sujeto se sumerge en agua, el índice de refracción cambia menos en la interfase
con la córnea, y el poder dióptrico de ésta última disminuye drásticamente, resultando
insuficiente para enfocar una imagen (los pájaros pescadores poseen un parpado especializado
que es transparente y refractivo, y baja cuando el animal se zambulle, permitiéndole mantener
la capacidad de enfocar debajo del agua).
Acomodación
En el ojo, la distancia entre el complejo córnea-lente (más específicamente, el punto nodal) y la
retina es fija (aproximadamente 17 mm), pero los objetos en el mundo externo se encuentran a
diferentes distancias. Para lograr enfocarlos, el ojo cambia el poder dióptrico del lente: para
enfocar objetos lejanos, hace falta menos poder refractivo, y el lente es mantenido con una
113
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
menor curvatura (i.e. mayor radio de curvatura) por la tensión pasiva ejercida por fibras
pegadas radialmente desde la región ecuatorial del lente, que lo estiran (Figura 9.2A). Sin
embargo, para enfocar objetos cercanos se contrae un anillo muscular alrededor del lente
(músculo ciliar), el cual reduce la tensión de las fibras,
y permite que el lente se relaje, asumiendo, por
elasticidad, una forma más esférica (mayor
curvatura→mayor poder dióptrico; Figura 9.2B). Estos
ajustes en el poder dióptrico del ojo se conocen como
el proceso de acomodación. Así que el lente, cuya
contribución al poder dióptrico total del ojo es
relativamente modesta, tiene la función esencial de
aportar los ajustes que hacen falta para poder enfocar
objetos cercanos y lejanos. La elasticidad del lente se
pierde con la edad, reduciendo por lo tanto la
capacidad de enfocar objetos cercanos. La
transparencia del lente también se puede deteriorar
(cataratas) lo cual puede requerir una intervención
quirúrgica. Las consecuencias de las técnicas
inicialmente empleadas, que simplemente Figura 9.2
contemplaban la remoción del lente, eran (i) reducción
del poder dióptrico del ojo, y por lo tanto necesidad de
compensarlo con anteojos (ii) pérdida de la acomodación (iii) sensibilidad a luz ultravioleta, ya
que estos rayos normalmente son filtrados por el lente, que les impide llegar a la retina. Hoy en
día, el cristalino se remplaza con un lente artificial, para obviar en gran medida estas
deficiencias. Cabe aclarar que éste no es el único mecanismo por medio del cual se puede
lograr acomodación. Los ojos de muchos peces utilizan en cambio la estrategia de variar la
posición del cristalino, acercándolo o alejándolo de la retina. El efecto es el mismo: mantener la
proyección del objeto enfocada sobre la matriz retinal, compensando por la mayor o menor
distancia a la cual se encuentre el objeto.
114
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Airy, ulteriormente deteriorado por las aberraciones), y para poder percibir puntos como
distintos, su separación angular deberá ser mayor que las dimensiones del disco de Airy.
Limitaciones ópticas debidas al mosaico retinal. La detección de luz por la retina ocurre por la
estimulación de células fotosensibles individuales, los conos y bastones. Por lo tanto, para
estimar la capacidad de resolución del ojo no es suficiente considerar las propiedades ópticas
de la córnea, el cristalino y la pupila (que establecen su límite
de difracción), sino también el mosaico retinal. Al igual que
una cámara digital, una imagen no tendrá buena resolución si
el sensor posee un número limitado de ‘pixels’, ya que si las
proyecciones de dos puntos del espacio visual caen sobre el
mismo pixel, su detección individual es imposible, porque sus
respectivas imágenes no activan diferentes elementos
fotosensibles. Por lo tanto en el ojo la utilización plena de las
capacidades de resolución de la córnea y el lente solo se
realizarán si el diámetro de los fotorreceptores es comparable
al disco de Airy, permitiendo que la imagen de dos puntos
resueltos ópticamente caiga sobre fotorreceptores distintos Figura 9.3
(más precisamente, deberían estimular dos fotorreceptores
separados, que tuvieran de por medio otro fotorreceptor, para que hubiera dos sitios no
contiguos de estimulación). En el ojo el disco de Airy varía según el grado de apertura de la
pupila (que puede contraerse o dilatarse entre ≈1.5 y 6 mm, lo cual afecta la apertura numérica;
Figura 9.3). Desde el punto de vista puramente óptico, la separación de dos puntos en el
espacio visual para que no se superpongan sus respectivos discos de Airy sería del orden de
2.3 a 0.6 minutos de arco. Teniendo en cuenta que el diámetro aproximado de un fotorreceptor
en la fóvea (la zona central de la retina donde se alcanza la máxima resolución) es de unos 30
segundos de arco (unos 2.4 μm de diámetro), quiere decir que aún a la máxima dilatación
pupilar bajo condiciones normales (i.e. sin uso de fármacos como la atropina, comúnmente
utilizada en exámenes oftalmológicos), la matriz retinal es suficientemente fina para no
deteriorar la capacidad de resolución del ojo: la evolución ha optimizado las dimensiones de los
elementos fotosensibles para que fueran equiparables al límite de difracción.
A este propósito es preciso aclarar algo importante que permite al ojo mantener buena
sensibilidad y buena resolución espacial; estas
consideraciones nos brindan la oportunidad de ver un
par de leyes básicas de óptica en acción en un
sistema biológico. En primera instancia, se debe
optimizar la captura de fotones. La ley de Beer-
Lambert nos dice que la probabilidad de que éstos
pasen sin ser absorbidos decae exponencialmente con
la longitud de la trayectoria por el medio absorbente, y
que la constante espacial de dicha función
exponencial depende de la concentración de las
moléculas que absorben luz y de su coeficiente de
extinción. La naturaleza optimiza la situación (i)
utilizando moléculas cuyo coeficiente de extinción es
muy alto (≈40,000, como se ha mencionado
previamente), (ii) expresándolas masivamente (del
órden de 100 millones de ellas por célula), y (iii)
haciendo que el segmento foto-sensible sea una
Figura 9.4
estructura delgada y alargada, de tal manera que el
115
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
recorrido de los fotones sea largo, favoreciendo su absorción. Este último punto, sin embargo,
conlleva un problema: el aparato dióptrico enfoca la imagen de los objetos en un cierto plano, y
si la estructura foto-sensible forma una capa espesa, la luz un puede estar enfocada sino a un
nivel restringido del fotorreceptor; como tal, se esperaría que por fuera de ese plano focal la luz
se ‘desparramaría’, invadiendo otros fotorreceptores y perdiendo resolución. Sin embargo el
índice de refracción de los fotorreceptores es mayor que el de los intersticios entre ellos. Por lo
tanto, si se enfoca la luz sobre el extremo del segmento fotosensible, éste guía la luz
funcionando como una fibra óptica (por el principio de reflexión total interna), evitando que
llegue a fotorreceptores vecinos. De esta manera se preserva la focalidad. La Figura 9.4 ilustra
el proceso: el cono de luz se enfoca al entrar a la célula (en conos y bastones de vertebrados la
dirección de entrada sería por el soma, como se ha mencionado) , y rebota internamente
manteniéndose en su interior en lugar de escapar por los lados y llegar a estimular
fotorreceptores vecinos (líneas azules).
Defectos de visión
En muchos individuos el poder dióptrico de la cornea y el cristalino puede ser inadecuado para
formar una imagen perfectamente enfocada sobre la capa de los fotorreceptores en la retina.
Por ejemplo, la imagen de un punto podría formarse a una distancia demasiado corta detrás del
lente, i.e. adelante de la retina. En este caso los rayos se cruzarían y volverían a divergir, y al
llegar a la retina proyectarían un
disco difuso. Este problema, que
se denomina miopía (Figura 9.5A),
implica que aún cuando el
músculo ciliar está relajado para
mirar objetos lejanos (mínima
curvatura del lente), la refracción
es excesiva; se puede corregir
interponiendo, adelante del ojo, un
lente divergente cuyo propósito es
contrarrestar el excesivo poder
dióptrico del ojo (Figura 9.5B).
Alternativamente, puede suceder
que el poder dióptrico del ojo es
insuficiente, especialmente
cuando se intenta enfocar un
objeto cercano, y los rayos que Figura 9.5
emanan de un punto en el espacio visual no convergen lo suficientemente rápido y por lo tanto
llegan a la retina cuando todavía están distribuidos en un disco. Este problema se denomina
hipermetropía y se corrige añadiendo un lente convergente que aumente el poder refractivo
(Figura 9.5C y D). Notar que en ambos casos los lentes de corrección se colocan en
proximidad de la córnea, a una distancia menor que su distancia focal. Como tal, no alcanzan a
formar una imagen real al frente del ojo (la cual sería invertida!); simplemente, su poder
refractivo se añade al del ojo, modificándolo para corregir el punto de enfoque sobre la retina
(cuando se combinan lentes de esta manera, su poder dióptrico total es simplemente la suma
de las dioptrías de cada uno de los elementos).
Visión cromática
Como ultimo tema relacionado con la función visual, vamos a considerar brevemente como se
logra discernir colores. El color percibido de una luz está relacionado con su longitud de onda.
Sin embargo los dos términos no son equivalentes: la longitud de onda es un parámetro físico
116
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
117
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
Figura 9.7
118
Figura 9.9
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
119
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
120
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
perimetral que al unirlos por una recta cruzan la línea diagonal); para otras combinaciones eso
no ocurre.
En un organismo con un sistema de visión cromática más complejo (más clases de
fotorreceptores espectralmente diferentes) el dominio de cromaticidad se torna más complicado
y requiere más dimensiones para poderse representar gráficamente (y lo mismo para las
mezclas de estímulos que se perciben como acromáticos). Además, se puede relajar la
restricción de que la intensidad de los estímulos es la misma, con lo cual se complica
ulteriormente el espacio de cromaticidad. Pero de todas formas el resultado es una
representación geométrica de todas las percepciones de color posibles para un sujeto, y de la
forma como éstas pueden engendrarse con diferentes combinaciones de longitud de onda.
121
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
122
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
En cambio, para luz polarizada en la dirección ortogonal a las microvellosidades (Figura 9.16C)
el vector eléctrico será necesariamente también perpendicular a todos los cromóforos y por
consiguiente con probabilidad mínima de ser absorbida. Quiere decir que en las dos caras
‘verticales’ del paralelepípedo efectivamente hay absorción para luz polarizada en una dirección
(alineada con el eje de la microvellosidad) pero no en la dirección perpendicular. Sumando
entre las 4 caras del paralelepípedo resulta por lo tanto una neta tendencia preferencial de
absorber luz con una cierta dirección de polarización (2 caras no preferenciales y 2 que sí lo
son). El argumento para una estructura cilíndrica es similar, pero el continuo de orientaciones
obliga a realizar el cómputo de una manera un poco más compleja (que implica una integral en
coordenadas cilíndricas) aunque el resultado es el mismo. Notar que la sola geometría de la
forma como se organiza la membrana fotosensible ya es de por sí capaz de producir este
efecto; hay además indicios de que en algunos casos podría existir algún tipo de anclaje que, al
alinear los cromóforos con el eje de las microvellosidades, aumentaría ulteriormente la
selectividad. Ahora pasemos de una microvellosidad individual a una célula entera, y
consideremos un fotorreceptor en el cual todas sus microvellosidades tienen la misma
orientación; esto puede ocurrir bien sea si éstas solamente emanan paralelas de un lado de la
célula (como es el caso en el diagrama de la Figura 9.15B) o de dos caras opuestas (como
veremos en la figura 9.17). Dicha célula necesariamente absorbe luz diferencialmente según
como esté polarizada la luz: decimos que su índice dicróico (que viene siendo el cociente de la
absorción entre la luz polarizada en la dirección óptima vs. a 90˚) es necesariamente >1.
Supongamos que la matriz retinal contuviera células de este tipo, orientadas de tal manera que
sus microvellosidades estuvieran alineadas bien sea en una dirección o en la dirección
ortogonal: el panel superior de la Figura 9.17 ilustra esquemáticamente dicho arreglo en el caso
de la retina de cefalópodos. Se trata de una disposición parecida a la de un piso de madera en
‘parquet’. El panel central muestra una micrografía electrónica de una sección transversal de la
retina de un calamar, la cual muestra justamente este arreglo. Se han dibujado recuadros que
enmarcan la sección de diferentes células adyacentes (numeradas 1 a 4), y doble flechas que
indican la orientación de las microvellosidades. Finalmente, el panel inferior de la misma figura
ilustra un corte longitudinal en el cual se aprecian una porción de tres fotorreceptores
contiguos: hay una célula central, el soma de cuyo segmento distal se ve como una línea
diagonal, de la cual emanan perpendicularmente las microvellosidades (i.e. en el plano de la
123
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica
124