Вы находитесь на странице: 1из 131

Introducción a la Biofísica

Métodos eléctricos y ópticos

Enrico Nasi

©Enrico Nasi , 2010


Prefacio
Estas Notas se escribieron para un curso cuyo propósito era llenar lagunas que para
muchos estudiantes dificultan el estudio de fenómenos de relevancia biológica y bio-
médica desde una perspectiva física y cuantitativa. La escogencia de los temas fue
basada en la experiencia del autor en cursos de Biofísica Celular que ofreció para
estudiantes de post-grado (tanto Maestría como Doctorado) y estudiantes avanzados
de pre-grado de distinta formación (Biología, Física, Química, Medicina, e Ingeniería)
en la Universidad Nacional de Colombia (sede Bogotá). De esa experiencia se pudo
concluir que existían obstáculos de distinta índole que impedían una buena asimilación
del material: por una parte, deficiencias en el manejo conceptual de algunos principios
de física básica, especialmente en áreas de electricidad y óptica. No me refiero a
repetir fórmulas aprendidas de memoria y reemplazar valores para obtener, con la
ayuda de una calculadora, resultados que son numéricamente correctos - a veces. Me
refiero a poder analizar una situación y realmente extraer un entendimiento –
llamémoslo ‘intuitivo’ – de cuales son los determinantes que juegan un papel
importante y como repercuten sobre el fenómeno bajo estudio. Por otra parte, era
también evidente la existencia de una brecha que dificulta establecer un nexo entre los
fundamentos de la física y su aplicación bien sea a algún problema biológico, o al
funcionamiento de un instrumento que es útil para estudiar un fenómeno biológico. Un
manejo de estos temas y la capacidad de extrapolar son imprescindibles para abordar
el estudio de muchos procesos y mecanismos fisiológicos, o entender el uso correcto
de ciertas técnicas y sus limitaciones. Por lo tanto, aunque los dos módulos empiezan
tratando algunos principio fundamentales en la física, rápidamente imparten un sesgo
hacia un contexto biológico o bio-médico, que incluye el análisis, aunque sea
introductorio, de los fundamentos de subyacen algunas técnicas y equipos de uso
corriente en investigación. Como tal, el contenido y la secuencia de tópicos de estas
Notas no obedece a ningún esquema tradicional en cursos de física; tampoco
pretende entrar a tratar directamente temas de biofísica propiamente dicha. Solo
busca establecer las bases conceptuales y técnicas que faciliten posteriormente
emprender el estudio de tales tópicos.
CONTENIDOS:

I. MÓDULO DE BIOELECTRICIDAD

1. Introducción
2. Elementos básico de electricidad
• El concepto de carga eléctrica
- Introducción histórica.
- Cuantificación de la carga
- La ley de Coulomb
- El principio de superposición
- Carga elemental
- Relación con la estructura de la materia
• El campo eléctrico
• Potencial eléctrico
• Corriente eléctrica
3. Resistencia
• Aislantes y conductores
• La ley de Ohm
• Combinación de resistencias en serie y en paralelo
• Leyes de Kirkhoff
4. Capacitancia
• Combinación de condensadores en serie y en paralelo
• Corriente capacitativa
• Filtros
5. Impedancia

6. Medios electrolíticos
• Dipolos eléctricos, solventes polares, coeficiente dieléctrico
• Diferencias entre conducción en metales y electrolitos
• Aislantes en sistemas electrolíticos
7. Electroforesis
• Separación de moléculas
• Micro-ionoforesis
8. Mediciones bio-eléctricas e instrumentación
• Medición de voltaje
• Medición y de corriente
• Amplificación
• Amplificadores operacionales
• Mediciones eléctricas en células
• Principios de registro eléctrico extracelular
• El osciloscopio
9. Ruido eléctrico
• Fuentes de ruido
• Reducción de ruido por filtros de frecuencias
• Reducción de ruido por promedio de ensamble
10. Transductores
• Fuerza
• Ondas acústicas
• Temperatura
• Luz
• Concentraciones químicas

11. Adquisición computerizada de datos.


• Rango dinámico
• Frecuencia de muestreo
12. Análisis de sistemas lineales
• Definición de sistema lineal
• Función de transferencia
• Análisis en el dominio de frecuencia
• Análisis en el dominio temporal

13. Análisis de fluctuaciones


• Extracción de la amplitud de los eventos elementales
• Determinación de la cinética de los eventos elementales

II. MÓDULO DE ÓPTICA

1. Introducción
• Naturaleza de la luz
- Teoría corpuscular
- Teoría ondulatoria
• Polarización
• Espectro electromagnético
• Luz visible

2. Cuantificación de la luz
• Escalas radiométricas
• Escalas fotométricas

3. Absorción de la luz
• Efectos de la luz absorbida
- Mediciones bolométricas.
- Detección fotoquímica
- Efecto fotoeléctrico

4. Óptica geométrica
• Reflexión
- El principio de distancia mínima
- Formación de imágenes por espejos curvos
• Refracción
- Principio de Fermat de tiempo mínimo
- Refracción y el principio de Huygens
• Lentes
- Imágenes virtuales
- Dioptrías
- Profundidad de campo
- Aberración esférica
- Aberración cromática
- El límite de difracción
- Sistemas ópticos complejos
• Reflexión total interna y sus aplicaciones
- Fibras ópticas
- Aplicaciones a endoscopia

5. Fluorescencia
• Fenómeno básico
• Espectros de excitación y de absorción
• Aplicación de la fluorescencia al marcaje de moléculas
• Uso de fluorescencia para monitorear función celular
- Indicadores ‘cociente-métricos’ (‘ratiometric’)
- Seguimiento óptico de cambios de voltaje
- Medición de cambios conformacionales de proteínas
- FRET
6. Elementos de microscopia
• Diseño básico de un microscopio
- Tren óptico de la imagen
- Tren óptico del iluminador
• Objetivos de inmersión
• Aumento de contraste
- Microscopía de Nomarski
- Microscopía de contraste de fase
• Microscopía de fluorescencia
- Microscopía confocal
- Microscopía multifotónica
- Microscopía de fluorescencia con reflexión interna total (TIRF)
- Superando el límite de difracción: microscopia de reconstrucción
estocástica
7. Imágenes digitales
- Acoplamiento microscopio-cámara
- Resolución espacial
- Profundidad de pixel
- Tamaño de archivo y compresión
- Histograma de intensidad
- Filtros espaciales
8. El láser
- Aplicaciones del láser: (iii) cirugía y micro-cirugía
- Aplicaciones del láser: (ii) pinzas y trampas ópticas

9. Óptica fisiológica
- El ojo de los vertebrados
- Acomodación
- Resolución óptica del ojo
- Limitaciones ópticas del mosaico retinal
- Defectos de visión
- Visión cromática
- Visión de luz polarizada
I. MÓDULO DE BIOELECTRICIDAD
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

1. Introducción

En esta sección se revisarán algunos conceptos básicos relacionados con fenómenos


eléctricos. Hay dos razones fundamentales por las cuales es relevante hacer un repaso de
física de la electricidad para el estudio de la biología y la bio-medicina:

(i) En primer lugar, la electricidad está intrínsecamente vinculada a los procesos


biológicos. Eventos eléctricos son esenciales al funcionamiento de todo organismo:
basta mencionar la capacidad de recibir estímulos externos convirtiéndolos en un
lenguaje ‘biológico’, la transmisión de mensajes, la comunicación intercelular, la
sincronización y coordinación de funciones celulares, y la iniciación de la actividad
de efectores (secreción, motilidad), etc.. No solamente las células generan eventos
eléctricos, sino que varios de los mecanismos moleculares que subyacen estas
funciones son a su vez susceptibles a la influencia de fuerzas eléctricas y
controlados por ellas. De esta manera, es ineludible que para comprender la
fisiología de una célula o de un órgano se requiere un conocimiento de los aspectos
eléctricos.
(ii) En segundo lugar, la tecnología que se ha desarrollado con base en la electricidad
proporciona unas herramientas sumamente útiles en bio-medicina. El monitoreo de
funciones del organismo puede beneficiarse de mediciones eléctricas, que
proporcionan no solamente un registro en tiempo real del funcionamiento de un
ensamble multicelular, o un órgano entero (por ejemplo, el electrocardiograma, el
electroencefalograma, el electromiograma, el electroretinograma etc.), sino aportan
también importantes criterios diagnósticos en caso de disfunciones o patologías.
Otras técnicas de registro eléctrico permiten monitorear células individuales, e
inclusive la función de moléculas individuales; avances en la bio-medicina moderna
han podido atribuir ciertos estados patológicos a disfunciones de moléculas
específicas, y, en conjunción con análisis genético, identificar las mutaciones
responsables. Paralelamente, debido a que células y tejidos son susceptibles de ser
estimulados eléctricamente, este acercamiento también proporciona una forma de
controlar funciones biológicas para su estudio, o corregir anomalías (el ejemplo más
conocido es el marcapasos). Así que un entendimiento de principios eléctricos
también es útil para el manejo de instrumentación de uso corriente en el laboratorio
de investigación biológica, o los engendros más modernos en la frontera de la
biomedicina.

Aunque se revisarán principios importantes de electricidad, los contenidos estarán


sesgados hacia temas relevantes a la biomedicina, y divergirán por lo tanto de la secuencia
de tópicos que aparece en programas tradicionales.

1
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

2. Elementos básicos de electricidad


• El concepto de carga eléctrica
Introducción histórica. La noción de carga constituye la médula de la electricidad, y todos los
demás conceptos y leyes fundamentales en este campo tienen que ver con la manera como las
cargas están distribuidas en el espacio, como se mueven, las fuerzas que ejercen, etc.
Irónicamente, aunque hemos aprendido mucho sobre como se comportan las cargas eléctricas,
realmente sabemos poco o nada acerca de lo que son. Históricamente, el concepto de carga
electrostática es muy antiguo, originándose desde los
tiempos de la antigua Grecia, cuando se observaron
interacciones entre ciertos materiales (como el
ámbar) que habían sido sometidos a fricción. Del
hecho de que un trozo de ámbar frotado contra un
paño (es decir, ‘cargado’) atrae ciertos materiales
pero repele otros, y que dos trozos idénticos de
material cargado siempre se repelen, se dedujo que
esta energía de interacción tiene dos polaridades:
positiva y negativa. Cargas del mismo signo se
Figura 2.1
repelen (Figura 2.1 (i)), mientras que cargas de signo
opuesto se atraen (Figura 2.1 (ii)).

Cuantificación de la carga. La fuerza de interacción entre dos cuerpos cargados eléctricamente


sirve como base para definir una unidad de medida para la carga. Por ejemplo, la unidad esu
(unidades electrostáticas – ‘electro-static units’) se define de la siguiente manera: dos cargas
de 1 esu se repelen con una fuerza de una dina si se encuentran a 1 cm de distancia (sistema
CGS: cm, g, s). Frecuentemente (en fisiología especialmente) se usa en cambio el Coulomb
(sistema MKS: m, kg, s), el cual corresponde a 2.998×109 esu.
La ley de Coulomb. Midiendo la manera como cambia la intensidad de la interacción
electroestática entre dos cuerpos (idealmente puntuales) en función de sus respectivas cargas
y de la distancia que los separa, se determinó que la fuerza (atractiva o repulsiva) es
directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado
de la distancia entre ellas:
F =kq1q2ř/r2
(F es la fuerza – un vector - q denota las cargas, r la distancia, ř un vector unitario orientado
con la línea imaginaria que une las dos cargas; k es la constante de proporcionalidad, que
depende, entre otras cosas, de las unidades de medida que uno adopte para las distintas
variables). Esta ley constituye el fundamento de la electroestática.
El principio de superposición. Rara vez, o nunca, uno se enfrenta a una situación en la cual
sólo se tienen dos cargas y su interacción mutua es la única relevante. Lo normal es que se
tenga una gran cantidad de cargas distribuidas en el espacio, en cuyo caso uno esperaría que
cada una interactuara atractiva- o repulsivamente con todas las demás. Esto podría prestarse a
engendrar una situación de gran complejidad si se quisiera determinar cuales son las
resultantes netas de todas esas fuerzas, es decir, cual es el vector de fuerza que en últimas
actúa sobre cada una de las cargas. Afortunadamente, se pudo establecer que con solo
averiguar por separado la interacción de una carga con cada una de las demás y sumar todas
esas fuerzas, uno puede saber la respuesta. Esto parece obvio, pero en realidad no es para
nada trivial, y las consecuencias de este hecho son trascendentes: hubiera podido darse el
caso, por ejemplo, de que la presencia de múltiples elementos los hiciera interactuar de alguna

2
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

manera complicada (no-


lineal), que no fuera una
simple suma, y nos
enfrentaríamos entonces a un
problema tal vez insoluble, ya
que en un sistema dado la
introducción de cada nuevo
elemento alteraría por
completo las reglas del juego.
Figura 2.2 Afortunadamente no es así, y
podemos descomponer el
juego total de fuerzas en un conjunto de elementos aditivos. Podemos formalizar esta
conclusión enunciándola de la siguiente manera: la fuerza con la cual dos cargas interactúan
(ejemplo Figura 2.2 (i)) no es alterada por la presencia de una tercera carga (Figura 2.2 (ii)).
Eso permite deducir la fuerza total ejercida sobre una carga particular en un sistema complejo:
simplemente se suman una por una las fuerzas debidas a la interacción con cada una de las
demás cargas individualmente. El panel (iii) de la Figura 2.2 muestra como la resultante (flecha
azul) de las fuerzas experimentadas por una carga particular se puede inferir aplicando la ley
del paralelogramo a los dos vectores que representan las fuerzas individuales de interacción
entre dicha carga y las demás cargas del sistema.

Carga elemental. Es natural preguntarse si la escala de medida de la carga es continua, es


decir, si una carga puede adquirir valores arbitrariamente pequeños. Un experimento clásico
llevado a cabo por Robert Millikan (1909) estableció que eso no es así: existe un tamaño
mínimo para las cargas eléctricas. En ese histórico experimento se introdujeron diminutas gotas
de aceite cargadas eléctricamente (por la fricción al salir del atomizador mismo, o usando una
fuente radioactiva que las ionizara) en una cámara, y
se aplicó un campo eléctrico vertical producido por un
generador variable de voltaje (V; Figura 2.3). Al
examinar como se desplazaban las microscópicas
gotas, se observó que la intensidad del campo
eléctrico necesaria para contrarrestar la caída por
gravedad (g) tenía valores discretos: para cada gota
era siempre el múltiplo de un valor mínimo, como si
en cada instancia la carga en una gota de aceite
siempre fuese un múltiplo de una unidad de carga
elemental. Distintos acercamientos experimentales a
lo largo de décadas siempre han llevado a esa misma
conclusión: la carga eléctrica invariablemente tiene Figura 2.3
una magnitud que es múltiplo de algún ‘paquete’
elemental.
Relación con la estructura de la materia. La naturaleza cuántica de la carga eléctrica encontró
un eco natural en la manera como está organizada la estructura de la materia a nivel
microscópico. Los átomos están constituidos por un núcleo formado por protones
(positivamente cargados), alrededor del cual orbitan electrones (negativamente cargados).
Aunque la polaridad de la carga de las dos partículas elementales es opuesta, su magnitud es
idéntica. Este valor representa la unidad fundamental de la carga eléctrica, llamada carga
elemental, que corresponde a 1.6×10-19 Coulomb y se suele representar como qe.

3
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

• Campo eléctrico y potencial


El campo eléctrico. Ahora extendamos esta visión, tratando de vislumbrar el ‘mapa’ de fuerzas
eléctricas que puede existir en un dominio del espacio. Como punto de partida, consideremos
el caso más simple, el de una sola carga q0, y coloquémosla por conveniencia en el origen del
sistema de coordenadas de nuestro espacio de 3 dimensiones (0,0,0). Por supuesto, mientras
q0 sea la única carga en nuestro sistema, no podemos detectar ninguna fuerza; pero sabemos
que tiene potencialmente la capacidad de interactuar con otras. De hecho, si añadiéramos otra
carga de magnitud arbitraria, q1, en un punto cualquiera del espacio (con coordenadas x1, y1,
z1), la fuerza de interacción sería, según la ley de Coulomb, F= q1qoř/r2; es decir, esta fuerza es
el resultado de multiplicar la carga de prueba, q1, con el componente q0ř/r2. Este ultimo, por lo
tanto, es un vector que define la influencia que una carga arbitraria experimentaría si se
colocara en la posición (x1,y1,z1), y no depende de la magnitud ni de la polaridad de la carga de
prueba, solo de la posición. Como lo mismo se puede aplicar a cualquier otro punto del
espacio, se trata de un campo vectorial, es decir, una función E(x,y,z) que asocia a cada punto
del espacio un vector, y se llama el campo eléctrico. En este caso particular, en el cual el
campo es producido por la presencia de una sola carga, q0, colocada en el origen de nuestro
sistema de coordenadas, el vector del campo en cada punto es:
E(x,y,z) = q0ř/(x2+y2+z2)
[esto se deduce aplicando simplemente el Teorema de Pitágoras]. Claramente, aquí tenemos
un campo simétrico alrededor de la carga, cuya intensidad se debilita a medida que uno se
aleja de ella (decrece con el cuadrado de la distancia). Ahora consideremos una situación más
general: teniendo un sistema de N cargas discretas, si consideramos la fuerza total que
experimentaría una carga ‘de prueba’, qx, ubicada en un punto arbitrario del dominio espacial,
ésta sería la suma de todas las fuerzas ejercidas por todas las cargas del sistema, i.e.:
F=∑qxqiř/r2
Puesto que qx no depende del índice de sumación, i, se puede extraer de la sumatoria,
F=qx∑qiř/r2. De nuevo, el termino contenido en la sumatoria es el campo eléctrico, y podemos
visualizarlo como un conjunto de flechas, una para cada punto del espacio, cuya orientación y
longitud indican la dirección y la intensidad, respectivamente, de la fuerza que se
experimentaría en ese punto (Figura 2.4A).

Figura 2.4

4
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Potencial eléctrico y su relación al campo. Si en un dominio dado del espacio hay un campo
eléctrico no nulo, debe ser que existe una distribución no-homogénea de cargas: de lo
contrario, si éstas estuvieran uniformemente esparcidas en todas partes, en cualquier punto las
varias fuerzas se anularían mutuamente. En cambio, si se congrega en alguna región un
exceso de carga de una polaridad respecto a otra región, se engendran fuerzas netas: una
carga de prueba experimentaría una atracción hacia una dirección y repulsión hacia la dirección
opuesta. Diríamos entonces que existe una diferencia de potencial entre esos dos puntos. Toda
situación en la cual ocurre algún evento eléctrico ‘interesante’ involucra una distribución
asimétrica de cargas en el espacio y/o un re-arreglo de las mismas. Tratemos de esbozar una
visión de lo que es el potencial eléctrico a partir de lo que hemos aprendido respecto al campo
eléctrico, y proporcionar una medida cuantitativa de los que es la diferencia de potencial. Para
ese fin pensemos en lo que ocurre si se tuviera que mover una carga de un punto a otro del
espacio; la presencia de un campo eléctrico en ese dominio hace que, según la orientación del
campo a lo largo del recorrido, ese movimiento pueda verse bien sea favorecido o impedido. La
diferencia de potencial entre el punto de partida y el punto de llegada se reflejará en el balance
final de trabajo que hay que llevar a cabo para cubrir ese recorrido (positivo o negativo, según
si el campo requirió esfuerzo o si ayudó). Formalicemos esta noción: dado un campo E(x,y,z),
si uno tomara una carga unitaria y la desplazara del punto P1= (x1,y1,z1) al punto P2= (x2,y2,z2)
(Figura 2.4B) el trabajo (eléctrico) realizado sería el producto de cada elemento de
desplazamiento, llamémoslo Si (indicados por las flechas azules en el panel C) multiplicado por
el componente de la fuerza del campo en ese punto que esté orientado en la dirección del
desplazamiento, y sumado a lo largo de todo el recorrido efectuado (análogo a la definición de
trabajo mecánico, que es fuerza×desplazamiento). Notar que, para un recorrido cualquiera, en
ciertos puntos del espacio la fuerza del campo puede estar alineada con la dirección del
desplazamiento (es decir ‘a favor’), en otros solamente en parte, o en contra, y así
sucesivamente. Para extraer en cada punto el componente de la fuerza alineado con la
dirección de desplazamiento, efectuamos una operación denominada ‘producto punto’ entre el
vector del campo eléctrico, y un vector de magnitud unitaria en la dirección del movimiento;
esta operación se define como el producto de las magnitudes de los dos vectores, multiplicado
a su vez por el coseno del ángulo entre sus respectivas direcciones. Se trata simplemente de la
magnitud de la proyección del vector fuerza sobre la línea del desplazamiento local (notar que
es un valor escalar, sin dirección). Si las dos direcciones fueran ortogonales (90°), este valor
sería cero (la proyección es nula, siendo cos(90°) = 0); esto quiere decir que en ese punto la
fuerza ni ayuda ni impide el movimiento. Si, en el extremo opuesto, los dos vectores fueran
perfectamente co-lineales, el 100% de la fuerza bien sea ayudaría o se opondría al movimiento
(dependiendo del sentido de las dos flechas). En los casos intermedios, habrá un componente
del vector fuerza que coincide con la dirección del movimiento. Es como tomar el vector fuerza,
usar la regla del paralelogramo para descomponerlo en dos componentes ortogonales, uno de
los cuales esté alineado con el eje del movimiento, y solamente tomar en cuenta la magnitud de
éste último. Al sumar los valores obtenidos en cada paso del recorrido y sumarlos, obtenemos
un valor total, φ2,1, que nos dice si, al final de cuentas, el viaje entre el punto P1 y el punto P2
requirió algún esfuerzo (haciendo el balance de los tramos favorables y los desfavorables) o si
fue, globalmente, ‘cuesta abajo’. Esto se representa como:
φ2,1 = ∑Ei ⋅ Si
Más correctamente, si el campo eléctrico cambiara de una manera continua en diferentes
regiones del espacio, habría que partir el recorrido en elementos incrementales infinitamente
pequeños (dS), multiplicarlos puntualmente con F en cada sitio del trayecto, y sumar los
resultados, lo cual define una integral:
∫ E ⋅ dS

5
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

De nuevo, el resultado es un número escalar. Para ciertos tipos de campos vectoriales,


llamados conservativos, este resultado es independiente del recorrido que se haga entre los
dos puntos; por lo tanto, debido a que se trata de un número que define de una manera única el
trabajo requerido para ir de un punto a otro, sin importar por cual ruta, eso define la diferencia
de potencial eléctrico entre esos dos puntos. Esta condición se cumple, por ejemplo, con un
campo eléctrico estacionario. El potencial eléctrico se mide en las unidades de statvoltios
(sistema de unidades CGS) o Voltios (sistema de unidades MKS); un statvoltio ≈ 300 V.
También podemos tomar uno de los dos puntos como un punto de referencia fijo, y establecer
el potencial en cada punto del espacio respecto a dicha referencia. Se suele tomar una
referencia ideal ubicada infinitamente lejos, y el valor de este campo escalar en cada otro punto
del espacio es el trabajo realizado para desplazar una carga unitaria desde el infinito hasta el
punto dado. Se llama el potencial. Existe una relación entre el campo eléctrico y el potencial: el
campo eléctrico en cada punto está dado por la magnitud de cambio del potencial por unidad
de desplazamiento, en la dirección en que cambia más abruptamente. Este se llama el
gradiente del campo escalar, en este caso del potencial. Notar la diferencia entre los dos
conceptos: dos pares de puntos en el espacio pueden diferir de la misma cantidad en cuanto a
potencial eléctrico (es decir en ambas casos para ir de un punto al otro el trabajo sería el
mismo), sin embargo el campo en un caso puede ser mucho mayor que en el otro si la
distancia es más corta; puesto que el campo define las fuerzas ejercidas, situaciones en las
cuales existe un cambio de potencial sobre una distancia diminuta (i.e. un campo eléctrico muy
fuerte) implican enormes fuerzas sobre cualquier partícula cargada que allí se encuentre. Un
ejemplo que viene al caso en la biología es la membrana celular, a través de la cual existe una
diferencia de potencial eléctrico del orden de 0.1 V (redondeando); pero considerando que su
espesor es inferior a 10 nm (una centi-milésima de milímetro), el campo eléctrico que resulta es
enorme, algo como 100 mil voltios por centímetro! Quiere decir que si una molécula tiene
regiones con una carga eléctrica y se encuentra localizada en una membrana biológica, estos
grupos estarán sometidos a fuerzas muy considerables. Si, además el potencial a través de la
membrana celular cambiara en un momento dado, el campo de fuerza también cambiaría, y
podría inducir una alteración en la conformación de la molécula. Este principio, como se
examinará más tarde, es responsable por la capacidad de ciertas células (neuronas y fibras
musculares, por ejemplo) de ser activadas eléctricamente.

Corriente eléctrica. Una carga tiende a ser atraída por una región cuyo potencial eléctrico es de
la polaridad opuesta. Por lo tanto si existe una diferencia de potencial entre dos puntos y
existen cargas que puedan moverse libremente, éstas tenderán a fluir. Si llamamos la rata de
desplazamiento de carga corriente, simbolizada por la letra I, esta se medirá en
Coulombs/segundo, lo cual define la unidad fundamental de medida de corriente, el Amperio
(simbolizado por la letra A; 1 A = 1 Coul/seg). La corriente eléctrica implica una re-distribución
de cargas, y por lo tanto está estrechamente asociada con la generación de cambios de
potencial.

Potencia. Finalmente, mencionamos la medida de la energía disipada en realizar algún trabajo


o producir calor en un proceso eléctrico. La potencia se representa necesariamente en
unidades de energía/tiempo. El Watt (o Vatio, simbolizado por la letra W) es la unidad básica, y
a su vez representa Joules/segundo (ya que representa la rata a la cual se va disipando
energía). En términos de parámetros eléctricos, la potencia está dada por el producto de voltaje
y corriente:
W = V×A
Por ejemplo, si un bombillo de 120 V fluye una corriente de 0.5 A, la potencia será 120×0.5 =
60 W. En la medida en que esta energía se disipe en calor, se obtiene un incremento de

6
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

temperatura; por lo tanto, en numerosas aplicaciones en las cuales puede ocurrir daño térmico
es imprescindible tener en cuenta estos parámetros.

7
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

3. Resistencia

• Aislantes y conductores. Ahora consideremos los determinantes de la posibilidad de


mover cargas a través de algún dominio espacial. En metales, la matriz de la materia es
inmóvil, mantenida por enlaces atómicos en una estructura fija. Por lo tanto, la
posibilidad de translocar carga depende de la movilidad de partículas sub-atómicas,
electrones en los orbitales externos que estén débilmente ligados a sus respectivos
núcleos, de tal manera que puedan saltar de posición en posición, bajo la influencia de
un voltaje. Materiales que cumplan con esta propiedad se denominan conductores (el
cobre, por ejemplo), y este tipo de conducción se llama conducción electrónica, Por otra
parte, materiales en los cuales los electrones no se prestan a desplazarse entre
distintos átomos funcionan como aislantes (plástico, vidrio, etc.). La posibilidad de que
una carga pueda desplazarse por un material no es del todo-o-nada, sino hay un
continuo de gradaciones: distintos materiales difieren cuantitativamente en la facilidad
con la cual un electrón puede desprenderse de su respectivo núcleo para ir a ocupar
otra posición. Esta propiedad intrínseca de cada material se denomina resistividad
(usualmente indicada por la letra ρ). No hay que confundir la resistividad de un material
con la resistencia entre dos puntos; lo primero, como ya se ha dicho, es una
característica del medio y su composición, lo segundo depende también de factores
geométricos. En un cable, por ejemplo, habría que considerar no solamente el material,
sino también la longitud, y el grosor, respectivamente. La unidad de medida de la
resistencia es el Ohm, simbolizado por la letra Ω, definida de la siguiente manera: si
entre dos puntos hay una resistencia de 1 Ω, entonces al aplicar un voltaje de 1 V fluirá
una corriente de 1 A. Si se tiene un elemento homogéneo con una geometría ‘regular’,
tal como un paralelepípedo o un cilindro, entonces la resistencia entre dos caras
opuestas crecerá proporcionalmente a la distancia entre ellas, es decir la longitud del
sólido, y será inversamente proporcional al área de sección transversal:
R = ρ⋅L/A
Estas consideraciones son intuitivamente obvias: haciendo una analogía, entre más
largo el camino, mayor el impedimento total, mientras que entre más ancho, más fácil el
tránsito. Por ejemplo, consideremos un cable de diámetro d, longitud L, y resistividad ρ.
La resistencia entre sus dos extremos será:
ρ⋅L/[(d/2)2⋅π] = 4⋅π⋅ρ⋅L/d2

Puesto que la longitud (en el numerador de la expresión) tiene dimensiones de cm (en


el sistema CGS) y el área tiene dimensiones de cm2, es imprescindible que la
resistividad, ρ, tenga como unidades Ω⋅cm para que el resultado final se mida en
unidades de Ω.

• Corriente eléctrica y la ley de Ohm. La magnitud de un flujo de cargas será más grande
entre mayor la diferencia de potencial entre los dos puntos (voltaje), y entre menos difícil
el movimiento de las cargas en el material examinado; la relación cuantitativa entre
voltaje (diferencia de potencial eléctrico), resistencia, y corriente está dada por la ley de
Ohm:

I=V/R
La misma ley se puede expresar despejando bien sea V (V=I×R) o R (R=V/I). A veces, en
lugar de una medida de la dificultad que enfrenta un flujo de carga, i.e. la resistencia, se

8
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

habla de la facilidad, i.e. su recíproco, llamada conductancia, que se representa con la letra
g y se mide en Siemens (S; 1 S = 1/Ω). En este caso podríamos escribir la ley de Ohm
como I = V×g.

• Combinación de resistencias en serie y en paralelo. Un sistema rara vez se puede


representar como un solo elemento resistivo. Más a menudo consiste de múltiples
elementos interconectados. Hay
dos maneras de conectar dos
resistencias: (i) una seguida de la
otra (en serie; Figura 3.1A), o (ii)
una al lado de la otra (en
paralelo; Figura 3.1B). La
resistencia total de un sistema
que consista de dos resistencias
conectadas en serie o en paralelo
se puede calcular conociendo Figura 3.1
cuál es la resistencia de cada uno
de dos elementos, y aplicando la ley de Ohm:

(i) En serie: El voltaje entre los dos extremos del circuito, Vtot, debe ser la suma de
los dos incrementos de voltaje a través de cada una de las dos resistencias
(además, la corriente que fluye por las dos resistencias es la misma):

Vtot=∆V1+∆V2 = IR1+IR2=I(R1+R2)
pero también Vtot=IRtot ⇒ Rtot= R1+R2. Es decir, el valor de la resistencia total de
dos resistencias colocadas en serie es la suma de los valores individuales (y por
lo tanto es necesariamente mayor que la de cada elemento por separado).

(ii) En paralelo: La corriente total que pasa por el arreglo de las dos resistencias, Itot,
debe ser la suma de las corrientes que pasan por las dos ramas:

Itot = I1+I2 = V/R1+V/R2 = V(1/R1+1/R2)


pero también Itot= V/Rtot ⇒ 1/Rtot= 1/R1+1/R2 Es decir, el recíproco del valor de la
resistencia total de dos resistencias colocadas en paralelo es la suma de los
recíprocos de los valores individuales; por lo tanto, la resistencia total resulta
menor que la de cada componente individual. El valor de Rtot será
R1×R2/(R1+R2).

A partir de estas dos simples relaciones, podemos


determinar la resistencia total en un circuito más complejo,
compuesto por numerosas resistencias interconectadas (y
también los voltajes y las corrientes en distintas sub-
partes). Se trata simplemente de descomponer el circuito
en trozos más simples aplicando las dos reglas. Por
ejemplo, en la Figura 3.2 si preguntáramos cual es la
resistencia total, diríamos que debe ser el arreglo en
paralelo entre la rama A y la rama B. Ahora, la rama A es
la conexión en serie entre R1 y R2 (cuya resistencia total
sabemos calcular), mientras en la rama B es un arreglo en
Figura 3.2 paralelo de R3 y R4 (que también calculamos fácilmente) a

9
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

su vez conectado en serie con R5. Aplicando las dos reglas secuencialmente varias veces,
obtenemos la respuesta deseada. De nuevo, parece un ejercicio abstracto, pero eso es
justamente lo que se hace cuando uno ha de establecer las pautas de flujo de corriente en un
tejido constituido por elementos eléctricamente excitables como el cerebro o el corazón.

Una aplicación particularmente simple y ubicua de las reglas de combinación de resistencias es


el así llamado divisor de voltaje. Este consiste simplemente en un circuito de dos resistencias
en serie, al cual se aplica un voltaje dado entre los dos terminales (Figura 3.3). La pregunta es
cuál será el valor del voltaje en el punto medio, donde las dos resistencias se conectan. La
respuesta es sencilla y solo hace uso de la regla de
como se suman dos resistencias en serie y la ley de
Ohm. La corriente total es I=Vtot/Rtot. Pero Rtot= R1+R2,
con lo cual es trivial calcular I. Consideremos que uno
de los extremos del circuito, digamos aquel donde está
R1, se encuentra a un voltaje = 0 (i.e. ‘tierra’ – esto solo
Figura 3.3 simplifica el análisis, pero no es una suposición
necesaria). Entonces, aplicando de nuevo la ley de
Ohm, sabemos que respecto a ese punto, el voltaje en el punto intermedio, llamémoslo VX,
será I×R1. Pero I = Vtot/(R1+R2), por lo tanto:
VX = Vtot ×[R1/(R1+R2)]
Es decir, el voltaje del punto intermedio será el voltaje de los extremos multiplicado por un
factor que representa cual fracción de la resistencia total esta dada por la contribución de R1.
Puesto que esta fracción puede tender valores entre (casi) 0 y (casi) 1, la conclusión es que el
punto medio estará comprendido entre 0 y Vtot, y que variando la razón entre R1 y R2 se puede
obtener cualquier valor deseado en ese rango. Por ejemplo, supongamos que hace falta un
voltaje de 3.6 V para hacer funcionar un cierto circuito, pero se dispone solamente de una pila
de 9 V. Entonces, se necesitan dos resistencias tales que:
R1/(R1+R2)=VX/Vtot = 3.6/9 = 0.4
Hay una infinidad de combinaciones que satisfacen esta condición, basta que R2=1.5×R1
(despejando de la ecuación). Si el circuito requiere una cantidad significativa de corriente, es
deseable seleccionar valores bajos de resistencia, porque la corriente de alimentación ha de
fluir a través de R2 y a lo sumo puede ser Vtot/R2. Este circuito es muy útil en la práctica para
generar voltajes arbitrarios, pero, para nuestros fines, tiene ulteriores implicaciones para las
mediciones de señales eléctricas generadas por células, la separación de moléculas por
campos eléctricos, etc. Estos temas se tratarán en una sección posterior.
Leyes de Kirkhoff. Muchas de las propiedades de un circuito pueden deducirse a partir de dos
consideraciones generales:

(1) La suma algebraica de todos los voltajes a lo


largo de un circuito es cero. Es decir, si
partiéramos un circuito en un número
arbitrario de “tramos”, y determináramos la
diferencia de potencial en los dos extremos de
cada tramo, la suma de estos valores es cero.
La Figura 3.4 ilustra un ejemplo, que consiste
en un circuito con una batería y tres
resistencias arregladas en serie. Las letras A,
B, y C determinan la división (arbitraria) del
Figura 3.4

10
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

circuito en sub-tramos. La batería genera 1 Voltio y los valores de las resistencias son
R1 = 5 Ω, R2 = 3 Ω, y R3 = 2 Ω. La corriente que fluye por el circuito se calcula fácilmente
considerando la regla de combinación de resistencias en series, lo cual da la resistencia
total del circuito: RTot = 10 Ω. Aplicando la ley de
Ohm (I = V/R) el resultado es I = 1/10 = 0.1 A.
Ahora la magnitud del voltaje en el tramo entre A y
B es I×RA,B = 0.1×8 = -0.8 V (el signo negativo se
debe a que el punto B es necesariamente menos
positivo que el punto A, por encontrarse más
alejado del polo positivo de la batería). El voltaje
entre B y C es I×RB,c = -0.1×2 = -0.2 V. Y el voltaje
entre C y A es el voltaje generado por la batería = 1 Figura 3.5
V. Si sumamos los tres valores, el resultado es
cero.
(2) En cada punto del circuito, la suma de todas las corrientes es cero. El caso no-trivial es
cuando el punto en cuestión es un nodo, es decir, la unión entre 3 o más conductores.
Como ilustración, consideremos un circuito con dos resistencias en paralelo y una
batería, y el nodo ‘N’ (Figura 3.5). La batería genera 5 Voltios y las dos resistencias
tienen valores R1 = 20 Ω y R2 = 50 Ω. La resistencia total obedece a la regla de
combinación de resistencias en paralelo RTot = 20×50/(20+50) = 14.3 Ω, y por lo tanto la
corriente total del circuito es 5/14.3 = 0.35 A. Esta es la corriente que entra al nodo “N”.
La que sale por las dos ramas es I1 = V/R1 = 5/20 = -0.25, y I2 = V/R2 = 5/50 = -0.1 A.
La suma de las tres es cero. Esto, en esencia, simplemente reafirma el principio de
conservación de carga: si no hay fuentes ni sumideros en un punto nodal, la cantidad
total de carga que entra ha de ser igual a la que sale.

11
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

4. Capacitancia.

Mientras una resistencia permite el paso de corriente de un lado a otro, existe otro componente,
llamado condensador o capacitador, por el cual no fluye corriente pero que es capaz de
acumular carga. Un condensador está constituido por una delgada capa de aislante entre dos
conductores (Figura 4.1A), cuya superficie tenga un área considerable (e.g. dos placas
metálicas separadas por una brecha de aire). Al aplicar un voltaje entre sus dos terminales,
cargas de polaridad opuesta ocupan la
superficie de los dos conductores, y, aunque no
pueden físicamente saltar la barrera aislante, se
encuentran lo suficientemente cerca para que
puedan atraerse mutuamente por la ley de
Coulomb (Figura 4.1B). Por lo tanto, aún si se
desconectara la fuente de voltaje, el
condensador queda cargado (i.e. quedan cargas
de polaridad opuesta separadas por el Figura 4.1
dieléctrico; Figura 10C). La cantidad de carga
acumulada (Q) depende del voltaje aplicado (V), y de la capacitancia intrínseca del
condensador (C):
Q = V×C
Por consiguiente, la capacitancia de un condensador representa cuanta carga es capaz de
acumular para un voltaje dado (C = Q/V). A su vez, la capacitancia es directamente
proporcional al área de las placas (entre más grandes más cargas pueden acomodarse;
comparar Figura 4.2 A y B), e inversamente proporcional a su separación (entre más cercanas
una a la otra, menor la distancia entre cargas de polaridad opuesta, y por lo tanto mayor la
fuerza de atracción, por la ley de Coulomb; comparar Figura 4.2 A y C):
C ∝ A/d
(la constante de proporcionalidad, que omitimos, tiene que ver con propiedades del material
aislante entre los dos conductores). Estos parámetros tendrán relevancia en sistemas
biológicos, cuando encontraremos capas eléctricamente
aislantes que son supremamente delgadas, como la
membrana que envuelve una célula, y que pueden
presentar numerosos pliegues que le confieren una
superficie de área considerable: su capacidad de
acumular carga será por lo tanto significativa, lo cual
tendrá importantes repercusiones en su comportamiento
eléctrico. La capacitancia se mide en unidades de Farad,
y se simboliza con la letra F.

Combinación de capacitancias en serie y en paralelo. Así


como las resistencias muchas veces se encuentran
conectadas unas a otras bien sea en paralelo o en serie,
también tenemos reglas que nos permiten establecer la
Figura 4.2
capacitancia total de dos (o más) condensadores
conectados en paralelo o en serie. Estas reglas resultan
ser la imagen especular de las que gobiernan la combinación de resistencias: Si dos
condensadores, C1 y C2, se conectan en paralelo, CT = C1 + C2. Si se conectan en serie, 1/CT =
1/C1 + 1/C2. En otras palabras, la capacitancia de dos elementos en paralelo es siempre mayor
que la de cada uno por separado, mientras que en serie la capacitancia total es menor que la

12
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

de cada elemento. La demostración es trivial: si los condensadores se encuentran en paralelo y


se aplica un voltaje V al circuito, la carga en el primer condensador será Q1 = V⋅C1, la del
segundo será Q2 = V⋅C2. Evidentemente la carga total separada es QT = Q1 + Q2. Dividiendo
ambos lados de la ecuación por V, se obtiene QT/V= Q1/V + Q2/V, es decir, CT = C1 + C2. Si los
dos condensadores están en serie, la carga separada entre los dos terminales del circuito es Q;
pero también es la carga separada en cada uno de los condensadores (debe haber una
cantidad de carga igual y opuesta en cada par de placas), con lo cual Q = C1V1 = C2V2. Por
consiguiente, teniendo en cuenta que VT = V1 + V2, QT/CT = Q1/C1 + Q2/C2, i.e. 1/CT = 1/C1 +
1/C2

Corriente capacitativa. El condensador tiene gran utilidad en el diseño de circuitos eléctricos, ya


que su capacidad de acumular carga y luego liberarla permite construir aparatos cuyo
comportamiento tiene características temporales muy definidas, como por ejemplo sólo
responder a estímulos que cambien rápidamente, o, viceversa, a estímulos estacionarios o
lentamente cambiantes. Esto se puede vislumbrar considerando que ocurre en un condensador
cuando se altera el voltaje a través de sus dos terminales: si pasamos de V1 a V2 la carga en el
condensador cambiará de Q1= V1×C a Q2= V2×C. Es decir una cierta cantidad de carga (ΔQ)
debe bien sea entrar o salir del condensador. Este movimiento de carga representa una
corriente, que llamaremos corriente capacitativa simbolizada como IC. Puesto que la corriente
se define como rata de flujo de carga por unidad de tiempo, IC es la derivada temporal de la
carga, IC = dQ/dt, lo cual a su vez es = C×dV/dt. Si el voltaje es estacionario, dV/dt = 0 ⇒ IC = 0;
en otras palabras, no importa que tan alto el voltaje, no habrá corriente por el condensador
mientras V permanece estable. En cambio, si el voltaje cambia habrá corriente capacitativa, la
cual será más grande entre mayor la rata de cambio del voltaje. Entonces vemos que,
contrariamente a una resistencia, por la cual fluye corriente siempre en proporción a la
diferencia de voltaje entre sus terminales, en el caso de un condensador lo que más importa es
como va cambiando el voltaje, es decir sus características temporales. Notamos también que,
contrariamente a una resistencia en la cual se mantiene en todo momento una estricta relación
de proporcionalidad entre V y I, la ley del condensador implica que en ese caso la amplitud de
la corriente y la del voltaje pueden estar desfasadas en el tiempo. Consideremos un voltaje que
varíe según una función sinusoidal:
V(t) = A⋅sin(ωt)
La expresión indica que el voltaje crece y decrece cíclicamente, alcanzando una amplitud de
+A y –A (cuando sin(ωt) = +1 y -1, respectivamente). El
parámetro ω se conoce como la frecuencia angular. Si ω = 1 el
sinusoide cumple un ciclo cuando t incrementa por 2π (en
radianes, i.e. 360°). Si ω fuera 2, en cambio, al cabo de π
segundos ya se cumpliría un ciclo, y así sucesivamente. Entre
más grande el valor de ω, más rápidas las oscilaciones: la
frecuencia, f, medida en ciclos por segundo (i.e. Hz), será f =
ω/2⋅π. Ahora apliquemos ese voltaje a un condensador y
miremos la corriente que entra y sale del condensador. Puesto
que, como ya se explicó, la corriente capacitativa es proporcional
a la rata de cambio del voltaje aplicado (IC = C⋅dV/dt), para un
voltaje que varíe sinusoidalmente la corriente será máxima
cuando el voltaje tiene valor 0 (i.e. cuando el sinusoide cruza la
línea negra horizontal que es el momento de máxima pendiente;
el signo podrá ser positivo o negativo, representando la
dirección de la corriente, según nos encontremos en la fase Figura 4.3

13
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

ascendiente o descendiente del ciclo); en cambio la corriente será cero justo cuando el voltaje
alcanza su pico máximo o mínimo (en esos puntos la tangente, cuya pendiente representa la
rata de cambio, es horizontal). Siendo más formales, IC = C⋅d/dt(A⋅sin(ωt)) = C⋅ A⋅cos(ωt) [la
derivada de la función seno es el coseno]. Pero cos(x) = sin(x+π/2). Evidentemente corriente y
voltaje estarán desfasados, como ilustra la Figura 4.3.

Filtros. Combinando resistencias y condensadores es posible modular la respuesta temporal de


de un circuito. Este concepto está a la base de la construcción de filtros, circuitos que dejan
pasar o rechazan selectivamente señales eléctricas que oscilen con diferentes frecuencias.
Consideremos, por ejemplo, una señal de voltaje que
podría cambiar en el tiempo, y por lo tanto la
representamos como una función V(t). En lugar de
monitorearla directamente, la pasamos por el circuito
ilustrado en la Figura 4.4, el cual consiste de una
resistencia seguida de un condensador cuyo otro
terminal está conectado a tierra. Como modifica este
simple circuito la señal en cuestión? Llamemos V’(t) el
voltaje de salida del circuito. Evidentemente, por la ley
de Ohm, V y V’ diferirán en la medida en que pase
Figura 4.4
una corriente a través de la resistencia R, y la
diferencia, ΔV, será I⋅R. Esta corriente solo puede continuar su camino por el condensador C, y
por lo tanto es igual a la corriente capacitiva, que como ya sabemos es igual a C⋅dV’/dt.
Entonces podemos representar nuestro voltaje desconocido, V’, como:
V’ = V + ΔV = V + R⋅I = V + R⋅CdV’/dt
Podemos re-arreglar los términos de esta ecuación y re-bautizar RC como τ:
dV’/dt – V’/τ = V
Se puede resolver esta ecuación para un caso sencillo, en el cual el voltaje V es inicialmente 0,
y en el instante t=0 brinca abruptamente a un valor fijo, llamémoslo Vo. Esto es como asumir
que el término de la derecha es una constante, V0, y que el sistema empieza en V=0, es decir,
las condiciones iniciales de la ecuación son V = 0 para t< 0. La solución de este problema es
una función exponencial:
V’(t) = V0(1 – exp(-t/τ))
Cuando t = 0, V’ también es cero (todo número elevado a un exponente de 0 da como resultado
1), y por consiguiente esta función satisface las condiciones iniciales del problema. Cuando
t→∞ V’→V0. En otras palabras, V’ empieza de cero, y sube exponencialmente hacia la asíntota
V0; la rapidez de esta transición gradual está dada por τ (=R⋅C), y por eso se le llama la
constante de tiempo del sistema. Este parámetro tiene de hecho unidades de tiempo, lo cual
puede parecer sorprendente, pero es fácil comprobarlo: R tiene unidades de Ω, pero por la ley
de Ohm es también igual a V/I, cuyas unidades son V/A = V×s/Coul. Por otra parte, la
capacitancia C se mide en Farad, pero puesto que C = Q/V (por la ley fundamental del
condensador), entonces F= Coul/V. Multiplicando R y C las unidades son por consiguiente s
(segundos). La constante de tiempo, τ, es el tiempo que ha de transcurrir para que el sistema,
empezando desde sus condiciones iniciales, llegue aproximadamente al 63% del valor final, la
asíntota (V0). Esto se deduce asignando a la variable tiempo el valor τ: se obtiene V’(t) = V0(1 –
exp(-τ/τ)) = V0(1 – exp(-1)) = V0(1 – 1/e). El valor de e (la constante de Euler) es ≈2.718..., por
lo tanto 1/e ≈ 0.37, es decir 1-1/e ≈0.63. La Figura 4.5 muestra dos ejemplos de curvas
exponenciales (o ‘relajaciones exponenciales’), que empiezan en ambos casos desde el valor 0

14
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

y tienen como asíntota 1 (en unidades


arbitrarias); es decir, ambas están
descritas por la ecuación V’(t) = 1 –
exp(-t/τ), pero en un caso (curva azul
punteada) la constante de tiempo, τ, es
0.5 (unidades de tiempo arbitrarias).
Por lo tanto, cuando t= 0.5 entonces V’
habrá llegado al 63% de su valor
asintótico. Para el otro caso (curva roja
continua) τ = 1, y por consiguiente ese
es el tiempo que ha de transcurrir para
que el valor de V’ llegue a 0.63. Esto
nos dice que una transición abrupta en
el voltaje de entrada, solo producirá un
cambio gradual en la salida. Si en lugar
Figura 4.5
de un paso sostenido se aplicara un
breve impulso (e.g. más corto que la constante de tiempo), la salida no alcanzaría a cambiar
mayor cosa, y la amplitud de la señal resultante será por lo tanto significativamente atenuada.
Una transición de por si lenta y sostenida, en cambio, no se verá afectada por la limitante de la
lentitud del circuito en responder, y entonces no sufrirá atenuación considerable. Hemos creado
un filtro pasa-bajos: una señal oscilatoria de alta frecuencia será atenuada (rechazada) pero
una de baja frecuencia (es decir, cuyos ciclos son lentos) pasará sin mayor pérdida de
amplitud. La discriminación entre cuales frecuencias pasan o se rechazan depende, por
supuesto, de la constante de tiempo. Si invirtiéramos las posiciones de R y C en el circuito, el
efecto será opuesto: señales sostenidas no pasan (una vez C esté cargado no hay ulterior
movimiento de cargas: por lo tanto, si no hay corriente por R, no habrá voltaje entre sus
terminales), señales lentas pasarán con mucha atenuación, mientras las rápidas no tendrán
inconveniente alguno. Esto sería un filtro pasa-altos. Los controles de tono (‘Bajos’ y ‘Altos’) de
un equipo de sonido son precisamente filtros ajustables, por medio de los cuales el usuario,
cambiando con una perilla el valor de una resistencia conectada a un condensador, puede
atenuar o enfatizar distintas bandas de frecuencia, es decir, sonidos graves y sonidos agudos.
Más adelante se verá que la capacitancia es una propiedad eléctrica de gran relevancia a la
biología, ya que encontraremos a menudo instancias en las cuales dos medios conductores en
un tejido se encuentran separados por una muy delgada capa de aislante cuya superficie de
área es considerable (la membrana celular es el ejemplo más obvio). Combinada con la
resistencia de diferentes componentes del tejido, también se constituyen filtros de frecuencia en
las células. Este concepto subyace propiedades esenciales que determinan la forma como, por
ejemplo, células del sistema nervioso son capaces de procesar señales eléctricas rápidamente
en algunos casos, o integrar lentamente la información en otros. También es un factor
importante en las técnicas de medición eléctrica, ya que si alguna resistencia de alto valor y
alguna capacitancia se interponen entre la señal a ser medida y el aparato que las mide, sus
características temporales se verán afectadas. En algunas instancias, estos efectos son
indeseados, ya que distorsionan las señales eléctricas que se quieren examinar; en otros
casos, como se verá más tarde, la modificación es deliberada y pretende bien sea eliminar
interferencias o resaltar ciertas características de la señal.

15
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

5. Impedancia

Las consideraciones anteriores sugieren que en un circuito que contenga tanto resistencias
como condensadores, la corriente que fluye no dependerá solamente de la magnitud del voltaje
aplicado, sino además de sus características temporales. Por lo tanto, el concepto de
resistencia entre dos puntos, tal como se había presentado, ya no se aplica en un sentido
estricto: por ejemplo, un cierto circuito podrá fácilmente permitir el flujo de una corriente (i.e.
ofrecer baja resistencia) en respuesta a un voltaje dado si este se mantiene constante, pero no
si varía rápidamente (en cuyo caso aparecería como un medio de alta resistencia), o viceversa.
Claramente, un simple número ya no basta para caracterizar que tan fácilmente fluye corriente
por un medio o un circuito dados. Esto nos lleva a la noción de impedancia, lo cual constituye
una generalización del concepto de resistencia: la impedancia eléctrica, usualmente
representada por la letra Z, ya no es un numero, sino una función que depende de la frecuencia
de oscilación del voltaje que se aplica (asumiendo que los cambios son sinusoidales), es decir
Z(f). Para cada frecuencia, la impedancia estará dada por el cociente entre la magnitud del
voltaje y la de la corriente resultante (análogo a la ley de Ohm, solo que especificada
separadamente para cada frecuencia). Pero hay una complejidad adicional: hemos visto que la
presencia de una capacitancia resulta en un desplazamiento de fase entre voltaje y corriente.
En el caso de un condensador solo, el desplazamiento es de 90˚ (π/2): Entonces una
descripción de la corriente que fluye por un circuito que solamente tome en cuenta la magnitud
de la corriente para cada frecuencia de voltaje aplicado es insuficiente: hace falta además
especificar el tamaño de cualquier ‘corrimiento’ temporal entre voltaje y corriente, es decir, el
desplazamiento de fase que puede ocurrir a cada frecuencia. Por lo tanto la impedancia tiene
que especificar dos números para cada valor de la frecuencia, y por consiguiente representa
dos funciones. Si uno analizara un filtro (por ejemplo, el filtro pasa-bajos considerado
previamente), se podría caracterizar enteramente su comportamiento conociendo la atenuación
y el desplazamiento de fase que sufre un sinusoide aplicado a su entrada, en función de la
frecuencia de oscilación del mismo.

De que nos sirve determinar el valor de la impedancia en un sistema biológico? Posteriormente


consideraremos la conducción eléctrica en los tejidos y fluidos biológicos, y veremos que
algunos constituyentes se comportan como una simple resistencia, mientras que otros solo
pueden mediar transitoriamente un desplazamiento de carga local cuando cambia el voltaje, tal
como lo hace un condensador. El análisis de la impedancia nos permite discernir, entre otras
cosas, la presencia y la predominancia de lo uno vs. el otro, y sus características, con lo cual
uno deriva información valiosa sobre la constitución estructural de un tejido, de una célula, o de
sus componentes. De hecho, fue este tipo de acercamiento que proporcionó alguna evidencia
de que las células debían poseer una delgada capa aislante (la membrana) que separara los
fluidos intra-celulares y extra-celulares. En una de las tantas aplicaciones prácticas de estos
conceptos, se han desarrollado métodos que, midiendo la impedancia eléctrica de los tejidos,
permiten estimar el porcentaje de grasa corporal de un individuo, lo cual es útil como criterio
diagnóstico sobre su estado nutricional y para formular estrategias de modificación de dieta.

16
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

6. Medios electrolíticos

Hasta el momento se ha considerado la conducción eléctrica en metales, pero una corriente


puede darse en cualquier medio en el cual existan cargas y éstas se encuentren en relativa
libertad de desplazarse bajo la influencia de un campo eléctrico. El plasma, un gas en el cual
‘floten’ moléculas ionizadas es un ejemplo (como ocurre al interior de una lámpara de neón).
Esto ocurre también en ciertos líquidos, en los cuales estén disueltas moléculas que lleven una
carga eléctrica neta, como por ejemplo en los fluídos biológicos tanto en el interior de las
células como en los intersticios y espacios extracelulares.

Dipolos eléctricos, solventes polares, coeficiente dieléctrico. La razón por la cual en un medio
acuoso pueden estar disueltas particulas cargadas es que el agua es un solvente polar. Esta
propiedad hace referencia al hecho de que las moléculas de agua, aunque eléctricamente
neutras, son alargadas y manifiestan una distribución asimétrica de su nube electrónica, la cual
es más densa alrededor del oxígeno (más electronegativo), como muestra la Figura 6.1A. Esto
confiere una carga negativa a esta región de la molécula, mientras que los dos protones de los
hidrógenos quedan neutralizados de una manera incompleta y por lo tanto mantienen una
carga neta positiva (Figura 6.1B).
La separación espacial de las dos
regiones con carga opuesta
confiere a la molécula de agua
propiedades de un dipolo eléctrico:
la aplicación de un campo eléctrico
no produce una fuerza neta ni una
migración, ya que la carga total de
la molécula es cero, pero aplica un
torque (T = E×μ, donde μ es el
momento dipolo, definido como el
producto de la carga y la distancia
que la separa, μ = r⋅q), el cual re- Figura 6.1
orienta la molécula, alineándola
con el vector del campo eléctrico. Esto hace que una partícula cargada disuelta en un medio
acuoso pueda encontrarse en una situación energéticamente favorable, rodeada de moléculas
de solvente apropiadamente alineadas, apuntando hacia su centro de carga y neutralizándola
parcialmente. A nivel macroscópico, la presencia y magnitud de un momento dipolo en las
moléculas del medio se traduce en el coeficiente dieléctrico, ε. Moléculas polares y ionizadas
se disuelven fácilmente en un solvente con alto coeficiente dieléctrico como el agua (ε≈80); en
cambio, moléculas no-polares lo harían con dificultad, porque interferirían con las interacciones
electrostáticas entre las moléculas del solvente, y tenderán por lo tanto a agregarse y formar un
precipitado insoluble. Por ejemplo, en agua el cloruro de sodio (NaCl; Figura 6.1C) se disocia
en Na y Cl, pero el cloro, siendo más electronegativo, retiene un electrón extra, y adquiere una
carga neta negativa (Cl-, un anión). Recíprocamente, el sodio queda ‘corto’ de un electrón y
tendrá por lo tanto una carga neta positiva (Na+, un catión). Ambos constituyentes se
encontrarán en una situación energéticamente favorable, rodeados de moléculas polares
orientadas apropiadamente para neutralizar su carga (la así llamada concha de hidratación;
Figura 6.1D).
Ahora podemos considerar que ocurre con la conductividad de un medio acuoso. En principio,
uno diría que si se trata de agua pura, la conductividad debería ser nula, por ser las moléculas
de H2O eléctricamente neutras y por lo tanto incapaces de migrar en respuesta a un campo

17
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

eléctrico y mediar una corriente. Pero realmente, además de H2O, el agua contiene una
cantidad finita de protones libres (H+) y de hidroxilos (OH-) debido al equilibrio de la reacción:
H2O ' H+ + OH-
El pH representa –log([H+]), donde la concentración de protones está dadas en molares
(mol/litro). Por lo tanto a pH ‘neutro’ = 7 la concentración de protones es 10-7 M o 0.1 μM (una
deci-millonésima de molar); lo mismo con los hidroxilos. Tanto los protones como los hidroxilos
son cargados (i.e. son iones) por lo tanto confieren al agua propiedades de conductor. Pero a
pH neutro (lo cual es inevitable si se trata de agua pura, porque se disocia el mismo número de
H+ y de OH-) su concentración es muy baja, y por consiguiente la conductividad eléctrica es
muy modesta (i.e. alta resistividad): 18 MΩ⋅cm. Pero si el pH fuera, por ejemplo, muy acídico,
digamos pH=3 (lo cual implica añadir algún ácido, por ejemplo HCl), ya se tendría un milimolar
de protones libres, lo cual constituye una concentración apreciable y determina una
conductividad significativa. El mismo efecto se obtendría si disolviéramos una buena cantidad
de sal (NaCl): ésta de disociaría en iones de sodio (Na+) y de cloruro (Cl-), los cuales
incrementarían significativamente la conductividad. Los fluídos intra- y extra-celulares contienen
gran cantidad de iones disueltos (totalizando casi 300 mM en un mamífero, y mas de 1M en un
animal marino), y esto implica que estamos tratando con medios de alta conductividad,
propicios para mediar fenómenos eléctricos. Otras sustancias como la sacarosa (C12H22O11)
también se disuelven en agua, pero sus moléculas no se disocian, y al quedar intactas son
eléctricamente neutras; por lo tanto la conductividad de la solución no incrementa.
Clarificación de las diferencias entre conducción en metales y electrolitos. En resumen,
mientras en metales la matriz de átomos es fija y la única manera de tener movimiento de
carga es desplazando electrones, en líquidos no hay una estructura fija de la materia: las
moléculas mismas, tanto de solvente como de soluto, son móviles y capaces de desplazarse
por difusión. Por lo tanto, la conducción eléctrica ocurre con el desplazamiento de moléculas
enteras que posean una carga neta (iones). Podemos fácilmente ver cuales factores
determinan la resistividad/conductividad de un medio electrolítico. En primer lugar, es obvio que
la concentración iónica de la solución va a jugar un papel importante: entre más disponibilidad
partículas cargadas, más corriente puede fluir bajo un voltaje dado. Segundo, la movilidad de
los iones es determinante: evidentemente una molécula pequeña experimentará menor fricción
al desplazarse por un medio que tiene cierta viscosidad, y por lo tanto puede fluir más
fácilmente (su coeficiente de difusión será mayor). Finalmente, entre más grande la carga
eléctrica neta que lleva la molécula en cuestión - i.e. z×e, z siendo la valencia y e la carga
elemental - mayor la fuerza que experimentarán al aplicarse un campo eléctrico. Los últimos
dos factores a menudo suelen juntarse en un solo parámetro, denominado la movilidad
electroforética.

Aislantes en sistemas electrolíticos: Una interfase entre un compartimiento acuoso y un medio


no polar actúa como una barrera para el movimiento de los iones que están disueltos en el
medio acuoso (i.e. partículas cargadas tenderán a no penetrar el medio no-polar). La célula
esta delimitada por una membrana (‘plasmalema’) constituida por una capa de fosfolípidos;
éstos se componen de un ácido graso, con su doble cadena de hidrocarbonos, enlazado a un
glicerol, el cual, a su vez, se une a otra molécula (serina, colina, etanolamina, etc.). Debido a su
naturaleza anfipática, con la cabeza polar y las dos cadenas hidrofóbicas, en un medio polar
como el agua los fosfolípidos pueden asumir pocas configuraciones energéticamente estables,
en las cuales las cadenas acílicas de distintas moléculas se juntan entre si y exponen al medio
acuoso las cabezas polares; configuraciones posibles son micelas y bicapas planas (es decir,
una doble capa que expone las cabezas polares a los dos lados) cerradas en forma de

18
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

vesícula. Ésta última configuración permite la creación de compartimentos separados en


sistemas electrolíticos: no solamente queda la célula delimitada por dicha membrana, sino
también se pueden crear sub-compartimentos internos que ejercen funciones especializadas
dentro de la célula y requieren estar separados del resto del citoplasma. La membrana impone
una barrera difusional para los iones, que difícilmente abandonarían un ambiente polar
(coeficiente dieléctrico ≈80) para insertarse en la fase hidrofóbica de la membrana (ε≈2-3).
Puesto que los iones son los que median toda transferencia de carga eléctrica en una solución,
desde el punto de vista eléctrico las membranas biológicas funcionan como aislantes, y por lo
tanto entre el interior y el exterior de la célula existe una barrera eléctrica de alta resistencia (la
resistencia de la membrana, Rm).

Ahora que sabemos que los fenómenos eléctricos en medios electrolíticos representan la re-
distribución de iones, a menudo querremos cuantificar el flujo de moléculas a partir del tamaño
de la corriente o, viceversa, conociendo el movimiento de una cierta especie de moléculas
tendremos la necesidad de calcular cuanta corriente eso representa. La constante de Faraday
(96500 coul×mol-1) y el número de Avogadro (No ≈ 6×1023 partículas/mol) permiten convertir
entre cantidades eléctricas y químicas, haciendo posible el cálculo del número de partículas
implicadas en un fenómeno eléctrico (o viceversa). Por ejemplo, si fluye una corriente de 0.1 A
(es decir, 0.1 Coul/s), al dividir por la constante de Faraday sabríamos que es equivalente a
0.1/96500 mol/s de iones monovalentes. Multiplicando por No podríamos determinar cuantos
iones/segundo están fluyendo.

La importancia de los fenómenos eléctricos en medios electrolíticos es enorme: a través de la


membrana de toda célula existen un voltaje significativo (negativo en el interior, respecto a los
fluidos extracelulares), y cambios en este voltaje constituyen el principal sistema de transmisión
de información a distancia, y sirven también para gatillar un sinnúmero de procesos celulares,
desde la liberación de mensajeros químicos, hasta la contracción de fibras musculares. La
consideración fundamental que nos permite esclarecer la naturaleza de estos fenómenos bio-
eléctricos es que los iones, siendo partículas disueltas en un medio líquido y portadoras de una
carga eléctrica neta, son susceptibles a dos determinantes que pueden inducir su movimiento:
por una parte, como todo soluto en un fluido, tienden a desplazarse de regiones del espacio
donde se encuentren en alta concentración hacia regiones donde su concentración sea menor.
La ley de Fick formaliza esta relación:
J = -DdC/dx
Donde J es el flujo de partículas (en mols⋅s-1⋅cm-2), dC/dx es la rata de cambio de la
concentración en el espacio), y D una constante positiva, llamada el coeficiente de difusión. En
otras palabras, el flujo difusional de partículas es proporcional al gradiente de concentración; el
signo negativo simplemente recalca el hecho de que el movimiento se dará en la dirección en la
cual la concentración va disminuyendo. Por otra parte, el movimiento de iones es tambíén
influenciado por fuerzas eléctricas, es decir el gradiente del potencial eléctrico en el espacio, y
los factores que determinan qué tanto dichas fuerzas eléctricas se traducen en movimiento del
soluto: su valencia (cuanta carga lleva cada molécula), su concentración, y la facilidad con la
cual las partículas se pueden desplazar en dicho medio (el tamaño de las partículas y la
viscosidad del medio, que determinan las fuerzas de fricción). Cada vez que existen diferencias
de concentración de un tipo de soluto iónico, el movimiento que resulta lleva a un re-arreglo de
cargas, y por lo tanto corrientes eléctricas y cambios en el potencial eléctrico en diferentes
puntos del espacio. Viceversa, cada vez que fuerzas eléctricas impulsan el movimiento de
partículas ionizadas, se engendran cambios en su concentración en dicho dominio espacial.
Consideremos dos compartimientos acuosos separados por una barrera. Imaginemos que en el
líquido se haya disuelto alguna sal, la cual se disocia en cationes y aniones, y que la

19
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

concentración en los dos


compartimientos fuera diferente. Por
ejemplo, podríamos tener 100 mM de
KCl en el lado izquierdo y 10 mM de
KCl en el lado derecho (Figura 6.2).
Asumamos además que la barrera
fuera selectivamente permeable a una
sola de las dos especies iónicas, por
ejemplo, al potasio (los motivos
detallados trascienden los propósitos Figura 6.2
de este curso, pero tienen que ver con la presencia en la membrana de moléculas
especializada en transportar solutos de un lado al otro, pero capaces de discriminar cuales
especies tendrán paso, y cuales no podrán translocarse). Debido a la diferencia de
concentración, la ley de Fick predice que habrá un movimiento difusional del lado izquierdo al
lado derecho, pero esto solamente se aplica al K+, ya que el Cl- no puede. Pero puesto que el
potasio es positivamente cargado, cada vez que un K+ se desplaza, el compartimiento izquierdo
pierde una carga eléctrica positiva y queda por lo tanto electronegativo, mientras que el
derecho gana una carga positiva y se torna más positivo. Este desbalance de carga no es
compensado, ya que el cloruro, pese a experimentar el mismo gradiente de concentración, no
puede cruzar la barrera. Entre mayor el flujo de potasio, mayor la diferencia de potencial
eléctrico que se establece entre los dos compartimientos. Pero este voltaje repercute a su vez
sobre el movimiento de potasio: entre más grande, más la electronegatividad del
compartimiento de la izquierda tiende a retener los iones de potasio (que son positivos)
mientras que el de la derecha tiende a repelerlos. Llegará el punto en el cual la diferencia de
potencial contrabalanceará el gradiente de concentración: tendencias difusionales y fuerzas
eléctricas serán iguales y opuestas y los iones de potasio se encontrarán en equilibrio, y
dejarán de producir un flujo neto. Esta situación se conoce como Equilibrio de Nernst, y el
voltaje que balancea el gradiente de concentración para un ión dado es el potencial de Nernst
para ese ión. Las consideraciones anteriores implican que, si existen concentraciones
desiguales a los dos lados de una partición semi-permeable, se puede llegar a la creación de
un potencial eléctrico estable, engendrado por movimientos selectivos, impulsados por difusión
a lo largo de un gradiente de concentración. En las células sucede algo muy similar: la
concentración de distintos iones en el interior vs. el exterior es diferente, gracias a la acción de
moléculas llamadas bombas iónicas. Justamente, el potasio se acumula en el interior
alcanzando un gradiente de concentración de 40×, mientras el sodio y el calcio son extruídos y
por lo tanto se encuentran a mayor concentración en el exterior; más aún, la membrana celular,
aunque generalmente impermeable a moléculas polares y cargadas, deja sin embargo pasar
potasio (pero no sodio ni tampoco calcio, por lo menos en el estado de reposo). El éxodo del
potasio del interior de la célula engendra un gradiente de potencial eléctrico, el potencial de
reposo, que es negativo adentro. Esto ocurre prácticamente en la totalidad de las células
animales conocidas.

20
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

7. Electroforesis
Podemos brevemente considerar una de las tantas aplicaciones de los principios de
electricidad en sistemas electrolíticos, donde la conducción eléctrica es mediada por moléculas
enteras ionizadas y por lo tanto la aplicación de un voltaje causa su migración. La
electroforesis consiste en el desplazamiento de una partícula cargada bajo la influencia de
fuerzas eléctricas, y tiene considerable relevancia a las ciencias biológicas.

Separación de moléculas
La aplicación más típica concierne la separación de macromoléculas que se encuentren
mezcladas en una muestra; esto se basa en que si distintos compuestos depositados en un
punto de un medio migran a velocidades diferentes, entonces al cabo de un cierto tiempo
habrán recorrido distancias diferentes y por lo tanto se habrán separado unos de otros. Este
acercamiento puede servir bien sea para ayudar la identificación e inclusive la cuantificación de
constituyentes presentes en la mezcla (electroforesis analítica) o bien para su purificación para
uso posterior (electroforesis preparativa). En esta breve introducción se enfatizarán solamente
los fundamentos eléctricos de la técnica, no los aspectos bioquímicos. Por supuesto, es
imprescindible que las moléculas en cuestión posean una carga eléctrica neta, lo cual puede
ocurrir naturalmente en el caso de muchos tipos de sustancias, o puede requerir el uso de
algún compuesto exógeno que se adhiera a ellas y les confiera una carga. Los determinantes
fundamentales de la velocidad de migración en un campo eléctrico dado son (i) la carga de la
molécula (la cual dictamina la fuerza ejercida sobre ella por el campo: F = E⋅q, donde F es la
fuerza, E el campo eléctrico y q la carga) y (ii) su tamaño (el cual establece una fuerza de
fricción que se opone al movimiento). De esto se desprende que una molécula puede migrar
más rápidamente que otra bien sea porque tuviera una mayor carga eléctrica, o bien porque
aún teniendo la misma carga su tamaño fuera menor, lo cual facilita el desplazamiento; por
consiguiente, aunque podríamos fácilmente lograr la separación eléctrica entre especies
moleculares, desconoceríamos el porqué (es decir, cuales propiedades de las diferentes
sustancias son responsables por esa separación). Más aún, el mismo campo eléctrico podría
producir la migración de diferentes moléculas en direcciones opuestas, si la polaridad de su
carga es también opuesta. Claramente hace falta imponer algún orden para que el concepto de
electroforesis se vuelva de utilidad práctica. La aplicación más común pretende separar
moléculas según su masa y para lograrlo hace falta tomar dos medidas. Un primer paso es
cerciorarse de que las diferentes moléculas no difieran de una manera caprichosa en cuanto a
su carga eléctrica, sino posean una carga neta de la misma polaridad, que sea proporcional a
su masa. Esto sucede naturalmente en polímeros cuyos elementos constituyentes (i.e. los
monómeros) tienen una carga y un tamaño más o menos fijos (por ejemplo, las cadenas de
ácidos nucléicos, ADN y ARN, las cuales están constituidas por nucleótidos que son aniónicos
y de peso molecular similar). En cambio, en las proteínas la composición de aminoácidos varía
mucho, y éstos a su vez pueden diferir drásticamente tanto en la carga neta (que puede ser
positiva, negativa o neutra) como en el peso molecular (desde 75 Dalton para glicina, hasta 204
Da para triptófano). Para obviar este problema, se aplica un detergente aniónico, sodio dodecil
sulfato (SDS), que se combina con las proteínas en una relación prácticamente constante: ≈1.4
gramos de SDS por cada gramo de proteína. La carga introducida por el SDS es (i)
cuantitativamente mucho mayor que toda carga endógena que poseyera inicialmente la
proteína, y (ii) proporcional a la masa del polipéptido; por consiguiente, se obtiene una
población de proteínas modificadas que son todas negativamente cargadas (cualquier carga
positiva habrá sido abrumada por las cargas negativas mucho más numerosas del SDS
adsorbido), y con una relación carga-masa aproximadamente constante. Esta primera medida
sirve para uniformar la carga eléctrica de las proteínas, pero no nos ayuda a separarlas, ya que
la constancia del cociente carga-masa hace que la movilidad de diferentes moléculas tenderá a

21
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

ser la misma: las más grandes son las que experimentan la mayor fuerza eléctrica, pero
también sufren mayor fricción con el medio, y viceversa. Para obviar este inconveniente se
introduce entonces un medio que proporcione un impedimento diferencial a moléculas de
diferentes tamaño: en lugar de un líquido, se usa alguna matriz cuya textura dificulte más el
paso de moléculas grandes: por ejemplo, un gel,
constituido por una ‘telaraña’ de algún polímero (tal
como acrilamida o agarosa), con los intersticios
ocupados por un líquido conductivo. Ahora las
moléculas se verán selectivamente retardadas en su
migración dependiendo de su tamaño, y, debido a sus
diferentes velocidades, al cabo de un determinado
período se encontrarán segregadas en posiciones
distintas (Figura 7.1). La comparación con la
migración de moléculas de referencia cuya masa sea
conocida permite asignar un peso molecular a las
moléculas que se han separado en la muestra. Figura 7.1
También es posible recoger solamente una población
de moléculas de cierta masa, una vez separadas de las demás, y obtener por lo tanto su
purificación.

Consideremos las fuerzas que empujan la migración electroforética. Es importante recalcar


que, para una carga dada, la fuerza eléctrica depende del campo, el cual a su vez es el
gradiente del potencial; en otras palabras, la fuerza depende de que tan rápidamente va
cambiando el potencial al desplazarse en el espacio (i.e. la derivada espacial del potencial,
dV/dx). No es lo mismo aplicar un voltaje de 10 V entre dos puntos separados por una distancia
de1 cm, vs. de 10 cm: a pesar de que la diferencia de potencial es la misma en los dos casos,
el campo eléctrico (y por lo tanto las fuerzas ejercidas sobre partículas cargadas) será 10 veces
mayor en el caso de la distancia corta (la ‘pendiente’ del voltaje es más empinada).

Hay dos maneras de implementar una separación electroforética: por voltaje constante, o por
corriente constante; cada uno de los dos acercamientos presenta ventajas y desventajas. En el
primer caso la fuente de poder se encarga de mantener una diferencia de potencial fija (el
voltaje, V) entre los extremos del medio (el cual, como se ha dicho, suele ser un gel). En el
segundo caso, la fuente de poder impone un flujo de corriente pre-determinado (I) a través del
medio. Aquí el voltaje que resulta depende, por la ley de Ohm, de la resistencia del medio: V =
IR; para una corriente dada, entonces, el voltaje será mayor si el medio es de alta resistencia.
La resistencia, recapitulando conceptos presentados en una sección anterior, crece con la
longitud del recorrido por el medio resistivo, y decrece con el área de sección del mismo: R =
ρL/A. Es importante tener en claro el impacto de diferentes parámetros eléctricos para lograr el
objetivo y evitar percances: (i) se necesita un campo eléctrico de intensidad apropiada para
impulsar la migración de moléculas cargadas, y (ii) se quiere evitar excesiva disipación de
energía en calor, lo cual podría perjudicar la integridad de la muestra y/o del medio mismo.
Recordemos que la disipación de energía (medida en vatios, y simbolizada por la letra W) es el
producto de corriente y voltaje: W = IV. Pensemos en casos prácticos: usualmente la
separación electroforética se lleva a cabo por un medio cuya geometría es un paralelepípedo
(Figura 16) que tiene una longitud considerable (muchos centímetros) en la dirección del campo
que se aplica; esto permite que las diferentes clases de moléculas puedan llegar a distanciarse
significativamente unas de otras. Por otra parte, el espesor del medio (y por lo tanto el área de
sección) es muy modesto (0.5 a 5 mm); conjuntamente, estos dos parámetros se traducen en
una alta resistencia longitudinal. Si uno opta por usar voltaje constante, éste suele ser
considerable (típicamente > 100 V), para poder engendrar un campo aceptablemente intenso

22
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

(voltaje/distancia). Si uno prefiere corriente constante, ésta en cambio tendrá que ser modesta
(milliamperios), porque al cruzar un medio de tan alta resistencia aún una corriente pequeña
genera un voltaje grande (V = IR). Ambos parámetros, además, han de cumplir con el requisito
de que la disipación de energía no sobrecaliente el medio (por ejemplo si tenemos 120 V y 20
mA, se disipan 24 W, lo equivalente a un bombillo de baja potencia; si en cambio, para acelerar
la migración, subiéramos mucho el voltaje y la corriente, podríamos llegar a tener una
disipación en calor de muchas decenas o cientos de vatios, que llevaría a una enorme
elevación de temperatura y la consecuente destrucción de la muestra y del gel – y tal vez
también de la fuente de poder!

La electroforesis no se utiliza solamente para separar moléculas; el experimentador puede


también estar interesado en transferirlas a otro medio una vez lograda su separación por
tamaño (por ejemplo, haciéndolas migrar a una membrana de nitrocelulosa o de nylon). En este
caso, se pondría el gel en contacto con la membrana y se aplicaría un campo eléctrico en la
dirección del espesor del gel (es decir, transversalmente, entre las caras anchas del
paralelepípedo). Aquí no hace falta un gran voltaje, ya que el campo resultante será intenso
debido a la corta distancia a través de la cual se aplica V; en modalidad de corriente constante,
en cambio, el valor de I deberá ser considerable para lograr producir un voltaje aún modesto,
porque en esta dirección la resistencia es muy baja (ahora en la fórmula R = ρL/A la distancia L
es pequeña y el área de sección A es grande).

Hay muchas variantes de la electroforesis, y sus derivaciones conceptuales exceden los


objetivos de esta resumida introducción; cabe solo mencionar que la composición del medio
puede ser no homogénea en cuanto a conductividad eléctrica (lo cual engendra campos
localmente diferentes, puesto que V = IR); puede ser no-homogénea en cuanto a impedimentos
mecánicos (i.e. un gel progresivamente más ‘tupido’); y puede implicar gradientes de pH, que
cambian la carga neta en las proteínas (dependiendo si se le pega o no un protón); finalmente,
pueden aplicarse secuencialmente campos eléctricos orientados en más de una dirección, para
obtener una separación más fina de las moléculas en cuestión.

Micro-ionoforesis
Una segunda aplicación es el uso de fuerzas eléctricas para lograr la aplicación controlada de
diminutas cantidades de una molécula dada, siempre y cuando ésta posea una carga neta (es
decir, esté ionizada). El principio es simplemente que si se toma una micro-pipeta y se llena
con una solución de la sustancia en cuestión, al pasar una corriente eléctrica entre la pipeta y el
baño externo esta corriente necesariamente refleja la migración de moléculas, que va a incluir
la eyección de la sustancia de interés (si la polaridad de la corriente es correcta!) En una
primera aproximación, el flujo obedece la Ley de Faraday:

J (∅ mol⋅s-1) = nI/zF
I es la corriente, z la carga de la molécula en cuestión, F la constante de Faraday (si corriente
se mide en amperios = coul×s-1 y F = coul×mol-1, entonces I/zF es número de mol de carga z
que fluye por segundo) . El parámetro n se conoce como el número de transporte y representa
la fracción total de la corriente que es llevada por la molécula de interés: por supuesto ésta no
será la única clase de molécula ionizada en la pipeta (debe existir un contra-ión, para respetar
la condición de electro-neutralidad) ni en el baño externo. Por consiguiente, la corriente total
implica la movilización también de otras especies; moléculas que se desplacen con mayor
facilidad (por ejemplo, por ser pequeñas y/o con una gran carga eléctrica) o que estén
presentes en grandes concentraciones harán una contribución dominante al flujo total. Por lo
tanto, es imprescindible poder cuantificar cual porción de la corriente es llevada por la sustancia

23
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

que se quiere aplicar. Pero una vez se conozca dicho parámetro, esta técnica brinda la
oportunidad de producir inyecciones finamente controladas (por ejemplo, al interior de una
célula individual), de una forma que sería difícil de lograr por aplicación a presión.

24
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

8. Mediciones bio-eléctricas e instrumentación

El esta sección se mirarán de una manera elemental los principios técnicos que hacen posible
medir fenómenos bioeléctricos generados por muchos tipos de células del organismo.

Medición de voltaje.
Todo acercamiento a medir una variable se esmera para no alterar significativamente la
variable que pretende cuantificar, de lo contrario el resultado obtenido es ficticio. Lo mismo es
válido en las mediciones eléctricas. En el caso del voltaje, sabemos que una diferencia de
potencial eléctrico entre dos regiones en el espacio implica que existe una distribución
asimétrica de carga eléctrica. Si no se quiere perturbar este estado de cosas, el sistema
utilizado para medir, compuesto por el voltímetro o electrómetro y las dos sondas que
establecen contacto eléctrico con los dos puntos en cuestión, no
deben proporcionar un camino por el cual esas cargas
encuentren la manera de fluir y re-distribuirse. Esto implica que
el voltímetro debe tener una resistencia interna (Rin) muy alta.
Las sondas simplemente se colocan a contacto de los dos
puntos del circuito, cuya diferencia de potencial se quiere medir
(Figura 8.1). Este instrumento, estrictamente hablando, mide el
voltaje presentado a su entrada, no el valor que existe en el
punto donde la sonda hace contacto con la muestra; por lo
tanto, las sondas deben garantizar buen contacto eléctrico con
la muestra, y su resistencia debe ser mucho menor que la
resistencia interna del voltímetro, de lo contrario se forma un
circuito de divisor de voltaje (repasar el concepto, presentado Figura 8.1
anteriormente!), y por consiguiente el voltaje reportado por el
voltímetro sería solamente una fracción del voltaje verdadero. La
Figura 8.2 ilustra el problema, suponiendo que una de las dos
sondas (usualmente un simple cable de muy baja resistencia),
tuviera en cambio una resistencia considerable (Rs). En la
entrada 1 del voltímetro (IN1) el voltaje experimentado por el
instrumento ya no será el valor que se tiene en el punto que se
quería medir (A), sino un valor modificado por el cociente entre la
resistencia de acceso y la resistencia total del sistema. En
circunstancias normales estas consideraciones son innecesarias,
ya que las sondas son unos cables que conducen muy bien la
electricidad. Pero en ciencias bio-medicas este problema surge
cuando se miden potenciales en dominios microscópicos, porque
Figura 8.2 en esos casos la sonda también necesita ser muy fina, y por
consiguiente su diminuta área de sección implica una muy alta
resistencia eléctrica (repasar sección sobre resistencia!) que podría llegar a niveles
comparables a la del instrumento (que, como ya sabemos, de por sí debe ser alta), y generar
una división de voltaje. En una sección posterior se considerará el caso de mediciones del
voltaje que existe a través de la membrana celular, con lo cual es imprescindible insertar un
electrodo de minúsculas dimensiones en el interior de una célula individual. Para estas
aplicaciones es entonces indispensable que la entrada del instrumento utilice un tipo de
transistor especial (llamado transistor de efecto de campo, o FET) que tiene una resistencia de
entrada extraordinariamente alta (billones de Ohms) y por lo tanto seguramente mayor que la
de un microelectrodo, por fino que sea. Notar también que el sistema de medición se introduce
sin alterar el circuito en cuestión, es decir, se añade en paralelo a éste.

25
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Medición de corriente
Para medir la corriente que fluye por un cierto tramo de un
circuito (incluyendo tejidos, etc.) es imprescindible saber que
toda esa corriente pase por el instrumento (llamado
amperímetro) y esto requiere abrir el circuito en cuestión (el
corte que en la Figura 8.3 se representa por la línea
punteada) e introducir las sondas y el amperímetro como
único camino posible: en otras palabras, se trata de introducir
el instrumento en serie con el circuito, desviando el flujo
original de corriente. Además, se quiere que el instrumento
no altere la cantidad de corriente que fluye normalmente, y
por consiguiente su resistencia debe ser lo más baja posible
(lo opuesto que para voltaje).
Figura 8.3

Amplificación
Las señales eléctricas relevantes en un contexto biológico suelen ser muy pequeñas: los
voltajes trans-membrana no alcanzan una décima de voltio, mientras que los potenciales
extracelulares son del orden de fracciones de milésima de voltio. Por otra parte, las corrientes
eléctricas generadas por las células y los tejidos son igualmente diminutas: millonésimas a
billonésimas de amperio (la única excepción está dada por los órganos eléctricos de algunos
organismos acuáticos, que usan fuertes descargas para poner fuera de combate a presas y
enemigos). Así que poder agrandar señales bioeléctricas es una necesidad, y el uso de
amplificadores es pan de cada día para muchas áreas de la fisiología. Un amplificador, en
esencia, es un aparato que presenta dos entradas y una salida; el voltaje que se produce en la
salida es proporcional la diferencia de voltaje aplicado a las dos entradas, multiplicado por un
factor de ganancia, G:

Vout = (IN+ - IN-)×G

Se acostumbra representar un amplificador simbólicamente como un triángulo, como ilustra la


Figura 8.4 (la designación “+” y “-“ de las dos entradas solo
sirve para indicar que para generar el voltaje de salida se resta
el valor aplicado a IN- del valor aplicado a IN+, y no viceversa).
Para poder funcionar, un amplificador necesita ser alimentado
por una fuente de poder, es decir, es un elemento ‘activo’ (en
contraste con las resistencias y los condensadores, que son
componentes ‘pasivos’, ya que funcionan sin necesitar
alimentación eléctrica). Debido a que la fuente de poder
suministra al amplificador un voltaje de alimentación
determinado (indicado por las dos líneas verticales en la Figura
8.4), el voltaje de salida del amplificador no puede exceder
Figura 8.4
esos valores (de hecho, normalmente se queda
significativamente corto!). Por ejemplo, si un amplificador funcionara con una pila de 9 V, no se
puede esperar que produjera un voltaje de salida de 24 V; por lo tanto, hay que considerar
siempre el tamaño de la señal de entrada (i.e. la diferencia de potencial entre las dos entradas),
y el factor de ganancia, para evitar que el amplificador se sature, es decir, llegue a su máxima
capacidad y se quede allí mientras lo que se le pide exceda dicho límite. En el ejemplo ilustrado
por la Figura 8.5, el voltaje de entrada (línea azul) es una ‘rampa’ que crece gradualmente
desde 0 hasta 2 V y la ganancia del amplificador es de 10×; cuando el voltaje de entrada llega

26
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

0.9 V la salida ya estará saturada (0.9×10 = 9 V sería el


máximo teórico en este caso, si el voltaje de alimentación
es 9 V), y de allí en adelante aunque el voltaje de entrada
siga creciendo, el de salida (línea roja) permanecerá
‘anclado’ a su límite (“Saturación”), en lugar de crecer
ulteriormente según el factor nominal de amplificación
(“Predicho”). La ganancia del amplificador se elije por lo
tanto de acuerdo con las características de la señal de
interés: un potencial de acción, por ejemplo, tiene una
amplitud total de ≈100 mV, y con una ganancia de 10×
sería un voltio, lo cual es fácil medir con cualquier
instrumento. En cambio, los potenciales evocados en el
cerebro y medidos desde la superficie del cráneo pueden
Figura 8.5 ser do 100 μV, con lo cual para tener una amplitud
comparable al caso anterior la ganancia debería ser de
10000.

Un amplificador tiene limitaciones también en cuanto a su rapidez: debido a que requiere un


tiempo finito para cambiar su voltaje de salida de un nivel a otro, una señal aplicada a su
entrada que fluctúe demasiado rápidamente podría no verse representada adecuadamente en
la salida: el amplificador no alcanzará a ‘seguirla’. El parámetro que caracteriza la velocidad de
un amplificador es el ancho de banda, y usualmente se define haciendo referencia a señales de
entrada sinusoidales (senos o cosenos). Si un amplificador tuviera un ancho de banda de 50
KHz, entonces una señal sinusoidal que oscilara con frecuencia de menos de 50000
ciclos/segundo se amplificará según la ganancia nominal del instrumento, pero una que fuera
significativamente más rápida se verá considerablemente atenuada.
Amplificadores operacionales
A continuación se introducirá el concepto (y la utilización) de amplificadores operacionales,
circuitos integrados constituidos por muchos transistores y componentes pasivos en un solo
‘chip’ de silicón. Éstos constituyen módulos flexibles que permiten, con sólo añadir unos pocos
componentes pasivos externos, implementar variadas configuraciones aptas para realizar una
amplia gama de funciones. Su recurrencia es tan ubicua en tantas aplicaciones (incluyendo
muchos tipos de mediciones biofísicas, especialmente en electrofisiología), que se justifica el
esfuerzo invertido en dilucidar sus características más básicas. Un amplificador operacional
(abreviado OpAmp), como todo amplificador, produce un voltaje a la salida que representa la
diferencia de voltaje aplicado a las dos entradas, multiplicado por un factor de ganancia; pero,
en ausencia de ulteriores conexiones y componentes, un OpAmp tiene las siguientes
características:

• Resistencia de entrada (Rin, la resistencia entre los dos terminales de entrada) → ∞


(en términos reales, se trata de valores muy altos, del orden de de 1012 a 1015 Ω)

• Ganancia → ∞ (de nuevo, es una idealización; al acto práctico es un número finito


muy grande, del orden de 105 o 106)

• Impedancia de salida muy baja: el OpAmp es capaz de proveer corrientes de tamaño


significativo en su salida, lo cual le permite actuar sobre aparatos que requieren
mucha corriente.

27
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Parecería que un factor de ganancia tan alto hace inútil un amplificador operacional, ya que con
el más mínimo voltaje de entrada (digamos, 1 mV) la salida seguramente va a exceder
ampliamente el rango posible del aparato (el cual, como hemos visto, no puede ser mayor que
el voltaje que alimenta el circuito mismo, usualmente ±10 o ±15 V); por lo tanto uno esperaría
que con la más mínima perturbación en el input, el output quedaría en saturación, atascado al
máximo voltaje que es capaz de generar. Esto no tendría utilidad alguna; sin embargo, el
circuito es ‘domado’ introduciendo un camino de retroalimentación negativa (‘feedback’
negativo), lo cual se logra conectando la salida del amplificador a la entrada ‘negativa’ (IN-); el
efecto es que se aplica a dicha entrada un voltaje que neutraliza la discrepancia con respecto a
la otra entrada. Al hacerlo, el circuito se torna
estable, y su salida guarda una relación útil con la
entrada, dependiendo de la naturaleza de las
conexiones y los componentes utilizados en la
retroalimentación negativa. Por ejemplo, se puede
generar un amplificador con una ganancia
controlada y razonable (bien sea que invierta o no
invierta la señal), o un amplificador que convierta
una corriente en un voltaje, un amplificador que
integre en el tiempo la señal de entrada, etc.
Examinemos algunas configuraciones clásicas. En
todos los casos el análisis se basa en el hecho de
que la retroalimentación negativa hace que el
potencial en los dos puntos de entrada se mantiene
a todas horas al mismo nivel (esto es válido
ignorando breves instantes de transición...); el
porque es obvio: si el voltaje en IN+ se torna más
positivo que el de IN-, Vout se volverá positivo
(recuerden que Vout = [IN+ - IN -]×G), y al aplicárse
el voltaje de salida a IN- se neutraliza la diferencia.
Viceversa, si IN+ es más positivo que IN-,
inmediatamente Vout se vuelve negativo, y la acción
correctiva de nuevo anula las diferencias entre las
dos entradas. Sabiendo esto, en general solo hace
falta usar la ley de Ohm y el concepto de divisor de
voltaje para entender exactamente el
comportamiento de un circuito, o para diseñar un
circuito que cumpla con las especificaciones
precisas que uno requiere. La figura 8.6A ilustra un
caso particular, conocido como amplificador
invertido. Debido a que IN+ está conectado a tierra
(en la figura se indican las dos entradas del
OpAmp simplemente como “+” y “-“), la entrada IN-
también se encontrará siempre a 0 V (tierra), es
decir al mismo potencial que IN+, por el motivo ya
explicado. La corriente que fluye desde la fuente de
la señal a través de la resistencia Rin es igual, por
la ley de Ohm, al voltaje de la señal dividido por la
resistencia de entrada: I = Vin/Rin. Esta corriente
solo puede seguir su camino por la resistencia Rf,
ya que la resistencia de entrada del OpAmp es
supremamente alta. Por consiguiente, Vout, siendo Figura 8.6

28
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

la diferencia de voltaje entre los terminales de Rf, será –IRf (de nuevo, por la ley de Ohm). El
signo negativo se debe a que si la corriente fluye desde la fuente de la señal hacia tierra
(virtual), y de allí hacia la salida del OpAmp, debe ser que el potencial en los dos extremos del
recorrido tiene polaridad opuesta. Una manera sencilla de visualizar la situación es viendo que
las dos resistencias, Rin y Rf, forman un divisor de voltaje cuyo punto medio se mantiene a 0 V;
si un extremo (la señal) se torna positivo, el otro se vuelve negativo, y viceversa. Si las dos
resistencias fueran iguales, el valor absoluto de Vin y Vout sería el mismo, solo que la polaridad
sería opuesta. Si Rf fuera mayor, Vout sería más grande que Vin (y con el signo opuesto), ya que
a igual corriente el cambio de voltaje entre los terminales de una resistencia es proporcional a
su valor. En resumen, la relación entrada-salida estará dada por:

Vout = -Vin × (Rf/Rin)

La ganancia del circuito (G) está dada por el cociente entre las dos resistencias (G = Rf/Rin), lo
cual permite que una señale se agrande (si Rf/Rin > 1) o se achique (si Rf/Rin < 1). La
resistencia de entrada del amplificador en esta configuración es Rin (la resistencia que la señal
ha de cruzar para fluir al potencial de tierra).

Como construir un amplificador que no invierta la señal? Intuitivamente, es obvio que ésta
deberá aplicarse a la entrada IN+ (en lugar de IN-). La Figura 8.6B muestra el esquema de un
amplificador no-invertido. La señal entra directamente a IN+. Por retroalimentación, V- se
mantiene también al mismo potencial que Vin. Aquí IN- es el punto medio de un divisor de
voltaje, y podemos hacer un razonamiento análogo al caso anterior: la corriente que fluye por
Rin es I = Vin/Rin. Esa misma corriente fluye por Rf, así que la diferencia entre Vout y IN- es I×Rf.
Entonces Vout = Vin+I×Rf. = Vin + (Vin/Rin )×Rf, decir:

Vout = Vin(1+Rf/Rin)

El factor d ganancia es:

G = Vout/Vin = 1+Rf/Rin

Notar dos diferencias respecto al caso anterior (aparte el hecho de que la polaridad de la salida
no se invierte): en primer lugar, la ganancia mínima tiende a 1, en el caso límite cuando
Rf<<Rin. En segundo lugar, la resistencia de entrada del circuito esta dada por la del OpAmp, la
cual sabemos que es extremadamente alta.

Ahora consideremos el circuito de la Figura 8.6C. Evidentemente, debido a que la conexion


entre la salida y la entrada IN- es directa, Vout = Vin; pero por retro-alimentación, IN- = IN+
(donde se aplica la señal), por lo tanto Vout mantiene el mismo voltaje que la señal de entrada.
Esta configuración se llama seguidor de voltaje. De que nos sirve un circuito que produce en la
salida una réplica exacta de la señal aplicada a la entrada? No es para nada tan inútil como
podría parecer, de hecho este circuito abrió las puertas a la posibilidad de realizar mediciones
intracelulares, como se entenderá más tarde: este circuito evidentemente tiene alta resistencia
de entrada, y por lo tanto no ‘drena’ la fuente de la señal cuando ésta sea muy débil (piensen
en los potenciales bioeléctricos generados por una célula diminuta); en cambio, en su salida
replica la misma señal pero con capacidad de generar buena corriente. Más tarde veremos que
esta característica también permite minimizar errores de medición cuando el acceso a la
muestra de debe dar a través de una sonda que tiene alta resistencia.

29
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Uno podría tener interés en determinar y amplificar no simplemente el nivel de potencial de una
fuente sino la diferencia entre dos señales. En este caso, las dos señales se aplican a las dos
entradas, respectivamente, y las resistencias adicionales establecen la ganancia, dada por G =
Rf/R1, como ilustra la Figura 8.6D. En esta configuración se mantiene simetría entre los dos
caminos, poniendo R1=R2 y Rf=R3. Este se llama un amplificador diferencial y tiene importantes
aplicaciones en electrofisiología.

Finalmente, consideremos el circuito ilustrado el la Figura 8.6E. El punto IN- se mantiene a 0, y


no hay resistencia alguna que se interponga entre la fuente de la señal y tierra (‘tierra virtual’).
Si la fuente fuera un generador de corriente, I, esta fluiría a tierra sin impedimento alguno. Cual
es el valor de Vout? Claramente I debe fluir por Rf, ya que la entrada del OpAmp presenta una
resistencia prohibitivamente alta. Entonces Vout= I×Rf. Es decir, hemos creado un conversor
corriente-voltaje, cuyo factor de conversión está determinado por el valor de Rf: entre más alto
Rf, mas sensible el conversor (mayor el voltaje de salida para un tamaño dado de la corriente a
la entrada).

En esta breve reseña hemos esbozado las más comunes configuraciones de amplificadores
operacionales. Muchas funciones específicas (e.g. registrar un voltaje con una ganancia y una
resistencia de entrada prescrita, generar un estímulo eléctrico, cuantificar una corriente, etc.) se
pueden lograr de esta manera.

Mediciones eléctricas en células


La importancia de los principios de la electricidad para el estudio de sistemas biológicos radica
en que toda célula mantiene un potencial eléctrico entre el interior y el exterior de la membrana;
es más, esta carga puede movilizarse bajo el control de varios estímulos, y producir un cambio
en la magnitud del voltaje que existe a través de la membrana. Estas señales eléctricas
constituyen el lenguaje biológico primordial, utilizado por los organismos para derivar
información sobre el mundo externo, procesarla, e iniciar acciones motoras. La aplicación de
principios de mediciones eléctricas a un contexto biológico y en particular a escala celular
requiere unas consideraciones especiales. Para la medición de diferencias de potencial o
corrientes a través de la membrana celular es indispensable la disponibilidad de dos sondas,
una intracelular y la otra extracelular. Mientras la segunda no presenta mayores obstáculos,
una sonda que se pueda insertar dentro de una célula de pocas micras sin producir daño
sustancial requiere más precauciones. Usualmente ésta se fabrica de un capilar de vidrio, 1 a 2
mm en diámetro, cuya sección central se calienta con un filamento candente hasta derretir el
vidrio (Figura 8.7A). Aplicando tensión a los dos extremos la porción derretida se adelgaza y
finalmente se separa en dos mitades, cuyas puntas son diminutas, del orden de 0.1 a 1 μm.
Estas micropipetas son lo suficientemente finas para penetrar una célula, bajo control por
micromanipulación y visualización por microscopio, sin afectar drásticamente sus funciones.
Puesto que el lumen del capilar permanece abierto, formando un minúsculo orificio en la punta,
al llenarlo con una solución electrolítica (e.g. 3 M KCl) se obtiene una sonda eléctricamente
conductiva con la cual establecer contacto con el citoplasma. Pero otro requisito igualmente
crítico es establecer el contacto entre el sistema electrolítico constituido por el medio
intracelular y el interior de la pipeta (en el cual la conducción eléctrica es iónica), con el cable
metálico que conecte el microelectrodo al amplificador (donde la conducción es electrónica). Si
no se toman medidas especiales, la interfase entre el metal y el líquido no conduce (un ión no
puede transformarse en un electrón o viceversa): solamente se podría cargar/descargar la
capacitancia de la superficie de la interfase (i.e. se formaría una doble capa cargada de
electrones - o ‘huecos’ - en el lado metálico, y iones en el lado líquido), lo cual podría servir
para señales transientes (AC) pero no habría transmisión DC. Para obviar esta dificultad se

30
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Figura 8.7
fabrica un electrodo reversible que haga contacto con el medio electrolítico; éste está
constituido por un metal recubierto por una delgada capa porosa de una sal del mismo metal.
Esta sal debe ser poco soluble (de lo contrario, al entrar en contacto con el líquido, la capa se
disolvería, dejando solamente el metal expuesto), y el contra-ion debe ser una especie
representada en la solución electrolítica. Típicamente se usa plata (Ag) como metal, cubierto de
AgCl (ya que es poco soluble, y el Cl suele ser el principal anión presente en soluciones
fisiológicas). Esto permite la siguiente reacción reversible:
AgCl + e- ↔ Ag + Cl-

De esta manera, un electrón que viaje por el metal se combina preferencialmente con el Cl de
una molécula de AgCl (por ser el Cl más electronegativo) y el ión de Cl- resultante se
desprende y puede entrar en solución, llevando corriente en el medio líquido (y dejando atrás
un Ag). Viceversa, un ión de Cl- difundiéndose por el líquido hasta la interfase con el metal se
puede combinar con Ag formando AgCl, y el electrón que ‘sobra’ lleva la corriente por la matriz
metálica del cable (Figura 8.7B). Otros arreglos utilizan mercurio (Hg) en lugar de plata
(‘electrodos de calomel’).
La finísima punta de un microelectrodo, necesaria para no inducir daño a la célula,
inevitablemente se acompaña, como ya se ha dicho, de una muy alta resistencia eléctrica
(desde unos cuantos Megaohms hasta
cientos de Megaohms). Esta situación
tiene repercusiones indeseables para la
fidelidad del registro eléctrico. En primer
lugar, el efecto de divisor de voltaje que
ya se analizado: al existir una diferencia
de potencial entre la punta del
microelectrodo (que muestrea el
verdadero potencial que existe en el
compartimiento intracelular) y el otro
lado, donde el alambre de Ag/AgCl hace
contacto con la solución salina, quiere
decir que el voltaje aplicado al input del
amplificador no es aquel que el
experimentador pretende medir. La Figura 8.8

31
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Figura 8.8 ilustra este problema, que, como se ha mencionado, puede ser aliviado
cerciorándose de que la resistencia de entrada del amplificador sea aún más alta. Pero esta
precaución no evita un segundo problema. Un microelectrodo de vidrio está constituido por una
delgada pared de material aislante que separa dos medio conductivos (la solución salina dentro
del electrodo mismo, por una parte, y los fluídos electrolíticos en el exterior); como tal,
constituye un condensador (cuya capacitancia, Ce, tiene un valor que típicamente puede ser del
órden de unos 10 pF). Conjuntamente con la resistencia del electrodo, este arreglo forma un
filtro pasa-bajo, idéntico al que se analizó previamente (la señal del voltaje intracelular
encuentra primero la alta resistencia del electrodo, que se concentra en la punta donde el
diámetro es mínimo, y más arriba una capacitancia - donde la superficie de área del aislante es
mayor; el otro terminal de este condensador está conectado al potencial de referencia del
medio exterior, es decir, a tierra). Este arreglo implica que las señales transmitidas desde el
interior de la célula al amplificador están sujetas a una atenuación de frecuencias altas; por
consiguiente, transientes rápidos, como un potencial de acción producido por una neurona,
podrán ser significativamente atenuados, comprometiendo la fidelidad del registro. En el
ejemplo de un microelectrodo con Ce = 10 pF (10-11 F) y una resistencia Re = 100 MΩ (108 Ω) su
constante de tiempo sería 1 ms (τ = Re×Ce = 10-3 s); quiere decir que un potencial de acción
que alcance su pico máximo en menos de un milisegundo, se verá aparentemente reducido a
un ≈63% de su de amplitud real; para obviar estas deficiencias se han desarrollado varias
estrategias que bien sea reducen la constante de tiempo del microelectrodo (reduciendo su
resistencia y/o su capacitancia), o compensan electronicamente la pérdida de frecuencias altas.

Principios de registro eléctrico extracelular


El estudio riguroso de los potenciales bioeléctricos necesariamente implica el uso de sondas
intracelulares (microelectrodos, a los cuales ya aludimos). Sin embargo, aunque estos
enfoques proporcionan la información más detallada y precisa, su naturaleza invasiva, delicada
y técnicamente compleja los hace no aptos para monitorear la actividad global de un órgano
constituido por un enorme número de células eléctricamente activas, ni tampoco para el uso
rutinario con fines diagnósticos en la práctica clínica. Otros acercamientos modificados han
permitido desarrollar alternativas más sencillas que proporcionan suficiente información para
ser de gran utilidad en fisiología y en medicina. Todos estos comparten dos características
fundamentales: (i) hacen uso de electrodos extracelulares, típicamente aplicados a la superficie
del cuerpo (ii) reportan la actividad eléctrica de poblaciones de
células, en lugar que de células individuales. Para entender
como esto ha sido posible, es preciso examinar primero que
todo el porqué habría de funcionar una medición que solo
compare la diferencia de potencial entre dos electrodos,
cuando ambos están localizados afuera de la(s) célula(s) cuya
actividad se desea monitorear. Claramente, en condiciones de
reposo ambos electrodos verían el mismo potencial, y la salida
del amplificador será cero. Pero si una(s) célula(s)
manifiesta(n) actividad eléctrica, debe ser que alguna corriente
esta cruzando la membrana, entrando y saliendo, y
completando un recorrido cerrado. Por lo tanto, si nos fijamos
en el compartimiento extracelular, habrá corriente eléctrica que
fluye por los fluidos intersticiales; la ley de Ohm nos dice que
entre dos puntos existirá un voltaje ΔV = I⋅R. Por lo tanto, como
se ilustra en la Figura 8.9A, dos electrodos que muestrearan
dos puntos de ese espacio podrán revelar una diferencia de
potencial durante un episodio de actividad eléctrica, siempre y Figura 8.9

32
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

cuando haya una corriente neta que fluya entre esos dos puntos. Por otra parte, si ante el
mismo patrón de corriente colocáramos nuestro par de electrodos en una dirección ortogonal a
la de la corriente (Figura 8.9B), entonces no habrá diferencia de potencial alguna reportada por
los dos electrodos, ya que ninguna corriente fluye entre las dos regiones muestreadas. Si
consideramos el conjunto de curvas que interceptan a 90˚ las líneas de flujo de corriente
(como, por ejemplo, las líneas puntuadas en la figura 8.9), a lo largo de cada una de ellas no
fluye corriente alguna, y por lo tanto todos sus puntos se encuentran al mismo potencial
eléctrico: las llamamos curvas isopotenciales. En el caso más general, quiere decir que dos
electrodos ubicados en dos puntos del dominio espacial, llamémoslos A y B, podrán detectar
una diferencia de potencial proporcional a la magnitud de aquel componente de la corriente que
fluye en la dirección del eje imaginario que une a los dos puntos. Si la corriente total en esa
región fuese representada por un vector, esa cantidad estaría dada por la proyección del vector
sobre el eje A-B; cuantitativamente, eso representa M⋅cos(α),
M siendo la magnitud de la corriente y α el ángulo entre el
vector del flujo neto de corriente y el eje que une los dos
electrodos. Es lo mismo que decir el producto punto entre los
dos vectores. La Figura 8.10 ilustra este concepto. En un
medio homogéneo está fluyendo una corriente I,
representada por la flecha verde diagonal; dos electrodos, A
y B, miden la diferencia de potencial entre dos puntos de ese
medio. La línea imaginaria que une los dos electrodos (el eje
de los electrodos) forma un ángulo α con respecto a la
dirección del vector de la corriente. Proyectando este último
sobre el eje de los electrodos obtenemos el componente de I
en la dirección entre A y B, llamémoslo la ‘corriente efectiva’,
Figura 8.10 Ieff o IA,B (ya que viene siendo la porción de la corriente total
que fluye entre A y B). Entonces, por la ley de Ohm, la
diferencia de potencial entre A y B será la magnitud de IA,B multiplicada por la resistencia entre
esos dos puntos, RA,B.Lejos de ser una desventaja, podemos aprovechar el hecho de que
nuestro registro depende de la orientación relativa entre el flujo de corriente y el eje del par de
electrodos para reconstruir la pauta de actividad eléctrica en el dominio de interés: por ejemplo,
si colocáramos dos pares de electrodos (A-B y A’-B’) perpendicularmente alrededor de una
región de tejido, y uno mostrara en un momento dado una diferencia de potencial mientras que
el otro no, podríamos concluir que existe actividad eléctrica la cual se manifiesta en un flujo
neto de corriente orientado en la dirección del eje de uno de los dos pares de electrodos (y, por
supuesto, ortogonal al otro). Si ambos pares reportaran la misma magnitud de voltaje, la
corriente estaría fluyendo a 45° respecto a los dos ejes de los pares de electrodos, y así
sucesivamente.

La señal registrada dependerá no solamente de la dirección de la corriente respecto a la del eje


de los electrodos, sino también de la distancia entre electrodos y el foco en el cual se origina la
actividad eléctrica. Supongamos que en un dominio de 3 dimensiones (un conductor de
volumen) hubiera dos puntos, P1 y P2, con potencial eléctrico diferente: las líneas de flujo de
corriente se extienden en todo el espacio alrededor, pero su densidad disminuye al alejarse de
la fuente de actividad eléctrica (en otras palabras, habrá más corriente que fluye por el camino
directo entre , P1 y P2, comparado con el flujo que toma una vuelta más larga, alejándose de
dichos puntos. El motivo es obvio: recorridos más largos implican una resistencia mayor
(asumiendo homogeneidad del medio) y por lo tanto menor corriente (I = V/R). Por
consiguiente, al colocar el par de electrodos a distancias progresivamente mayores con
respecto a la fuente de la actividad eléctrica uno observaría una menor amplitud de la señal
registrada. La Figura 8.11 muestra un hipotético foco de actividad representado por un polo

33
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

positivo y un polo negativo. Líneas rojas representan flujo


de corriente; hay más líneas que toman el camino directo,
mientras que las que toman recorridos más y más alejados
son progresivamente más escasas. Consideremos dos
pares de electrodos utilizados para medir el voltaje. El
primero, A y B, se encuentra lejos del foco de actividad, y
por consiguiente la densidad de corriente en esa región es
baja. El segundo, A’ y B’, está cerca de los polos, donde la
densidad de corriente es mayor. La distancia entre cada
par de electrodos es igual, y, asumiendo que el medio es
homogéneo, la resistencia entre A y B será entonces
idéntica a la resistencia entre A’ y B’. Puesto que el voltaje
reportado por cada par de electrodos es I×R, a igualdad de
resistencia la mayor cantidad de corriente entre los puntos
muestreados por A’ y B’ hace que el medidor
correspondiente de voltaje indique una señal más grande.
La dependencia de la amplitud de la señal con respecto a
la distancia de la fuente sugiere que, teniendo distintos
electrodos (o desplazando un mismo par de electrodos)
podemos derivar información acerca de la localización del
foco de actividad. Estas consideraciones indican que el
arreglo geométrico de los electrodos respecto a la
ubicación de la fuente de actividad eléctrica es un factor Figura 8.11
determinante para registrar una señal extra-celularmente:
la comparación entre muchos pares de electrodos que muestreen la misma región pero con
una orientación diferente de sus respectivos ejes y, por supuesto, diferentes posiciones en el
espacio, nos puede informar acerca de la proximidad del foco de actividad, y la dirección del
flujo de corriente. Tales consideraciones implican que eligiendo un conjunto adecuado de
electrodos colocados en la superficie del conductor de volumen es posible reconstruir muchos
aspectos del patrón espacio-temporal de actividad eléctrica en esa región y detectar la
ubicación de los focos de actividad. Esta es precisamente la lógica que subyace el registro de
la actividad eléctrica cardíaca (electrocardiograma, o ECG) y cerebral (electroencefalograma, o
EEG).

El osciloscopio
Uno de los instrumentos de mayor utilidad para mediciones eléctricas es el osciloscopio,
aparato que proporciona de una manera gráfica una medida de voltaje en función del tiempo.
Para ese fin se utiliza un tubo de rayos
catódicos, parecido a los de los televisores
análogos, el cual tiene una forma
aproximadamente cónica o piramidal: en el
ápex, el extremo más estrecho, se encuentra
un filamento que, al conectarse a una fuente
de voltaje (VF), se calienta (Figura 8.12). El
extremo opuesto (la base del cono o de la
pirámide) está recubierto internamente con
una molécula usualmente referida como
‘fósforo’, e.g. P1, P22, etc. (pero en general se
trata de un compuesto de zinc y otros
elementos que ni siquiera contienen fosforo!), Figura 8.12

34
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

y estos recubren la pantalla del instrumento. Además, en los dos extremos también se
encuentran dos rejillas metálicas, las cuales se mantienen a potenciales muy diferentes (VA,
que tiene valores de hasta miles de voltios): la del lado del filamento es negativa (el cátodo) la
del lado de la pantalla es positiva (el ánodo). Con esto se establece un fuerte campo eléctrico
orientado longitudinalmente al interior del tubo. Al ponerse incandescente el filamento, la
agitación térmica de las moléculas del metal es suficiente para que continuamente algunos de
los electrones se desprendan de sus respectivos núcleos. Estos electrones libres son
acelerados fuertemente por el campo eléctrico en la dirección de la pantalla, contra la cual se
estrellan. Su energía cinética es tal que la colisión con
las moléculas de fósforo lleva a éstas últimas a un
estado de excitación electrónica (los electrones externos
brincan a un orbital superior) el cual es de muy corta
duración, y al devolverse la molécula al estado inicial
disipa el excedente energético con la emisión de un
fotón de luz visible. Por consiguiente, si un chorro
continuo de electrones chocara contra el mismo lugar de
la pantalla, el observador al frente de la pantalla vería un
punto luminoso fijo. El resto del aparato consiste en
circuitos para controlar espacialmente este haz de
electrones, con lo cual se logra desplazar arbitrariamente
la posición del punto luminoso en la pantalla. Un par de
placas metálicas horizontales en la mitad del camino,
una por encima y la otra por debajo del eje del tubo,
permite que al aplicárseles una diferencia de voltaje, se
Figura 8.13 induzca una deflexión al rayo: si la placa superior fuera
más positiva que la inferior, los electrones no solamente
serían sometidos al campo longitudinal que los acelera hacia la pantalla, sino que al cruzar la
zona de las placas experimentarían simultáneamente una fuerza transversal que los desviaría
hacia arriba. Es decir, la resultante de los dos vectores de fuerza sería una trayectoria
inclinada. Si el voltaje fuera opuesto, la desviación será hacia abajo. Por consiguiente la
ubicación del punto luminoso en la pantalla cambiará en la dimensión vertical (el eje Y),
dependiendo de la polaridad y de la magnitud del voltaje aplicado a las placas horizontales de
deflexión. La Figura 8.13 ilustra este arreglo. Lo mismo se puede lograr en cuanto a desplazar
el punto luminoso horizontalmente; en este caso, un segundo par de placas metálicas
colocadas verticalmente causarán un desplazamiento del haz de electrones en el eje X (Figura
8.14). Ahora, controlando los voltajes aplicados a los dos pares de placas de deflexión,
estamos en posición de ubicar el punto luminoso en cualquier lugar del plano X-Y de la
pantalla. En un osciloscopio la
dimensión Y representa el voltaje, la
dimensión X el tiempo. Por lo tanto,
necesitamos que el voltaje a ser
medido produzca, a través de un
amplificador, un desplazamiento del
punto luminoso que, por convención, es
hacia arriba cuando el voltaje es
positivo, y viceversa. Ahora
necesitamos que el desplazamiento
horizontal represente el tiempo. Para
eso el punto debe moverse a una
velocidad fija de izquierda a derecha y,
Figura 8.14 al llegar al extremo de la pantalla,

35
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

devolverse y re-empezar. Esto se logra aplicando inicialmente un voltaje que fuera más positivo
en la placa de deflexión vertical izquierda, y cuyo valor fuera lo requerido para que desviar el
rayo ubicándolo inicialmente en el margen izquierdo de la pantalla; el voltaje debe luego
disminuir linealmente en el tiempo, hasta quedar anulado (el punto luminoso se moverá
gradualmente hasta el centro de la pantalla), luego seguir cambiando, ahora con la placa
derecha volviéndose cada vez más positiva (lo cual desvía el rayo hacia la derecha, hasta que
el punto luminoso llegue al margen derecho). A ese punto dos cosas ocurren: (i) el ciclo se
repite, volviendo abruptamente al voltaje positivo en la placa izquierda (ii) durante ese
brevísimo intervalo el punto luminoso se apaga, para que no se vea el trayecto de retorno.
Estos cambios simplemente se obtienen conectando las dos placas a un generador de ondas
que produzca una señal cíclica en forma de ‘serrucho’ (representada por el trazo azul en la
Figura 8.14), e interrumpiendo momentáneamente el potencial del filamento al final de cada
ciclo para que cese transitoriamente el haz de electrones. Con esto tenemos lo básico: el
movimiento horizontal representa el tiempo, el vertical el voltaje. Si quisiéramos medir voltajes
más pequeños o más grandes, simplemente variaríamos la ganancia del amplificador de
entrada para que la deflexión vertical para un voltaje dado fuera mayor o menor. La perilla de
‘Ganancia’ indica la calibración en mV/división, referida a un gratículo marcado en la pantalla
misma, cuyas líneas usualmente están a 1 cm de distancia una de otra. De la misma manera, si
quisiéramos discernir eventos cuyo curso temporal fuera muy rápido, aceleraríamos la
velocidad de barrido horizontal, lo cual simplemente implica utilizar una onda serrucho con una
pendiente mayor (más corto el tiempo para cruzar horizontalmente toda la pantalla, y por lo
tanto más ciclos por segundo). La perilla de control de barrido (‘Time Base’) tiene posiciones
calibradas en segundos (o mili-, o micro-segundos) por división.

Queda un último problema. Si se quisiera mirar un evento que ocurre bien sea
espontáneamente o bien en respuesta a un estimulo aplicado por el experimentador, sería
deseable sincronizar el barrido con la ocurrencia del evento de interés. De lo contrario, éste
aparecería cada vez en distintas posiciones de la
pantalla, y sería difícil examinar sus características. La
Figura 8.15 muestra un ejemplo típico en neurofisiología,
en el cual un estimulador aplica pulsos despolarizantes a
una neurona a través de un microelectrodo, mientras un
segundo microelectrodo registra, a través de un
amplificador, los cambios de voltaje intracelular. Como
sabemos, en un célula eléctricamente excitable si el
voltaje a través de la membrana se despolariza por
encima de un cierto valor umbral, se desencadena un
rápido cambio impulsivo de voltaje, llamado el potencial
de acción. Quisiéramos examinar en detalle los
potenciales de acción, pero, debido a que el barrido del
osciloscopio ocurre repetitivamente de una manera
continua sin tener en cuenta cuando se aplican los
estímulos, los potenciales de acción ocurren
Figura 8.15
aleatoriamente durante cada barrido, y su posición
horizontal en la pantalla es variable. Esto dificulta las mediciones. Pero podríamos aprovechar
el hecho de que el evento de interés es gatillado por un estímulo bajo el control del
experimentador: entonces, en lugar de dejar que el barrido ocurra repetitivamente de una
manera automática, utilizaríamos el modo de ‘gatillo externo’, en el cual el mismo estímulo que
desencadena el evento (en este caso, el pulso aplicado a la célula) se aplica también a una
entrada especial del osciloscopio (“Trigger”), e inicia cada vez un solo barrido (gatilla un solo
ciclo en el generador de onda de serrucho). Con lo cual habrá siempre una relación temporal

36
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

fija entre el inicio del barrido y la ocurrencia del evento, el cual aparecerá por lo tanto siempre
en una posición determinada de la pantalla (Figura 8.16). Cuando el evento no es controlado
por un estímulo explícito sino que ocurre espontáneamente, se puede usar otra modalidad, en
la cual el mismo evento a ser medido también inicia el
barrido. Esto se logra fijando un umbral y cuando la variable
a ser medida lo excede, se gatilla el barrido. De nuevo, en la
medida en que el evento examinado tenga un curso
temporal estereotipado, el barrido empezará siempre en un
punto fijo del evento, y sucesivas repeticiones aparecerán
en la misma posición de la pantalla (aunque en esta
modalidad uno perdería lo que ocurrió antes de que la señal
alcanzara el nivel-umbral).

En tiempos recientes los osciloscopios análogos, cuyos


principios de funcionamiento se acaban de esbozar, han
venido siendo reemplazados por osciloscopios digitales. Su
Figura 8.16 funcionalidad es esencialmente la misma, pero en lugar de
un tubo de rayos catódicos tienen una pantalla LCD
constituida por una matriz de ‘pixels’, y la electrónica de control emula el barrido del rayo
activando secuencialmente en diferentes puntos. Sus ventajas son unas dimensiones más
compactas, peso reducido, y posibilidad de procesamiento sofisticado de los datos adquiridos;
al mismo tiempo, aún padecen de algunas desventajas, como menor resolución gráfica, y
menor ancho de banda.

37
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

9. Ruido eléctrico.

La discusión de las dos secciones anteriores podría dejar la impresión de que nuestra
capacidad de extraer información representada por una señal eléctrica, por pequeña y/o rápida
que fuera, depende solamente de la disponibilidad de un amplificador con suficiente ganancia y
ancho de banda. En la realidad nos topamos con los límites impuestos por la presencia de
ruido eléctrico, fluctuaciones espúreas de voltaje (o de corriente) que contaminan la señal de
interés.
Fuentes de ruido
Hay muchos orígenes del ruido, y algunas instancias son susceptibles de ser corregidas (por
ejemplo, alejándose de la fuente de interferencia), pero existe un componente de ruido que no
se puede evitar, y hace parte intrínseca de la naturaleza; como tal, establece el límite supremo
de la detectabilidad. Primero aclaremos conceptos básicos: todo evento que podamos registrar
representa en realidad la superposición de dos componentes (i) la señal de interés y (ii) el
ruido. Es obvio que el tamaño relativo de los dos dictamina el grado de contaminación, y por lo
tanto la fidelidad con la cual recibimos la señal; en el caso en que la amplitud del ruido fuera
mucho mayor que la de la señal, podría ser imposible para el observador percatarse la señal
misma. Esta relación se conoce como cociente señal/ruido (S/R, o en Ingles S/N – signal-to-
noise ratio) y es un parámetro crítico de la calidad de una medición. Si el cociente S/R fuera
muy pequeño, nuestra señal está muy contaminada, y de nada nos sirve aplicar una ganancia
alta: nuestro instrumento amplificaría de la misma manera tanto la señal como el ruido, y por lo
tanto no mejoraría nuestra capacidad de extraer información. En electricidad pueden existir
variadas fuentes que producen señales indeseadas, las cuales calificaríamos de ‘ruido’:
motores eléctricos ubicados en proximidad de un instrumento de medición, luces fluorescentes,
emisoras de radio, etc. Uno logra escudar la señal de interés, protegiéndola de tales
interferencias, resguardando las sondas y los instrumentos de medición dentro de un
compartimiento cerrado cuyas paredes son conductivas y conectadas a tierra (una así llamada
caja de Faraday). Sin embargo, siempre queda un ruido residual que es ineludible y se debe a
lo siguiente: en todo cuerpo en equilibrio térmico con su entorno las partículas están en
constante agitación aleatoria (el movimiento Browniano), que depende de la temperatura. Esto
se aplica también a partículas eléctricamente cargadas, como los electrones en una matriz
metálica, o los iones en una solución. El carácter estocástico de dicho movimiento implica que
entre dos regiones del espacio se pueden congregar transitoriamente cargas, resultando en
diferencias de potencial. Pensemos en una simple resistencia, cuyos terminales no están
conectados a nada; el voltaje entre ellos será cero, pero solo en promedio: en cada instante
dado, puede ser que varios electrones hayan brincado a un átomo vecino a la izquierda, no
contrabalanceados por un número exactamente igual de electrones que hayan sufrido un
desplazamiento en la dirección opuesta; lo mismo en una solución electrolítica. El resultado
será una momentánea separación de cargas positivas y negativas, es decir, la creación de una
diferencia de potencial eléctrico. No hay ninguna tendencia sistemática que propicie una
distribución asimétrica de carga, así que, probabilísticamente, esta situación no perdurará sino
que se compensará rápidamente; pero instantes más tarde puede crearse un desbalance
transitorio en la dirección opuesta, y así sucesivamente. A lo largo del tiempo el voltaje
promedio será nulo, sin embargo, se darán constantemente breves desviaciones en una
dirección y la otra, lo cual representa un voltaje fluctuante alrededor de 0, con excursiones
positivas y negativas de amplitud variable (entre más grandes menos frecuentes, porque la
probabilidad de que por simple azar ocurra un gran número de desplazamientos netos en una
dirección es muy baja – igual que la expectativa de obtener una gran predominancia neta de
‘caras’ vs. ‘sellos’ al lanzar al aire un número considerable de monedas). Entre mayor la
temperatura, mayor la agitación térmica y mayor el ruido. De la misma manera, si en lugar del

38
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

voltaje estuviéramos monitoreando la corriente que fluye por un corte de sección de nuestro
objeto, veríamos una corriente fluctuante en ambas direcciones, alrededor de 0. Si se midiera el
ruido térmico como voltaje, éste aumenta con la resistencia del objeto (cada desplazamiento de
una carga repercute como un voltaje más conspicuo si la resistencia es alta, ya que V =I×R); en
cambio, el ruido de corriente decrece con la resistencia, porque la facilidad de que una partícula
cargada se desplace por un medio es inversamente proporcional a la resistencia. El ruido
eléctrico debido a la agitación térmica de partículas cargadas se conoce como el ruido de
Johnson-Nyquist. Este ruido está presente en el objeto a ser medido (como en el ejemplo de la
resistencia), pero también lo está en los componentes de los circuitos del instrumento utilizado
para medir: sondas, transistores, etc. Todas nuestras mediciones inevitablemente están
superpuestas a unas incesantes fluctuaciones; cuando la señal de interés es muy grande, la
contribución relativa de estas fluctuaciones es mínima y a menudo ni siquiera somos
conscientes de que existe esa variabilidad de fondo. Pero en otras situaciones se pretende
medir voltajes diminutos, como los potenciales post-sinápticos producidos por la exocitosis de
una sola vesícula cargada de neuro-transmisor, o las corrientes iónicas mediadas por proteínas
transportadoras individuales; en estos casos la amplitud de la señal puede ser comparable a la
del ruido térmico, y la tarea de obtener información aceptablemente fiel e interpretable se torna
ardua.
Reducción de ruido por filtros de frecuencias
Existen dos acercamientos que nos permiten recuperar en parte la calidad de la señal. El
primero consiste en hacer uso de filtros. El ruido térmico se caracteriza por excursiones que no
solamente tienen amplitud variable sino también rapidez variable, incluyendo transientes
supremamente breves que contribuyen a la variabilidad total. Si la señal de interés tiene un
curso temporal que no contempla transiciones muy rápidas, podemos pasar el registro total
(señal + ruido) por un filtro pasa-bajos, el cual
descarta las fluctuaciones de más alta frecuencia.
Como ningún aspecto de nuestra señal tiene esas
características temporales, ésta queda prácticamente
intacta, mientras que buena parte del ruido es
eliminada. La Figura 9.1 muestra el efecto de un filtro
pasa-bajo ajustado a dos niveles progresivamente
más drásticos de corte de frecuencias altas
(rechazando frecuencias >200 y >50 Hz,
respectivamente); notar que, aunque el trazo se limpia
significativamente, fluctuaciones lentas sobreviven la
acción del filtro. Es preciso tener en cuenta que el
ruido no necesariamente concierne las frecuencias
más altas: por ejemplo, un investigador podría estar
interesado en estudiar el patrón de distribución
Figura 9.1 temporal de potenciales de acción (los cuales son de
muy breve duración) en alguna área del cerebro. Esta
actividad, si se registra mediante electrodos extracelulares, es de muy baja amplitud (en la
escala de microvoltios a fracciones de milivoltios) y se encuentra inevitablemente sumergida en
las oscilaciones lentas de la actividad eléctrica del cerebro, que pueden tener una amplitud
comparable. Esto dificulta la extracción confiable de los potenciales de acción, como por
ejemplo se podría desear lograr con un método automatizado que contara como potencial de
acción toda excursión que cruzara un cierto voltaje-umbral. De nuevo, es posible a través de un
filtro que rechaze selectivamente ciertas frecuencias, obtener la separación o la eliminación del
componente indeseado. Sin embargo, debido a que en este caso la señal de interés está
constituida por frecuencias altas mientras el ‘ruido’ contaminante está constituido por

39
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

frecuencias bajas, un filtro ‘pasa-altos’ puede


ayudar. En la figura 9.2 se muestra como dicho
filtro deja las espigas intactas sobre una línea
de base plana (trazo inferior), ya que ha sido
despojada de toda oscilación lenta. Hay que
enfatizar que el uso de este acercamiento
requiere, como condición indispensable, que la
señal y el ruido difieran en cuanto a su
respectiva composición de frecuencias
constituyentes, de lo contrario cualquier filtro
afectará tanto el ruido como la señal.
Figura 9.2

Reducción del ruido a través de promedio de ensamble


Hay un segundo enfoque que se puede utilizar con señales que sean gatilladas por un
estímulo específico, bajo el control del experimentador, y cuyo curso temporal sea
estereotipado: aquí la estrategia es repetir numerosas veces la estimulación, desencadenando
cada vez la respuesta a ser registrada, y promediar los trazos obtenidos. Puesto que en todas
las instancias la señal se repite de la misma manera, mientras que las fluctuaciones del ruido,
siendo estocásticas, tienden a ocurrir fuera de fase en sucesivas repeticiones, la operación de
promediar va atenuando el ruido (transientes en diferentes direcciones se van cancelando),
mientras se preserva la señal (la cual tiene las mismas
características en todas las repeticiones). La Figura 9.3
muestra el ejemplo de un trazo de una señal ruidosa
producida por la aplicación de un estímulo, y el efecto de
repetir y promediar 16 o 64 veces el mismo evento. El
progresivo incremento en la calidad de la señal es
evidente (se puede demostrar que la mejora en el
cociente señal-ruido crece con la raíz cuadrada del
número de repeticiones. Notar que para que este enfoque
funcione es imprescindible que exista una relación fija
estímulo-respuesta y una forma reproducible de ésta
última, requisitos que en cambio no tienen relevancia
para la reducción del ruido por medio de filtros. Por otra
parte, si esta condición se cumple, es posible obtener un
significativo incremento de la relación señal-ruido aunque
las bandas de frecuencias que representan a la señal y al
ruido, respectivamente estén sobrelapadas (situación en Figura 9.3
la cual, como ya se ha dicho, los filtros no funcionarían).
Parte de la experticia de un experimentador que registre señales eléctricas consiste en
optimizar la relación S/R mediante el uso de estas y otras estrategias.

40
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

10. Transductores
En las secciones anteriores se han esbozado algunos principios básicos de mediciones
eléctricas; posteriormente se examinará como empalmar dicha clase de registros con un
computador, el cual permita adquirir, almacenar y procesar datos. Pero antes de proceder es
importante recalcar que todas estas consideraciones realmente se extienden a muchos otros
tipos de mediciones, aunque la forma de energía originalmente implicada no sea eléctrica, tal
como el caso de la temperatura, fuerzas mecánicas, ondas acústicas, concentraciones
químicas de ciertas sustancias, y luz. En todas estas instancias la variable a ser medida es
primero convertida a electricidad, así que luego se pueden aplicar exactamente los mismos
acercamientos que se utilizan para mediciones eléctricas. La clave radica en disponer de algún
aparato, denominado transductor, cuya función es precisamente encargarse de esa conversión.
Esta estrategia, por supuesto, no es novedosa y la naturaleza la ha adoptado hace millones de
años: por ejemplo, el mismo proceso ocurre en los órganos sensoriales de cualquier
organismo, los cuales absorben diferentes modalidades de energía para transducirlas a
cambios eléctricos en la membrana celular que constituyen el lenguaje biológico utilizado por el
organismo para procesamiento y transmisión de información. A continuación se describirán
algunos ejemplos comunes de trasductores que tienen amplia utilización en muchas ramas de
la ciencia, incluyendo biofísica, fisiología y ciencias biomédicas en general.
Fuerza
El más común de los trasductores de fuerzas mecánicas, llamado medidor de deformación
(‘strain gauge’) explota los cambios en la resistencia que ocurren
en una lámina de material que sea sometida a tensión o
compresión, con la resultante deformación: si se estira, la
longitud, l, aumenta, y el sensor se adelgaza (A, el área de
sección, disminuye); por consiguiente, la resistencia aumenta
(recuerden que R = ρl/A); la compresión producirá el efecto
opuesto (Figura 10.1A). Para lograr que minúsculos cambios en
longitud de un sensor sometido a estiramiento se traduzcan en
cambios apreciables de resistencia los strain gauges tienen un
diseño ingenioso y sencillo: simplemente, una delgada lámina de
conductor forma una tupida serpentina, montada sobre un
sustrato deformable (Figura 10.1B). Si la serpentina tiene n
vueltas, al estirar (o comprimir) el sensor en la dirección
longitudinal por una distancia ∆l, el cambio total de longitud de la
serpentina será n×∆l, es decir, se incrementará
multiplicativamente con el numero de segmentos; con eso se
logra que los cambios en su resistencia sean también
significativos. Para medir fuerzas, se coloca el sensor de tal
manera que la fuerza en cuestión cause una deformación a lo
largo de su eje principal, y luego se trata entonces de monitorear Figura 10.1
continuamente la resistencia del aparato, por ejemplo, pasando
una corriente y registrando el voltaje resultante (ya que V = IR). La Figura 10.2 ilustra una
aplicación típica en fisiología o biofísica: se conecta un strain gauge en serie con un músculo
escindido (Panel A) o inclusive una fibra muscular aislada. A su vez, el otro lado del medidor
está sujetado a un soporte rígido. Al aplicar un estímulo eléctrico al músculo, que gatilla una
contracción, el sensor, al estirarse, mide la fuerza ejercida (Panel B). Otro tipo transductor
mecano-eléctrico se fabrica con cristales piezoeléctricos, materiales compuestos de moléculas
que posean un marcado momento dipolo (es decir, sus moléculas son polares). Al deformarse,

41
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

se re-alinean los momentos dipolos, lo cual, tratándose de


un material en estado cristalino, ocurre de una manera
ordenada; por lo tanto, la re-distribución de las cargas se
suma sistemáticamente, originando un cambio de voltaje.
La Figura 10.3 ilustra este concepto. Los cristales
piezoeléctricos funcionan de una manera reversible, así
que se pueden aprovechar también para aplicar una fuerza
o inducir un desplazamiento diminuto de un objeto si se
aplica un voltaje al cristal. El exquisito control que se puede
ejercer hace este
elemento ideal para
aplicaciones en
biofísica celular, en
las cuales se debe
desplazar una
estructura
microsópica como
los cilios mecano- Figura 10.3
Figura 10.2
sensibles de una
célula individual.
Ondas acústicas
El micrófono es un artículo familiar a todos, y funciona colectando las ondas acústicas que
inciden sobre una membrana flexible, y acoplando su movimiento vibratorio resultante a un
transductor mecano-eléctrico. Entre los más comunes se
encuentran: (i) un cristal piezoeléctrico, el cual produce un
diminuto voltaje cuando se somete a deformación (ii) Fabricando la
membrana de un material eléctricamente conductivo, y
colocándola muy cerca de otra lámina metálica fija; este arreglo
(dos conductores cuya superficie de área, A, es significativa,
separados por una corta distancia, d) tiene propiedades de
condensador. Cuando las ondas de sonido hacen que las dos
láminas se acerquen o se alejen una de otra, el valor de la
capacitancia cambia (recuerden que C ≈ A/d); por lo tanto, a un
voltaje fijo la carga almacenada cambia (Q = CV). Monitoreando
continuamente la corriente capacitativa y convirtiéndola a un
voltaje se genera por lo tanto una señal eléctrica que replica la
forma de las ondas sonoras. Este diseño, llamado por obvios
motivos micrófono de condensador, se muestra en la Figura 10.4. Figura 10.4
Temperatura
Uno de los conversores temperatura-electricidad más utilizados es la termocopla, la cual se
basa en el así llamado efecto Seebeck (que toma el nombre del físico que primero lo describió):
si se altera la temperatura en una unión entre dos metales disímiles, se forma un potencial
eléctrico entre los dos lados de la unión. Este fenómeno refleja el hecho de que, al ser diferente
la conductividad térmica de los dos metales, se forma un gradiente de temperatura. Los
electrones de valencia en la región caliente, sufriendo mayor agitación térmica, pueden migrar
más fácilmente, alejándose hacia la región más fría, con lo cual se establece una diferencia de
voltaje. La Figura 10.5 muestra esquemáticamente el sensor esférico de la termocopla
(usualmente de dimensiones de 1 mm o menos); la aplicación de calor produce un gradiente de
temperatura a través de la unión bi-metálica, lo cual da origen a un voltaje, el cual se puede

42
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

medir remotamente. Diferentes uniones bi-metálicas manifiestan distinta


sensibilidad, y se utilizan según el rango de temperaturas que se quiere
medir.
Luz
Existe una gran variedad de conversores de luz en electricidad. Algunos se
basan en que la absorción de un fotón por parte de cierto material desplace
por completo un electrón del orbital externo, generando un electrón libre y
dejando atrás un átomo ionizado (el efecto fotoeléctrico). Con esto se puede
bien sea medir la corriente (el flujo de los electrones liberados) o bien el
potencial electroestático que se acumula en la matriz del material; ambas
variables serán función de la cantidad de luz incidente. En la sección de
óptica de examinará un tipo de detector basado en el efecto fotoeléctrico.
Alternativamente, se explotan ciertos materiales que en estado basal no Figura 10.5
conducen electricidad (sus electrones externos se encuentran en orbitales
“de valencia” desde los cuales son poco propensos a saltar a un átomo vecino); la absorción de
un fotón, sin embargo, puede elevar un electrón a un orbital más externo, desde el cual sí
pueda migrar (la así llamada banda de conducción).
En la aplicación más sencilla, este fenómeno
representa simplemente un cambio de resistencia
eléctrica en dicho material, que ocurre en respuesta
a la iluminación (una fotoresistencia); basta
entonces aplicar un voltaje y medir la corriente
resultante (o viceversa, imponer una corriente y
medir el voltaje que se genera), y, por la ley de
Ohm, el cociente V/I arroja R, cuyo valor refleja el
flujo de luz incidente. La Figura 10.6 ilustra la
detección de luz por una fotoresistencia: los fotones
incidentes, al ser absorbidos por los átomos, elevan
los electrones de valencia a la banda de conducción
(mayor energía), con lo cual se permite el flujo de
corriente en respuesta a un voltaje aplicado entre
Figura 10.6
los terminales de la fotoresistencia.
Concentraciones químicas: hay por lo menos dos acercamientos muy comunes para generar
señales eléctricas que reflejen la concentración de sustancias específicas en una solución. El
primero se aplica a moléculas eléctricamente cargadas (iones), y se basa en una partición
semi-permeable separa el exterior de la sonda de su interior (donde también se encuentra una
solución electrolítica). La permeabilidad de la partición es selectiva para algún tipo de sustancia
específica (por ejemplo, protones, Na+, K+ etc.); esto ocurre naturalmente en algunos tipos de
vidrio, pero también se puede lograr haciendo que la partición sea alguna matriz líquida
hidrofóbica en la cual se encuentren disueltas moléculas que pueden específicamente ligar el
soluto en cuestión, acarreándolo de un lado al otro. Dicho ión está presente también al interior
de la sonda; la diferencia de concentración entre el compartimiento externo a ser medido y el
interior de la sonda impulsa un flujo difusional (que puede ser facilitado por los acarreadores),
el cual a su vez genera una separación de carga eléctrica. Este movimiento cesa cuando el
potencial electrostático resultante contrarresta justamente la tendencia difusional, i.e. se
estabiliza al potencial de equilibrio (o potencial de Nernst) de ese ion (EX = RT/zF⋅ln([Xe]/[Xi]),
donde R es la constante universal de gases, T la temperatura en grados Kelvin, z la valencia
del ion, F la constante de Faraday, [Xe] y [Xi] las concentraciones externa e interna del ion,
respectivamente). Como este tiene un valor proporcional al logaritmo del gradiente de

43
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

concentración, el voltaje generado refleja la


concentración del ion de interés en el medio externo.
Un electrodo de pH opera justamente de esta manera.
En la Figura 10.7 se ilustra el esquema básico de
medición por medio de un electrodo selectivo a un ión
X.
Existe otra estrategia que funciona con sustancias que
sean fácilmente oxidables. En este caso se tiene un
electrodo metálico (usualmente grafita, o platino) en la
solución, el cual es mantenido a un voltaje en exceso
del potencial de óxido-reducción de la sustancia de
interés. En ausencia del sustrato, no puede haber
conducción DC entre metal y líquido, pese al voltaje Figura 10.7
aplicado (los electrones de la matriz del electrodo no se
pueden transformar en iones y disolverse en el medio líquido, ni viceversa); así que la
superficie del electrodo queda polarizada, pero no fluye corriente (Figura 10.8A). Pero si una
molécula oxidable X (Figura 10.8B, círculos amarillos) se adsorbe a la superficie del electrodo,
el fuerte campo eléctrico le arrebata un electrón (oxida el sustrato), y este sí puede viajar por el
electrodo. Por consiguiente, se genera una corriente (corriente oxidativa) proporcional a la rata
de eventos de oxidación, la cual a su vez es proporcional a la concentración del sustrato. De
nuevo, hemos logrado generar una
señal eléctrica que refleja la
concentración de una sustancia
química. Debido a que una gran
variedad de sustancias bio-activas
(como por ejemplo los neuro-
transmisores que las células del
sistema nervioso secretan) son
oxidables, este acercamiento ha sido
muy útil para monitorear la forma
como las neuronas se comunican
unas con otras a través de un
Figura 10.8 lenguaje químico.

44
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

11. Adquisición computerizada de datos.


En la actualidad, casi sin excepción, todo proceso de adquisición de datos en última instancia
implica su almacenamiento en forma de archivo digital en un computador. No solamente esto
permite su rápido acceso, sino brinda enormes posibilidades para el procesamiento y la
representación de dicha información. Estas consideraciones nos obligan a familiarizarnos con
la trasformación de la información en un formato idóneo para lograr este objetivo. Las señales
eléctricas, como por ejemplo el voltaje y la corriente, son variables continuas (es decir pueden
cambiar por cantidades arbitrariamente pequeñas y adquirir por lo tanto un continuo de
valores); además pueden cambiar continuamente en el tiempo. Un computador digital, en
cambio, opera con una cantidad finita de números (dictada por la memoria disponible), cada
uno de los cuales solo puede asumir un abanico finito de valores (dictado por el número de
dígitos que se asignan a cada número). Por lo tanto, la adquisición de datos por computador
está sujeta a dos limitaciones intrínsecas al proceso de digitización (o conversión análogo-
digital): (i) Aunque la variable en cuestión
esté en un continuo temporal, sólo
podremos ceñirnos a un conjunto finito de
sus valores, muestreados en ciertos
momentos discretos (típicamente a
intervalos regulares). (ii) Cada valor de la
variable en cuestión debe ser ‘redondeado’,
si es necesario, para respetar el requisito
de que sólo se dispone de un número fijo
de dígitos para representarlo. La Figura
11.1 muestra una señal análoga (trazo
azul) y el conjunto de valores muestreados
(puntos rojos, interpolados); notar que
variaciones finas de la señal, que ocurren
Figura 11.1 entre sucesivas nuestras (las cuales son
tomadas a intervalos de ∆T), o que se
ciñen a valores comprendidos entre dos niveles contiguos de digitización (∆V), no son
registrados por el proceso de conversión análogo-digital.

El computador utiliza un sistema numérico binario, es decir, sus dígitos individuales solo
pueden asumir dos valores (usualmente referidos como ‘0’ y ‘1’); estos representan dos niveles
de voltaje (típicamente 0 V y +5 V) utilizados por los circuitos de electrónica digital. Así que, al
igual que en nuestro acostumbrado sistema numérico decimal, formamos un número
constituido por una serie de dígitos, pero en el caso del computador el número siempre tiene
una cantidad pre-definida de dígitos, lo cual limita su precisión. Por ejemplo, si eligiéramos
establecer que los dígitos (llamados bits) que constituyen nuestro número binario fueran 8, éste
podría solamente asumir 256 posibles valores: cada bit tiene 2 posibilidades, así que un
conjunto de 8 bits (llamado un byte) puede tener 28 valores, desde 0 (=00000000) hasta 255
(=11111111). Si fueran números de 12 bits, habría 4096 posibilidades, si fueran de 16 bits
habría 65532, etc. Al adquirir datos, se dedica una cierta área de la memoria RAM del
computador para esta tarea (a veces llamado el ‘buffer’ de adquisición), y ésta tiene un tamaño
dado: por ejemplo si el buffer fuera de 200 KB, y los valores muestreados fueran representados
en números binarios de 16 bits (2 bytes), podríamos almacenar 100 mil muestras. Qué tan
rápido se nos acabaría la memoria disponible dependerá de la rapidez, o mas exactamente, la
frecuencia, con la cual muestreáramos la variable. Por ejemplo, si lo hiciéramos 5 mil veces por
segundo (5 KHz, es decir una muestra cada 200 μs), podríamos seguir muestreando durante
20 segundos, al cabo de los cuales habríamos agotado la memoria y tendríamos que

45
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

interrumpir el proceso. El arte (en realidad, la ciencia) de adquirir datos por computador radica
en saber minimizar la pérdida de información implícita en el proceso de conversión análogo-
digital. A continuación se esbozarán los dos aspectos más importantes.

Rango dinámico
Un conversor análogo-digital (ADC, “analog-digital converter’) puede recibir un voltaje dentro de
un rango definido (por ejemplo desde -10 V hasta +10 V) y convertirlo a un número binario de
una cierta resolución (llamada la profundidad de bits, por ejemplo, 8 bits). Al hacerlo, asigna el
número binario menor (000000, es decir 0 decimal) al valor mínimo de su rango permitido (en
nuestro ejemplo, -10 V), y el numero binario máximo (11111111, o 255 decimal) al valor
máximo (que en este caso sería +10 V) [Nota: existen otras formas de codificación binaria para
representar números positivos y negativos, pero el esquema presente es representativo y basta
para lo que se quiere examinar aquí]. Valores de voltaje de entrada que estén bien sea por
debajo o por encima del rango permisible serían asignados a 0 o 255, respectivamente, sin
hacer distinciones de que tan negativo o positivo es el voltaje en cuestión: en ambos casos el
conversor estaría saturado, habiendo excedido su capacidad (y si se excede ese rango de
voltaje por un margen muy grande se puede quemar el conversor!). En cambio, voltajes dentro
del rango lícito serían convertidos en números variables entre 0 y 255, según su tamaño; en
otras palabras, el rango entre -10 V y +10 V (en este ejemplo) se dividiría en 256 intervalos
iguales (asumiendo conversión en 8 bits), y cualquier voltaje al caer en un intervalo dado se
convertiría en el número binario correspondiente. Por supuesto, uno quisiera optimizar este
proceso, el cual sufre del problema de no hacer distinciones más finas que el tamaño de los
256 ‘escalones’. Esta limitante, de por sí significativa, es susceptible de empeorar mucho más
si el rango dinámico de la señal a ser medida (es decir, el voltaje mínimo y máximo que la señal
de interés efectivamente asume en el curso de una medición) no fuera más o menos
equiparable al rango dinámico de entrada del ADC:
para hacer un ejemplo, el conversor podría ser
capaz de recibir valores desde -10 a +10 V, y ya
sabemos que si la señal a ser medida se excediera
en cualquiera de los extremos, por ejemplo llegando
hasta voltajes de +27 V, entonces parte del tiempo
el conversor entraría en saturación, asignando
indiscriminadamente a toda excursión por encima
de +10 V el valor ‘255’. Esto, por supuesto no sería
una representación fiel de la señal. Pero un
problema igualmente serio ocurre si la señal a ser
medida fuera demasiado pequeña y, por ejemplo,
oscilar solamente entre -0.05 V y +0.1 V (-50 mV a
+100 mV). En nuestro ejemplo, el tamaño de los
‘escalones’ del ADC es de ≈78 mV (rango dinámico Figura 11.2
del conversor dividido por el numero de valores
posibles, es decir [+10 –[-10]]/256] = 0.078 V), así que nuestra señal apenas daría excursiones
que abarcarían solo unos 3 escalones, y su apariencia, una vez digitizada, sería una serie de
saltos rectangulares (pese a haber podido ser originalmente una señal que cambiara de una
forma lisa y continua, Figura 11.2); en particular, todas la fluctuaciones cuya amplitud hubiera
sido menor que 78 mV desaparecerían del registro, quedando convertidas al valor constante =
0. Una vez efectuada la conversión digital, no hay manera de corregir estas fallas y recuperar la
información perdida. Estas consideraciones nos indican que es imprescindible tener una idea
del rango de valores de la variable a ser medida, para amplificarla o atenuarla antes de entrar
al ADC, de tal manera que ‘ocupe’ una porción generosa del rango dinámico del ADC, sin llegar
a saturarlo en ninguno de los dos extremos.

46
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Frecuencia de muestreo
Un problema paralelo ocurre con el requisito de tener que muestrear solamente en momentos
discretos; aquí la dificultad radica en poder resolver los cambios temporales de la señal. Si la
señal cambiara lentamente (por ejemplo, una onda sinusoidal que realizara una oscilación cada
segundo i.e. 1 Hz), evidentemente muestreando a 100 Hz podríamos dar cuenta con bastante
precisión de su crecer y decrecer gradual (cada ciclo estaría representado por 100 puntos).
Pero eso no ocurriría si, con la misma frecuencia de muestreo, tratáramos de seguir el rastro de
un voltaje que estuviera oscilando a 1000 Hz, ya que solamente se tomaría una muestra cada
10 ciclos de la onda, y claramente perderíamos toda posibilidad de seguir sus cambios. Para
entender como ajustar correctamente la frecuencia de muestreo, hay que introducir, aunque
sea como simple concepto (sin matemáticas ni demostraciones) dos teoremas.

• Toda onda que cambia continuamente en el tiempo se puede representar como la


superposición de muchas ondas sinusoidales (i.e. senos y cosenos) de diferentes
frecuencias, amplitudes y fase. La Figura 11.3 proporciona un ejemplo, mostrando como
la representación de una onda cuadrada por suma de sinusoides se torna cada vez mas
precisa a medida que uno añade más y más componentes de frecuencias
progresivamente mayores. Este
enunciado se conoce como el
Teorema de Fourier. Uno de los
aspectos de gran importancia de
esta deducción es que muchas
veces lidiar con una simple
función sinusoidal es muy fácil,
mientras que puede no serlo con
una función cuyo curso temporal
es complicado. Si necesitamos
aplicar algún procedimiento
computacional a una función Figura 11.3
complicada, a menudo resulta
conveniente descomponerla en sus elementos constituyentes, aplicar las operaciones a
cada uno de ellos, y re-constituir la función resultante, sumando los resultados
individuales.

• Si se muestreara una onda sinusoidal simple por lo menos dos veces por cada ciclo, se
puede reconstruir su curso temporal (acudiendo a un malabarismo matemático que en
este contexto no viene al caso detallar). Este
enunciado se conoce como el teorema de
muestreo de Nyquist. Por supuesto, entre
mayor el número de muestras por ciclo de
oscilación, más fácil ver, por simple
interpolación, que se trata de un sinusóide de
cierta frecuencia, sin necesidad de cómputos
complejos. Pero si la frecuencia fuera menor
que 2/ciclo, no sería posible discernirla como
tal: la Figura 12.4 muestra un ejemplo en el
cual una onda rápida (trazo rojo) fue Figura 11.4
muestreada con baja frecuencia (menos de 2
muestras por ciclo), y la secuencia resultante de valores da la idea errónea de que se
tratara de un sinusoide lento (trazo azul). A este fenómeno se le llama ‘aliasing’.

47
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Ahora juntemos los dos conceptos. Si tenemos una señal arbitraria (cuya forma fuera compleja,
no un simple sinusóide) podemos descomponerla en sus sinusóides constituyentes (su
espectro de Fourier). Por lo tanto, si muestreáramos dicha señal con una frecuencia por lo
menos el doble que la frecuencia del sinusóide más rápido, tendríamos la certeza de que cada
componente estaría muestreado lo suficientemente a menudo para garantizar su reproducción
fiel, y por lo tanto lo mismo se aplica a la suma de todos ellos, es decir, nuestra señal original.
Dicho en otras palabras, si se conoce de antemano el rango de frecuencias constituyentes de
una señal (su ancho de banda) se puede definir cual es el límite mínimo de frecuencia de
muestreo para evitar pérdida de información. De no ser posible, se puede modificar la señal
misma, pasándola por un filtro que rechaza frecuencias mayores a un cierto límite (un así
llamado filtro pasa-bajos) antes de que llegue al conversor análogo-digital, y luego establecer la
rata de muestreo con base en la frecuencia crítica del filtro.

48
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

12. Análisis de sistemas lineales


Definición de sistema lineal
Los conceptos de análisis en el dominio de frecuencia (es decir, representar alguna variable no
en términos de como cambian sus valores en el tiempo, sino en términos de la superposición
de sinusoides de diferentes frecuencias, amplitudes, y fases) se pueden extender al estudio de
como se comportan ciertos sistemas cuando se someten a estimulación. Esto nos brinda una
descripción compacta de su relación estimulo-
respuesta, la cual sintetiza su desempeño y, como
describimos más abajo, nos permite predecir cual
será su respuesta ante un estimulo arbitrario. Esta
poderosa herramienta se aplica a una cierta clase de
sistemas, conocidos como sistemas lineales.
Aclaremos que quiere decir. Llamamos un sistema a
alguna entidad S, a la cual se aplica una estimulación
(el input) y se produce alguna respuesta (el output);
un ejemplo podría ser un órgano sensorial, que se
expone a estimulación de la modalidad energética
apropiada y se monitorea la frecuencia de las
descargas neuronales que produce en el
correspondiente nervio aferente. Tanto el input como Figura 12.1
el output pueden variar en el tiempo, y por lo tanto
son funciones; llamémoslas X(t) y Y(t), respectivamente; el sistema opera sobre X(t),
transformándolo en Y(t): S[X(t)] = Y(t). En un sistema lineal, si se aplicara un input que
representa la suma de dos estímulos, X1(t) y X2(t), la respuesta resultante sería la suma de las
respuestas a los dos estímulos individuales:

Si X(t) = X1(t) + X2(t) entonces Y(t) = Y1(t) +Y2(t)

donde Y1(t) = S[X1(t)], y Y2(t) = S[X2(t)]

La Figura 12.1 muestra gráficamente este comportamiento. También, si modificáramos la


amplitud de un input, multiplicándola por una constante, la respuesta se vería multiplicada por
la misma constante: en otras palabras:
S[a⋅X(t)] = a⋅Y(t)
La Figura 12.2 ilustra un ejemplo. Notar que estas
propiedades no son para nada generales de todo
sistema: para dar un ejemplo que las viole,
consideremos una fibra nerviosa. Si se aplica a un
axón un estímulo eléctrico por encima del umbral, se
produce un potencial de acción. Si ahora aplicamos
un estímulo dos veces más intenso, se produce un
potencial de acción similar (no el doble de grande!):
evidentemente no se mantiene una proporcionalidad
entre estímulo y respuesta, y diríamos que este
sistema es no-lineal.
Figura 12.2 Función de transferencia

49
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Ahora pasamos a examinar la manera como la señal es transformada para generar la señal de
salida. Un sistema lineal posee la fundamental propiedad de que la respuesta a un input
sinusoidal es también un sinusoide de la misma frecuencia (aunque su amplitud y fase, por
supuesto, pueden cambiar). La importancia de estas características radica en que, como ya
sabemos, una función arbitraria (físicamente realizable) siempre se puede descomponer, por el
teorema de Fourier, en sus componentes sinusoidales. En un sistema lineal la respuesta a un
input compuesto de la suma de ciertos sinusoides, debe ser igual a la suma de las respuestas a
cada uno de los sinusoides (por definición de linealidad). Por lo tanto, si conociéramos para
cada frecuencia la manera como el sistema transforma un input sinusoidal, podríamos predecir
la respuesta para cualquier estimulo: lo que haríamos es (i) descomponer el input arbitrario
(representándolo como la suma de sinusoides de diferentes amplitudes y fase), (ii) aplicar a
cada constituyente la trasformación predicha (lo cual consiste sencillamente en un cambio de
amplitud y fase) y (iii) sumar todas las respuestas elementales obtenidas. Solo hace falta haber
establecido de antemano cual es el cambio de amplitud y fase que sufre un sinusoide,
dependiendo de su frecuencia. Esta regla de transformación es lo que se conoce como la
función de transferencia de modulación, y caracteriza plenamente el comportamiento de un
sistema lineal. La Figura 12.3 muestra el proceso: para predecir la respuesta al input, éste se
decompone en sus constituyentes
sinusoidales (análisis de Fourier,
ilustrado por los trazos a la
izquierda); en este caso, para
simplificar, asumimos que solamente
3 frecuencias (f1, f2, y f3) contribuyen
a la señal original. Al pasar por el
sistema, la amplitud y la fase de cada
uno de los tres sinusoides son
modificadas según la función de
transferencia (representada por las
dos gráficas en el panel central),
generando los tres sinusoides de de
la derecha. Notar que según la
función de transferencia f1 no sufre
atenuación alguna, ni cambio de
fase; en cambio f3 debe reducirse
Figura 12.3 considerablemente en amplitud y
desfasarse. Las respuestas
sinusoidales resultantes luego se suman para reconstituir la respuesta del sistema al estímulo
inicial (síntesis). Las aplicaciones de este tipo de análisis para determinar el desempeño de un
circuito son obvias, y de hecho ya hemos estado tratando estos mismos conceptos, aunque
fuera de una manera un poco encubierta, cuando se discutió la noción de impedancia y cuando
se describió la función de los filtros pasa-bajos y pasa-altos. Tal vez es menos obvia la
trascendencia de este mismo acercamiento en fisiología, pero resulta ser una herramienta
crucial en muchos campos, y no necesariamente ciñéndose a fenómenos eléctricos. Por
ejemplo, el estudio del sistema auditivo claramente se puede beneficiar de un análisis en el
dominio de frecuencia, y la caracterización de la función de transferencia nos brinda no
solamente una descripción compacta de sus límites de desempeño, sino también proporciona
una visión de como una onda acústica compleja (un compás de música, una frase hablada) es
transformada en cada paso del proceso auditivo: desde las vibraciones inducidas en la
membrana timpánica, a la conversión en potenciales de receptor de las células ciliadas, a su
transmisión sináptica a las neuronas del ganglio espiral que forman el nervio auditivo, con la
consecuente modulación de la producción de potenciales de acción. En la medida de que las

50
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

condiciones de linealidad puedan justificarse, cada una de esas transformaciones se puede


caracterizar por su propia función de transferencia. Más aún, aunque hasta el momento se ha
supuesto que las oscilaciones de los sinusoides ocurren en el tiempo, en realidad esta
restricción es innecesaria y se pueden considerar sinusoides que varíen, por ejemplo, en el
espacio. Un ejemplo está dado por el estudio
de la agudeza visual: en lugar de examinar la
discriminación de dos puntos apenas
separados (como se hacía tradicionalmente), se
pueden considerar estímulos visuales
constituidos por ‘gratículos’ (i.e. bandas
alternantes claras y oscuras), cuyo grosor (es
decir, cuya frecuencia espacial, especificada en
#ciclos/distancia) varíe. La capacidad de
discernir detalles finos puede caracterizarse
entonces en términos de la función
transferencia de de modulación espacial: que
tanto se atenúa la percepción de patrones
espaciales dependiendo de la frecuencia (uno
se imagina que si las barras son demasiado
Figura 12.4 finas, el sujeto con dificultad discernirá que se
alternan bandas claras y oscuras, o inclusive
solo percibirá un campo uniforme). La Figura
12.4 muestra este acercamiento: el panel está constituido por un alternarse de ‘barras’
verticales (en realidad ‘ondas’ que varían sinusoidalmente entre negro y blanco), cuya
frecuencia espacial aumenta progresivamente hacia la derecha (i.e. crece el número de barras
por unidad de distancia horizontal, o, equivalentemente, disminuye el grosor de las barras). El
contraste de las barras (la diferencia entre la parte oscura del ciclo, y la clara) disminuye
gradualmente hacia arriba, desde negro vs. blanco (100% contraste), hasta matices de gris
prácticamente uniformes (0 contraste). Hay un rango de frecuencias espaciales, entre bajas y
medianas, que el observador puede discernir aún con poco contraste (la sensación es que las
barras se extienden considerablemente hasta arriba), pero cuando la frecuencia espacial
incrementa mucho solamente logramos discernir esas barras muy finas si tienen alto contraste
(i.e. la porción inferior). Es decir, el perfil de hasta donde se extienden las barras verticalmente
proporciona directamente la función de transferencia de modulación, que describe la agudeza
visual del observador! (ensayar como cambia acercándose o alejándose de la gráfica). Aunque
hemos invadido el terreno de la óptica fisiológica, vemos que los mismos acercamientos
analíticos que se utilizan en electricidad siguen siendo valiosos.
Análisis de frecuencia
Ahora vamos a tratar de matizar la sensación de que el análisis en el dominio de frecuencia
implica operaciones absolutamente misteriosas; más específicamente, se pretende ilustrar de
donde sale la extracción de las frecuencias sinusoidales que contribuyen a una señal arbitraria.
Solamente esbozaremos los aspectos conceptuales más salientes, sin una derivación detallada
y rigurosa. El método se basa en un simple resultado de la trigonometría: consideremos dos
funciones sinusoidales, X1 y X2, con amplitud y frecuencia arbitraria:
X1(t) = A1sin(ω1t + ϕ1)
X2(t) = A2sin(ω2t + ϕ2)

51
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

(A, ω, ϕ siendo la amplitud, la frecuencia angular, y la fase, respectivamente). Multiplicamos


X1(t)⋅X2(t) i.e. A1⋅sin(ω1t + ϕ1) ⋅A2⋅sin(ω2t + ϕ2). El resultado, según una conocida identidad
trigonométrica, es:
½ A1A2 {cos[(ω1-ω2)t +(ϕ1-ϕ2)] - cos[(ω1+ω2)t +(ϕ1+ϕ2)]}
Es decir, el producto de dos sinusoides es la superposición de 2 sinusoides cuyas frecuencias
son la suma y la resta (ω1-ω2 y ω1+ω2), respectivamente, de las frecuencias de los dos
operandos (Figura 12.5). Esta
función resultante, en general,
también es una señal AC con
promedio cero, exceptuando la
situación especial en la cual las
dos frecuencias coinciden, ω1 = Figura 12.5
ω2, en cuyo caso (ω1-ω2) = 0,
con lo cual queda:
½⋅A1A2 [cos(ϕ1-ϕ2) - cos(2ωt +ϕ1+ϕ2)]
El primer término coseno es una constante, ya que la variable t desapareció, que depende de la
diferencia de fase entre las dos señales (e.g. si ϕ1=ϕ2. esta constante resulta ser ½⋅A1A2, ya
que cos (0) = 1). En cambio el segundo término es un sinusoide con frecuencia 2ω; ahora,
integramos (i.e. obtenemos el ‘área bajo la curva’), lo cual podemos hacer separadamente para
los dos términos. La integral del segundo término siempre da un valor nulo, porque, tratándose
de una función periódica centrada en cero, los valores positivos y negativos se anulan. En
cambio, la integral del primer término arroja un valor no nulo, lo cual hace que el resultado total
de la multiplicación no sea cero. Notar que si hubiéramos integrado el producto de dos
sinusoides de frecuencias diferentes, el resultado final sería invariablemente cero (áreas
sombreadas de la curva a la derecha en la Figura 13.6).
Armados de este resultado, abordamos la descomposición de una función cualquiera, F(t), la
cual, según el teorema de Fourier, debe estar constituida por la suma de diversos componentes
sinusoidales (F(t) = f1(t) + f2(t) + f3(t)+...). Como identificarlos? Sencillamente multiplicando la
función F(t) por senos y cosenos de diferentes frecuencias (llamemos genéricamente este
conjunto de funciones {X(t)}), e integrando. Para cada sinusoide del conjunto el producto con F
puede representarse como:
X(t)⋅F(t) = X(t)⋅ (f1(t) + f2(t) + f3(t)....)
Por la propiedad distributiva de la multiplicación, es lo mismo que:
X(t)⋅F(t) = X(t)⋅f1(t) + X(t)⋅f2(t) + X(t)⋅ f3(t)...
Si la frecuencia del sinusoide X, es diferente a todas las que constituyen F, el resultado de la
integración será cero, como ya sabemos. En cambio, si X coincide con la frecuencia de algún
componente de F, podrá arrojar un resultado no nulo; más específicamente, debido a que
multiplicamos F tanto por seno como coseno de cada frecuencia, si uno de los dos productos
es nulo el otro necesariamente no lo es. Repitiendo el proceso con sinusoides X de muchas
frecuencias, podríamos compilar una lista de cuales frecuencias están representadas en F y
que tanto contribuyen.

Análisis en el dominio temporal


Las consideraciones anteriores proporcionan una justificación de la práctica tan frecuente de
utilizar estímulos que varían de una manera sinusoidal para caracterizar el comportamiento de

52
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

un sistema; esto recurre en física, biología,


ingeniería y hasta en ciencias económicas. Es
lícito preguntarse si el otro acercamiento,
aparentemente más intuitivo y natural, de
mirar como las diferentes variables cambian
en el tiempo, es intrínsicamente menos
apropiado. Resulta que no es así: el dominio
temporal y el dominio de frecuencia co-existen
como mundos paralelos, y ambos permiten
extraer la misma información. Así como los
estímulos sinusoidales son críticos para el
análisis dentro del dominio de frecuencia
(porque permiten descomponer una señal
arbitraria), en el caso del dominio temporal
también hay tipos de estímulo que los hacen
especialmente útiles. Aquí el más clave es el Figura 12.6
impulso, es decir, un estímulo que idealmente
debería ser infinitamente breve; en la práctica
se busca algo cuya duración simplemente sea muy corta en relación a la escala temporal de las
medidas a efectuar y de la rapidez del sistema bajo estudio. De nuevo, la lógica es la misma:
un estímulo arbitrario que varíe en el tiempo se puede considerar como la sucesión de muchos
impulsos breves que cambian en amplitud (Figura 12.6A); se trata de otra manera de
descomponerlo. Si el sistema cumple las condiciones de linealidad, y es invariante en el tiempo
(i.e. la forma como el sistema responde a un estímulo dado no varía con el tiempo) entonces al
conocer su respuesta a un impulso estándar (Figura 12.6B) se puede reconstruir la respuesta
ante un estímulo arbitrario como la suma de muchas respuestas a impulsos de diferentes
amplitudes, escalonadas en el tiempo. Por lo tanto, la respuesta impulsiva de un sistema lo
caracteriza totalmente, de la misma manera como lo hace la función de transferencia de
modulación. De hecho, resulta que las dos entidades son equivalentes en los dos dominios
paralelos, y se puede pasar del uno a la otra por una cierta transformación matemática (que
resulta ser, una vez más, la transformada de Fourier). Desde el punto de vista analítico, la
función de transferencia puede ser más conveniente para proporcionar una panorámica
inmediata de las capacidades del sistema, pero las condiciones específicas de una medición
experimental determinan en última instancia cuando es preferible un acercamiento o el otro.
Estos argumentos explican porque un fisiólogo, por ejemplo, muy a menudo se ciñe al uso bien
sea de estímulos muy cortos, o bien de estímulos sostenidos pero modulados sinusoidalmente.

Falta solamente añadir una nota de sobriedad a estas consideraciones que parecen mostrar el
análisis de sistemas lineales como una panacea universal: muchos sistemas (la mayoría, muy
probablemente) no son lineales. Que hacer entonces? No es imprescindible abandonar por
completo este acercamiento: resulta que aún para un sistema no lineal el cambio en el output
que se obtiene al modificar muy poco el input siempre guarda una relación aproximada de
proporcionalidad entre estímulo y respuesta; por consiguiente, todavía podemos proceder de la
misma manera, siempre y cuando los estímulos en cuestión cambien muy poco. Si eso fuera
inaceptablemente restrictivo, existen otras técnicas matemáticas de análisis no-lineal, pero
notablemente más complejas.

13. Análisis de fluctuaciones


Hemos hablado de ruido, de relación señal-ruido, y de la descomposición de una señal en
sinusoides de diferentes frecuencias. Por último tocaremos un tema muy recurrente en muchos

53
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

campos, desde la neurofisiología celular a la biofísica de membranas, y que hace referencia a


todos esos conceptos. El tema surge de la necesidad de caracterizar eventos que son
reproducibles pero muy pequeños y tienden a perderse en el ruido de fondo, y/o ocurren
aleatoriamente con una recurrencia tal que se sobrelapan unos a otros. En ambas instancias el
resultado es una señal eléctrica que fluctúa de una manera aparentemente azarosa e
ininterpretable, y nuestra misión es intentar extraer información sobre las características de la
familia de eventos elementales que dan origen a dicha señal. Esta meta parecería irrealista,
pero realmente se puede lograr, aunque sea de una manera indirecta (ya que los eventos
mismos no son en sí visualizables). Ejemplos relevantes a la biología incluyen la
caracterización de las corrientes eléctricas que fluyen por canales iónicos individuales a partir
de un registro global de la corriente de la membrana (que contiene cientos o miles de canales);
o entender las consecuencias de la absorción de un solo fotón en una célula fotosensible de la
retina, pese a que los efectos puedan ser más pequeños que el ruido eléctrico de fondo.
Sorprendentemente, el análisis de las variaciones irregulares en la señal puede proporcionar
valiosa información al respecto.
Extracción de la amplitud de los eventos elementales
Supongamos que estuviéramos estudiando una señal constituida por la suma de unos
‘impulsos’ que son estereotipados, y ocurren estocásticamente en el tiempo e
independientemente unos de otros. Para empezar, quisiéramos estimar la amplitud de dichos
eventos, la cual desconocemos, y asumimos que realizamos nuestras observaciones en un
estado estacionario (i.e., pese a la variabilidad, no hay ninguna tendencia sistemática de
cambio en el tiempo, tal como un progresivo aumento en la frecuencia de ocurrencia de los
impulsos). En general, los cambios en la señal ocasionados por los impulsos tienden a
contrabalancearse: mientras un
impulso está en su fase ascendiente,
otro que lo precedió ya está bajando,
etc., y por lo tanto se mantiene
macroscópicamente un nivel estable.
Pero a nivel microscópico, el hecho de
que las transiciones elementales no
están sincronizadas hace que la señal
constantemente experimente
fluctuaciones (siempre hay algún
desfase temporal entre el evento que
sube y otro que baja). Es
intuitivamente obvio que para un
determinado nivel promedio, el tamaño Figura 13.1
de las fluctuaciones será mayor entre
mas grande el tamaño de los eventos elementales: por ejemplo, si la señal fuera un registro de
un potencial bioeléctrico con amplitud promedio 50 mV, y se debiera a la producción continua
de impulsos espontáneos de 10 mV de amplitud, evidentemente con la ocurrencia de cada
nuevo impulso el cambio en el voltaje podría llegar a ser una fracción considerable del valor
promedio registrado: los ‘brincos’ serían muy notorios y la señal en su totalidad aparecerá muy
ruidosa e irregular (Figura 13.1A). Ahora, otro potencial sostenido de la misma magnitud podría
deberse a la superposición de impulsos similares pero 100 veces más pequeños. Por
supuesto, en este caso hará falta 100 veces más eventos/unidad de tiempo para llegar a
totalizar el mismo valor promedio de voltaje. Al ser los eventos elementales tan diminutos, las
transiciones que ocurren cada vez que un nuevo evento se dispara serán muy pequeñas,
respecto al nivel promedio; más aún, al darse con una frecuencia tan alta será más probable
que casi en todo momento tiendan a cancelarse mutuamente: mientras uno está bajando, casi

54
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

inmediatamente otro sube, ya que ocurren tan seguidos, y así sucesivamente. En este caso el
potencial bioeléctrico, pese a tener la misma amplitud promedio que en el caso anterior, tendrá
una apariencia mucho más lisa y menos ruidosa (Figura 13.1B). Esto nos da una idea: si el
grado de variabilidad, relativa al valor promedio, refleja el tamaño de los eventos unitarios,
entonces este parámetro debería poderse estimar a partir de la relación entre alguna medida
de variabilidad y de la amplitud media. Los detalles matemáticos del asunto y su justificación
rigurosa exceden los propósitos de esta introducción elemental al tema, pero es suficiente
presentar una descripción que proporcione un sentido intuitivo a este acercamiento analítico.
En primer lugar, se determina la varianza de la señal y el valor promedio. Tanto la varianza, σ2,
como el promedio, μ, se estiman en el tiempo (es decir, dentro del mismo trazo registrado):
μ = 1/T∫V(t)⋅dt
(T siendo el intervalo de integración). Es como sumar valores sucesivos del voltaje, el cual está
cambiando en el transcurso del tiempo, y promediarlos; solo que, tratándose de un continuo, no
podemos simplemente sumar y dividir por N (hay una infinidad de valores), sino tomamos la
integral del trazo de voltaje y dividimos por la medida del intervalo considerado. La varianza,
σ2, es calculada como:
1/T ∫(V(t) - μ)2dt])
Tal como en la definición tradicional, restamos del valor del voltaje en cada instante el promedio
(para quedarnos solo con las fluctuaciones alrededor del promedio), elevamos al cuadrado el
resultado (evitando que luego al ‘sumar’ se anulen mutuamente desviaciones positivas y
negativas), e integramos. El cociente entre los dos parámetros estimados proporcionaría
entonces información respecto al tamaño de los eventos unitarios. De esta manera se
obtuvieron los primeros estimativos de la magnitud de las corrientes elementales debidas al
flujo de iones a través de proteínas individuales en la membrana de la célula.

Determinación de la cinética de los


eventos elementales
Ahora, habiendo inferido la amplitud de los
impulsos, podríamos preguntarnos acerca
de su curso temporal, para lo cual
acudimos nuevamente al análisis en el
dominio de frecuencia. Eventos
elementales lentos, una vez los
descomponemos en componentes
sinusoidales, mostrarán una
predominancia de frecuencias lentas;
eventos rápidos necesariamente tienen
que estar constituidos por frecuencias
rápidas. Si los eventos elementales son lo
que dan origen a nuestra señal total,
quiere decir que el contenido espectral de
ésta última debe reflejar el de los eventos
elementales. Lo que haríamos por lo tanto
es examinar el espectro de frecuencias de
la señal para determinar cuales
frecuencias contribuyen sustancialmente.
Aquí la información de interés suele
ceñirse a la amplitud de dichos
Figura 13.2

55
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

constituyentes, no su exacta relación de fase. Como tal, la medida más típica es el espectro de
potencia, también llamado la densidad espectral; conceptualmente, ésta se estima sumando los
cuadrados de los productos de la función de interés con senos y cosenos de cada frecuencia.
Si una frecuencia dada está representada en nuestro trazo, el producto de éste con un
funciones sinusoidales (seno y coseno) de dicha frecuencia debe contener, como ya se ha
visto, un componente DC (un término no-periódico que solo depende de la diferencia de fase
entre los multiplicandos): si el sinusóide presente en nuestro trazo está perfectamente en fase
con el seno, esta multiplicación arrojará el máximo tamaño del componente DC mientras que
en la multiplicación con el coseno se anula (ya que habrá un desfase de 90˚), y viceversa. Si el
desfase es parcial con respecto tanto al seno como al coseno (el caso más general), ambos
productos contribuyen un componente DC, y se trata de usar el teorema de Pitágoras (el
cuadrado de la hipotenusa de un triángulo rectángulo es la suma de los cuadrados de los
catetos) para obtener la amplitud de esa frecuencia en nuestro trazo: la hipotenusa representa
dicha amplitud, y los catetos sus componentes ortogonales. Las unidades de medida
resultantes, por lo tanto, también serán al cuadrado (e.g. V2).

Consideremos un caso concreto. En la Figura 13.2 se muestran dos instancias en las cuales un
evento ‘elemental’ estereotipado puede tener un curso temporal bien sea rápido o lento (panel
A). Podría tratarse, por ejemplo, del cambio de voltaje producido en la membrana de diferentes
células de la retina al absorber un fotón. Supongamos que dichos eventos ocurren
repetidamente en el tiempo, de una forma aleatoria (panel B); el efecto resultante será la suma
de todos esos eventos, lo cual genera un trazo ‘ruidoso’ (panel C). Sin embargo, es evidente
que las fluctuaciones del trazo de la izquierda, el cual representa la superposición de eventos
breves, tienden a ser más rápidas que en el trazo de la derecha. Esto se puede analizar
cuantitativamente extrayendo el espectro de potencia en los dos casos: el resultado (panel D)
muestra que el trazo de la izquierda efectivamente está constituido por muchos componentes
que se extienden hasta frecuencias bastante altas; la curva luego cae, indicando que no hay
representación de frecuencias aún mayores. El límite superior se denomina frecuencia crítica (o
también frecuencia de ‘roll-off’) simbolizada como fc. Para el trazo de la derecha, la curva de
densidad espectral muestra un comportamiento cualitativamente similar, pero solo frecuencias
relativamente bajas contribuyen, y el valor de fc se encuentra por lo tanto significativamente
desplazado hacia la izquierda. Con este acercamiento es posible entonces inferir parámetros
de las características temporales de la ‘respuesta unitaria’.

Al final de cuentas, entre las dos estrategias habremos logrado derivar un estimativo tanto del
tamaño como de la rapidez de los eventos elementales cuya superposición ha dado origen a
una señal que aparentemente es irregular y azarosa. Este acercamiento ha sido valioso para
derivar información de un sinnúmero de fenómenos microscópicos cuando su medición directa
no era factible. Cabe recalcar, sin embargo, que padece de limitaciones: para poderse aplicar
es imprescindible tener un ‘modelo’ inicial. Por ejemplo, hay que asumir que el ruido está
constituido por excursiones rectangulares que se superponen al azar, o que los eventos
elementales decaen en el tiempo según una función exponencial, etc. Muchas veces
consideraciones teóricas dan pie para proponer el modelo y respaldarlo con argumentos
convincentes. Entonces el análisis de fluctuaciones arroja parámetros interpretables. Pero en
ausencia de un modelo, los parámetros que resultan del análisis de ruido carecen de
significado.

56
II. MÓDULO DE ÓPTICA
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

1. Introducción
Relevancia de la óptica a la biomedicina: Desde el punto de vista del funcionamiento de células
y organismos, los principios ópticos solo vienen al caso en relación al ojo (contrariamente a la
bioelectricidad, que es ubicua). Con lo cual su aplicación a aspectos fisiológicos es más bien
especializada. Sin embargo, en cuanto a tecnología para observación y monitoreo de función
(y, en el caso de la medicina, diagnóstico e intervención) hay una gran variedad de enfoques
ópticos de gran utilidad, lo cual justifica el esfuerzo invertido en aprender por lo menos los
principios más fundamentales.

La óptica es un campo polifacético y complejo, y no constituye una disciplina conceptualmente


monolítica: al contrario, diferentes niveles de explicación, principios y complejidades ocurren,
dependiendo de la escala de energías y de dimensiones espaciales que se estén
considerando. Gran parte de los fenómenos relevantes al funcionamiento de la visión sólo
requieren principios de óptica geométrica que es la más simple y contempla el análisis de rayos
que se propagan en línea recta por un medio dado, y solo cambian dirección al encontrar un
medio distinto. Pero para entender otros fenómenos cuya escala de dimensiones es pequeña
(del orden de μm o fracciones), o explicar el funcionamiento de muchos instrumentos ópticos,
es necesario analizarlos en el marco de la óptica de ondas, que es notablemente más
complicada y por lo tanto será considerada solo de una manera muy tangencial, haciendo
ocasional referencia a sus principios más básicos. Para otras escalas de dimensiones y
energías, existe aún otro marco teórico, la óptica cuántica.

Naturaleza de la luz.
Parte de los motivos por los cuales la teoría de la óptica tiene diferentes marcos conceptuales y
diferentes acercamientos, es que la “materia prima” de la cual trata, es decir la luz, es
concebida de dos maneras diferentes. Cada una de las propuestas proporciona una buena
aproximación para una clase de fenómenos, pero falla en otros, por lo tanto las dos visiones
alternativas coexisten una al lado de la otra:
- Teoría corpuscular: la luz es conceptualizada como un haz de partículas luminosas que
viajan a gran velocidad.
o Pro:
ƒ La propagación de la luz procede en trayectorias rectas (en analogía con el principio
inercial de Galileo, que se aplica a cuerpos en movimiento).
ƒ Cuando un haz de luz choca contra la superficie lisa de un sólido, rebota según las
mismas leyes que gobiernan la colisión elástica de un cuerpo contra una pared rígida.
o Contra:
ƒ Las ‘partículas luminosas’ no se chocan entre sí: si dos
rayos luminosos se cruzan, ninguno de los dos altera su
dirección, contrariamente a lo que ocurriría en una colisión
mecánica entre partículas
ƒ Si se intercepta un haz de luz con una pantalla opaca en
la cual hay un pequeño orificio, la hipótesis corpuscular
contemplaría que aquellas partículas que pasan por el
orificio seguirían derechas, las otras serán bloqueadas.
Por consiguiente, si se colocara un detector de luz
directamente al frente del orificio, éste detectaría la luz
(Figura 1.1A, detector verde), pero si se desplazara a un
Figura 1.1

57
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

lado, nada le debería llegar (detector rojo). En cambio, lo que se observa es que la luz
emerge propagándose en todas las direcciones, y un detector ubicado lateralmente
también recibe luz (Figura 1.1B). Este fenómeno ha sido bautizado difracción.

- Teoría ondulatoria: la luz es conceptualizada como una onda que se propaga.


o Pro:
ƒ Explica la difracción, la cual se verifica fácilmente con otras ondas: por ejemplo, en la
superficie de un liquido si una onda cuyos frentes son rectos encuentra un dique con
una pequeña apertura, al otro lado la onda emerge con frentes concéntricos
ƒ Explica la interferencia: si en el experimento de difracción
se usan dos agujeros, la luz que emerge de cada uno,
propagándose en todas las direcciones, forma un patrón
de franjas claras y oscuras (lo podríamos observar
colocando una pantalla). Viendo la luz como onda es fácil
imaginar que donde las dos ondas se superponen en
fase (i.e. coinciden los picos, como los puntos donde se
interceptan los frentes de onda en la Figura 1.2) las
intensidades se sumarian, pero en las que están fuera de
fase se anularían.
Figura 1.2
o Contra:
ƒ Necesidad de un medio por el cual viaje la onda: como explicar propagación de la luz
en el vacío? Un rayo de luz pasa perfectamente por un tubo evacuado de aire,
mientras tenga ventanas transparentes en los dos extremos. En cambio, eso es
imposible con otras formas de ondas conocidas, como las ondas acústicas. Si una
onda representa la perturbación de medio por el cual se propaga (aire, agua, etc.),
ciertamente la persistencia de una onda en ausencia de todo medio es
conceptualmente problemática. Intentos ad hoc de salvar el concepto propusieron la
existencia de un medio intangible, el éter, pero sin un fundamento verificable.

Si la luz se puede concebir como una onda oscilatoria, es imprescindible entonces esclarecer
que es lo que oscila. Debemos a Maxwell la explicación, según la cual se trata de la oscilación
del campo electromagnético. Aclaremos que quiere decir: en electroestática se propuso que un
sistema de cargas fijas en el espacio puede ejercer una influencia sobre otra carga arbitraria
colocada en cualquier punto del espacio, y denominamos esa función vectorial el campo
eléctrico (cuya existencia es independiente de la presencia o no de la carga de prueba). De la
misma manera, si tuviéramos una o mas cargas que están oscilando, éstas ejercerían una
influencia fluctuante sobre cargas distantes. Debido a las aceleraciones de las cargas, dicha
influencia incluye un componente magnético, además del componente eléctrico, y decae
linealmente con la distancia (contrariamente a las interacciones electrostáticas, que decaen con
el cuadrado de la distancia); esta última característica hace que el campo electromagnético
pueda influir a distancias mucho mayores. Tratándose solamente de fuerzas electromagnéticas
oscilatorias ejercidas sobre una carga, tales influencias se hacen sentir también a través del
vacio, obviando la necesidad de un medio de propagación. Estas interacciones no actúan
instantáneamente, sino se propagan con una velocidad finita, en una dirección perpendicular a
las oscilaciones de las cargas. Decimos por lo tanto que la radiación electromagnética es una
onda transversal (lo opuesto, por ejemplo, a una onda acústica, en la cual las moléculas aire se

58
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

desplazan oscilando en la misma dirección que la dirección de propagación del sonido, es decir
es una onda longitudinal)

Polarización
Considerando la luz como onda transversal, se puede analizar cual es la forma de esa
oscilación en el plano ortogonal a la dirección de propagación. Si, en un espacio tri-
dimensional, llamamos z la dirección de propagación de un haz de luz, el plano de la oscilación
del campo eléctrico es el x-y. La Figura 1.3 muestra
una fuente de luz no-polarizada (la oscilación
transversal del vector eléctrico se da en todas las
direcciones en el plano x-y); al pasar por un elemento
llamado polarizador, solo se propagan ondas cuyo
vector eléctrico está confinado a una dirección
particular; diríamos entonces que la luz es linealmente
polarizada. Hay otras posibilidades, sin embargo: por
ejemplo, si la oscilación es el resultado de dos
componentes que no están necesariamente en fase, Figura 1.3
su forma en el plano x-y sería una elipse, o un círculo.
Debido a que un haz de luz puede volverse polarizado al cruzar un medio en el cual hay una
preponderancia de moléculas alineadas en una cierta dirección, esto nos puede servir para
inferir propiedades estructurales de un material transparente; viceversa, al irradiar una muestra
transparente con luz polarizada (por ejemplo, una célula), se puede dar transmisión diferencial
por diferentes componentes, lo cual permite visualizar características morfológicas que de otra
manera pasarían desapercibidas.

El Espectro Electromagnético
La luz visible sólo representa la manifestación de una minúscula porción de un fenómeno
llamado radiación electromagnética. Distintas ‘formas’ de esta radiación difieren con respecto a
un parámetro, la frecuencia (vista como onda), o su contraparte, la energía (vista como
partícula). Hay una relación directa, propuesta por Einstein, entre la frecuencia (ν, en unidades
de Hz o s-1) de una onda electromagnética y su energía cuántica (E, en unidades de ergs):
E = hν (h es la constante de Planck = 6.62×10-27 erg⋅sec)
Esta relación nos permite pasar de un marco conceptual al otro con facilidad. Cuando se habla
de luz dentro del marco de la teoría corpuscular, denominamos la partícula luminosa un fotón.

Más a menudo, en lugar de la frecuencia se utiliza la longitud de onda (λ) que es la distancia
que recorre una onda en el tiempo que demora un ciclo de oscilación; en el vacío tenemos:
λ = c/ν (c es la velocidad de la luz en el vacío, ≈ 3×108 m⋅s-1, ν la
frecuencia).
Contrariamente a la frecuencia, sin embargo, la
longitud de onda no es una característica intrínseca
de la radiación, sino depende además del medio por
el cual se está propagando. Es fácil ver que si la
frecuencia de una onda se mantiene al pasar de un
medio a otro, pero su velocidad de propagación
cambia, la longitud de onda también cambiará: por
Figura 1.4 ejemplo, si la velocidad de propagación en el nuevo
medio es menor, la onda avanzará menos por cada

59
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ciclo de oscilación, y la longitud de onda habrá disminuido de tal manera que en una distancia
dada cabrán más ciclos (Figura 1.4). Así que en un medio en el cual la velocidad de la luz fuera
V, tendríamos:
λ’ = λ V/c
En el aire, la velocidad de propagación de la luz es casi idéntica a la del vacío, pero otros
medios transparentes de mayor densidad como el agua, el aceite, o el vidrio la enlentecen
significativamente. El índice de refracción (n) de un material es el cociente entre la velocidad de
la luz en el vacío y su velocidad en dicho medio (llamémosla V):
n = c/V
Índices de refracción (relativos al vacío, tomado como 1.0) de materiales transparentes
comunes, medidos a λ = 589 nm:
Aire: 1.0003
Agua: 1.33
Vidrio: 1.52-1.66 (según la composición)

A pesar de que en la longitud de onda se encuentran entremezcladas propiedades tanto de la


luz como del medio en el cual se propaga (mientras que la frecuencia sí es una característica
intrínseca de la luz solamente), lamentablemente en muchas áreas de la óptica, y
especialmente en óptica fisiológica, se ha adoptado preferencialmente el uso de la longitud de
onda como parámetro que caracteriza la luz, a menudo descuidando especificar el medio y su
índice de refracción.

Luz visible.
La porción del espectro electromagnético que es visible (para los humanos) comprende las
longitudes de onda entre 400 y 700 nm (1 nm = 10-9 m) aproximadamente. Hacia longitudes de
onda más cortas encontramos la radiación ultravioleta (UV, as su vez dividida entre UVA y UVB),
luego los rayos X, los rayos gamma (γ), y los rayos cósmicos. Hacia longitudes de onda más
largas, en cambio, tenemos
radiación infrarroja (IR), micro-
ondas, radio, etc. (Figura 1.5).
Este rango es supremamente
amplio, y va desde
billonésimas de milímetro
hasta kilómetros; por lo tanto,
lo que nosotros percibimos
como luz es realmente una
franja minúscula. Porque esta
limitación? Considerando la
Figura 1,5
energía de un cuanto (E=hν),
el espectro visible es
particularmente idóneo para conllevar información, porque (i) los cuantos son lo
suficientemente energéticos para sobresalir con respecto al ruido de fondo (e.g. la agitación
térmica de toda materia), mientras que, por ejemplo, un fotón infrarrojo no tiene mucha más
energía que la energía térmica de una molécula, especialmente a la temperatura corporal de un
mamífero, y al ser absorbido no haría gran diferencia; (ii) un cuanto visible es capaz de
desencadenar reacciones fotoquímicas ‘inocuas’ (isomerizaciones, excitación electrónica que
pueden iniciar el proceso de señalización), pero no tiene energía suficiente para deshacer
enlaces químicos covalentes, lo cual podría causar daños a tejido biológico (por ejemplo, los

60
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

efectos cancerígenos de la luz ultravioleta y de los rayos X). Por lo tanto, la capacidad de
absorber esas otras longitudes de onda puede ser no muy útil, o inclusive dañina, si el
propósito es solamente extraer información del entorno.

61
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

2. Cuantificación de la luz
Es imprescindible disponer de algún criterio para cuantificar la intensidad de un haz de luz, lo
cual requiere una aclaración inicial: consideremos un haz de luz como un flujo de fotones.
Hemos hablado de la energía de fotones de diferentes frecuencias, pero eso se refería a un
fotón individual. Debemos además considerar cuantos fotones fluyen por unidad de tiempo y
por unidad de área, ya que en la energía total del haz de luz ambos factores estarán
implicados. De la misma manera, si pensamos en la luz como onda, además de su frecuencia
(o su longitud de onda) habría que considerar su amplitud (es decir la amplitud de la oscilación
del campo electromagnético).
En general, hay dos enfoques fundamentales para determinar la intensidad de la luz, que
originan sistemas diferentes de unidades de medida. Las técnicas específicas serán
consideradas posteriormente:
Escalas radiométricas
Podemos cuantificar la intensidad de la luz en términos de sus características físicas, lo cual
típicamente hace referencia a algún parámetro de energía. Si una fuente puntual emite luz en
todas las direcciones, el flujo radiante es la energía total emitida por unidad de tiempo (erg×s-1
o W); similarmente, la intensidad radiante es el flujo
restringido a un steradian de ángulo sólido, lo cual se
define como un cono con el vértice en la fuente, tal que a
1 m de distancia la base subtiende una superficie de 1 m2
(Figura 2.1). Alternativamente, es 1/4π del total del flujo
radiante, ya que la superficie total de una esfera es 4πr2.
Las dos medidas anteriores hacen referencia a la luz
emitida por una fuente; también se puede pensar en la luz
que llega a un objeto. La irradiancia es la intensidad de
radiación que incide sobre una superficie por unidad de
área (W/m2). A medida de que una fuente de luz se aleja
de la superficie que ilumina, la irradiancia decrece con el Figura 2.1
cuadrado de la distancia: consideremos una fuente
puntual de luz y una superficie cuadrada sobre las cual
inciden los rayos. Si los rayos divergen y viajan en línea recta, a una distancia del doble estarán
incidiendo sobre un cuadrado del doble de lado, es decir es cuádruple en cuanto a área: por lo
tanto, el flujo de fotones por unidad de área habrá disminuido según el cuadrado de la distancia
de la fuente luminosa (entonces, porque no nos parece que los objetos mas distantes sean más
tenues que los cercanos?). Debido a que los fotones pueden tener energía diferente, uno
podría obtener la misma energía con un haz que consiste de pocos fotones (por segundo) pero
muy energéticos (longitud de onda corta) o con un haz de muchos fotones por segundo, pero
de baja energía (longitud de onda larga); los efectos de los dos rayos podrían ser radicalmente
diferentes. Por lo tanto, en muchas instancias, saber la energía total de una luz sin conocer su
longitud de onda no es suficiente; además, la luz puede ser policromática (i.e. compuesta por
una mezcla de varias longitudes de onda) y uno podría necesitar aclarar como están
distribuidas las intensidades de las varias longitudes de onda que la conforman. Para lograrlo,
haría falta pasar el rayo de luz por un monocromador, en el cual una rejilla de difracción rebota
los rayos de luz a un ángulo distinto según la longitud de onda, separándolos (algo similar al
prisma de Newton que descomponía la luz blanca del sol en un arco iris). Alternativamente, se
pueden utilizar filtros de banda (los cuales solo dejan pasar longitudes de onda selectas, como
veremos mas tarde). Luego, mediríamos separadamente la intensidad (energía) en cada
banda. La intensidad de la luz en función de la longitud de onda determina el espectro de la luz

62
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

(o, más técnicamente, la irradiancia espectral) Debido a que conocemos la energía de un fotón
en cada banda de longitud de onda, también podríamos convertir tales medidas de energía en
número de fotones, lo cual suele ser mucho más informativo, especialmente para propósitos
fisiológicos. Las complejidades implicadas en cuantificaciones de luz policromática, indujeron la
CIE (la comisión internacional que establece criterios estándar de medición en óptica) a
proponer como punto de referencia para muchas aplicaciones el ‘iluminador estándar A’, el cual
consiste en un cuerpo negro calentado a 2854°K, ya que se conoce exactamente la
composición de su emisión luminosa.
Consideremos un ejemplo práctico, en el cual se pretende cuantificar el flujo de fotones con el
cual estamos iluminando continuamente un objeto. Para este propósito interceptaríamos el rayo
de luz con el sensor de un radiómetro, el cual reporta la potencia de la luz que recibe, es decir,
la energía por unidad de tiempo (e.g. Joules/seg, es decir, Watios); supongamos que la lectura
arrojara el resultado ’40 μW’. Si queremos saber cuántos fotones por segundo por cm2
representa esa intensidad, es preciso saber la energía por fotón, lo cual solamente está
definido si la luz es monocromática: la relación de Einstein nos dice que E = hν = hc/λ. El valor
de h, la constante de Planck es h= 6.6262×10-34 J×Hz-1 (o J×seg), y c (la velocidad de la luz en
el vacío) es 2.998×108 m×s-1. Si se tratara de una luz de 500 nm, entonces:
E = 6.6262×10-34 J×seg ×2.998×108 m×s-1/500×10-9 m = 3973.1×10-22 J
Con eso podemos concluir que nuestros 40 μW = 40×10-6 J×s-1 corresponden a:
40×10-6 J×s-1/3973.1×10-22 J ≈ 1014 fotones/seg
Ahora se necesita ulterior información, porque podría tratarse de un rayo estrecho e intenso, o
la misma cantidad de fotones podría estar distribuida en un área mayor (con lo cual la
intensidad del rayo resultaría menor): es decir, necesitamos conocer la densidad del flujo de
fotones por unidad de área. Si se trata de una rayo ancho, del cual sólo una porción fue
captada por un sensor de área 0.5 cm2, la densidad del flujo de fotones por unidad de área
(cm2) será 1014/0.5 = 2×1014 fotones×s-1×cm-2. Alternativamente, podría tratarse de un rayo
estrecho, menor que el tamaño del sensor, por ejemplo de 5 mm2 (0.05 cm2); en este caso el
parámetro relevante es el área de sección del rayo, no la del sensor, y obtendríamos 1014/0.05
= 2×1015 fotones×s-1×cm-2. Finalmente, si en lugar de iluminación continua se tratara de un
destello de duración finita, podríamos saber el número total de fotones en el destello
multiplicando el flujo por la duración.
Escalas fotométricas
Alternativamente, podemos cuantificar la luz en términos de los efectos sobre un observador (lo
cual, por supuesto, depende de su sensibilidad). La fuente de luz utilizada para determinar la
sensibilidad de los humanos era la candela (una vela fabricada con ciertas especificaciones,
cuya intensidad – o flujo luminoso – se definió como 4π lumens). Esta fuente fue luego
reemplazada por un emisor negro calentado a la temperatura de fusión del platino, 2042°K).
Una serie de unidades de medida fotométricas han sido desarrolladas, que son homólogas a
sus contrapartes radiométricas: por ejemplo, la iluminancia es el equivalente fotométrico de la
irradiancia, etc. De allí se establecieron equivalencias de efectividad de estimulación a distintas
longitudes de onda, según lo percibido por un “observador estándar” (con todos los caveats
variaciones entre individuos, y las diferencias entre visión diurna o fotópica y visión nocturna o
escotópica...). La jungla de unidades derivadas es impenetrable para el novato: lumen,
candelas, trolands, lamberts, etc.).

63
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

3. Absorción de la luz
Cuando un rayo atraviesa un medio y la intensidad del rayo que emerge es menor que la del
rayo incidente, parte de la luz ha sido absorbida. Si consideramos una capa delgada de
material parcialmente absorbente, y denotamos con φo la intensidad de la luz incidente, la
magnitud del cambio al atravesar el medio es proporcional a (i) la intensidad, (ii) una constante
k, característica del medio y denominada el coeficiente de absorción, y (iii) el espesor de la
capa de material por la cual pasa el rayo, Δx:
Δφ = -k φ Δx ⇒ Δφ/Δx = -kφ.
(el signo negativo es debido a que la intensidad de la luz va disminuyendo al pasar por un
medio absorbente). Tomando el límite cuando la capa se hace infinitesimalmente delgada,
obtenemos:
dφ/dx = -kφ.
Esta ecuación diferencial tiene como solución la función:
φ(x) = φoe-kx
Esta relación se conoce como la Ley de Lambert. Notar que lo que se pierde en intensidad es
la suma de las pérdidas a lo largo del camino, pero es erróneo pensar que entonces uno podría
sencillamente considerar que para cualquier cuerpo arbitrariamente espeso la absorción es
proporcional a su espesor: esto se debe a que si en la primera capa se absorbe una cierta
fracción de la luz incidente, le llega menos luz a la segunda capa; si la misma fracción de luz es
absorbida por la segunda capa, la pérdida representa un cambio absoluto menor que en la
capa anterior. Aún menos luz llega a la tercera capa, así que la cantidad que se absorberá
decrece ulteriormente, y así sucesivamente. La Figura 3.1A ilustra este proceso asumiendo que
cada 2 capas laminares del medio absorbente se pierde la mitad de los fotones (las cruces
verdes representan los fotones que dejan de existir al ser absorbidos, las flechas rojas los que
sobreviven y siguen adelante). De allí la necesidad de calcular por separado en cada capa
delgada, integrando la ecuación diferencial (dφ/dl = -kφ): el resultado que se obtiene nos dice
que la cantidad de luz que emerge (o su complemento, la que ha sido absorbida) no se
relaciona linealmente sino exponencialmente con el espesor del medio que la luz ha de
atravesar (Figura 3.1B).

A su vez, la absorción de un medio depende de la absorción


característica de las moléculas individuales que están
absorbiendo luz, es decir, el coeficiente molar de extinción, ε.
Por supuesto que entre mayor el número de dichas moléculas
por unidad de volumen, mayor la absorción; así que la absorción
depende, además, de la concentración de las moléculas
absorbentes, C. Juntando estas dos consideraciones,
obtenemos la Ley de Beer: K = Cε, y combinando las dos leyes,
obtenemos una expresión general para la absorción por un
medio en el cual la luz es absorbida por moléculas con
coeficiente de extinción ε, presentes a una concentración C:
φ(x) = φoe-Cεx
ε ∅ M-1cm-1, para que el término exponencial resulte sin
dimensión. Este enunciado se conoce como la ley de Beer-
Lambert. De esta ley se desprende que, conociendo ε y el Figura 3.1
camino óptico, x, uno puede calcular la concentración de una

64
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

sustancia:
φ/φo = e-Cεx ⇒ ln(φ/φo) = -Cεx, i.e. C = -ln(φ/φo)/εx.
Por ejemplo, supongamos que una sustancia tuviera ε = 10000 M-1cm-1, y, medida en una
cuveta de 1 cm, la luz disminuyera al 10% de la intensidad incidente. Entonces:
C = -ln(1/10)/(10000×1) = 2.3/10000 M = 230 μM.
Viceversa, midiendo la absorbancia de una sustancia, podríamos averiguar el coeficiente de
extinción conociendo su concentración. Por consiguiente, un instrumento capaz de medir la
absorción (un fotómetro) es de gran utilidad en un laboratorio bioquímico.

En general, la absorción no es igual para toda longitud de onda, λ, y por lo tanto ε no es un


simple número, sino una función de λ, i.e. ε(λ). La variación del coeficiente de extinción con la
longitud de onda da origen al espectro de absorción, una representación gráfica de la absorción
(en el eje Y) en función de la longitud de onda (en el eje X). Su contraparte es el espectro de
transmisión, el cual se obtiene graficando la fracción de luz transmitida (i.e. 1-fracción
absorbida) en función de la longitud de onda. El espectro
de absorción es característico para distintas moléculas,
lo cual lo hace muy útil para identificar la presencia de
una cierta sustancia en un compuesto. Por ejemplo, la
gráfica de la Figura 3.2 ilustra el espectro de absorción
de la hemoglobina, la molécula que transporta oxígeno
en la sangre (los dos trazos corresponden a la forma
oxigenada y de-oxigenada, respectivamente). La
identificación de esos picos característicos en el
espectro de absorción obtenido de una muestra puede
Figura 3.2 permitir detectar la presencia de sangre en dicha
muestra.

Un medio que selectivamente absorba ciertas longitudes de onda hace que la composición
espectral de la luz que lo atraviese se altere. Por ejemplo, si la luz incidente es blanca (i.e.
compuesta por una mezcla balanceada de todas las longitudes de onda visibles) y el medio
absorbe solamente ondas menores que un cierto límite, digamos 580 nm, lo que emerge es un
rayo que se percibe como rojo (λ>580 nm). Este es el principio por el cual se genera luz de
colores con los tipos más comunes de filtros cromáticos.

En lo que se ha discutido, el coeficiente de extinción y la cantidad de luz absorbida se han


presentado como variables continuas. Sin embargo, hay que recalcar que la absorción de un
fotón es un evento del todo-o-nada: si el material por el cual transita absorbe el fotón, éste deja
de existir y toda su energía es transferida a la molécula que lo absorbió; si no, el fotón sigue sin
haber perdido nada de su energía. Pero tampoco se trata de un evento determinista, sino
aleatorio: a una cierta longitud de onda hay una cierta probabilidad de que un fotón sea
absorbido (los que lo son, dejan de existir, los que no siguen su existencia).
Macroscópicamente, según que tan alta o baja sea esta probabilidad en diferentes materiales,
obtenemos un continuo de valores posibles para el coeficiente de extinción, pero éste
representa el promedio de un gran número de eventos del todo-o-nada.

Efectos de la luz absorbida


La absorción es esencial para toda instancia en la cual la luz ha de ejercer un cierto efecto
sobre la materia. Esto incluye todo acercamiento para cuantificar la luz: sin la absorción que

65
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

transfiera la energía del fotón al medio por el cual transita, no habría rastro de su paso o de su
existencia, y sería imposible detectarla. Por lo tanto, todo medidor de energía radiante debe
poder absorber la luz a las longitudes de onda de interés; en general, sería deseable que la
absorción fuera total, con lo cual el problema de la medición se reduciría a determinar cuanta
energía ha sido transferida al instrumento. Pero en la práctica el detector tiene su característico
espectro de absorción, y uno ha de proceder por bandas limitadas, midiendo cuanta energía ha
sido absorbida en cada banda, corrigiendo luego por la fracción que no ha sido absorbida.
Los efectos de los fotones absorbidos se manifiestan de distintas formas, dependiendo de su
energía y de la naturaleza de las moléculas que los absorben. Estos efectos dan origen a
diferentes maneras de detectar la luz, y de cuantificar su intensidad.
• Mediciones bolométricas. Si la energía de los fotones incidentes es demasiado baja para
desencadenara cambios químicos en el material que los absorbió, la energía transferida se
ha de convertir en calor (es decir, manifestarse en una mayor agitación térmica de las
moléculas, bien sea en forma de vibraciones o rotaciones). Entonces, una manera de medir
la radiación es tener un cuerpo negro, i.e. cuya absorción sea total a todas las longitudes de
onda, y determinar los cambios de temperatura que sufre al ser expuesto a la luz. Este
instrumento, que se conoce como termopila, permite mediciones de gran precisión, y es
especialmente idónea para luz de longitudes de onda relativamente largas. Algunos
organismos que son sensibles a luz infrarroja (ciertas serpientes del desierto y escarabajos
que viven en cuevas) la detectan debido a la exquisita sensibilidad de algunas de sus
células a diminutos cambios de temperatura.
• Detección fotoquímica. Por otra parte, los fotones absorbidos podrían tener suficiente
energía para gatillar algún cambio estructural: la mayoría de los organismos biológicos
utilizan una detección fotoquímica, mediada por moléculas cuyas características son
alteradas por la luz de una manera que las haga propensas a sufrir ciertas reacciones
químicas, pero sin llegar a ser ionizadas (i.e. sin la pérdida de un electrón). En el caso del
ojo la luz es absorbida por un fotopigmento llamado rodopsina, cuyo coeficiente de
extinción es muy alto (≈40000 M-1cm-1), y está presente en alta ‘concentración’ (>108
moléculas/célula). En los bastones, el fotopigmento absorbe luz particularmente a λmax ≈500
nm (lo que un observador humano llamaría luz verde). Cabe mencionar que la rodopsina es
una molécula protéica, y las proteínas de por sí no
absorben luz en el rango visible: para adquirir esa
capacidad, la parte protéica de la molécula, llamada
opsina, se liga a otra molécula no protéica, un grupo
prostético que absorbe luz visible y se denomina el
cromóforo. El panel superior de la figura 3.3
representa esquemáticamente la opsina como un
‘manojo’ de 7 cilindros, que representan los dominios
que cruzan la membrana formada por una bi-capa
lipídica. En el centro de la proteína se encuentra el
cromóforo (constituido por un anillo aromático y una
cadena de hidrocarbono), En el caso del ojo, el Figura 3.3
cromóforo es un derivado de la vitamina A (aldehído
de vitamina A, llamado 11-cis-retinal); la absorción de un fotón por el cromóforo altera su
conformación (lo foto-isomeriza, cambiándolo a 11-trans-retinal; ver panel inferior de la
Figura 3.3) lo cual inicia una series de eventos bioquímicos que señalizan la recepción de la
luz. Posteriormente, otro ciclo complejo devuelve el fotopigmento a su conformación inicial,
permitiéndole estar listo para responder nuevamente a la llegada de otro fotón.

66
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

• Mediciones fotoeléctricas. Finalmente, una forma alternativa de detectar luz es utilizando


materiales que sufran un cambio más drástico al absorber fotones, y pierden un electrón,
quedando por lo tanto en estado ionizado. Este el efecto fotoeléctrico (descubierto por
Einstein), y por supuesto es más propenso a ocurrir con radiación electromagnética de alta
energía. Sin embargo, hay materiales (compuestos de cesio-antimonio, principalmente) en
los cuales los electrones en los orbitales externos están débilmente asociados con sus
respectivos núcleos; el impacto energético de un fotón absorbido, aún de longitud de onda
visible, los puede liberar. Esto se puede utilizar de diferentes maneras. En un caso, el
material en cuestión se mantiene a un potencial negativo (fotocátodo) respecto a otra placa
cuyo potencial es más positivo (ánodo) y que va a atraer los electrones liberados. Midiendo
la corriente eléctrica constituida por el fluir de estos electrones se tiene una medida de los
fotones incidentes. La eficiencia del proceso de absorción y liberación de electrones se
conoce como el coeficiente de eficiencia cuántica. Usualmente, aún con una relación
fotón:electrón óptima (1:1), el efecto es insuficiente para observar corrientes conspicuas:
por ejemplo, una luz de mediana intensidad puede tener 1014 fotones⋅s-1⋅cm-2, así que, si un
fotocátodo de 1 cm2 la absorbiera con eficiencia del 100% la corriente sería de 1014
electrones/segundo. Puesto que hay 6.24 × 1018 cargas elementales en 1 Coulomb, quiere
decir que la corriente generada sería ≈ 16 μA (millonésimas de Amperio) en el más
favorable de los casos. Por consiguiente, especialmente cuando la luz es tenue, es
deseable interponer algún estadio de amplificación para poderla detectar confiablemente.
Para este propósito, el electrón desplazado por el fotón incidente es acelerado por un
campo eléctrico, colisiona con una segunda placa (‘dínodo’) en la cual, gracias a la energía
adquirida por el fotón acelerado, el
impacto libera varios electrones
secundarios, que a su vez son
acelerados por un campo eléctrico
y colisionan con otro dínodo, y así
sucesivamente, generando una
corriente final considerablemente
agrandada. Este aparato,
ampliamente utilizado en física y
biomedicina, se denomina
fotomultiplicador, y se ilustra en la Figura 3.4
Figura 3.4. En otros sensores
fotoeléctricos, en cambio, se
explota el hecho de que los electrones desplazados por la llegada del fotón dejan atrás una
carga electropositiva. Si se deja acumular esta carga durante un cierto tiempo de
exposición a la luz (el intervalo de integración) y luego se mide el potencial resultante, se
tiene una determinación de la cantidad de luz que ha incidido. Este principio (y variaciones
sobre el tema) se ha utilizado ampliamente en la fabricación de sensores para cámaras
digitales (e.g. CCD).

67
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

4. Óptica Geométrica
Además de la absorción, existen otras dos formas de interacción entre luz y materia, la
reflexión y la refracción, las cuales son relevantes a los tópicos que trataremos en esta revisión.
A diferencia de la absorción, éstas no implican la aniquilación del fotón, sino solamente un
cambio en su dirección, sin pérdida de energía.
Reflexión
Ésta se da cuando un rayo de luz que se propaga por un cierto medio encuentra la interfase
con un medio diferente y no lo penetra, sino que rebota. Fenomenológicamente, se puede
hacer una distinción entre dos clases de superficies reflectivas: reflexión especular ocurre
cuando la superficie en la cual rebota el haz de luz es muy lisa, i.e. tiene ‘irreguaridades’ que
son pequeñas, comparadas con la longitud de onda de la luz
utilizada. Si un rayo llega a una superficie plana reflectiva,
rebota con una trayectoria que forma un ángulo, con respecto
a la normal de la superficie, que es igual al ángulo que forma
el rayo incidente: θr = θi (Figura 4.1A). Un espejo es el
ejemplo típico. Si en cambio la superficie fuera áspera, cada
uno de los rayos paralelos en el haz se choca con una
superficie cuya orientación local es distinta (a escala
microscópica), y por lo tanto el ángulo de reflexión va a ser
distinto para distintos rayos; la dispersión que resulta hace
que la luz rebotada sea difusa (por ejemplo, una hoja de
papel). Se puede demostrar que en un difusor perfecto la
intensidad de la luz que rebota es máxima en la dirección
normal a la superficie, sin importar el ángulo de incidencia, y
decrece en otras direcciones con el coseno del ángulo con la
normal (Figura 4.1B). Cuando la reflexión no se da de manera
Figura 4.1
igual para todas las longitudes de onda, sino que alguna
banda selecta es reflejada preferencialmente, el material adquiere características cromáticas: el
color que vemos en cualquier objeto opaco (no transparente) es precisamente debido a que,
pese a ser iluminado con una luz blanca, solo rebota ciertas longitudes de onda, mientras que
absorbe las otras. El principio de conservación de energía exige que podamos dar cuenta de lo
que le sucedió a la totalidad de la luz incidente: si no toda la luz rebota de un objeto, debe ser
que una parte bien sea ha sido absorbida o bien ha sido transmitida por ese objeto.

El principio de distancia mínima


El comportamiento de la reflexión especular (es decir, la
igualdad de los ángulos θr y θi) se puede predecir asumiendo
que la trayectoria de todo rayo reflejado que viaje de un punto
A hasta un punto B utiliza un recorrido cuya longitud es la
menor entre todas las posibles trayectorias rectilíneas que
reboten del espejo. Esto se puede deducir de una simple
construcción geométrica ilustrada en la Figura 4.2:
consideremos un rayo que emana del punto A, dirigido hacia
el punto P, el cual se encuentra en la superficie de un reflector
plano. Por la ley del espejo su trayectoria al rebotar lo llevará
al punto B (θr=θi). Hagamos la ‘reflexión’ de este segmento PB
Figura 4.2
con respecto al plano horizontal, obteniendo el segmento PB’,
de idéntica longitud. Este es co-lineal con la continuación del

68
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

rayo incidente, AP, debido a que α+θ = 90°, por lo tanto 2×α+θr+θi = 180°. Ahora consideremos
cualquier otra trayectoria alternativa que fuera de A hasta B, rebotando por otro punto P’ en la
superficie del espejo; el tramo P’B tendría la misma longitud que su reflexión, P’B’. Pero
evidentemente AP’ y P’B’ no son co-lineales, y, como la distancia menor entre dos puntos es la
línea recta, esta nueva trayectoria entre A y B necesariamente será más larga que la original
que pasaba por P. Es decir, la más corta es aquella para la cual se cumple que θr = θi.

Formación de imágenes por espejos curvos


Si, en vez de un plano, la superficie de un reflector especular es curva, distintos rayos se
chocan contra la superficie con un ángulo diferente, y por lo tanto serán desviados en
direcciones diferentes. Si la forma del reflector fuera una parábola, todos los rayos de un haz
paralelo (‘colimado’) serían enfocados en un solo punto, el cual se encuentra a una distancia f
del espejo. Desde el punto de vista del principio de distancia mínima se puede considerar el
haz de rayos paralelos como si emanaran de un solo punto al infinito. La parábola es el lugar
geométrico de todos los puntos equidistantes de una línea (llamada la directriz) y un punto
(llamado el foco); es fácil demostrar que si se toma una
línea arbitraria paralela a la directriz, entonces para
cualquier punto sobre la parábola las distancias que lo
separan del foco y de la línea suman una constante;
imaginando el caso particular en el cual la línea L’
perpendicular al haz pasa por el foco (F, en la Figura
4.3A), todos los rayos llegarían hasta esta línea habiendo
recorrido la misma distancia desde la fuente. Puesto que
el camino faltante hasta la parábola y el tramo final desde
rebotar de la parábola hasta el punto focal también es
igual para todos, todos los caminos serían equivalentes en
distancias (i.e. todas son trayectorias viables). Esto se ve
porque el rayo axial R1 rebota del punto P1 y vuelve a F
habiendo recorrido una distancia 2×a. El rayo (arbitrario)
R2 llega al punto P2 sobre la parábola, el cual dista x+a de
la línea directriz (L) y por lo tanto también del foco (por
definición de una parábola). El recorrido desde la línea L’
al punto P2 es a-x (x siendo la distancia entre P2 y la
tangente al ápex de la parábola (línea sólida); por lo tanto,
la suma de los dos recorridos es de nuevo 2×a ([a+x] + [a-
Figura 4.3
x]). Este razonamiento indica que todas esas trayectorias
son equivalentes en cuanto a distancia, y por lo tanto
igualmente viables. Si los rayos que inciden sobre el espejo parabólico no son paralelos
(colimados) sino emanan de un punto y por lo tanto son divergentes, también se enfocarán en
un punto luego de haber rebotado del espejo, pero este punto se encontrará a una distancia tal
que:
1/do + 1/di = 1/f
Donde do= distancia del espejo al objeto, di= distancia de la imagen al espejo, según ilustra la
Figura 4.3B. Si el punto luminoso (el objeto) no esta en el eje central del espejo parabólico (el
eje óptico) su imagen se formará en el mismo plano pero desplazada lateralmente. Puesto que
un objeto puede considerarse como una colección de puntos, de cada uno de los cuales emana
luz, si la luz proveniente de cada uno de los puntos del objeto es enfocada en algún punto en el
mismo plano (el plano focal), se forma una imagen del objeto. Este es el principio por el cual
funciona un telescopio astronómico.

69
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Aunque solo un espejo perfectamente parabólico cumpliría estrictamente el requisito de enfocar


un haz colimado en un punto, el mismo comportamiento aproximado se obtiene con un espejo
esférico (el cual es mucho más fácil de fabricar), siempre y cuando uno se pueda ceñir a los
rayos cercanos al eje central del espejo (‘rayos paraxiales’), mientras los de la periferia se
desvían significativamente. En este caso podemos enunciar la ley de formación de imágenes
por un espejo curvo como:
1/do + 1/di = 2/r , donde r es el radio de curvatura del espejo
Refracción
Naturaleza de una interfase refractiva. Si el material al cual llega la luz no es reflectivo sino
transparente, entonces el rayo no rebota sino penetra el nuevo medio, pero la trayectoria podrá
verse alterada (i.e. no sigue necesariamente la misma recta, como haría un rayo que se
propaga por un medio homogéneo). La figura 4.4 muestra un rayo incidente (flecha negra a la
izquierda) que incide oblicuamente sobre la superficie de un material transparente, y su ruta se
desvía del camino rectilíneo (línea puntuada). El cambio de trayectoria está descrito
cuantitativamente por la ley de Snell:
Sin(θi)/ Sin(θr) = N21 = λ1/λ2
Donde θi y θr son los ángulos que forma la dirección del rayo incidente y el rayo refractado,
respectivamente, con respecto a la normal a la interfase entre los dos medios (es decir la
perpendicular al plano, línea roja). El número N21 es
el índice relativo de refracción, y refleja la velocidad
relativa de propagación de la luz en los dos medios.
Notar que si el rayo se propaga de un medio menos
denso (refractivo) a uno más denso, el ángulo de
propagación se alterará hacia la dirección de la
normal, y viceversa. Consideremos unos casos
representativos para desarrollar un sentido intuitivo
del comportamiento de un rayo refractado. En la
Figura 4.5 se presentan tres instancias de rayos de
luz que inciden sobre la interfase con un medio de
mayor índice de refracción, bien sea Figura 4.4
perpendicularmente o con un ángulo
progresivamente más oblicuo. En el caso de
un rayo perpendicular a la superficie de la
interfase con el nuevo medio (panel A), el
rayo seguirá derecho sin alterar su rumbo (si
θi = 0° entonces Sin(θi) = 0 pero Sin(θi) =
N21Sin(θr) ⇒ Sin(θr) = 0 i.e. θr = 0). Si el rayo
incidente en cambio forma un ángulo de
aproximadamente 50° con respecto a la
normal de la interfase, el rayo refractado se
desviará significativamente de la trayectoria
rectilínea, y formará un ángulo de 30° (panel
B). En el panel C, el ángulo de incidencia es
aún mayor (75°), y el grado de desviación es
también más pronunciado.
Figura 4.5

70
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Principio de Fermat de tiempo mínimo


Si consideramos el punto inicial y el punto final del rayo de luz en la Figura 4.6, evidentemente
el recorrido, al no ser rectilíneo, no es el camino más corto entre los dos puntos; en otras
palabras, no se cumple el principio de distancia mínima que se observa en un espejo. Sin
embargo, hay una consideración que abarca ambos casos: el físico y matemático Fermat
demostró que el
comportamiento de un rayo
refractado se puede predecir
postulando que el camino que
la luz toma al propagarse por
dos medios distintos es aquel
que minimiza el tiempo de
propagación. Esto implica una
optimización, en la cual se
acorte el recorrido por el medio
que enlentece más la luz, a
costas de un recorrido más
largo por el medio en el cual la
velocidad de propagación sea
mayor. El postulado de Fermat
realmente también incluye al Figura 4.6
de la distancia mínima
previamente enunciado para espejos, ya que, si un rayo rebota de un reflector (y por lo tanto
sigue propagándose por el mismo medio), la trayectoria que minimiza la distancia también
minimiza necesariamente el tiempo de viaje. Cuantitativamente, el principio de tiempo mínimo
predice exactamente la ley de Snell, la cual se puede igualmente derivar de las ecuaciones de
Maxwell, pero su derivación excede el propósito de estas notas.

Refracción y el principio de Huygens


A continuación se presenta una ‘explicación’ más fácil de comprender intuitivamente, la cual
está basada en óptica de ondas. Existe un principio formulado por el físico y matemático
holandés Huygens, que ha sido de gran utilidad para comprender una variedad de fenómenos
ópticos (por ejemplo, la difracción). Según su enunciado, la propagación de una onda luminosa
se puede reconstruir considerando cada punto individual de un frente de onda como el origen
de una onda esférica, y formando el nuevo frente de
onda tomando la envolviente de dichas ‘mini’ondas’.
En la Figura 4.7 se muestra un haz de luz cuyos rayos
paralelos están representados por flechas negras;
desde la teoría ondulatoria se puede pensar en unas
ondas planas, cuyos frentes (las ‘crestas’, indicadas
por las líneas verdes) son paralelos entre sí, y
perpendiculares a la dirección de propagación. El
perfil de las oscilaciones está indicado por la curva
sinusoidal a un lado. En cada frente, cada punto puede
considerarse como el origen de una onda esférica; en
el diagrama se consideraron unos pocos puntos y se
ha dibujado la onda que se irradia desde esos puntos,
habiendo recorrido un ciclo de oscilación. La tangente
a esos círculos forma el nuevo frente. La separación Figura 4.7
entre éstos, es decir, la distancia entre las líneas

71
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

verdes, depende de que tanto las ondas elementales hayan avanzado durante el intervalo
necesario para completar un ciclo de oscilación. Este haz de luz incide oblicuamente sobre la
superficie plana de un medio transparente en el cual la velocidad de propagación es menor
(mayor índice de refracción). Consideremos las ondas elementales que emanan de cada punto
de incidencia de los diferentes rayos en la interfase. El rayo A, teniendo que recorrer menos
camino para alcanzar la interfase, llega antes que los otros. En el tiempo de un ciclo, cuando el
rayo B también llega a la interfase, se ha por lo tanto generado una onda esférica en el nuevo
medio, pero ésta es de menor diámetro debido a la reducida velocidad de propagación. Un ciclo
más tarde ésta habrá avanzado al segundo círculo concéntrico, mientras se ha completado el
primer círculo para el rayo B y simultáneamente el rayo C alcanza la interfase. Y así
sucesivamente. Ahora tomemos la tangente a estos círculos para cada ciclo, formando los
frentes de onda que se propagan en el nuevo medio. Debido al menor diámetro de las ondas
esféricas, estos frentes tienen una diferente inclinación respecto a los que avanzaban por el
medio original. La dirección de propagación, la cual es perpendicular a los frentes, muestra por
lo tanto el cambio de rumbo del haz, es decir la refracción.

Lentes
En lugar de usar una superficie plana para refractar la luz por un medio como el vidrio, se
puede arreglar una curvatura de la superficie de tal manera que distintos rayos que emanan de
un punto dado al llegar al vidrio encuentren un ángulo de incidencia distinto, que los haga
doblar diferencialmente. Esta es la esencia de un lente. La Figura 4.8 muestra tres ejemplos; en
cada caso los rayos del haz paralelo que se dirigen al centro del lente (el ‘eje óptico’) inciden a
90° y por lo tanto siguen derecho sin ser desviados, pero los que llegan a la periferia
encuentran una superficie más y más oblicua, según la
distancia desde el centro, y por consiguiente sufren
desviaciones progresivamente mayores. Con una cierta forma
de la superficie curva, el resultado es que todos los rayos que
emergen al otro lado del lente llegan a cruzarse en un mismo
punto (el punto focal) cuya distancia desde el lente se
denomina la longitud focal de lente y se simboliza con la letra
‘f’. Entre mayor la curvatura del lente, más cerca el punto
donde convergen los rayos (menor la distancia focal f). Esto
define el poder refractivo (o dióptrico) de lente. Las
trayectorias de los rayos de luz no tienen una direccionalidad
intrínseca (la ley de Snell es simétrica); por lo tanto,
invirtiendo la dirección, podemos decir que la longitud focal
también representa la distancia del lente a la cual, si se
coloca una fuente luminosa puntual, los rayos emergen
paralelos al otro lado (i.e. forman un rayo ‘colimado’). Figura 4.8

Si el objeto puntual no se coloca a la distancia focal, sino a una distancia mayor que f los rayos
no emergen paralelos al otro lado, sino se enfocan en un punto, como ilustra la figura 4.9B y C.
Para un lente delgado (el caso más simple), la relación se puede cuantificar de la siguiente
manera:
1/do + 1/di = 1/f
Donde do= distancia del lente al objeto, di= distancia de la imagen al lente. Notar que, puesto
que los recíprocos de la distancia al objeto y la distancia a la imagen deben siempre sumar el
recíproco de la distancia focal (que es una constante para cada lente), si do crece di debe
decrecer, y viceversa. Las dos distancias serán iguales (do= di= d) si d = 2f. Los dos casos

72
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

límite se dan cuando bien sea do o di (uno de los


dos) es igual a f, en cuyo caso el otro es infinito (los
rayos serán paralelos). Posteriormente
consideraremos que pasa si uno acerca el objeto al
lente a una distancia aún menor que f.

Debido a que el enfocar un punto-objeto a un


punto-imagen se aplica para cada uno de los
puntos en un plano ubicado a una distancia dada
del lente, se puede formar al otro lado del lente (el
‘plano focal conjugado’) una imagen de un objeto.
Figura 4.9 En estas condiciones la imagen es invertida,
respecto al objeto, y se suele llamar una imagen
real (si uno interpusiera una pantalla en ese plano, uno efectivamente vería la imagen
proyectada sobre la pantalla). La magnificación de la imagen (el tamaño de la imagen, relativo
al del objeto que representa) está dada por el cociente entre la distancia lente-imagen y la
distancia al lente-objeto:

M = (di – f)/f = di/do


Estas dos relaciones pueden fácilmente deducirse de un razonamiento geométrico, ilustrado en
la Figura 4.10. Consideremos un objeto, representado por la flecha roja a la izquierda.
Sabemos que de cada punto del objeto emanan rayos en todas las direcciones, sólo algunos
de los cuales serán captado por el lente. En el panel superior de la figura tomamos en cuenta
solamente el rayo axial que emana del extremo inferior del objeto; éste incide en el lente
perpendicularmente (por estar en el eje
óptico) y por lo tanto no sufre desviaciones en
su trayectoria. Ahora, de la punta de la flecha
consideremos dos de los rayos (i) el que es
paralelo al eje óptico y que por lo tanto, al
emerger al otro lado del lente se dobla,
cruzando el eje a una distancia f (por
definición de distancia focal de un lente!). (ii)
el que pasa por el punto focal del lente al
mismo lado, y que por lo tanto debe emerger
paralelo al eje óptico (de nuevo, debido a la
definición de distancia focal). El punto en el
cual estos dos rayos se interceptan está
necesariamente en el plano focal de la Figura 4.10
imagen (ese es el lugar donde rayos que
emanan de un mismo punto vuelven a re-encontrarse al otro lado del lente). Los dos triángulos
rectángulos con el ángulo ‘φ’ marcado son similares (si dos de sus ángulos son iguales, el
tercero necesariamente lo será también). El cateto a lo largo del eje óptico del triángulo de la
izquierda tiene longitud f , el de la derecha tiene longitud di- f ; su tamaño relativo, por lo tanto,
es (di- f)/f. Ese debe ser también el tamaño relativo de los dos catetos verticales (por ser
triángulo similares), y puesto que el de la izquierda tiene la misma longitud que el objeto (el
rayo superior es paralelo al eje óptico) quiere decir que lo mismo se aplica a la imágen con
respecto al objeto, lo cual, por definición, es la magnificación. Alternativamente, podemos
considerar el panel de abajo de la Figura 17 y notar que los dos triángulos con el ángulo ‘θ’
marcado también son similares, y que la razón entre la longitud de sus catetos horizontales es
di/do. Por el mismo razonamiento, ese será también el tamaño relativo de la imagen con

73
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

respecto al objeto, es decir la magnificación. Notar que al seguir las trayectoria de los rayos
que se originan de dos puntos diferentes del objeto se entiende porque una imagen real el
invertida.

Consideremos un par de aplicaciones: a partir de la relación 1/do+1/di = 1/f, es evidente que al


conocer el valor de dos de las tres variables, la tercera se despeja fácilmente. Por ejemplo, si
do y di se conocieran, entonces para encontrar f primero encontraríamos el mínimo común
denominador del lado izquierdo:
(do+di)/ do×di = 1/f ⇒ f = do×di / (do+di)
Por ejemplo, si do = 50 mm y di = 150 mm, entonces f = 7500/200 = 37.5 mm. Un lente con esta
distancia focal enfocaría perfectamente a las distancias prescritas. La imagen resultará
magnificada por un factor M = di/do = 150/50 = 3

De una manera similar, si en cambio nos dijeran que do = 20 mm y f = 4 mm, entonces para
encontrar di:
di = do×f / (do- f)
⇒ di = 20×4/(20-4) = 80/16 = 5 mm. M = di/do = 5/20 = 0.25

Como empalma el principio de tiempo mínimo de Fermat con el hecho de que con un lente se
puede enfocar un punto luminoso en un punto-imagen? Evidentemente, en este caso para ir de
un punto al otro, los rayos de luz toman muchos caminos, no uno solo (de lo contrario no habría
muchos rayos que nacen del mismo punto y vuelven a converger a un mismo punto). Por lo
tanto debe ser que los distintos recorridos requieren exactamente el mismo tiempo, lo cual los
hace todos igualmente viables: el rayo que viaja desde el objeto puntual pasando por el centro
de un lente convexo tiene menos recorrido en el aire, pero luego debe cruzar la porción más
espesa del lente, por el cual se propaga más lentamente. Los rayos que emanan del mismo
punto pero se dirigen a la periferia del lente tienen en cambio un recorrido mayor por el aire,
pero este se compensa luego por tener que atravesar solo la parte más delgada del lente ⇒ Si
no hay un camino más rápido que escoger entre los dos puntos, la luz ‘los toma todos!` Si
calculáramos los tiempos totales para los distintos caminos, tomando en cuenta las varias
distancias y la velocidad de propagación en el aire y en el vidrio, llegaríamos exactamente a la
misma conclusión que se desprende de la ley de refracción: al diseñar un lente que iguale el
tiempo de viaje para todos los distintos rayos, éste resulta teniendo la misma forma que se
deriva de la aplicación de la ley de Snell.

Imágenes virtuales
Al colocar un objeto puntual más cerca al lente que la distancia focal, los rayos divergen al
cruzar el lente, con trayectorias como si provinieran de una imagen del objeto ubicada al mismo
lado que el objeto mismo (‘imagen virtual); esta
imagen no es invertida. Es decir, no se forma
una imagen ‘verdadera’, sino que un observador
ubicado al otro lado del lente (respecto al
objeto) vería el objeto mismo como si estuviera
a una distancia diferente a su posición real (lo
mismo ocurre si uno utiliza un lente cóncavo,
que se suele llamar lente divergente). La Figura
4.11 muestra esta situación. Un ejemplo familiar
es la impresión que puede dar una piscina de Figura 4.11

74
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ser más panda que su verdadera profundidad: los rayos que emanan del fondo de la piscina
divergen ulteriormente al cruzar la interfase agua-aire, y un observador vería el fondo como si
estuviera más cerca de la superficie de lo que realmente es.

Dioptrías
Como ya se discutió, para un lente convexo (convergente) a mayor curvatura de la(s)
superficie(s), mayor la desviación de los rayos y por lo tanto menor la distancia focal. En óptica
fisiológica se suele utilizar, en lugar de la distancia focal, otra medida para indicar el poder
refractivo de un lente: este es el recíproco de la distancia focal medida en metros, y su unidad
es la dioptría. Por lo tanto, un lente que tuviera distancia focal f = 50 cm (= 0.5 m) tendría un
poder de 1/0.5 = 2 dioptrías. Las dioptrías son las unidades comúnmente utilizadas en
optometría. Si el lente fuera divergente, el valor sería negativo.

Sistemas ópticos complejos


Rara vez un aparato óptico está constituido de un solo lente. A veces se trata de varios lentes o
hasta decenas de lentes. Como manejar esa situación? Simplemente considerándolos uno por
uno. Miremos la Figura 4.12; si un objeto estuviera colocado a una distancia do del primer lente
del sistema, calcularíamos donde se
formaría la imagen (obviamente,
basándonos en la distancia focal del
primer lente). Luego consideraríamos el
segundo lente, y donde formaría la
imagen de la imagen (es decir, tomando
la primera imagen como si fuera el
objeto); y así sucesivamente. A través de
múltiples aplicaciones de la misma
fórmula, llegaríamos a determinar donde
se formaría la imagen final y cual sería
su magnificación (esta última viene Figura 4.12
siendo el producto de las
magnificaciones individuales).

Profundidad de campo
Dos lentes pueden tener la misma curvatura, pero diferente diámetro. Por supuesto, la distancia
focal será la misma, pero los dos lentes diferirán en un aspecto importante: para un objeto
puntual ubicado a una distancia do, el cono de rayos que emanan del objeto y que serán
captados por el lente es necesariamente más estrecho si el diámetro es menor. La apertura
numérica (N.A.) de un lente que enfoca un objeto se define como N.A. = N⋅sinθ, N siendo el
índice de refracción del medio y θ es ½ del ángulo de aceptación de los rayos de luz que se
originan de un punto. Para una distancia dada del objeto, N.A. depende evidentemente del
diámetro del lente. Una mayor apertura numérica confiere al lente mayor luminosidad, ya que
implica una fracción más grande de luz captada. La apertura numérica también repercute en lo
que sucede con la imagen de objetos que se encuentren más cerca o más lejos del plano al
cual se está enfocando. La Figura 4.13 ilustra este concepto: dos objetos puntuales, o1 y o2 se
encuentran a diferentes distancias de un lente (mayor que la longitud focal del lente para que
ambas imágenes sean reales); sus respectivas imágenes, por lo tanto, también se formarán a
diferentes distancias al otro lado del lente (i1 y i2). Supongamos que el plano imagen de interés
(donde ‘interceptamos’ la imagen, poniendo un pantalla, o el sensor de una cámara) fuera i2
donde se enfoca el objeto o2. Nos preguntamos como se verá en ese plano la imagen del

75
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

objeto que no está en foco (i.e. o1). En la parte


superior de la figura se examina el caso de un
lente de gran apertura numérica, en la inferior el de
un lente de la misma distancia focal pero menor
apertura numérica (menor diámetro). En ambos
casos los rayos que emanan de o2 (líneas rojas)
convergen a un punto, mientras que los de o1
(líneas azules) han convergido prematuramente
(por estar el objeto más lejos del lente, recuerden
la relación 1/f = 1/do + 1/di) y por consiguiente en el
plano de i2 los rayos están de nuevo divergiendo.
Pero hay una diferencia: si el cono de los rayos
‘desenfocados’ es estrecho (i.e. los captados por el
lente de pequeña apertura numérica) entonces su Figura 4.13
área de sección en el plano imagen será pequeña
(disco azul del panel inferior), y por lo tanto no se verá muy borroso. En cambio, cuando la
apertura numérica es grande el cono converge y diverge más abruptamente, y por consiguiente
al interceptar la imagen no en su punto focal se generará un disco más grande (disco azul del
panel superior), es decir, una imagen más difusa y desenfocada. La conclusión es que
alterando la apertura numérica (como por ejemplo, manipulando el diafragma del objetivo de
una cámara fotográfica) se puede variar la profundidad de campo, que es el grado en el cual
objetos más cercanos o más lejanos del plano que se está enfocando todavía retengan una
buena nitidez. Esto lo saben muy bien los fotógrafos, y cuando desean resaltar un sujeto con
respecto al fondo abren mucho el diafragma del objetivo, haciendo que solo el sujeto esté bien
enfocado y lo demás se torne difuso; viceversa, cuando se quiere tener razonablemente bien
enfocados varios objetos que se encuentren a diferentes distancias, se cierra el objetivo lo más
posible.

Aberración esférica
La curvatura de un lente que esté diseñado para enfocar exactamente todos los rayos de un
haz colimado en un solo punto está descrita por una función de cuarto orden. A menudo, la
fabricación de lentes, al igual que en el caso de espejos, utiliza una aproximación esférica, la
cual provee un desempeño excelente para rayos paraxiales, pero los rayos periféricos no son
enfocados en el mismo plano, y por lo tanto contribuyen, en el plano focal, una luz difusa que
degrada la calidad de la imagen. Este fenómeno se denomina aberración esférica y ocurre
frecuentemente en elementos ópticos de sistemas biológicos, donde la forma del lente es a
menudo esférica, por estar determinada por la isotropía del campo de fuerzas que lo moldean
durante el desarrollo (por ejemplo, lo mismo ocurre con la tensión superficial de una gota, o con
la agregación de material rodeado por un medio líquido). La Figura 4.14 muestra lo que sucede
con un lente cuya curvatura en ambas caras se
asemeja a una porción de la superficie de una
esfera. Los rayos centrales (flechas negras) se
enfocan todos en el mismo punto, pero a medida
que los rayos se alejan del eje óptico (flechas
grises oscuras y claras) encuentran un ángulo de
incidencia más y más pronunciado que lo
necesario, y son desviados hacia puntos
progresivamente más cercanos. Una posible
estrategia para corregir la aberración esférica
consiste en limitar la luz utilizada a los rayos Figura 4.14

76
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

paraxiales, mediante una apertura o un diafragma (por supuesto, a costa de la luminosidad de


la imagen), el cual debe colocarse cerca del plano del lente (no el plano-imagen), para rechazar
los rayos periféricos.

Aberración cromática
Otro problema que altera la calidad de la imagen deriva del hecho que el índice de refracción
normalmente manifiesta una cierta dependencia con respecto a la longitud de onda. Es por este
fenómeno que una luz blanca (como la del sol) que pasa por un prisma de cristal se
descompone en un arco iris: distintas longitudes de onda son refractadas por un ángulo
diferente, y por lo tanto se separan una de otra. Para el caso de un lente, esto implica que
rayos de una cierta longitud de onda se enfocan en un plano, pero para otra longitud de onda el
plano imagen se ubicaría a una distancia ligeramente diferente. En particular, para una fuente
puntual de luz blanca, los distintos componentes
espectrales (por ejemplo, rojo, verde, azul, etc.)
llegarían a concentrarse en un punto a distintas
distancias del lente. Por consiguiente, uno
observaría, en el plano focal apropiado para una
longitud de onda particular, un punto de ese color
rodeado de un halo más difuso de otros colores
(ver Figura 4.15). El fenómeno se denomina
aberración cromática, y en la fabricación de
elementos ópticos se logra corregir en buena
medida utilizando lentes constituidos por varias
capas de vidrios de distintas propiedades, los
cuales se compensan mutuamente (‘lentes Figura 4.15
acromáticos’). En aplicaciones en las cuales el
color puede no ser importante (por ejemplo, fotografía en blanco y negro, y ciertas aplicaciones
de microscopía), una forma sencilla de eliminar de raíz el problema es utilizando luz
monocromática (i.e. de una sola longitud de onda), interponiendo un filtro que solo transmita
una estrecha banda de longitudes de onda y absorba o refleje las demás.

El límite de difracción
Aún con un lente de forma ideal y perfecta corrección cromática, resulta que la imagen de un
punto proyectada en el correspondiente plano focal (o, equivalentemente, lo que se observa en
el plano de la distancia focal de un lente
sobre el cual incide un rayo colimado),
no es un punto perfecto (i.e.
infinitamente pequeño), sino una
‘mancha’ diminuta pero algo difusa,
rodeada por una serie de anillos
luminosos progresivamente más tenues,
que se denomina el disco de Airy. Para
explicar el origen y la naturaleza de este
fenómeno no es posible basarse en
óptica geométrica, en la cual
conceptualizamos la luz como rayos que
viajan en forma rectilínea, sino se
requiere analizar la luz como ondas
electromagnéticas tri-dimensionales que
Figura 4.16

77
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

se propagan y que pueden interferir unas con otras en forma constructiva (cuando dos frentes
de onda al encontrarse están en fase y se suman) o destructivamente (cuando están fuera de
fase y se anulan mutuamente). Una discusión detallada del tema excede las metas de esta
revisión, pero podemos esbozar un argumento intuitivo de la siguiente manera. Consideremos
un lente ideal que está enfocando un objeto en su imagen, lo cual implica que forma unos
frentes de onda esféricos cuyo centro es el punto-imagen (recordar que si los tiempos de viaje
son iguales, por el principio de Fermat, entonces en el punto-imagen así como en cualquier
conjunto de puntos equi-distantes de él, el campo electromagnético estará oscilando en
sincronía). Acudamos al principio de Huygens, según el cual cada punto en un frente de onda
se puede considerar el origen de una nueva onda que se propaga en todas las direcciones;
tomemos las ondas originadas en dos puntos distintos sobre el mismo frente y consideremos la
dirección de propagación bien sea hacia el foco (Figura 4.16 A) o hacia un punto lateral al foco,
pero en el mismo plano (B). Para llegar al foco, la distancia recorrida por las dos ondas es la
misma, por lo tanto llegan en fase e interfieren constructivamente, sumándose. En cambio, para
llegar al otro punto las distancias son diferentes, lo cual implica un desfase, que crece al
aumentar la distancia del foco. En regiones aledañas habría parcial cancelación de las ondas
que llegan, y por consiguiente menor intensidad de la luz, pero donde la diferencia de distancia
implique un desfase de 180°, la interferencia destructiva sería total: las dos ondas se
aniquilarían, i.e. no habría luz en ese punto. En el plano del foco, entonces, habrá una región
brillante que desvanece gradualmente a los lados, hasta la oscuridad; más aún, en regiones
aún más lejanas, donde la diferencia de fase se aproxime a 360°, de nuevo vuelve a ocurrir una
interacción constructiva; esto implica que se formarán anillos
concéntricos alrededor de la región luminosa. El disco de Airy
tiene por lo tanto un perfil de intensidad de iluminación con
forma de campana, rodeado de anillos ulteriores de luz cada
vez más tenues. El panel superior de la Figura 4.17 ilustra su
apariencia, mientras que en el panel inferior de la misma
figura se muestra el perfil de intensidad a lo largo de una línea
que pase por el centro del disco de Airy.

Estas dimensiones finitas de la imagen de un punto impone


un límite máximo (el así llamado ‘límite de difracción’) a la
resolución óptica de una imagen: dos puntos solo podrán
resolverse si sus respectivas imágenes son separadas, es
decir, si sus respectivos discos de Airy no están
sobrelapados. El diámetro del disco de Airy (r) es proporcional
a la longitud de onda (λ) e inversamente proporcional al
diámetro del lente o, más específicamente, a la apertura
numérica del lente: r ≈ λ/N.A.. Por lo tanto, manteniendo
constante los demás factores, entre mayor la apertura
numérica, mayor la capacidad de resolución, ya que los Figura 4.17
discos de Airy correspondientes a dos objetos puntuales
cercanos uno al otro serán más pequeños, y por lo tanto tenderán a no superponerse.
También, debido a la misma relación, es posible mejorar la resolución utilizando longitudes de
onda más cortas (e.g. luz azul: de allí la carrera para producir láseres de diodo con emisión
azul para usar en lectores de CDs y DVDs, ya que, siendo capaces de enfocar la luz en un
punto más pequeño, permiten ‘empacar’ más información por unidad de área del disco,
respecto a un láser convencional rojo).

Reflexión total interna y sus aplicaciones

78
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Hasta ahora se ha enfatizado la refracción en situaciones en las cuales la luz viaja de un medio
de menor a mayor índice de refracción, como es el caso de un lente. Sin embargo hay casos
importante en los cuales sucede lo contrario. Consideremos la ley de Snell, Sin(θ1)/ Sin(θ2) =
N21, aplicada a una instancia en la cual la luz viaja de un medio de menor velocidad de
propagación (mayor índice de refracción, llamémoslo Medio 2) a otro de mayor velocidad de
propagación (menor índice de refracción, Medio 1), como por ejemplo de vidrio a aire. En este
caso sabemos que, a medida que aumente el ángulo de incidencia del rayo sobre la interfase,
mayor será la desviación del rayo refractado, respecto a la trayectoria rectilínea, y esta
desviación ocurrirá en la dirección que lo aleja de la normal (es decir, el rayo refractado tiende
a ‘acostarse’ hacia la superficie de la interfase vidrio-aire). Esto implica que, con un cierto
ángulo incidente, el rayo refractado podría quedar paralelo a la interfase: θ1 = π/2 (90°) y por lo
tanto sin(θ1) = 1. La ley de Snell en este caso se reduce a 1/ Sin(θ2) = N21 y por lo tanto Sin(θ2)
= 1/N21 = N12; el ángulo de incidencia al cual este fenómeno ocurrirá será θ2 = arcsin(N12), y se
conoce como el ángulo crítico. A ángulos de incidencia aún mayores, la luz rebota de la
interfase; el fenómeno se denomina reflexión interna total.

Fibras ópticas. La luz, como se dijo al comienzo de estas notas, viaja en línea recta
(contrariamente a la electricidad, que sigue la trayectoria del conductor). En algunas
situaciones esto llega a complicar la aplicación de iluminación, o la colección de luz en sitios de
difícil acceso. Existe una manera de obviar esta dificultad, haciendo que un haz de luz se
propague a lo largo de una fibra que puede dar curvas, de la misma manera como una
corriente eléctrica fluye por un cable. La reflexión interna total se ha utilizado para guiar la
transmisión de luz por caminos no rectilíneos, haciendo uso de un conducto sólido de material
transparente (vidrio, plástico etc.) rodeado de aire u otro medio de menor índice de refracción
que el conducto mismo. El artefacto se llama fibra óptica y asegura que, mientras el rayo viaje
internamente incidiendo sobre las paredes de la fibra formando un ángulo mayor que el ángulo
crítico (respecto a la normal de la pared), procederá hacia adelante rebotando múltiples veces
sin escapes laterales. La Figura 4.18A muestra esquemáticamente la situación. Notar que si se
doblara la fibra de una manera pronunciada, rayos de luz podrían encontrar un ángulo de
incidencia con la pared de la fibra por debajo del límite crítico, en cuyo caso el rayo saldría de
la fibra (panel B de la misma figura). Usualmente, las fibras ópticas se pueden fabricar en
diámetros desde 0.02 hasta ≈2 mm, y se suelen juntar en un ‘manojo’ que puede contener
muchos cientos o miles de fibras, con un diámetro
total de unos 2-8 mm; por supuesto, es
imprescindible que las fibras estén separadas una de
otra por un material de bajo índice de refracción,
para que la luz quede confinada dentro de cada fibra
separadamente. La versión más sofisticada de fibra
óptica contempla un conducto transparente en el
cual el índice de refracción es máximo en el centro y
disminuye radialmente hacia la periferia; de esta
manera los rayos de luz curvan gradualmente y son
guiados a lo largo de la fibra, usualmente sin llegar y
tener que rebotar de la superficie del cilindro (’fibras
indexadas’). Las aplicaciones más comunes
Figura 4.18
conciernen iluminadores de varios tipos, que
permiten traer un haz de luz a sitios poco accesibles (por ejemplo, un campo de cirugía, un
microscopio), ya que (i) el conducto de fibras ópticas suele ser flexible, (ii) su cabeza terminal
es mucho más pequeña que un iluminador (constituido por una lámpara, colector, etc.), y (iii) el

79
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

conducto de fibras ópticas no transmite sino una mínima fracción del calor que genera la
lámpara.

Aplicaciones a endoscopia. En un conducto de fibras ópticas, normalmente no se preserva


ningún orden espacial, i.e. distintas fibras se cruzan de un lado al otro a lo largo del camino. La
luz queda completamente ‘revuelta’, lo cual, para
propósitos de iluminación, puede tener ciertas
ventajas, como asegurar uniformidad espacial del
la intensidad de luz, ya que toda heterogeneidad
local viene mezclada al azar. Pero es posible
también fabricar un conducto en el cual la
disposición espacial de las fibras individuales se
preserve punto-a-punto a lo largo del conducto.
Figura 4.19 La Figura 4.19 muestra este arreglo, que se
denomina un conducto de fibras ópticas
‘coherentes’: fibras selectas individuales han sido marcadas (‘A’, ‘B’ y ‘C’), para recalcar como
sus respectivas posiciones se mantienen. Unas fibras ópticas coherentes permiten que, si se
proyecta o enfoca una imagen sobre un extremo del conducto, la imagen se mantiene y se
transmite hasta el otro extremo. Debido al pequeño tamaño del conducto y su flexibilidad, es
posible utilizarlo, en conjunción con algún elemento óptico (un objetivo) montado en uno de los
dos extremos, para insertarlo dentro del organismo (e.g. esófago, estómago, intestino, etc.) y
obtener de una manera mínimamente invasiva una imagen.

80
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

5. Fluorescencia
Fenómeno básico. Existe un ulterior fenómeno óptico de gran relevancia a las ciencias
biomédicas, que consiste en que cierta clase de moléculas, cuando se les irradia con luz,
emiten luz a su vez. La absorción de un fotón implica que su energía (E = h⋅ν) debe haber sido
transferida a la molécula en cuestión y puede llevar un electrón a saltar a un orbital más alto.
Este incremento en el nivel energético dura poco (por lo general billonésimas de segundo), y
tiende a disiparse en movimientos moleculares como vibraciones y rotaciones, lo cual
simplemente se traduce en calor. Pero moléculas cuya estructura es muy rígida (por ejemplo,
cuando contienen anillos aromáticos) no se prestan para ‘descargar’ con movimientos toda esa
energía absorbida, debido a su limitada flexibilidad. Entonces, solo una pequeña fracción de la
absorción inicial se disipa en calor, el resto en un brinco abrupto de vuelta a un estado
energético más bajo, cuando el electrón retorna a su orbital original. Esta diferencia de energía
no puede simplemente desvanecer (de lo contrario se violaría la primera ley de la
termodinámica, el principio de conservación de energía), sino se debe manifestar en algo. Este
‘algo’ es la emisión de radiación electromagnética (i.e. otro fotón). Puesto que, antes de
lograrlo, la molécula en cuestión inevitablemente
ya habrá perdido alguna fracción de la energía
adquirida, el camino no es totalmente reversible
y por lo tanto la energía del fotón emitido es
menor que la del fotón absorbido. Es decir, por la
relación de Einstein, la longitud de onda de la luz
emitida es necesariamente mayor que la de la
luz absorbida (también llamada ‘de excitación’);
esta discrepancia entre la longitud de onda de la
luz de excitación y la de emisión se llama el
desplazamiento de Stokes. La Figura 5.1
Figura 5.1
muestra esquemáticamente este proceso.
Moléculas capaces de emitir luz luego de ser
irradiadas se conocen como ‘fluoróforos’ (por ejemplo, la fluoresceína, o la rodamina).
Espectros de excitación y de absorción. El fenómeno de la fluorescencia es sumamente
versátil, y ha generado una enorme variedad de aplicaciones en ciencias bio-médicas. En
primer lugar, la absorción y la emisión de luz de cada fluoróforo tienen características
específicas en cuanto a longitud de onda. Esto se puede determinar utilizando diferentes filtros
que dejen pasar solo una longitud de onda particular, e interponiéndolos en el camino del rayo
de excitación, y en el camino de la emisión. Por
ejemplo, se puede mantener un filtro fijo al frente del
detector, y medir la intensidad de la emisión mientras
se varía la longitud de onda de excitación; la
representación gráfica de esta relación define el
espectro de excitación de la molécula en cuestión.
Alternativamente, se puede excitar el fluoróforo con una
longitud de onda fija y variar en cambio la longitud de
onda del filtro de emisión (también llamado filtro de
barrera). La determinación de cómo distintas longitudes
de onda contribuyen a la fluorescencia emitida se llama
el espectro de emisión. La Figura 5.2 ilustra los
espectros de absorción (línea punteada) y de emisión Figura 5.2
(línea contínua) de un compuesto fluorescente.

81
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Aplicación de la fluorescencia al marcaje de moléculas. Puesto que estas curvas suelen tener
una forma y un pico máximo característicos para diferentes moléculas, al examinarlas se deriva
información sobre la presencia de dichas sustancias en una muestra. Ciertos fluoróforos
tienden a combinarse específicamente con otra molécula, la cual
puede ser de interés biológico, permitiendo así detectarla; este
es el caso del bromuro de etidio, que se intercala con el ADN, de
tal manera que cuando la muestra es irradiada con luz
ultravioleta el bromuro de etidio emite luz anaranjada y se puede
facilmente visualizar. La Figura 5.3 muestra un ejemplo de ADN
separado electroforéticamente en un gel de agarosa (banda
brillante a la derecha); en el carril de la izquierda se encuentran
marcadores de diferentes tamaños como referencia. En otras
aplicaciones se puede conjugar un fluoróforo a un anticuerpo que
reconozca alguna proteína particular, lo cual permite establecer Figura 5.3
su localización en un tejido.
Uso de fluorescencia para monitorear función celular.
Otra aplicación muy importante de la fluorescencia concierne la medición de cambios en la
concentración de sustancias de interés biológico. Un reto particularmente complejo concierne
mediciones en el interior de la célula, por ser un compartimiento de difícil acceso y diminutas
dimensiones, el cual por lo tanto suele estar fuera del alcance de métodos bioquímicos
convencionales. La fluorescencia, en cambio, hace posible realizar mediciones mínimamente
invasivas en células vivas y en tiempo real. Este acercamiento requiere el uso de alguna
molécula reportera fluorescente la cual cumpla con las siguientes condiciones: (i) sea capaz de
establecer un enlace reversible con la sustancia de interés (ii) exista alguna diferencia en sus
propiedades de fluorescencia entre el estado libre vs. cuando se liga al sustrato. Las
alteraciones inducidas por la interacción entre el reportero (o indicador) y el sustrato pueden
implicar (a) cambios en la intensidad de la emisión fluorescente (b) cambios en la absorción de
la luz de excitación (c) un desplazamiento del espectro de excitación (d) un desplazamiento del
espectro de emisión. Por supuesto, la lógica que subyace a este tipo de medición es que la
concentración del sustrato determina la cantidad de complejos (sustrato-indicador) que se
forman. Consideremos el caso más simple, una reacción bi-molecular en la cual una molécula
de indicador (I) se une reversiblemente a una molécula de sustrato (S):
α
I+S ↔ IS
β
Este esquema cinético es muy conocido y lo resumiremos brevemente (aunque el tema debería
resultar familiar a todos). La rata de cambio en la concentración del complejo, [IS], se
representa como:
d[IS]/dt = α[I][S] - β[IS]
Si la reacción es rápida en comparación con la velocidad de los cambios en la concentración
del sustrato, se puede considerar que en todo momento estará prácticamente en equilibrio, en
cuyo caso d[IS]/dt = 0, y por lo tanto:
α[I][S] - β[IS] = 0 (*)
Considerando que en el sistema se ha introducido una cantidad total fija de indicador,
llamémosla IT, entonces podemos reducir el número de variables libres tomando en cuenta que:
[I] = [IT] -[IS]

82
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Esto simplemente denota que la cantidad de moléculas de indicador libre es igual a la cantidad
total menos las que se han unido al sustrato. Entonces, re-escribimos la expresión (*) como:
α([IT] -[IS] )[S] - β[IS] = 0
Ahora como variables sólo tenemos la concentración de sustrato libre, [S], y la del complejo
[IS]. Queremos despejar [IS] en función de [S]:
α[IT][S] -α[IS][S] - β[IS] = 0
α[IT][S] = α[IS][S] + β[IS]
α[IT][S] = [IS](α[S] + β)
[IS] = α[IT][S] /(α[S] + β)
Dividiendo tanto el numerador como el denominador por α y representando β/α como KD (la
constante de equilibrio de disociación), finalmente obtenemos:
[IS] = [IT][S] /([S] + KD)
Esta es la muy familiar hipérbola rectangular
conocida como ‘Michaelis-Menten’ o ‘Iso-terma
de Langmuir’: si se grafica la concentración del
complejo en función de la concentración del
sustrato libre, como se ilustra en la Figura 5.4,
se obtiene una curva negativamente acelerada
que empieza en 0 y tiende asintóticamente
hacia IT a medida que [S] incrementa; esta
deducción se desprende más fácilmente
dividiendo tanto el numerador como el
denominador del lado derecho de la ecuación
por [S], con lo cual queda:
[IS] = [IT] /(1 + KD/[S]) Figura 5.4

Cuando [S] coincide con el valor KD, entonces [IS] = [IT]/2.


Consideremos primero el caso más simple, el comportamiento de un indicador que no fluoresce
del todo cuando está libre, y sólo manifiesta un cierto nivel de fluorescencia cuando se une al
sustrato. Entonces la emisión fluorescente aumentará en función de la concentración del
sustrato, siguiendo la misma relación de Michaelis-Menten. Por lo tanto, esta señal óptica en
principio puede reportar cambios de concentración del sustrato. Si en cambio ambas formas del
indicador (libre y ligada) fluorescen, pero de una manera cuantitativamente diferente, el mismo
acercamiento vale, pero (i) habrá siempre un nivel de fluorescencia basal (ii) los cambios en la
fluorescencia al cambiar la concentración del sustrato serán más modestos. Es fácil ver que en
este caso la fluorescencia será:
A[IS] + B[I]
Donde las constantes A y B reflejan la fluorescencia del indicador unido al sustrato, y el
indicador libre, respectivamente.
Hay dos consideraciones muy importantes para el uso efectivo de este acercamiento. En primer
lugar, el indicador debe tener una afinidad para el sustrato que sea del mismo orden de las
concentraciones de sustrato libre que se pretenden medir: si en cambio la afinidad es muy alta
en relación a las concentraciones de sustrato, la gran mayoría de las moléculas de indicador
estarán ligadas a todas horas, y todo cambio ulterior en [S] producirá una alteración
despreciable en la concentración del complejo. Por lo tanto, la fluorescencia no variará de una

83
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

manera significativa en función de las fluctuaciones en [S]: el indicador se encontrará saturado


(Figura 5.4). Así que es imprescindible disponer de antemano de alguna información acerca del
rango de concentraciones que se pretende monitorear, y elegir un indicador cuya KD no sea
menor que dichos valores. De hecho, para simplificar la interpretación de las observaciones
puede ser deseable que la afinidad sea tal que las concentraciones esperadas de sustrato libre
se mantengan en el rango inferior de la curva de Michaelis-Menten, donde [IS] guarda una
relación ‘casi’ lineal con respecto a [S] (Figura 5.4); en estas condiciones, la fluorescencia se
puede considerar sencillamente proporcional a la concentración de sustrato.
Por otra parte, si la afinidad es muy baja respecto a la concentración de sustrato (i.e. si KD>>
[S]), el número de complejos que se forman será muy pequeño y por lo tanto la señal de
fluorescencia lo será también, dificultando su detección. Por supuesto, para incrementar la
señal de fluorescencia se podría incrementar la concentración del indicador, pero esto presenta
otros problemas, que es preciso esclarecer a continuación. El hecho de que la sustancia
reportera necesita ligar una fracción de las moléculas de interés inevitablemente implica reducir
la población de sustrato libre. Como tal, la medición misma estaría alterando justamente la
variable a ser medida. Más aún, al equilibrarse la interacción sustrato-indicador, este último
ejercerá una acción de ‘tamponamiento’ (‘buffer’), que atenúa los cambios que de otra manera
deberían ocurrir. Este efecto ‘buffer’ es mayor entre más grande la fracción de sustrato que se
ha unido al indicador. Es el mismo efecto que ejerce un tampón de pH (como Tris, HEPES,
MOPS etc.): lograr minimizar las fluctuaciones en la concentración del sustrato (en este caso,
protones) cuando el sistema es retado con la introducción de un ácido o una base. Solo que en
el caso presente el investigador no pretende fijar el nivel del sustrato: todo lo contrario, se
quiere monitorear sus cambios con la mínima interferencia. Miremos el problema con un poco
más de detenimiento. De la ecuación (*):
β/α = KD = [S][I]/[SI]

y por lo tanto el cociente entre la concentración del sustrato unido al indicador y el sustrato libre
es:
[IS]/[S] = [I]/KD
Si nos encontramos en la porción casi lineal de la curva (Figura 30) quiere decir que:
[IS] << [IT]
Por consiguiente, [I], el indicador libre, se puede aproximar con la constante IT, lo cual quiere
decir que el cociente entre sustrato ligado y libre es también prácticamente constante (este
parámetro se conoce como la capacidad de tamponamiento o ‘buffering capacity”). Si hay que
formar muchos complejos para detectar la fluorescencia, este cociente, llamémoslo B, es
grande. Supongamos que B fuera = 9, es decir el 90% del sustrato está ligado. Pero entonces,
al introducir el indicador en tan alta concentración, la concentración del sustrato libre ha bajado
drásticamente con respecto al valor original (al 10%). No solamente esto perturba la línea de
base; pensemos que pasa si luego el sustrato aumentara por una cantidad X (por ejemplo al
aplicar algún estímulo): puesto que B permanece prácticamente constante, sólo 1/10 de este
aumento se verá reflejado en la concentración libre, y estaremos seriamente interfiriendo con la
fisiología del sistema. Es imprescindible, por lo tanto, mantener esta contaminación al mínimo,
si se quiere evitar que nuestra medición sea invasiva.
Con el debido entendimiento de las variables implicadas y el uso de las precauciones
necesarias, de todos modos este acercamiento se ha revelado muy poderoso, y en las últimas
dos décadas ha permitido por primera vez proporcionar un registro de una variada gama de
iones intracelulares de interés biológico: protones (pH), calcio, sodio, cloruro, o zinc. Más aún,
conjugando un fluoróforo a moléculas que liguen sustancias orgánicas más complejas, tales

84
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

como el mensajero interno AMP cíclico (cAMP) se torna posible seguir en tiempo real la
dinámica de diferentes procesos de señalización celular. La Figura 5.5 ilustra un ejemplo en el
cual una célula fue cargada con el indicador de calcio Oregon Green (el cual incrementa su
fluorescencia cuando se une a calcio). Al aplicar
estimulación que despolariza la membrana y
causa la apertura de canales iónicos calcio-
selectivos, el influjo de calcio (y por consiguiente
la elevación de su concentración citosólica)
produce un aumento significativo en la
fluorescencia, medida por medio de un
fotomultiplicador. Es asombroso que se logra
monitorear cambios en la concentración de calcio
que son del orden de pocas millonésima de
molar y ocurren en una sola célula cuyas
dimensiones son de una decena de micras, el
todo mientras la célula sigue desempeñando sus Figura 5.5
funciones normales.

Indicadores ‘cociente-métricos’ (‘ratiometric’). Conociendo las características del indicador


(tales como su coeficiente de extinción, ε, su eficiencia cuántica, QE, y KD, la afinidad para
ligarse al sustrato) será posible derivar una medida cuantitativa de la concentración del sustrato
a partir de un registro de fluorescencia? En principio, uno pensaría que esto no debería poner
mayor dificultad, siempre y cuando uno conociera una serie de parámetros adicionales que
conciernen las condiciones bajo las cuales se efectúa la medición:
• la intensidad absoluta de la luz de excitación (L)
• la concentración total del indicador ([IT])
• el volumen muestreado (V)
(este último parámetro es indispensable debido a que la luz emitida refleja el total de fluoróforos
excitados, y este número a su vez es el producto de concentración × volumen).
Cuantitativamente, la intensidad de la fluorescencia, F, es aproximadamente:
F = L×ε×QE×V× [IS] ≈ L×ε×QE×V× [IT] /(1 + KD/[S])
De esta expresión se puede despejar [S], la concentración absoluta del sustrato libre.
Lamentablemente, la concentración del indicador y el volumen pueden ser difíciles de estimar
en ciertas situaciones, particularmente cuando se trata de mediciones intracelulares: el primero
porque pocas técnicas permiten
monitorear con precisión la cantidad de
indicador introducido al interior de una
célula; el segundo porque la geometría
celular puede ser muy compleja. Sin
embargo, existe un acercamiento que ha
proporcionado una avenida muy útil en
este respecto, el cual se basa en
comparar dos mediciones de
fluorescencia. Supongamos que un cierto
indicador fluoresce tanto en el estado libre
como en complejo con el sustrato, pero su
espectro de emisión se desplaza a lo largo
de la abscisa; la Figura 5.6 ilustra el
Figura 5.6

85
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ejemplo del indicador de calcio Indo-1 (el hecho de que los dos espectros difieran además en
su amplitud es irrelevante). Consideremos dos longitudes de onda: una (λ1) que coincide con el
punto donde las dos curvas se cruzan (conocido como un punto isosbéstico) y otra (λ2) donde
las dos curvas difieren considerablemente. La luz emitida a la longitud de onda λ1 sólo depende
de la cantidad total de indicador (i.e. concentración y volumen muestreado), sin importar su
estado (libre o ligado) y por lo tanto es independiente de la concentración de sustrato. En
cambio, la luz emitida a la longitud de onda λ2 depende además de la fracción de indicador que
se encuentra libre vs. ligado: obviamente, si gran parte del indicador está en complejo con el
sustrato (como se espera cuando [S] aumenta), en el ejemplo de la Figura 5.6 el total de luz
emitida será menor, puesto que a λ2 el complejo fluoresce menos que el indicador libre (si
escogiéramos λ2 entre 400 y ≈440 nm, lo opuesto ocurriría). Podemos ahora calcular el
cociente de la fluorescencia registrada a las dos longitudes de onda:
Fλ2/ Fλ1
El valor obtenido ya no depende de la intensidad de la luz de excitación, ni de la concentración
del indicador, ni del volumen, ya que todos éstos factores han sido normalizados al dividir por la
fluorescencia medida en el punto isosbéstico: el cociente sólo refleja cual fracción del indicador
se ha unido al sustrato, lo cual reporta la concentración del sustrato. Es posible entonces
construir una escala cuantitativa de calibración, y derivar información sobre concentraciones
absolutas. Lo mismo se podría obtener con un indicador fluorescente cuyo espectro de emisión
permaneciera constante pero cuyo espectro de excitación sufriera un desplazamiento entre las
conformaciones libre y ligada (otro popular indicador de calcio celular, llamado Fura-2, funciona
de esta manera).
Seguimiento óptico de cambios de voltaje. El monitoreo de cambios de concentración de
diferentes sustancias no es la única aplicación de la fluorescencia a la fisiología y la biofísica
celular: teniendo en cuenta que la emisión de fluorescencia es sensible al coeficiente dieléctrico
del entorno del fluoróforo (i.e. si el entorno es hidrofílico o hidrofóbico) se abren ulteriores
puertas. Una de ellas es construir moléculas que se insertan en la membrana y, al poseer
grupos cargados, se ‘hunden’ más o menos según el potencial eléctrico de la membrana. Si
estos cambios de posición desplazan el fluoróforo de un medio lipídico (la membrana
plasmática) a uno acuoso (bien sea el citoplasma o el medio extracelular) o viceversa, las
variaciones resultantes en la fluorescencia reportarán el voltaje de la membrana celular sin
necesidad de un microelectrodo interno,
es decir de una manera mínimamente
invasiva. La Figura 5.7 ilustra
esquemáticamente la lógica de este
acercamiento. Más aún, si se utiliza una
cámara como detector, se tiene el
potencial de permitir el seguimiento del
voltaje de membrana de muchas células
al mismo tiempo, lo cual es
particularmente ventajoso, por ejemplo,
para estudiar redes interconectadas de
células neuronales o el propagarse de Figura 5.7
la ola de despolarización en tejido
cardíaco.
Medición de cambios conformacionales de proteínas. Por último, se puede también aprovechar
la sensibilidad de la fluorescencia al coeficiente dieléctrico del entorno para monitorear posibles
cambios en la conformación de una proteína de membrana. Este acercamiento puede

86
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

aprovechar la presencia de aminoácidos aromáticos ‘nativos’ (e.g. triptófano) que son


intrínsecamente fluorescentes, Alternativamente, se puede conjugar un fluoróforo a un
aminoácido particular de la proteína, lo cual típicamente implica manipulaciones de ingeniería
genética: usualmente se sustituye, si es necesario, el aminoácido de interés por una cisteína,
cuya cadena lateral es muy reactiva, y presenta un grupo sulfidrilo que se presta para acoplar
otras moléculas mediante un puente disulfuro. Al expresar la proteína mutada en alguna línea
de células en cultivo (y habiendo eliminado o inactivado otras cisteínas que pudieran existir en
dicha proteína), se introduce el fluoróforo (el cual se liga al sitio específico), y se monitorea la
fluorescencia. Si, al aplicar estimulación (e.g. neurotransmisores, cambios en el voltaje de
membrana, etc.) se induce una transición conformacional de la proteína tal que los aminoácidos
marcados se sumergen en los lípidos o se asoman al medio de alto coeficiente dieléctrico (bien
sea extracelular o citoplasmático) se produce un cambio en la fluorescencia.

FRET. Finalmente, existe un fenómeno, llamado transferencia de energía por resonancia de


fluorescencia (FRET: Fluorescence Resonance Energy Transfer, también conocida como
resonancia de Förster) que permite monitorear cambios en la proximidad entre moléculas de
diferente clases. Este se basa en que si el espectro de emisión de una molécula fluorescente
(designada como el donante) sobrelapa con el espectro de excitación de otra molécula (el
aceptor), entonces al estimular el donante se puede transferir la energía absorbida al aceptor,
el cual fluoresce a su característica longitud de
onda. Esta transferencia de la energía de
excitación ocurre directamente por resonancia
electromagnética, sin emisión de un fotón, y
depende fuertemente de la separación entre
donador y aceptor. La eficiencia del FRET decae
con la sexta potencia de la distancia, por lo tanto el
fenómeno ocurre solamente cuando los dos
fluoróforos están en estrecha proximidad, del
orden de angstroms, tal como se espera cuando
dos proteínas están interactuando (e.g. un ligando
y su receptor). La Figura 5.8 ilustra el concepto:
notar que la luz de excitación para el donante Figura 5.8
(flecha morada) lo hace fluorescer (la flecha azul
representa la emisión), pero no es capaz de inducir fluorescencia en el aceptor, el cual
requeriría una longitud de onda más larga (panel superior). En cambio, cuando el aceptor
recibe la energía de excitación que el donante le transfiere por resonancia (lo cual requiere
estrecha proximidad espacial entre los dos), el aceptor produce una emisión a la longitud de
onda característica de su propia fluorescencia (flecha verde-amarilla). Es decir, en condiciones
en las cuales donante y aceptor se acercan, al irradiar con una longitud de onda apropiada para
excitar al donante, se observa en cambio fluorescencia de longitud de onda del aceptor. En la
mayoría de las aplicaciones se utilizan moléculas que han sido conjugadas artificialmente a
fluoróforos que funcionen como ‘partners’ para FRET; una de las parejas más utilizadas son
CFP (Cyan Fluorescent Protein) como donante y YFP (Yellow Fluorescent Protein) como
aceptor y emisor. Por ejemplo, si se quiere averiguar si cuando se activa la proteína A, ésta
interactúa con la proteína B, acoplaríamos un donante y un aceptor fluorescentes a las dos
proteínas; se esperaría que en condiciones basales la irradiación con luz que excite el
fluoróforo de la proteína A resultara en emisión de su fluorescencia característica. Pero bajo
condiciones de estimulación que lleven a que las dos proteínas se junten, la misma luz aplicada
causaría la transferencia de la excitación de A a B, y ésta última emitiría luz fluorescente de
otra longitud de onda. De esta manera se puede corroborar cuando dos moléculas llegan a
interactuar.

87
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

6. Elementos de microscopia
Habiendo revisado los principios más elementales de la óptica, en las secciones siguientes de
estas notas se considerará la aplicación de dichos principios primero a la instrumentación en
bio-medicina, y luego a la fisiología del ojo. En primera instancia nos enfocaremos en el
microscopio, instrumento que tiene la dudosa distinción de ser tal vez el más ubicuo y al mismo
tiempo el más abusado: al introducir una descripción elemental pero sistemática del
microscopio se espera establecer las bases para su uso correcto: de nada sirve una invertir una
cuantiosa suma para adquirir un instrumento de calidad si luego, al desconocer los principios,
se utiliza de una manera falaz y se obtienen imágenes de mediocre calidad, que aún un
instrumento de juguete podría producir! Más aún, se quiere también mostrar la existencia de
una miríada de acercamientos que proporcionan nuevos horizontes para la observación, y
enfatizar que la tecnología de la microscopia no es un libro cerrado, sino un campo en perenne
desarrollo, en el cual nuevos retos y acercamientos creativos originan constantemente
novedosos diseños de instrumentos que pueden proporcionar información insospechada.
Diseño básico de un microscopio. En una gran cantidad de ramas de las ciencias bio-médicas,
se trabaja con objetos de dimensiones minúsculas (células, por ejemplo) y en muchas
instancias es preciso poderlos visualizar. Uno de los instrumentos más ubicuos es el
microscopio de luz, cuyo propósito es generar imágenes altamente magnificadas que revelen
finos detalles del espécimen. Ya sabemos que, debido al límite de difracción, la resolución que
se puede alcanzar dependerá de la longitud de onda utilizada y de la apertura numérica del
sistema óptico; para luz visible, en la práctica esto quiere decir que se podrán resolver detalles
de poco menos de una micra (10-6 m o una milésima de milímetro), lo cual es adecuado para
células y algunas estructuras sub-celulares. Si se requiere una resolución más fina, hay que
utilizar radiación de menor longitud de onda, y eso precluye el uso de de la luz visible; para
aplicaciones de esa índole hay que acudir al microscopio electrónico.

El diseño del microscopio de luz contempla dos estadios, de allí el nombre microscopio
compuesto. En primer lugar, el objeto (la muestra) es enfocado por el objetivo. En lo que sigue
consideraremos el objetivo como si estuviera constituido por un solo lente delgado; en la
realidad se trata de un sistema complejo de hasta más de una docena de lentes, designados
para corregir las varias aberraciones, pero este acercamiento simplificado nos permite extraer
la esencia básica del como esta construido un microscopio. El objetivo se designa por su
magnificación (10×, 20×, 40× etc), pero realmente sabemos que un lente (convergente) puede
producir cualquier magnificación (dependiendo de que tan lejos esté del plano-objeto y del
plano-imagen). En este caso, la magnificación queda fijada al establecer una distancia estándar
entre objetivo e imagen; tradicionalmente los microscopios (‘derechos’ o upright) prescriben una
distancia de 160 mm (los invertidos 210
mm). Por lo tanto, si un objetivo esta
designado como ‘40×’, quiere decir que la
imagen que se ha de formar 160 mm
atrás del objetivo debe ser 40 veces más
grande que el espécimen, lo cual implica
que la distancia entre el frente del objetivo
y el espécimen debe se 40 veces menor
que 160 mm, i.e. 4 mm. Debido a la ley
1/f = 1/d1 + 1/d2, esto es lo mismo que
especificar para ese objetivo una
distancia focal tal que 1/f = 1/160 + ¼ =
Figura 6.1
41/160 ⇒ f ≈ 3.9 mm. La imagen

88
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

generada por el objetivo se denomina imagen intermedia, y es a su vez magnificada


ulteriormente antes de ser registrada por el observador o una cámara. En la Figura 6.1 el
primer lente a la izquierda representa el objetivo del microscopio (el cual en realidad está
constituido por un sistema de muchos lentes, para corregir aberraciones). Un segundo
elemento óptico, el ocular, se encarga de esta segunda fase. La imagen intermedia se
encuentra a una distancia del ocular que es menor que la distancia focal de éste; por lo tanto,
una imagen virtual se forma al mismo lado que la imagen intermedia, desplazada aún más
hacia del objetivo. La magnificación de la imagen virtual obedece también la regla M = di/do; por
lo tanto, si el ocular tuviera una magnificación de 10x, la imagen virtual se formaría a una
distancia diez veces mayor respecto al ocular. Un observador la visualizaría manteniendo el ojo
relajado, como si estuviera mirando un objeto relativamente distante (unos 25-30 cm). La
magnificación total viene siendo el producto de las dos magnificaciones (la del objetivo y la del
ocular). Notar que uno podría obtener la misma magnificación total con distintas combinaciones
de objetivos y oculares: por ejemplo, bien sea con objetivo 40× y oculares 5× o con objetivo 10×
y oculares 20×, se genera una magnificación final de 200×; sin embargo, debido a que el
objetivo de menor magnificación suele tener menor apertura numérica, produce un disco de
Airy más grande (y por lo tanto menor resolución de la imagen intermedia), y los oculares solo
agrandarán esa imagen, sin recuperar detalles. Por eso es importante no confundir la
magnificación (que solamente hace referencia al tamaño de una imagen respecto a la del
objeto que representa) con la resolución (que determina el nivel de detalle que se podrá
discernir en la imagen). Agrandar una imagen sin derivar ulterior detalle se suele llamar
“magnificación vacía”. El arreglo de elementos ópticos descrito anteriormente se llama el tren
óptico de la imagen.
Un aspecto igualmente importante concierne el haz que ilumina la muestra, y se llama el tren
óptico del iluminador. Este se origina en una fuente de luz y una serie de elementos cuyo
propósito es optimizar la uniformidad de la iluminación de la muestra, el contraste e inclusive la
resolución de la imagen que se obtiene. Köhler creó el sistema más utilizado para este
propósito, ilustrado en la Figura 6.2. Los elementos básicos del sistema de iluminación son: (i)
la lámpara (más exactamente, el filamento del bombillo) (ii) el colector (un(os) lente(s)
colocados al frente del bombillo) (iii) el condensador (iv) el diafragma de campo (v) la apertura
(otro diafragma). El colector forma una imagen
del filamento al nivel del plano focal del
condensador; por lo tanto, los rayos que
emanan de cada punto de esta imagen, al
encontrarse a la distancia fc respecto al
condensador, dan origen a un haz paralelo (la
figura muestra uno solo de ellos) lo cual permite
iluminar uniformemente el espécimen.
(Necesariamente se forma una segunda imagen
del filamento en el plano focal posterior del
objetivo, la cual es proyectada por los oculares
sobre la entrada del ojo, el cual queda también
uniformemente iluminado).
El diafragma de campo limita la apertura del
colector, y se encuentra en un plano conjugado
al del objeto: en otras palabras, el condensador
proyecta la imagen de este diafragma en el
plano del espécimen, de tal manera que al
abrirse y cerrarse el observador ve un disco
Figura 6.2
iluminado netamente definido cuyo tamaño se

89
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

agranda o se achica, sin alterar su nivel de


luminosidad; este efecto se ilustra en los dos
paneles superiores de la Figura 6.3. En cambio,
el segundo diafragma, la apertura, está ubicado
en el plano de la imagen del filamento (que no
es conjugado al del espécimen, sino al objetivo
y la entrada del ojo). Al abrirse y cerrarse no
cambia por lo tanto la región iluminada, sino
cambia el grado de iluminación,
simultáneamente disminuyendo o aumentando
el contraste (a costa de una pérdida de
resolución); esto se puede apreciar en los dos
paneles inferiores de la Figura 6.3. En la
Figura 6.3
práctica, el diafragma de campo se mantiene
abierto apenas un poco más que el campo
visual, ya que abriéndolo ulteriormente sólo se añade ‘reverberación’ de luz que degrada la
calidad de la imagen. La apertura del condensador se abre o cierra lo que hace falta para
obtener el balance deseado entre contraste y resolución.

Los microscopios de luz transmitida se fabrican en dos versiones, derechos, e invertidos. Tanto
el tren óptico de la imagen como el del iluminador son esencialmente idénticos en los dos
casos, la única diferencia concierne la dirección del haz de luz respecto a la muestra: en el
microscopio derecho, éste ilumina al espécimen desde abajo, mientras que en el invertido lo
hace desde arriba. La Figura 6.4 ilustra los dos tipos de microscopio. Existen unas ventajas del
microscopio invertido cuando se trabaja con una muestra biológica como células en cultivo: al
encontrarse el espécimen en el fondo (preferiblemente de vidrio delgado) de la cámara, se
puede acercar mucho al objetivo, lo cual es especialmente valioso cuanto se trata de objetivo
de gran apertura numérica y magnificación, que suelen tener una distancia de trabajo reducida
(la distancia entre el lente frontal del objetivo y la muestra). De lo contrario, si el objetivo
estuviese arriba (como en un microscopio derecho), podría no lograrse la corta distancia
necesaria para enfocar la muestra, o tocaría utilizar objetivos especialmente diseñados para
sumergirlos en el
medio acuoso
(objetivos de
inmersión, ver más
adelante). Una
segunda ventaja es
disponer de un mejor
acceso a la muestra
para manipulaciones
fisiológicas durante la
visualización (por
ejemplo, para insertar
microelectrodos), ya
que la separación
entre muestra y
condensador es
mucho mayor y deja
considerable espacio
Figura 6.4
libre.

90
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Objetivos de inmersión. El diseño de un microscopio busca optimizar la resolución de la


imagen, y ya sabemos que una consideración crítica concierne la apertura numérica del
objetivo. Sin embargo, en la mayoría de las
aplicaciones biológicas se presenta un
problema: el espécimen (tejido, células) se
encuentra en un medio líquido y/o cubierto
por una capa de vidrio, la de la lámina cubre-
objetos. Sabemos que la finura de la
resolución óptica requiere que el objetivo
colecte el cono más ancho posible de los
rayos de luz que emanan de cada punto del
espécimen, pero lograr una gran apertura
numérica del objetivo puede no cumplirse en
estas condiciones de observación: los rayos
provenientes de la muestra han de viajar por
líquido y/o vidrio, y luego cruzar el espacio de
aire (cuyo índice de refracción es menor que
el vidrio y/o el agua) que lo separa del lente
frontal del objetivo. Los rayos que cruzan esa
interfase oblicuamente sufren una desviación
que los hace divergir ulteriormente del eje
óptico, por lo tanto sólo un cono estrecho Figura 6.5
realmente alcanza a entrar por el objetivo,
pese a que éste tenga una alta apertura numérica. Es más, los rayos más oblicuos pueden
‘acostarse’ y propagarse por la interfase, o inclusive rebotar del todo; la Figura 6.5A muestra
este fenómeno, que es una consecuencia de la ley de Snell. Una forma de evitar este problema
es interponiendo entre el vidrio cubre-objetos y el lente frontal del objetivo un medio
transparente cuyo índice de refraccíon fuera similar al del vidrio; acéites especiales (y, en otros
casos, agua o glicerina) se utilizan para éste propósito. Al tener un índice de refracción
homogéneo en los tres medios (cubre-ojetos, acéite, y lente) los rayos de luz no se desvían al
cruzar las interfases, y se logra efectivamente una alta apertura numérica (Figura 6.5B). Los
objetivos especialmente designados para este uso (y solamente esos!) se conocen como
objetivos de inmersión, y requieren siempre el uso de una gota de un medio líquido específico.
Por supuesto, si los rayos de luz no encuentran un cambio de índice re refracción al encontrar
la superficie del lente del objetivo, tampoco serán refractados: la refracción en un lente de
inmersión ocurre en la superficie posterior del lente (la frontal suele ser plana), donde el rayo, al
emerger del vidrio, se encuentra en el aire.

A la luz de estas consideraciones y lo discutido


anteriormente, es evidente la importancia de las
características de los objetivos a ser utilizados en una
aplicación dada. Se debe por lo tanto prestar suma
atención a los códigos inscritos en cada objetivo, los
cuales incluyen:
- La magnificación
- La apertura numérica
- La necesidad de un medio entre el
espécimen y el lente frontal
(ninguno/agua/aceite/glicerina)
Figura 6.6

91
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

- La necesidad de un vidrio cubre-objetos y su espesor (e.g. 0.17 indica un cubre-


objetos de 170 μm, es decir ‘#1’)
- La corrección cromática (ninguna/acromatica/apocromática/neofluar)
- La corrección de distorsión de campo (‘plan’)
La Figura 6.6 ilustra los diferentes parámetros marcados en un objetivo.

Aumento de contraste
En la descripción anterior, el observador visualiza el objeto por medio de un haz de luz que
pasa a través de la muestra (microscopía de luz transmitida). Esto implica que la imagen
necesariamente refleja que tanto distintas partes del objeto absorben diferencialmente la luz
que lo atraviesa. Muchas células
y tejidos son básicamente
transparentes y además, por la
ley de Lambert, la absorción de
luz crece exponencialmente con
el espesor del medio, y el
trayecto a través de una célula es
sumamente corto. Por
consiguiente, en la imagen que
se forma es difícil reconocer
estructuras o detalles, ya que
todos los rayos de luz, sin
importar por donde pasen, tienen Figura 6.7
casi la misma intensidad. El panel
A de la Figura 6.7 muestra gráficamente este problema.Una estrategia en uso desde los
comienzos de la histología pretende obviar esta limitante tiñendo los tejidos o células con
colorantes de muy alto coeficiente de extinción que diferencialmente adhieren a distintas
estructuras (por ejemplo al núcleo, o a la membrana); debido a que un colorante absorbe luz,
es posible entonces discernir células individuales o algunas de sus características. En el panel
B de la Figura 6.7 se puede comparar una misma preparación de células en cultivo sin y con un
colorante que las haga visibles. En muchos casos esas tinturas son nocivas y por lo tanto se
suelen aplicar solo a tejidos muertos preservados con un fijativo (por ejemplo, formaldehido).
Esto ha estimulado el desarrollo de métodos alternativos que se pudieran aplicar de una
manera no invasiva a células vivas, para incrementar el contraste de la imagen y poder
visualizar detalles que sería imposible discernir con base en la simple intensidad de la luz que
pasa por la muestra. La mayoría de estos métodos explotan una de las dos siguientes
características de la luz y su interacción con la materia:
• El comportamiento de la luz polarizada al pasar a través de estructuras constituidas
por elementos alargados y alineados en forma sistemática o repetitiva, que por lo
tanto transmitan luz diferencialmente, según la dirección de la polarización.
• La diferente velocidad de propagación de la luz por diferentes medios (i.e. las
diferencias en el índice de refracción de la solución acuosa extracelular, el
citoplasma, organelos, etc.). Esto ha dado origen, entre muchas otras, a la técnica de
microscopía de contraste de fase, inventada por Zernike (quién recibió el Premio
Nobel para la Medicina por esa contribución) y la de contraste de interferencia
diferencial (DIC), inventada por Nomarski. A continuación se describirá brevemente la
segunda, por ser un método más moderno y simple de explicar:

92
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Microscopía de Nomarski. Primero que todo, aclaremos de que forma las diferencias en índice
de refracción entre el espécimen y su entorno (y las diferencias entre distintos puntos del
espécimen) pueden utilizarse para generar diferencias en la intensidad de luz. En la Figura 6.8
se ilustran dos rayos colimados y coherentes (i.e. paralelos, con la misma frecuencia de
oscilación y fase). Uno de ellos (el de
arriba) solo pasa por el medio en el
cual se encuentra el objeto de interés,
sin atravesarlo, el otro en cambio pasa
por el espécimen, que asumimos tiene
un mayor índice de refracción). El
segundo rayo por lo tanto se retrasa al
transitar por un medio de menor
velocidad de propagación de la luz, y
cuando emerge está desfasado con
Figura 6.8 respecto al primero. Si a este punto los
dos rayos interactuaran, habría
interferencia destructiva y por consiguiente una disminución de la amplitud de la onda
resultante (menor intensidad). Este principio sugiere que podríamos crear algún arreglo que
nos permitiera convertir cambios locales en índice de refracción en cambios de intensidad de
luz, pese a que el objeto mismo, al ser transparente, no ha absorbido luz alguna. La esencia de
la microscopía de Nomarski se ilustra en la Figura 6.9A, y consiste en pasar un rayo de luz
linealmente polarizado por un prisma (‘prisma de Wollaston’) que lo descompone en dos rayos
también polarizados pero perpendicularmente el uno al otro, y separados ligeramente. Cuando
este par de rayos cruzan el espécimen (e.g. una célula) pueden bien sea pasar por medios
similares (pares de rayos #1 y #3 en la figura 6.9B), o pueden encontrar distintas estructuras
que difieren en términos de índice de refracción (par de rayos #2). En este último caso, uno de
los dos rayos se retarda respecto al otro, y su oscilación electromagnética se desfasa. Al
emerger del espécimen, los dos rayos son re-combinados por otro prisma de Wollaston llamado
el analizador, e interactúan: si están en fase (i.e. si ninguno se atrasó respecto al otro) lo harán
de una manera constructiva
(se sumarán), mientras que si
están desfasados (por
haberse retardado
diferencialmente) lo harán
destructivamente (el caso
límite es un desfasamiento
de 180°, en cuyo caso se
cancelarán). Por lo tanto se
crearán diferencias en la
intensidad de luz que emerge
de la muestra (que el ojo
puede percibir), a partir de
diferencias en el índice de
refracción de distintas
estructuras (que el ojo no
podría percibir directamente).
Esto permite revelar detalles
que de otra manera serían
invisibles. La Figura 6.10 Figura 6.9
muestra como ejemplo una
micrografía de Nomarski de unas células de neuroblastoma en cultivo: notar la apariencia ‘en

93
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

relieve’ (mientras que bajo microscopía


convencional de campo claro estas células
aparecerían prácticamente transparentes), e
inclusive la detección del contorno del núcleo y el
nucléolo en lagunas células.

Microscopía de contraste de fase. Esta técnica de


aumento de contraste fue la primera a ser
desarrollada. Hemos postergado la presentación
de este acercamiento porque, pese a su
antigüedad y uso muy común, la explicación es
un poco más compleja. En este método una
Figura 6.10 ‘mascara’ al frente del iluminador bloquea gran
parte de haz de iluminación, exceptuando una
región anular. Este elemento, llamado diafragma anular consiste en una pantalla negra y
opaca con sólo un anillo transparente, y se coloca antes del condensador, a una distancia que
corresponde justamente a la longitud focal del condensador (ver Figura 6.11). Como tal, la luz
que emana de cada punto del anillo transparente (y que sea captada por el condensador) se
convierte en un haz paralelo. Al entrar al objetivo del microscopio, cada haz colimado se vuelve
a enfocar en un ‘punto’, lo cual ocurre en el plano focal posterior del objetivo (por definición de
distancia focal). En dicho plano, por lo tanto, se forma una imagen del anillo de iluminación
(mientras que cuando atraviesa el plano del espécimen la luz pasa de una manera difusa, lo
cual garantiza una iluminación espacialmente homogénea). El plano donde se ha de formar la
imagen de espécimen se encuentra, por supuesto,
más lejos que la distancia focal posterior del objetivo, y
a este nivel el haz de iluminación anular se ha vuelto a
desenfocar. La Figura 6.11 aclara todas estas
relaciones. Ahora introducimos un elemento adicional,
llamado placa de fase (Figura 6.12); éste se coloca
también en el plano focal posterior del objetivo, es
decir, a la misma altura donde se forma la imagen
enfocada del anillo de iluminación (la placa de fase
suele estar incorporada en el mismo objetivo). La
placa de fase está construida con un material
transparente, pero contiene una región anular hecha
de un material cuyo índice de refracción es menor que
el resto de la placa; el resultado es que la luz que pase
por este anillo sufre un retardo menor que la que pasa
por el resto de la placa, la diferencia siendo de ¼ de
longitud de onda (λ/4 o 90˚). Este anillo tiene
exactamente las mismas dimensiones y la misma
posición en el plano x-y que la imagen del anillo de
iluminación. En ausencia de una muestra en la platina
del microscopio, el haz de iluminación anular pasa Figura 6.11
enteramente por el anillo de fase, y prosigue,
desenfocándose progresivamente, hasta el plano de la imagen donde produce una región de
iluminación difusa. En otras palabras, mientras no exista espécimen la placa de fase no altera
el patrón de luz, sólo su fase. Ahora supongamos que se ponga una muestra en el plano focal
del espécimen. Al llegar al objeto, algunos de los rayos serán refractados, y por lo tanto su
trayectoria se desviará, con la consecuencia de que al llegar a la placa de fase ya no pasarán
por el anillo sino bien sea por la región interna o externa a él. Una propiedad de la luz

94
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

refractada (cuya explicación trasciende el propósito de estas


Notas) es que además de sufrir una alteración en la dirección,
se retardada su fase por ¼ de λ. Los rayos refractados por
cada punto del objeto se enfocarán en el plano-imagen (ya que
se trata de planos focales conjugados), donde llegarán
desfasados por 180˚ con respecto a los rayos no refractados
(90˚ debido a la refracción y otros 90˚ por pasar fuera de la
región anular). Por lo tanto se creará una interferencia
destructiva, con la consiguiente disminución de la intensidad de
la luz en ese punto: el objeto se verá oscuro sobre un campo
claro. Dependiendo del grado de refracción por distintos puntos
del objeto, habrá una gradación de oscuridad, así que se
percibirán matices. La Figura 6.13 muestra una imagen en
microscopía de contraste de fase de unas neuronas del
mesencéfalo de rata mantenidas en cultivo primario. Puesto
que solo unos pocos sufren una desviación, el anillo de fase
(por donde han de pasar la mayoría de los rayos, que no son
refractados) se construye con un material parcialmente
absorbente que atenúe la intensidad de la luz, logrando hacerla
más parecida a la de los pocos rayos refractado. De esta
manera se optimiza la interferencia en el plano-imagen, y la
posibilidad de visualizar el objeto con buen contraste. De hecho,
Figura 6.12 si se examina un objetivo de fase en contra-luz, es fácil discernir
la presencia de un pequeño anillo de color gris. Hace falta
recalcar que la viabilidad de esta técnica requiere una coincidencia espacial exacta entre la
imagen del anillo de luz y el anillo en la placa de fase. Por eso en un condensador de fase
usualmente están disponibles varios diafragmas anulares (identificados como Ph1, Ph2, Ph3…)
cuyo tamaño hace que la imagen del anillo
luminoso justamente tenga las mismas
dimensiones que el anillo que está incluido en un
objetivo de fase (el cual también se identifica con
el mismo código, bien sea Ph1, 2 etc.). Además, la
posición espacial debe ajustarse con exactitud
para que los dos anillos sobrelapen; esto se logra
con dos tornillos que desplazan el diafragma
anular en el condensador en el plano x/y. Para
monitorear ese ajuste, el observador tiene que
poder visualizar el plano posterior del objetivo, lo
cual no se puede hacer en la configuración normal
del microscopio (donde lo que se enfoca es el
plano del espécimen); esto se logra re-emplazando
el ocular con un elemento especial llamado
telescopio de fase, que tiene una longitud focal
diferente (alternativamente, uno puede
simplemente quitar el ocular y mirar directamente
dentro del microscopio). Notar que en ningún
momento se asumió que el espécimen absorbe
luz: se trata por lo tanto de un objeto transparente.
Este acercamiento permitió en la primera mitad del
siglo XX observar por primera vez células que no Figura 6.13

95
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

se hubieran podido visualizar por simple luz transmitida.

Microscopía de fluorescencia
Hay otra técnica de microscopía que no pretende incrementar el contraste, sino visualizar
muestras o localizar moléculas, aprovechando el fenómeno de la fluorescencia, descrito
anteriormente. Las moléculas fluorescentes
pueden ser intrínsecas de la muestra, o pueden
haber sido añadidas por el observador (por
ejemplo, anticuerpos conjugados a un
fluoróforo, que han sido generados para
reconocer una proteína específica).
Usualmente se utiliza un arreglo en el cual el
rayo de excitación se aplica a la muestra por el
mismo objetivo (microscopía de epi-
fluorescencia, ver Figura 6.14). Para lograrlo, el
haz proveniente de la fuente de luz de
excitación (colocada perpendicular al tren
óptico de la imagen), rebota contra un reflector
dicróico (un espejo de interferencia colocado a
45°, el cual refleja la luz de λ más corta que un
cierto valor crítico pero deja pasar la luz de λ Figura 6.14
más larga que el valor crítico). Así que el haz
de excitación (flecha azul) se mete por el objetivo, e irradia la muestra excitando el fluoróforo.
La luz fluorescente emitida por la muestra es colectada por el objetivo pero, siendo de longitud
de onda más larga (por el desplazamiento de Stokes descrito anteriormente), al llegar al espejo
dicróico pasa derecha y puede ser visualizada. Para incrementar la especificidad de la
observación, es decir la confianza de que la fluorescencia observada se debe específicamente
a la molécula en la cual uno está interesado, se acostumbra limitar la luz que irradia la muestra
de tal manera que contenga solamente longitudes de onda a
las cuales el fuoróforo en cuestión responde de una manera
óptima; esto se logra con un filtro interpuesto en el haz de epi-
iluminación, llamado el filtro de excitación, el cual deja pasar
una banda limitada de longitudes de onda, seleccionada con
base en el espectro de absorción del fluoróforo.
Sin embargo, esto no garantiza que en la muestra no estén
presentes otras moléculas fluorescentes que también sean
excitadas por esas mismas longitudes de onda; pero si éstas
emiten luz a otra longitud de onda (flecha amarilla) entonces
uno puede limitar tal contaminación interponiendo un segundo
filtro, el filtro de barrera, ubicado antes del detector o de los
oculares, con lo cual la recolección de luz se ciñe a una banda
estrecha que represente solamente al espectro de emisión del
fluoróforo de interés (flecha verde). En la Figura 6.15 se ilustra
un ejemplo: células de una línea tumoral (HEK 293) fueron
trasfectadas con un plasmido que codifica la proteína amarilla
fluorescente (YFP, la cual en realidad emite luz verde, pese al
nombre) fusionada a otra proteína de interés. Bajo un
Figura 6.15 microscopio de fluorescencia equipados con filtros de
excitación y de emisión idóneos para la YFP, las células en la
cuales hubo expresión heteróloga del constructo emiten luz de una manera muy clara.

96
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Microscopía confocal
El uso de la microscopía de fluorescencia ha sido sumamente útil para visualizar estructuras
celulares, co-localizar moléculas, monitorear cambios en la concentración de iones como el
calcio, etc. Una limitación de esta técnica es la interferencia de la fluorescencia que se origine
en planos por encima o por debajo del plano focal, y que contribuyen un halo difuso que
degrada la calidad de la imagen. Esto se debe a que moléculas fluorescentes ubicadas en otras
posiciones a lo largo del eje z también son irradiadas por el haz de excitación, como ilustra el
panel de la izquierda de la Figura 6.16, en el cual se muestra solo el camino de la luz de
excitación. Para simplificar el análisis, solamente están indicados dos fluoróforos, uno en el
plano enfocado y otro por debajo (puntos rojos). Al emitir luz, las moléculas ubicadas fuera del
plano focal (O2) contribuyen una luz desenfocada; el camino de la luz emitida está
representado en el panel de la derecha
de la Figura 6.16, el cual muestra este
efecto (los rayos emitidos por el objeto
en foco y por el objeto fuera de foco se
colorearon de lila y de azul,
respectivamente, para distinguirlos);
notar que, debido a que la posición del
punto O2 está fuera del plano focal, los
rayos que emanan de él convergen
prematuramente en un punto-imagen, y
vuelven a desenfocarse al llegar al
detector. Inevitablemente, la presencia
de un fondo difuso de fluorescencia
Figura 6.16
disminuye el contraste de la imagen.
Uno de los acercamientos que permite obviar este problema es la así llamada microscopía
confocal, representada esquemáticamente en la Figura 6.17. En esta técnica el camino de epi-
iluminación solo permite paso de luz por un diminuto agujero en un plano óptico conjugado al
de la muestra. Como tal, sólo se ilumina un punto de la muestra. En el tren óptico de la imagen
hay un segundo agujero, también en un plano conjugado, así que la imagen del primero es
proyectada sobre el segundo y la luz de la emisión fluorescente puede por lo tanto pasar y
llegar a un detector muy sensible, como un foto-multiplicador. Miremos ahora que sucede con
la fluorescencia que se origina en otros planos ópticos: en primer lugar, puesto que el rayo de
excitación está enfocado para
concentrarse en un punto en un cierto
plano, a distancias menores o mayores
este haz estará distribuido sobre un área
mayor (es decir, los rayos bien sea no
habrán convergido o bien habrán
convergido prematuramente y estarán
nuevamente divergiendo). Por
consiguiente, la
densidad del flujo de fotones
(fotones/unidad de área) será menor que
en el plano focal, y la excitación de
moléculas fluorescentes también será
menor. Pero además, cada punto
fluorescente en otros planos proyectarán
su imagen a una distancia que no Figura 6.17

97
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

corresponde a la posición del segundo agujero, y por lo tanto llegarán desenfocados,


distribuidos sobre un área más grande, y serán en gran medida bloqueados, ya que pocos de
los fotones coincidirán con el agujero. En conclusión, tanto la excitación de la muestra como la
detección de la emisión de la fluorescencia son mucho más eficientes en el plano focal que en
otros planos, y por lo tanto la fluorescencia fuera de foco queda en gran medida eliminada.
Aunque en esta descripción y en el diagrama de la Figura 6.14 se presentan dos agujeros
separados (para claridad didáctica), en la práctica la misma meta se logra con un solo agujero
apropiadamente colocado (entre el reflector dicróico y el objetivo), el cual cumple ambas
funciones. Este tipo de diseño de un microscopio, por supuesto, implica que se excita y se
observa solo un punto a la vez, y para crear una
imagen es preciso efectuar un barrido punto-por-punto
de todo el campo de interés en el plano X-Y, y re-crear
computacionalmente la imagen con base en la
intensidad de luz medida secuencialmente en cada
localidad. Inevitablemente, la toma de una imagen es
más demorada que con microscopía convencional,
pero la ventaja es poder aislar una ‘sección óptica’
sumamente delgada (alrededor de 1 μm). El ejemplo
de la Figura 6.18 ilustra este efecto: el soma de una
neurona del mesencéfaclo fue incubado con
anticuerpos contra un tipo de canal de sodio voltaje-
Figura 6.18
dependiente, y marcados con una sustancia
fluorescente; esta proteína se ubica estrictamente en la membrana celular. La micrografía
confocal de fluorescencia muestra una rodaja óptica a través de la mitad de la célula, en la cual
solamente el borde (es decir, la membrana) fluoresce, sin mayor contribución por parte de la
membrana de las caras superior e inferior, ya que éstas, pese a contener también la proteína-
blanco, se encuentran por pocas micras fuera del plano focal. Contrariamente a creencias
populares, la resolución lateral en el plano imagen (x-y) no es mejor que la de un microscopio
convencional: el terreno donde este instrumento brilla es la resolución en el eje z (la
profundidad). Por consiguiente, espécimenes de por sí muy delgados no revelan mas detalles
en un microscopio confocal, comparado con uno convencional; en cambio con espécimenes de
espesor más significativo (a nivel micrioscópico!), se puede obtener información
considerablemente más detallada. Además, se puede repetir el proceso a varias posiciones a lo
largo del eje z, con lo cual uno luego dispone de una pila de imágenes (‘stack’) que muestran
‘rodajas’ del objeto a varias profundidades, y pueden ser manipuladas para generar la
reconstrucción tri-dimensional del objeto.

Microscopía multifotónica
En años recientes se han desarrollado otras modalidades de microscopía cuyo objetivo
principal es también la reducción de la profundidad de campo, para obtener una rodaja óptica
del espécimen, minimizando la contaminación de fluorescencia que se origine de otros planos
focales. Una de ellas, muy en auge hoy en día, se denomina microscopía multi-fotónica, y se
basa en el siguiente principio: para excitar un fluoróforo hace falta un fotón de una cierta
longitud de onda, i.e. de una cierta energía (Figura 6.19, panel superior). Sin embargo, el
mismo efecto debería poderse lograr con dos fotones de la mitad de energía cada uno (por lo
tanto, el doble de longitud de onda), siempre y cuando éstos fueran absorbidos
simultáneamente por el fluoróforo de tal manera que transferirían la misma cantidad total de
energía necesaria para elevar un electrón a un orbital más alto (Figura 6.19, panel inferior). Por
ejemplo, si el pico de absorción del fluoróforo fuera de 380 nm, se podría excitar también con
dos fotones simultáneos de 760 nm (en el infrarrojo). Por supuesto, para lograr que una
molécula-blanco absorbiera dos fotones al mismo tiempo haría falta un flujo de fotones no

98
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

solamente supremamente intenso, sino


además concentrado en un brevísimo
instante. Algunos tipos de láser (por ejemplo,
láser de titanio-zafiro) pueden proporcionar
pulsos de luz muy intensos, cuya duración
puede ser de nanosegundos o inclusive
decenas de picosegundos (1ps = 10-12 s).
Como tal, si la densidad de fotones es lo
suficientemente alta para propiciar que una
molécula blanco pueda absorber dos fotones,
se garantiza la simultaneidad de los dos
eventos, de tal manera que sus efectos se
sumen. Cuales ventajas se derivan de
producir excitación (y la consecuente emisión
de fluorescencia) por medio de absorción
multi-fotónica? Pensemos en enfocar el haz
de luz en un ‘punto’ diminuto, así como se
hace en microscopía confocal, usando un
objetivo de muy alta apertura numérica (ya
sabemos que en realidad ese ‘punto’ tiene
dimensiones finitas, dictadas por el límite de
difracción). En planos más arriba o más Figura 6.19
abajo, el cono de iluminación se ensancha
progresivamente, con un radio proporcional a la distancia desde el punto focal. Por lo tanto, la
densidad del flujo de fotones, siendo inversamente proporcional al área de sección transversal
del cono, disminuirá al alejarse del foco. La probabilidad de excitar moléculas en planos
diferentes al plano focal evidentemente será menor (pero no nula), y éstas contribuirían una luz
difusa, la cual como ya se discutió, el microscopio confocal logra eliminar. Pero si se requiere
que para excitar un fluoróforo han de absorberse dos fotones, la probabilidad de una doble
absorción será el producto de las probabilidades individuales (i.e. el cuadrado) y por lo tanto
decrementará mucho más abruptamente al disminuir la densidad de del flujo de fotones,
comparado con el caso de excitación por un solo fotón. Se obtiene por lo tanto un efecto
excitatorio limitado a un plano muy delgado de la muestra, y no hace falta preocuparse tanto
por la emisión desenfocada en otros planos, ya que ésta será despreciable. En la figura 6.20 se
compara la excitación de un solo fotón vs. de dos fotones del compuesto fluorescente Fluorene
3. Por el objetivo de la izquierda se ilumina la cuveta con pulsos de luz láser de 380 rm, cerca
del pico de absorción de este fluoróforo:
se observa un cono de fuerte emisión
fluorescente cuyo vértice se encuentra
en el punto focal. Por la derecha, en
cambio, se ilumina la muestra con pulsos
de luz de 760 nm: en este caso solo
fluoresce un diminuto punto en el plano
focal del objetivo (flecha roja), ya que
solo donde el rayo de luz se concentra
alcanzando su densidad máxima existe
una probabilidad significativa de que
moléculas individuales absorban
simultáneamente dos fotones y por lo
tanto fluorezcan. Al barrer el punto
Figura 6.20
luminoso sobre la muestra, se puede por

99
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

consiguiente generar la imagen de una rodaja óptica, sin necesidad de limitar la colección de
luz a la que pase por un agujero en un plano focal conjugado; esto hace el diseño del
instrumento más sencillo. Pero hay otras dos ventajas fundamentales: (i) la densidad de
energía incidente alcanza un nivel muy alto solamente en el plano focal, por lo tanto el daño
fotoquímico (tal como la producción de radicales libres tóxicos debidos a la luz absorbida) es
mucho menor respecto a un confocal tradicional. Esto hace posible observación prolongada del
espécimen mientras se preserva su integridad fisiológica. (ii) El uso de longitudes de onda más
largas, usualmente en el infrarrojo, hace que el rayo incidente sufra menos dispersión al
penetrar un medio heterogéneo, y permite por lo tanto obtener imágenes de capas más
profundas de un tejido, en lugar de tener que ceñirse a los estratos superficiales.

Microscopía de fluorescencia con reflexión interna total (TIRF).


En una sección anterior se describió el fenómeno de reflexión total interna, que puede ocurrir
cuando un rayo que se propaga por un medio de alto índice de refracción incide oblicuamente
sobre la interfase con un medio de menor índice re refracción. Analizando desde el marco de
óptica de ondas lo que ocurre cuando el ángulo de incidencia de un rayo alcanza o excede el
nivel crítico, se ha podido concluir que realmente la luz invade el medio de menor índice de
refracción, aunque sea muy ligeramente: de hecho, con el ángulo crítico la onda viaja paralela a
la interfase, pero en el otro medio, penetrándolo por una profundidad diminuta, del orden de
nanómetros. Esta consideración llevó a desarrollar una nueva forma de microscopia de
fluorescencia (TIRF, también conocida como microscopía de onda evanescente), cuyo
propósito es lograr imágenes de una sección ultra-fina del espécimen, notablemente más
delgada de lo que se puede obtener con un microscopio confocal. Este acercamiento permite
por lo tanto discernir estructuras y procesos que normalmente quedarían abrumados por la
presencia de fluorescencia fuera de foco. La figura 6.20 ilustra el diseño básico del microscopio
TIRF, que contempla un rayo láser dirigido oblicuamente a un prisma acoplado a la superficie
de vidrio sobre la cual se encuentra la muestra (usualmente una célula). Debido a que (i) el
índice de refracción del vidrio es mayor que el del líquido que rodea la célula, y (ii) el ángulo de
incidencia excede el ángulo crítico, en la interfase ocurre reflexión total interna. En el proceso,
sin embargo, la onda evanescente (ver recuadro ampliado) alcanza a iluminar una capa
supremamente delgada de la muestra, y excitar un fluoróforo, el cual emite luz (flechas rojas).
Por supuesto, contrariamente al microscopio
confocal, no es posible visualizar ningún
objeto que se encuentre alejado de la
superficie del vidrio, pero de todas formas
este acercamiento ha sido valioso para
examinar en detalle fenómenos de membrana
como la exocitosis, o la adherencia de la
célula al sustrato durante su crecimiento y
movimientos.

Figura 6.20

100
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Superando el límite de difracción.


Aunque se ha presentado el disco de Airy como el límite supremo a la resolución de un
instrumento óptico, existen acercamientos que, combinando óptica y computación, han
permitido exceder esta barrera, especialmente con microscopía de fluorescencia. Una de las
formas, conocida como STORM (Stochastic Optical Reconstruction Microscopy) consiste en
utilizar destellos de luz de excitación tan tenues que solamente muy pocas de las moléculas
fluorescentes presentes en la muestra llegan a ser estimuladas. El resultado sería una imagen
constituida por unos pocos discos de Airy (en el mejor de los casos) desparramados
aleatoriamente en el campo visual. Ahora, uno sabe que en estas condiciones cada mancha
luminosa realmente refleja una sola molécula fluorescente, y que su aparente extensión
espacial sólo se debe a los efectos de la difracción; entonces, se puede reemplazar cada una
de las manchas por un punto luminoso
arbitrariamente pequeño. Al repetir el destello de
iluminación y tomar una segunda imagen,
probabilísticamente los pocos fotones aplicados
caerán en nuevas posiciones, excitando un
conjunto diferente de fluoróforos; de nuevo, se
pueden reemplazar sus respectivas imágenes
por unos puntos diminutos. La figura 6.21
muestra este proceso de una manera
esquemática. Replicando muchas veces el
proceso se obtendrá en cada instancia una
imagen formada por un conjunto diferente de
puntos; si el número de ensayos es muy grande,
uno llega a muestrear toda (o casi) la población
Figura 6.21
de fluoróforos. Combinando esas imágenes se
obtiene una imagen final que muestra todas las estructuras fluorescentes del espécimen, pero
formadas por puntos más pequeños que el tamaño de un disco de Airy, es decir, una imagen
cuya resolución espacial puede llegar a dimensiones moleculares.

En el internet existen varios portales patrocinados por fabricantes de microscopios, en los


cuales se puede acceder a material didáctico y, especialmente, programas interactivos de
simulación del uso de microscopio. En ellos se puede visualizar el efecto de manipular cada
uno de los controles de un microscopio de luz, y constituyen un ejercicio muy útil. Los más
recomendables son:
http://www.olympusmicro.com/primer/lumbrar
http://www.microscopyu.com/

101
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

7. Imagenes Digitales
La importancia creciente de técnicas de adquisición y procesamiento de imágenes por
computador, especialmente en el área de microscopía, justifica el esfuerzo de esclarecer
aunque sea los principios subyacentes más fundamentales de este tema. Pero antes de
enfrentar las tareas directamente pertinentes a las imágenes digitales, es preciso introducir
una breve descripción del problema de empalmar una cámara al microscopio, tema que se
descuida con frecuencia y que lleva a registrar imágenes degradadas y de calidad marginal
(cuando no del todo inutilizables).
Acoplamiento microscopio-cámara. Retomando el diseño tradicional de un microscopio
compuesto, hay que recordar que el objetivo proyecta una imagen real del espécimen, y que
ésta, encontrándose más cerca del ocular que su distancia
focal, forma a su vez una imagen virtual ulteriormente
magnificada. El campo que típicamente se visualiza por el
microscopio tiene unas dimensiones, a nivel de la imagen
intermedia, del orden de 20-25 mm; si se acopla la cámara al
puerto lateral del microscopio, ésta necesitaría poder enfocar
un objeto del tamaño de una moneda ubicado a una distancia
de unos 20-30 cm, tarea que requiere un objetivo tele-macro. Si
en cambio tratáramos de utilizar el lente convencional de una
cámara (e.g. 50 mm para el formato de película de 35 mm), a
esa distancia se abarcaría un campo mucho mayor: por
consiguiente el área de interés se vería diminuta, al centro de
un gran fondo negro, un fenómeno conocido como ‘vignetting’
(Figura 7.1). Una de las consecuencias es que solo una
pequeña porción del sensor de la cámara se utilizaría para
visualizar el espécimen, resultando en una seria degradación
de la resolución de la imagen, como se discutió anteriormente.
Por lo tanto, el uso (lamentablemente, muy común) de cámaras
convencionales para tomar directamente una imagen desde un
microscopio delata desconocimiento de los principio de óptica y
de diseño del microscopio! Lo que hace falta es un ‘ocular’
especial, llamado lente de proyección, tal que su punto focal
esté más cerca que la imagen intermedia, permitiendo así Figura 7.1
proyectarla sobre el sensor de la cámara.
Resolución espacial. El primer punto a tener en cuenta es que una imagen digital está
compuesta por un número finito de puntos. Esto resulta bien sea de haber sido adquirida por un
sensor constituido por una matriz de elementos discretos fotosensibles (e.g. el chip CCD de
una cámara digital), o bien digitizando la salida de un sensor análogo (e.g. por medio de una
tarjeta de conversión análogo-digital para TV o videos). En lo que sigue asumiremos que la
adquisición original fue digital, que es el caso más frecuente. Se acostumbra llamar “pixel”
(picture element) tanto a cada punto de la imagen misma como (impropiamente) a cada
elemento de un sensor digital. La resolución de una imagen digital depende fundamentalmente
de dos factores cuya relevancia es obvia:
- La resolución óptica del instrumento con el cual fue obtenida (e.g. el
microscopio)
- El número de pixels

102
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Menos trivial es la importancia de como éstos dos factores interactúan: ya sabemos que el
límite de resolución óptica está determinado por el tamaño del disco de Airy, y que dos puntos
del objeto podrán discriminarse solamente si sus respectivos
discos de Airy en el plano-imagen no están sobrelapados. Para
preservar esta resolución en la imagen digital es imprescindible
que en el sensor las imágenes de dos puntos apenas
separables ópticamente caigan sobre pixeles diferentes En la
Figura 7.2 se muestran las imágenes de dos puntos apenas
separables opticamente. En un caso (panel superior) la matriz
del sensor está compuesta de pixels finos, y los dos discos de
Airy estimulan pixels separados; la imagen digital mostrará la
presencia de dos puntos distintos. En el otro caso (panel
inferior) la misma imagen óptica es colectada por una matrix de
elementos más grandes, y los dos discos de Airy ocupan el
mismo pixel; la imagen digital reportará un solo punto. Es fácil
imaginar condiciones en las cuales este requisito no se cumple,
por ejemplo cuando la magnificación óptica de la imagen es
insuficiente para el tamaño del sensor: consideremos un
microscopio equipado con una cámara digital de alta resolución,
digamos 2400x2400 pixels (5.7 Mpixels), cuyo sensor tiene una
superficie de área de 1 cm2. Si la imagen del objeto en ese
plano fuera mucho más pequeña, por ejemplo un disco de 2
mm de diámetro (como por ejemplo cuando se magnifica una Figura 7.2
célula de 20 μm de diámetro con un objetivo de 100×), se
estaría utilizando solamente el 3% de la superficie del sensor, es decir aproximadamente ≈173
mil pixels. La imagen efectiva no podría llamarse de ‘alta resolución’, y muchos detalles finos se
perderían ya que no quedarían registrados por pixels separados. Por lo tanto, para obviar el
problema, se debería bien sea magnificar ulteriormente la imagen por medio de un lente, antes
de proyectarla sobre el sensor, o bien tener un sensor de esa misma resolución pero de
dimensiones mucho más pequeñas.
Profundidad de pixel. Otra consideración igualmente
importante, para establecer diferencias finas entre
distintas regiones de la imagen, concierne el número
de niveles de intensidad de luz codificados por cada
pixel. Si la cámara fuera de 8 bits, quiere decir que el
número binario que representa la intensidad de luz
en cada pixel admite 256 valores posibles (28). Si se
tratara de una cámara de 12 bits, serían 4096
niveles, etc. Claramente, la posibilidad de discernir
detalles mejorará al aumentar la cantidad de bits, ya
que permitirá distinguir puntos de la imagen que,
aunque ópticamente separable, tienen intensidades
parecidas; en cambio, una codificación capaz de
establecer solamente pocos niveles de intensidad
podría asignar el mismo valor a dichos puntos.
Nuevamente, las especificaciones nominales no
quieren decir que ese desempeño se realiza en la
práctica. Por ejemplo, supongamos que en una
cámara de 8 bits el máximo de luz que puede recibir
Figura 7.3 un pixel durante el intervalo de exposición fuera de

103
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

20000 fotones; es decir, esa intensidad representa el valor máximo (11111111 binario o 256
decimal), más allá del cual estaríamos en saturación. Si en la imagen adquirida los diferentes
pixels hubieran sido expuestos a un rango entre 1 y 500 fotones, esto representaría solamente
unos 6 niveles (de los 256 posibles), y por lo tanto diferencias de intensidad entre pixels
menores de un 15% no podrían discernirse, porque serían asignadas a los mismos números;
sería como trabajar con una cámara de solo 3 bits. La Figura 7.3 ilustra este problema: la
imagen de la misma neurona fue tomada a la misma resolución espacial, pero con direferente
profundidad de bits: sin lugar a duda la imagen A, codificada con ≈64 diferentes matizes de gris
entre negro y blanco, proporciona información mucho más detallada que la imagen B, en la cual
sólo se permiten 5 niveles de intensidad. Para dar un ejemplo práctico, pensemos en un
estudio de inmuno-fluorescencia para determinar si hay o no una segregación de la expresión
una cierta proteína-blanco en diferentes regiones de una célula. Si efectivamente existiera un
patrón de distribución espacial diferencial pero, una vez digitizada la fluorescencia, los distintos
niveles de marcaje aparecieran comprimidos, asignándosele el mismo número a los diferentes
pixels, se llegaría a la conclusión errónea de que la expresión es uniforme. Nuevamente, la falla
radica en un mal uso del instrumento, que impide extraer la información pertinente.
Tamaño de archivo y compresión. Juntando los conceptos anteriores, podemos ahora
formarnos una idea de los requerimientos de memoria para almacenar imágenes digitales. En
primer lugar, si la imagen es monocromática, se necesita un número binario para cada pixel, el
cual consiste de cierto número de bits; multiplicando esta cantidad por el número de pixels se
obtiene el total de bits (o, dividiendo por 8, el número de bytes). Por ejemplo, una cámara de
1280×1024 a 8 bits genera imágenes que requieren ≈1.3 MBytes de memoria. Si la cámara
fuera de colores, en cada pixel habría 3 sensores distintos (para rojo, vede y azul), cada uno de
los cuales codifica separadamente la intensidad de luz en esa banda espectral; haría falta
entonces el triple de memoria para almacenar la imagen. A esto hay que agregar un
encabezamiento del archivo, el cual contiene información crítica para que el computador pueda
decodificar y mostrar la imagen en la pantalla (es decir, la resolución, modalidad, profundidad
de bits, etc.). Existen diversas estrategias para reducir el tamaño del archivo que contiene una
imagen, y se conocen como algoritmos de compresión, las cuales pueden ser más o menos
efectivas según las características de cada imagen. A continuación describimos un ejemplo
muy simple, conocido como “codificación de longitud de carrera”. Consideremos una imagen
monocromática sencilla, que consiste en la silueta de una rana, ilustrada en la Figura 7.4. En
principio, su representación debería consistir en una lista de números que representan,
secuencialmente, la intensidad de cada pixel
en cada hilera, repetido para todas las
hileras. Supongamos que solo hay blanco y
negro. Si hubiera solamente 32 pixel por
hilera (una imagen de bajísima resolución) y
lo mismo por columna, se necesitarían 32×32
= 1024 bytes para representar dicha imagen.
Pero si la misma intensidad se repite a
menudo en pixels contiguos, existe una
estrategia más ventajosa: indicar el nivel de
intensidad y cuantas veces se repite. Por
ejemplo, el la primera línea de la imagen
ejemplo, todos los pixels son blancos, y
digamos que el blanco esté codificado por ek
numero “0”. En lugar de hacer una lista de 32
números, todos con el valor “0”, podemos
utilizar solamente dos números, uno para Figura 7.4

104
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

indicar el valor del pixel (0) y otro para indicar cuantas veces ocurre consecutivamente en la
hilera (32). Otra hilera de la imagen, en una región donde se encuentra el sujeto, requiere
información más elaborada: por ejemplo, que hay 5 pixels blancos (valor “0), seguidos de 11
negros (valor “1”), otrs 2 blancos, 4 negros, y 10 blancos (ver figura). Aún así, para esta hilera
de pixels más compleja, sólo hicieron falta 10 números para representarla, en lugar de 32. En
otras palabras, estamos logrando presentar la misma información contenida en una lista
completa de los valores de intensidad de todos los pixels, utilizando solo un número reducido
de bits. Faltaría añadir alguna información ulterior para decodificar la imagen (por ejemplo,
donde termina cada línea), pero de todas manera el ahorro de memoria puede ser enorme.
Naturalmente, entre más largas las carreras de números repetidos, más dramática la
compresión; por otra parte, si las intensidades cambiaran muy a menudo a lo largo de la hilera
(lo que en un capítulo anterior hemos denominado “altas frecuencias espaciales”; ver sección
sobre sistemas lineales), entonces la ganancia podría ser marginal. En este ejemplo, la
totalidad de la información de la imagen original es retenida, pero otros esquemas de
compresión optan por lograr una mayor compresión sacrificando aspectos de importancia
relativamente secundaria, para que las pérdidas no sean visualmente notorias; sin embargo,
para cierto tipo de análisis cuantitativo podría no sea aceptable descartar información alguna,
así que sería preciso tener conocimiento del algoritmo a ser empleado.

Histograma de intensidad. Ahora consideremos un análisis global de la imagen. Una primera


descripción sencilla concierne como están distribuidos los diferentes niveles de intensidad; esto
se obtiene creando un histograma de frecuencia: simplemente se tabula, para cada uno de los
valores de intensidad permitidos, el número de pixels en la imagen que tienen esa intensidad, y
se representa gráficamente la información en un histograma que muestra en el eje X la escala
de valores de intensidad, y en el eje Y la frecuencia con la cual éstos recurren. El panel de la
derecha de la Figura 58A ilustra un ejemplo en el
cual no hay pixels con intensidades ni menores que
50 ni mayores que 150, y que entre 50 y 150 la
distribución es aproximadamente en forma de
campana (curva azul). Por supuesto, el área bajo la
curva (la suma de #pixels en cada intensidad) debe
coincidir con l total de pixels.

De que nos sirve lo anterior? En primer lugar, nos


informa sobre el rango dinámico de la imagen, es
decir, cual porción del abanico de niveles permitidos
se ha utilizado. Esto, a su vez, indica el contraste de
la imagen, que refleja la diferencia entre el nivel más
oscuro y el más claro de la imagen (lo
‘desparramado’ que es el histograma en el eje
horizontal). También, el acumularse de unos conteos
muy altos en el límite superior del histograma nos
puede sugerir que una o más regiones de la imagen
probablemente han alcanzado el nivel de saturación
(de la misma manera, la acumulación de valores en
0 indica saturación en el extremo opuesto).
Información sobre la distribución de intensidades es
esencial para poder optimizar la exposición: si la
distribución de pixels tiene intensidades que se ciñe
principalmente al rango inferior los niveles posibles, Figura 7.5
es deseable incrementar la duración de la exposición

105
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

o aumentar la iluminación; viceversa, indicios de saturación piden decrementar la exposición. El


histograma es también una guía para procesar y transformar la imagen misma después de la
adquisición; para este fin hay que entender el uso de funciones de transferencia de la
intensidad, lo cual hace referencia simplemente a una regla para alterar la intensidad de los
pixels; esta regla es representable en una gráfica en la cual la abscisa (x) indica los valores de
intensidad, y la ordenada (y) la manera como éstos serán modificados. Si no se aplica cambio
alguno, la función de transferencia sería una simple línea recta con una pendiente de 45˚, es
decir y = x, como se ilustra en el panel abajo a la derecha en la Figura 7.5A. Imaginemos que la
imagen tuviera una apariencia demasiado oscura; entonces quisiéramos aclararla
incrementando la intensidad de todos los pixels por una cierta cantidad fija; la función de
transferencia sería simplemente la línea y = x+c donde c es el incremento arbitrario de
intensidad que se aplica a toda la imagen: se trataría de desplazar hacia arriba toda la línea
(panel gris de la Figura 7.5B). El efecto de la manipulación se puede fácilmente apreciar en el
histograma de distribución intensidades, el cual sufriría un desplazamiento horizontal hacia la
derecha. Si quisiéramos en cambio aumentar el contraste, incrementaríamos la pendiente de la
línea que representa la función de transferencia (por supuesto, sujeto a la restricción de que al
llegar al mínimo o máximo, tendría que permanecer en saturación). Esto haría que pixels que
diferían poco en intensidad en la imagen original diferirán mucho más en la imagen
transformada. Al aumentar el contraste, el histograma de intensidades se expandirá
horizontalmente, ocupando una mayor porción de la abscisa (Figura 7.5C). También podríamos
enfatizar selectivamente diferencias entre pixels de baja luminosidad, y de-enfatizar las
diferencias entre niveles muy altos de intensidad (por ejemplo, para revelar detalles de las
zonas más oscuras de la imagen); viceversa, se pueden incrementar selectivamente las
diferencias entre pixels de altos niveles de luminosidad. Esta forma de expandir selectivamente
el contraste bien sea en el rango inferior o
superior de intensidades se conoce como
la corrección γ (gama), se logra
imponiendo una curvatura a la función de
transferencia. En el histograma de
intensidades, este tipo de transformación
se revelaría como una expansión
horizontal, pero solamente ceñida bien
sea a la porción de la izquierda o la de la
derecha de la distribución. Los paneles A
y B de la Figura 7.6 ilustran la aplicación
de una curvatura negativamente
acelerada. La foto en cuestión muestra el
embrión de un pez cebra, la cual contiene Figura 7.6
zonas muy oscuras y prácticamente
indiferenciadas (por ejemplo, el ojo, visible a la derecha); al incrementar el valor de γ de 1.0 (i.e.
función de transferencia rectilínea) a 1.6, se enfatizan las diferencias entre pixels de poca
luminosidad, sin que se alteren los pixels más claros. Viceversa, se podría exagerar
selectivamente las diferencias entre los pixels de alta intensidad utilizando una función de
curvatura positiva. La Figura 7.6C muestra una sección histológica de retina de pez cebra
adulto: aquí el problema es que no se distinguen bien las diferencias entre pixels muy claros,
pero al usar un valor de γ de 0.5 la pendiente de la función de transferencia se incrementa
específicamente para el rango intensidades más altas, con el resultado de que se empiezan a
vislumbrar detalles en el tejido (Figura 7.6D).
Finalmente, se puede también establecer un umbral de intensidad por debajo del cual todo
pixel quedaría reducido a cero: esto requiere que la función de transferencia sea plana con un

106
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

valor = 0 entre la intensidad mínima y un cierto nivel (el umbral), y creciera de allí en adelante;
esta manipulación puede ser útil para suprimir el ‘fondo’ de una imagen y hacer resaltar el
sujeto. Este caso es como eliminar la porción del histograma de intensidades por debajo de
cierto valor de la abscisa. En todas estas manipulaciones, un constante monitoreo del
histograma de intensidad permite evaluar que las transformaciones produzcan una distribución
deseable de intensidades, evitando la saturación.

Filtros espaciales. Así como es posible mejorar significativamente una imagen ya digitizada
alterando la intensidad de los diferentes pixels, también se puede reducir el ruido de la imagen
o, viceversa, mejorar la nitidez del enfoque; ambas modificaciones hubieran sido inconcebibles
antes del desarrollo de las imágenes digitales. En este tipo de manipulación las reglas para
modificar intensidades tienen en cuenta no solamente el valor de cada pixel individual (como
era el caso de la función de transferencia para aplicar cambios de luminosidad, de contraste, o
de gama), sino también los valores de los pixels que lo rodean. Es decir, el nuevo valor de
intensidad de cada pixel de la imagen será el resultado de alguna operación en la cual se
combinan su valor original con los valores de otros pixels en el vecindario. La manera
específica como se efectúa esta combinación determina el resultado. Por ejemplo, si se
cambiara cada pixel por el promedio de los valores de una matriz de 3x3 pixels (centrada en
él), inevitablemente se reducirían fluctuaciones locales de intensidad: dos pixels contiguos que
difirieran significativamente en sus respectivas intensidades quedarían mas similares por el
efecto de promediar; en cambio, pixels contiguos que de por sí se asemejan no se verían
afectados (porque sus valores ya se parecen al promedio). Se trataría entonces de un filtro que
rechaza selectivamente transiciones locales abruptas: en jerga técnica diríamos que elimina
altas frecuencias espaciales, mientras deja pasar bajas frecuencias espaciales (el equivalente
espacial de lo que un filtro pasa-bajos hace en el dominio temporal). En la práctica, resulta más
efectivo no llevar a cabo un simple promedio, sino un promedio ponderado que asigne
diferentes ‘pesos’ a diferentes pixels, según su distancia del pixel
central.
La Figura 7.7 muestra tres ejemplos de matrices de coeficientes,
que se conocen como el kernel de un filtro y representan los
factores por los cuales se multiplicaría el valor de intensidad de
cada pixel, antes de sumarlos y colocar el resultado en el pixel
central, reemplazando el valor original. El panel A muestra un
ejemplo en el cual se promedia una matriz de 3x3 (i.e. se suman
los 9 valores y se divide el resultado por 9; equivalentemente, se
multiplica primero cada valor por 1/9 y se hace la suma), mientras
que el panel B ilustra el caso de un promedio ponderado en una
matriz que atribuye mas peso al pixel central (notar que la suma
de los coeficientes es siempre =1, con lo cual no se está
alterando la luminosidad general de la imagen, sólo sus
características espaciales). Los ejemplos anteriores tenderían a Figura 7.7

desenfocar una imagen porque ‘suavizan’ linderos nítidos y bien demarcados (el precio que se
paga por reducir ruido); a veces se busca en cambio acentuar linderos para hacer resaltar
objetos en la imagen. Esto se puede lograr con un filtro que tienda a enfatizar transiciones
locales abruptas, y es simplemente el resultado de cambiar la matriz de coeficientes (es decir,
el kernel). Si, por ejemplo, el coeficiente central fuera positivo y los de los alrededores
negativos (Figura 7.7C), entonces todo pixel rodeado de otros de similar intensidad se vería
reducido en intensidad (porque a su valor se le restaría un cantidad similar); esto de-enfatiza
regiones de intensidad más o menos uniforme. En cambio, pixels de alta intensidad rodeados
de otros de baja intensidad (o viceversa) resaltarán su contraste. La aplicación de un filtro de

107
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

este tipo permite ‘enfocar’


una imagen borrosa; al
mismo tiempo, su uso
requiere cierto cuidado
puesto que se trata de un
procesamiento que enfatiza
transiciones locales de
niveles de intensidad, y si la
imagen tiene de por sí un Figura 7.8
fondo poco uniforme, al
aplicársele el filtro se acentuaría el ruido de fondo. La Figura 7.8 ilustra los efectos de filtros que
atenúan frecuencias espaciales bajas (i.e. ‘pasa altos’) y frecuencias espaciales altas,
respectivamente. La imagen es una micrografía electrónica de barrido de un fotorreceptor
aislado de la retina de un molusco.

108
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

8. El láser
En secciones anteriores se ha mencionado varias veces el láser como fuente de iluminación
para algunas técnicas de microscopía, tales como TIRF, microscopía multifotónica, y muchos
microscopios confocales. Este instrumento es de amplia utilización en diversos contextos, no
solamente la microscopía, lo cual justifica presentar una breve introducción a sus principios de
funcionamiento. El nombre “láser” es la sigla de Light Amplification by Stimulated Emission of
Radiation (amplificación de luz por emisión estimulada de radiación). Su característica
fundamental es que la luz que emite es coherente, es decir, se trata de ondas que tienen la
misma frecuencia (luz monocromática) y además la misma fase de oscilación. La emisión
ocurre en un haz altamente colimado (rayos paralelos) que puede ser muy fino (o enfocarse
ulteriormente en un punto extremadamente
pequeño). Los mecanismos detallados de
generación de la luz láser trascienden las
metas des estas notas; sin embargo, podemos
resumir brevemente sus características
fundamentales. En pocas palabras, una
población de cierta clase de moléculas es
mantenida activamente en un estado de
excitación electrónica, al ser irradiada de una
manera continua (‘bombeada’), típicamente por
una fuente convencional de luz. Al decaer un
electrón a un orbital más bajo, se emite un
fotón, el cual puede ser absorbido por otra
molécula del medio; ésta, al encontrarse ya en
el estado excitado, por el principio de emisión
estimulada, sufre una transición de de-
excitación, con la consiguiente emisión de luz.
Pero, por supuesto, el fotón incidente no es Figura 8.1
absorbido (de lo contrario el proceso no estaría
acompañado por una disminución de la energía de la molécula - la de-excitación -, sino un
aumento), lo cual implica que se tienen ahora dos fotones; estos pueden interactuar con otras
moléculas del medio que también se mantienen en estado excitado, y el proceso se repite.
Como tal, las emisiones espontáneas se multiplican a través de emisiones estimuladas. El
panel A de la Figura 8.1 ilustra el fenómeno. Así que, mientras la mayoría de las moléculas se
mantengan en estado activado (‘inversión de la población’), la luz se va amplificando. Este
proceso ocurre en un compartimiento cerrado (la ‘cavidad resonante’) que tiene a un lado un
espejo y al otro un espejo parcialmente transparente, que deje pasar una fracción diminuta de
la luz (Figura 8.1B). De esta manera, los fotones quedan rebotando de un lado a otro,
incrementando la probabilidad de inducir más y más emisiones estimuladas; siendo la longitud
de la cavidad resonante un múltiplo de la longitud de onda emitida, se forman ondas
estacionarias: las que no están en fase se anulan, las que están en fase se refuerzan. De esta
manera, solamente ondas coherentes salen por el lado semi-transparente. La longitud de onda
de la luz emitida por un láser depende de la naturaleza del material utilizado, por eso se habla
de láser de gas (por ejemplo, Helio-Neón que emite principalmente a las a longitudes de onda
de 543 y 633 nm – las así llamadas ‘líneas’ de emisión), lásers de estado sólido (por ejemplo,
de rubí, que emite a 694 y 628 nm), etc. Además, diferentes lásers pueden emitir luz de una
manera continua (los así llamados ‘continuous wave’ o CW), o bien lo hacen por pulsos
discretos cuya duración puede llegar a ser extremadamente corta, hasta de fempto-segundos
(10-15 s, i.e. milésimas de trillonésimas de segundo!).

109
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Aplicaciones del láser: (ii) pinzas y trampas ópticas


Todas las aplicaciones de principios ópticos que hemos considerado hasta el momento
concernían la observación de muestras o la caracterización de sus propiedades. Puede resultar
sorprendente enterarse de que la luz también se puede utilizarse para manipular
mecánicamente ciertos objetos diminutos, o para monitorear la fuerza mecánica que éstos son
capaces de ejercer. Todo ello se desprende de un principio igualmente sorprendente, según el
cual la radiación electromagnética es capaz de ejercer una presión, la así llamada presión de
radiación: ésta es una fuerza que tiene la misma dirección que la de propagación del rayo
luminoso. Lo extraño es que, vista desde el punto de vista de la teoría corpuscular, la luz está
constituida por fotones y éstos no tienen masa alguna, con lo cual uno se pregunta como
podrían ejercer una fuerza mecánica. Sin embargo, resulta que un fotón tiene momento, (lo
cual evidentemente requiere apartarse de la definición clásica P = m⋅v); se pudo llegar a esta
conclusión desde las ecuaciones de Maxwell, tomando en cuenta el efecto del componente
magnético de la onda sobre una carga que esté siendo afectada por ella, y de otras
consideraciones, en especial la teoría de la relatividad. Ahora, si al interactuar con la materia el
momento de un fotón se ve alterado (bien sea debido a absorción, que lo aniquilaría del todo, o
bien a reflexión o refracción, que le alterarían la dirección) entonces, por la tercera ley de
Newton (el principio de acción y reacción) un cambio de momento igual y opuesto, es decir una
fuerza, se aplicaría a la partícula que interactuó con el fotón (F = m⋅a = m⋅dv/dt, i.e. dP/dt). Las
fuerzas en cuestión son diminutas, y requieren intensidades de luz muy altas para manifestarse
visiblemente, pero a niveles de partículas microscópicas pueden ser lo suficientemente
conspicuas para producir fenómenos observables. La posibilidad de ‘empujar’ una partícula
muy pequeña con un haz se luz fue verificada hace mucho tiempo, pero también se
documentaron fenómenos adicionales que abrieron un horizonte de posibilidades
insospechadas: una de las observaciones seminales fue constatar que si el rayo tenía
intensidad mayor en el centro que en la periferia (como ocurre en el ‘modo’ más común de
funcionamiento de una láser, el así llamado TEM00, en el cual el rayo tiene el perfil de una
campana de Gauss), entonces la partícula tendía a ubicarse espontáneamente justo en el eje
del haz, mientras que al apagar la luz
inmediatamente reanudaba su movimiento
Browniano lateral. Estos fenómenos pudieron
explicarse examinando los cambios en la
dirección de diferentes rayos refractados por la
partícula (y por lo tanto los cambios en sus
respectivos momentos y la fuerza resultante final),
lo cual llevó al invento de ‘trampas ópticas’ o
‘pinzas ópticas’ (‘optical tweezers’), que sirven
para ‘agarrar’ y manipular una partícula
aproximadamente esférica (o por lo menos
convexa), siempre y cuando ésta tenga un índice
de refracción mayor que el del entorno.
Consideremos un rayo altamente enfocado en un
punto (un disco de Airy, en realidad) por medio de
un objetivo de microscopio de gran apertura
numérica, y miremos lo que sucedería a una
partícula de alto índice de refracción que entrara
al cono de luz (Figura 8.2A). Para simplificar el
análisis, pensemos solamente en un rayo central y
dos rayos bien periféricos (el análisis completo Figura 8.2
requeriría hacer el balance de todos los rayos que

110
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

inciden sobre la partícula). El rayo central, al encontrar una interfase a 90 grados no alteraría su
dirección sino solamente se enlentecería (por el mayor índice de refracción); el cambio de
momento implicaría una fuerza igual y opuesta que empujaría la partícula hacia adelante; esto
representa una manifestación de la presión de radiación mencionada anteriormente. Pero los
rayos periféricos también incidirían sobre la superficie de la partícula con un ángulo cercano a
la normal, y sufrirían poca refracción (el caso límite, ilustrado en la figura, es que el centro de la
partícula esférica coincidiera con el foco, en cuyo caso no habrá ninguna refracción porque
todos los ángulos de incidencia serán de 90 grados). La presión de radiación de cada rayo se
puede descomponer, por la ley del paralelogramo, en un componente vertical que empuja la
partícula, y otro horizontal hacia el eje óptico, el cual se anula entre diferente rayos, por
simetría (flechas rojas). La fuerza neta resultante tenderá a alejar la partícula. Si ésta llega
poco mas lejos del punto focal, la situación cambia: mientras el rayo central sigue empujando,
un rayo periférico encontrará la interfase con un ángulo muy oblicuo y será fuertemente
refractato, como muestra la Figura 8.2B; nuevamente, la fuerza sobre la partícula debida a ese
cambio en momento (flecha verde, igual y opuesta al cambio de momento representado por la
flecha negra) se puede descomponer en un componente transversal y otro alineado con eje
óptico pero esta vez apuntando hacia el objetivo (flecha roja vertical). Lo mismo ocurriría con un
rayo simétricamente ubicado al otro lado de la partícula. Es decir, mientras la presión de
radiación del rayo central ‘empuja’ la partícula, los rayos periféricos ahora la ‘jalan’. En otras
palabras, existirá, a lo largo del eje óptico una distribución de fuerzas en dirección opuestas:
una en la misma dirección que la luz, y la otra que puede oponérsele; ésta última cobra más
fuerza cerca del foco. Si en algún punto a lo largo del eje las dos tendencias se equiparan, una
partícula quedará atrapada en ese sitio. Por consiguiente, una partícula que entrara al cono de
luz se desplazaría hasta el punto en el cual las fuerzas en direcciones opuestas se balancean,
y allí permanecería en estado estacionario; si se moviera el rayo, la partícula lo seguirá. Con
esto se ha logrado, por ejemplo, inmovilizar bacterias, o separarlas, y hasta manipular
espacialmente estructuras sub-celulares como mitocondrias. Otro campo de aplicación ha sido
el estudio de la interacción de motores moleculares, como miosinas o kinesinas, con filamentos
de actina o microtúbulos inmovilizados sobre una lámina de vidrio. Para observar la función del
motor molecular, éste se acopla a una ‘bolita’ (por ejemplo, una micro-esfera de sefarosa) la
cual fungirá de ‘carga’ que será transportada por el motor al deslizarse por el filamento-
sustrato, y, siendo de tamaño suficiente, podrá visualizarse por un microscopio óptico de alta
resolución. Tradicionalmente, experimentos de este tipo han sido muy dispendiosos porque en
una solución diluida la probabilidad de interacción entre los dos partners es muy baja, y el
experimentador debe esperar interminablemente para que ocurra una asociación y empiece el
movimiento. Con pinzas ópticas, en cambio, se puede agarrar un complejo miosina/sefarosa, y
físicamente colocarlo sobre la actina para dar inicio al experimento, sin demora alguna. Otra
área muy fructífera se ha desarrollado a partir de la noción de que una pinza óptica puede
oponerse al movimiento de un objeto microscópico, por ejemplo un cilio. Si se logra anular por
completo su movimiento, quiere decir que la fuerza de la pinza óptica, la cual depende de la
intensidad del haz de luz (la cual está bajo el control del experimentador), es exactamente igual
y opuesta a la del sujeto; por lo tanto, es posible cuantificar ésta última (hasta en trillonésimas
de Newton!). De esta manera se ha podido determinar la fuerza ejercida por un flagelo de una
bacteria, o inclusive la de una molécula de polimerasa mientras se desplaza a lo largo de la
hebra de ADN que le sirve de templete, generando un RNA mensajero!

Aplicaciones del láser: (iii) cirugía y micro-cirugía


Otro de los usos del láser en biomedicina es para cirugía: entre los más utilizados se
encuentran el láser de CO2 cuya luz tiene una longitud de onda en el infrarrojo profundo (≈10
μm) y es absorbida por el agua contenida en los tejidos, con lo cual los vaporiza (debido al

111
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

drástico aumento de temperatura), cauterizando y limitando hemorragias; el láser de Argon


emite luz a longitudes de onda visible (e.g. 488 nm y 514 nm), que es fuertemente absorbida
por la hemoglobina, y también cauteriza el tejido produciendo rápida coagulación de las
sangre. Aplicaciones similares se han desarrollado a escalas celulares, en las cuales un rayo
láser altamente enfocado en un punto diminuto por medio del objetivo de un microscopio se
utiliza para irradiar una célula específica en un tejido, destruyéndola. En algunas instancias, se
prefiere micro-inyectar primero a la célula-blanco con algún colorante que absorba fuertemente
en una banda específica del espectro de luz, y luego irradiarla con un láser de la longitud de
onda apropiada para ese colorante, con lo cual se maximiza la selectividad y la efectividad de
la ablación óptica, evitando daños a tejidos limítrofes. Acercamientos de este tipo han
permitido, entre otras cosas, establecer el rol de células específicas en un circuito neuronal.

112
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

9. Óptica Fisiológica
En esta sección aplicaremos los principios de la óptica al análisis del ojo: la formación de
imágenes, la resolución, y, en algunos casos, la presencia de mecanismos básicos para
controlar el enfoque y la cantidad de luz que reciben las células fotosensibles. Finalmente,
también se elucidarán las bases de la visión cromática, i.e. la capacidad de percibir colores.
El ojo de los vertebrados
El sistema visual de la gran mayoría de los organismos utiliza un aparato óptico refractivo para
formar una imagen del mundo externo (solo se conocen pocos ojos que utilicen un espejo). El
propósito es enfocar la luz de cada punto de un plano focal del mundo externo sobre el sensor,
la retina, que está formada por de células fotosensibles. Se conocen dos diseños
fundamentales de ojo en la naturaleza. Uno es el así
llamado ojo simple por estar constituido por un solo
sistema dióptrico; ojos simples se encuentran en todos los
vertebrados, y en varios invertebrados como los
cefalópodos (e.g. calamares y pulpos). Otro diseño,
llamado ojo compuesto es común entre la mayoría de los
invertebrados, y consiste en una matriz de elementos
ópticos independientes, cada uno con sus propio aparato
para enfocar la luz. A su vez, los ojos compuestos admiten
variantes, cuyas características difieren de una manera
fundamental. En esta discusión son concentraremos en el
ojo simple de los vertebrados, en el cual el sensor de luz Figura 9.1
está constituido por un mosaico de células altamente
especializadas, conocidas como conos y bastones; los bastones son más sensibles y se
distribuyen en la mayoría de la retina periférica, mientras que los conos se concentran el la
pequeña región central conocida como la fóvea (Figura 9.1; el diagrama representa los conos y
bastones con su segmento externo foto-sensible apuntando hacia la dirección de llegada de la
luz: en realidad en los vertebrados la retina es invertida, y la luz ha de atravesar todas las
capas de la retina hasta llegar a los fotorreceptores, los cuales apuntan hacia afuera!).
Dos elementos ópticos cumplen la función de proyectar la imagen de los objetos del espacio
visual sobre la retina: (i) la córnea, que forma la primera interfase, i.e. la superficie externa de la
porción frontal del ojo (ii) el lente o cristalino, ubicado más internamente. A pesar de la
curvatura y espesor del cristalino, es la córnea que desempeña el rol principal como elemento
refractivo, en parte debido al cambio mucho más abrupto de índice de refracción en la interfase
aire-córnea, comparado con la interfase entre los fluídos intra-oculares (‘humor acuoso’) y el
cristalino: del poder total de ≈59 dioptrías del ojo humano, ≈43 se deben a la córnea. Por
supuesto, si el sujeto se sumerge en agua, el índice de refracción cambia menos en la interfase
con la córnea, y el poder dióptrico de ésta última disminuye drásticamente, resultando
insuficiente para enfocar una imagen (los pájaros pescadores poseen un parpado especializado
que es transparente y refractivo, y baja cuando el animal se zambulle, permitiéndole mantener
la capacidad de enfocar debajo del agua).

Acomodación
En el ojo, la distancia entre el complejo córnea-lente (más específicamente, el punto nodal) y la
retina es fija (aproximadamente 17 mm), pero los objetos en el mundo externo se encuentran a
diferentes distancias. Para lograr enfocarlos, el ojo cambia el poder dióptrico del lente: para
enfocar objetos lejanos, hace falta menos poder refractivo, y el lente es mantenido con una

113
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

menor curvatura (i.e. mayor radio de curvatura) por la tensión pasiva ejercida por fibras
pegadas radialmente desde la región ecuatorial del lente, que lo estiran (Figura 9.2A). Sin
embargo, para enfocar objetos cercanos se contrae un anillo muscular alrededor del lente
(músculo ciliar), el cual reduce la tensión de las fibras,
y permite que el lente se relaje, asumiendo, por
elasticidad, una forma más esférica (mayor
curvatura→mayor poder dióptrico; Figura 9.2B). Estos
ajustes en el poder dióptrico del ojo se conocen como
el proceso de acomodación. Así que el lente, cuya
contribución al poder dióptrico total del ojo es
relativamente modesta, tiene la función esencial de
aportar los ajustes que hacen falta para poder enfocar
objetos cercanos y lejanos. La elasticidad del lente se
pierde con la edad, reduciendo por lo tanto la
capacidad de enfocar objetos cercanos. La
transparencia del lente también se puede deteriorar
(cataratas) lo cual puede requerir una intervención
quirúrgica. Las consecuencias de las técnicas
inicialmente empleadas, que simplemente Figura 9.2
contemplaban la remoción del lente, eran (i) reducción
del poder dióptrico del ojo, y por lo tanto necesidad de
compensarlo con anteojos (ii) pérdida de la acomodación (iii) sensibilidad a luz ultravioleta, ya
que estos rayos normalmente son filtrados por el lente, que les impide llegar a la retina. Hoy en
día, el cristalino se remplaza con un lente artificial, para obviar en gran medida estas
deficiencias. Cabe aclarar que éste no es el único mecanismo por medio del cual se puede
lograr acomodación. Los ojos de muchos peces utilizan en cambio la estrategia de variar la
posición del cristalino, acercándolo o alejándolo de la retina. El efecto es el mismo: mantener la
proyección del objeto enfocada sobre la matriz retinal, compensando por la mayor o menor
distancia a la cual se encuentre el objeto.

Resolución óptica del ojo


Limitaciones debidas al sistema dióptrico. Para examinar la capacidad del ojo de discernir
detalles finos es conveniente utilizar las dimensiones angulares de un objeto, en lugar de las
dimensiones lineares (es decir, el ángulo que subtiende el objeto que uno mira), ya que en
última instancia lo que interesa no es el tamaño absoluto del objeto, sino que tan grande será
su imagen proyectada en la retina: por ejemplo, un objeto grande pero muy lejano podría tener
una imagen retinal tan pequeña o más que la de un objeto más pequeño pero mucho más
cercano al observador. La unidad de medida angular es el grado (indicado por el símbolo ° que
sigue a un número); es a menudo necesario referirse a fracciones pequeñas de un grado, y se
utiliza el minuto de arco (‘), que representa 1/60 de grado, y el segundo de arco (“) que a su vez
representa 1/60 de minuto (es decir, 1/3600 de grado). Para convertir distancias y tamaños a
grados se hace uso de identidades básicas de trigonometría, que se pueden fácilmente
aproximar para ángulos pequeños (como suele ser el caso cuando se examina la resolución del
ojo). Por ejemplo, un objeto de 5 cm de tamaño ubicado a 2 m en frente del ojo tendría un
tamaño angular de aproximadamente 5/200 = 0.025 radianes, es decir 1.43° (1 radian = 57.3°);
además, considerando que la distancia entre el centro del complejo córnea/lente y la retina es
de 17 mm, podemos calcular que proyectaría una imagen en la retina de ≈0.025*17 mm =
0.425 mm. En cuanto a propiedades estrictamente ópticas (asumiendo que el ojo no presente
defectos de visión), el poder de resolución del ojo está determinado por (i) su apertura
numérica (dependiente principalmente de la pupila) (ii) aberración esférica, y (iii) aberración
cromática. Estas resultan en que un objeto puntual formaría como imagen un disco (el disco de

114
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Airy, ulteriormente deteriorado por las aberraciones), y para poder percibir puntos como
distintos, su separación angular deberá ser mayor que las dimensiones del disco de Airy.

Limitaciones ópticas debidas al mosaico retinal. La detección de luz por la retina ocurre por la
estimulación de células fotosensibles individuales, los conos y bastones. Por lo tanto, para
estimar la capacidad de resolución del ojo no es suficiente considerar las propiedades ópticas
de la córnea, el cristalino y la pupila (que establecen su límite
de difracción), sino también el mosaico retinal. Al igual que
una cámara digital, una imagen no tendrá buena resolución si
el sensor posee un número limitado de ‘pixels’, ya que si las
proyecciones de dos puntos del espacio visual caen sobre el
mismo pixel, su detección individual es imposible, porque sus
respectivas imágenes no activan diferentes elementos
fotosensibles. Por lo tanto en el ojo la utilización plena de las
capacidades de resolución de la córnea y el lente solo se
realizarán si el diámetro de los fotorreceptores es comparable
al disco de Airy, permitiendo que la imagen de dos puntos
resueltos ópticamente caiga sobre fotorreceptores distintos Figura 9.3
(más precisamente, deberían estimular dos fotorreceptores
separados, que tuvieran de por medio otro fotorreceptor, para que hubiera dos sitios no
contiguos de estimulación). En el ojo el disco de Airy varía según el grado de apertura de la
pupila (que puede contraerse o dilatarse entre ≈1.5 y 6 mm, lo cual afecta la apertura numérica;
Figura 9.3). Desde el punto de vista puramente óptico, la separación de dos puntos en el
espacio visual para que no se superpongan sus respectivos discos de Airy sería del orden de
2.3 a 0.6 minutos de arco. Teniendo en cuenta que el diámetro aproximado de un fotorreceptor
en la fóvea (la zona central de la retina donde se alcanza la máxima resolución) es de unos 30
segundos de arco (unos 2.4 μm de diámetro), quiere decir que aún a la máxima dilatación
pupilar bajo condiciones normales (i.e. sin uso de fármacos como la atropina, comúnmente
utilizada en exámenes oftalmológicos), la matriz retinal es suficientemente fina para no
deteriorar la capacidad de resolución del ojo: la evolución ha optimizado las dimensiones de los
elementos fotosensibles para que fueran equiparables al límite de difracción.

A este propósito es preciso aclarar algo importante que permite al ojo mantener buena
sensibilidad y buena resolución espacial; estas
consideraciones nos brindan la oportunidad de ver un
par de leyes básicas de óptica en acción en un
sistema biológico. En primera instancia, se debe
optimizar la captura de fotones. La ley de Beer-
Lambert nos dice que la probabilidad de que éstos
pasen sin ser absorbidos decae exponencialmente con
la longitud de la trayectoria por el medio absorbente, y
que la constante espacial de dicha función
exponencial depende de la concentración de las
moléculas que absorben luz y de su coeficiente de
extinción. La naturaleza optimiza la situación (i)
utilizando moléculas cuyo coeficiente de extinción es
muy alto (≈40,000, como se ha mencionado
previamente), (ii) expresándolas masivamente (del
órden de 100 millones de ellas por célula), y (iii)
haciendo que el segmento foto-sensible sea una
Figura 9.4
estructura delgada y alargada, de tal manera que el

115
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

recorrido de los fotones sea largo, favoreciendo su absorción. Este último punto, sin embargo,
conlleva un problema: el aparato dióptrico enfoca la imagen de los objetos en un cierto plano, y
si la estructura foto-sensible forma una capa espesa, la luz un puede estar enfocada sino a un
nivel restringido del fotorreceptor; como tal, se esperaría que por fuera de ese plano focal la luz
se ‘desparramaría’, invadiendo otros fotorreceptores y perdiendo resolución. Sin embargo el
índice de refracción de los fotorreceptores es mayor que el de los intersticios entre ellos. Por lo
tanto, si se enfoca la luz sobre el extremo del segmento fotosensible, éste guía la luz
funcionando como una fibra óptica (por el principio de reflexión total interna), evitando que
llegue a fotorreceptores vecinos. De esta manera se preserva la focalidad. La Figura 9.4 ilustra
el proceso: el cono de luz se enfoca al entrar a la célula (en conos y bastones de vertebrados la
dirección de entrada sería por el soma, como se ha mencionado) , y rebota internamente
manteniéndose en su interior en lugar de escapar por los lados y llegar a estimular
fotorreceptores vecinos (líneas azules).

Defectos de visión
En muchos individuos el poder dióptrico de la cornea y el cristalino puede ser inadecuado para
formar una imagen perfectamente enfocada sobre la capa de los fotorreceptores en la retina.
Por ejemplo, la imagen de un punto podría formarse a una distancia demasiado corta detrás del
lente, i.e. adelante de la retina. En este caso los rayos se cruzarían y volverían a divergir, y al
llegar a la retina proyectarían un
disco difuso. Este problema, que
se denomina miopía (Figura 9.5A),
implica que aún cuando el
músculo ciliar está relajado para
mirar objetos lejanos (mínima
curvatura del lente), la refracción
es excesiva; se puede corregir
interponiendo, adelante del ojo, un
lente divergente cuyo propósito es
contrarrestar el excesivo poder
dióptrico del ojo (Figura 9.5B).
Alternativamente, puede suceder
que el poder dióptrico del ojo es
insuficiente, especialmente
cuando se intenta enfocar un
objeto cercano, y los rayos que Figura 9.5
emanan de un punto en el espacio visual no convergen lo suficientemente rápido y por lo tanto
llegan a la retina cuando todavía están distribuidos en un disco. Este problema se denomina
hipermetropía y se corrige añadiendo un lente convergente que aumente el poder refractivo
(Figura 9.5C y D). Notar que en ambos casos los lentes de corrección se colocan en
proximidad de la córnea, a una distancia menor que su distancia focal. Como tal, no alcanzan a
formar una imagen real al frente del ojo (la cual sería invertida!); simplemente, su poder
refractivo se añade al del ojo, modificándolo para corregir el punto de enfoque sobre la retina
(cuando se combinan lentes de esta manera, su poder dióptrico total es simplemente la suma
de las dioptrías de cada uno de los elementos).

Visión cromática
Como ultimo tema relacionado con la función visual, vamos a considerar brevemente como se
logra discernir colores. El color percibido de una luz está relacionado con su longitud de onda.
Sin embargo los dos términos no son equivalentes: la longitud de onda es un parámetro físico

116
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

de la radiación electromagnética, el color es un fenómeno perceptual complejo, que resulta del


procesamiento de la luz por el sistema nervioso. El primer concepto a esclarecer es que las
células fotosensibles son incapaces de discernir la longitud de onda per se: ya sabemos que
para detectar un fotón éste debe ser absorbido por
alguna molécula, a la cual cede su energía. En la
molécula receptora esta energía se traduce en
alteraciones de su vibración, rotación, ocupación de
orbitales por los electrones, etc. Pero la longitud de la
onda luminosa incidente no queda registrada. Por lo
tanto, en un fotorreceptor el tamaño de la respuesta
producida por un estimulo luminoso es solamente
función del numero de rodopsinas isomerizadas, lo
que se conoce como el Principio de Rushton. Como
extraer entonces información sobre las propiedades
cromáticas de la luz? La estrategia se basa en el
hecho de que las moléculas tienden a absorber luz
selectivamente, según la longitud de onda (es decir, el
hecho de que en general el coeficiente de extinción, ε,
depende de λ). Supongamos que todos los
fotorreceptores contuvieran la misma clase de
rodopsina, con el mismo espectro de absorción, Figura 9.6
representado por el panel central de la Figura 9.6. Uno
podría pensar que el solo hecho de que el fotopigmento absorbe algunas longitudes de onda
mejor que otras de por si confiere a la célula capacidades de discriminación cromática: por
ejemplo, supongamos que fotones de 500 nm (lo que los humanos llamamos ‘verde’) tuvieran
dos veces mayor probabilidad ser absorbidos que fotones de 600 nm (lo que nosotros
llamamos ‘rojo’). Si un destello e luz contuviera un cierto numero de fotones (representado por
la longitud de las flechas en el panel superior de la Figura 68), habría entonces dos veces mas
rodopsinas isomerizadas si la luz fuera verde que si fuera roja, y por lo tanto la respuesta
eléctrica de la célula seria mayor con luz verde (panel inferior). Uno estaría tentado de concluir
que la célula discrimina el verde del rojo. Sin embargo, eso es una falacia: si comparáramos la
misma luz verde con una luz roja dos veces más intensa (el doble de fotones), los dos destellos
resultarían en el mismo número de isomerizaciones, ya que para la luz roja la menor
probabilidad de absorción será compensada por la mayor abundancia fotones (Figura 9.7). Por
el principio de Rushton, las dos respuestas fisiológicas serán entonces iguales, y ciertamente
uno no atribuiría la capacidad de discernir colores a un organismo que confundiera una luz
verde tenue con una roja brillante! Podemos superar esta dificultad si en lugar de un solo tipo
de fotopigmento tuviéramos dos o mas, segregados en células distintas. Por ejemplo,
supongamos que unas células contuvieran el pigmento que absorbe preferencialmente a 500
nm (llamémoslas células ‘V’) y otras un pigmento que absorbiera preferencialmente a 600 nm
(células ‘R’; Figura 9.8). En este caso, una luz verde estimularía fuertemente las células V y
débilmente las células R. La luz roja haría lo contrario. Por consiguiente el patrón de activación
de las dos poblaciones de células seria diferente con las dos longitudes de onda; al variar las

117
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

intensidades, cambiarían las amplitudes de las


respuestas, por cierto, pero no se alteraría esa
respuesta diferencial: una luz de 500 nm, cualquiera que
fuera su intensidad, siempre activaría mas fuertemente
células V que células R, y viceversa con una luz de 600
nm .
Si alguna estructura del sistema nervioso pudiera
comparar el nivel de actividad proveniente de las dos
poblaciones de células, podría determinar que los dos
estímulos son cromáticamente diferentes, y seria
entonces lícito concluir que el sujeto distingue rojo de
verde. Aun así, el sistema de discriminación cromática
que hemos creado está lejos de ser perfecto, y un sujeto
fácilmente confundiría otros estímulos que desde el
punto de vista físico son muy diferentes. Por ejemplo,
Figura 9.8
podríamos utilizar una luz de 550 nm (amarilla), la cual
seria absorbida similarmente tanto por células V como
por células R (aunque no de una manera óptima para ninguno de los dos fotopigmentos), y las
dos clases de fotorreceptores generarían por lo tanto respuestas similares (Figura 9.9). Ahora
podríamos presentar otro estimulo luminoso, compuesto por la superposición de una luz que
solo fuera absorbida por las células V, y otra que solo fuera absorbida por las células R. Esto
podría lograrse con un bombillo azul prendido simultáneamente con otro rojo profundo. El
resultado seria, de nuevo, una igual activación de las dos clases de células: el sujeto percibiría
lo mismo que la luz amarilla! (Figura 9.10). Es decir, con dos poblaciones de fotorreceptores
ciertamente distinguiríamos luces monocromáticas, pero podríamos ser incapaces de
discriminar algunas mezclas de dos longitudes de onda. Si en lugar de dos tuviéramos tres
clases ce células, ese problema seria resuelto, pero mezclas de tres o más colores todavía nos
confundirían. Es decir, el hecho de que realmente no medimos la longitud de onda nos obliga a
tratar de inferir las características cromáticas de un estimulo determinando sus efectos sobre
diferentes clases de fotorreceptores, cada uno con una cierta sensibilidad preferencial en
cuanto a longitud de onda.
Entre mas clases de células con fotopigmentos diferentes, mas refinados nuestros juicios, pero
siempre estaremos sujetos a la posibilidad de confundir mezclas complejas de longitudes de
onda. Es preciso recalcar que la mayoría de estímulos luminosos en nuestro entorno están
constituidos por mezclas de longitudes de onda: la luz
monocromática es realmente una excepción. El sistema
visual humano cromático consiste de tres tipos de
fotorreceptores, preferencialmente sensibles a rojo,
verde y azul, respectivamente (Figura 9.11), y nos
permite ver y discriminar cierta gama de colores; pero
hay muchos que percibimos como iguales, sin serlo.

Figura 9.7

118
Figura 9.9
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Organismos con más clases de fotorreceptores


selectivos a diferentes longitudes de onda (desde
pájaros a crustáceos) tienen capacidades de visión
cromática superiores a las nuestras, y distinguen colores
que a nuestros ojos son idénticos. Notar que los
sensores con diferentes características cromáticas se
pueden generar de distintas maneras. Una es la
presencia de fotopigmentos que varíen en su absorción
espectral, como el caso que hemos examinado (y que es
representativo, entre otros, de la visión cromática en los
mamíferos). Pero el mismo resultado se puede obtener
con sensores de idénticas características, ante los
cuales se interpongan filtros cromáticos (i.e. filtros que
dejen pasar selectivamente diferentes longitudes de
onda). Al acto práctico, la cantidad de luz que llegaría a
un sensor o a otro dependerá de su longitud de onda y
Figura 9.10
de la transmitancia del filtro en esa banda. Las aves
implementan visión cromática de esta manera, con
‘gotas’ pigmentadas de diferentes maneras, las
cuales se interponen en el camino de la luz, antes de
que llegue al fotopigmento.

Cabe mencionar que no solamente la capacidad de


discernir colores dentro de una cierta banda del
espectro es diferente para diferentes organismos,
sino que la misma franja de luz que llamamos
‘visible’ no es la misma para todos: por ejemplo, las
abejas (y muchas más especies) pueden ver luz
ultravioleta, los humanos no. El sol irradia cierta
Figura 9.11
cantidad de luz en la banda UV, por consiguiente,
objetos que difieren en su absorbancia de luz ultravioleta podrán
verse diferentes si el sujeto percibe UV, pero lucirán iguales a un
sujeto que no tenga esa capacidad. De hecho, las abejas son muy
selectivas al elegir flores hacia las cuales se dirigen para extraer
néctar, y se basan en parte en diferentes patrones de dibujos en los
pétalos que solo se distinguen pudiendo ver UV; para un
observador humano esas flores lucirían iguales. La Figura 9.12
ilustra este punto: se tomó una fotografía de una flor blanca (según
la ve un humano, por lo menos), y luego se repitió la foto
registrando las diferencias de la luz reflejada en la banda UV (panel
inferior): en este caso, aparecen patrones que son completamente
invisibles para el observador humano.

Habiendo establecido que la percepción del color es un reflejo del


grado relativo de activación de diferentes poblaciones de
fotorreceptores, es posible definir lo que se llama el ‘espacio
cromático’, un dominio que incluye todos los posibles colores que
un individuo puede percibir. Para construirlo, consideremos el caso
más sencillo posible, el de un organismo que posee solamente dos
Figura 9.12 clases de fotorreceptores con diferente sensibilidad espectral para
su visión cromática (que llamaremos ‘X’ y ‘Y’), como ilustra la

119
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Figura 9.13A. Pensemos en los efectos que ejercería


un estímulo luminoso monocromático cuya
intensidad (definida como número de fotones en un
destello) fuera constante, pero cuya longitud de onda
se pudiera variar de una manera continua. Las líneas
punteadas indican los estímulos de las longitudes de
onda seleccionadas para llevar a cabo una serie de
mediciones; para cada estímulo, el valor de la
ordenada donde la línea vertical intercepta las dos
curvas establece el nivel de activación producido en
los fotorreceptores X y Y, respectivamente. En el
panel B de la misma figura se grafica el grado de
activación de los dos tipos de fotorreceptores ante la
aplicación de los diferentes estímulos: para cada luz,
el valor a lo largo de la abscisa indica la magnitud de
la respuesta de los fotorreceptores X, la ordenada la
de los fotorreceptores Y, con lo cual la respuesta
queda definida por la posición de un punto en el
plano x-y. Si consideremos el conjunto seleccionado
de luces monocromáticas, observamos que la de
420 nm activa solamente fotorreceptores X, y por lo Figura 9.13
tanto representaremos sus efectos como un punto
ubicado sobre la abscisa. Pero a medida que λ incrementa, habrá no solamente un aumento en
la respuesta de X (al acercarnos a su pico de respuesta), sino también progresivamente más
activación de fotorreceptores Y, y por lo tanto crecerá la coordenada vertical del punto
correspondiente en la gráfica del panel B; luego, la coordenada X volverá a bajar, cuando se
pase su pico de respuesta máxima, mientras la Y sigue creciendo. Barriendo las diferentes
longitudes de onda, se dibuja la curva ilustrada en el diagrama.
Ahora consideremos el caso más general de luces que no sean monocromáticas; un estímulo
luminoso puede consistir en una onda electromagnética compleja, pero sabemos que en última
instancia se puede descomponer en la suma de componentes sinusoidales simples (de nuevo,
el teorema de Fourier). Pensemos primero en la situación simple que contempla solamente dos
componentes; puesto que cada uno de ellos es un color monocromático, sus respectivas
respuestas están representadas como algún punto a lo largo de la curva. El efecto conjunto
será entonces una combinación lineal de las dos respuestas individuales. Si nos ceñimos a
estímulos compuestos del mismo número total de fotones (como se ha fijado para las luces
monocromáticas), es fácil demostrar que la ubicación de ese punto en el espacio x-y
necesariamente será en algún sitio a lo largo de la recta que une los puntos que representan
las respuestas a los componentes individuales. La ubicación exacta, es decir que tan cerca del
uno o del otro, reflejará la intensidad relativa de las dos luces monocromáticas en la mezcla.
Extendiendo este razonamiento y permitiendo superposiciones de muchos componentes
monocromáticos se concluye que cada percepción de color, resultante bien sea de luces
monocromáticas o de mezclas complejas, está representada por un punto particular en el
dominio del plano x-y encerrado por la curva de las respuestas monocromáticas.
Hay un conjunto de puntos en el dominio de cromaticidad, que ocupa una posición especial: se
trata de la recta y=x, que define los estímulos que evocan una respuesta de igual magnitud en
las dos clases de fotorreceptores (la línea gris en la figura). Estos son estímulos que no se
percibirían como de ningún color particular, es decir, lo que, dependiendo de la magnitud de la
respuesta llamaríamos ‘blanco’ o ‘gris’. Evidentemente, hay luces monocromáticas que al
combinarlas de cierta manera pueden producir ese efecto (i.e. aquellos puntos en la curva

120
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

perimetral que al unirlos por una recta cruzan la línea diagonal); para otras combinaciones eso
no ocurre.
En un organismo con un sistema de visión cromática más complejo (más clases de
fotorreceptores espectralmente diferentes) el dominio de cromaticidad se torna más complicado
y requiere más dimensiones para poderse representar gráficamente (y lo mismo para las
mezclas de estímulos que se perciben como acromáticos). Además, se puede relajar la
restricción de que la intensidad de los estímulos es la misma, con lo cual se complica
ulteriormente el espacio de cromaticidad. Pero de todas formas el resultado es una
representación geométrica de todas las percepciones de color posibles para un sujeto, y de la
forma como éstas pueden engendrarse con diferentes combinaciones de longitud de onda.

Visión de luz polarizada


Al introducir la luz como onda electromagnética, se habló de los parámetros principales que la
caracterizan, es decir, su amplitud y su frecuencia (o su longitud de onda), y en la sección
anterior se esbozó como las células fotosensibles del ojo pueden extraer la información
pertinente. Pero también se había mencionado que la luz puede ser polarizada, en otras
palabras, la oscilación del vector eléctrico podría no ocurrir en todas las direcciones en el plano
ortogonal al eje de propagación, sino ceñirse, por ejemplo, a una sola línea (en cuyo caso
tendríamos luz linealmente polarizada). En esta sección examinaremos la posibilidad de que un
detector biológico pueda discriminar luz polarizada y discernir su orientación. Para eso,
necesitamos refinar un poco nuestro entendimiento acerca de las condiciones que permiten
que el fotopigmento absorba luz. Hasta ahora, sencillamente se dijo que el cromóforo (en la
mayoría de los casos el aldehído de vitamina A, llamado 11-cis-retinal) es responsable de la
absorción de luz visible, pero hay que ser más específicos: realmente la interacción entre
fotones y materia concierne elementos particulares de ésta, los electrones. Esta noción es
intuitivamente obvia ya que la luz consiste en una oscilación electromagnética la cual por lo
tanto ha de actuar sobre alguna partícula eléctricamente cargada. Los electrones representan
justamente las cargas ‘expuestas’ en la materia (mientras que los protones en el núcleo están
resguardados por la nube electrónica que los
rodea). En el cromóforo, la interacción con el
fotón a ser absorbido concierne
específicamente electrones que se distribuyen
a lo largo de la cadena de carbonos que está
pegada del anillo (así llamado β-ionón), la cual
está constituida por un alternarse de enlaces
covalentes dobles y sencillos. El punto crucial
es el siguiente: la luz tendrá propensión a ser
absorbida en la medida en que la oscilación del
campo electromagnético esté alineada en una
dirección paralela a un cierto vector que Figura 9.14
denominamos el momento dipolo de transición
, el cual en el caso del cromóforo tiene aproximadamente la misma orientación que esta cadena
de enlaces. Ahora consideremos más globalmente la disposición en el espacio de dicho
momento dipolo de transición en una molécula de fotopigmento visual. Ya se dijo que la
rodopsina es una proteína constituida por siete α-hélices que cruzan la membrana (esta parte
protéica se conoce como la opsina) y el cromóforo se encuentra enlazado a ella dentro de un
‘bolsillo’ en la región más hidrofóbica (ver Figura 9.14). La ‘cola’ de carbonos del cromóforo
está casi a 90 grados con respecto a las α-hélices, es decir, el momento dipolo de transición es
prácticamente paralelo al plano de la membrana (en realidad se desvía un poco, alrededor de
15 grados, pero ignoraremos este detalle). El importante recalcar que, pese a que la rodopsina

121
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

es una proteína integral de membrana, no


se encuentra anclada y obligada a retener
una posición fija, sino que ‘flota’ en la
bicapa lipídica, la cual está en un estado
fluido; por lo tanto, la rodopsina es libre
de moverse, difundiéndose lateralmente y
rotando. Como tal, en el plano de la
membrana, los momentos dipolo de
transición de los cromóforos están
distribuidos aleatoriamente en todas las
orientaciones.
Ahora consideremos la estructura
fotosensible de los fotorreceptores de los Figura 9.15
vertebrados (conos y bastones), la cual
está formada por una pila de discos planos de membrana, en la cual se encuentra la rodopsina;
la Figura 9.15A ilustra esquemáticamente su constitución. Este arreglo es una manera de
maximizar la cantidad de membrana – y por lo tanto de fotopigmento – que se puede empacar
en un volumen pequeño, lo cual confiere a la célula una gran densidad óptica, es decir, una
gran capacidad de capturar fotones. La luz transita en la dirección axial del cono o bastón, en
otras palabras, cruza la pila de discos perpendicularmente. Supongamos que la luz fuera
polarizada linealmente: puesto que los cromóforos están orientados en todas las direcciones en
el plano ortogonal a la dirección de propagación del haz de luz (ver detalle ampliado de un
disco, en la misma figura), hay igual probabilidad de absorción, sin importar la orientación del
vector de polarización (y sería la misma que con luz no polarizada). Como tal, una célula
fotosensible construida de esta manera no puede responder diferencialmente según la
polarización del estímulo lumínico.

Miremos en cambio el diseño de otra clase de fotorreceptores, llamados ‘rabdoméricos’, que


son muy comunes entre invertebrados (e.g. artrópodos y moluscos). Estas células también
empacan una gran cantidad de rodopsina, pero en este caso el aumento en la superficie de la
membrana fotosensible se logra por invaginación de la membrana plasmática, formando una
miríada de diminutas estructuras
tubulares, llamadas microvellosidades.
En muchos organismos estas
microvellosidades proyectan
lateralmente, i.e. su eje es perpendicular
a la dirección de la luz (Figura 9.15B).
Supongamos que en la membrana de
estos ‘tubos’, al igual que en los discos
de los vertebrados, la rodopsina
también tuviera libertad difusional,
orientándose en todas las direcciones
sin preferencia alguna (ver detalle
ampliado de una microvellosidad, en la
misma figura). A pesar de eso, se puede
demostrar que en este caso existiría
una tendencia preferencial de absorber
luz que fuera linealmente polarizada en
la misma dirección que el eje de este
Figura 9.16
cilindro. Para visualizar el porque,

122
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

imaginemos que la sección de la microvellosidad fuera cuadrada en lugar de redonda, es decir,


que se tratara de un paralelepípedo en vez de un cilindro (Figura 9.16); esta simplificación no
altera de ninguna manera la generalidad de las conclusiones. Podemos considerar por
separado las dos caras alargadas perpendiculares al haz de luz (i.e. la de ‘arriba’ y la de
‘abajo’), y las dos caras verticales. En las primeras habría cromóforos orientados en todas las
direcciones en el plano, al igual que en los discos, y una luz polarizada de cualquier manera (o
no polarizada) tendría la misma probabilidad de absorción (Figura 9.16A). Pero la situación es
diferente en las dos caras verticales del paralelepípedo: en este caso si la luz fuera linealmente
polarizada en la dirección del eje de la microvellosidad (Figura 9.16B) encontraría una gama de
orientaciones del momento dipolo de transición que irían desde 100% favorable (cuando éste
también se alinea con el eje de la microvellosidad) hasta 0% favorable (cuando éste es vertical,
es decir, alineado con el haz de luz). Esta probabilidad de absorción dependiente del grado de
alineamiento entre el cromóforo y el eje principal de la microvellosidad, es proporcional al
cuadrado del coseno de θ (θ siendo el ángulo entre los dos vectores). La probabilidad global de
absorción deberá tener en cuenta todas estas orientaciones igualmente representadas, y se
obtiene integrando este factor sobre todos los ángulos posibles:

P ≈ ∫Acos2θdθ
0

En cambio, para luz polarizada en la dirección ortogonal a las microvellosidades (Figura 9.16C)
el vector eléctrico será necesariamente también perpendicular a todos los cromóforos y por
consiguiente con probabilidad mínima de ser absorbida. Quiere decir que en las dos caras
‘verticales’ del paralelepípedo efectivamente hay absorción para luz polarizada en una dirección
(alineada con el eje de la microvellosidad) pero no en la dirección perpendicular. Sumando
entre las 4 caras del paralelepípedo resulta por lo tanto una neta tendencia preferencial de
absorber luz con una cierta dirección de polarización (2 caras no preferenciales y 2 que sí lo
son). El argumento para una estructura cilíndrica es similar, pero el continuo de orientaciones
obliga a realizar el cómputo de una manera un poco más compleja (que implica una integral en
coordenadas cilíndricas) aunque el resultado es el mismo. Notar que la sola geometría de la
forma como se organiza la membrana fotosensible ya es de por sí capaz de producir este
efecto; hay además indicios de que en algunos casos podría existir algún tipo de anclaje que, al
alinear los cromóforos con el eje de las microvellosidades, aumentaría ulteriormente la
selectividad. Ahora pasemos de una microvellosidad individual a una célula entera, y
consideremos un fotorreceptor en el cual todas sus microvellosidades tienen la misma
orientación; esto puede ocurrir bien sea si éstas solamente emanan paralelas de un lado de la
célula (como es el caso en el diagrama de la Figura 9.15B) o de dos caras opuestas (como
veremos en la figura 9.17). Dicha célula necesariamente absorbe luz diferencialmente según
como esté polarizada la luz: decimos que su índice dicróico (que viene siendo el cociente de la
absorción entre la luz polarizada en la dirección óptima vs. a 90˚) es necesariamente >1.
Supongamos que la matriz retinal contuviera células de este tipo, orientadas de tal manera que
sus microvellosidades estuvieran alineadas bien sea en una dirección o en la dirección
ortogonal: el panel superior de la Figura 9.17 ilustra esquemáticamente dicho arreglo en el caso
de la retina de cefalópodos. Se trata de una disposición parecida a la de un piso de madera en
‘parquet’. El panel central muestra una micrografía electrónica de una sección transversal de la
retina de un calamar, la cual muestra justamente este arreglo. Se han dibujado recuadros que
enmarcan la sección de diferentes células adyacentes (numeradas 1 a 4), y doble flechas que
indican la orientación de las microvellosidades. Finalmente, el panel inferior de la misma figura
ilustra un corte longitudinal en el cual se aprecian una porción de tres fotorreceptores
contiguos: hay una célula central, el soma de cuyo segmento distal se ve como una línea
diagonal, de la cual emanan perpendicularmente las microvellosidades (i.e. en el plano de la

123
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

fotografía). A cada lado, en cambio, las


microvellosidades de dos células vecinas están ‘de
punta’, es decir, perpendiculares a las de la célula
central. Evidentemente se tienen dos poblaciones de
fotorreceptores, cada una con su preferencia para luz
polarizada en una cierta dirección. Si dichas células
sensoriales envían separadamente sus señales al
‘cerebro’ de dicho organismo, y éste es capaz de
efectuar una comparación entre las respuestas (R) de Saibil & Hewat, J. Cell Biol., 1987
las dos clases de células en cada región del campo
visual, se puede determinar la polarización de la luz:
por ejemplo, si denotamos las dos clases de células
como ‘A’ y ‘B’, entonces en el caso en que para dos
fotorreceptores contiguos R(A) > R(B), se puede
inferir que la luz que se enfocó en esa región de la
retina está polarizada según el eje preferencial de A, y
viceversa. Es decir, se puede construir una imagen del
patrón de polarización en todo el campo visual.

Cuando podría resultar útil esa habilidad? Existen


numerosas instancias en las cuales la luz llega al
observador con una determinada polarización: por
ejemplo, si rebota de cierta manera sobre una
superficie o si es dispersada por partículas cuyas Zonana, Bull. Johns Hopkins Hosp., 1961
dimensiones son ≥λ. En este caso, el patrón espacial
de radiación tiene unas características de polarización
(no solamente de intensidad y cromaticidad). Por
ejemplo, la dispersión de la luz del sol por parte de las
partículas de la atmósfera hace que en diferentes
regiones del cielo el patrón de polarización es
diferente, y depende además de la posición del sol – y
por lo tanto también de la hora del día. Esta pauta se
preserva aún cuando el sol no es directamente visible.
Nuestro sistema visual, al igual que los demás
organismos vertebrados, es totalmente insensible a
tales diferencias, pero el de muchos insectos en
cambio no. Por lo tanto, una abeja puede discernir
esta información, la cual puede ser utilizada para guiar
Saibil, J. Mol. Biol., 1982
su vuelo permitirle orientarse y encontrar el camino de
vuelta al panal después de una excursión lejana en Figura 9.17
búsqueda de néctar, aún en ausencia de otros indicios
visuales. Una vez más, el espacio visual de otro
organismo puede ser notablemente más rico de lo que nuestra experiencia en esa modalidad
sensorial nos ofrece. Por supuesto, la tecnología puede acudir a nuestra ayuda y suplir algunas
limitaciones de nuestro equipaje biológico. Por ejemplo, en microscopia podemos utilizar filtros
que polarizan la luz e interponerlos en el camino del iluminador y de la luz a ser visualizada, y
lograr de esta manera convertir patrones de polarización en diferencias de intensidad de luz,
las cuales pueden ser fácilmente discernidas por nuestros ojos o por una cámara.

124

Вам также может понравиться