La mayor ventaja en el microanálisis cuantitativo en SEM es que el análisis se
obtiene de un volumen muy pequeño de material. Considerando que el haz penetra en la muestra hasta 1 micrómetro (con energía suficiente para excitar la generación de rayos X), el volumen analizado sería aproximadamente 1042 cm3. Considerando que la densidad típica de un acero es de 7,8 g/cm3, se estaría determinando la composición de 7,8x1012 g. En esta cantidad se puede analizar cualquier elemento que esté en una concentración superior a 0,01 %, lo que representa, en cuanto a masa, entre y g. Es decir, el límite de detección corresponde a unos pocos millones de átomos.
Los métodos de cuantificación que se emplean en los análisis de materiales, se
han obviado aquellos métodos que han sido desarrollados para la cuantificación de muestras biológicas o para muestras “delgadas” (con un espesor en el orden de 100 nm)
Actualmente, el desarrollo del microanálisis cuantitativo parece dirigido hacia la
investigación de métodos analíticos que permitan una correcta determinación de la composición de aquellas muestras a las cuales no son aplicables los requerimientos establecidos por la cuantificación ZAF, es decir, aquellos casos en que el volumen de interacción del haz con la muestra no es químicamente homogéneo, o bien aquellos casos en que la geometría de la muestra no permite una emisión homogénea de rayos X. Estos desarrollos están impulsados por los avances en la industria de
Este desarrollo en la técnica se basa en semiconductores y circuitos integrados
(donde se emplean recubrimientos metálicos y no metálicos de espesores de décimas de micrómetros), en estos casos el volumen de interacción de un haz de electrones, a los potenciales de aceleración considerados habituales.
En otros casos, como el análisis de partículas aisladas de tamaño menor, o en el
orden, de un micrómetro, aún no existe una solución definitiva. Este hecho afecta de forma determinante a la investigación y el conocimiento de un fenómeno de tanta importancia como puede ser, por ejemplo, el estadio inicial de los fenómenos de oxidación donde la composición, el tamaño y la distribución de los óxidos originales, que condicionan el desarrollo de la corrosión posterior.
Otra de las líneas de investigación más interesantes en la actualidad consiste en
el desarrollo de métodos de cuantificación “sin patrones”. Es necesario entender que esto significa que no se realiza la adquisición de ningún patrón en la sesión de trabajo en la que se realiza el análisis. PRIMERAS APROXIMACIONES. MODELO DE CASTAIGN.
En su tesis doctoral Castaign desarrolló la teoría física que permite a un analista
convertir las intensidades de rayos X medidas en composición química (Castaign, 1.951). Castaign propuso un método de análisis basado en la comparación de intensidades, es decir, la comparación de la intensidad de una línea característica de un elemento dado emitido por una muestra en unas condiciones determinadas, y la intensidad de la misma radiación característica cuando es emitida por un estándar que contiene a ese elemento, y en las mismas condiciones de bombardeo electrónico. La relación entre ambas medidas, k, es proporcional a la concentración en masa del elemento dado en la región analizada. Es decir, analíticamente
MODELO ZAF
El reconocimiento de la complejidad de la conversión de intensidades de rayos X
en composición química condujo a numerosos investigadores (Wittry, 1963; Philibert, 1963; Duncumb y Shield, 1966) a ampliar el tratamiento teórico del análisis cuantitativo propuesto por Castaign. Estos estudios desembocaron en los trabajos de Colby (1.968) y Poehn et al. (1985) que expresan la concentración desconocida del elemento (zaf) una constante que representa al efecto matriz en las condiciones de adquisición. El efecto matriz se refiere a la influencia que tiene, sobre la determinación de un cierto elemento, la presencia de los restantes elementos que constituyen la sustancia analizada . Este método, para muestras reales de composición compleja, se basa en cálculos que se repiten de forma reiterativa hasta que la diferencia entre dos cálculos sucesivos es menor de un error determinado.
MÉTODO EMPIRICO.
Este método de trabajo es utilizado desde los años 60 El método se basa en el
cálculo de los factores que hacen cumplir la relación hiperbólica
C es la fracción en masa verdadera del elemento a analizar, y k la intensidad
relativa medida. Hay que tener en cuenta que las adquisiciones de los espectros deben realizarse en las mismas condiciones. Este método funciona muy bien para el análisis de aleaciones binarias, los mayores inconvenientes son, en primer lugar, la necesidad de obtener los estándares de composiciones químicas adecuadas, y segundo, que la extensión del método para materiales con más elementos no está clara.