Вы находитесь на странице: 1из 26

INTRODUCCION A LA INSTRUMENTACION Y CONTROL

1. INTRODUCCION

El ser humano ha transformado profundamente el mundo en el que se vio surgir


como especie, movido por su curiosidad ha adquirido amplios conocimientos en
diversas ciencias, la tecnología desarrollada a partir de la compresión y dominio de
estas ciencias se ha aplicado fundamentalmente en tratar de mejorar la calidad de
vida.

Un par de siglos antes del año cero del conteo occidental actual, cuando el griego
Eratóstenes logro calcular las dimensiones longitudinales del planeta utilizando
datos obtenidos por experimentos realizados con varas, cuerdas, mucha imaginación
y gran dominio de la geometría, realizo una de las más grandes hazañas intelectuales
de esa época: determinar la magnitud del mundo. Cada uno de nosotros realizamos
muchas actividades cotidianas que tiene similitud con el maestro griego, tratamos
de tener compresión de nuestro entorno y de las interacciones con él a través de
mediciones directas e indirectas.

Despertamos con un instrumento que mide el paso del tiempo y esperamos que
guarde relación con el resto de los relojes. Requerimos cuantificar las porciones de
nuestros alimentos, es indispensable saber cuánto combustible necesitamos para
llegar a nuestro destino, nos esforzamos en alcanzar cierta cantidad de ejercicio para
estar saludable, estamos pendientes del flujo de información necesaria para leer
noticias o comunicarnos en nuestros teléfonos inteligentes, hay ejemplos por
doquier en cualquier dirección a donde se mire. Nombres y símbolos de litros,
kilogramos, metros, minutos megabytes, calorías, voltios y muchas unidades rodean
al ser humano a través de todos los acontecimientos cotidianos.

En la industria petrolera se tiene muchas aplicaciones de la instrumentación, los


fenómenos básicos son bien conocidos y la experiencia de uso con ciertos
instrumentos los hacen aconsejables, tales como: medidores de flujo, medidores de
presión, medidores de temperatura, etc. Sin embargo, nuevos medidores o la
combinación con otros instrumentos como son los amplificadores, controladores,
registradores, etc.
En los procesos de gas es necesario controlar determinadas magnitudes variables
como: la temperatura, la presión, el caudal, el nivel, pH, conductividad, humedad,
etc.

2. METROLOGIA

Se entiende por medición la determinación de una magnitud por comparación


(directa o indirecta) con un patrón del sistema de unidades empleado. Sus objetivos
son:

- Representar simbólicamente las propiedades de un objeto


- Permitir la realización de análisis matemáticos

El resultado de una medición, también denominado medida, es el valor de la


magnitud, obtenido por medición. Es en general un número real o complejo que
expresa la relación por cociente de la magnitud medida con la unidad utilizada para
medirla

Es un proceso de medición se tiene al menos una magnitud medida, también


denominada mesurando, pero por lo general hay también magnitudes de influencia,
que son aquellas que, sin ser objeto de medición. Ejemplo de magnitudes de
influencia son la temperatura ambiente y la frecuencia de voltaje del sistema
electrónico.

Una expresión completa del resultado de una medición de incluir información sobre
la incertidumbre de medición y sobre los valores de las magnitudes de influencia. Es
necesario aclarar si la medida es un resultado bruto o corregido, o si es un promedio
de varias observaciones.

2.1. METROLOGIA CIENTIFICA


Es la encargada de la materialización física de los conceptos fundamentales de las
magnitudes, nombre que se da a las unidades de medición, así como de determinar
el valor verdadero de las mediciones, realizar desarrollo de investigación.
Conservación y diseminación de patrones

2.2. METROLOGIA LEGAL

Su campo de acción concierne a las exigencias técnicas y jurídicas reglamentadas que


tienen como fin asegurar la garantía y proteger al consumidor desde el punto de
vista de la seguridad y de la precisión de las medidas.

2.3. METROLOGIA TECNICA E INDUSTRIAL

Asegura la compatibilidad dimensional, la conformidad con el diseño necesario para


el funcionamiento correcto de todas las medidas que se realizan para asegurar la
adecuación de algún producto con respecto a su uso previsto.

3. SISTEMAS DE MEDICION

Los sistemas de medición tienen tres elementos básicos:

a) Elemento de detección y medición (transductor) que detecta la variable física


a medir, que convierte la señal en otra de características más manejables. Por
tanto, la variable física genera señal mecánica o eléctrica
b) Fase intermedia que modifica la señal del transductor generando señal de
salida conveniente
c) Una fase de indicación o registro

Por ejemplo, el tubo de Bourdon para la presión, ya que este tubo es un transductor
que convierte la señal de presión en desplazamiento mecánico del tubo. La
cremallera y engranaje más resorte amplifica ocasionando un desplazamiento
grande de la rueda dentada central.

La fase indicada en la aguja y disco graduado, de modo que la aguja indicadora


marque la presión actuante sobre el tubo.

Los instrumentos se pueden dividir en dos grandes familias o grupos

A) INSTRUMENTOS INDICADORES, en los cuales el valor de la cantidad medida


se indica visualmente, pero no se registra a lo largo del tiempo (amperímetro,
manometro, termómetro, etc.)
B) INSTRUMENTOS REGISTRADORES, en los cuales los valores de la cantidad de
medida se registran gráficamente, en un periodo de tiempo determinado.
(registradores de presión, de temperatura, etc.)
4. CALIBRADO Y GRADUACION DE LOS INSTRUMENTOS DE MEDICION

La calibración es un conjunto de operaciones que establece, bajo condiciones


específicas, la relación entre los valores indicados por un instrumento de medición,
sistema de medición, valores representados por una medida materializada o un
material de referencia y los valores correspondientes a las magnitudes establecidas
por los patrones.

4.1. NECESIDAD DE CALIBRAR

Las empresas necesitan tener seguridad de que los resultados que les proporcionan
sus equipos de medida son correctos cuando se utilizan en actividades claves, como
controlar las variables de los procesos, asegurar la calidad o la seguridad de sus
productos, sus procesos o sus servicios, u obtener los datos necesarios para el
análisis y la toma de decisiones importantes.
El envejecimiento de los componentes, los cambios de temperatura, el estrés
mecánico que soportan los equipos, etc., deteriora poco a poco sus funciones.
Cuando esto sucede, las medidas y los ensayos comienzan a perder confianza y con
ello se resienten tanto el diseño como la calidad del producto.

Por ello es fundamental contar con servicios de calibración técnicamente


competentes que pueda cubrir las necesidades metrológicas de las empresas, cada
vez más diversas y tecnológicamente más complejas. Los laboratorios acreditados
son los únicos que garantizan la trazabilidad y la fiabilidad de los resultados de las
calibraciones.

Los laboratorios acreditados abarcan las distintas áreas de calibración (electricidad,


mecánica, temperatura, óptica, dimensional...) en una gran diversidad de
magnitudes y equipos, desde instrumentos de pesaje, prensas, medidores eléctricos
a señales de vídeo, cámaras termométricas, analizadores de gases o fibra óptica, que
prestan sus servicios a todo tipo de industrias.

De lo anterior se deduce que la calibración también puede definirse como la


comparación de un patrón o instrumento de medición o exactitud elevada y
conocida, con otro patrón o instrumento, para detectar, reportar o eliminar por
ajuste cualquier variación del instrumento que es comparado.

Debe observarse que el ajuste es una operación fundamental en el proceso de


calibración, pero no la única, la documentación de la calibración es también de gran
importancia pues permite garantizar la trazabilidad.

La trazabilidad es la propiedad de un resultado de medición, que consiste en poder


relacionarlo con los patrones apropiados, generalmente internacionales o
nacionales, por medio de una cadena interrumpida de comparaciones. La cadena de
trazabilidad es asegurada por los laboratorios de metrología, cuya función principal
es mantener y diseminar las unidades de medición.

Los patrones pueden ser primarios, que son los de mas alta calidad metrológica
dentro de un campo especifico y los secundarios, cuyos valores son fijados por
comparación con un patrón primario. Existen patrones internacionales, reconocidos
por acuerdo internacional para servir de base en la fijación de los valores de todos
los patrones de magnitud concerniente.

Los patrones de referencia son los de mas alta calidad metrológica disponible en un
lugar determinado, y de ellos derivan las mediciones efectuadas en ese lugar, un
patrón de trabajo es aquel cuyo valor es fijado por comparación con un patrón de
referencia y que se utiliza para contrastar o controlar mas medidas materializadas y
los instrumentos de medición. Un patrón de transferencia es el que se utiliza como
intermediario para comparar entre ellos los patrones, las medidas materializadas o
los instrumentos de medición. Finalmente, un patrón viajero, es aquel que tiene una
construcción especial, que permite transportarlo a los lugares a los que se va utilizar.

En resumen, el proceso de calibrado se establece la relación característica entre los


valores de la magnitud física aplicada a un instrumento y las posiciones
correspondientes del índice. Este calibrado se por comparación con:

- Un patrón primario
- Un patrón secundario de mayor precisión que el instrumento a ser calibrado
- Una fuente de señal de entrada conocida
4.2. ORDEN ACONSABLE PARA CALIBRACION (GENERAL)
1) Ajuste de cero
2) Ajuste de rango (llevar al fondo la escala)
3) Ajuste de línea, verificar: ángulos en el punto medio. Usualmente resulta
necesario exagerar el error (llevarlo aproximadamente al doble)
4) En ese caso volver atrás ese error con corrección de cero
5) Verificar rango
6) Verificar linealidad

Antes del procedimiento se debe anotar el estado del instrumento, ascendiendo o


descendiendo. Si aparece histéresis el arrastre hay que eliminarlo.

4.3. CARACTERISTICAS ESTATICAS

Además de las características dinámicas del sistema de medida son importantes las
siguientes propiedades:

- Precisión
- Exactitud
- Linealidad
- Histéresis
- Repetibilidad
- Incertidumbre
- Banda muerta o rango muerto
- Sensibilidad
- Rango o campo
- Amplitud
- Error
- Resolución
- Estabilidad

PRECISION. - Se lo puede definir como la tolerancia en la medición del instrumento.


Se denomina como una cota para los errores absolutos en el rango del instrumento,
con respecto al valor obtenido como más probable luego de un número considerable
de mediciones repetidas en iguales condiciones. Este se expresa en varias formas:

a) Como tanto por ciento del alcance

Por ejemplo: si un instrumento de medición de temperatura varía entre 100 y 300


°C con una precisión de + 0.5% de alcance, para una lectura de 150 ºC, el valor real
de la temperatura estará comprendido entre:

0.5 ∙ (300 − 100)


150 ± = 150 ± 1 ℃
100

Es decir, entre 149 y 151 °C

b) Como tanto por ciento de la lectura realizada

Por ejemplo: si el instrumento antes indicado tiene una precisión de + 0.5% de la


lectura, para una lectura de 150 °C, el valor real de la temperatura estará
comprendido entre:

0.5 ∙ 150
150 ± = 150 ± 0.75
100

Es decir, entre 149.25 y 150.75 °C

c) Directamente en unidades de la variable medida

Si el instrumento anterior tiene una precisión de + 1 °C para una lectura de 150 °C,
el valor real de temperatura estará comprendido entre 150 + 1 °C, es decir entre 149
y 151 °C

d) Como tanto por ciento del valor máximo del rango


Si el instrumento anterior tiene una precisión de + 0.5% del máximo, para una lectura
de 150°C, el valor real de la temperatura estará comprendido entre:

150 + 1.5°C, es decir, entre 148.5 y 151.5 °C

Algunas veces se especifica la precisión para distintas zonas de rango, siendo muy
normal que en la zona central de la escala se tenga una precisión de + 0.5% y en el
resto de la escala + 1%

EXACTITUD. - Se conoce como exactitud de una medición, a la concordancia entre


el resultado de la medición y el valor verdadero de la magnitud medida. La exactitud
es un objetivo implícito de la medición y exige mantener los errores en valores
pequeños y desarrollar técnicas para su compensación. Para que un instrumento sea
exacto se requiere que sea preciso y que este correctamente calibrado.

Para diferenciar la exactitud de la precisión se dará un ejemplo: la temperatura de


un baño cuyo valor verdadero es de 100 °C, se mide con un termómetro, que indica
los siguientes valores 104, 105, 103, 105, 103, valores de los cuales se puede
observar que la máxima desviación es de 5 °C, es decir, la exactitud del instrumento
no puede ser mejor del 5%, mientras que la precisión es del 1%, dado que la máxima
desviación del valor medio es de 104°C.

LINEALIDAD. – Es la función que relaciona la variable de salida con la de entrada en


una función lineal (línea inclinada). Dicho de otra manera es la aproximación que
tiene una curva de calibración de un instrumento, a una línea recta.

HISTERESIS. – Son los valores crecientes o decrecientes de un mismo valor de


magnitud medida. Es la característica del instrumento evidenciada por la variación
de la indicación o la señal de salida al medir sucesivamente un valor determinado de
la variable, cuando esta pasa en ambos sentidos (ascendente y descendente) por el
mencionado valor, en iguales condiciones de proceso y recorriendo el total del
rango.

Se define la histéresis como la mayor diferencia entre la indicación o señal de salida,


al medir sucesivamente ese valor de la variable, en la forma mencionada. Como
característica del instrumento se debe especificar la histéresis máxima, en todo el
rango. Se recomienda expresarla como tanto por ciento del alcane.

REPETIBILIDAD. – Se conoce como repetibilidad de las mediciones a la concordancia


entre los resultados de mediciones sucesivas de la misma magnitud, efectuadas por
el mismo observador utilizando el mismo método e instrumento, en las mismas
condiciones y lugar, y con repeticiones en periodos cortos de tiempo.

Otro concepto, es la exactitud con la que se obtiene la misma medida a lo largo del
tiempo. Es la capacidad de reproducir la indicación o señal de salida al medir
sucesivamente un valor determinado de la variable, cuando esta pasa en un sentido
dado por el mencionado valor, en iguales condiciones del proceso, y recorriendo el
total del rango.

Se define como repetibilidad como la mayor diferencia entre la indicación o la señal


de salida, al medir sucesivamente ese valor de la variable, en la forma mencionada.
Como característica máxima se debe especificar la repetibilidad máxima, en todo el
rango. Se recomienda expresarla como tanto por ciento del alcance.

REPRODUCBILIDAD. – Se refiere a la concordancia entre los resultados de


mediciones sucesivas de la misma magnitud, haciendo variar algunas de las
condiciones del proceso, tales como: el observador, el método de medición, el
instrumento de medición, las condiciones de uso, el lugar y el tiempo en que se
hacen las mediciones.

INCERTIDUMBRE. - Otro concepto vinculado con los anteriores es el de


incertidumbre de medición, que se define como la estimación que características el
intervalo de valores dentro de los cuales se encuentran el valor verdadero de la
magnitud medida.

BANDA MUESTRA O RANGO MUERTO. – Holguras o insensibilidades del sistema de


medida. Es la máxima desviación a introducción en la entrada del sistema sin tener
veriacion alguna en el valor de salida.

Puede aparecer un intervalo de valores de la variable medida. Es la máxima


desviación a introducirse en la entrada del sistema sin tener variación alguna en el
valor de salida.

Puede aparecer un intervalo de valores de la variable medida, que ante un cambio


de sentido de la variable, no produce variación en la indicación o señal de salida del
instrumento.

SENSIBILIDAD. – Es la relación entre señal de entrada y salida, también llamada


“ganancia”. Para la misma señal de entrada, la salida es tanto mayor cuanto mayor
sea la sensibilidad.
Es el cociente entre el incremento de la indicación o señal de salida del instrumento
y el incremento de la variable medida después de haberse alcanzado el estado de
reposo. Si la indicación o señal de salida depende linealmente de la variable medida
el mencionado cociente es constante en el rango.

También se expresa como una relación, con un numero de dimensiones dadas por
las unidades de medida de las dos magnitudes consideradas.

RANGO O CAMPO. – Intervalo de valores de la variable medida comprendido entre


el valor máximo y valor mínimo que el instrumento es capaz de medir. Se expresa
indicando los valores de límites.

AMPLITUD. – Es el número total de unidades para las cuales un instrumento ha sido


diseñado o también es la diferencia algebraica entre los valores superior e inferior.

ERROR. – Es la diferencia algebraica entre el valor medido por el instrumento y el


valor real de la variable medida.

Error absoluto: 𝐸 = 𝑋 − 𝑋0

𝐸 𝑋− 𝑋0
Error relativo: 𝑒= =
𝑋0 𝑋0

RESOLUCION. – La resolución de un instrumento de medición es la expresión


cuantitativa de su amplitud para presentar significativamente la distinción entre
valores muy próximos de la magnitud medida.

ESTABILIDAD. – La estabilidad de un instrumento de medición es su aptitud para


conservar invariables sus características metrológicas. La estabilidad generalmente
se considera respecto al tiempo, excepto que se especifique de otra manera.
4.4. TEORIA DE ERRORES

Los tipos de errores de medición pueden ser aleatorios, sistemáticos, despreciativos


o significativos, entre otros. Se conoce como error de medición a la diferencia
existente entre el valor que se ha obtenido y el valor real del objeto medido.

En ocasiones, el error es tan mínimo que se considera despreciable. Esto quiere decir
que la diferencia entre los valores reales y medidos es insignificante y no afecta el
resultado.

En otros casos los errores son significativos, lo que quiere decir que la diferencia sí
puede afectar al trabajo que se esté llevando a cabo.

Además de los errores despreciables y significativos, existen otros tipos de errores


de medición. Algunos se deben a defectos de los instrumentos empleados y otros al
mal manejo de los instrumentos por parte de la persona que lleva a cabo la medición.

Las condiciones del ambiente también pueden intervenir en el proceso de medición


haciendo que los datos obtenidos sean errados. Finalmente, se encuentra el error
sistemático y el error aleatorio.

1- Error aleatorio

Los errores aleatorios son aquellos que se dan cuando se hacen medidas
consecutivas de un mismo objeto o fenómeno, obteniendo valores diferentes en
cada caso.

En las ciencias sociales los errores aleatorios están representados por condiciones
que afecten de manera particular a un miembro de la muestra que está siendo
analizada.

Ejemplo
Se está estudiando el desempeño de un grupo de alumnos en los deportes. Hay
cientos de elementos que afectan a cada joven, como las horas de sueño que ha
tenido, el humor, la condición física, entre otros.

Cabe destacar que estas condiciones no intervienen en la actuación del grupo, sino
en la de un solo individuo, lo que añade diferencias interesantes en los datos
obtenidos.

2- Error sistemático

A diferencia de los errores aleatorios, los errores sistemáticos dependen


directamente del sistema que se está empleando para realizar la medición. Por este
motivo, son errores constantes.

Si se emplean instrumentos descalibrados, estos arrojarán medidas erróneas. El


error se va a presentar incluso si se repite el proceso de medición.

En las ciencias sociales, el error sistemático se produce cuando hay una condición
que afecte de manera general el desempeño de todos los individuos de la muestra.

Ejemplo

Un grupo de estudiantes debe presentar un examen sorpresa sobre un contenido


que no se ha visto a profundidad en clases.

Se espera que el resultado de la evaluación sea pobre en cada caso, lo que


representa un error sistemático.

3- Error despreciativo

Es aquel error que, por ser mínimo, no constituye un problema para las mediciones
que se están llevando a cabo.
Ejemplo

Si se está trabajando en metros y la medida varía por 1 milímetro, se considera que


este error no es significativo y el resultado se acepta como correcto.

4- Error significativo

El error significativo es aquel que representa un problema para el trabajo que se está
realizando. Si la diferencia de medidas es muy grande, evidentemente se tratará de
un error significativo.

Hay casos en los que la diferencia es mínima pero igualmente es significativa.

Ejemplo

Cuando se preparan soluciones valoradas (aquellas que requieren medidas precisas


de soluto y solvente), un error en la medición de los componentes siempre será
significativo.

5- Error por defectos en el instrumento empleado

Muchos de los errores que se cometen al momento de hacer mediciones pueden ser
atribuidos a los instrumentos que se emplean.

Existen algunos instrumentos que requieren ser calibrados para que las medidas
obtenidas sean precisas.

Los termómetros deben ser sometidos a mantenimiento y calibración cada cierto


tiempo, para que no existan errores significativos en las medidas de la temperatura.

Ejemplo
Los defectos de fábrica, las deformaciones y otras imperfecciones son algunos
ejemplos de los causantes de errores. Asimismo, los instrumentos están sujetos a
desgastarse por el uso.

6- Error causado por la persona que toma la medida

El ser humano es imperfecto. Por lo tanto, cuando un individuo es el encargado de


tomar las mediciones, existe un margen de probabilidades de que se cometa un
error.

Ejemplo

Si se está midiendo el volumen de un líquido en un cilindro graduado, es necesario


que el operador sitúe los ojos al nivel del instrumento para obtener una medida
precisa.

Si el observador sitúa la vista más arriba o más abajo de la marca, se producirá un


error de medición. Este tipo de error es conocido como error de paralelaje y es uno
de los más comunes.

Si el observador tiene problemas de visión o es muy descuidado, puede cometer


errores al anotar los datos. Por ejemplo, un 3 puede ser confundido con un 8, lo que
genera un error significativo.

7- Error debido a las condiciones ambientales

Las temperaturas, el sonido y otros estímulos del ambiente también afectan las
mediciones.

Ejemplo
Muchos materiales son propensos a variar en su longitud de acuerdo con el aumento
y la disminución de la temperatura.

Si se están haciendo mediciones con base en la intensidad del sonido, el ruido


excesivo puede dar lugar a errores.

En las balanzas, el polvo acumulado puede generar diferencias en las mediciones. En


la mayoría de los casos, se tratará de errores despreciables.

4.4.1. PROCEDIMIENTO TH- 003 PARA LA CALIBRACIÓN POR


COMPARACIÓNDE TERMOPARES

Equipos y materiales

Para la calibración contemplada en este procedimiento, serían necesarios los


siguientes equipos y materiales:

- Dos termómetros patrón con incertidumbre de calibración de, al menos, un


orden de magnitud inferior a la esperada para los termopares a calibrar y
rango similar a los mismos. (Es recomendable disponer de otro patrón
adicional; p. e., en el caso de que las diferencias encontradas entre las lecturas
de los dos patrones usados durante la calibración sean mayores que la
uniformidad del medio isotermo es útil para verificar cuál de los patrones está
midiendo mal).
- Baños de temperatura controlada y/u hornos con funcionamiento en el
margen de calibración del termopar, caracterizados en estabilidad y
uniformidad, que deben ser coherentes con la incertidumbre de calibración
prevista.
- Equipos de lectura adecuados para los termómetros utilizados como patrones
y para los termopares a calibrar, con resolución e incertidumbres de
calibración adecuadas al nivel de la calibración.
- Cables de cobre de baja fuerza electromotriz.
- Conmutador de baja fuerza electromotriz, si se considera necesario.
- Registradores de las condiciones ambientales del laboratorio (temperatura y
humedad), adecuados para el margen de temperatura y humedad a las que
habitualmente se encuentra el laboratorio.

Proceso de calibración

1) En general, durante la calibración, las medidas de la temperatura se harán


cuando el medio isotermo se encuentre estable y uniforme, lo que debe
comprobarse en cada punto de calibración. El laboratorio debe tener
previamente caracterizados sus medios isotermos que tendrán valores
asignados de estabilidad y uniformidad, a los que se va a hacer referencia en
este procedimiento (la forma particular de caracterización de un medio
isotermo no es objeto de este procedimiento). Para comprobar si el medio
isotermo está lo suficientemente estable, es conveniente anotar o registrar
la lectura de uno de los patrones. Para comprobar si el medio está uniforme,
se utilizarán los dos patrones.
2) El circuito de medida de los termopares debe ser comprobado y corregido de
cualquier tipo de fuerza electromotriz residual, obteniendo un valor de
lectura (δE0) con el circuito cerrado mediante un corto en los terminales
donde se conecten los termopares. Este valor deberá introducirse como
corrección en las lecturas del termopar si su valor es significativo frente a la
incertidumbre de calibración esperada para el termopar. En cualquier caso,
estará incluido en el cálculo de incertidumbres.
3) Debe realizarse un estudio de homogeneidad (o uniformidad) del termopar
en calibración para determinar la posible falta de homogeneidad de los hilos
de termopar a lo largo del termopar, la mayor causa de incertidumbre de
este tipo de sensores.

Para ello debe usarse un método que conlleve cambios locales del perfil térmico a lo
largo de la longitud del termopar, por calentamiento o enfriamiento, mientras que
las juntas de medida y de referencia se mantienen a una temperatura estable, p.e. 0
ºC.

La zona de calentamiento o enfriamiento se va desplazando lentamente a lo largo


de la longitud del termopar, lo que permite detectar inhomogeneidades locales a
partir de variaciones en las lecturas del termopar.

Otra posibilidad es mover la junta de medida en un medio isotermo que posea una
distribución lo más homogénea posible de temperatura (p.e. un baño de líquido
agitado o una célula de punto fijo). Con este método, distintas zonas del termopar
irán posicionándose en la zona con mayor gradiente de temperatura (superficie del
baño u horno), lo que ocasionará cambios en las lecturas si éste no fuese homogéneo
en las zonas sometidas a gradiente.

Las profundidades a las que se realizan estas pruebas deben ser mayores que la
profundidad de inmersión determinada al comienzo del proceso de calibración, para
evitar errores por conducción térmica. Es aconsejable tomar la precaución de
determinar la temperatura a la que se realizan las pruebas con los patrones.

Si el valor obtenido de uniformidad del termómetro es del orden de la estabilidad y


uniformidad del baño en las condiciones y tiempo de la calibración, no se considerará
el valor obtenido de uniformidad en el cálculo de incertidumbres: las variaciones de
las medidas del termómetro se deben al baño, lo que ya se ha tenido en cuenta en
el cálculo. Es recomendable estimar la contribución de incertidumbre debida a la
falta de homogeneidad como una distribución rectangular, cuya amplitud sería
equivalente a la mayor diferencia encontrada entre dos medidas durante la prueba
de uniformidad. Si la prueba se realiza en una pequeña porción del termopar, la
máxima diferencia encontrada deberá tomarse como la semiamplitud del intervalo
de la distribución.

Cuando no se puedan realizar estas medidas se recomienda tomar al menos el 20 %


de la tolerancia para la clase 2 del tipo de termopar correspondiente, según [5],
como contribución de incertidumbre. Si se realiza la prueba de uniformidad a otra
temperatura distinta de la de calibración, puede expresarse la falta de
homogeneidad como un porcentaje de la fuerza electromotriz total.

4) La calibración se realizará en un mínimo de 5 ó 6 puntos que cubran al menos


el 80% del rango de calibración y distribuidos de manera uniforme. Los
puntos de calibración irán en orden de temperaturas decrecientes, ya que los
gradientes térmicos inhomogeneidades en los termopares.

En el caso de los termopares tipo K, la calibración debe hacerse a temperaturas


crecientes, pues estos, sufren cambios entorno a los 500 °C y debe repetirse el
primer punto de calibración al finalizar como comprobación. El proceso de lectura
que se repetirá para cada punto de calibración, consiste en:

1° Lectura del primer patrón corregida o interpolada según su certificado t11.

2° Lectura del termopar a calibrar Ex1.

3° Lectura del segundo patrón corregida o interpolada según su certificado t2.

4° Lectura del termopar a calibrar Ex2.


5° Lectura del primer patrón corregida o interpolada según su certificado t12.

En el caso de que se calibren simultáneamente varios termopares, en el paso 4° se


leerán en orden inverso al que fueron leídos en el paso 2°.

Cuando se quiere conseguir una mayor exactitud, las medidas en los termopares
deben hacerse también invirtiendo la polaridad. Utilizando la media de estos dos
valores, se minimizan las posibles fuerzas electromotrices parásitas. Los voltímetros
digitales, pueden ofrecer resultados distintos entre los modos positivo y negativo,
por lo que, para ello, ambas polaridades deben estar calibradas. Por tanto, en los
pasos 2°y 4° se tomarían dos lecturas del termopar a calibrar en cada uno, una con
polaridad directa y otra inversa.

Toma y tratamiento de datos

Para cada punto de calibración se anotará:

1) Posibles anomalías y descripción de los tratamientos térmicos si se dan.


2) Si el termopar fue calibrado con cables de extensión o compensación.
3) Las condiciones ambientales de temperatura y humedad relativa.
4) El tipo de junta de referencia utilizada y el resultado de su comprobación.
5) La temperatura de la junta de referencia si ésta fuese distinta de 0°C.
6) Las profundidades de inmersión de la junta de medida y de la de referencia.
7) El valor de δE 0, en el caso de que sea necesario hacer correcciones.
8) Los valores en temperatura que indican los patrones: t11, t12 y t2.
9) La temperatura asignada a cada punto de calibración que será la media de las
temperaturas obtenidas con los patrones. Esta media se obtiene primero para
las temperaturas determinadas por el primer patrón y después se vuelve a
hacer la media para los dos patrones:
𝑡11 + 𝑡12
+ 𝑡2 𝑡1 + 𝑡2
𝑡𝑥 = 2 =
2 2
10) Los valores de fuerza electromotriz del termopar en calibración: Ex1 y Ex2.
11) El valor de fuerza electromotriz del termopar en calibración Ex que será la
media de las lecturas Ex1 y Ex2.
𝐸𝑥1 + 𝐸𝑥2
𝐸𝑥 =
2

En este proceso, si se observan diferencias (en valor absoluto) entre las dos lecturas
del primer patrón mayores que la estabilidad asignada al medio isotermo de
calibración, se repetirán las medidas por falta de estabilidad:

|𝑡11 − 𝑡12 | > 𝑒𝑏

Se considera que la diferencia entre la primera y la segunda medida del primer


patrón puede ser debida a la falta de estabilidad del medio isotermo. Se permite una
variación dentro de los límites de estabilidad del medio isotermo utilizado, para
asegurarse de que las medidas se han tomado en el medio isotermo suficientemente
estable (sistema bajo control estadístico).

También se repetirán las medidas del punto de calibración, si la diferencia (en valor
absoluto) entre las temperaturas de los dos patrones es mayor que la uniformidad
asignada al medio isotermo de calibración, por falta de uniformidad:

|𝑡1 − 𝑡2 | > 𝑢𝑏

Si la diferencia persiste se sustituirá uno de los patrones para identificar el origen del
problema.

Cálculo de incertidumbres
Para poder establecer un modelo matemático que describa el proceso de medición
y permita el cálculo de la incertidumbre asociada, debemos distinguir dos pasos.

El primero consiste en expresar la temperatura, tx, a la que se somete la junta de


medida del termopar en calibración, en función de todas las magnitudes de entrada.
El segundo será expresar la fuerza electromotriz, E(tx), medida por el termopar en
calibración en función de sus magnitudes de entrada.

Para tx podemos escribir:

1
𝑡𝑥 ≅ [𝑡1 + 𝛿𝑡𝑐1 + 𝛿𝑡𝑑1 + ∑ 𝛿𝑡𝑚𝑖1 + 𝑡2𝑣 + 𝛿𝑡𝑐2 + 𝛿𝑡𝑑2 + ∑ 𝛿𝑡𝑚𝑖2]
2
𝑖 𝑖

+ 𝛿𝑡𝑢 + 𝛿𝑡𝑒

Donde se ha considerado que las lecturas de los patrones están corregidas, o


interpoladas, según sus certificados, por ser lo más conveniente.

La fuerza electromotriz generada a lo largo de los hilos del termopar durante la


calibración, con la junta fría a 0 °C, puede expresarse, teniendo en cuenta los
principales factores de influencia, como:

𝐸 (𝑡𝑥 ) = 𝐸𝑥 + 𝛿𝐸𝑐 + 𝛿𝐸𝑑 + 𝛿𝐸0 + 𝛿𝐸𝑖 + 𝛿𝐸ℎ

+ ∑ 𝛿𝐸𝑚𝑖 + 𝐶𝑜 ∙ 𝛿𝑡𝑗𝑓 + 𝐶𝑡 ∙ ∆𝑡
𝑖

La incertidumbre combinada obtenida de la ecuación, se multiplicará por un factor


k = 2, para obtener la incertidumbre expandida (se considera que la incertidumbre
combinada corresponde a una distribución normal, por lo que este factor supone
una probabilidad de cobertura del 95,45 %).
Esto será cierto en general, ya que todas las contribuciones a la incertidumbre
combinada son de tipo B y se puede asumir que se cumplen las condiciones del
Teorema Central del Límite, y que, por lo tanto, la incertidumbre combinada sigue
una distribución normal. La incertidumbre expandida puede darse también en
temperatura multiplicando la incertidumbre expandida en fuerza electromotriz por
1/ ct donde ct es el coeficiente de sensibilidad a la temperatura t del termopar (en
μV/°C), que se obtiene de las tablas de referencia.

Resumen del cálculo de u(tx)


Resumen del cálculo de u(E(tx))

Interpretación de resultados

Los periodos de recalibración de los termopares, no están normalizados debido a su


diversidad de tipos, rangos de temperatura, construcción, aplicación, intensidad de
uso, etc. El usuario del termopar debe establecer su propio programa de
comprobaciones y calibraciones adaptado a sus equipos y sistemas de medida, según
su experiencia. En principio, se podría comenzar con un período inicial de calibración
de un año, para posteriormente dependiendo del comportamiento del termopar
aumentarlo o disminuirlo.
4.4.2. CONDICIONES AMBIENTALES PARA CALIBRACION

Para lograr que los instrumentos se ambienten con respecto a las condiciones
ambientales es necesario dejar el equipo en el laboratorio un tiempo
considerable para la mayoría de los instrumentos.

El propósito de mantener la humedad en los valores bajos, es minimizar la


corrosión de los equipos, evitar los efectos higroscópicos de algunos materiales,
y permitir un confort óptimo para el personal de laboratorio.

El registro y medición de la presión atmosférica en todos aquellos laboratorios


que requieren corrección por:

- Empuje de aire
- Fases de estado
- Normalización de resultados

Вам также может понравиться