Вы находитесь на странице: 1из 18

CAMPOS DE APLICACIÓN E IMPORTANCIA

DE LA INSTRUMENTACIÓN

CATEDRA

Instrumentación y medición

Carabobo, Noviembre 2018


Reproductibilidad
La reproductibilidad se refiere a la capacidad que tenga una prueba o experimento de
ser reproducido o replicado por otros, en particular, por la comunidad científica. El término
está estrechamente relacionado al concepto de testabilidad. La reproductibilidad puede
requerir que la prueba o experimento sea falsa. La reproductibilidad es uno de los pilares
del método científico.

En ingeniería, ciencia, industria y estadística, se denomina reproductibilidad a la


capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas
en las mismas condiciones a lo largo de periodos dilatados de tiempo. Esta cualidad debe
evaluarse a largo plazo. Ésta es la gran diferencia con precisión que debe, en cambio, ser
evaluada a corto plazo.

Variables de procesos
El caudal es la variable de proceso básica más difícil de medir Esta es una variable
muy importante ya que su conocimiento es indispensable en los balances de materia y
energía. El costo y las dificultades técnicas para la medición hacen que su uso sea menos
difundido.
Solo se utiliza para determina la cantidad de masa o volumen que circula por la
conducción por unidad de tiempo. Los instrumentos que llevan a cabo la medida de un
caudal se denominan, habitualmente, caudalímetros o medidores de caudal, los cuales
integran dispositivos adecuados para medir y justificar el volumen que ha circulado por la
conducción.
Variable manipulada
Es la que se modifica para afectar directamente a la variable controlada, es la
herramienta para modificar la variable directa en el proceso. Es la cantidad que se encarga
de variar los instrumentos finales de control. ; Es el mensaje del controlador que transmite
modificaciones para lograr lo esperado de la variable controlada.
Control de proceso
La misión del sistema de control de proceso será corregir las desviaciones surgidas en
las variables de proceso respecto de unos valores determinados, que se consideran óptimos
para conseguir las propiedades requeridas en el producto producido.

El sistema de control nos permitirá una operación del proceso más fiable y sencilla, al
encargarse de obtener unas condiciones de operación estables, y corregir toda desviación
que se pudiera producir en ellas respecto a los valores de ajuste. Las principales
características que se deben buscar en un sistema de control que serán:

 Mantener el sistema estable, independiente de perturbaciones y desajustes.


 Conseguir las condiciones de operación objetivo de forma rápida y continua.
 Trabajar correctamente bajo un amplio abanico de condiciones operativas.
 Manejar las restricciones de equipo y proceso de forma precisa.

La implantación de un adecuado sistema de control de proceso, que se adapte a las


necesidades de nuestro sistema, significará una sensible mejora de la operación.
Principalmente los beneficios obtenidos serán:

 Incremento de la productividad.
 Mejora de los rendimientos.
 Mejora de la calidad.
 Ahorro energético.
 Control medioambiental.
 Seguridad operativa.
 Optimización de la operación del proceso/ utilización del equipo.
 Fácil acceso a los datos del proceso.

Set point
Es cualquier punto de ajuste de alguna variable de un sistema de control automático.
Puede ser: Nivel; presión, temperatura; desplazamiento; rotación.

El lazo de control es el conjunto de dispositivos capaces de realizar un sistema de


control automático. Se compone de: un elemento sensor, un elemento de control (donde se
configura set point, velocidad de respuesta, integración; derivación), dependiendo de lo que
se quiere controlar, y un elemento de salida que es el controlado.
Los lazos de control generalmente están normalizados, por ejemplo 4ma a 20 ma ó
0v a 10 V entre otros.

El elemento sensor entregara una salida entre 4 y 20 ma, entre el nivel mínimo y
máximo de la variable controlada, el controlador procesará ésa lectura y de acuerdo a lo
configurado en él, entregará a su salida una señal también entre 4 a 20 ma al elemento de
salida para que la variable controlada sea igual al set point.

Perturbaciones
Son transmisión de señales analógicas o digitales es inevitable, pues existen una serie
de factores que afectan a la calidad de las señales transmitidas por lo que nunca serán
iguales a las señales recibidas.

En las señales digitales esto limita la velocidad de transmisión pues estas


perturbaciones en una línea de transmisión producen el incremento en la taza de errores de
bits, y en una señal analógica esta línea de transmisión introduce variaciones de amplitud y
frecuencia lo que degrada la calidad de la señal.

Las principales perturbaciones son:

 Ruido.
 Atenuación.
 Distorsión de retardo.

Elementos primarios
Se entiende por elemento primario a todo aquel que existe fuera de manera
independiente en un circuito. Estos están conectados con las variable y absorben energía
atreves de los contralores, para poder entregar información a los indicadores, siendo
analizada por los sistemas u operadores. Los efectos que captan los controladores
usualmente (Elementos primarios) de cambios presión, fuerza, posición, medida, entre
otros.

Clasificación de los elementos primarios:

 Tipo de señal de entrada


 Sensores de presión:
 Sensores de nivel
 Sensores de flujo
 PTC
 Tipos de señal de salida
 Sensores mecánicos
 Sensores eléctrico/electrónicos
 Sensores electro-mecánico

Transmisores
Es un dispositivo electrónico semiconductor utilizado para entregar una señal de
salida en respuesta a una señal de entrada. Cumple funciones de amplificador, oscilador,
conmutador o rectificador. Tipos de transmisores:

 Transistor de contacto puntual


 Transistor de unión bipolar
 Transistor de efecto de campo
 Fototransistor

Traductores
Este es una herramienta que puede cumplir las funciones de tomar una señal
mecánica a una eléctrica y transformar estas señales eléctricas en un valor cuantificable en
un monitor o para un sistema automatizado

Controladores
Es un software que se encarga de recolectar datos y analizar estos, para mantener
dentro de límites específicos y notificar de cualquier alteración, que ocurra en un sistema
específico al cual fue previamente arreglado por un técnico, este sistema puede mostrar los
datos de forma analítica o digital

Medición
Es un proceso que se realiza en la ciencia, teniendo como base la comparación de
una característica o fenómenos, que se desea medir, para averiguar cuantas veces se repite
el magnitud en este

Instrumentos (tipos de instrumento)


Es una herramienta que se utiliza para definir una medida física de algo. Existen
diferentes tipos de instrumentos según su función son:

 Para medir masa


 Para medir tiempo
 Para medir longitud
 Para medir ángulos
 Para medir temperatura
 Para medir presión
 Para medir velocidad
 Para medir propiedades eléctricas
 Para medir volúmenes
 Para medir peso

Características estáticas
 Exactitud y Precisión:
En primer lugar hay que establecer la diferencia entre los términos precisión y
exactitud, en general estas dos palabras son sinónimos, pero en el campo de las mediciones
indican dos conceptos completamente diferentes.

Se dice que el valor de un parámetro es muy preciso cuando está muy bien definido.
Por otra parte, se dice que dicho valor es muy exacto cuando se aproxima mucho al
verdadero valor. Por ejemplo:

A continuación se tiene un reloj de aguja, donde solo están marcadas las posiciones de
las 12, las 3, las 6 y las 9.

Reloj de pulsera

Como se puede observar en este reloj aunque funcione correctamente y por lo tanto
indique en cada momento la hora exacta, no tiene precisión ya que resulta difícil leer los
minutos e imposible determinar los segundos.

Ahora supóngase que se tiene un reloj digital muy preciso como el que se observa a
continuación, donde en un momento dado indica las 12 horas, 15 minutos, 30 segundos, 3
décimas, 4 centésimas.
Reloj Digital
 Linealidad:
Por lo general los instrumentos se diseñan de forma que tengan una respuesta lo más
lineal posible, es decir que para un determinado incremento del parámetro que se mide, el
desplazamiento correspondiente del indicador sea siempre el mismo, independientemente
de la posición de éste. Por ejemplo, se tiene el siguiente amperímetro en el que
cada división de 1 mA tiene 10 subdivisiones:

Si se mide una corriente de 1 mA, y en un momento dado dicha corriente aumenta


0.1 mA, entonces la aguja debe deflectar una subdivisión. Por otra parte, si la corriente que
se mide es de 3 mA y también sufre un incremento de 0.1mA, la aguja debe deflectar
igualmente una subdivisión. Las desviaciones de este tipo de respuesta lineal se deben
principalmente a las características de diseño mecánico del instrumento. Dichas
desviaciones son más notorias hacia los extremos de la escala.

 Sensibilidad:
La sensibilidad de un instrumento es la relación entre la respuesta del instrumento
(N° de divisiones recorridas) y la magnitud de la cantidad que estamos midiendo. A
continuación se pueden observar varios ejemplos.
Para un miliamperímetro, la sensibilidad viene dada por el N° de divisiones que deflecta la
aguja cuando por el instrumento circula 1 mA. Las unidades de este parámetro son div/mA.
Si dos miliamperímetros tienen el mismo número de divisiones en su escala, pero el
primero sufre una deflexión de 2 divisiones cuando circula 1 mA, mientras que el segundo
deflecta 10 divisiones para la misma corriente, este último es cinco veces más sensible que
el primero.

Para un voltímetro, de acuerdo a la definición general, la sensibilidad viene dada


por el N° de divisiones deflectadas cuando en sus extremos hay una caída de 1 Voltio. Para
estos instrumentos se define además un parámetro especial denominado característica de
sensibilidad, el cual viene expresado en Ohm/volt. La definición de este parámetro y su
utilidad los veremos cuando estudiemos el voltímetro.

Para un puente de Wheatstone, mostrado en la Fig. 5, que como definimos


anteriormente es un instrumento capaz de medir resistencias por el método del cero, la
sensibilidad viene dada por el número de divisiones que deflecta el instrumento sensor G
cuando, una vez calibrado, la resistencia incógnita Rx varía en 1 .

 Resolución:
Esta característica está relacionada con la precisión. La resolución de un instrumento
es el menor incremento de la variable bajo medición que puede ser detectado con
certidumbre por dicho instrumento. Por ejemplo, en el caso del reloj digital que se mostró
anteriormente, la resoluciones de una centésima de segundo. Si tenemos un amperímetro
con la escala mostrada en la Figura, cada una de las divisiones corresponde a 1 mA.

 Gama y Escala:
La gama de un instrumento se define como la diferencia entre la indicación mayor y
la menor que puede ofrecer el instrumento. La gama puede estar dividida en varias escalas
o constar de una sola. Por ejemplo, el amperímetro de la Fig.a, tiene una gama de 0 a 5 mA,
y una sola escala, mientras que el de la Fig.b, tiene una gama de 0 a 500 mA, dividida en 5
escalas las cuales van respectivamente de 0 a 0.05 mA; de 0 a 0.5 mA; de 0 a 5 mA; de 0 a
50 mA y de 0 a 500 mA.

Características dinámicas

 Error dinámico:
El error dinámico de un instrumento se define como la diferencia entre la cantidad
indicada en un instante de tiempo dado y el verdadero valor del parámetro que se está
midiendo. Supóngase que se tiene un instrumento al que se le aplica la función mostrada en la
siguiente figura.

Esto quiere decir que si por ejemplo se trata de un voltímetro, se hace


variar bruscamente el voltaje entre sus extremos.
La respuesta del instrumento en función del tiempo puede presentar diferentes
formas, como puede apreciarse en las Fig. A y B. Según se puede observar, para todo
instante de tiempo menor que to existe una diferencia entre la función aplicada y la
respuesta del instrumento. Esta diferencia es lo que se le denomina error dinámico.

Fig. A.-Respuesta sobreamortiguada a la función de entrada de un instrumento

Fig. B.- Respuesta subamortiguada a la función de entrada de un instrumento

 Tiempo de respuesta
Es el tiempo transcurrido entre la aplicación de una función escalón y el instante en
que el instrumento indica un cierto porcentaje (90%, 95% o 99%) del valor final. Para
instrumentos con aguja indicadora, el tiempo de respuesta es aquél que tarda la aguja en
estabilizarse aparentemente, lo cual ocurre cuando ha llegado a un porcentaje determinado
(por ejemplo 1%) de su valor final.

 Tiempo nulo
Es el tiempo transcurrido desde que se produce el cambio brusco a la entrada del
instrumento hasta que él alcanza el 5% del valor final.
 Sobrealcance.
En los instrumentos con aguja indicadora, la deflexión se produce debido a que se
aplica una fuerza a la parte móvil. Dicha parte móvil tiene una masa, por lo que al aplicar la
fuerza se origina un momento que puede llevar a la aguja más allá del valor
correspondiente al de equilibrio. La diferencia entre el valor máximo y el valor final se
denomina Sobre alcance. Los dos tipos de respuesta que se vio anteriormente se diferencian
porque en el segundo hay Sobre alcance mientras que en el primero no. Un Sobre alcance
elevado es indeseable, pero un valor pequeño del mismo contribuye a disminuir el tiempo
requerido para que la aguja alcance el estado estable.
Los conceptos enunciados anteriormente se pueden resumir en la siguiente gráfica:

Respuesta transitoria

Calibración

Se puede definir como una ooperación que bajo condiciones especificadas establece
en una primera etapa, una relación entre los valores y sus incertidumbres de medida
asociadas obtenidas a partir de los patrones de medida, y las correspondientes indicaciones
con sus incertidumbres asociadas y en una segunda etapa, utiliza esta información para
establecer una relación que permita obtener un resultado de medida a partir de una
indicación.
Una calibración puede expresarse mediante una declaración, una función de
calibración, un diagrama de calibración, una curva de calibración o una tabla de
calibración. En algunos casos puede consistir en una corrección aditiva o multiplicativa de
la indicación con su incertidumbre correspondiente.

Conviene no confundir la calibración con el ajuste de un sistema de medida, a


menudo llamado incorrectamente “autocalibración”, ni con una verificación de la
calibración.

Frecuentemente se interpreta que únicamente la primera etapa de esta definición


corresponde a la calibración.

Error
Se define como la diferencia entre el valor medido y el valor verdadero, en general,
los errores pueden ser causados por diferentes causas.
Las que se pueden de alguna manera prever, calcular o eliminar mediante
calibraciones y compensaciones; se denominan determinísticos o Sistemáticos.
Los que no se puede prever, pues dependen de causas desconocidas, o estocásticas se
denominan aleatorios.

Tipos de errores:
 Graves o gruesos:
Son en gran parte de origen humano, como la mala lectura de los instrumentos,
ajuste incorrecto y aplicación inapropiada, así como equivocaciones en los cálculos. Un
error grave típico es el error por efecto de carga o error de inserción.

 Sistemáticos:
Se deben a fallas de los instrumentos, como partes defectuosas o desgastadas, y
efectos ambientales sobre el equipo. Un ejemplo típico como veremos más adelante en el
galvanómetro de D’arsonval, se deriva de la fricción de los cojinetes de las partes móviles,
deterioro del resorte antagónico, etc. Estos errores pueden evitarse mediante una buena
elección del instrumento, aplicación de factores de corrección, o recalibrando los mismos
contra un patrón

 Aleatorios o fortuitos:
Se deben a causas desconocidas y ocurren incluso cuando todos los errores
sistemáticos han sido considerados. Para compensar estos errores debe incrementarse el
número de lecturas y usar medios estadísticos para lograr una mejor aproximación del valor
real de la cantidad medida.
Cabe aclarar que algunos autores simplemente separan los errores en sistemáticos, y
fortuitos (o residuales), y en los primeros incluyen los graves o humanos, los
instrumentales, ambientales, etc.

Alcance y rango:

El alcance o Span es la diferencia entre el límite de operación superior e inferior del


instrumento, la precisión es la cualidad de cualquier instrumento para que pueda dar
lecturas próximas unas de otras, o sea es el grado de dispersión de la misma. El Span
también es el conjunto de valores en los que funcionará el instrumento.

El rango, también conocido como “Rangeability” es la relación entre el máximo


valor de la variable medida respecto del mínimo sobre la cual se mantendrá la exactitud
especificada del instrumento.

El rango se indica por los dos valores extremos de la variable medida dentro de los
cuales las mediciones que se desean realizar se encontrarán normalmente entre 100ºC y
300ºC.

Por ejemplo, cuando se instala un instrumento y se conoce los límites dentro de los
cuales tendrá que medir normalmente se lo ajusta para los mismos. El ajuste de cero,
muchas veces supresión hace que la salida mínima del instrumento comience en ese valor
indicado.
Una salida Standard de control analógico en corriente de muchos instrumentos va de
4 a 20 mA. Si se ha suprimido el cero los 4 mA coincidirán con 100 y los 20 con 300,
mientras que el Span de 16 mA corresponde a la diferencia de 200.

Se puede calibrar un Span menor que el máximo, entonces se presenta lo que se


denomina: turn down, que es la relación entre el Span máximo y el Span calibrado.

Cuando los extremos del rango no coinciden con cero a la diferencia del límite
inferior con cero, se denomina elevación de cero si este está contenido dentro del rango, y
supresión de cero si no lo está.

Apreciación:

Es la mínima cantidad que el instrumento puede medir (sin estimaciones) de una


determinada magnitud y unidad. En aquellos instrumentos que poseen una escala, la
apreciación es el valor que se encuentra entre dos divisiones consecutivas. En los
instrumentos digitales la apreciación es el menor cambio que se registra en él.

Error instrumental
El error de la medida es la desviación que presentan las medidas prácticas de una
variable de proceso con relación a las medidas teóricas o ideales, como resultado de las
imperfecciones de los aparatos y de las variables parásitas que afectan al proceso.
Error = Valor leído en el instrumento – Valor ideal de la variable medida.
Tipos de errores:

 El error absoluto:
Error absoluto = Valor leído – valor verdadero.

 El error relativo representa la calidad de la medida:


Error relativo = Error absoluto / error verdadero.

 Error estático:
Es cuando el proceso está en condiciones de régimen permanente.

 Error dinámico:
Siempre que las condiciones sean dinámicas habrá una diferencia en el valor instantáneo y
el indicado por el instrumento. Su valor depende del tipo de fluido del proceso, de su
velocidad, del elemento primario, etc.

 Error medio:
El error medio del instrumento es la media aritmética de los errores en cada punto de la
medida determinados para todos los valores crecientes y decrecientes de la variable medida.

Si el límite del error relativo de cada instrumento es ± a, ± b, ± c, ± d, etc. el máximo


error posible en la medición será la suma de los valores anteriores, es decir: + (a + b + c +
d +…)

El error total de una medición puede decirse que es la raíz cuadrada de la suma
algebraica de los cuadrados de los errores máximos de los instrumentos.
Exactitud

Es la cualidad de un instrumento de medida por la que tiende a dar lecturas


próximas al valor verdadero de la magnitud medida. Es el grado de conformidad de un
valor indicado a un valor estándar aceptado o valor ideal, considerando este valor ideal
como si fuera el verdadero. El grado de conformidad independiente es la desviación
máxima entre la curva de calibración de un instrumento y una curva característica
especificada, posicionada de tal modo tal que se reduce al mínimo dicha desviación
máxima.
Esta define los límites de los errores cometidos cuando el instrumento se emplea
en condiciones normales de servicio durante un período de tiempo determinado
(normalmente 1 año). La exactitud se da en términos de inexactitud, es decir, un
instrumento de temperatura de 0-100 °C con temperatura del proceso de 100 °C y que
marca 99,98 °C se aproxima al valor real en 0,02 °C, o sea tiene una inexactitud de 0,02 °C.
Esta puede expresarse en:

a) Tanto por ciento del alcance, campo de medida (range)


b) Directamente, en unidades de la variable medida. Ejemplo: exactitud ± 1 °C.
c) Tanto por ciento de la lectura efectuada. Ejemplo: exactitud de ± 1% de 150 °C, ±
1,5 °C.
d) Tanto por ciento del valor máximo del campo de medida.
e) Tanto por ciento de la longitud de la escala.

Precisión

Es la cualidad de un instrumento por la que tiende a dar lecturas muy próximas unas
a otras, es decir, es el grado de dispersión de las mismas. Un instrumento puede tener una
pobre exactitud, pero una gran precisión. Los instrumentos de medida estarán diseñados por
los fabricantes para que sean precisos, y como periódicamente se desconfiguran, deben
reajustarse para que sean exactos.
Zona Muerta

Es el campo de valores de la variable que no hace variar la indicación o la señal de


salida del instrumento, es decir, que no produce su respuesta. Viene dada en tanto por
ciento del alcance de la medida. Ejemplo: Si en un instrumento: ± 0,1%, es decir, de 0,1 ×
200/100 = ± 0,2 °C.

Histéresis

Es la diferencia máxima que se observa en los valores indicados por el índice o la


pluma del instrumento o la señal de salida para el mismo valor cualquiera del campo de
medida, cuando la variable recorre toda la escala en los dos sentidos, ascendente y
descendente.
Se expresa en tanto por ciento del alcance de la medida. Por ejemplo: si en un
termómetro de 0-100%, para el valor de la variable de 40 °C, la aguja marca 39,9 °C al
subir la temperatura desde 0 °C, e indica 40,1 °C al bajar la temperatura desde 100 °C, el
valor de la histéresis es de:

{(40,1 - 39,9) / (100 – 0)} x 100 = ± 0,2%

Fiabilidad

Es la medida de la probabilidad de que un instrumento continúe comportándose


dentro de límites especificados de error a lo largo de un tiempo determinado y bajo unas
condiciones especificadas.

Вам также может понравиться