Вы находитесь на странице: 1из 102

INSEAD - INSTITUTO SUPERIOR DE

ENGENHARIA, ARQUITETURA E DESIGN

APOSTILA DE METROLOGIA

Profo. Marcos Borges

1
Índice

Sistema Internacional de Unidades Pg. 03

Metrologia e sua terminologia Pg. 11

Instrumentos de medição mais comumente utilizados Pg. 12

Sistemas de medição Pg. 49

Medição e erros de medição Pg. 60

Calibração de sistemas de medição Pg. 80

Blocos padrão Pg. 90

Calibradores passa-não passa Pg. 98

Controle geométrico (ajuste e desvios de forma) Pg. 104

Instrumentos utilizados no controle de desvios de forma Pg. 127

Controle geométrico (rugosidade) Pg. 138

M.S.A. (análise sistema medição) Pg. 154

Outros instrumentos de medição Pg. 170

2
SI - SISTEMA INTERNACIONAL DE UNIDADES
Um breve histórico das medidas

Para medir a cerca de 4000 anos atrás o homem, que nesta época não dispunha de qualquer
instrumento de medição, utilizava partes do corpo para tal fim. E, por mais incrível que pareça,
destes “instrumentos” rudimentares, são derivadas uma parte das unidades ainda hoje
utilizadas.

3
Medidas derivadas de partes do corpo com seus correspondentes em centímetros:
1 polegada = 2,54 cm
1 pé = 30,48 cm
1 jarda = 91,44 cm

Um exemplo prático disto é o Antigo Testamento da Bíblia, que é um dos registros mais antigos
da história da humanidade. No Gênesis, lê-se que o Criador mandou Noé construir uma arca
com dimensões muito específicas, medidas em côvados. Mas o que é o côvado?
O côvado era uma medida-padrão da região onde morava Noé, e é equivalente a três palmos,
aproximadamente, 66 cm.

Em geral, essas unidades eram baseadas nas medidas do corpo do rei, sendo que tais
padrões deveriam ser respeitados por todas as pessoas que, naquele reino, fizessem as
medições.
Há cerca de 4.000 anos, os egípcios usavam, como padrão de medida de comprimento, o
cúbito: distância do cotovelo à ponta do dedo médio.

Como as pessoas têm tamanhos diferentes, o cúbito variava de uma pessoa para outra,
ocasionando confusões nos resultados nas medidas.
Para serem úteis, era necessário que os padrões fossem iguais para todos.
Diante desse problema, os egípcios resolveram criar um padrão único: em lugar do próprio
corpo, eles passaram a usar, em suas medições, barras de pedra com o mesmo comprimento.
Foi assim que surgiu o cúbito-padrão.
Com o tempo, as barras passaram a ser construídas de madeira, para facilitar o transporte.
Como a madeira logo se gastava, foram gravados comprimentos equivalentes a um cúbito-
padrão nas paredes dos principais templos. Desse modo, cada um podia conferir
periodicamente sua barra ou mesmo fazer outras, quando necessário.
Nos séculos XV e XVI, os padrões mais usados na Inglaterra para medir comprimentos eram a
polegada, o pé, a jarda e a milha. Na França, no século XVII, ocorreu um avanço importante na
questão de medidas. A Toesa, que era então utilizada como unidade de medida linear, foi
padronizada em uma barra de ferro com dois pinos nas extremidades e, em seguida,
chumbada na parede externa do Grand Chatelet, nas proximidades de Paris. Dessa forma,
assim como o cúbito-padrão, cada interessado poderia conferir seus próprios instrumentos.
Uma toesa é equivalente a seis pés, aproximadamente, 182,9 cm.
Entretanto, esse padrão também foi se desgastando com o tempo e teve que ser refeito.
Surgiu, então, um movimento no sentido de estabelecer uma unidade natural, isto é, que

4
pudesse ser encontrada na natureza e, assim, ser facilmente copiada, constituindo um padrão
de medida. Havia também outra exigência para essa unidade: ela deveria ter seus submúltiplos
estabelecidos segundo o sistema decimal. O sistema decimal já havia sido inventado na Índia,
quatro séculos antes de Cristo. Finalmente, um sistema com essas características foi
apresentado por Talleyrand, na França, num projeto que se transformou em lei naquele país,
sendo aprovada em 8 de maio de 1790.
Estabelecia-se, então, que a nova unidade deveria ser igual à décima milionésima parte de um
quarto do meridiano terrestre.

Essa nova unidade passou a ser chamada metro (o termo grego metron que significa medir).
Os astrônomos franceses Delambre e Mechain foram incumbidos de medir o meridiano.
Utilizando a toesa como unidade, mediram a distância entre Dunkerque (França) e Montjuich
(Espanha). Feitos os cálculos, chegou-se a uma distância que foi materializada numa barra de
platina de secção retangular de 4,05 x 25 mm. O comprimento dessa barra era equivalente ao
comprimento da unidade padrão metro, que assim foi definido: Metro é a décima milionésima
parte de um quarto do meridiano terrestre.
Esse metro, transformado em barra de platina, passou então a ser denominado metro dos
arquivos.
Com o desenvolvimento da ciência, verificou-se que uma medição mais precisa do meridiano
fatalmente daria um metro um pouco diferente. Assim, a primeira definição foi substituída por
uma segunda: Metro é a distância entre os dois extremos da barra de platina depositada nos
Arquivos da França e apoiada nos pontos de mínima flexão na temperatura de zero grau
Celsius.
Escolheu-se a temperatura de zero grau Celsius por ser, na época, a mais facilmente obtida
com o gelo fundente.
No século XIX, vários países já haviam adotado o sistema métrico. No Brasil, o sistema métrico
foi implantado pela Lei Imperial nº 1157, de 26 de junho de 1862. Estabeleceu-se, então, um
prazo de dez anos para que padrões antigos fossem inteiramente substituídos.

5
Com exigências tecnológicas maiores, decorrentes do avanço científico, notou-se que o metro
dos arquivos apresentava certos inconvenientes. Por exemplo, o paralelismo das faces não era
assim tão perfeito. O material, relativamente mole, poderia se desgastar, e a barra também não
era suficientemente rígida.
Para aperfeiçoar o sistema, fez-se um outro padrão, que recebeu:
· seção transversal em X, para ter maior estabilidade;
· uma adição de 10% de irídio, para tornar seu material mais durável;
· dois traços em seu plano neutro, de forma a tornar a medida mais perfeita.

Assim, em 1889, surgiu a terceira definição: Metro é a distância entre os eixos de dois traços
principais marcados na superfície neutra do padrão internacional depositado no B.I.P.M.
(Bureau Internacional des Poids et Mésures), na temperatura de zero grau Celsius, sob uma
pressão atmosférica de 760 mmHg e apoiado sobre seus pontos de mínima flexão.
Atualmente, a temperatura de referência para calibração é de 20ºC. É nessa temperatura que o
metro, utilizado em laboratório de metrologia, tem o mesmo comprimento do padrão que se
encontra na França, na temperatura de zero grau Celsius.
Ocorreram, ainda, outras modificações. Hoje, o padrão do metro em vigor no Brasil é
recomendado pelo INMETRO, baseado na velocidade da luz, de acordo com decisão da 17ª
Conferência Geral dos Pesos e Medidas de 1983. O INMETRO (Instituto Nacional de
Metrologia, Normalização e Qualidade Industrial), em sua resolução 3/84, assim definiu o
metro:

É importante observar que todas essas definições somente estabeleceram com maior exatidão
o valor da mesma unidade: o metro.

6
Medidas inglesas

A Inglaterra e todos os territórios dominados há séculos por ela utilizavam um sistema de


medidas próprio, facilitando as transações comerciais ou outras atividades de sua sociedade.
Acontece que o sistema inglês difere totalmente do sistema métrico que passou a ser o mais
usado em todo o mundo. Em 1959, a jarda foi definida em função do metro, valendo 0,91440
m. As divisões da jarda (3 pés; cada pé com 12 polegadas) passaram, então, a ter seus valores
expressos no sistema métrico:
1 yd (uma jarda) = 0,91440 m
1 ft (um pé) = 304,8 mm
1 inch (uma polegada) = 25,4 mm

Padrões do metro no Brasil

Em 1826, foram feitas 32 barras-padrão na França. Em 1889, determinou-se que a barra nº 6


seria o metro dos Arquivos e a de nº 26 foi destinada ao Brasil.
Este metro-padrão encontra-se no IPT (Instituto de Pesquisas Tecnológicas).

Múltiplos e submúltiplos do metro

A tabela abaixo é baseada no Sistema Internacional de Medidas (SI).

1 - SISTEMA INTERNACIONAL DE UNIDADES

7
Necessidade de Um Sistema Internacional

Como vimos, no transcorrer do tempo, diversos foram os sistemas de unidades estabelecidas


nas diferentes regiões do mundo. Em função do intercâmbio internacional de produtos e
informações, bem como da própria incoerência entre unidades anteriormente adotadas,
estabeleceu-se em 1960, através do "Bureau Internacional de Pesos e Medidas - BIPM" um
conjunto coerente de unidades, o SISTEMA INTERNACIONAL DE UNIDADES (SI), que consta
das unidades de: base, derivadas e suplementares.
O BIPM tem por missão assegurar a unificação mundial das medidas físicas; ele é
encarregado:
- de estabelecer os padrões fundamentais e as escalas das principais grandezas físicas, e de
conservar os protótipos internacionais;
- de efetuar a comparação dos padrões nacionais e internacionais;
- de assegurar a coordenação das técnicas de medidas correspondentes;
- de efetuar e de coordenar as determinações relativas às constantes físicas que intervêm
naquelas atividades.

A adoção das unidades do SI é no Brasil uma obrigatoriedade legal e traz uma série de pontos
positivos:
a) facilidade de entendimento das informações a nível internacional (vantagem comercial e
científica);
b) demonstração de maturidade técnico-científica através do abandono de sistemas superados;
c) a simplificação das equações que descrevem os fenômenos físicos, pelo fato de existir
consistência entre as unidades das grandezas envolvidas;

As Três Classes de Unidades do SI

No Sistema Internacional distinguem-se três classes de unidades:


- unidades de base;
- unidades derivadas;
- unidades suplementares.

Unidades de Base

No SI apenas sete grandezas físicas independentes são definidas, as chamadas unidades de


base.
Todas as demais unidades são derivadas destas sete. As definições destas grandezas são
apresentadas na figura abaixo.

8
Embora o valor de cada grandeza seja sempre fixo não é raro que a forma de definir uma
grandeza sofra alteração. Quando ocorrem, estas alterações são motivadas por algum avanço
tecnológico que cria melhores condições de reprodução do valor unitário desta grandeza, isto
é, praticidade e menores erros.

Unidades Derivadas

Unidades derivadas são as unidades que são formadas pela combinação das unidades de
base segundo relações algébricas que correlacionam as correspondentes grandezas.
Constituem a grande maioria das grandezas em uso. A figura abaixo exemplifica algumas
destas grandezas.

9
Por serem muito empregadas, algumas grandezas recebem denominação específica, como
exemplo o newton, pascal, watt, hertz, etc (a grafia com iniciais em letras minúsculas é
intencional e é para diferenciar dos respectivos nomes próprios Newton, Pascal, Watt, Hertz,
etc).

Unidades Suplementares

No SI são também definidas as unidades suplementares. São unidades cuja definição é


puramente matemática, sem que um padrão ou elemento físico seja necessário. Trata-se
basicamente das unidades de ângulo plano e ângulo sólido, como mostra a figura abaixo.

O ângulo plano é a relação entre dois comprimentos e o Ângulo sólido é a relação entre uma
área e o quadrado de um comprimento.
São unidades sem dimensão. Nota-se que estas unidades também podem ser combinadas
com as unidades base para formar novas unidades derivadas.

10
METROLOGIA E SUA TERMINOLOGIA

Ver o anexo “Vocabulário Internacional de Termos Fundamentais e Gerais de Metrologia”

11
INSTRUMENTOS DE MEDIÇÃO MAIS COMUMENTE
UTILIZADOS
Régua graduada

O mais elementar dos instrumentos de medição é a régua graduada ou escala. É usada para
tomar medidas lineares quando não exigida grande precisão. A régua graduada usualmente
apresenta graduações do sistema métrico (milímetros) e do sistema inglês (polegadas).

A escala ou régua graduada é construída de aço e tem a graduação inicial situada na


extremidade esquerda (sem espaçamento). É fabricada em diversos comprimentos, como, por
exemplo, a de 6” (152,4 mm) e a de 12” (304,8 mm).

Utiliza-se a régua graduada nas medições com .erro admissível. superior à


menor graduação. Normalmente, essa graduação equivale a 0,5 mm ou ".
As réguas graduadas apresentam-se nas dimensões de 150, 200, 250, 300, 500,
600, 1000, 1500, 2000 e 3000 mm. As mais usadas na oficina são as de 150 mm (6")
e 300 mm (12").

Há vários tipos de réguas graduadas conforme podemos ver a seguir:

Escala graduada para medidas lineares:

Régua de encosto interno, destinada a medições que apresentem faces internas de referência:

Régua sem encosto, neste caso, devemos subtrair do resultado o valor do ponto de referência:

12
Régua com encosto, destinada à medição de comprimento a partir de uma face externa, a qual
é utilizada como encosto.

Régua de profundidade, utilizada nas medições de canais ou rebaixos internos.

Régua de dois encostos, dotada de duas escalas, uma com referência interna e outra com
referência externa. É utilizada principalmente pelos ferreiros.

Régua rígida de aço-carbono com seção retangular, utilizada para medição de deslocamentos
em máquinas-ferramenta, controle de dimensões lineares, traçagem etc.

13
Leitura no sistema métrico

Cada centímetro na escala encontra-se dividido em 10 partes iguais e cada parte equivale a 1
mm.
Assim, a leitura pode ser feita em milímetro. A ilustração a seguir mostra, de forma ampliada,
como se faz isso.

Leitura no sistema inglês de polegada fracionária

Nesse sistema, a polegada divide-se em 2, 4, 8, 16... partes iguais. As escalas de precisão


chegam a apresentar 32 divisões por polegada, enquanto as demais só apresentam frações de
1/16".
A a ilustração a seguir mostra essa divisão, representando a polegada em tamanho ampliado.

Observe que, na ilustração anterior, estão indicadas somente frações de numerador ímpar.
Isso acontece porque, sempre que houver numeradores pares, a fração é simplificada.

A leitura na escala consiste em observar qual traço coincide com a extremidade do objeto. Na
leitura, deve-se observar sempre a altura do traço, porque ele facilita a identificação das partes
em que a polegada foi dividida.

14
Assim, o objeto na ilustração acima tem 1 1/8” (uma polegada e um oitavo de polegada) de
comprimento.

Desta forma em diante, teremos as seguintes graduações para a leitura de 1 polegada com
precisão de 32 divisões:

1/32” = 0,79375 mm 17/32” = 13,49375 mm


2/32” = 1/16” = 1,5875 mm 18/32” = 9/16” = 14,2875 mm
3/32” = 2,38125 mm 19/32” = 15,08125 mm
4/32” = 1/8” = 3,175 mm 20/32” = 5/8” = 15,875 mm
5/32” = 3,96875 mm 21/32” = 16,66875 mm
6/32” = 3/16” = 4,7625 mm 22/32” = 11/16” = 17,4625 mm
7/32” = 5,55625 mm 23/32” = 18,25625 mm
8/32” = 1/4” = 6,35 mm 24/32” = 3/4” = 19,05 mm
9/32” = 7,14375 mm 25/32” = 19,84375 mm
10/32” = 5/16” = 7,9375 mm 26/32” = 13/16” = 20,6375 mm
11/32” = 8,73125 mm 27/32” = 21,43125 mm
12/32” = 3/8” = 9,525 mm 28/32” = 7/8” = 22,225 mm
13/32” = 10,31875 mm 29/32” = 23,01875 mm
14/32” = 7/16” = 11,1125 mm 30/32” = 15/16” = 23,8125 mm
15/32” = 11,90625 mm 31/32” = 24,60625 mm
16/32” = 1/2” = 12,7 mm 32/32” = 1” = 25,4 mm

Conservação

Evitar que a régua caia ou a escala fique em contato com as ferramentas comuns de trabalho.
· Evitar riscos ou entalhes que possam prejudicar a leitura da graduação.
· Não flexionar a régua: isso pode empená-la ou quebrá-la.
· Não utilizá-la para bater em outros objetos.
· Limpá-la após o uso, removendo a sujeira. Aplicar uma leve camada de óleo fino, antes de
guardar a régua graduada.

15
Além da régua, para tomar-se medidas lineares de que exigem baixa precisão, pode-se utilizar
os seguintes instrumentos

Metro articulado
O metro articulado é um instrumento de medição linear, fabricado de madeira, alumínio ou
fibra.

Trena
Trata-se de um instrumento de medição constituído por uma fita de aço, fibra ou tecido,
graduada em uma ou em ambas as faces, no sistema métrico e/ ou no sistema inglês, ao longo
de seu comprimento, com traços transversais.
Em geral, a fita está acoplada a um estojo ou suporte dotado de um mecanismo que permite
recolher a fita de modo manual ou automático. Tal mecanismo, por sua vez, pode ou não ser
dotado de trava.

A fita das trenas de bolso são de aço fosfatizado ou esmaltado e apresentam


largura de 12, 7 mm e comprimento entre 2 m e 5 m.

16
Paquímetro

O paquímetro é um instrumento utilizado para tomar medidas lineares (comprimeto, largura,


altura, espessura, diâmetro, etc.) quando a precisão requerida não é inferior á 0,01 mm, 1/128”
ou 0,001”. Tanto os paquímetros denominados analógicos (não digitais) com os paquímetros
digitais, possuem escalas em milímetros e polegadas

Na figura á seguir podemos observar os componentes do paquímetro analógico:

Exemplos da utilização do paquímetro:

Paquímetro universal

É utilizado em medições internas, externas, de profundidade e de ressaltos.


Trata-se do tipo mais usado.

17
Paquímetro universal com relógio

O relógio acoplado ao cursor facilita a leitura, agilizando a medição.

Paquímetro com bico móvel (basculante)

Empregado para medir peças cônicas ou peças com rebaixos de diâmetros diferentes.

18
Paquímetro de profundidade

Serve para medir a profundidade de furos não vazados, rasgos, rebaixos etc.
Esse tipo de paquímetro pode apresentar haste simples ou haste com gancho.
Veja a seguir duas situações de uso do paquímetro de profundidade.

Paquímetro duplo

Serve para medir dentes de engrenagens.

19
Paquímetro digital

Utilizado para leitura rápida, livre de erro de paralaxe, e ideal para controle estatístico.

Uma outra vantagem do paquímetro digital é que o mesmo poderá, conforme construção e
saídas disponíveis, ser acoplado á um computador ou dispositivo para registro das medições
tomadas.

Traçador de altura

Esse instrumento baseia-se no mesmo princípio de funcionamento do paquímetro,


apresentando a escala fixa com cursor na vertical. É empregado na traçagem de peças, para
facilitar o processo de fabricação e, com auxílio de acessórios, no controle dimensional.

20
Princípio do nônio / verniê

Este princípio foi inventado pelo astrônomo português Pedro Nunes (1502 – 1578), e
desenvolvido para sua forma atual no ano de 1631, pelo matemático francês Pierre Vernier
(1580–1637). Este sistema é comumente utilizado em instrumentos de navegação,
instrumentos científicos e sistemas de medição mecânicos. Este sistema é utilizado em
diversos instrumentos, mas principalmente em paquímetros e micrômetros.
Este sistema consiste na divisão do valor K de uma escala graduada fixa por N (número de
divisores) de uma escala graduada móvel.

Leitura no paquímetro

O nônio possui uma divisão a mais que a unidade usada na escala fixa.

No sistema métrico, existem paquímetros em que o nônio possui dez divisões equivalentes a
nove milímetros (9 mm).

21
Há, portanto, uma diferença de 0,1 mm entre o primeiro traço da escala fixa e o primeiro traço
da escala móvel.

Essa diferença é de 0,2 mm entre o segundo traço de cada escala; de 0,3 mm entre o terceiros
traços e assim por diante.

22
Cálculo de resolução

As diferenças entre a escala fixa e a escala móvel de um paquímetro podem ser calculadas
pela sua resolução.
A resolução é a menor medida que o instrumento oferece. Ela é calculada utilizando-se a
seguinte fórmula:

As divisões de 0,01 mm são alcançadas apenas com os paquímetros digitais uma vez que a
leitura do nônio com 100 divisões seria tarefa impossível para o olho humano.

23
Leitura no sistema métrico

Na escala fixa ou principal do paquímetro, a leitura feita antes do zero do nônio corresponde à
leitura em milímetro.
Em seguida, você deve contar os traços do nônio até o ponto em que um deles coincidir com
um traço da escala fixa.
Depois, você soma o número que leu na escala fixa ao número que leu no nônio.
Para entendermos o processo de leitura no paquímetro, são apresentados, a seguir, dois
exemplos de leitura.

24
Leitura de polegada milesimal

No paquímetro em que se adota o sistema inglês, cada polegada da escala fixa divide-se em
40 partes iguais. Cada divisão corresponde a:

Como o nônio tem 25 divisões, a resolução desse paquímetro é:

O procedimento para leitura é o mesmo que para a escala em milímetro.


Contam-se as unidades .025" que estão à esquerda do zero (0) do nônio e, a seguir, somam-se
os milésimos de polegada indicados pelo ponto em que um dos traços do nônio coincide com o
traço da escala fixa.

25
Leitura de polegada fracionária

No sistema inglês, a escala fixa do paquímetro é graduada em polegada e frações de


polegada. Esses valores fracionários da polegada são complementados com o uso do nônio.

Para utilizar o nônio, precisamos saber calcular sua resolução:

A partir daí, vale a explicação dada no item anterior sobre o deslocamento e leitura do nônio.

26
27
Você deve ter percebido que medir em polegada fracionária exige operações mentais. Para
facilitar a leitura desse tipo de medida, recomendamos os seguintes procedimentos:

1º passo - Verifique se o zero (0) do nônio coincide com um dos traços da escala
fixa. Se coincidir, faça a leitura somente na escala fixa.

2º passo - Quando o zero (0) do nônio não coincidir, verifique qual dos traços
do nônio está nessa situação e faça a leitura do nônio.

3º passo - Verifique na escala fixa quantas divisões existem antes do zero (0)
do nônio.

4º passo - Sabendo que cada divisão da escala fixa equivale a

e com base na leitura do nônio, escolhemos uma fração da escala fixa de mesmo
denominador. Por exemplo:

28
5º passo - Multiplique o número de divisões da escala fixa (3º passo) pelo numerador da fração
escolhida (4º passo). Some com a fração do nônio (2º passo) e faça a leitura final.

29
Colocação de medida no paquímetro em polegada fracionária
Para abrir um paquímetro em uma medida dada em polegada fracionária, devemos:
1º passo - Verificar se a fração tem denominador 128. Se não tiver, deve-se substituí-la pela
sua equivalente, com denominador 128.

30
Observação: o numerador é dividido por 8, pois 8 é o número de divisões do nônio.
2º passo - Dividir o numerador por 8 utilizando o exemplo acima:

3º passo - O quociente indica a medida na escala fixa; o resto mostra o número do traço do
nônio que coincide com um traço da escala fixa.

O paquímetro deverá indicar o 3º traço da escala fixa e apresentar o 1º traço do nônio


coincidindo com um traço da escala fixa.

31
Erros de leitura no paquímetro

Além da falta de habilidade do operador, outros fatores podem provocar erros de leitura no
paquímetro, como, por exemplo, a paralaxe e a pressão de medição.

Paralaxe

Dependendo do ângulo de visão do operador, pode ocorrer o erro por paralaxe, pois devido a
esse ângulo, aparentemente há coincidência entre um traço da escala fixa com outro da móvel.
O cursor onde é gravado o nônio, por razões técnicas de construção, normalmente tem uma
espessura mínima (a), e é posicionado sobre a escala principal. Assim, os traços do nônio (TN)
são mais elevados que os traços da escala fixa (TM).
Colocando o instrumento em posição não perpendicular à vista e estando sobrepostos os
traços TN e TM, cada um dos olhos projeta o traço TN em posição oposta, o que ocasiona um
erro de leitura.
Para não cometer o erro de paralaxe, é aconselhável que se faça a leitura situando o
paquímetro em uma posição perpendicular aos olhos.

32
Pressão de medição

Já o erro de pressão de medição origina-se no jogo do cursor, controlado por uma mola. Pode
ocorrer uma inclinação do cursor em relação à régua, o que altera a medida.

Para se deslocar com facilidade sobre a régua, o cursor deve estar bem regulado: nem muito
preso, nem muito solto. O operador deve, portanto, regular a mola, adaptando o instrumento à
sua mão. Caso exista uma folga anormal, os parafusos de regulagem da mola devem ser
ajustados, girando-os até encostar no fundo e, em seguida, retornando 1/8 de volta
aproximadamente.
Após esse ajuste, o movimento do cursor deve ser suave, porém sem folga.

Técnica de utilização do paquímetro

Para ser usado corretamente, o paquímetro precisa ter:


· seus encostos limpos;
· a peça a ser medida deve estar posicionada corretamente entre os encostos.
É importante abrir o paquímetro com uma distância maior que a dimensão do objeto a ser
medido.
O centro do encosto fixo deve ser encostado em uma das extremidades da peça.

33
Convém que o paquímetro seja fechado suavemente até que o encosto móvel toque a outra
extremidade.

Feita a leitura da medida, o paquímetro deve ser aberto e a peça retirada, sem que os encostos
a toquem.
As recomendações seguintes referem-se à utilização do paquímetro para determinar medidas:
· externas;
· internas;
· de profundidade;
· de ressaltos.
Nas medidas externas, a peça a ser medida deve ser colocada o mais profundamente possível
entre os bicos de medição para evitar qualquer desgaste na ponta dos bicos.

Para maior segurança nas medições, as superfícies de medição dos bicos e da peça devem
estar bem apoiadas.

34
Nas medidas internas, as orelhas precisam ser colocadas o mais profundamente possível. O
paquímetro deve estar sempre paralelo à peça que está sendo medida.

Para maior segurança nas medições de diâmetros internos, as superfícies de medição das
orelhas devem coincidir com a linha de centro do furo.

Toma-se, então, a máxima leitura para diâmetros internos e a mínima leitura para faces planas
internas.
No caso de medidas de profundidade, apóia-se o paquímetro corretamente sobre a peça,
evitando que ele fique inclinado.

35
Nas medidas de ressaltos, coloca-se a parte do paquímetro apropriada para ressaltos
perpendicularmente à superfície de referência da peça.
Não se deve usar a haste de profundidade para esse tipo de medição, porque ela não
permite um apoio firme.

Conservação

· Manejar o paquímetro sempre com todo cuidado, evitando choques.


· Não deixar o paquímetro em contato com outras ferramentas, o que pode lhe causar danos.
· Evitar arranhaduras ou entalhes, pois isso prejudica a graduação.
· Ao realizar a medição, não pressionar o cursor além do necessário.
· Limpar e guardar o paquímetro em local apropriado, após sua utilização.

Outros tipos de paquímetros

Paquímetro interno

Os paquímetros internos são usados para coletar medidas internas de objetos.

O paquímetro na parte superior da imagem requer ajuste manual antes do acoplamento.


Ajustes finos neste tipo de instrumento são conseguidos por batidas leves nas superfícies dos
braços até que este encaixe-se na dimensão á ser medida. Um pequeno aperto na rosca do
pivô central garante uma medição mais consistente e confiável.
O paquímetro abaixo possui uma rosca de ajuste que permite com que este seja ajustado
cuidadosamente sem que para isso o paquímetro tenha que ser removido da peça medida.

36
Paquímetro externo

Paquímetros externos são utilizados para medir-se o tamanho externo de um objeto.


As mesmas observações e técnicas empregadas para o paquímetro interno são utilizadas para
este tipo de paquímetro.
Com algum conhecimento de suas limitações e utilizações, estes instrumentos podem resultar
um alto grau de precisão e repetibilidade.
Estes paquímetros são utilizados especialmente para medição externa de peças grandes,
como por exemplo o diâmetro de um tubo.
Um paquímetro do tipo Verniê não consegue medir o diãmetro do tubo citado como exemplo
pois seus encostos não alcançariam as paredes externas do tubo.

Paquímetro para marcação (compasso)

O paquímetro de marcação ou compasso é utilizado para marcação de peças. As peças são


marcadas em um ponto, este ponto serve então de apoio para uma das pernas enquanto a
outra é utilizada para marcar a distância desejada.
Um paquímetro de marcação (compasso) pode ser utilizado também para medição de
distâncias em mapas. A abertura do compasso é então medida em uma régua á parte e então
convertida para o tamanho real da escala do mapa.

37
Micrometro

Origem e função do micrômetro Jean Louis Palmer apresentou, pela primeira vez, um
micrômetro para requerer sua patente. O instrumento permitia a leitura de centésimos de
milímetro, de maneira simples.
Com o decorrer do tempo, o micrômetro foi aperfeiçoado e possibilitou medições mais
rigorosas e exatas do que o paquímetro.
De modo geral, o instrumento é conhecido como micrômetro. Na França, entretanto, em
homenagem ao seu inventor, o micrômetro é denominado palmer.

Princípio de funcionamento

O princípio de funcionamento do micrômetro assemelha-se ao do sistema parafuso e porca.


Assim, há uma porca fixa e um parafuso móvel que, se der uma volta completa, provocará um
descolamento igual ao seu passo.

38
Desse modo, dividindo-se a .cabeça. do parafuso, pode-se avaliar frações menores que uma
volta e, com isso, medir comprimentos menores do que o passo do parafuso.

Nomenclatura

A figura seguinte mostra os componentes de um micrômetro.

Vamos ver os principais componentes de um micrômetro.


· O arco é constituído de aço especial ou fundido, tratado termicamente para eliminar as
tensões internas.
· O isolante térmico, fixado ao arco, evita sua dilatação porque isola a transmissão de calor das
mãos para o instrumento.
· O fuso micrométrico é construído de aço especial temperado e retificado para garantir
exatidão do passo da rosca.
· As faces de medição tocam a peça a ser medida e, para isso, apresentam-se rigorosamente
planos e paralelos. Em alguns instrumentos, os contatos são de metal duro, de alta resistência
ao desgaste.
· A porca de ajuste permite o ajuste da folga do fuso micrométrico, quando isso é necessário.
· O tambor é onde se localiza a escala centesimal. Ele gira ligado ao fuso micrométrico.
Portanto, a cada volta, seu deslocamento é igual ao passo do fuso micrométrico.
· A catraca ou fricção assegura uma pressão de medição constante.
· A trava permite imobilizar o fuso numa medida predeterminada .

Características

Os micrômetros caracterizam-se pela:


· capacidade;
· resolução;
· aplicação.
A capacidade de medição dos micrômetros normalmente é de 25 mm (ou 1"), variando o
tamanho do arco de 25 em 25 mm (ou 1 em 1"). Podem chegar a 2000 mm (ou 80").
A resolução nos micrômetros pode ser de 0,01 mm; 0,001 mm; .001" ou .0001".

39
No micrômetro de 0 a 25 mm ou de 0 a 1", quando as faces dos contatos estão juntas, a borda
do tambor coincide com o traço zero (0) da bainha. A linha longitudinal, gravada na bainha,
coincide com o zero (0) da escala do tambor.

Para diferentes aplicações, temos os seguintes tipos de micrômetro.

De profundidade

Conforme a profundidade a ser medida, utilizam-se hastes de extensão, que são fornecidas
juntamente com o micrômetro.

Com arco profundo

Serve para medições de espessuras de bordas ou de partes salientes das peças.

40
Com disco nas hastes

O disco aumenta a área de contato possibilitando a medição de papel, cartolina, couro,


borracha, pano etc. Também é empregado para medir dentes de engrenagens.

Para medição de roscas

Especialmente construído para medir roscas triangulares, este micrômetro possui as hastes
furadas para que se possa encaixar as pontas intercambiáveis, conforme o passo para o tipo
da rosca a medir.

Com contato em forma de V

É especialmente construído para medição de ferramentas de corte que possuem número ímpar
de cortes (fresas de topo, macho, alargadores etc.). Os ângulos em V dos micrômetros para
medição de ferramentas de 3 cortes é de 60º; 5 cortes, 108º e 7 cortes, 128º34.17".

41
Para medir parede de tubos

Este micrômetro é dotado de arco especial e possui o contato a 90º com a haste móvel, o que
permite a introdução do contato fixo no furo do tubo.

Contador mecânico

É para uso comum, porém sua leitura pode ser efetuada no tambor ou no contador mecânico.
Facilita a leitura independentemente da posição de observação (erro de paralaxe).

Digital eletrônico

Ideal para leitura rápida, livre de erros de paralaxe, próprio para uso em controle estatístico de
processos, juntamente com microprocessadores.

42
Micrômetro: sistema métrico
Micrômetro com resolução de 0,01 mm Vejamos como se faz o cálculo de leitura em um
micrômetro. A cada volta do tambor, o fuso micrométrico avança uma distância chamada
passo.
A resolução de uma medida tomada em um micrômetro corresponde ao menor deslocamento
do seu fuso. Para obter a medida, divide-se o passo pelo número de divisões do tambor.

Assim, girando o tambor, cada divisão provocará um deslocamento de 0,01 mm no fuso.

Leitura no micrômetro com resolução de 0,01 mm.


1º passo - leitura dos milímetros inteiros na escala da bainha.
2º passo - leitura dos meios milímetros, também na escala da bainha.
3º passo - leitura dos centésimos de milímetro na escala do tambor.

43
44
Micrômetro com resolução de 0,001 mm
Quando no micrômetro houver nônio, ele indica o valor a ser acrescentado à leitura obtida na
bainha e no tambor. A medida indicada pelo nônio é igual à leitura do tambor, dividida pelo
número de divisões do nônio.
Se o nônio tiver dez divisões marcadas na bainha, sua resolução será:

Leitura no micrômetro com resolução de 0,001 mm.


1º passo - leitura dos milímetros inteiros na escala da bainha.
2º passo - leitura dos meios milímetros na mesma escala.
3º passo - leitura dos centésimos na escala do tambor.
4º passo -leitura dos milésimos com o auxílio do nônio da bainha, verificando qual dos traços
do nônio coincide com o traço do tambor.

A leitura final será a soma dessas quatro leituras parciais.

45
Micrômetro: sistema inglês

Leitura no sistema inglês

No sistema inglês, o micrômetro apresenta as seguintes características:


· na bainha está gravado o comprimento de uma polegada, dividido em 40 partes iguais. Desse
modo, cada divisão equivale a 1" : 40 = .025";
· o tambor do micrômetro, com resolução de .001", possui 25 divisões.

46
Para medir com o micrômetro de resolução .001", lê-se primeiro a indicação da bainha. Depois,
soma-se essa medida ao ponto de leitura do tambor que coincide com o traço de referência da
bainha.

Micrômetro com resolução .0001"

Para a leitura no micrômetro de .0001", além das graduações normais que existem na bainha
(25 divisões), há um nônio com dez divisões. O tambor divide-se, então, em 250 partes iguais.

Para medir, basta adicionar as leituras da bainha, do tambor e do nônio.

47
Calibração (regulagem da bainha)

Antes de iniciar a medição de uma peça, devemos calibrar o instrumento de acordo com a sua
capacidade.
Para os micrômetros cuja capacidade é de 0 a 25 mm, ou de 0 a 1", precisamos tomar os
seguintes cuidados:
· limpe cuidadosamente as partes móveis eliminando poeiras e sujeiras, com pano macio e
limpo;
· antes do uso, limpe as faces de medição; use somente uma folha de papel macio;
· encoste suavemente as faces de medição usando apenas a catraca; em seguida, verifique a
coincidência das linhas de referência da bainha com o zero do tambor; se estas não
coincidirem, faça o ajuste movimentando a bainha com a chave de micrômetro, que
normalmente acompanha o instrumento

Para calibrar micrômetros de maior capacidade, ou seja, de 25 a 50 mm, de 50 a


75 mm etc. ou de 1" a 2", de 2" a 3" etc., deve-se ter o mesmo cuidado e utilizar os mesmos
procedimentos para os micrômetros citados anteriormente, porém com a utilização de barra-
padrão para calibração.

Conservação

· Limpar o micrômetro, secando-o com um pano limpo e macio (flanela).


· Untar o micrômetro com vaselina líquida, utilizando um pincel.
· Guardar o micrômetro em armário ou estojo apropriado, para não deixá-lo exposto à sujeira e
à umidade.
· Evitar contatos e quedas que possam riscar ou danificar o micrômetro e sua escala.

48
SISTEMAS DE MEDIÇÃO
O sistema de medição

É necessário o conhecimento das características metrológicas e operacionais de um sistema


de medição para sua correta utilização. Para tal, é necessária a definição de alguns parâmetros
para caracterizar de forma clara o seu comportamento. Antes de iniciar tal estudo é
conveniente classificar as partes que compõem um sistema de medição típico e caracterizar os
métodos de medição.

Sistema Generalizado de Medição

A análise sistêmica de diversos SM revela a existência de três elementos funcionais bem


definidos que se repetem com grande freqüência na maioria dos sistemas de medição em uso.
Em termos genéricos, um SM pode ser dividido em três módulos funcionais: o
sensor/transdutor, a unidade de tratamento do sinal e o dispositivo mostrador. Cada módulo
pode constituir uma unidade independente ou pode estar fisicamente integrada ao SM. A figura
3.1 mostra genericamente este SM.
O transdutor é o módulo do SM que está em contato com o mensurando. Gera um sinal
proporcional (mecânico, pneumático, elétrico ou outro) ao mensurando segundo uma função
bem definida, normalmente linear, baseada em um ou mais fenômenos físicos. Em termos
gerais, um transdutor transforma um efeito físico noutro. Quando o transdutor é composto de
vários módulos, várias transformações de efeitos podem estar presentes. O primeiro módulo do
transdutor, aquele que entra em contato diretamente com o mensurando, é também
denominado de sensor. A rigor, o sensor é uma parte do transdutor.
O sinal gerado pelo sensor/transdutor normalmente é um sinal de baixa energia, difícil de ser
diretamente indicado. A unidade de tratamento do sinal (UTS), além da amplificação da
potência do sinal, pode assumir funções de filtragem, compensação, integração,
processamento, etc. É às vezes chamada de condicionador de sinais. Este módulo pode não
estar presente em alguns SM mais simples.
O dispositivo mostrador recebe o sinal tratado (amplificado, filtrado, etc) e através de recursos
mecânicos, eletro-mecânicos, eletrônicos ou outro qualquer, transforma-o em um número
inteligível ao usuário, isto é, produz uma indicação direta perceptível. Este módulo subentende
também dispositivos registradores, responsáveis pela descrição analógica ou digital do sinal ao
longo do tempo ou em função de outra grandeza independente. São exemplos: registradores
X-Y, X-T, gravadores de fita, telas de osciloscópios, etc.
A figura 3.2 exemplifica alguns SM's, onde são identificados estes elementos funcionais. A
mola é o transdutor do dinamômetro da figura 3.2a: transforma a força em deslocamento da
sua extremidade, que é diretamente indicado através de um ponteiro sobre a escala. Neste
caso não há a unidade de tratamento de sinais. Já o exemplo da figura 3.2b incorpora uma
unidade deste tipo, composta pelo mecanismo de alavancas: o pequeno deslocamento da
extremidade da mola é mecanicamente amplificado por meio da alavanca que, contra a escala,
torna cômoda a indicação do valor da força.

49
50
Na figura 3.2c, representa-se um outro dinamômetro: o transdutor é composto de vários
módulos: a força é transformada em deslocamento por meio da mola, em cuja extremidade
está fixado um núcleo de material ferroso que, ao se mover, provoca variação da indutância de
uma bobina, que provoca um desbalanceamento elétrico em um circuito, provocando uma
variação de tensão elétrica proporcional. Este sinal é amplificado pela UTS, composta de
circuitos elétricos, e indicado através de um dispositivo mostrador digital.
Mesmo o termômetro da figura 3.3 possui os três elementos funcionais. A temperatura a medir
é absorvida pelo fluído no interior do bulbo, que é o transdutor deste sistema, e sofre variação
volumétrica. Esta variação é praticamente imperceptível a olho nu. O tubo capilar do
termômetro tem por finalidade amplificar este sinal, transformando a variação volumétrica deste
fluído em grande variação da coluna do fluído, o que caracteriza a UTS deste sistema. O
mostrador é formado pela coluna do líquido contra a escala.

Métodos Básicos de Medição

Para descrever o valor momentâneo de uma grandeza como um múltiplo e uma fração decimal
de uma unidade padrão, um SM pode operar segundo um dos dois princípios básicos de
medição: o método da indicação (ou deflexão), o método da zeragem (ou compensação) ou o
método diferencial.

Método da indicação ou deflexão

Em um SM que opera segundo o método da indicação, a indicação direta é obtida no


dispositivo mostrador, seja este um mostrador de ponteiro, indicador digital ou registrador
gráfico, à medida em que o mensurando é aplicado sobre este SM. São inúmeros os exemplos
de SM que operam por este princípio: termômetros de bulbo ou digitais, manômetros e ou
balanças com indicação analógica ou digital, balança de mola, etc. (fig. 3.4)

O método da zeragem, compensação ou comparação

No método da zeragem, procura-se gerar uma grandeza padrão com valor conhecido,
equivalente e oposto ao mensurando, de forma que as duas, atuando sobre um dispositivo
comparador, indiquem diferença zero. A balança de prato é um exemplo clássico de SM que
opera por este princípio: procura-se formar em um dos pratos uma combinação de massas
padrão que tendem a contrabalançar a massa desconhecida colocada no outro prato. Ambas
massas são equivalentes quando a balança atingir o equilíbrio (fig. 3.5).

O método diferencial

O método de medição diferencial resulta da combinação dos dois métodos anteriores. O


mensurando é comparado a uma grandeza padrão e sua diferença medida por um instrumento
que opera segundo o método da indicação.
Normalmente o valor da grandeza padrão é muito próximo do mensurando de forma que a
faixa de medição do instrumento que opera por indicação pode ser muito pequena. Como
conseqüência, seu erro máximo pode vir a ser muito reduzido sem que seu custo se eleve.
A incerteza da grandeza padrão geralmente é muito baixa o que resulta em um sistema de
medição com excelente estabilidade e desempenho metrológico, sendo de grande utilização na
indústria.
A medição do diâmetro por meio do relógio comparador da figura 2.3 é um exemplo de
medição diferencial.

51
52
Análise comparativa

Comparativamente, cada método possui vantagens e desvantagens. Na balança de mola, por


exemplo, a incerteza do SM depende da calibração da mola, ao passo em que, na balança de
prato, depende da incerteza das massas padrão. Como a confiabilidade e estabilidade das
massas padrão é geralmente melhor que a da mola, pode-se afirmar que normalmente a
incerteza do método de zeragem é superior ao da indicação.
A principal desvantagem do método de zeragem é a velocidade de medição que é
sensivelmente inferior, uma vez que deve-se modificar a grandeza padrão até que o zero seja
atingido, o que torna o SM que usa este método inadequado para aplicações dinâmicas.
A medição diferencial apresenta características que a coloca em uma posição muito atrativa,
sendo de fato muito adotada na indústria.

Parâmetros Característicos de Sistemas de Medição

Alguns parâmetros metrológicos são aqui definidos para melhor caracterizar o comportamento
metrológico de sistemas de medição. Estes parâmetros podem ser expressos na forma de um
simples número (que define o valor máximo assumido pelo SM em toda a sua faixa de
medição), uma faixa de valores, uma tabela ou na forma de um gráfico. A apresentação do
parâmetro na forma de um simples número, também chamado de parâmetro reduzido, traz

53
menos informações sobre o comportamento do SM, porém é uma forma simplificada de
representar o parâmetro e é facilmente aplicável em uma comparação.

Faixa de Indicação (FI)


A faixa de indicação (FI) é o intervalo entre o menor e maior valor que o dispositivo mostrador
do SM teria condições de apresentar como indicação direta (ou indicação). Nos medidores de
indicação analógica a FI corresponde ao intervalo limitado pelos valores extremos da escala. É
comum especificar a capacidade dos indicadores digitais como sendo, por exemplo, de 3 ½
dígitos quando o valor máximo é ± 1999 ou 4 dígitos quando valor máximo é ± 9999. Exemplos
de faixas de indicação:

- Manômetro : 0 a 20 bar
- Termômetro : 700 a 1200 °C
- Contador : 5 dígitos (isto é, 99999 pulsos)
- Voltímetro : ± 1,999 V (isto é, ± 3 ½ dígitos)

Quando o mesmo sistema de medição permite que várias faixas de medição sejam
selecionadas através da ação de controles do SM, isto é, em seu mostrador estão presentes
várias escalas, sendo que apenas uma é selecionada ativa a cada momento, cada uma destas
faixas é denominada de faixa nominal.

Faixa de Medição (FM)


É o conjunto de valores de um mensurando para o qual admite-se que o erro de um
instrumento de medição mantém-se dentro de limites especificados. Exemplos:

- Termômetro: FM = - 50 a 280 °C
- Medidor de deslocamento: FM = ± 50 mm (ou FM = - 50 a + 50 mm)

A faixa de medição é menor ou, no máximo, igual a faixa de indicação. O valor da FM é obtido
através:
- do manual de utilização do SM
- de sinais gravados sobre a escala
- das especificações de normas técnicas
- dos relatórios de calibração.

Valor de uma Divisão (de Escala) (VD)


Nos instrumentos com mostradores analógicos corresponde à diferença entre os valores da
escala correspondentes à duas marcas sucessivas. O valor de uma divisão é expresso na
unidade marcada sobre a escala, qualquer que seja a unidade do mensurando. Exemplos:

- manômetro: VD = 0,2 bar


- termômetro: VD = 5 K

Incremento Digital (ID)


Nos instrumentos com mostradores digitais, corresponde à menor variação da indicação direta
possível de ser apresentada. Deve-se atentar o fato que nos mostradores digitais a variação do
último dígito não é sempre unitária. Com freqüência a variação é de 5 em 5 unidades e
algumas vezes de 2 em 2 unidades.

Resolução (R)
Resolução é a menor diferença entre indicações que pode ser significativamente percebida. A
avaliação da resolução é feita em função do tipo de instrumento:

a) Nos sistemas com mostradores digitais, a resolução corresponde ao incremento digital;

b) Nos sistemas com mostradores analógicos, a resolução teórica é zero. No entanto, em


função das limitações do operador, da qualidade do dispositivo indicador e da própria
necessidade de leituras mais ou menos criteriosas, a resolução a adotar poderá ser:
R = VD quando o mensurando apresenta flutuações superiores ao próprio VD, ou no
caso de tratar-se de uma escala grosseira, de má qualidade;

54
R = VD/2 quando tratar-se de SM de qualidade regular ou inferior e/ou o mensurando
apresentar flutuações significativas e/ou quando o erro de indicação direta não for
crítico;
R = VD/5 quando tratar-se de SM de boa qualidade (traços e ponteiros finos, etc.) e a
medição em questão tiver de ser feita criteriosamente;
R = VD/10 quando o SM for de qualidade, o mensurando estável a medição for altamente
crítica quanto a erros de indicação direta e a incerteza do SM foi inferior ao VD;

Erro Sistemático (Es)


É a parcela do erro que se repete quando uma série de medições é efetuada nas mesmas
condições. Numericamente corresponde à média de um número infinito de medições do
mesmo mensurando, efetuadas sobre condições de repetitividade, menos o valor verdadeiro do
mensurando. Em termos práticos, adota-se a tendência como estimativa do erro sistemático.

Repetitividade (Re) de um SM
Especifica a faixa de valores dentro da qual, com uma probabilidade estatística definida, se
situará o valor do erro aleatório da indicação de um SM, para as condições em que a medição
é efetuada.
Normalmente especifica-se a Re com confiabilidade de 95%. A utilização de outros níveis de
confiabilidade 99% (± 3s), depende da aplicação e obedece tradições, determinações de norma
ou desejo do usuário.

Característica de Resposta Nominal (CRn)


Todo sistema de medição tem o seu comportamento ideal (nominal) regido por um princípio
físico bem definido. A equação que exprime o relacionamento ideal entre o estímulo (grandeza
de entrada no SM) e a sua resposta (saída) é denominada de Característica de Resposta
Nominal (CRn), como mostra a figura 3.6. Esta relação, na maioria dos casos, é linear,
constituída de uma constante multiplicativa e/ou aditiva. Embora mais raras, funções
polinomiais e exponenciais podem também ser adotadas como CRn.
A relação entre o deslocamento (x) da extremidade da mola do dinamômetro da figura 2.7.a e a
força aplicada nesta extremidade (F) é definida pela constante de mola (K) por: F = K x. A
equação da CRn deste SM é então dada por: CRn(x) = F/K.

Característica de Resposta Real (CRr)


Na prática, o ideal não acontece. A resposta de um SM ao estímulo (mensurando) não segue
exatamente o comportamento previsto pela CRn em decorrência de imperfeições que se
manifestam de forma sistemática e/ou aleatória. Define-se então a Característica de Resposta
Real (CRr) como a relação que realmente ocorre entre o estímulo e a resposta do SM, seja em
termos da indicação direta ou indicação.
A característica de resposta real difere da nominal, em função do SM apresentar erros
sistemáticos e erros aleatórios, sendo portanto melhor caracterizada por uma linha média
(indicação média) e uma faixa de dispersão associada, geralmente estimada pela
repetitividade.
Normalmente não é fácil prever o como e o quanto a CRr se afastará da CRn. A forma
construtiva, as características individuais de cada elemento, o grau de desgaste, as
propriedades dos materiais, influenciam esta diferença.

Curva de Erro (CE)


O comportamento ideal (nominal) de um SM de boa qualidade não difere muito do
comportamento real. Na prática, a representação da CRr em um gráfico que relacione o
estímulo e a resposta será visualizado como se fosse praticamente uma reta, já que as
diferenças entre a CRn e a CRr são muito pequenas.
Para tornar claramente perceptível o como e o quanto o comportamento real de um SM se
afasta do ideal, emprega-se o gráfico conhecido como curva de erros (CE), como mostrado na
figura 3.6.
A indicação apresentada pelo SM é comparada com um valor padrão ao qual o SM é
repetidamente submetido. São estimadas a tendência (erros sistemáticos) e a repetitividade do
SM para aquele ponto. O processo é repetido para certo número de pontos dentro da faixa de
medição, sendo usados diferentes valores padrão. Como resultado, obtém-se a curva de erros

55
que descreve a forma como os erros sistemáticos (tendência) representada pela linha central e
os erros aleatórios (faixa de ± Re em torno da Td) se distribuem ao longo da faixa de medição.
Na curva de erros, os erros são apresentados em função da indicação, ou, às vezes, da
indicação direta. Este gráfico é bastante explícito sobre o comportamento do SM em toda a
faixa de medição (fig. 3.6).

Correção (C)
A correção corresponde à tendência com sinal trocado. Este termo é às vezes empregado em
substituição à Td quando é efetuada a sua compensação. Seu uso é predominante nos
certificados de calibração em lugar da tendência. A correção deve ser somada ao valor das
indicações para "corrigir" os erros sistemáticos.

Erro Máximo (Emax)


O Erro Máximo (Emáx) expressa a faixa onde espera-se esteja contido o erro máximo (em
termos absolutos) do SM, considerando toda a sua faixa de medição e as condições
operacionais fixadas pelo seu fabricante. O termo precisão, embora não recomendado, tem
sido usado como sinônimo de incerteza do sistema de medição.
O erro máximo define uma faixa simétrica em relação ao zero que inscreve totalmente a curva
de erros de um SM. O erro máximo de um SM é o parâmetro reduzido que melhor descreve a
qualidade do instrumento.

Sensibilidade (Sb)
É o quociente entre a variação da resposta (sinal de saída) do SM e a correspondente variação
do estímulo (mensurando). Para sistemas lineares a sensibilidade é constante e para os não
lineares é variável, dependendo do valor do estímulo e determinada pelo coeficiente angular da
tangente à CRr (fig. 3.7). Nos instrumentos com indicador de ponteiro às vezes se estabelece a
sensibilidade como sendo a relação entre o deslocamento da extremidade do ponteiro (em
mm) e o valor unitário do mensurando.

56
Estabilidade da Sensibilidade (ESb)
Em função da variação das condições ambientais e de outros fatores no decorrer do tempo,
podem ocorrer alterações na sensibilidade de um SM. O parâmetro que descreve esta variação
é a chamada estabilidade da sensibilidade (ESb). Exemplo: um dinamômetro poderá
apresentar variação de sensibilidade em função da temperatura (variação do módulo de
elasticidade), podendo-se expressar esta característica como:

ESb = ± 0,5 (div/N)/K

ou seja, a sensibilidade pode variar de até ± 0,5 div/N por cada kelvin de variação na
temperatura.

Estabilidade do Zero (Ez)


Podem ocorrer, em função dos mesmos fatores mencionados no item anterior, instabilidades
no comportamento de um SM que se manifestam como alteração do valor inicial da escala
(zero). O parâmetro estabilidade do zero (Ez) é empregado para descrever os limites máximos
para esta instabilidade em função de uma grandeza de influência (tempo, temperatura, etc).
Correspondem a deslocamentos paralelos da CRr. Exemplo: Um milivoltímetro pode apresentar
tensões superpostas ao sinal de medição em função da temperatura (tensões termelétricas).
Isto pode ser caracterizado por:

Ez = ± 0,08 mV/K

ou seja, pode ocorrer um deslocamento paralelo da CRr (erro de zero) de até ± 0.08 mV por
cada kelvin de variação da temperatura.

Histerese (H)
Histerese de um SM é um erro de medição que ocorre quando há diferença entre a indicação
para um dado valor do mensurando quando este foi atingido por valores crescentes e a
indicação quando o mensurando é atingido por valores decrescentes (fig. 3.8). Este valor
poderá ser diferente se o ciclo de carregamento e descarregamento for completo ou parcial. A

57
histerese é um fenômeno bastante típico nos instrumentos mecânicos, tendo como fonte de
erro, principalmente, folgas e deformações associadas ao atrito.

Erro de Linearidade (EL)


A grande maioria dos SM apresenta um CRn linear, isto é, seu gráfico é uma reta. Entretanto, o
CRr pode afastar-se deste comportamento ideal. O erro de linearidade é um parâmetro que
exprime o quanto o CRr afasta-se de uma reta.
Não existe um procedimento único para a determinação do erro de linearidade. Embora estes
erros sejam sempre expressos em relação a uma reta de referência, os critérios para a eleição
desta reta de referência, não é único. Na figura 3.9 são apresentadas três formas de
determinação do erro de linearidade:
· terminal (ELt): a reta de referência é estabelecida pela reta que une o ponto inicial e o final da
linha média da característica de resposta real;
· independente (ELi): à curva de erros sistemáticos são ajustadas duas retas paralelas, de
forma que a faixa definida pelas retas contenha todos os pontos da curva e que a distância
entre as mesmas seja mínima. O erro de linearidade corresponde à metade do valor
correspondente à distância entre estas retas.

58
· método dos mínimos quadrados (ELq): a posição da reta de referência é calculada pelo
método dos mínimos quadrados. O maior afastamento da curva de erros sistemáticos à reta de
regressão estabelece o erro de linearidade. Os coeficientes da reta de regressão y = ax + b
são calculados pelas equações abaixo:

onde n é o número de pontos coordenados (xi, yi), sendo que em cada somatório i varia de 1 a
n O erro de linearidade usando o método dos mínimos quadrados tem sido muito empregado
em função de sua determinação poder ser efetuada de forma automática por algoritmos de
programação relativamente simples.

59
MEDIÇÃO E ERROS DE MEDIÇÃO
Medição de um comprimento

Na determinação de um comprimento ou de um ângulo de uma peça, procede-se da mesma


forma como na determinação de qualquer outra grandeza física, para se alcançar a resultado
da medição.
Caso o problema a ser resolvido seja saber se a peça se enquadra nos limites de tolerância
especificados no projeto, o encaminhamento do problema é distinto. Trata-se da execução de
um controle dimensional.

Controle de uma dimensão

Após a fabricação das peças inicia-se o trabalho do metrologista, ou seja, realizar a verificação
se as peças produzidas tem dimensões dentro das especificações do projeto. Nesta verificação
a peça será classificada como boa ou refugo.
A partir do valor da tolerância de fabricação (IT ou t), especifica-se qual o máximo erro
admissível que pode ocorrer na medição da grandeza em questão.
A relação entre a incerteza de medição do processo de medição, no controle do diâmetro de
determinado eixo, e a faixa de tolerância do mesmo é mostrada na figura 1.19
Para efeito de aprovação ou rejeição da peça toma-se simplesmente a indicação dada pelo
sistema de medição utilizado no processo de medição. Pelo fato da incerteza de medição ser
um décimo do intervalo de tolerância IT, considera-se o processo de medição como perfeito.
No entanto nem sempre dispomos de um processo de medição cuja incerteza de medição é
inferior a um décimo do intervalo de tolerância.

Conforme demonstra a figura 1.19 é possível acontecer 4 casos diferentes de resultado da


medição (resultado corrigido e incerteza associada) em relação aos limites de tolerância.
No primeiro caso (quadrado na figura 1.19), sentido da esquerda para direita, é possível
afirmarmos que o produto deve ser refugado pois o resultado de medição apresenta-se
integralmente fora dos limites de tolerância.
Já no segundo caso (círculo), o resultado corrigido do processo de medição está dentro do
limite especificado para a tolerância do produto. No entanto, devido a incerteza de medição,
está numa região de dúvida deste limite. Neste caso não é possível afirmar com segurança que

60
o produto está dentro de tolerância para a dimensão medida. É possível afirmar somente que
existe grande probabilidade do mesmo apresentar-se dentro dos limites de tolerância.
No terceiro caso (cruz) da figura 1.19, o resultado corrigido e a incerteza associada estão
dentro do limite de tolerância. Nesta situação podemos afirmar com segurança que o produto
atende as especificações com relação a tolerância de fabricação.
No quarto caso (triângulo), o resultado corrigido do processo de medição está acima do limite
superior de tolerância do produto. Neste caso não é possível afirmar com segurança que o
produto está fora de tolerância para a dimensão medida, isto é, que o mesmo deveria ser
refugado. Isto porque a incerteza do sistema de medição está abrangendo o valor da medida,
caracterizando uma região de dúvida acerca dos resultados dentro dessa faixa de valores. É
possível afirmar somente que existe grande probabilidade do mesmo apresentar-se fora dos
limites de tolerância.

Erro de leitura

É causado pelo mau posicionamento do operador em relação ao aparelho ou instrumento no


ato da leitura.
A leitura deve ser feita perpendicularmente á escala do aparelho.
Este erro é característicos de aparelhos ou instrumentos de medição analógicos.

Erro de medição

Estão classificados em erros de influências objetivas e subjetivas. Os erros de influências


objetivas são os erros de medição motivados pelo instrumento. Os erros de influência subjetiva
são erros de medição cometidos pelo operador.
Veremos mais á frente, no estudo do M.S.A., que o sistema de medição (todas as
componentes que afetam a medição), é influenciado pelos seguintes fatores: Máquina
(instrumento de medição), Método (modo como é realizada a medição), Meio-ambiente (local
onde a medição é realizada), Mão-de-obra (inspetor) e Material (componente a ser medido).

Erro de Medição Existe

Uma medição perfeita, isto é, sem erros, só pode existir se um SM (sistema de medição)
perfeito existir e a grandeza sob medição (denominada mensurando) tiver um valor único,
perfeitamente definido e estável. Apenas neste caso ideal o resultado de uma medição (RM)
pode ser expresso por um número e uma unidade de medição apenas.
Sabe-se que não existem SM perfeitos. Aspectos tecnológicos forçam que qualquer SM
construído resulte imperfeito: suas dimensões, forma geométrica, material, propriedades
elétricas, ópticas, pneumáticas, etc, não correspondem exatamente à ideal. As leis e princípios
físicos que regem o funcionamento de alguns SM nem sempre são perfeitamente lineares
como uma análise simplista poderia supor. A existência de desgaste e deterioração de partes
agravam ainda mais esta condição. Nestes casos, o SM gera erros de medição.
Perturbações externas, como, por exemplo, as condições ambientais, podem provocar erros,
alterando diretamente o SM ou agindo sobre o mensurando, fazendo com que o
comportamento do SM se afaste ainda mais do ideal. Variações de temperatura provocam
dilatações nas escalas de um SM de comprimento, variações nas propriedades de
componentes e circuitos elétricos, que alteram o valor indicado por um SM. Vibrações
ambientais, a existência de campos eletromagnéticos, umidade do ar excessiva, diferentes
pressões atmosféricas podem, em maior ou menor grau, afetar o SM, introduzindo erros nas
indicações deste.
O operador e a técnica de operação empregada podem também afetar a medição. O uso de
força de medição irregular ou excessiva, vícios de má utilização ou SM inadequados, podem
levar a erros imprevisíveis. A forma, tamanho ou faixa de medição do SM pode não ser a mais
indicada para aquela aplicação.
Em parte dos casos, o mensurando não possui valor único ou estável. Apenas um cilindro ideal
apresenta um valor único para o seu diâmetro. Não se consegue fabricar um cilindro real com a
forma geométrica matematicamente perfeita. Características da máquina operatriz empregada,
dos esforços de corte, do material ou ferramenta empregada afastam a forma geométrica
obtida da ideal. Mesmo que disponha de um SM perfeito, verifica-se que diferentes medições
do diâmetro em diferentes ângulos de uma mesma secção transversal ou ao longo de

61
diferentes seções ao longo do eixo do cilindro levam a diferentes números. Estas variações são
de interesse quando se deseja caracterizar as propriedades do cilindro e devem ser informadas
no resultado da medição.
A temperatura de uma sala é outro exemplo de um mensurando instável: varia ao longo do
tempo e com a posição onde é medida. A massa de uma peça metálica é um exemplo de um
mensurando estável, se forem desprezados aspectos relativísticos.
Na prática estes diferentes elementos que afetam a resposta de um SM aparecem
superpostos.
Ao se utilizar de um sistema de medição para determinar o resultado de uma medição é
necessário conhecer e considerar a faixa provável dentro da qual se situam estes efeitos
indesejáveis - sua incerteza - bem como levar em conta as variações do próprio mensurando.
Portanto, o resultado de uma medição não deve ser composto de apenas um número e uma
unidade, mas de uma faixa de valores e a unidade. Em qualquer ponto dentro desta faixa deve
situar-se o valor verdadeiro associado ao mensurando.

O erro de medição

A Convivência com o Erro


O erro de medição é caracterizado como a diferença entre o valor da indicação do SM e o valor
verdadeiro o mensurando, isto é:

onde E = erro de medição


I = indicação
VV = valor verdadeiro

Na prática, o valor "verdadeiro" é desconhecido. Usa-se então o chamado valor verdadeiro


convencional (VVC), isto é, o valor conhecido com erros não superiores a um décimo do erro
de medição esperado. Neste caso, o erro de medição é calculado por:

onde VVC = valor verdadeiro convencional

Para eliminar totalmente o erro de medição é necessário empregar um SM perfeito sobre o


mensurando, sendo este perfeitamente definido e estável. Na prática não se consegue um SM
perfeito e o mensurando pode apresentar variações. Portanto, é impossível eliminar
completamente o erro de medição. Mas é possível, ao menos, delimitá-lo.
Mesmo sabendo-se da existência do erro de medição, é ainda possível obter informações
confiáveis da medição, desde que a ordem de grandeza e a natureza deste erro sejam
conhecidas.

Tipos de Erros

Para fins de melhor entendimento, o erro de medição pode ser considerado como composto de
três parcelas aditivas:

sendo
E = erro de medição
Es = erro sistemático
Ea = erro aleatório
Eg = erro grosseiro

62
O erro sistemático

O erro sistemático (Es): é a parcela de erro sempre presente nas medições realizadas em
idênticas condições de operação. Um dispositivo mostrador com seu ponteiro "torto" é um
exemplo clássico de erro sistemático, que sempre se repetirá enquanto o ponteiro estiver torto.
Pode tanto ser causado por um problema de ajuste ou desgaste do sistema de medição,
quanto por fatores construtivos. Pode estar associado ao próprio princípio de medição
empregado ou ainda ser influenciado por grandezas ou fatores externos, como as condições
ambientais.
A estimativa do erro sistemático da indicação de um instrumento de medição é também
denominado Tendência (Td).
O erro sistemático, embora se repita, se a medição for realizada em idênticas condições,
geralmente não é constante ao longo de toda a faixa em que o SM pode medir. Para cada valor
distinto do mensurando é possível ter um valor diferente para o erro sistemático. A forma como
este varia ao longo da faixa de medição depende de cada SM, sendo de difícil previsão.

O erro aleatório

Quando uma medição é repetida diversas vezes, nas mesmas condições, observam-se
variações nos valores obtidos. Em relação ao valor médio, nota-se que estas variações
ocorrem de forma imprevisível, tanto para valores acima do valor médio, quanto para abaixo.
Este efeito é provocado pelo erro aleatório (Ea).
Diversos fatores contribuem para o surgimento do erro aleatório. A existência de folgas, atrito,
vibrações, flutuações de tensão elétrica, instabilidades internas, das condições ambientais ou
outras grandezas de influência, contribui para o aparecimento deste tipo de erro.
A intensidade do erro aleatório de um mesmo SM pode variar ao longo da sua faixa de
medição, com o tempo, com as variações das grandezas de influência, dentre outros fatores. A
forma como o erro aleatório se manifesta ao longo da faixa de medição depende de cada SM,
sendo de difícil previsão.

O erro grosseiro

O erro grosseiro (Eg) é, geralmente, decorrente de mau uso ou mau funcionamento do SM.
Pode, por exemplo, ocorrer em função de leitura errônea, operação indevida ou dano do SM.
Seu valor é totalmente imprevisível, porém geralmente sua existência é facilmente detectável.
Sua aparição pode ser resumida a casos muito exporádicos, desde que o trabalho de medição
seja feito com consciência. Seu valor será considerado nulo neste texto.

Exemplo
A figura abaixo exemplifica uma situação onde é possível caracterizar erros sistemáticos e
aleatórios.

63
A pontaria de quatro atiradores de guerra está sendo colocada à prova. O objetivo é acertar os
projéteis no centro do alvo colocado a uma mesma distância. Cada atirador tem direito a 15
tiros.
Os resultados da prova de tiro dos atiradores A, B, C, e D estão mostrados nesta mesma
figura.
As marcas dos tiros do atirador "A" se espalharam por uma área relativamente grande em torno
do centro do alvo. Estas marcas podem ser inscritas dentro do círculo tracejado desenhado na
figura.
Embora este círculo apresente um raio relativamente grande, seu centro coincide
aproximadamente com o centro do alvo. O raio do círculo tracejado está associado ao
espalhamento dos tiros que decorre diretamente do erro aleatório. A posição média das marcas
dos tiros, que coincide aproximadamente com a posição do centro do círculo tracejado, reflete
a influência do erro sistemático. Pode-se então afirmar que o atirador "A" apresenta elevado
nível de erros aleatórios enquanto o erro sistemático é baixo.
No caso do atirador "B", além do raio do círculo tracejado ser grande, seu centro está distante
do centro do alvo. Neste caso, tanto os erros aleatórios quanto sistemáticos são grandes. Na
condição do atirador "C", a dispersão é muito menor, mas a posição do centro do círculo
tracejado está ainda distante do centro do alvo, o que indica reduzidos erros aleatórios e
grande erro sistemático. Já a situação do atirador "D" reflete reduzidos níveis de erros
aleatórios e também do erro sistemático.
Obviamente que, do ponto de vista de balística, o melhor dos guerreiros é o atirador "D", por
acertar quase sempre muito próximo do centro do alvo com boa repetitividade. Ao se comparar
os resultados do atirador "C" com o "A", pode-se afirmar que o atirador "C" é melhor.
Embora nenhum dos tiros disparados pelo atirador "C" tenha se aproximado suficientemente do
centro do alvo, o seu espalhamento é muito menor. Um pequeno ajuste na mira do atirador "C"
o trará para uma condição de operação muito próxima do atirador "D", o que jamais pode ser
obtido com o atirador "A".
Tanto no exemplo da figura quanto em problemas de medição, o erro sistemático não é um
fator tão crítico quanto o erro aleatório. Através de um procedimento adequado é possível
estima-lo relativamente bem e efetuar a sua compensação, o que equivale ao ajuste da mira do
fuzil "C" da figura. Já o erro aleatório não pode ser compensado embora sua influência sobre o
valor médio obtido por meio de várias repetições se reduza na proporção de 1/ n , onde "n" é o
número de repetições considerado na média. A seguir são apresentados procedimentos para a
estimativa quantitativa dos erros de medição.

Estimação dos Erros de Medição

Se o erro de medição fosse perfeitamente conhecido, este poderia ser corrigido e sua
influência completamente anulada da medição. A componente sistemática do erro de medição
pode ser suficientemente bem estimada, porém não a componente aleatória. Assim, não é
possível compensar totalmente o erro.
O conhecimento aproximado do erro sistemático e a caracterização da parcela aleatória é
sempre desejável, pois isto torna possível sua correção parcial e a delimitação da faixa de
incerteza ainda presente no resultado de uma medição. A forma de estimação destes erros é
apresentada a seguir:

Erro sistemático/Tendência/Correção

O erro determinado pela equação E = I - VVC contém intrinsecamente as parcelas sistemática


e aleatória. Nota-se que, quando a medição é repetida várias vezes, o erro aleatório assume
tanto valores positivos quanto negativos. De fato, geralmente, o erro aleatório pode ser
modelado como tendo distribuição aproximadamente normal com média zero. Na prática, sua
média tende a zero à medida que aumenta-se o número de dados observados, uma vez que
este tende a distribuir-se simetricamente em valores positivos e negativos.
Desconsiderando o erro grosseiro, e assumindo que um número suficientemente grande de
medições foi efetuado, a influência do erro aleatório no valor médio das medições tende a ser
desprezível. Sendo assim, o valor médio de um número grande de medidas efetuadas
repetidamente estará predominantemente afetado pelo erro sistemático. Logo, para um dado
valor do mensurando, o Es poderia ser determinado pela equação abaixo se fosse
considerando um número infinito de medições:

64
Na prática não se dispõe de infinitas medições para determinar o erro sistemático de um SM,
porém sim um número restrito de medições, geralmente obtidas na calibração do instrumento.
Ainda assim, a equação acima pode ser usada para obter uma estimativa do erro sistemático.
Define-se então o parâmetro Tendência (Td), como sendo a estimativa do erro sistemático,
obtida a partir de um número finito de medições, ou seja:

Td = MF – VVC

No limite, quando o número de medidas tende a infinito, a tendência aproxima-se do valor do


erro sistemático.
Alternativamente o parâmetro correção (C) pode ser usado para exprimir uma estimativa do
erro sistemático. A correção é numericamente igual à tendência, porém seu sinal é invertido,
isto é:

C = - Td

O termo “correção” lembra a sua utilização típica, quando, normalmente, é adicionado à


indicação para “corrigir” os efeitos do erro sistemático. A correção é mais freqüentemente
utilizado em certificados de calibração.
Nota: A estimativa do erro sistemático através da tendência (ou da correção) envolve uma faixa
de incertezas que é função do número de medições repetidas e das incertezas do padrão
utilizado como VVC

Erro aleatório

O erro aleatório distribui-se em torno do valor médio das indicações. É possível isolar seu valor
individual para uma determinada medição através da seguinte equação:

Eai = Ii - MI

onde
Eai = erro aleatório da i-ésima indicação
Ii = valor da i-ésima indicação individual
MI = média de infinitas indicações

Esta expressão pode ser obtida por substituição da equação Es = MI - VVC na equação E = Es
+ Ea + Eg se o erro grosseiro for desconsiderado. Este erro varia a cada medição de forma
totalmente imprevisível. O valor instantâneo do erro aleatório tem pouco ou nenhum sentido
prático, uma vez que é sempre variável e imprevisível.
A caracterização do erro aleatório é efetuada através de procedimentos estatísticos. Sobre um
conjunto finito de valores de indicações obtidas nas mesmas condições e do mesmo
mensurando, determina-se o desvio padrão experimental, que, de certa forma, está associado
à dispersão provocada pelo erro aleatório.

É comum exprimir de forma quantitativa o erro aleatório através da repetitividade (Re). A


repetitividade de um instrumento de medição expressa uma faixa simétrica de valores dentro
da qual, com uma probabilidade estatisticamente definida, se situa o erro aleatório da
indicação. Para estimar este parâmetro, é necessário multiplicar o desvio padrão experimental
pelo correspondente coeficiente “t” de Student, levando em conta a probabilidade de
enquadramento desejada e o número de dados envolvidos.

65
Re = ± t . s

onde:

Re = faixa de dispersão dentro da qual se situa o erro aleatório (normalmente para


probabilidade de 95%)
t = é o coeficiente “t” de Student
s = desvio padrão experimental da amostra de n medidas

Exemplo de determinação da Tendência e Repetitividade

A figura abaixo apresenta um exemplo onde são estimados os erros de uma balança eletrônica
digital.

Para tal, uma massa padrão de 1.00000 ± 0.00001 kg é medida várias vezes por esta
balança. Sabe-se de antemão que o valor do erro da massa padrão é desprezável em relação
aos erros tipicamente esperados para esta balança. Neste caso, o valor desta massa pode ser
assumido como o valor verdadeiro convencional (VVC) do mensurando. Note que a
determinação dos erros de um SM só é possível quando se mede um mensurando já
previamente conhecido, isto é, apenas quando o VVC é conhecido.
A primeira indicação obtida é 1014 g, que difere do valor verdadeiro convencional 1000 g.
Nota-se a existência de um erro de medição de E = 1014 - 1000 = + 14 g. Entretanto, ao medir-
se uma única vez não é possível identificar as componentes dos erros sistemático e aleatório.
Os valores das indicações obtidas nas onze medições adicionais apresentaram variações.
Como trata-se de um mensurando invariável, a dispersão dos valores das indicações é
atribuída aos efeitos dos erros aleatórios do sistema de medição. A distribuição dos valores das
indicações obtidas, mostrada na parte "c" da figura, agrupa-se em torno do valor central médio
de 1015 g e tem uma forma que se assemelha a uma distribuição normal. Por observação
direta nota-se que os valores das doze indicações estão enquadradas dentro da faixa de 1015
± 3 g.
A tendência e o desvio padrão experimental foram estimados com o auxílio da tabela da figura.
O valor médio das indicações foi determinado (MI = 1015 g) e com este a tendência foi
estimada por meio da equação Td = MI - VVC, sendo obtido: Td = 1015 - 1000 g
Td = 15 g 2

66
A quarta coluna da figura é obtida subtraindo-se o valor da tendência do erro total (E),
resultando no erro aleatório para cada ponto. Nota-se que, neste caso, este erro distribui-se
aleatoriamente em torno do zero dentro do limite ± 3 g.
A aplicação da equação leva ao seguinte valor para o desvio padrão experimental:
s = 1,65 g
Considerando a equação Td = MI - VVC a rigor pode-se afirmar apenas que a tendência situa-
se dentro da faixa Td = 15 ± 1 g.
O coeficiente t de Student para 12 medidas, portanto 11 graus de liberdade, e confiabilidade
95% é de 2,20. Logo, a repetitividade (Re), dentro da qual situa-se o erro aleatório, resulta
em:
Re = ± (2,20 . 1,65) g
Re = ± 3,6 g

Isto quer dizer que existe 95% de probabilidade do erro aleatório se enquadrar dentro de uma
faixa simétrica de ± 3,6 g centrada em torno do valor médio 1015g.
Observação: Caso o valor real da massa aplicada à balança fosse desconhecido, o leigo muito
provavelmente afirmaria, após o experimento, que o valor da mesma é: m = (1014 ± 3) g
Ao fazer isto ele estaria cometendo um grave erro, pelo fato de não considerar a existência
do erro sistemático. A forma correta da determinação do resultado da medição (RM),
desconsiderando as demais parcelas de incerteza, poderia ser expresso por:

que leva a:

RM = (1000 ± 1) g

Curva de erros de um sistema de medição

Os valores estimados para a tendência e repetitividade de um sistema de medição


normalmente são obtidos não apenas em um ponto, mas são repetidos para vários pontos ao
longo da sua faixa de medição. Estes valores podem ser representados graficamente,
facilitando a visualização do comportamento metrológico do SM nas condições em que estas
estimativas foram obtidas. O gráfico resultante é denominado de curva de erros.
O procedimento efetuado no exemplo da figura da balança é repetido para valores adicionais
de massas cujos valores verdadeiros convencionais sejam conhecidos (massas padrão).
Costuma-se selecionar dentro da faixa de medição do SM um número limitado de pontos,
normalmente regularmente espaçados, e estimar o Td e Re para cada um destes pontos.
Tipicamente são usados em torno de 10 pontos na faixa de medição.
Como resultado do procedimento acima, uma representação gráfica de como a tendência e a
repetitividade se comportam em alguns pontos ao longo da faixa de medição. Esta é a curva de
erros do SM. Para cada ponto medido, a tendência é representada pelo ponto central ao qual
adiciona-se e subtrai-se a repetitividade. Caracteriza-se assim a faixa de valores dentro da qual
estima-se que o erro do SM estará para aquele ponto de medição. Na prática, este
levantamento é muito importante para a correta compensação de erros e estimação do
denominado resultado de uma medição.

67
A figura abaixo apresenta um exemplo de determinação da curva de erros:

Para a mesma balança, repetiu-se o procedimento para a estimação de Td e Re quando foram


utilizados valores adicionais de massas padrão, cada qual com seu valor verdadeiro
convencional conhecido. Os valores obtidos estão tabelados na figura da balança. A
representação gráfica destes erros, ou seja a curva de erros, é também mostrada. No eixo
horizontal representa-se o valor da indicação. No eixo vertical, o erro de medição, sendo que o
ponto central representa a tendência (Td) e, em torno desta, traçam-se os limites esperados
para o erro aleatório estimados por:

limite superior: Td + Re
limite inferior: Td – Re

Erro Máximo do Sistema de Medição

O fabricante de um sistema de medição normalmente especifica um parâmetro que


corresponde ao limite dos máximos erros presentes neste SM quando este é utilizado nas
condições típicas de operação. Este parâmetro deve ser usado com muito cuidado, verificando-
se que não são violadas as condições especificadas pelo fabricante nem as recomendações a
nível operacional e de manutenção.
Define-se o parâmetro denominado erro máximo (Emax) de um sistema de medição como a
faixa de valores, centrada em torno do zero, que, com uma probabilidade definida, contém o
maior erro do qual pode estar afetada qualquer indicação apresentada pelo sistema de
medição, considerando os erros sistemáticos e aleatórios em toda a sua faixa de medição,
sempre respeitando as condições de operação especificadas pelo seu fabricante. Note que
este é um parâmetro característico do sistema de medição e não de um processo de medição
em particular.
Nas condições de operação, os erros apresentados pelo sistema de medição não deverão
ultrapassar os limites definidos por - Emáx e + Emáx. Sua curva de erros deve estar
inteiramente inscrita dentro do espaço definido por duas linhas horizontais localizadas em -
Emáx e + Emáx.
O erro máximo do sistema de medição é o parâmetro reduzido que melhor descreve a
qualidade do instrumento, pois expressa os limites máximos do erro de medição associado a
este SM nas suas condições normais de operação e por isso é freqüentemente utilizado na

68
etapa de seleção do SM. O termo precisão é freqüente e erroneamente empregado em lugar
do erro máximo. O uso do termo precisão pode ser empregado apenas no sentido qualitativo e
jamais como um parâmetro

Incerteza

A palavra “incerteza” significa “dúvida”. De forma ampla “incerteza da medição” significa


“dúvida acerca do resultado de uma medição”. Formalmente, define-se incerteza como:
“parâmetro, associado com o resultado de uma medição, que caracteriza a dispersão de
valores que podem razoavelmente ser atribuídos ao mensurando”.
A incerteza, portanto, está associada ao resultado da medição. Não corresponde ao erro
aleatório do sistema de medição, embora este seja uma das suas componentes. Outras
componentes são decorrentes da ação de grandezas de influência sobre o processo de
medição, as incertezas da tendência (ou da correção), número de medições efetuadas,
resolução limitada, etc. Não há, portanto, uma relação matemática explícita entre a incerteza
de um processo de medição e a repetitividade de um sistema de medição.
A incerteza é normalmente expressa em termos da incerteza padrão, da incerteza combinada
ou da incerteza expandida. A incerteza padrão (u) de um dado efeito aleatório corresponde à
estimativa equivalente a um desvio padrão da ação deste efeito sobre a indicação. A incerteza
combinada (uc) de um processo de medição é estimada considerando a ação simultânea de
todas as fontes de incerteza e ainda corresponde a um desvio padrão da distribuição
resultante. A incerteza expandida (U) associada a um processo de medição é estimada a partir
da incerteza combinada multiplicada pelo coeficiente t-Student apropriado e reflete a faixa de
dúvidas ainda presente nesta medição para uma probabilidade de enquadramento definida,
geralmente de 95%.

Fontes de Erros

Toda medição está afetada por erros. Estes erros são provocados pela ação isolada ou
combinada de vários fatores que influenciam sobre o processo de medição, envolvendo o
sistema de medição, o procedimento de medição, a ação de grandezas de influência e o
operador.
O comportamento metrológico do SM depende fortemente de fatores conceituais e aspectos
construtivos. Suas características tendem a se degradar com o uso, especialmente em
condições de utilização muito severas. O comportamento do SM pode ser fortemente
influenciado por perturbações externas e internas, bem como pela influência do operador, ou
mesmo do SM, modificar indevidamente o mensurando.
O procedimento de medição adotado deve ser compatível com as características do
mensurando.
O número e posição das medições efetuadas, o modelo de cálculo adotado, a interpretação
dos resultados obtidos podem também introduzir componentes de incerteza relevantes no
resultado da medição.
As grandezas de influência externas podem provocar erros alterando diretamente o
comportamento do SM ou agindo sobre o mensurando. O elemento perturbador mais crítico, de
modo geral, é a variação da temperatura ambiente, embora outras grandezas como vibrações
mecânicas, variações de pressão atmosférica, umidade ou tensão da rede elétrica, também
possam trazer alguma influência. A variação da temperatura provoca dilatação das escalas dos
instrumentos de medição de comprimentos, da mesma forma como age sobre o mensurando,
por exemplo, modificando o comprimento a medir de uma peça.
A variação da temperatura pode também ser uma perturbação interna. Exemplo típico é a
instabilidade dos sistemas elétricos de medição, por determinado espaço de tempo, após terem
sido ligados. Em função da liberação de calor nos circuitos elétrico/eletrônicos há uma variação
das características elétricas de alguns componentes e assim do SM. Há necessidade de
aguardar estabilização térmica, o que minimizará os efeitos da temperatura. A existência de
atrito, folgas, imperfeições construtivas e o comportamento não ideal de elementos físicos são
outros exemplos de perturbação interna.
A modificação indevida do mensurando pela ação do sistema de medição, ou do operador,
pode ter diversas causas. Por exemplo, na metrologia dimensional, a dimensão da peça
modifica-se em função da força de medição aplicada. A figura 4.5 ilustra uma situação onde
pretende-se medir a temperatura de um cafezinho. Para tal é empregado um termômetro de

69
bulbo. Ao ser inserido no copo, há um fluxo de energia do café para o termômetro: o bulbo
esquenta enquanto o café esfria, até que a temperatura de equilíbrio seja atingida. É esta
temperatura, inferior a temperatura inicial do cafezinho, que será indicada pelo termômetro.
Este é outro exemplo onde o mensurando é modificado pelo SM.
A modificação do mensurando por outros módulos da cadeia de medição, acontece, por
exemplo, na conexão indevida de dispositivos registradores. Um exemplo onde o operador
modifica o mensurando é quando se instala um termômetro para medir a temperatura no
interior de uma câmara frigorífica e, por alguma razão, torna-se necessário entrar nesta câmara
para fazer a leitura da temperatura. A presença do operador pode modificar o mensurando, no
caso, a temperatura da câmara.

A figura abaixo exemplifica a ocorrência de erros numa operação de medição de massa.

70
Destaca-se na figura que o comportamento da balança, e, conseqüentemente, os erros de
medição, são dependentes da temperatura ambiente e da sua variação. Dependendo da forma
como se comporta a temperatura, a balança pode apresentar predominância de erros
sistemáticos ou aleatórios.
O operador também pode introduzir erros adicionais no processo de medição. Erros de
interpolação na leitura, erros inerentes ao manuseio ou à aplicação irregular do SM são
exemplos típicos. Sua quantificação é muito difícil, geralmente estimada por medições
repetitivas em uma peça de referência, envolvendo diferentes momentos, instrumentos,
operadores e nas condições ambientais típicas.
A grande dificuldade trazida por estes diversos fatores é que estas perturbações ocorrem
superpostas ao sinal de medição, sendo impossível identificar e separar o que é erro do que é
variação do mensurando. Para conviver com estes diversos fatores que influenciam o
comportamento do SM, é comum ao fabricante fixar as condições em que o sistema de
medição deve operar, por exemplo, temperatura 20 ± 1 °C, tensão da rede 220 ± 15 V, etc.
Somente dentro destas faixas é que são garantidas as especificações metrológicas dos
sistemas de medição. É necessário estar atento para estes limitantes.

Minimização do Erro de Medição

O erro de medição sempre existe. Não há meio de eliminá-lo completamente. Entretanto,


existem alguns cuidados e procedimentos que podem ser seguidos que resultam na
minimização deste erro. A seguir são apresentadas algumas sugestões nesta direção:

Seleção correta do SM

Operacional e funcionalmente o SM deve ser apropriado para o tipo de mensurando. Deve-se


verificar se o valor do mensurando situa-se dentro da faixa de medição do SM. O tipo de
grandeza deve ser compatível com o SM: um micrômetro para dimensões externas não se
aplica para dimensões internas. Além disso, deve-se ficar alerta para problemas relacionados
com a modificação do mensurando provocado pelo SM: seria conveniente usar um SM com
baixa "inércia" térmica para o exemplo da figura 4.5. O tipo de mensurando: estático ou
dinâmico; a forma de operação/indicação: digital ou analógica; o método de medição: indicação
ou compensação; o peso, o tamanho e a energia necessária, devem ser levados em conta ao
se selecionar o SM. Uma boa lida nos catálogos e manuais de operação do SM é
indispensável.

Modelação correta do processo de medição

Um fator de elevada importância é o conhecimento da natureza do processo ou da grandeza


que está sendo medida. A correta definição do mensurando, a compreensão de suas
características e comportamento devem ser levadas em conta para definir o procedimento de
medição a ser adotado. Se, por exemplo, a medição envolve um mensurando variável com o
tempo ou posição, a adoção de um procedimento errôneo - apenas adequado para
mensurandos invariáveis – poderá levar a resultados completamente absurdos.

Adequação do Erro Máximo do Sistema de Medição

Embora um SM sempre apresente erro de medição, diferentes sistemas de medição podem


apresentar diferentes níveis de erros. A qualidade de um SM está relacionada com o nível de
erro por este apresentado. É quase sempre possível adquirir no mercado SMs com diferentes
níveis de qualidade por, obviamente, diferentes preços. O equilíbrio entre o custo e benefício
deve ser buscado.
É difícil estabelecer um procedimento genérico para a correta seleção do SM baseado
unicamente no seu preço e erro máximo. Porém, espera-se que, nas condições fixadas pelos
fabricantes, os erros inerentes do sistema de medição nunca sejam superiores ao erro máximo
do sistema de medição empregado. Através de uma calibração, e de um procedimento mais
cuidadoso de medição, onde seja compensada a tendência do SM e a medição seja repetida
diversas vezes, é possível reduzir significativamente o nível de erros presente no resultado.
Causas de erros na medições de comprimento

71
Fatores de natureza mecânica

a) Força de Medição
Na maioria dos casos o processo de medição a realização da medição, está associado a um
contato mecânico entre os sensores do SM (apalpadores) e o objeto a medir. No caso de
medição por processo óptico, eletroindutivo ou eletrocapacitivo não há contato mecânico direto
e inexiste a força de medição.
Ao contato mecânico está associada uma força, denominada força de medição. Uma certa
força é necessária para que o apalpador possa penetrar (ou deslocar para o lado) camadas de
sujeira, de óleo, de graxa, de gases aderentes e semelhantes que aderem nas superfícies de
contato.
Por outro lado, a força de medição provoca no objeto, bem como no sistema de medição e
demais componentes mecânicos utilizados no processo, deformações de vários tipos
introduzindo assim erros de medição, na forma de retroação.
Assim, é necessário manter-se a força de medição em valores mínimos necessários ao
funcionamento dos SM e, adicionalmente, mantê-la constante ao máximo possível para se
poder levar, eventualmente, em consideração nas correções.
A força de medição está, por exemplo, no caso de um micrômetro externo, na faixa entre 5 a
10 N. No relógio comparador comum usa-se a força de medição entre 0,8 até 1,5 N, com
variação da mesma de 0,4 N no máximo; no caso de alguns relógios comparadores, a força de
medição é de 3 até 6 N, ou por outro lado, apenas 0,15 a 0,40 N. Interessante é que deixando-
se descer a haste do relógio comparador bruscamente de um altura de 20 mm apenas, ocorre
um ‘pico’ de força de medição dinâmica de até 70 N apesar da força estática ser de somente
algumas unidades de N.

b) Deformações
Deformações que ocorrem na medição não devem ser, sob hipótese alguma, de caráter
permanente, mas sim, exclusivamente, elásticas. Deste ponto de vista há certo perigo nas
áreas de contato entre o sensor (especialmente o de forma arredondada) e o objeto quando
ocorrer um choque dinâmico.
Deformações indesejáveis podem ocorrer, também, pelo peso próprio, quer do sistema de
medição, quer do objeto a medir especialmente se for usado apoio inadequado para os
mesmos.
As inevitáveis deformações ou são mantidas dentro de determinados limites através de
dimensionamento adequado da peça, ou são isoladas e convenientemente consideradas
(correções introduzidas) no resultado da medição. Os limites admissíveis das deformações
dependem das correspondentes exigências quanto a incerteza de medição máxima permitida
para o processo.
As deformações podem ter caráter de variação de comprimento (encurtamento ou
alongamento), de flexão, de distorção ou de achatamento na região de contato.

b.1) Variação de comprimento:


A variação elástica de comprimento L em (mm) calcula-se com base na lei de Hooke:

72
Flexão:
As deformações transversais de elementos dos sistemas de medição ou objetos, podem ser
calculadas em casos simples usando-se as fórmulas para vigas sobre dois apoios ou
engastadas.
Para se ter uma idéia sobre valores absolutos, seguem alguns exemplos numéricos:
- O mandril de aço, com um comprimento de 500 mm, e diâmetro de 30 mm flete, por peso
próprio no meio em 5 µm. O mesmo mandril, sob força de medição de 1 N flete no meio em
0,3 µm
- Um suporte de relógio comparador, de aço, cuja parte vertical tem comprimento de 200
mm e a parte horizontal em balanço, tem o comprimento de 70 mm, sendo a seção transversal
das duas partes circular, de diâmetro 20 mm, recua verticalmente, na sua extremidade
em balanço, sob força de medição de 1 N, em 0,6 um.
Em alguns casos, por escolha adequada dos pontos de apoio, pode-se obter deflexões mais
convenientes.
Por exemplo, um bloco padrão longo, apoiado em dois cutelos colocados a uma distância das
extremidades de a = 0,2113 . L (figura “a” abaixo) (onde L é o comprimento total do bloco)
manterá ambos os planos extremos (superfícies de medição) paralelos apesar da deflexão
transversal.

A mesma distância entre apoios é recomendável para escalas, com divisões na parte superior
da régua.
Para as escalas, cujas divisões são gravados na linha neutra da seção transversal, o apoio em
"pontos de Bessel", na distância de a = 0,22031 L, proporciona o encurtamento mínimo do
comprimento total L (figura “b” acima).
No caso de uma régua ser usada em seu comprimento total, recomenda-se que os pontos de
apoio estejam ajustados de a = 0,22315.L dos extremos. Neste caso, obtém-se a deflexão
transversal mínima, sendo a deformação nos extremos igual à flecha no meio da régua (figura
“c” acima).
Se a régua for usada apenas na sua parte central entre os apoios, é vantajoso colocar os
cutelos de apoio na distância de a = 0,2386.L das extremidades. Neste caso a deformação
transversal na região entre os apoios será pequena, sendo igual a zero na metade da distância
(figura “d” acima).

73
Achatamento:
Por achatamento se entende a aproximação que ocorre ente o sensor do sistema de medição e
a peça após o primeiro contato físico, em função da ação de uma força de medição. Pode ser
calculado, para os casos simples de contato, pelas equações de Hertz.
Para ilustração, um apalpador semi-esférico atuando sobre um bloco padrão provoca um
achatamento de 0,5 µm, se a força de medição aplicada for de 3 N e o diâmetro da esfera de 5
mm.

Desgaste:
O desgaste ocorre nas superfícies de medição de um instrumento sempre quando há um
movimento relativo entre as superfícies em contato e, portanto, quando se tem atrito.
Deve-se pois, dentro do possível, evitar o movimento da superfície de medição sobre a peça
e/ou reduzir o atrito.
Em muitos casos, entretanto, tem-se de contar para as superfícies em contato dos
instrumentos de medição, materiais de alta resistência ao desgaste: aços de ferramentas com
liga especial, camadas de cromo duro, minerais (por exemplo: ágata).
Não só as superfícies de medição estão sujeitas ao desgaste, mas todas as superfícies móveis
de um SM, nas quais ocorre atrito.
Recomenda-se então, já por ocasião do projeto, providenciar elementos e/ou mecanismos que
possibilitem ajustagem e, consequentemente, eliminação adicional do desgaste.
O usuário por sua vez deve inspecionar os sistemas de medição periodicamente e, se
necessário, fazer a reajustagem. O problema é que em virtude da interação de diversos
fatores, o desgaste não decorre nas superfícies uniformemente: superfícies planas tornam-se
côncavas ou convexas, guias apresentam folgas maiores apenas em certos lugares, e
semelhantemente. A eliminação completa do desgaste ocorrido torna-se, pois, muito difícil e as
superfícies desgastadas dão origem a erros de medição.

Fatores de natureza geométrica

Forma geométrica da peça a medir:


Uma peça mecânica é representada, num desenho técnico, sempre em sua forma ideal e com
dimensões nominais. A peça depois de executada, não só diverge deste ideal em suas
dimensões mas, também, em sua forma geométrica.
De acordo com a técnica utilizada na fabricação a superfície apresenta diferentes rugosidades,
asperezas, etc., que são chamadas de erros microgeométricos.
Os desvios da forma geométrica geral (retilineidade, cilindricidade, planeza de superfícies) são
denominados erros da macrogeometria.
Os desvios macrogeométricos afetam o processo de medição e por isso as relações
geométricas de posição entre o sistema de medição e peça devem ser conhecidas, com
clareza, para evitar erros de medida.
Isto exige que se meça de tal modo que os desvios macrogeométricos possam ser
identificados.

74
Assim, tendo-se, por exemplo, uma placa retangular fabricada - erroneamente - em forma de
um quadrilátero (figura abaixo) e tomando-se a medida em dois sentidos perpendiculares, em
dois lugares a e b, apenas, obtém-se, por exemplo, para a medida a um valor completamente
deliberado (que dependerá do lugar da medida, a1, a2, a3, etc.) e o operador não perceberá o
desvio da forma. Para identificar os erros de forma geométrica da peça é necessário medi-la
em vários lugares, (por exemplo, a1, a2, b1, b2 na figura 1.21b).

Peças cilíndricas, eixos ou pinos, podem afastar-se da forma circular em vários pontos de sua
secção transversal, além disso, afastar-se da forma cilíndrica reta em vários pontos na direção
axial. A figura abaixo apresenta alguns exemplos esquemáticos.

Se em lugar da forma circular exata ocorre uma forma oval (figura 1.23a) então pode-se
determinar o diâmetro máximo e mínimo da mesma com duas superfícies de medição
paralelos, a, b, por exemplo, num paquímetro, micrômetro, etc, obtendo-se a diferença A
("ovalidade").

75
Usando-se, neste caso, um prisma (figura 1.23b) como apoio para a medição com um relógio
comparador R, a diferença B entre os diâmetros apresenta-se apenas em proporção reduzida
(sendo B < A).

Se ocorrer, por outro lado, um iso-espesso E, figura abaixo, a medição entre planos paralelos
não registrará o erro de circularidade. O registro da excentricidade faz-se com auxílio de
prisma. O melhor resultado oferece o prisma cujo ângulo é relacionado com o número n de
lados do isso-espesso de acordo com a fórmula.

76
Quando se suspeita da presença de algum desvio da forma circular, porém, não sabe-se se
trata-se do oval (ou alguma forma do mesmo com o número par dos lados) ou de iso-espesso
(cujo número de lados é desconhecido), a medição procede-se entre dois planos paralelos e
depois pelo menos em dois prismas diferentes, de ângulos 60º e 90º, respectivamente. O
ângulo de 90º, apesar de que não constar na tabela acima, é suficientemente perto dos valores
108º ou 77,1º citados.
Os problemas da influência da forma geométrica estão intimamente relacionados com as
dimensões das medidas e das tolerâncias. Para a técnica de medição de comprimentos, deve
ficar claro que, para a determinação da configuração real de uma peça, jamais basta uma única
medida, mas que sempre é necessário considerar várias medidas, bem como a relação entre
as mesmas.

Erro de Contato
Os elementos do instrumento de medição que tocam a peça a medir, ou seja, os sensores de
medição, devem ter a forma correspondente a configuração da peça, a fim de que se obtenha o
contato geometricamente bem definido: se a peça a medir é plana, o sensor de medição é
geralmente esférico, figura 1.25a. Se por outro lado, a peça é esférica ou cilíndrica, usam-se
sensores planos de medição, figura 1.25b. Na medição de roscas utilizam-se pontas sensoras
de forma cônica, cilíndrica ou esférica.
Se o contato entre a peça a medir e a superfície de medição, devido a erros de forma de uma
ou de outra não tem uma relação geométrica exata, correspondente ao recobrimento
geométrico desejado, acontece então o que denominamos de erro do contato.

Na figura 1.25c tem-se o erro de contato em sua forma mais simples, quando não há
recobrimento geométrico entre a superfície plana da peça A e a superfície plana de medição B
de modo que as duas tocam uma a outra em ângulo (fortemente exagerado no desenho). Este
é um exemplo típico de situação que acontece, por exemplo, quando medimos uma peça com
um micrômetro ou uma máquina de medir em que os sensores de medição apresentam erros
de paralelismo acentuado, gerando efetivamente erros de medição significativos.
A maioria dos problemas com erro de contato elimina-se por uma forma geométrica impecável
das superfícies de medição.

Relações Geométricas de Posição:


Erros geométricos de posição de medição são evitados, de forma mais segura pelo emprego
do método da substituição. A dimensão da peça é captada com auxilio de um dispositivo e
depois comparado a padrões de medição colocados exatamente no lugar e na posição da
peça. Assim, não podem ocorrer erros de posição devidos a movimentação de cursores (não
perfeição de guias) ou problemas semelhantes.
Se o método da substituição não puder ser aplicado, deve-se ao menos obedecer ao princípio
de ABBE, enunciado por Ernst Abbé, que exige que “o trecho a medir deve constituir o
prolongamento retilíneo da escala que serve como dispositivo de medição”. Ambos, trecho a
medir, bem como o padrão de medida, devem ser dispostos no mesmo eixo um atrás do outro.
No esquema de um paquímetro na figura 1.26, observa-se, que o princípio de Abbé não é
respeitado na configuração do instrumento o que implica na menor confiabilidade dos

77
resultados: o trecho a medir "dA" (diâmetro de uma peça) encontra-se paralelo a escala de
medição.
Observa-se que no instante da medição ocorre um erro em função da distância S entre a
escala do instrumento e o ponto de contato entre os sensores de medição e a peça. Nestes
casos deve-se realizar as medições posicionando-se a peça a medir o mais próximo possível
da escala do instrumento de medição, de modo a diminuir a distância S, e portanto, reduzir o
erro de medição.

Já no caso de um micrômetro (figura 1.27) o trecho a medir “L” situa-se no prolongamento


retilíneo da escala de medição que, neste caso, fica realizada pelo parafuso de medição do
micrômetro. Respeitado o princípio de Abbé, obtém-se resultados com substancial minimização
de erros, já que ocorrem somente os de 2o ordem.

78
Fator de natureza física

Deformação térmica:
Como o volume dos materiais metálicos sofre alteração com a variação da temperatura, é
extremamente importante estabelecer uma temperatura de referência.
A temperatura de 20,0º C é hoje adotada internacionalmente como temperatura de referência
para apresentação de resultados de medição ou calibração de instrumentos de medição da
Área de Metrologia Dimensional. Assim, os resultados do comprimento de blocos padrão, os
resultados da calibração de uma Máquina de Medir por Coordenadas, entre outros, são válidos
para a temperatura de 20,0º C.
Nas medições de comprimento é necessário dar uma atenção toda especial à temperatura em
virtude da deformação térmica sofrida pelos instrumentos, padrões, alguns dispositivos
utilizados no processo de medição, além das deformações sofridas pelas próprias peças
sujeitas a medição.
Apenas para efeito de ilustração, um bloco prismático de aço, com comprimento de 1 metro, á
20ºC, terá, á temperatura ambiente (26ºC), o comprimento de 1000,069 mm
Se a peça a medir tem o mesmo coeficiente de expansão térmica do padrão usado (escala,
bloco padrão, etc.), com o qual será comparado, não ocorrerá erro de medição por razões
térmicas, mesmo quando a medição se efetua em temperatura diferente da de referência (20,0º
C) já que o padrão se deforma na mesma proporção que a peça a medir. Evidentemente isto
só ocorrerá se ambos, peça e padrão/instrumento estiverem na mesma temperatura (o que
pode ser obtido deixando-se peça e padrão/instrumento estabilizando termicamente por um
período de tempo suficiente para atingir-se o equilíbrio térmico). Este é o motivo pelo qual os
metais leves só podem ser usados em instrumentos de medição mediante cuidados especiais a
não ser no caso particular em que as próprias peças são de metal leve. Por razões
semelhantes não se utilizam calibradores e padrões de vidro, apesar de serem mais baratos e
bastante resistentes ao desgaste.
Se a peça tiver um coeficiente de expansão térmica distinto do padrão (o que às vezes é
inevitável), como por exemplo, padrão de aço e peça de latão, então ocorrerá um erro quando
a temperatura de medição diferir da temperatura de referência de 20,0 oC. Se, além disso
houver ainda diferença de temperatura entre peça e padrão (instrumento de medição utilizado
no processo de medição), podem ocorrer erros ponderáveis de medição devidos a efeitos
térmicos.
Conclui-se então que deve-se assegurar que a temperatura da peça e do sistema de medição
sejam próximas tanto quanto possível da temperatura de referência. Isto se obtém deixando
ambos durante certo tempo num ambiente a 20 oC. O tempo necessário para a equalização da
temperatura depende do porte e tipo de cada um dos elementos, e da diferença inicial de
temperaturas, variando para as peças usuais entre 4 e 24 horas. Favoravelmente influi se
ambos elementos repousam sobre a mesma base metálica.
Se o tempo para equalização de temperaturas foi insuficiente corre-se o risco de que diversas
partes da peça ou do padrão apresentem diferenças de temperaturas entre si, o que provocará
não só erros em dimensões, mas também erros de forma. Semelhantemente, deve-se impedir
que ocorram variações de temperatura durante a própria medição.

79
CALIBRAÇÃO DE SISTEMAS DE MEDIÇÃO
Um sistema de medição (SM) de boa qualidade deve ser capaz de operar com pequenos erros.
Seus princípios construtivos e operacionais devem ser projetados para minimizar erros
sistemáticos e aleatórios ao longo da sua faixa de medição, nas sua condições de operação
nominais.
Entretanto, por melhores que sejam as características de um SM, este sempre apresentará
erros, seja por fatores internos, seja por ação das grandezas de influência externas. A perfeita
caracterização das incertezas associadas a estes erros é de grande importância para que o
resultado da medição possa ser estimado de maneira segura. Embora, em alguns casos, os
erros de um sistema de medição possam ser analítica ou numericamente estimados, na prática
são utilizados procedimentos experimentais quase que exclusivamente.
Através do procedimento experimental denominado calibração é possível correlacionar os
valores indicados pelo sistema de medição e sua correspondência com a grandeza sendo
medida. Esta operação é extremamente importante e é realizada por um grande número de
entidades credenciadas espalhadas pelo país.
Este capítulo apresenta, em linhas gerais, aspectos característicos da calibração e de
operações a esta relacionadas.

Operações Básicas para Qualificação de Sistemas de Medição

Calibração

Calibração é um procedimento experimental através do qual são estabelecidas, sob condições


específicas, as relações entre os valores indicados por um instrumento de medição ou sistema
de medição ou valores representados por uma medida materializada ou um material de
referência, e os valores correspondentes das grandezas estabelecidos por padrões.
Como exemplos, através de uma calibração é possível estabelecer:
- a relação entre temperatura e tensão termoelétrica de um termopar;
- uma estimativa dos erros sistemáticos de um manômetro;
- o valor efetivo de uma massa padrão;
- a dureza efetiva de uma placa "padrão de dureza";
- o valor efetivo de um "resistor padrão".
O resultado de uma calibração permite tanto o estabelecimento dos valores do mensurando
para as indicações, como a determinação das correções a serem aplicadas. Uma calibração
também pode determinar outras propriedades metrológicas como, por exemplo, os efeitos das
grandezas de influência sobre a indicação, ou o comportamento metrológico de sistemas de
medição em condições adversas de utilização (em temperaturas elevadas ou muito baixas, na
ausência de gravidade, sob radiação nuclear, etc).
O resultado da calibração geralmente é registrado em um documento específico denominado
certificado de calibração ou, algumas vezes, referido como relatório de calibração. O certificado
de calibração apresenta várias informações acerca do desempenho metrológico do sistema de
medição analisado e descreve claramente os procedimentos realizados. Frequentemente,
como seu principal resultado, apresenta uma tabela, ou gráfico, contendo, para cada ponto
medido ao longo da faixa de medição: a) estimativas da correção a ser aplicada e b) estimativa
da incerteza associada à correção. Em função dos resultados obtidos, o desempenho do SM
pode ser comparado com aquele constante nas especificações de uma norma técnica, ou
outras determinações legais, e um parecer de conformidade pode ser emitido.
A calibração pode ser efetuada por qualquer entidade, desde que esta disponha dos padrões
rastreados e pessoal competente para realizar o trabalho. Para que uma calibração tenha
validade oficial, é necessário que seja executada por entidade legalmente credenciada. No
Brasil, existe a Rede Brasileira de Calibração (RBC), coordenada pelo INMETRO - Instituto
Nacional de Metrologia, Normalização e Qualidade Industrial. Esta rede é composta por uma
série de laboratórios secundários, espalhados pelo país, ligados a Universidades, Empresas,
Fundações e outras entidades, que recebem o credenciamento do INMETRO e estão aptos a
expedir certificados de calibração oficiais.
Hoje, com as tendências da globalização da economia, a competitividade internacional das
empresas é uma questão crucial. A qualidade dos serviços e dos produtos da empresa têm que
ser assegurada a qualquer custo. As normas da série ISO 9000 aparecem para disciplinar a

80
gestão das empresas para melhorar e manter a qualidade de uma organização. A calibração
tem o seu papel de grande importância neste processo, uma vez que um dos requisitos
necessários para uma empresa que se candidate à certificação pelas normas ISO 9000, é que
os sistemas de medição e padrões de referência utilizados nos processo produtivo, tenham
certificados de calibração oficiais.
Embora a calibração seja a operação de qualificação de instrumentos e sistemas de medição
mais importante, existem outras operações comumente utilizadas:

Ajuste

Operação complementar, normalmente efetuada após uma calibração, quando o desempenho


metrológico de um sistema de medição não está em conformidade com os padrões de
comportamento esperados. Trata-se de uma "regulagem interna" do SM, executada por técnico
especializado. Visa fazer coincidir, da melhor forma possível, o valor indicado no SM, com o
valor correspondente do mensurado submetido. São exemplos:
- alteração do fator de amplificação (sensibilidade) de um SM por meio de um potenciômetro
interno;
- regulagem do "zero" de um SM por meio de parafuso interno.
No caso de medidas materializadas, o ajuste normalmente envolve uma alteração das suas
características físicas ou geométricas. Por exemplo:
- colocação de uma "tara" em uma massa padrão;
Após o término da operação de ajuste, é necessário efetuar uma recalibração, visando
conhecer o novo comportamento do sistema de medição, após os ajustes terem sidos
efetuados.

Regulagem

É também uma operação complementar, normalmente efetuada após uma calibração, quando
o desempenho metrológico de um sistema de medição não está em conformidade com os
padrões de comportamento esperados. Envolve apenas ajustes efetuados em controles
externos, normalmente colocados à disposição do usuário comum. É necessária para fazer o
SM funcionar adequadamente, fazendo coincidir, da melhor forma possível, o valor indicado
com o valor correspondente do mensurado submetido. São exemplos:
- alteração do fator de amplificação (sensibilidade) de um SM por meio de um botão
externo;
- regulagem do "zero" de um SM por meio de um controle externo indicado para tal.

Verificação

A operação de verificação é utilizada no âmbito da metrologia legal, devendo esta ser efetuada
por entidades oficiais denominados de Institutos de Pesos e Medidas Estaduais (IPEM),
existentes nos diversos estados da Federação.
Trata-se de uma operação mais simples, que tem por finalidade comprovar que:
- um sistema de medição está operando corretamente dentro das características metrológicas
estabelecidas por lei;
- uma medida materializada apresenta características segundo especificações estabelecidas
por normas ou outras determinações legais.
São verificados instrumentos como balanças, bombas de gasolina, taxímetros, termômetros
clínicos e outros instrumentos, bem como medidas materializadas do tipo massa padrão
usados no comércio e área da saúde, com o objetivo de proteger a população em geral.
A verificação é uma operação de cunho legal, da qual resulta a emissão de selo ou plaqueta
com a inscrição "VERIFICADO", quando o elemento testado satisfaz às exigências legais. É
efetuada pelos órgãos estaduais denominados de Institutos de Pesos e Medidas (IPEM) ou
diretamente pelo INMETRO, quando trata-se de âmbito federal.

Destino dos Resultados de uma Calibração:

Os resultados de uma calibração são geralmente destinados a uma das seguintes aplicações:
a) Levantamento da curva de erros visando determinar se, nas condições em que foi calibrado,
o sistema de medição está em conformidade com uma norma, especificação legal ou tolerância

81
definida para o produto a ser medido, e conseqüente emissão de certificado. Efetuado
periodicamente, garantirá a confiabilidade dos resultados da medição e assegurará correlação
(rastreabilidade) aos padrões nacionais e internacionais;
b) Levantamento da curva de erros visando determinar dados e parâmetros para a operação de
ajuste do sistema de medição;
c) Levantamento detalhado da curva de erros e tabelas com valores da correção e sua
incerteza, com o objetivo de corrigir os efeitos sistemáticos, visando reduzir a incerteza do
resultado da medição (capítulo 7). A aplicação da correção poderá ser efetuada manual ou
automaticamente;
d) Análise do comportamento metrológico e operacional dos sistemas de medição nas fases de
desenvolvimento e aperfeiçoamento, incluindo a análise das grandezas externas que influem
no seu comportamento;
e) Análise do comportamento metrológico e operacional dos sistemas de medição em
condições especiais de operação (por exemplo: elevadas temperaturas, na ausência de
gravidade, em elevadas pressões, etc);
Adicionalmente, a calibração deve ser efetuada quando, por alguma razão, se deseja o
levantamento mais detalhado sobre o comportamento metrológico de um sistema de medição,
sobre o qual existe dúvida ou suspeita de funcionamento irregular.

Métodos de Calibração

Calibração Direta
A parte superior da figura 6.1 ilustra o método de calibração direta. O mensurado é aplicado
sobre o sistema de medição por meio de medidas materializadas, cada qual com seu valor
verdadeiro convencional suficientemente conhecido. São exemplos de medidas materializadas:
blocos padrão (comprimento), massas padrão, pontos de fusão de substâncias puras, entre
outras.
É necessário dispor de uma coleção de medidas materializadas suficientemente completa para
cobrir toda a faixa de medição do instrumento. As indicações dos sistemas de medição são
confrontadas com cada valor verdadeiro convencional e a correção e sua incerteza são
estimadas por meio de medições repetitivas.

Calibração Indireta
Não seria fácil calibrar o velocímetro de um automóvel utilizando a calibração direta. O conceito
de medida materializada não se aplica à velocidade. As constantes físicas naturais, como a
velocidade de propagação do som no ar ou nos líquidos, ou mesmo a velocidade da luz, são
inapropriadas para este fim. A solução para este problema passa pela calibração indireta.
Este método é ilustrado na parte inferior da figura 6.1. O mensurado é gerado por meio de um
dispositivo auxiliar, que atua simultaneamente no sistema de medição a calibrar (SMC) e
também no sistema de medição padrão (SMP), isto é, um segundo sistema de medição que
não apresente erros superiores a 1/10 dos erros do SMC. As indicações do SMC são
comparadas com as do SMP, sendo estas adotadas como VVC, e os erros são determinados.
Para calibrar o velocímetro de um automóvel pela calibração indireta, o automóvel é posto em
movimento. Sua velocidade em relação ao solo, além de indicada pelo velocímetro, é também
medida por meio de um sistema de medição padrão, cujos erros sejam 10 vezes menores que
os erros do velocímetro a calibrar. Este SMP pode ser, por exemplo, constituído por uma quinta
roda, afixada na parte traseira do automóvel, ou, hoje é comum a utilização de sensores que
usam um raio laser dirigido ao solo e, pela análise do tipo de sinal que retorna, determinar a
velocidade real do automóvel com baixas incertezas. Neste exemplo o próprio automóvel é o
gerador da grandeza padrão, isto é, da velocidade, que é simultaneamente submetida a ambos
os sistemas de calibração. Para levantar a curva de erros, o automóvel deve trafegar em
diferentes patamares de velocidade repetidas vezes.
Algumas vezes não se dispõe de um único sistema de medição padrão que englobe toda a
faixa de medição do SMC. Neste caso, é possível utilizar diversos SMPs de forma
complementar. Por exemplo:
- deseja-se calibrar um termômetro entre 20 e 35 °C;
- não se dispõe de um padrão que, individualmente, cubra esta faixa completamente;
- dispõe-se de um termômetro padrão para a faixa 20 a 30 °C e outro para 30 a 40 °C;
- o termômetro a calibrar é parcialmente calibrado para a faixa de 20 a 30 °C contra o primeiro
padrão;

82
- o restante da calibração, entre 30 e 35 °C, é completado contra o segundo padrão.

Padrões para Calibração


Para que o valor da medida materializada, ou o indicado pelo SMP, possa ser adotado como
valor verdadeiro convencional (VVC), é necessário que seus erros sejam sensivelmente
menores que os erros esperados no SMC. Tecnologicamente, quanto menores os erros do
padrão melhor.
Economicamente, quanto menores os erros do padrão, mais caro este é. Procurando buscar o
equilíbrio técnico-econômico, adota-se como padrão um elemento que, nas condições de
calibração e para cada ponto de calibração, apresente incerteza não superior a um décimo da
incerteza esperada para o sistema de medição a calibrar. Assim:

Desta forma, o SMP apresentará ao menos um dígito confiável a mais que o SMC, o que é
suficiente para a determinação dos erros deste último. Excepcionalmente, em casos onde é
muito difícil ou caro de se obter um padrão 10 vezes superior ao SMC, usa-se o limite de 1/5 ou
até mesmo 1/3 para a razão entre as incertezas do SMP e o SMC. Este últimos devem ser
analisados com cuidado para que a incerteza da calibração não venha a ser muito elevada.
Em função da mudança do comportamento do instrumento com a velocidade de variação do
mensurado, distinguem-se a calibração estática e a dinâmica. Apenas nos instrumentos de
ordem zero a calibração estática coincide com a dinâmica. Nos demais casos, é necessário
determinar a resposta do SM para diversas freqüências de variação do mensurado.
Qualquer sistema de medição deve ser calibrado periodicamente. Este período é, algumas
vezes, especificado por normas, ou fabricantes de instrumentos, ou outras fontes como
laboratórios de calibração, porém são influenciados pelas condições e/ou freqüência de uso.
Para a calibração de um SM em uso na indústria, são geralmente usados padrões dos
laboratórios da própria indústria.
Entretanto, estes padrões precisam ser calibrados periodicamente, o que é executado por
laboratórios secundários da RBC. Mas também estes padrões precisam ser calibrados por
outros que, por sua vez, também necessitam de calibração e assim por diante... Estabelece-se
assim uma hierarquia que irá terminar nos padrões primários internacionais, ou mesmo, na
própria definição da grandeza. A calibração periódica dos padrões garante a rastreabilidade
internacional, o que elimina o risco do "metro francês" ser diferente do "metro australiano".
Como exemplo, cita-se a figura 6.2, onde se exemplifica a correlação entre os padrões. Isto
garante a coerência das medições no âmbito mundial.

83
84
85
86
87
Calibração Parcial

Normalmente objetiva-se determinar o comportamento operacional e metrológico do sistema de


medição na sua integralidade, isto é, do conjunto formado pelos módulos sensor/transdutor,
transmissão ou tratamento de sinal, dispositivo mostrador e demais, que compõem a cadeia de
medição. Este sistema de medição pode apresentar-se de forma independente (ex:
manômetro, máquina de medir por coordenadas) ou pode estar integrado a um sistema
composto de vários elementos interligáveis fisicamente (ex: célula de carga + amplificador da
máquina de ensaio de materiais, termômetro de um reator nuclear, formado por termopar +
cabo de compensação + voltímetro).
Não é raro, especialmente nas fases de desenvolvimento e fabricação de módulos, ser inviável
a calibração do sistema de medição como um todo. Esta dificuldade pode surgir em função do
porte e complexidade do sistema ou da dificuldade tecnológica de se obter uma grandeza
padrão com a qualidade necessária ou de se manter todas as variáveis influentes sob controle.
Nestes casos, é comum efetuar calibrações separadamente em alguns módulos do sistema,
tendo sempre em vista que estes devem apresentar um sinal de saída definido (resposta) para
um sinal de entrada conhecido (estímulo). A análise do desempenho individual de cada módulo
possibilita a determinação das características de desempenho do conjunto.
Freqüentemente um módulo isolado não tem condições de operar plenamente. É necessário
acrescentar elementos complementares para formar um SM que tenha condições de operar.
Para que estes elementos complementares não influam de forma desconhecida sobre o
módulo a calibrar, é necessário que o erro máximo introduzido por cada elemento não seja
superior a um décimo do erro admissível ou esperado para o módulo a calibrar.
Esta situação é ilustrada na figura 6.3. Supondo que o sistema de medição normal (0) tenha
módulos com incertezas relativas da ordem de 1% e desejando-se efetuar a calibração do
sensor transdutor isoladamente, é necessário compor um outro sistema de medição, o SM1.
Neste sistema, são empregados uma unidade de tratamento de sinais e um dispositivo
mostrador (1), com incerteza relativa máxima de 0,1%. Garantido estes limites, pode-se afirmar
que os erros do SM1 são gerados exclusivamente no transdutor (0), visto que os demais
módulos contribuem com parcelas de incerteza significativamente menores.
Ainda na figura 6.3, no caso em que se deseje calibrar isoladamente a unidade de tratamento
de sinais (0), deverá ser composto o SM2, formado por um sensor/transdutor e um dispositivo
mostrador que apresentem incertezas insignificantes. Neste caso, em geral, o sensor
transdutor é substituído por um gerador de sinais equivalente. Este sinal, no entanto, não deve
estar afetado de um erro superior a um décimo do admitido na operação da unidade de
tratamento de sinais.
Na prática, existem alguns sistemas de medição que fornecem, para grandezas vetoriais,
diversas indicações (ex: as três componentes cartesianas de uma força, as três coordenadas
da posição de um ponto apalpado). A calibração deste sistema é normalmente efetuada para
cada uma destas componentes do vetor isoladamente, da forma usual. Deve-se adicionalmente
verificar se há influência da variação de uma das componentes sobre as demais, ou seja, os
coeficientes de influência.

Procedimento Geral de Calibração

A calibração de sistemas de medição é um trabalho especializado e exige amplos


conhecimentos de metrologia, total domínio sobre os princípios e o funcionamento do sistema
de medição a calibrar (SMC), muita atenção e cuidados na sua execução e uma elevada dose
de bom senso.
Envolve o uso de equipamento sofisticado e de alto custo.
Recomenda-se sempre usar um procedimento de calibração documentado, segundo
exigências de normas NBR/ISO. Quando tais procedimentos de calibração não existirem,
devem ser elaborados com base em informações obtidas de normas técnicas, recomendações
de fabricantes e informações do usuário do SM em questão, complementados com a
observância das regras básicas da metrologia e no bom senso.
A seguir, apresenta-se uma proposta de roteiro geral a ser seguido para a calibração de um
SM qualquer. Esta proposta deve ser entendida como orientativa apenas, devendo ser
analisado caso a caso a conveniência de adotar, modificar ou acrescentar as recomendações
sugeridas.

88
Quando trata-se de um trabalho não rotineiro, de cunho técnico-científico, e muitas vezes de
alta responsabilidade, é fundamental que sejam registrados todos os eventos associados com
o desenrolar da atividade, na forma de um memorial de calibração.

89
Blocos Padrão
Para realizar qualquer medida, é necessário estabelecer previamente um padrão de referência.
Ao longo do tempo, diversos padrões foram adotados: o pé, o braço etc. Mais tarde, no século
XVIII, foi introduzido, na França, o sistema métrico.
Em 1898, C. E. Johanson solicitou a patente de blocos-padrão: peças em forma de pequenos
paralelepípedos, padronizados nas dimensões de 30 ou 35 mm x 9 mm, variando de espessura
a partir de 0,5 mm. Atualmente, nas indústrias são encontrados blocos-padrões em milímetro e
em polegada.

Muito utilizados como padrão de referência na indústria moderna, desde o laboratório até a
oficina, são de grande utilidade nos dispositivos de medição, nas traçagens de peças e nas
próprias máquinas operatrizes.

90
Existem jogos de blocos-padrão com diferentes quantidades de peças. Não devemos, porém,
adotá-los apenas por sua quantidade de peças, mas pela variação de valores existentes em
seus blocos fracionários.

As dimensões dos blocos-padrão são extremamente exatas, mas o uso constante pode
interferir nessa exatidão Por isso, são usados os blocos-protetores, mais resistentes, com a
finalidade de impedir que os blocos-padrão entrem em contato direto com instrumentos ou
ferramentas.

Bloco-padrão protetor

A fabricação dos protetores obedece às mesmas normas utilizadas na construção dos blocos-
padrão normais. Entretanto, emprega-se material que permite a obtenção de maior dureza.
Geralmente são fornecidos em jogos de dois blocos, e suas espessuras normalmente são de 1,
2 ou 2,5 mm, podendo variar em situações especiais.
Os blocos protetores têm como finalidade proteger os blocos padrão no momento de sua
utilização.
Exemplo da composição de um jogo de blocos-padrão, contendo 114 peças, já incluídos dois
blocos protetores:
2 - blocos-padrão protetores de 2,00 mm de espessura;
1 - bloco-padrão de 1,0005 mm;
9 - blocos-padrão de 1,001; 1,002; 1,003 .......... 1,009 mm;
49 - blocos-padrão de 1,01; 1,02; 1,03 .......... 1,49 mm;
49 - blocos-padrão de 0,50; 1,00; 1,50; 2,00 .......... 24,5 mm;
4 - blocos-padrão de 25; 50; 75 e 100 mm.

91
Classificação

De acordo com o trabalho, os blocos-padrão são encontrados em quatro classes.

Nota
É encontrado também numa classe denominada K, que é classificada entre as classes 00 e 0,
porque apresenta as características de desvio dimensional dos blocos-padrão classe 0, porém
com desvio de paralelismo das faces similar aos blocos-padrão da classe 00. É normalmente
utilizado para a calibraç ão de blocos-padrão nos laboratórios de referência, devido ao custo
reduzido em relação ao bloco de classe 00.

Os materiais mais utilizados para a fabricação dos blocos-padrão são:

Aço
Atualmente é o mais utilizado nas indústrias. O aço é tratado termicamente para garantir a
estabilidade dimensional, além de assegurar dureza acima de 800 HV.

Metal duro
São blocos geralmente fabricados em carbureto de tungstênio. Hoje, este tipo de bloco-padrão
é mais utilizado como bloco protetor. A dureza deste tipo de bloco padrão situa-se acima de
1.500 HV.

Cerâmica
O material básico utilizado é o zircônio. A utilização deste material ainda é recente, e suas
principais vantagens são a excepcional estabilidade dimensional e a resistência à corrosão. A
dureza obtida nos blocos-padrão de cerâmica situa-se acima de 1400 HV.

92
Erros admissíveis
As normas internacionais estabelecem os erros dimensionais e de planeza nas superfícies dos
blocos-padrão. Segue abaixo uma tabela com os erros permissíveis para os blocos-padrão
(norma DIN./ISO/JIS), e orientação de como determinar o erro permissível do bloco-padrão,
conforme sua dimensão e sua classe.

Exemplo: Para saber a tolerância de um bloco padrão de 30 mm na classe 0 (DIN), basta


descer a coluna Dimensão, localizar a faixa em que se situa o bloco padrão (no caso 30 mm), e
seguir horizontalmente a linha até encontrar a coluna correspondente à classe desejada
(classe 0).

No caso do exemplo, um bloco-padrão de 30 mm na classe 0 pode apresentar desvio de até


±0,20 mm.

Técnica de empilhamento
Os blocos deverão ser, inicialmente, limpos com algodão embebido em benzina ou em algum
tipo de solvente.
Depois, retira-se toda impureza e umidade, com um pedaço de camurça, papel ou algo similar,
que não solte fiapos.

Os blocos são colocados de forma cruzada, um sobre o outro. Isso deve ser feito de
modo que as superfícies fiquem em contato.

93
Em seguida, devem ser girados lentamente, exercendo-se uma pressão moderada até que
suas faces fiquem alinhadas e haja perfeita aderência, de modo a expulsar a lâmina de ar que
as separa. A aderência assim obtida parece ser conseqüência do fenômeno físico conhecido
como atração molecular (com valor de aproximadamente 500N/cm2), e que produz a aderência
de dois corpos metálicos que tenham superfície de contato finamente polidas.

Para a montagem dos demais blocos, procede-se da mesma forma, até atingir a medida
desejada. Em geral, são feitas duas montagens para se estabelecer os limites máximo e
mínimo da dimensão que se deseja calibrar, ou de acordo com a qualidade prevista para o
trabalho (IT).
Exemplo:
Os blocos-padrão podem ser usados para verificar um rasgo em forma de rabo de andorinha
com roletes, no valor de 12,573 + 0,005. Devemos fazer duas montagens de blocos-padrão,
uma na dimensão mínima de 12,573 mm e outra na dimensão máxima de 12,578 mm.

94
Faz-se a combinação por blocos de forma regressiva, procurando utilizar o menor número
possível de blocos. A técnica consiste em eliminar as últimas casas decimais, subtraindo da
dimensão a medida dos blocos existentes no jogo.

95
Blocos e acessórios
Há acessórios de diversos formatos que, juntamente com os blocos-padrão, permitem que se
façam vários tipos de controle.

Observação: No jogo consta um só padrão de cada medida, não podendo haver repetição de
blocos. Existe um suporte, acoplado a uma base, que serve para calibrar o micrômetro interno
de dois contatos.

96
Nele, pode-se montar uma ponta para traçar, com exatidão, linhas paralelas à base.
Geralmente, os acessórios são fornecidos em jogos acondicionados em estojos protetores.

Conservação
· Evitar a oxidação pela umidade, marcas dos dedos ou aquecimento
utilizando luvas sempre que possível.
· Evitar quedas de objetos sobre os blocos e não deixá-los cair.
· Limpar os blocos após sua utilização com benzina pura, enxugando-os com
camurça ou pano. Antes de guardá-los, é necessário passar uma leve
camada de vaselina (os blocos de cerâmica não devem ser lubrificados).
· Evitar contato dos blocos-padrão com desempeno, sem o uso dos blocos
protetores.

97
Calibradores passa-não passa
Medição indireta

A medida indireta por comparação consiste em confrontar a peça que se quer medir com
aquela de padrão ou dimensão aproximada. Assim, um eixo pode ser medido indiretamente,
utilizando-se um calibrador para eixos, e o furo de uma peça pode ser comparado com um
calibrador tampão.

Calibradores

Calibradores são instrumentos que estabelecem os limites máximo e mínimo das dimensões
que desejamos comparar. Podem ter formatos especiais, dependendo das aplicações, como,
por exemplo, as medidas de roscas, furos e eixos.
Geralmente fabricados de aço-carbono e com as faces de contato temperadas e retificadas, os
calibradores são empregados nos trabalhos de produção em série de peças intercambiáveis,
isto é, peças que podem ser trocadas entre si, por constituírem conjuntos praticamente
idênticos.
Quando isso acontece, as peças estão dentro dos limites de tolerância, isto é, entre o limite
máximo e o limite mínimo, quer dizer: passa/não-passa.

Tipos de calibrador

Calibrador tampão (para furos)


O funcionamento do calibrador tampão é bem simples: o furo que será medido deve permitir a
entrada da extremidade mais longa do tampão (lado passa), mas não da outra extremidade
(lado não-passa).
Por exemplo, no calibrador tampão 50H7, a extremidade cilíndrica da esquerda (50 mm + 0,000
mm, ou seja, 50 mm) deve passar pelo furo. O diâmetro da direita (50 mm + 0,030 mm) não
deve passar pelo furo.
O lado não-passa tem uma marca vermelha. Esse tipo de calibrador é normalmente utilizado
em furos e ranhuras de até 100 mm.

98
Calibrador de boca
Esse calibrador tem duas bocas para controle: uma passa, com a medida máxima, e a outra
não-passa, com a medida mínima.

O lado não-passa tem chanfros e uma marca vermelha.


É normalmente utilizado para eixos e materiais planos de até 100 mm.
O calibrador deve entrar no furo ou passar sobre o eixo por seu próprio peso, sem pressão.

Calibrador de boca separada


Para dimensões muito grandes, são utilizados dois calibradores de bocas separadas: um passa
e o outro não-passa.
Os calibradores de bocas separadas são usados para dimensões compreendidas entre 100
mm e 500 mm.

99
Calibrador de boca escalonada
Para verificações com maior rapidez, foram projetados calibradores de bocas escalonadas ou
de bocas progressivas.
O eixo deve passar no diâmetro máximo (Dmáx.) e não passar no diâmetro mínimo (Dmín.).
Sua utilização compreende dimensões de até 500 mm.

Calibrador chato
Para dimensões internas, na faixa de 80 a 260 mm, tendo em vista a redução de seu peso,
usa-se o calibrador chato ou calibrador de contato parcial.

Para dimensões internas entre 100 e 260 mm, usa-se o calibrador escalonado representado ao
lado.

Para dimensões acima de 260 mm, usa-se o calibrador tipo vareta, que são hastes metálicas
com as pontas em forma de calota esférica.

100
Calibrador de bocas ajustável
O calibrador de boca ajustável resolve o problema das indústrias médias e pequenas pela
redução do investimento inicial na compra desses equipamentos.
O calibrador ajustável para eixo tem dois ou quatro parafusos de fixação e pinos de aço
temperado e retificado. É confeccionado de ferro fundido, em forma de ferradura.
A dimensão máxima pode ser ajustada entre os dois pinos anteriores, enquanto a dimensão
mínima é ajustada entre os dois pinos posteriores.

Esse calibrador normalmente é ajustado com auxílio de blocos-padrão.

Calibrador tampão e anéis cônicos


As duas peças de um conjunto cônico podem ser verificadas por meio de um calibrador tampão
cônico e de um anel cônico.
Para a verificação simples do cone, tenta-se uma movimentação transversal do padrão.
Quando o cone é exato, o movimento é nulo. Em seguida, procede-se à verificação por atrito,
depois de ter estendido sobre a superfície do cone padrão uma camada muito fina de corante,
que deixará traços nas partes em contato. Por fim, verifica-se o diâmetro pela posição de
penetração do calibrador. Esse método é muito sensível na calibração de pequenas
inclinações.

101
Calibrador cônico morse
O calibrador cônico morse possibilita ajustes com aperto enérgico entre peças que serão
montadas ou desmontadas com freqüência.
Sua conicidade é padronizada, podendo ser macho ou fêmea.

Calibrador de rosca
Um processo usual e rápido de verificar roscas consiste no uso dos calibradores de rosca. São
peças de aço, temperadas e retificadas, obedecendo a dimensões e condições de execução
para cada tipo de rosca. O calibrador de rosca da figura a seguir é um tipo usual de calibrador
de anel, composto por dois anéis, sendo que um lado passa e o outro não passa, para a
verificação da rosca externa.
O outro calibrador da figura é o modelo comum do tampão de rosca, servindo a verificação de
rosca interna.
A extremidade de rosca mais longa do calibrador tampão verifica o limite mínimo: ela deve
penetrar suavemente, sem ser forçada, na rosca interna da peça que está sendo verificada.
Diz-se lado passa. A extremidade de rosca mais curta, não-passa, verifica o limite máximo.

102