Академический Документы
Профессиональный Документы
Культура Документы
Liliana Ferreira
Dep. Física, FCTUC, 2012/13
Índice (provisório)
5
6
Noções básicas sobre incerteza em
medidas experimentais
A ciência experimental mostra-nos que nenhuma medida, por mais cuidada que seja a
sua preparação e execução, está completamente livre de imprecisões e incertezas. Isso
verifica-se facilmente sempre que realizamos várias medidas de uma mesma quantidade. Na
generalidade dos casos essa série de medidas dá origem a resultados ligeiramente diferentes
uns dos outros. As imprecisões e incertezas que estão na origem dessa dispersão de valores
provêm:
Podemos afirmar, por isso, que nunca é possível conhecer o verdadeiro valor de uma
grandeza. Ainda assim, admitamos que esse verdadeiro valor existe e chamemos-lhe x0.
Assim, ao adotarmos xbest como a melhor estimativa do verdadeiro valor x0, devemos também
dar informação sobre o grau de confiança que temos nesse resultado. Em análise de dados
esse grau de confiança é traduzido pelo intervalo de valores à volta de xbest onde confiamos
estar o verdadeiro valor da grandeza, x0. 2 Esse intervalo é definido como a incerteza ou
erro 3, δx, que atribuímos à nossa estimativa, confiando que:
[1] É claro que, embora seja sempre aconselhável repetirmos várias vezes as medidas experimentais,
há situações em que apenas se pode realizar uma medição. É o caso de acontecimentos
astronómicos ou de experiências de elevado custo, complexidade ou duração.
[2] Veremos mais tarde que o próprio grau de confiança também deve ser quantificado. Em geral, não
temos 100% de confiança no intervalo que apresentamos!...
[3] Embora “incerteza” seja o termo mais adequado, é vulgar a utilização da palavra “erro” para
designar a incerteza experimental associada à medida da grandeza. Ambos os termos serão
utilizados em TLF.
7
.
Dito de outro modo, a incerteza numa medida traduz a probabilidade de o verdadeiro valor
da grandeza pertencer ao intervalo .
Por exemplo, se o tratamento de dados nos levar a concluir que xbest = 36.5 mm e δx = 0.4
mm, deveremos apresentar o resultado num dos formatos:
No último formato, o nº entre parêntesis significa que o nº imediatamente antes vem afetado
por esse valor de incerteza. Repare que a incerteza tem sempre a mesma unidade da
grandeza a que está associada.
Quando realizamos experiências, as medições efetuadas podem vir afetadas por dois
tipos de incerteza: erros sistemáticos e erros aleatórios.
8
Os erros acidentais estão associados a flutuações aleatórias dos resultados das
medidas, provenientes quer da aparelhagem quer do experimentador. Ao contrário dos erros
sistemáticos, este tipo de erros resulta de fatores incertos e ocasionais, variam em grandeza e
em sentido de modo aleatório e podem ser minimizados repetindo a medida várias vezes.
Exemplos de erros aleatórios que acontecem no decorrer de uma experiência são: variações da
temperatura ou da pressão atmosférica (correntes de ar); variações da tensão de alimentação
dos aparelhos; vibrações mecânicas (por exemplo, induzidas por camiões que passam na rua);
limitações da visão humana (na leitura de escalas, por ex.)).
A melhor estimativa do valor de uma grandeza cuja dispersão de valores medidos é
apenas causada por erros aleatórios é dada pela média desses valores; a sua dispersão é
caracterizada pelo desvio padrão. Estes conceitos serão trabalhados no próximo capítulo.
Figura 1.1 – a) Posicionamento correto para leitura de escala; b) posicionamento com erro de paralaxe.
∆t
∆t’ i = início real do movimento
L = instante em que o cronómetro liga
f = fim do movimento
1 2 D = instante em que o cronómetro pára
i f ∆t = duração do movimento real
L D ∆t’= intervalo de tempo medido pelo cronómetro
1 e 2 = atrasos devidos ao tempo de reflexo
(sendo 1 + 2 ≈ 0,16 s, no exemplo dado)
Os tratamentos estatísticos que serão considerados nestas notas dizem apenas respeito a
incertezas aleatórias.
Não esqueçamos, contudo, que deve ser dada muita atenção a possíveis fontes de erros
sistemáticos (à partida desconhecidos). Se os erros sistemáticos forem importantes podem
chegar a invalidar as conclusões que pretendemos tirar das nossas experiências. Não há
teorias simples que nos digam como proceder quanto a erros sistemáticos mas há duas
orientações muito sensatas:
Quando identificadas as fontes de erro sistemático, elas devem ser reduzidas até que as
incertezas que daí advêm sejam menores do que a precisão desejada.
Os termos precisão (ou rigor) e exatidão (ou fidelidade) 4 são também utilizados para
caracterizar os erros associados aos valores medidos experimentalmente.
A precisão (ou rigor) traduz quão bem determinado foi um resultado, sem o relacionar
com o verdadeiro valor da grandeza. A precisão é boa (ou o resultado rigoroso), quando os
erros acidentais são pequenos comparados com o valor medido δx << xbest. Por outro lado, a
exatidão (ou fidelidade) avalia quão perto o resultado está do verdadeiro valor. A exatidão é
grande (ou o resultado fiel) se os erros sistemáticos são pequenos.
A figura 1.3 ajuda a relacionar os quatro conceitos anteriores (erros sistemáticos, erros
aleatórios, precisão e exatidão), admitindo que o verdadeiro valor da grandeza é conhecido e
está situado no círculo mais interno de cada conjunto de circunferências. Como se pode ver
[4] Em inglês usam-se os termos precision e accuracy para precisão e exatidão, respetivamente.
10
nas figuras (b), (c) e (e), os erros sistemáticos originam conjuntos de medidas que estão
descentradas do verdadeiro valor, sendo má a exatidão. Contudo, se os erros acidentais ou
aleatórios cometidos forem pequenos (figuras (e) e (f)), originando valores pouco dispersos, a
precisão é boa.
Repare-se contudo que, como o verdadeiro valor da grandeza medida não é
conhecido, o resultado das nossas medições assemelha-se mais à figura 1.4, onde a dispersão
os ajuda a perceber se existiram ou não erros aleatórios mas não nos informa sobre a eventual
existência de erros sistemáticos. 5
(a) (b)
Figura 1.3
Figura 1.4
[5] Em muitas experiências que serão realizadas em TLF e noutras disciplinas, embora não se conheça
o verdadeiro valor de uma grandeza, conhece-se o seu valor esperado (quando se trata, por ex., da
aceleração da gravidade, da carga do eletrão, etc.), sendo por isso possível perceber a eventual
ocorrência de erros sistemáticos.
11
com a finalidade da experiência e a natureza das grandezas a medir e podem ser de tipo
analógico ou digital. São instrumentos analógicos, aqueles em que o valor da grandeza
medida envolve a leitura de uma escala (régua, termómetro, voltímetro, osciloscópio, etc.) e
são aparelhos digitais, aqueles que apresentam um mostrador digital, dando diretamente o
valor numérico da grandeza (relógio digital, termómetro digital, multímetro, osciloscópio
digital, etc.). Uma escolha e utilização corretas dos instrumentos de medida implica
conhecermos bem as suas características, nomeadamente, o seu intervalo de funcionamento
e a sua sensibilidade, e sabermos manuseá-los corretamente.
O intervalo de funcionamento diz respeito aos valores mínimo e máximo que é
possível medir com o instrumento. Dentro desse intervalo de funcionamento o fabricante
garante que a resposta do aparelho é fiável e que ele não se danifica. A sensibilidade do
aparelho está relacionada com a razão entre uma variação do estímulo (ou seja, da intensidade
do sinal que entra no aparelho) e da resposta (intensidade do sinal lido na escala ou no
mostrador digital). Um aparelho de elevada sensibilidade varia muito a resposta fornecida no
mostrador quando o sinal à entrada varia pouco. Muitas vezes usa-se também o termo
resolução do aparelho para designar a sua capacidade de discriminar (distinguir) pequenos
sinais: é a variação mínima do sinal à entrada do aparelho que provoca uma variação
percetível na resposta do mesmo.
Outro cuidado muito importante na utilização de instrumentos de medida é que se
verifique (sempre que possível) se eles estão bem calibrados. A calibração de um aparelho é
precisamente a operação ou conjunto de operações que estabelecem a correspondência correta
entre os valores indicados no mostrador do aparelho e a intensidade da grandeza física que se
pretende medir com ele. Como já referimos, quando um instrumento de medida não está bem
calibrado (por exemplo, quando um voltímetro tem o zero mal ajustado e indica o valor
0.00 volts para uma tensão contínua à entrada que na realidade é de 0.01 volts) todos os
valores medidos virão afetados por esse erro sistemático (neste caso, por defeito). O bom
funcionamento e calibração do aparelho e o seu correto manuseamento são, portanto,
condições essenciais para evitar erros sistemáticos no processo de medição.
Admitindo então que os instrumentos de medida estão bem calibrados e funcionam
corretamente, como podemos avaliar a incerteza associada à medição com determinado
instrumento? 6
Medida analógica
Contudo, por vezes as escalas têm as divisões bastante espaçadas e é possível dividi-las
visualmente em mais do que duas partes, ou são tão pequenas que não é possível perceber se o
[6 ] Refere-se aqui “incerteza associada à medição com determinado instrumento” porque, como já
foi referido, o ato de medir envolve não só o instrumento mas também o operador.
12
ponteiro ou o ponto de medida está para cá ou para lá do meio da menor divisão. Nesses
casos, a “sensatez” aconselha que se tome como incerteza o menor valor que defina um
intervalo de erro que “dê confiança” à medida realizada; pode ser a menor divisão (e não
metade) se a divisão for muito pequena; pode ser ¼ da menor divisão se conseguirmos dividi-
la visualmente em 4 partes, etc.
Medida digital
Figura 1.6 – Incerteza associada: metade de uma unidade no algarismo menos significativo do
mostrador, ou seja, metade de 0.01 (= 0.005).
Figura 1.7 – Fixando as posições do objeto (lâmpada) e da lente, é muitas vezes difícil obter uma
imagem bem focada do objeto, verificando que há um pequeno intervalo de valores da régua ótica
dentro das quais a imagem parece nítida.
Quase todas as medições diretas envolvem a leitura de uma escala (digital ou analógica)
e a incerteza associada pode ser estimada facilmente, a partir das caraterísticas da escala e da
maior ou menor facilidade de leitura, como vimos.
Contudo, há um outro tipo de medidas diretas cuja incerteza associada é de natureza
diferente. Trata-se de experiências que requerem a contagem de acontecimentos que
ocorrem aleatoriamente no tempo mas a uma taxa média bem definida. Ou seja, a
ocorrência do instante em que se dá um acontecimento não é previsível (é aleatória) mas o
número médio de acontecimentos que ocorre num determinado intervalo de tempo pode ser
definido. O exemplo mais conhecido deste tipo de experiência é o decaimento radioativo 8.
Cada núcleo de um material radioativo decai num instante aleatório mas, para a amostra como
um todo, pode definir-se uma taxa média de decaimento.
Para encontrar essa taxa média de decaimento basta contar o número ν de
decaimentos num dado intervalo de tempo ∆t conveniente. A incerteza nesta contagem
direta é simplesmente dada pela quantidade
ν. (1.3)
[7] Se nos limitarmos às características dos instrumentos de medição para avaliarmos os erros
associados a uma medida quando existirem outras fontes de erro, as incertezas poderão vir
subestimadas. Por exemplo, ao medirmos uma única vez a posição do extremo de uma mola,
subestimaremos o erro se apenas considerarmos a incerteza associada à régua no caso de a mola
oscilar ligeiramente, dificultando a leitura da posição do seu extremo. Contudo, também não
devemos sobrestimar os erros, pois corremos o risco de tornar as medidas inúteis. (Lembremos a
medida do Artur, no caso da coroa falsa!)
[8] Outro exemplo conhecido é a contagem do nº de bebés que nasce por mês num determinado
hospital.
14
Nº médio de acontecimentos no intervalo de tempo ∆t = ν ± ν . (1.4)
2) Se não houver ponto (vírgula) decimal, o dígito mais à direita que não seja zero é o dígito
menos significativo.
(5 no 1º exemplo)
3) Se houver ponto (vírgula) decimal, o dígito mais à direita é o dígito menos significativo,
mesmo que seja um zero.
(0 no 2º exemplo; 1 no 3º)
4) Todos os dígitos situados entre o mais e o menos mais significativo (inclusive) são dígitos
significativos.
Outros exemplos: 1234, 123400, 123.4, 1001, 10.10, 0.0001010 são números com 4 dígitos
significativos; 3.20x102 tem 3 dígitos significativos; 320 tem apenas 2
dígitos significativos.
Com quantos algarismos significativos deve ser apresentado o valor de uma incerteza?
2) Num resultado final, não devemos apresentar mais do que dois algarismos significativos.
Muitos autores e tabelas de dados publicados seguem a seguinte orientação para resultados
finais: para incertezas cujos dígitos mais significativos sejam menores ou iguais a 35 usam
dois dígitos significativos; para incertezas superiores a 35 usam apenas um algarismo
significativo.
Em resultados finais:
Adições e subtrações
O resultado final terá o mesmo número de casas decimais significativas da parcela que tiver o
menor número delas:
Produtos, divisões
16
4.573 x 0.6 = 2.74 = 3 4.573 : 0.60 = 7.62 = 7.6 6.73 = 300.76 = 3.0x102
Lembremos também que, em cálculos, os valores intermédios devem sempre manter mais
algarismos do que o número de algarismos significativos estritamente necessário, para que os
erros por arredondamento sejam minimizados.
Por exemplo:
4.50 × 2.6 / 4.5 = 1.170 / 4.50 = 2.60 = 2.6
Além disso, as constantes matemáticas são consideradas exatas e, quando tal tem sentido,
devem ser sempre utilizadas com mais algarismos significativos do que a parcela com menor
número de algarismos significativos.
Por exemplo:
y = 2x x = 1.576 => y = 3.152
Imaginemos que foram realizadas várias medidas do valor de uma mesma resistência
elétrica por dois métodos diferentes (A e B). Cada um dos conjuntos de medidas realizadas
por cada um dos métodos foi devidamente tratado, tendo-se chegado aos seguintes resultados
finais apresentados a seguir sob a forma xbest ± δx:
Método A: R = 15 ± 1 Ω (εr = 7%)
17
Método B: R = 25 ± 2 Ω (εr = 8%),
Define-se discrepância entre os dois resultados como o valor da diferença entre os dois
melhores valores correspondentes (neste exemplo, a discrepância = 25 – 15 = 10 Ω).
Considera-se que a discrepância é significativa quando o seu valor é maior do que a
combinação das incertezas das duas medidas. É o que acontece neste caso, uma vez que a
soma das incertezas dá 3 Ω, sendo, portanto, menor do que a diferença encontrada. Isto
indica-nos que pelo menos uma das medidas está incorreta (embora, repare-se, os erros
relativos sejam aceitáveis…).
Consideremos agora outros dois métodos (C e D), que conduziram aos seguintes resultados
finais:
Método C: R = 16 ± 8 Ω (εr = 50%)
Figura 1.9
(Ref. Bibliográfica [2])
Neste caso (fig. 1.9-(b)), a discrepância tem o mesmo valor (26 – 16 = 10 Ω) mas é
considerada não-significativa, uma vez que as margens de erro se sobrepõem (8 + 9 = 17 >
10). Embora os resultados sejam bastante mais imprecisos do que no caso (a) (repare-se que
os erros relativos são grandes!), não há razão para duvidarmos deles. Ambos podem estar
certos.
Conclui-se, portanto, que a discrepância entre duas medidas não deve ser ponderada
apenas pela diferença entre os seus melhores valores mas, e mais importante, por quão grande
a discrepância é quando comparada com as incertezas que afetam esses melhores valores.
18
1.9. Diferença relativa entre medidas experimentais e constantes físicas
Outra situação que acontece com frequência em trabalhos laboratoriais que pretendem
ilustrar as leis da Natureza é a realização de experiências para medirmos grandezas já bem
estabelecidas e publicadas, como a aceleração da gravidade, a carga do eletrão, a temperatura
do zero absoluto, a constante universal dos gases, etc. Essas grandezas são tomadas como
constantes físicas mas, na verdade, foram também determinadas experimentalmente e,
portanto, há sempre incerteza experimental associada aos seus valores. Contudo, como se
trata de experiências já muitas vezes repetidas, com metodologias e instrumentação de
elevada sensibilidade e criteriosamente selecionadas, os níveis de precisão e exatidão
atingidos são muito elevados e a incerteza experimental é muito pequena. Assim, para todos
os fins práticos, esses valores podem ser tomados como constantes.
Então, quando obtemos resultados experimentais (medidos direta ou indiretamente)
dessas constantes físicas devemos compará-los do seguinte modo
ii) Se o intervalo experimental não contém o valor esperado, podemos então analisar a
diferença relativa
x best − x esp
.
x esp
19
20
Capítulo II
Análise estatística
de incertezas aleatórias
21
22
Análise estatística
de incertezas aleatórias
2.1. Determinação do melhor valor: a média
Como foi referido no capítulo anterior, uma das formas de aumentar o grau de confiança
no valor resultante da medida de determinada grandeza é repetirmos várias vezes essa medida
nas mesmas condições experimentais. Verifica-se, regra geral, que os valores obtidos nas
diferentes medições diferem entre si. Como devemos então proceder para escolher o valor que
melhor representa essa grandeza, aquele que estará mais perto do idealizado verdadeiro
valor?
Comecemos por sublinhar mais uma vez que uma correta utilização do tratamento
estatístico dos dados obtidos exige que as incertezas de tipo sistemático associadas à
aparelhagem, metodologia, etc., tenham sido reduzidas ao mínimo. Se assim for, a dispersão
de valores encontrada, e devida apenas a erros de tipo aleatório, deve estar centrada no
verdadeiro valor da grandeza 10 e os resultados das diferentes medidas podem ser analisados
recorrendo a métodos estatísticos.
∑x i
x= i =1
. (2.1)
N
Ilustremos com um exemplo. Numa dada experiência, tendo reduzido a um nível desprezável
os erros sistemáticos, realizámos várias medidas de um determinado comprimento L e
obtivemos a seguinte amostra de resultados:
Tabela 2.1
Li (mm) 72 73 71 72 73
Depois da análise do instrumento de medida utilizado, pareceu razoável tomar-se como erro
de leitura a incerteza de 1 mm.
Então, de acordo com o que foi dito acima, o melhor valor para representar a grandeza L é o
valor médio dos resultados das medidas efetuadas, ou seja,
No exemplo escolhido, admitimos que a incerteza associada a cada medida efetuada foi
a correspondente à precisão do aparelho de medida, ou seja, 1 mm. Digamos que se trata de
uma incerteza estimada à partida, antes de qualquer cálculo estatístico sobre um número
razoável de medidas efetuadas nas mesmas condições. Haverá maneira de avaliarmos, depois
das medidas realizadas, se essa incerteza foi bem escolhida ou se, pelo contrário, a
imprecisão cometida na medição terá sido superior (ou muito inferior) à precisão do
instrumento?
Sendo a repetição de medidas a melhor maneira de reduzir o efeito dos erros aleatórios,
a dispersão dos valores obtidos deve dar-nos uma ideia da precisão com que efetuámos essas
medidas. Comecemos então por avaliar a dispersão dos valores medidos em torno do valor
médio calculado, determinando a diferença entre o valor obtido em cada medida e esse valor
médio:
xi − x = d i . (2.2)
A diferença, di, designada por desvio ou resíduo, informa sobre quanto a medida xi se afasta
do valor médio. É fácil percebermos que se os desvios são grandes isso significa que os
pontos estão muito dispersos uns dos outros, ou seja, que a amostra é pouco precisa. Pelo
contrário, se os desvios são pequenos, a dispersão das medidas é pequena e a precisão é boa.
Então, se somarmos todos os desvios e dividirmos a soma pelo nº de medidas obtemos um
desvio médio, d , que poderíamos usar como forma de avaliar o erro médio associado a cada
medida da nossa amostra:
N
∑d i
d = i =1
.
N
Tabela 2.2
Medida Li (mm) di (mm)
1 72 0.2
2 73 -0.8
3 71 1.2
4 72 0.2
5 73 -0.8
5
L = 72.2 mm ∑d
i =1
i =0
[11] Repare-se que a média tem mais algarismos significativos do que cada um dos valores medidos.
Tal é aceitável uma vez que se considera que a média é uma estimativa melhor do verdadeiro valor
da grandeza do que qualquer um dos valores individuais. Ainda assim, a razoabilidade da precisão
do valor final depende da incerteza associada a esse valor. A incerteza da média será determinada
no ponto 2.4.
24
A Tabela 2.2 mostra que a soma dos desvios é nula
e, assim sendo, a média dos desvios não é uma
quantidade útil para caracterizar a incerteza média
dos resultados! De facto, tal acontece pela própria
definição de média, que assegura que di umas vezes
é positivo e outras negativo de forma a que ∑ d i
i
seja zero 12.
Outra possibilidade, de avaliação mais direta,
seria estimarmos a incerteza nas medidas
a posteriori (ou seja, depois das medidas efetuadas)
tomando o desvio máximo obtido, em vez de
fazermos a média dos desvios. Repare-se, contudo,
que no exemplo da medida dos comprimentos esse
desvio dmax (= 1.2 mm, tabela 2.2) é superior à
estimativa inicial de 1 mm (correspondente à
precisão do aparelho) e que os outros 4 valores
medidos têm desvios inferiores a 1 mm. Façamos
uma abordagem mais geral.
Imaginemos que aumentamos o nº de
medidas efetuadas, primeiro para 50, depois para
100 e finalmente para 1000 medidas. A figura 2.1
contém quatro gráficos de barras, também
conhecidos por histogramas, que representam o nº
de vezes que obtemos cada um dos valores
medidos (nº de ocorrências). A figura ilustra bem a
forma como os valores medidos na amostra de 5,
50, 100 e 1000 medições se vão dispersando
(distribuindo) à medida que o número de medições
aumenta. Repare-se que, com o aumento desse
número, a dispersão de resultados estende-se até
valores extremos mais afastados do centro da
distribuição, ao passo que as medições com
resultados mais próximos desse valor central são
obtidas mais vezes. Percebe-se assim que tomar o
desvio máximo como incerteza a posteriori
constitui uma sobrevalorização inadequada da
imprecisão da medida, tanto mais exagerada
quanto maior for nº de medidas. Precisamos,
portanto, de um parâmetro que dependa de todas as
medidas e não só dos valores extremos obtidos.
N N N N N N ∑x i
[12] Como se comprova: ∑ d = ∑ (x
i =1
i
i =1
i − x ) = ∑ x i − ∑ x = ∑ x i − Nx = ∑ x i − N
i =1 i =1 i =1 i =1
i =1
N
=0
25
N
∑d
i =1
i
2
.
N
∑d i
2
σ x2 = i =1
, (2.3)
N
∑d i
2
σx = i =1
. (2.4)
N
Pelas unidades da grandeza medida (milímetros quadrados, no exemplo dado), vê-se que a
variância não pode ser diretamente associada aos resultados das medidas. O desvio padrão,
pelo contrário, tem as mesmas unidades da grandeza em causa.
Façamos um reparo importante às fórmulas 2.3 e 2.4. Na verdade, elas dizem respeito à
variância e ao desvio padrão de uma população, ou seja, de um conjunto inumerável de
medidas, e não de uma amostra, o conjunto finito de medidas que, de facto, realizamos.
Vejamos porquê. Quando o universo de valores medidos é infinito, o valor médio e o desvio
padrão são dois parâmetros independentes entre si e o cálculo de um não retira graus de
liberdade à determinação do outro. 13 Contudo, quando realizamos um conjunto finito de N
medidas e calculamos o valor médio correspondente, o número de graus de liberdade
(inicialmente N, de N medidas independentes umas das outras), passa a ser de N-1 depois do
cálculo da média, uma vez que aquele conjunto de N dados passou a estar relacionado pelo
valor da média. N-1 é portanto o número de graus de liberdade disponível quando se efetua o
cálculo da variância ou do desvio padrão. Demonstra-se que o denominador das fórmulas 2.3
e 2.4 corresponde ao nº de graus de liberdade, o que justifica a substituição de N por N-1
quando trabalhamos com uma amostra. A variância e o desvio padrão de uma amostra
devem, portanto, ser definidos por:
∑ (x − x )
i
2
variância da amostra = σ x2 = i =1
(2.5)
N −1
∑ (x i − x)
2
[13] – O número de variáveis não constrangidas de um sistema (ou seja, que podem variar livremente) é
conhecido por número de graus de liberdade do sistema. Nesta situação, em que queremos avaliar o valor de
determinado parâmetro, o nº de graus de liberdade corresponde ao nº de medidas independentes que contribuirão
para fazer uma estimativa desse parâmetro. Regra geral, podemos dizer que o nº de graus de liberdade (d) é
igual ao nº de dados independentes usados na estimativa (N) menos o nº de parâmetros usados na estimativa que
tenham sido já determinados a partir do mesmo conjunto de dados (c): d = N – c. c é também conhecido como nº
de constrangimentos.
26
Repare-se que, fazendo uma análise meramente qualitativa, esta alteração corrige a tendência
das equações 2.3 e 2.4 para subestimarem a incerteza quando o nº de medidas é pequeno. Essa
tendência pode ser compreendida se tomarmos o caso extremo (e absurdo) de N = 1. Quando
só há uma medida, a média é igual ao próprio valor e a incerteza é nula, o que está,
evidentemente, incorreto. Todas as medidas experimentais vêm afetadas por certo grau de
incerteza! Com a divisão por N-1 obtém-se o valor indeterminado 0/0, refletindo corretamente
a nossa ignorância sobre a incerteza quando realizamos apenas uma medida.
Note-se, para terminar este ponto, que a diferença entre o resultado das equações 2.3 e 2.5 ou
2.4 e 2.6 é pequena, como pode ser facilmente verificado, e tanto mais pequena quanto maior
for o número de medidas N. 14
Tabela 2.3
σ L2 (mm2) σ L (mm)
2 2
Medida Li (mm) d (mm )
i
1 72 0.04
2 73 0.64
3 71 1.44 0.700 mm2 0.837 mm
4 72 0.04
5 73 0.64
5
L = 72.2 mm ∑d
i =1
i
2
= 2.80 mm2
Resumindo, o desvio padrão traduz a incerteza média que caracteriza a amostra das N
medidas e cada uma das medidas individuais realizadas. Começámos por estimar como
incerteza associada a cada valor medido 1 mm. Contudo, ao ter em conta a dispersão dos
dados experimentais, o desvio padrão mostra-nos que, estatisticamente, o erro médio
cometido em cada medida foi menor, foi de cerca de 0.84 mm.
Como será desenvolvido num próximo capítulo, pode mostrar-se que quando as
medidas de uma quantidade x (repetidas muitas e muitas vezes) estão sujeitas a variações
pequenas, independentes e aleatórias, em qualquer dos sentidos, a dispersão dos valores
medidos em torno do seu valor médio, x , é bem reproduzida por uma curva envolvente
designada por distribuição Normal ou Gaussiana – também vulgarmente conhecida como
distribuição em forma de sino (Fig. 2.2). Veremos que o desvio padrão dos valores medidos
tende (à medida que aumenta o número de medidas) para a largura dessa curva envolvente 15
e que aproximadamente 68% dos valores medidos se situam dentro do intervalo [ x ± σx]. Isto
[14] Atenção às máquinas de calcular. As mais completas têm as duas definições (divisão por N e por
N-1) mas quando disponibilizam apenas uma das fórmulas é necessário perceber qual a definição
utilizada. Atenção, também, na utilização de software para cálculo estatístico.
[15] Na verdade, é o dobro do desvio padrão que tende para a largura da Gaussiana, tal como definida
na figura 2.2.
27
significa que se fizermos uma nova medida de x nas mesmas condições experimentais, há
68% de probabilidade de esse novo resultado cair no intervalo [ x ± σx].
Doravante, sempre que fizermos várias medidas de uma grandeza x adotaremos σx
como estimativa da incerteza ou erro nas medidas, ou seja, consideraremos δx = σx, não
esquecendo que a probabilidade do intervalo [xi ± σx] conter o verdadeiro valor da grandeza é
também de 68%.
Figura 2.2 – Histograma do número de medidas da grandeza x (dividido por 10 mil) e curva contínua
envolvente (função Gaussiana).
Se agora medirmos uma vez o valor da constante elástica de uma 2ª mola e obtivermos o valor
84 N/m, uma vez que as molas são idênticas, podemos tomar a incerteza como
δK = σK = 2.2 N/m
e estabelecer, com 68% de confiança, que o valor da constante elástica da 2ª mola está no
intervalo
84.0 ± 2.2 N/m.
28
2.4. Incerteza na incerteza
Uma vez que à medida que aumentamos o número de medições de uma dada grandeza
x, o desvio padrão se aproxima cada vez mais da largura da distribuição Gaussiana para a qual
tende o histograma experimental (fig. 2.2), podemos considerar que o desvio padrão é uma
estimativa da verdadeira largura da distribuição Gaussiana 16. Qual a incerteza associada a
essa estimativa? Ou seja, qual o grau de confiança que podemos ter no próprio desvio padrão?
É possível mostrar que a incerteza relativa em σx é dada por:
δσx 1
= . (2.7)
σx 2( N − 1)
Embora não demonstremos este resultado, ele torna clara a necessidade de numerosas
medições para que a incerteza na medida de uma grandeza possa ser determinada com um
grau de confiança aceitável. Por exemplo, se realizarmos apenas 3 medições de uma dada
grandeza nas mesmas condições experimentais (N = 3), a definição 2.7 mostra que o desvio
padrão 17 é 50% incerto! O procedimento muitas vezes usado nos trabalhos práticos de TLF é
δσx
o de repetir 5 vezes cada medição. Neste caso, = 0.35 . Ou seja, mesmo com 5 medidas,
σx
ainda há 35% de incerteza sobre o desvio padrão calculado com base das medidas realizadas!
[16] A verdadeira largura seria aquela que obteríamos se realizássemos um nº infinito de medidas.
[17] Mais uma vez, o desvio padrão corresponde a uma incerteza média que afeta os valores medidos
experimentalmente. Essa incerteza média é determinada a posteriori, depois de analisados
estatisticamente os valores obtidos experimentalmente. Pelo contrário, podemos chamar incerteza a
priori àquela que atribuímos aos valores medidos experimentalmente e que é estimada apenas a
partir das características do instrumento de medida utilizado e da análise das condições de medida,
ou seja, sem realizar qualquer cálculo estatístico. Quando a estimativa inicial é boa os dois valores
estão próximos.
29
amostra de 10 e 50 medidas, respetivamente. Assim, em (C) estão representados os resultados
de 250 valores médios e em (D) os resultados de 50 valores médios.
4 quisermos aumentar 10
2 vezes a precisão da
0 média, teremos que
0 20 40 60 80 100
N multiplicar N por 100!
Propagação de incertezas
independentes e aleatórias
31
32
Propagação de incertezas
Como sabemos, muitas vezes não é possível medir diretamente determinadas grandezas
físicas (por exemplo, por não termos os aparelhos adequados disponíveis) e só se podem
conhecer os valores dessas grandezas a partir de outras grandezas com elas relacionadas.
Nesses casos:
33
Figura 3.1 – Representação gráfica da função f(x), ilustrando como partir de xbest ± δx para obter
fbest ± δf.
Conclui-se, portanto, que a aplicação da função f(x) a xbest e aos extremos do intervalo
xbest ± δx, permite obter diretamente fbest ± δf.
Repare-se que, no exemplo ilustrado no gráfico da figura 3.1, o erro simétrico que afeta
xbest (± δx) deu origem a uma incerteza que também parece simétrica em fbest (± δf). Contudo,
se f(x) for não-linear e a incerteza δx não for muito pequena 18, é muito possível que a
incerteza propagada não seja simétrica, ou seja,
[18] Pequeno e grande são dois termos relativos. Pequeno (ou grande) relativamente a quê?
Relativamente ao valor da próprio valor da grandeza! Medir o comprimento de uma sala de 5 m
com uma incerteza de 1 m correspondente a um erro relativo de 20%, o que não pode ser
considerado bom! Medir a distância entre a Coimbra e Porto (~117 km) com a mesma incerteza
de 1 m corresponde a um erro relativo de ~9x10- 4 %, o que é muito bom! Portanto, é o erro
relativo, e não o erro absoluto, que deve ser analisado para percebermos se os erros são grandes
ou pequenos.
34
Vejamos um exemplo: medida experimentalmente a grandeza Z = 2.20 ± 0.10 (εr = 4.5%)
pretende-se calcular a quantidade R = eZ:
Então .
Então .
Sabemos do cálculo diferencial que, para qualquer função f(x) contínua e diferenciável
num determinado intervalo e para qualquer pequena variação ∆x à volta de x (por exemplo,
para qualquer pequena variação δx à volta de x = xbest) se tem:
f ( x + ∆x ) − f ( x ) df
lim = . (3.1)
∆x →o ∆x dx
Sendo a variação ∆x pequena mas não nula, podemos recorrer à fórmula de Taylor, 19
2 n
f (x + ∆x ) = f ( x ) + ∆x + (∆x ) ( )
df 1 2 d f 1 n d f
+ ... + ∆x (3.2)
dx 2! dx 2 n! dx n
f (x + ∆x ) − f ( x) ≈
df
∆x . (3.3)
dx
Tomando agora x ≡ xbest e ∆x ≡ δx, vimos, pela figura 3.1, que δf = f(xbest + δx) – f(xbest).
Então, desde que a incerteza δx seja pequena (e assumimos que é), a comparação entre δf e a
expressão (3.3) dá
[19] O teorema de Taylor permite expandir uma função f(x), contínua e de derivadas contínuas num
certo intervalo, numa série de potências em x dada pela fórmula 3.2.
35
df
δf = δx ,
dx
Por outro lado, recorrendo à figura 3.2 e à definição de derivada (eq. 3.1) como o declive da
reta tangente à função f(x) no ponto xbest, vê-se que nesse ponto o declive é negativo, como já
referido. Assim, nesse caso
df
δf = − δx .
dx
Generalizando, podemos então definir que a incerteza numa qualquer função f(x), quando a
incerteza em x é pequena e aleatória, é dada por:
df
δf = δx (3.4)
dx
Repare-se que a incerteza propagada por este método é sempre simétrica, ou seja, tem-se
sempre que δf- = δf+ .
A B
Figura 3.3 – A) Representação gráfica da função f(x) e da sua tangente no ponto x = xbest; B)
Ampliação de f(x) na vizinhança do ponto P, para x > xbest.
Como se pode perceber na ampliação da figura 3.3-B, devido à existência da incerteza δx que
afeta xbest, o valor de fmax (= f(xbest + δx) deveria corresponder ao ponto S da função f. Contudo,
como estamos a aproximar a curva f pela reta tangente no ponto x = xbest, fmax será aproximado
pelo ponto R sobre a reta tangente e não pelo ponto S sobre f. Por simples inspeção do
36
gráfico, é fácil admitir que quando mais pequena for a incerteza δx, menor será a diferença
entre o δf correto (indicado na figura) e o δf aproximado fornecido pelo cálculo diferencial.
Tabela 3.1
df
f(x) δf
dx
Para terminar esta secção apliquemos esta metodologia ao exemplo do ponto anterior.
dR
δR = δZ = e Z δZ .
dZ
Então .
Se Z = 2.20 ± 0.01:
Então .
[20] Ou seja, por exemplo, sempre que a incerteza na medida de uma das grandezas é positiva
(incrementa o valor da grandeza), a incerteza na medida da outra também é positiva (também
aumenta o valor da grandeza).
37
3.2.1. Propagação de incertezas usando a relação funcional
(3.6)
Vejamos agora como calcular a propagação do erro dos valores medidos para o valor
calculado utilizando o cálculo diferencial. Vamos explicitar a fórmula para o caso da função Z
38
depender apenas de duas grandezas, X e Y, e no final apresentaremos a fórmula geral aplicável
a qualquer número de variáveis.
Para determinar δZ aplicamos a expansão de Taylor (eq. 3.2) a cada um dos termos
definidos pelos parêntesis retos da relação 3.5. Assim, quando as variáveis X e Y sofrem, de
forma independente e aleatória, pequenos incrementos δX e δY, Z varia segundo:
∂Z 1 ∂2Z 1 ∂nZ
Z ( X + δX ,Y ) = Z ( X ,Y ) + δ + (δ ) + + (δX )n
2
X X ...
∂X Y 2! ∂X 2 Y n! ∂X n Y (3.7)
e
∂Z 1 ∂2Z 1 ∂nZ
Z ( X ,Y + δY ) = Z ( X ,Y ) + δY + 2 (δY ) + ... + n (δY )
2 n
∂Y X 2! ∂Y X n! ∂Y X . (3.8)
∂Z ∂Z
e são as derivadas parciais de 1ª ordem de Z em ordem a X e Y, mantendo Y e
∂X Y ∂Y X
X constantes, respetivamente, e as restantes derivadas são derivadas parciais de ordem
superior. Sendo δX e δY incertezas de pequena magnitude, as derivadas de ordem igual e
superior a 2 são desprezáveis relativamente às de 1ª ordem. Assim, as equações 3.7 e 3.8
correspondem à propagação parcial dos erros em Z devido a X e a Y:
∂Z
Z ( X + δX ,Y ) − Z ( X ,Y ) ≈ δX
∂X Y , (3.9)
∂Z
Z ( X ,Y + δY ) − Z ( X ,Y ) ≈ δY
∂Y X . (3.10)
2 2
∂Z ∂Z
δZ = δX + δY . (3.11)
∂X Y ∂Y X Figura 3.5
2 2 2
∂Z ∂Z ∂Z
δZ =
2
δA + δB + δC + ... (3.11)
∂A B ,C ,... ∂B A ,C ,... ∂C A ,B ,...
39
3.2.3. Exemplos de aplicação para funções de duas variáveis
Soma ou diferença
2 2
∂Z ∂Z
δZ =
2
δX + δY
∂X Y ∂Y X .
Multiplicação ou divisão
∂X Y ∂Y X
2 2
δZ δX δY
= + . (3.13)
Z X Y
[21] Repare-se que só é possível somar incertezas se elas se referirem à mesma grandeza física. Caso
contrário, como tantas vezes acontece, as incertezas usadas deverão ser as relativas, ou seja, as
parcelas devem ser adimensionais. É o que está garantido na relação 3.13.
40
f(x,y,z,u) ± δf
definida por
x( y − z )
f = .
cos u
Para tal podemos proceder ao cálculo da incerteza por etapas, através dos passos seguintes:
1) δu → δ(cos u)
2) δy e δz → δ(y – z)
3) δx e δ(y – z) → δ[x(y – z)]
4) δ[x(y – z)] e δ(cos u) → δ[x(y – z)/cos u)] = δf
x + y2
f = ,
3z + x
onde a variável x aparece mais do que uma vez. Se calcularmos δf por etapas, determinamos
as incertezas de x + y2 e 3z + x separadamente, e só depois a incerteza no quociente. Contudo,
ao proceder deste modo, não precavemos a possibilidade de erros em x no numerador
poderem ser cancelados por erros em x no denominador. Este efeito é por vezes designado por
erro de compensação. Se, por exemplo, δx estiver sobrestimado, o resultado final da
determinação da incerteza por passos amplificará essa sobrestimativa do erro. A solução é
determinar a incerteza total de uma única vez, recorrendo à fórmula geral de propagação de
erros.
41
42
Capítulo IV
Histogramas
e
curvas de distribuição
43
44
Histogramas e curvas de distribuição
Uma análise estatística séria requer, em geral, um número apreciável de dados. Quando
esse número é significativo, um modo vantajoso de os apresentar consiste na construção de
um histograma (ou gráfico de barras), como fizemos no capítulo II.
Tabela 4.1
xi – resultados de N = 10 medidas do comprimento x
xi (cm) 25 23 24 26 28 25 24 26 26 24
Estes mesmos resultados podem ser organizados de acordo com o número de vezes nk que
cada resultado xk acontece, tornando a avaliação dos dados mais imediata (Tabela 4.2):
Tabela 4.2
xk – resultados do comprimento x; nk – nº de vezes que se obteve o resultado xk
xk (cm) 23 24 25 26 27 28
nk 1 3 2 3 0 1
Tendo em conta esta nova forma de organizar os resultados, o seu valor médio pode ser
reescrito utilizando os nk e xk:
∑x i ∑x nk k
x= i
= k
. (4.1)
N N
A nova fórmula da média é designada por média pesada, visto que cada valor xk é “pesado”
pelo nº de vezes que acontece, nk:
23 + (24 × 3) + (25 × 2 ) + (.26 × 3) + 28
x= .
10
O nº de vezes, nk, que um dado resultado xk foi obtido pode ser apresentado como uma
fração do nº total de medidas N. Este novo parâmetro é designado por frequência de xk e
define-se, portanto, como:
n
Fk = k , (4.2)
N
45
Em termos de Fk, a média pode agora reescrever-se como:
x = ∑ xk Fk , (4.3)
k
sendo, portanto, a soma de todos os diferentes valores xk, cada um pesado pela sua frequência
nk
Fk. O resultado ∑n
k
k = N e a definição Fk =
N
implicam que
∑F k
k = 1. (4.4)
Tabela 4.3
xk – resultados do comprimento x; nk – nº de vezes que se obteve o resultado xk;
Fk – frequência de cada xk
N = ∑ nk ∑F k
xk (cm) 23 24 25 26 27 28
nk 1 3 2 3 0 1 10
0,30
N = 10
0,25
0,20
Fk 0,15
0,10
0,05
0,00
23 24 25 26 27 28
x (cm)
vi) Conta-se o número de valores medidos (do tempo) que caiem em cada um dos
intervalos escolhidos: (Tabela 4.4).
vii) Finalmente, representam-se os resultados através de um histograma ou gráfico de
barras: (Figura 4.2).
Tabela 4.4
∆k – intervalos de valores, com largura 0.03 s; nk – nº de vezes que se obteve um tempo dentro do
Fk
intervalo ∆k; Fk – frequência de cada ∆k; f k = .
∆k
k 1 2 3 4 5 N = ∑ nk ∑F k
Neste tipo de histograma, a frequência de cada intervalo ∆k continua a ser dada pela razão n k ,
N
mas corresponde à área de cada coluna da figura 4.2, ou seja,
n
Fk = k = f k ∆ k . (4.5)
N
47
fk é a grandeza que surge na ordenada do gráfico e a partir da equação 4.5 vê-se que
nk
corresponde a f k = .
N∆ k
18
N = 50
16
14
12
-1
fk (s ) 10
8
6
4
2
0 0,91 0,94 0,97 1,00 1,03 1,06
∆κ (s)
48
18
N = 50 N = 500
16 12
14 10
12
8
fK (s-1) 10 fK (s-1)
8 6
6 4
4
2
2
0 0
0,91 0,94 0,97 1,00 1,03 1,06 0,91 0,95 0,99 1,03 1,07
∆Κ (s) ∆Κ (s)
a) b)
N = 5000
10
fK (s-1) 6
0
0,91 0,94 0,97 1,00 1,03 1,06
∆Κ (s)
c)
Figura 4.3 – Variação da distribuição de frequências do tempo de queda de um corpo com o
aumento do nº de medidas: a) N = 50; b) N = 500; c) N = 5000.
Designemos por f(x) a função que representa a distribuição limite associada à grandeza
x. O significado dessa função será compreendido com a ajuda da figura 4.4.
Figura 4.4 – Distribuição limite da grandeza x: (a) intervalo de largura dx; (b) intervalo de largura
[a, b].
Como vimos anteriormente, num histograma a área de cada coluna é dada pelo produto
f k ∆ k e essa área corresponde à frequência das medidas que caem no intervalo ∆k. Com a
função contínua f(x), vamos considerar um intervalo infinitesimal de largura dx, ou seja
compreendido entre x e x+dx. A frequência das medidas que caem nesse intervalo
49
infinitesimal é igual à área f(x)dx sombreada na figura 4.4-a). Ou seja, f ( x)dx dá-nos a
fração de medidas (frequência) que cai no intervalo [x, x+dx].
Então, generalizando, a frequência das medidas que caem entre dois valores a e b da
grandeza x é dada pela área do gráfico definida pela função f(x) e compreendida entre x = a e
x = b (área sombreada da figura 4.4-b)). Ora essa área corresponde ao integral de f(x) entre a e
b, como sabemos. Temos assim o importante resultado:
b
∫ a
f ( x)dx = frequência esperada das medidas que se situam entre x = a e x = b.
Usamos o termos “frequência esperada” para lembrar que se trata da frequência que
esperaríamos obter se realizássemos um nº infinito de medidas!
Por outro lado, f ( x)dx é também uma forma de avaliar a probabilidade de uma
b
qualquer medida dar um valor que pertença ao intervalo entre x e x+dx. Então, ∫a
f ( x)dx
corresponde à probabilidade de uma qualquer medida dar um resultado que se situe no
intervalo entre x = a e x = b.
Podemos assim concluir que, se fosse conhecida a distribuição limite f(x) associada à
medida de uma certa quantidade x, então também seria conhecida a probabilidade de se obter
um qualquer resultado num qualquer intervalo a ≤ x ≤ b.
25
20
Boa
15
f(x) (s -1)
10
5
Baixa
0
0,91 0,96 1,01 1,06 1,11 1,16
t (s)
Figura 4.5 – Duas distribuições limite normalizadas, correspondentes a duas experiências diferentes da
medida da mesma grandeza física, permitem comparar a precisão com que foram realizadas as
medições nos dois casos.
+∞
[22] Em ∫ −∞
f ( x)dx = 1 , os limites ±∞ são usados por desconhecermos o intervalo real em que se
situarão os valores medidos numa dada experiência (e não porque se obterão valores desde +∞ até
–∞).
50
A vantagem das distribuições limite serem normalizadas é que podemos comparar
resultados da mesma grandeza física realizadas, por exemplo, com sistemas experimentais
diferentes. A figura 4.5 mostra duas funções limite resultantes de medidas da mesma grandeza
x. Ambas apresentam o mesmo valor médio, x = 1,06 s . Contudo, o facto de ambas cobrirem a
mesma área (porque as duas funções estão normalizadas) permite-nos concluir que uma das
experiências foi executada com razoável precisão (os valores obtidos estarão perto do melhor
valor), dando origem a uma curva mais estreita e alta, enquanto que as medidas da outra
experiência foram realizadas com baixa precisão. Neste caso, como a respetiva distribuição
limite é larga e achatada, isso significa que os valores encontrados apresentam elevada
dispersão.
Uma vez que a distribuição limite f(x) das medidas de uma certa quantidade x descreve
como é que os resultados estariam distribuídos depois de um nº infinito de medidas, então, se
f(x) fosse conhecida à partida, poderíamos determinar o valor médio que encontraríamos ao
fim de muitas medidas.
Vimos que a média de qualquer nº de medidas de uma mesma quantidade x pode ser
avaliada por (eq. 4.3):
x = ∑ xk Fk
k
onde Fk é a frequência de xk. Na distribuição limite f(x) podemos dividir todo o intervalo de
valores em pequenos intervalos ∆xk, que vão de xk a xk+∆xk. A frequência de valores em cada
intervalo pode escrever-se como
Fk = f ( x k )∆x k . (4.7)
No limite, quando todos os intervalos tenderem para o intervalo infinitesimal dx, a média dada
por 4.3 pode escrever-se:
+∞
x = ∫ xf ( x )dx , (4.8)
−∞
Quanto à variância (e, portanto, ao desvio padrão), partindo da definição para um nº total de
medidas N,
1 N
σ 2x = ∑ (xi − x )2 ,
N − 1 i =1
∑ n (x − x)
2
k k
σ 2x = = ∑ Fk ( x k − x ) = ∑ ( x k − x ) f ( x k )∆x k
k 2 2
N k k
+∞
σ 2x = ∫
−∞
(x − x )2 f (x )dx , (4.9)
que corresponde ao valor esperado para a variância σ 2x (e, a partir dele, para o desvio padrão
σ x ) se se realizasse um nº infinito de medidas.
51
52
Capítulo V
A distribuição normal ou
Gaussiana
5.1. Definição 55
5.2. Largura da distribuição Gaussiana 56
5.3. Valor médio e desvio padrão 57
5.4. Significado do desvio padrão: intervalo de confiança de 68%. 58
5.5. Grau de confiança
5.5.1. Valor médio 60
5.5.2. Discrepância entre o valor medido e o valor esperado 61
5.6. Tabela da Função Erro (erf(t)) 63
5.7. Princípio da Máxima Probabilidade. Justificação das melhores
estimativas para x ± δx.
5.7.1. Média: melhor estimativa do verdadeiro valor 65
5.7.2. Desvio padrão: melhor estimativa da incerteza
associada a cada medida 66
5.7.3. Desvio padrão da média: melhor estimativa
da incerteza na média 68
53
54
A distribuição normal ou Gaussiana
As medidas experimentais de muitas grandezas físicas tem como distribuição limite a
curva simétrica e em forma de sino apresentada no capítulo anterior, designada genericamente
por f(x). Na verdade, é possível provar que se as medições estão sujeitas a erros aleatórios
pequenos e a erros sistemáticos desprezáveis, os valores medidos dessas grandezas estão
distribuídos de acordo com essa curva, centrada no verdadeiro valor da grandeza 23. Este tipo
de distribuição limite é conhecido por distribuição normal, de Gauss ou Gaussiana (Fig.
5.1).
Figura 5.1 – Distribuição Normal de largura σ, associada à grandeza x e centrada no seu verdadeiro
valor.
5.1. Definição
onde σ é um parâmetro fixo designado simplesmente por largura. A forma mais alargada e
achatada ou mais estreita e alta da curva Gaussiana está relacionada com um valor maior ou
menor deste parâmetro, respetivamente. A curva descrita pelo termo 7.1 é simétrica em torno
de x = 0, pois dá os mesmos resultados para x e para –x, e decresce, tendendo para zero, à
medida que x se afasta de x = 0.
Para se obter uma curva centrada num valor x = X (Fig. 5.1), diferente de zero, basta
substituir o termo 5.1 por
−
( x − X )2
2 σ2
e (5.2)
[23] Lembremos que a existência de erros sistemáticos traduzir-se-ia no facto de a distribuição limite
vir centrada num outro valor que não o verdadeiro valor.
55
onde o fator A não muda a forma da curva Gaussiana nem altera a posição do máximo em
x = X. A função definida em 5.3 tem então que satisfazer a condição:
−
( x − X )2
+∞ +∞
∫ −∞
f ( x )dx = ∫
−∞
Ae 2 σ2
dx = 1 (5.4)
∫ −∞
Ae 2 σ2
dy (5.5)
y
2º) = z ⇒ dy = σdz (lembremos que σ é um parâmetro constante, a largura da curva
σ
(Fig. 5.1) e o integral 5.5 vem:
z2
+∞ −
Aσ ∫ e 2
dz (5.6)
−∞
z2
+∞ −
∫ −∞
e 2
dz = 2π (5.7)
Verifica-se assim que
+∞ 1
∫ −∞
f ( x )dx = 1 = Aσ 2π ⇒ A =
σ 2π
(5.8)
−
( x − X )2 (5.9)
1
G X ,σ ( x ) = e 2 σ2
σ 2π
56
Este parâmetro corresponde à distância entre os dois pontos x onde GX,σ(x) tem metade do seu
valor máximo (Fig. 5.2-b). Pode provar-se que
FWHM = 2σ 2 ln 2 = 2.35σ .
Pontos de
inflexão
a) b)
Figura 5.2 – a) O parâmetro σ, largura da Gaussiana, é medido no ponto de inflexão da curva; b) A
FWHM é a largura total, a meio da altura máxima da curva normalizada.
Figura 5.3 – Duas distribuições Gaussianas centradas em diferentes valores e caracterizadas por
diferentes larguras. O facto de serem normalizadas assegura que ambas as áreas medem 1.
−
( x − X )2
1 +∞
=
σ 2π ∫ −∞
xe 2 σ2
dx
57
1 +∞ − 2σ2
2 2
y y
+∞ − 2
x=
σ 2π ∫ −∞
ye dy + X ∫ −∞
e 2σ
dy
(5.10)
Considerando, agora, a variância (e, portanto, desvio padrão), de acordo com a eq. 4.9,
temos:
+∞
σ 2x = ∫
−∞
(x − x )2G X ,σ ( x )dx .
y
Substituindo o valor médio por X, fazendo as mudanças de variáveis x − X = y e =z e
σ
integrando por partes, obtém-se:
σ 2x = σ 2 .
Como vimos no capítulo anterior, a distribuição limite f(x) para medidas de uma
quantidade x, dá-nos a probabilidade de se obter qualquer um dos resultados possíveis para x.
b
Especificamente o integral ∫ a
f ( x )dx é a probabilidade de uma qualquer medida dar um
resultado no intervalo a ≤ x ≤ b. Se a distribuição limite for uma distribuição de Gauss, esse
integral pode ser sempre determinado. Em particular, podemos calcular a probabilidade de
uma medida fornecer um resultado que caia dentro do intervalo correspondente a um desvio
padrão σ do verdadeiro valor X. Essa probabilidade define-se como:
X +σ
Prob (no intervalo σ) = ∫ G X ,σ ( x )dx
X −σ
−
( x − X )2 (5.11)
1 X +σ
=
σ 2π ∫ X −σ
e 2 σ2
dx
58
Figura 5.4 – Distribuição Normal. A área sombreada corresponde à probabilidade de um valor medido
cair no intervalo X ± σ, calculado pela eq. 5.11.
(x − X )
O integral pode ser simplificado através da substituição = z , com a qual dx = σdz e
σ
os limites de integração passam a ser z = ±1. Vem então:
z2
1 1 −
Prob (no intervalo σ) =
2π ∫ −1
e 2
dz . (5.12)
A probabilidade de encontrarmos uma resposta dentro do intervalo 2σ, 1.5σ ou qualquer outro
valor tσ 24, para qualquer valor t positivo em torno de X, é também possível. Essa
probabilidade é dada pela área da figura 5.5, que corresponde a:
z2
1 t −
Prob (no intervalo tσ) =
2π ∫ −t
e 2
dz . (5.13)
Figura 5.5 – Distribuição Normal. A área sombreada corresponde à probabilidade de um valor medido
cair no intervalo X ± tσ, calculado pela eq. 5.13.
O integral 5.13 não pode ser avaliado analiticamente mas é facilmente calculado
numericamente, num computador. É muitas vezes designado por função erro ou integral
normal do erro, erf(t). A tabela 5.1 e a figura 5.6 apresentam o integral normal do erro
calculado para diferentes valores de t:
Tabela 5.1 – Probabilidade de um valor medido cair no intervalo X ± tσ, calculada recorrendo ao
integral normal do erro (eq. 5.13).
t 0 0.25 0.5 0.75 1.0 1.25 1.5 1.75 2.0 2.5 3.0 3.5 4.0
Prob (%) 0 20 38 55 68 79 87 92 95.4 98.8 99.7 99.95 99.99
[24] Repare que, por abuso de linguagem, referenciamos a largura do intervalo apenas por tσ e não por
2tσ.
59
Como se pode ver, a probabilidade de uma medida cair dentro de um intervalo de largura σ
em volta do verdadeiro valor é de 68%. Assim, se tomarmos como incerteza na nossa medida
um desvio padrão, estaremos 68% seguros da nossa resposta.
Por vezes, em vez de σ, usa-se um outro parâmetro de avaliação: o erro provável (PE).
O erro provável define-se como a distância para a qual há 50% de probabilidade de uma
medida cair no intervalo [X-PE, X+PE]. A figura 5.6 mostra que, para distribuições normais,
a relação entre o erro provável e σ é PE = 0.67σ.
Sabemos já que, se medirmos a quantidade x várias vezes, a média dos valores obtidos,
x , é a melhor estimativa de x. Além disso, também já sabemos que se realizarmos uma
medição da grandeza x conhecendo que a sua distribuição limite é uma função Gaussiana, o
desvio padrão σx (largura da Gaussiana) nos dá a probabilidade (neste caso 68%) do resultado
dessa medição se situar no intervalo x ± σ x .
Voltando ao valor médio x , sabemos que o desvio padrão da média, σ x , é uma boa
medida da sua incerteza, o que nos permite escrever:
xbest ± dx = x ± σ x .
À semelhança do que acontece com o desvio padrão, o parâmetro σ x significa que temos 68%
de confiança de que o verdadeiro valor de x se encontra no intervalo x ± σ x . Ou, dito de outra
forma, que se realizássemos novo conjunto de medidas nas mesmas condições experimentais
haveria 68% de probabilidade de o novo valor médio pertencer ao intervalo x ± σ x .
60
Selecionar o intervalo σ x para apresentar o resultado é a escolha mais comum. Mas
podemos sempre fazer outras como, por ex., x ± 2σ x . Neste caso, o valor médio de qualquer
conjunto de medidas realizadas nas mesmas condições teria 95% de probabilidade de
pertencer ao intervalo x ± 2σ x .
Quando comparamos um valor obtido xbest com o valor que esperávamos obter xesperado
(quer devido a uma expectativa teórica quer baseados em outro resultado experimental), como
decidimos se o acordo ou a discrepância entre os dois valores é aceitável?
Suponhamos que um estudante mede várias vezes uma certa quantidade x (por ex., a
carga de um eletrão), a apresenta na forma xbest ± dx = x ± σ x e a pretende comparar com o
valor xesperado. Podemos argumentar, como sugerido no capítulo I, que se a discrepância
xbest − xesperado for menor (ou apenas ligeiramente maior) do que σ x , então o acordo é
razoável 25. O critério é aceitável mas não nos dá uma medida quantitativa sobre quão bom ou
mau é o acordo. Na verdade não há limites definidos para a fronteira da “aceitabilidade” de
uma discrepância. Por exemplo, uma discrepância de 1.5σ x seria ainda aceitável?
Para ponderar estes aspetos vamos admitir que as medidas realizadas pelo estudante
seguem uma distribuição Normal, com as seguintes características (hipóteses admitidas pelo
aluno):
1) está centrada no valor esperado, xesp;
2) a largura da distribuição é igual ao desvio padrão estimado pelo estudante, ou seja,
σx.
O primeiro ponto corresponde a uma expectativa legítima do estudante. Ele reduziu os erros
sistemáticos a um nível desprezável de modo a que a distribuição estivesse centrada no
verdadeiro valor e confia que esse valor é xesp. O segundo ponto é uma aproximação, uma vez
que σx só é uma boa estimativa para a largura da Gaussiana se o nº de medidas do qual se
extraiu σx for grande. 26
Vemos, portanto, que o parâmetro t (Figuras 5.5 e 5.6 e Tabela 5.1) também pode ser
entendido como correspondendo ao nº de desvios padrão (neste caso, da média) pelo qual xbest
difere de xesp. A partir dos valores do Integral Normal do Erro apresentados na Tabela 5.1
(que nos dá a probabilidade de medir um valor dentro do intervalo t σ x ), podemos achar a
[25] Em termos práticos, a incerteza experimental associada ao valor esperado da carga do eletrão
pode considerar-se nula.
[26] Se o nº de medidas em que nos baseámos para o cálculo de σ for “irrazoavelmente” pequeno, σ
merece pouca confiança (ainda que possa sempre ser um guia útil). Para um nº pequeno de
medidas, um cálculo exato dos limites de confiança requer a utilização da chamada distribuição t
de Student.
61
probabilidade de obter um xbest que difere do xesp por t ou mais desvios padrão. Esta
probabilidade é:
Prob (fora de t σ x ) = 1 – Prob (dentro de t σ x ).
Se a probabilidade de obter xbest fora do intervalo t σ x for grande, a discrepância xbest − xesp é
perfeitamente razoável e o resultado xbest é aceitável. Se a probabilidade for pequena, a
discrepância deve ser considerada significativa e é necessário ponderar o que se terá passado
na experiência. Por exemplo, se
xbest − xesp = σ
Com uma probabilidade de 32%, podemos dizer que é bastante provável que haja
discrepância entre o valor esperado e obtido e, portanto, considera-se que a discrepância não é
significativa. Contudo, se
xbest − xesp = 3σ
tal significa que uma discrepância de 2σ é inaceitável, por já ter um valor abaixo dos 5%.
Como podemos ver na Tabela 5.2, que é uma extensão da Tabela 5.1 para mais valores
do parâmetro t, qualquer discrepância maior do que 1.96σ é inaceitável para o nível de 5%.
Estas discrepâncias designam-se geralmente por significativas.
Pode também definir-se um nível de 1%. Para este caso, vê-se na Tabela 5.2 que
qualquer discrepância maior do que 2.58σ seria inaceitável. Estas discrepâncias designam-se
geralmente por altamente significativas.
X + tσ
Tabela 5.2 – Probabilidade % (dentro tσ) = ∫ G X ,σ ( x )dx , em função de t
X −tσ
63
64
5.7. Princípio da Máxima Probabilidade. Justificação das melhores estimativas
para x ± δx.
Se a distribuição limite f(x) associada à medida de uma dada grandeza x fosse conhecida
poderíamos calcular a média e o desvio padrão correspondentes a um nº infinito de medidas e,
pelo menos para a distribuição normal, poderíamos também conhecer o verdadeiro valor X.
Infelizmente não conhecemos, à partida, a distribuição limite pois fazemos sempre um nº
finito de medidas. Portanto, em termos práticos, o nosso problema é chegar à melhor
estimativa para X e para σ baseando-nos apenas nos N valores medidos, x1, x2,…, xN, da nossa
amostra.
−
( x1 − X )2
1
Prob (entre x1 e x1+dx1) = e 2 σ2
dx1 .
σ 2π
Na prática, não estamos interessados no tamanho do intervalo dx1 e o fator 2π não tem
importância para as considerações que seguem. Assim, podemos utilizar uma forma mais
simples da equação anterior e escrever:
( x1 − X )2
1 −
Prob (x1 ) ∝ e 2 σ2
. (5.15)
σ
( x2 − X )2
1 −
Prob (x 2 ) ∝ e 2 σ2
(5.16)
σ
( xN − X )2
1 −
Prob (x N ) ∝ e 2 σ2
. (5.17)
σ
As equações 5.15 a 5.17 dão, portanto, as probabilidades de obter cada um dos valores
x1, x2, …, xN, calculadas através da distribuição GX,σ(x). Então, a probabilidade de
[27] O ponto 5.7 segue de muito perto o desenvolvimento apresentado na referência bibliográfica [2].
65
observarmos toda a série de leituras das N medidas feitas é dada pelo produto das
probabilidades separadas, ou seja,
Prob X,σ ( x1 , x2 ,...x N ) = Prob(x1 ) × Prob(x2 ) × ... × Prob( x N ) ,
∑ ( xi − X )2
1 − i =1
Prob X,σ ( x1,x2 ,...,x N ) ∝ e 2 σ2
. (5.18)
σN
Os números x1, x2, …, xN são os resultados das várias medidas; são, portanto,
conhecidos, são fixos. A quantidade definida por 5.18 é a probabilidade de obter os N
resultados, calculada em termos de X e σ. Contudo, voltando à questão inicial, o nosso
problema é precisamente que desconhecemos os valores de X e σ. Na verdade, o que
pretendemos é encontrar as melhores estimativas para X e σ, baseadas nas N observações
x1, x2,…, xN que fizemos.
Ora, apesar de os valores reais de X e σ não serem conhecidos, podemos sempre
imaginar valores X’ e σ’ e, partindo desses valores, calcular a probabilidade:
Em seguida, podemos imaginar outro par de valores X’’ e σ’’ e, se a probabilidade calculada
a partir desses novos valores, ou seja,
for maior, então eles passam a ser considerados melhores estimativas para X e σ do que os
valores iniciais X’ e σ’. Podemos depois considerar outro novo par, X’’’ e σ’’’, repetir o
cálculo de probabilidades, e assim sucessivamente, procurando sempre o par que nos dá a
probabilidade mais elevada. Este procedimento, eventualmente moroso mas plausível, para
encontrar as melhores estimativas de X e σ é conhecido por Princípio da Máxima
Probabilidade e pode ser enunciado da seguinte forma:
Ora, a probabilidade definida pela relação 5.18 é máxima se a soma no expoente for mínima.
Ou seja, a melhor estimativa para X é o valor para o qual
∑ (x − X)
2
i
i =1
(5.19)
2σ 2
∑ (xi − X ) = 0 ⇔ ∑ xi − NX
i =1 i =1
=0
66
∑x i
(melhor estimativa para X ) = i
. (5.20)
N
5.7.2. Desvio padrão: melhor estimativa para a incerteza associada a cada medida
N
(melhor estimativa para σ) = 1
∑ (x − X ) i
2
. (5.21)
N i =1
∑ (x − x )
1
σ=
2
i , (5.22)
N i =1
ou seja, a melhor estimativa para a largura σ da distribuição limite é o desvio padrão dos N
valores medidos x1, ..., xN.
Uma questão que surge nesta altura é termos obtido o fator N na eq. 5.22 e não a
definição com o fator (N – 1), que considerámos mais adequada para uma amostra de N
medidas (embora não o tenhamos provado). Note-se, contudo, que ao passar da eq. 5.21 para
a eq. 5.22 substituindo X (verdadeiro valor) por x (a melhor estimativa do verdadeiro valor),
o resultado da eq. 5.22 é sempre menor 28 do que o resultado da eq. 5.21. De facto, se
pensarmos na eq. 5.21, vimos na secção anterior que esta função é mínima para X = x .
Assim, 5.22 é sempre menor que 5.21 e ao passarmos da uma para a outra subestimamos a
largura σ. Ora, pode demonstrar-se que esta imprecisão é corrigida quando se substitui o fator
N por (N – 1). Então a melhor estimativa para σ quando temos uma amostra de N medidas
x1, x2, …, xN continua a ser:
1 N
σ= ∑ (xi − x )2 . (5.23)
N − 1 i =1
[28] Ou, quando muito, igual, se aumentássemos muito o número de medidas, tornando a diferença
entre N e N-1 irrisória.
67
5.7.3. Desvio padrão da média: melhor estimativa para a incerteza na média
Como o valor médio é uma função simples das quantidades medidas x1, …, xN,
podemos determinar a largura da distribuição de x aplicando a fórmula de propagação de
erros à definição de valor médio. O único facto estranho é que todas as medidas (x1, …, xN),
(x’1, …, x’N), (x’1, …, x’’N), etc., são medidas da mesma grandeza x e, portanto, têm o mesmo
verdadeiro valor X e a mesma incerteza σx.
Notemos, em primeiro lugar, que como as medidas da grandeza x, x1, … xN, seguem
uma distribuição normal, o seu valor médio x também segue o mesmo tipo de distribuição.
Em 2º lugar, o verdadeiro valor de cada x1, … , xN é X. Assim, o verdadeiro valor da média é
dado por:
X + ... + X
=X.
N
2 2 2
∂x ∂x ∂x
σ x = σ x1 + σ x2 + ... + σ x N .
∂x1 ∂x2 ∂x N
Como x1, …, xN são medidas da mesma quantidade x, as suas larguras (incertezas) são todas
iguais a σx:
σ x1 = ... = σ xN = σ x .
68
As derivadas parciais também são iguais:
∂x ∂x 1
= ... = = .
∂x1 ∂x N N
De onde:
σ
2 2 2
1 1
σ x = σ x + ... + σ x = N x
N N N
Logo,
σx
σx = .
N
Figura 5.7 – Curva tracejada: distribuição normal, centrada em X e de incerteza σx, para muitas
medidas individuais de x. Curva contínua: distribuição normal, também centrada em X
σx
mas mais estreita, de largura σ x = , para um nº grande de determinações da média
10
de 10 medidas de x.
69
70
Capítulo VI
Média pesada
71
72
Média Pesada
Acontece com frequência uma certa grandeza ser medida por métodos diferentes e/ou
em laboratórios diferentes. Põe-se, então, a questão de saber como combinar os resultados das
diversas medidas de modo a obter uma única melhor estimativa.
Suponhamos que são obtidos dois resultados de uma determinada grandeza x, ambos
fruto de (muitas) medições cuidadosamente efetuadas utilizando dois métodos experimentais
diferentes, A e B. x A ± σ A e xB ± σ B constituem, portanto, os melhores valores da grandeza x
obtidos por cada um dos métodos.
Como combinar os dois valores, xA e xB, de modo a obtermos um único melhor valor
para a grandeza?
Admitindo que os dois resultados são consistentes 29, qual é a melhor estimativa xbest
para o verdadeiro valor da grandeza? Assumimos que ambas as medidas seguem uma
distribuição normal em volta do verdadeiro valor X. Então, como vimos no capítulo anterior,
de acordo com a definição e significado da função Gaussiana, podemos considerar que a
probabilidade de se obter o valor específico xA é proporcional a:
( x A − X )2
1 −
Prob X ( x A ) ∝ e 2 σ 2A
.
σA
( xB − X )2
1 −
Prob X ( xB ) ∝ e 2 σ 2B
.
σB
χ2
−
Prob X ( x A , xB ) ∝
1
e 2, (6.1)
σ Aσ B
A quantidade definida por 6.2 30 é a soma dos quadrados dos desvios dos dois
resultados relativamente ao verdadeiro valor X, cada um deles dividido pela correspondente
incerteza ao quadrado. O Princípio da Máxima Probabilidade, introduzido na secção 5.7.1,
assegura que a melhor estimativa para X é o valor para o qual a probabilidade definida pela
eq. 6.1 é máxima ou, dito de modo equivalente, para o qual o expoente χ2 é mínimo. 31
Diferenciando a eq. 6.2 em ordem a X e igualando a zero, vem:
xA − X x −X
2 +2 B 2 =0. (6.3)
σA2
σB
Se definirmos
1 1
wA = e wB = (6.5)
σ 2A σ 2B
como “pesos” associados às medidas xA e xB, respetivamente, podemos dizer que a melhor
estimativa para X é a média pesada:
wA x A + wB xB
xp = . (6.6)
wA + wB
x1 ± σ1 , x2 ± σ 2 , ..., x N ± σ N ,
a melhor estimativa para o verdadeiro valor da grandeza x é dada pela média pesada obtida
através de
∑w x i i
xp = i
, (6.7)
∑w i
i
Uma vez que o peso associado a cada medida envolve o quadrado da correspondente
incerteza, as medidas mais imprecisas contribuem bastante menos para o resultado final do
que as medidas que apresentam menor erro.
Uma vez que a média pesada é uma função das medidas x1, x2, …, xN, a incerteza na
média pesada pode ser calculada recorrendo à fórmula geral de propagação de erros. Como se
pode facilmente confirmar, o resultado dá:
1
σxp = . (6.9)
∑ wi i
1
Atendendo a que 6.8 se pode escrever como σi = , podemos dizer que a incerteza
wi
em cada medida é o inverso da raiz quadrada do seu peso. Então, olhando para 6.9, também
podemos dizer que a incerteza em x p é o inverso da raiz quadrada da soma dos pesos
individuais.
6.4. Exemplo
Uma vez que os dois resultados são consistentes (ver nota rodapé nº 29), podemos calcular a
média pesada correspondente
∑w R σ R p (Ω ) =
1
( )
i i
1
σi (Ω) wi Ω −2 = (Ω ) =
∑w
i
Ri (Ω) Rp
σ i2 ∑w i
i
i
i
A 8.27 0.25 16
8.12 0.11
B 8.09 0.12 69
75