exatidão é a proximidade dos resultados da medição com o valor verdadeiro; precisão é o grau em que medições repetidas (ou reprodutíveis) em condições inalteradas mostram os mesmos resultados.
nos campos da ciência e da engenharia, a precisão de um sistema de medição é o grau de proximidade das medições de uma quantidade ao valor real dessa quantidade., A precisão de um sistema de medição, relacionada com a reprodutibilidade e repetibilidade, é o grau em que as medições repetidas em condições inalteradas mostram os mesmos resultados. Embora as duas palavras precisão e precisão possam ser sinônimas no uso coloquial, elas são deliberadamente contrastadas no contexto do método científico.
O campo de estatísticas, onde a interpretação de medições desempenha um papel central, prefere usar os Termos viés e variabilidade em vez de precisão e precisão: viés é a quantidade de imprecisão e variabilidade é a quantidade de imprecisão.,
um sistema de medição pode ser preciso, mas não preciso, preciso, mas não preciso, nenhum, ou ambos. Por exemplo, se um experimento contém um erro sistemático, então o aumento do tamanho da amostra geralmente aumenta a precisão, mas não melhora a precisão. O resultado seria uma sequência consistente mas imprecisa de resultados da experiência defeituosa. Eliminar o erro sistemático melhora a precisão, mas não altera a precisão.um sistema de medição é considerado válido se for preciso e preciso., Os termos relacionados incluem viés (efeitos Não aleatórios ou direcionados causados por um fator ou fatores não relacionados com a variável independente) e erro (variabilidade aleatória).
a terminologia também é aplicada a medições indiretas-ou seja, valores obtidos por um procedimento computacional a partir de dados observados.para além da precisão e precisão, as medições também podem ter uma resolução de medição, que é a menor alteração na quantidade física subjacente que produz uma resposta na medição.,
em análise numérica, a precisão também é a proximidade de um cálculo ao valor verdadeiro; enquanto a precisão é a resolução da representação, tipicamente definida pelo número de dígitos decimais ou binários.
Em termos militares, a precisão refere-se, principalmente, ao rigor do fogo (justesse de tir), a precisão do fogo expressa pela proximidade de um agrupamento de tiros em torno do centro do alvo.,
QuantificationEdit
Em instrumentação industrial, a precisão é a tolerância de medição, ou de transmissão do instrumento e define os limites dos erros cometidos quando o aparelho for utilizado em condições normais de funcionamento.idealmente, um dispositivo de medição é preciso e preciso, com medições todas próximas e firmemente agrupadas em torno do valor verdadeiro. A precisão e precisão de um processo de medição é geralmente estabelecida medindo repetidamente algum padrão de referência rastreável., Tais normas são definidas no Sistema Internacional de Unidades (abreviado SI de Francês: Système international d’unités) e mantidas por organizações nacionais de normas, tais como o Instituto Nacional de normas e tecnologia nos Estados Unidos.isto também se aplica quando as medições são repetidas e calculadas em média. Nesse caso, o termo de erro padrão é aplicado corretamente: a precisão da média é igual ao desvio padrão conhecido do processo, dividido pela raiz quadrada do número de medições a média., Além disso, o teorema do limite central mostra que a distribuição de probabilidade das medições médias será mais próxima a uma distribuição normal do que a de medições individuais.
no que diz respeito à precisão, podemos distinguir:
- a diferença entre a média das medições e o valor de referência, o viés. Para a calibração, é necessário estabelecer e corrigir a polarização.
- o efeito combinado disso e precisão.uma convenção comum em Ciência e engenharia consiste em expressar implicitamente precisão e/ou precisão por meio de figuras significativas., Quando não for explicitamente indicada, a margem de erro é entendida como sendo metade do valor do último lugar significativo. Por exemplo, uma gravação de 843.6 m, ou 843.0 m, ou 800,0 m implicaria uma margem de 0,05 m a (o último lugar significativo é a décimos de segundo lugar), enquanto que uma gravação de 843 m implicaria uma margem de erro de 0,5 m (últimos dígitos significativos são as unidades).
uma leitura de 8.000 m, com zeros atrás e sem ponto decimal, é ambígua; os zeros atrás podem ou não ser destinados como figuras significativas., Para evitar esta ambiguidade, o número pode ser representado em notação científica: 8.0 × 103 m indica que o primeiro zero é significativo (portanto, uma margem de 50 m), enquanto 8.000 × 103 m indica que todos os três zeros são significativos, dando uma margem de 0,5 m. Da mesma forma, pode-se usar vários básica unidade de medida: 8,0 km é equivalente a 8,0 × 103 m. Indica uma margem de 0,05 km (50 m). No entanto, a confiança nesta convenção pode levar a erros de precisão falsa ao aceitar dados de fontes que não obedecem., Por exemplo, uma fonte relatando um número como 153.753 com precisão +/- 5.000 parece ter precisão +/- 0.5. Nos termos da Convenção, teria sido arredondado para 154 mil.
em Alternativa, em um contexto científico, se é desejado para indicar a margem de erro com mais precisão, pode-se utilizar uma notação como 7.54398(23) × 10-10 m, o que significa uma variação entre 7.54375 e 7.54421 × 10-10 m.,
a Precisão inclui:
- repetibilidade — a variação resultante quando todos os esforços são feitos para manter as condições constantes utilizando o mesmo instrumento e o operador, e repetir durante um período de tempo curto; e
- reprodutibilidade — a variação resultante usando o mesmo processo de medição entre diferentes instrumentos e operadores, e durante longos períodos de tempo.