Précision et précision

la précision est la proximité des résultats de mesure avec la valeur réelle; la précision est le degré auquel des mesures répétées (ou reproductibles) dans des conditions inchangées montrent les mêmes résultats.

dans les domaines de la science et de l’ingénierie, la précision d’un système de mesure est le degré de proximité des mesures d’une quantité à la valeur réelle de cette quantité., La précision d’un système de mesure, liée à la reproductibilité et à la répétabilité, est le degré auquel des mesures répétées dans des conditions inchangées donnent les mêmes résultats. Bien que les deux mots précision et exactitude puissent être synonymes dans l’usage familier, ils sont délibérément contrastés dans le contexte de la méthode scientifique.

Le Domaine de la statistique, où l’interprétation des mesures joue un rôle central, préfère utiliser les Termes biais et variabilité plutôt que précision et précision: le biais est la quantité d’inexactitude et la variabilité est la quantité d’imprécision.,

Un système de mesure peut être précis mais pas précis, précis, mais pas exacte, ni, ou les deux. Par exemple, si une expérience contient une erreur systématique, l’augmentation de la taille de l’échantillon augmente généralement la précision mais n’améliore pas la précision. Le résultat serait une chaîne cohérente mais inexacte de résultats de l’expérience imparfaite. L’élimination de l’erreur systématique améliore la précision mais ne modifie pas la précision.

un système de mesure est considéré comme valide s’il est à la fois précis et précis., Les termes connexes comprennent le biais (effets non aléatoires ou dirigés causés par un facteur ou des facteurs non liés à la variable indépendante) et l’erreur (variabilité aléatoire).

la terminologie est également appliquée aux mesures indirectes, c’est—à-dire aux valeurs obtenues par une procédure de calcul à partir de données observées.

en plus de la précision et de la précision, les mesures peuvent également avoir une résolution de mesure, qui est la plus petite variation de la grandeur physique sous-jacente qui produit une réponse dans la mesure.,

en analyse numérique, la précision est également la proximité d’un calcul avec la valeur vraie; tandis que la précision est la résolution de la représentation, généralement définie par le nombre de chiffres décimaux ou binaires.

en termes militaires, la précision se réfère principalement à la précision de tir (justesse de tir), la précision de tir exprimée par la proximité d’un groupe de tirs au centre et autour de la cible.,

Quantificationmodifier

Voir aussi: fausse précision

en instrumentation industrielle, la précision est la tolérance de mesure, ou de transmission de l’instrument et définit les limites des erreurs commises lorsque l’instrument est utilisé dans des conditions normales de fonctionnement.

idéalement, un appareil de mesure est à la fois précis et précis, avec des mesures toutes proches et étroitement regroupées autour de la valeur réelle. L’exactitude et la précision d’un processus de mesure sont généralement établies en mesurant à plusieurs reprises une norme de référence traçable., Ces normes sont définies dans le système international D’unités (abrégé SI du français: système international d’unités) et maintenues par des organismes nationaux de normalisation tels que le National Institute of Standards and Technology aux États-Unis.

Cela s’applique également lorsque les mesures sont répétées et moyenne. Dans ce cas, le terme erreur type est correctement appliqué: la précision de la moyenne est égale à l’écart type connu du processus divisé par la racine carrée du nombre de mesures moyennées., De plus, le théorème central limite montre que la distribution de probabilité des mesures moyennes sera plus proche d’une distribution normale que celle des mesures individuelles.

en ce qui concerne la précision, on peut distinguer:

  • la différence entre la moyenne des mesures et la valeur de référence, le biais. L’établissement et la correction de la polarisation sont nécessaires pour l’étalonnage.
  • l’effet combiné de qui et de précision.

Une convention commune en science et en ingénierie est d’exprimer implicitement l’exactitude et / ou la précision au moyen de chiffres significatifs., Lorsqu’elle n’est pas explicitement indiquée, la marge d’erreur est comprise comme étant égale à la moitié de la valeur du dernier endroit significatif. Par exemple, un enregistrement de 843.6 m, ou 843.0 m, ou 800.0 m impliquerait une marge de 0,05 m (la dernière place importante est la dixième place), tandis qu’un enregistrement de 843 m impliquerait une marge d’erreur de 0,5 m (les derniers chiffres significatifs sont les unités).

Une lecture de 8 000 m, avec des zéros de fin et sans point décimal, est ambiguë; les zéros de fin peuvent ou non être considérés comme des chiffres significatifs., Pour éviter cette ambiguïté, le nombre pourrait être représenté en notation scientifique: 8,0 × 103 m indique que le premier Zéro est significatif (donc une marge de 50 m) tandis que 8,000 × 103 m indique que les trois zéros sont significatifs, ce qui donne une marge de 0,5 m. de même, on peut utiliser un multiple de l’Unité de mesure de base: 8,0 km équivaut à 8,0 × 103 M. Il indique une marge de 0,05 km (50 m). Cependant, le recours à cette convention peut entraîner de fausses erreurs de précision lors de l’acceptation de données provenant de sources qui ne lui obéissent pas., Par exemple, une source signalant un nombre comme 153 753 avec une précision +/- 5 000 semble avoir une précision +/- 0,5. En vertu de la convention, il aurait été arrondi à 154 000.

alternativement, dans un contexte scientifique, si l’on souhaite indiquer la marge d’erreur avec plus de précision, on peut utiliser une notation telle que 7,54398(23) × 10-10 m, ce qui signifie une plage comprise entre 7,54375 et 7,54421 × 10-10 M.,

la précision comprend:

  • répétabilité — la variation qui se produit lorsque tous les efforts sont faits pour maintenir des conditions constantes en utilisant le même instrument et le même opérateur, et en se répétant pendant une courte période; Et
  • reproductibilité — la variation qui se produit en utilisant le même processus de mesure entre différents instruments et opérateurs, et sur des périodes plus longues.

Share

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *