Genauigkeit und Genauigkeit

Genauigkeit ist die Nähe der Messergebnisse zum wahren Wert; Präzision ist der Grad, in dem wiederholte (oder reproduzierbare) Messungen unter unveränderten Bedingungen die gleichen Ergebnisse zeigen.

In den Bereichen Wissenschaft und Technik ist die Genauigkeit eines Messsystems der Grad der Nähe von Messungen einer Größe zum wahren Wert dieser Größe., Die Präzision eines Messsystems, bezogen auf Reproduzierbarkeit und Wiederholbarkeit, ist der Grad, in dem wiederholte Messungen unter unveränderten Bedingungen die gleichen Ergebnisse zeigen. Obwohl die beiden Wörter Präzision und Genauigkeit im umgangssprachlichen Gebrauch synonym sein können, werden sie im Kontext der wissenschaftlichen Methode bewusst kontrastiert.

Der Bereich Statistik, in dem die Interpretation von Messungen eine zentrale Rolle spielt, bevorzugt die Begriffe Verzerrung und Variabilität anstelle von Genauigkeit und Präzision: Verzerrung ist die Menge an Ungenauigkeit und Variabilität ist die Menge an Ungenauigkeit.,

Ein Messsystem kann genau, aber nicht präzise, präzise, aber auch nicht genau oder beides sein. Wenn beispielsweise ein Experiment einen systematischen Fehler enthält, erhöht das Erhöhen der Stichprobengröße im Allgemeinen die Genauigkeit, verbessert jedoch nicht die Genauigkeit. Das Ergebnis wäre eine konsistente, aber ungenaue Reihe von Ergebnissen des fehlerhaften Experiments. Die Beseitigung des systematischen Fehlers verbessert die Genauigkeit, ändert jedoch nicht die Präzision.

Ein Messsystem gilt als gültig, wenn es sowohl genau als auch präzise ist., Verwandte Begriffe umfassen Verzerrungen (nicht zufällige oder gerichtete Effekte, die durch einen Faktor oder Faktoren verursacht werden, die nicht mit der unabhängigen Variablen zusammenhängen) und Fehler (zufällige Variabilität).

Die Terminologie wird auch auf indirekte Messungen angewendet—d. H. Werte, die durch ein Berechnungsverfahren aus beobachteten Daten erhalten werden.

Neben Genauigkeit und Präzision können Messungen auch eine Messauflösung aufweisen, die die kleinste Änderung der zugrunde liegenden physikalischen Größe darstellt, die eine Reaktion in der Messung erzeugt.,

In der numerischen Analyse ist Genauigkeit auch die Nähe einer Berechnung zum wahren Wert; während Präzision die Auflösung der Darstellung ist, die typischerweise durch die Anzahl der dezimalen oder binären Ziffern definiert wird.

In militärischer Hinsicht bezieht sich Genauigkeit in erster Linie auf die Genauigkeit des Feuers (justesse de tir), die Präzision des Feuers, ausgedrückt durch die Nähe einer Gruppierung von Schüssen in und um die Mitte des Ziels.,

Quantifizierungedit

Siehe auch: Falsche Präzision

In industriellen Messgeräten ist Genauigkeit die Messtoleranz oder die Übertragung des Instruments und definiert die Grenzen der Fehler, die bei Verwendung des Instruments unter normalen Betriebsbedingungen auftreten.

Idealerweise ist ein Messgerät sowohl genau als auch präzise, wobei Messungen alle nahe und eng um den wahren Wert gruppiert sind. Die Genauigkeit und Präzision eines Messvorgangs wird in der Regel durch wiederholtes Messen eines nachvollziehbaren Referenzstandards ermittelt., Solche Standards werden im Internationalen Einheitensystem (abgekürzt SI aus dem Französischen: Système international d ‚ unités) definiert und von nationalen Normungsorganisationen wie dem National Institute of Standards and Technology in den Vereinigten Staaten gepflegt.

Dies gilt auch, wenn Messungen wiederholt und gemittelt werden. In diesem Fall wird der Begriff Standardfehler richtig angewendet: Die Genauigkeit des Durchschnitts entspricht der bekannten Standardabweichung des Prozesses geteilt durch die Quadratwurzel der gemittelten Anzahl von Messungen., Ferner zeigt der zentrale Grenzwertsatz, dass die Wahrscheinlichkeitsverteilung der gemittelten Messungen näher an einer Normalverteilung liegt als die einzelner Messungen.

In Bezug auf die Genauigkeit können wir unterscheiden:

  • die Differenz zwischen dem Mittelwert der Messungen und dem Referenzwert, die Verzerrung. Für die Kalibrierung ist die Ermittlung und Korrektur von Verzerrungen erforderlich.
  • der kombinierte Effekt davon und Präzision.

Eine gemeinsame Konvention in Wissenschaft und Technik besteht darin, Genauigkeit und/oder Präzision implizit durch signifikante Zahlen auszudrücken., Wenn nicht ausdrücklich angegeben, wird die Fehlerquote als die Hälfte des Wertes der letzten signifikanten Stelle verstanden. Zum Beispiel würde eine Aufzeichnung von 843,6 m oder 843,0 m oder 800,0 m eine Marge von 0,05 m implizieren (der letzte signifikante Ort ist der Zehntelplatz), während eine Aufzeichnung von 843 m eine Fehlermarge von 0,5 m implizieren würde (die letzten signifikanten Ziffern sind die Einheiten).

Ein Wert von 8.000 m, mit nachgestellten Nullen und ohne Dezimalpunkt, ist mehrdeutig; die nachstehenden Nullen können als signifikante Zahlen gedacht sein oder auch nicht., Um diese Mehrdeutigkeit zu vermeiden, könnte die Zahl in wissenschaftlicher Notation dargestellt werden: 8,0 × 103 m zeigt an, dass die erste Null signifikant ist (daher eine Marge von 50 m), während 8.000 × 103 m anzeigt, dass alle drei Nullen signifikant sind, was einen Spielraum von 0,5 m ergibt. Ebenso kann man ein Vielfaches der Grundmesseinheit verwenden: 8,0 km entspricht 8,0 × 103 m. Es zeigt eine Marge von 0,05 km (50 m) an. Die Abhängigkeit von dieser Konvention kann jedoch zu falschen Präzisionsfehlern führen, wenn Daten aus Quellen akzeptiert werden, die ihr nicht gehorchen., Zum Beispiel sieht eine Quelle, die eine Zahl wie 153,753 mit der Genauigkeit +/- 5,000 meldet, so aus, als hätte sie die Genauigkeit +/- 0.5. Im Rahmen der Konvention wäre es auf 154.000 gerundet worden.

Alternativ kann man in einem wissenschaftlichen Kontext eine Notation wie 7.54398(23) × 10-10 m verwenden, wenn die Fehlermarge genauer angegeben werden soll, was einen Bereich zwischen 7.54375 und 7.54421 × 10-10 m bedeutet.,

Präzision umfasst:

  • Wiederholbarkeit-die Variation, die auftritt, wenn alle Anstrengungen unternommen werden, um die Bedingungen durch Verwendung desselben Instruments und Bedieners konstant zu halten und sich während eines kurzen Zeitraums zu wiederholen; und
  • Reproduzierbarkeit — die Variation, die unter Verwendung desselben Messvorgangs zwischen verschiedenen Instrumenten und Bedienern und über längere Zeiträume auftritt.

Share

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.