Nøjagtighed og præcision

Nøjagtighed er nærhed af måleresultater, at den sande værdi præcision er den grad, som de er gentaget (eller reproducerbare) målinger på uændrede betingelser viser de samme resultater.

inden for videnskab og teknik er nøjagtigheden af et målesystem graden af nærhed af målinger af en mængde til den pågældende mængdes sande værdi., Præcisionen af et målesystem, relateret til reproducerbarhed og repeterbarhed, er i hvilken grad gentagne målinger under uændrede forhold viser de samme resultater. Selvom de to ord præcision og nøjagtighed kan være synonyme i dagligdags brug, er de bevidst kontrasteret i sammenhæng med den videnskabelige metode.

statistikfeltet, hvor fortolkningen af målinger spiller en central rolle, foretrækker at bruge udtrykkene bias og variabilitet i stedet for nøjagtighed og præcision: bias er mængden af unøjagtighed og variabilitet er mængden af upræcision.,

et målesystem kan være nøjagtigt, men ikke præcist, præcist, men ikke nøjagtigt, Hverken eller begge dele. For eksempel, hvis et eksperiment indeholder en systematisk fejl, øger forøgelsen af prøvestørrelsen generelt præcisionen, men forbedrer ikke nøjagtigheden. Resultatet ville være en konsekvent, men unøjagtig streng af resultater fra det mangelfulde eksperiment. Eliminering af den systematiske fejl forbedrer nøjagtigheden, men ændrer ikke præcisionen.

et målesystem anses for gyldigt, hvis det er både nøjagtigt og præcist., Relaterede termer inkluderer bias (ikke-tilfældige eller rettede virkninger forårsaget af en eller flere faktorer, der ikke er relateret til den uafhængige variabel) og fejl (tilfældig variation).

terminologien anvendes også til indirekte målinger—det vil sige værdier opnået ved en beregningsprocedure fra observerede data.

ud over nøjagtighed og præcision kan målinger også have en måleopløsning, som er den mindste ændring i den underliggende fysiske mængde, der giver et svar i målingen.,

i numerisk analyse er nøjagtighed også nærheden af en beregning til den sande værdi; mens præcision er opløsningen af repræsentationen, typisk defineret af antallet af decimaler eller binære cifre.

i militære termer refererer nøjagtigheden primært til nøjagtigheden af ild (justesse de tir), præcisionen af ild udtrykt ved nærheden af en gruppering af skud i og omkring midten af målet.,

QuantificationEdit

Se også: Falsk præcision

I industriel instrumentering, nøjagtighed måling tolerance, eller transmission af instrumentet og definerer rammerne af de fejl, der foretages, når apparatet bruges under normale driftsforhold.

ideelt set er en måleenhed både nøjagtig og præcis, med målinger alle tæt på og tæt samlet omkring den sande værdi. Nøjagtigheden og præcisionen af en måleproces fastlægges normalt ved gentagne gange at måle en sporbar referencestandard., Sådanne standarder er defineret i det Internationale System af Enheder (forkortet SI fra fransk: Système international d’unités) og vedligeholdes af nationale standarder for organisationer, såsom National Institute of Standards and Technology i Usa.

dette gælder også, når målinger gentages og gennemsnit. I dette tilfælde anvendes udtrykket standardfejl korrekt: nøjagtigheden af gennemsnittet er lig med den kendte standardafvigelse af processen divideret med kvadratroden af antallet af gennemsnitlige målinger., Endvidere viser central limit theorem, at sandsynlighedsfordelingen af de gennemsnitlige målinger vil være tættere på en normal fordeling end for individuelle målinger.

med hensyn til nøjagtighed kan vi skelne:

  • forskellen mellem middelværdien af målingerne og referenceværdien, bias. For kalibrering er det nødvendigt at fastlægge og korrigere for skævhed.
  • den kombinerede effekt af det og præcision.

en fælles konvention inden for videnskab og teknik er at udtrykke nøjagtighed og / eller præcision implicit ved hjælp af betydelige tal., Hvor det ikke udtrykkeligt er angivet, forstås fejlmargenen som halvdelen af værdien af det sidste betydelige sted. For eksempel ville en optagelse på 843.6 m eller 843.0 m eller 800.0 m indebære en margin på 0.05 m (det sidste signifikante sted er tiendedele), mens en optagelse på 843 m ville indebære en fejlmargin på 0.5 m (de sidste signifikante cifre er enhederne).

en aflæsning af 8.000 m, med efterfølgende nuller og ingen decimaltal, er tvetydig; de efterfølgende nuller kan eller ikke være tænkt som signifikante tal., For at undgå denne tvetydighed, antallet kunne blive repræsenteret i videnskabelig notation: 8.0 × 103 m angiver, at det første nul er betydelig (og dermed en margin på 50 m), mens 8.000 × 103 m angiver, at alle tre nuller er signifikant, hvilket giver en margin på 0,5 m. På samme måde kan man bruge et multiplum af den grundlæggende måleenhed: 8.0 km svarer til 8,0 × 103 m. Det viser en margin på 0,05 km (50 m). Afhængighed af denne konvention kan dog føre til falske præcisionsfejl, når man accepterer data fra kilder, der ikke adlyder dem., For eksempel ser en kilde, der rapporterer et tal som 153,753 med præcision +/- 5,000, ud som om det har præcision +/- 0.5. I henhold til konventionen ville det være blevet rundet til 154,000.

Alternativt, i en videnskabelig sammenhæng, hvis det er ønsket at angive den fejlmargin, med større præcision, kan man bruge en notation som 7.54398(23) × 10-10 m, hvilket betyder, at en række af mellem 7.54375 og 7.54421 × 10-10 m.,

Præcision indeholder:

  • repeterbarhed — den variation, der opstår, når alle bestræbelser er gjort for at holde betingelser konstant ved hjælp af det samme instrument, og operatøren, og gentage i løbet af en kort periode, og
  • reproducerbarhed — den variation, der opstår ved hjælp af den samme måling proces mellem de forskellige instrumenter og operatører og over længere perioder.

Share

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *