Noggrannhet och precision

noggrannhet är närheten till mätresultaten till det verkliga värdet; precision är den grad som upprepade (eller reproducerbara) mätningar under oförändrade förhållanden visar samma resultat.

inom vetenskap och teknik är noggrannheten hos ett mätsystem graden av närhet av mätningar av en kvantitet till den kvantitetens sanna värde., Precisionen hos ett mätsystem, relaterat till reproducerbarhet och repeterbarhet, är den grad i vilken upprepade mätningar under oförändrade förhållanden visar samma resultat. Även om de två orden precision och noggrannhet kan vara synonymt i samtalsanvändning, kontrasteras de medvetet i samband med den vetenskapliga metoden.

statistikområdet, där tolkningen av mätningar spelar en central roll, föredrar att använda termerna bias och variabilitet istället för noggrannhet och precision: bias är mängden felaktighet och variabilitet är mängden imprecision.,

ett mätsystem kan vara exakt men inte exakt, exakt men inte exakt, varken eller båda. Till exempel, om ett experiment innehåller ett systematiskt fel, ökar ökningen av provstorleken i allmänhet precisionen men förbättrar inte noggrannheten. Resultatet skulle vara en konsekvent men felaktig sträng av resultat från det felaktiga experimentet. Att eliminera det systematiska felet förbättrar noggrannheten men ändrar inte precisionen.

ett mätsystem anses vara giltigt om det är både korrekt och exakt., Relaterade termer inkluderar bias (icke-slumpmässiga eller riktade effekter orsakade av en faktor eller faktorer som inte är relaterade till den oberoende variabeln) och fel (slumpmässig variabilitet).

terminologin tillämpas också på indirekta mätningar—det vill säga värden som erhållits genom ett beräkningsprocedur från observerade data.

förutom noggrannhet och precision kan mätningarna också ha en mätupplösning, vilket är den minsta förändringen i den underliggande fysiska kvantiteten som ger ett svar i mätningen.,

i numerisk analys är noggrannhet också närheten av en beräkning till det sanna värdet; medan precision är upplösningen av representationen, typiskt definierad av antalet decimaler eller binära siffror.

i militära termer hänvisar noggrannhet främst till brandens noggrannhet (justesse de tir), precisionen av eld uttryckt av närheten till en gruppering av skott vid och runt målets centrum.,

QuantificationEdit

se även: falsk precision

i industriell instrumentering är noggrannheten mättoleransen eller överföringen av instrumentet och definierar gränserna för de fel som uppstår när instrumentet används under normala driftsförhållanden.

helst är en mätanordning både exakt och exakt, med mätningar alla nära och tätt klustrade runt det sanna värdet. Noggrannheten och precisionen i en mätprocess fastställs vanligtvis genom att upprepade gånger mäta en viss spårbar referensstandard., Sådana standarder definieras i det Internationella Systemet av Enheter (förkortat SI från franska: Système international d’unités) och upprätthålls av nationella standarder för organisationer som National Institute of Standards and Technology i Usa.

detta gäller även när mätningar upprepas och i genomsnitt. I så fall används termen standardfel korrekt: medelvärdets precision är lika med den kända standardavvikelsen för processen dividerad med kvadratroten av antalet mätningar i genomsnitt., Vidare visar central limit theorem att sannolikhetsfördelningen för de genomsnittliga mätningarna kommer att ligga närmare en normal fördelning än för enskilda mätningar.

När det gäller noggrannhet kan vi skilja:

  • skillnaden mellan medelvärdet av mätningarna och referensvärdet, bias. För kalibrering är det nödvändigt att fastställa och korrigera för förspänning.
  • den kombinerade effekten av det och precision.

en gemensam konvention inom vetenskap och teknik är att uttrycka noggrannhet och / eller precision implicit med hjälp av signifikanta siffror., Om det inte uttryckligen anges, anses felmarginalen vara hälften av värdet på den sista betydande platsen. Till exempel skulle en inspelning av 843,6 m eller 843,0 m eller 800,0 m innebära en marginal på 0,05 m (den sista signifikanta platsen är tiondels plats), medan en inspelning av 843 m skulle innebära en felmarginal på 0,5 m (de sista signifikanta siffrorna är enheterna).

en läsning av 8 000 m, med efterföljande nollor och ingen decimalpunkt, är tvetydig; de efterföljande nollorna kan eller får inte vara avsedda som signifikanta siffror., För att undvika denna tvetydighet kan numret representeras i vetenskaplig notation: 8,0 × 103 m indikerar att den första nollan är signifikant (därav en marginal på 50 m) medan 8,000 × 103 m indikerar att alla tre nollorna är signifikanta, vilket ger en marginal på 0,5 m. på samma sätt kan man använda en multipel av basmätningsenheten: 8,0 km motsvarar 8,0 × 103 m. det indikerar en marginal på 0,05 km (50 m). Beroende av denna konvention kan dock leda till felaktiga precisionsfel när man tar emot data från källor som inte lyder den., Till exempel ser en källa som rapporterar ett tal som 153,753 med precision +/- 5,000 ut som om den har precision +/- 0,5. Enligt konventionen skulle den ha avrundats till 154 000.

Alternativt i ett vetenskapligt sammanhang, om det är önskvärt att ange marginal för fel med mer precision, kan man använda en notation som 7.54398(23) × 10-10 m, vilket innebär att ett intervall på mellan 7.54375 och 7.54421 × 10-10 m.,

Precision inkluderar:

  • repeterbarhet – variationen som uppstår när alla ansträngningar görs för att hålla förhållandena konstanta genom att använda samma instrument och operatör och upprepa under en kort tidsperiod; och
  • Reproducerbarhet — variationen som uppstår med samma mätprocess mellan olika instrument och operatörer och över längre tidsperioder.

Share

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *