Acuratețea și precizia

Precizia este apropierea de rezultate de măsurare la adevărata valoare; precizia este gradul în care se repetă (sau reproductibile) măsurători în condiții neschimbate arată aceleași rezultate.

în domeniile științei și ingineriei, precizia unui sistem de măsurare este gradul de apropiere a măsurătorilor unei cantități de valoarea reală a acelei cantități., Precizia unui sistem de măsurare, legată de reproductibilitate și repetabilitate, este gradul în care măsurătorile repetate în condiții neschimbate arată aceleași rezultate. Deși cele două cuvinte precizie și precizie pot fi sinonime în utilizarea colocvială, ele sunt în mod deliberat contraste în contextul metodei științifice.domeniul statisticilor, în care interpretarea măsurătorilor joacă un rol central, preferă să folosească termenii părtinire și variabilitate în loc de precizie și precizie: părtinirea este cantitatea de inexactitate, iar variabilitatea este cantitatea de imprecizie.,un sistem de măsurare poate fi precis, dar nu precis, precis, dar nu exact, nici unul, sau ambele. De exemplu, dacă un experiment conține o eroare sistematică, atunci creșterea dimensiunii eșantionului crește, în general, precizia, dar nu îmbunătățește precizia. Rezultatul ar fi un șir consistent, dar inexact, de rezultate din experimentul defectuos. Eliminarea erorii sistematice îmbunătățește precizia, dar nu schimbă precizia.un sistem de măsurare este considerat valabil dacă este atât precis, cât și precis., Termenii înrudiți includ părtinirea (efecte non-aleatorii sau direcționate cauzate de un factor sau factori care nu au legătură cu variabila independentă) și eroarea (variabilitatea aleatorie).terminologia se aplică și măsurătorilor indirecte-adică valorilor obținute printr-o procedură computațională din datele observate.în plus față de precizie și precizie, măsurătorile pot avea, de asemenea, o rezoluție de măsurare, care este cea mai mică modificare a cantității fizice subiacente care produce un răspuns în măsurare.,

în analiza numerică, precizia este, de asemenea, apropierea unui calcul de valoarea reală; în timp ce precizia este rezoluția reprezentării, de obicei definită de numărul de cifre zecimale sau binare.în termeni militari, precizia se referă în primul rând la precizia focului (justesse de tir), precizia focului exprimată prin apropierea unei grupări de focuri la și în jurul centrului țintei.,

Cuantificareedit

Vezi și: precizie falsă

în instrumentația industrială, precizia este toleranța de măsurare sau transmiterea instrumentului și definește limitele erorilor făcute atunci când instrumentul este utilizat în condiții normale de funcționare.în mod ideal, un dispozitiv de măsurare este atât precis, cât și precis, cu măsurători apropiate și strâns grupate în jurul valorii reale. Precizia și precizia unui proces de măsurare este de obicei stabilită prin măsurarea repetată a unor standarde de referință trasabile., Aceste standarde sunt definite în Sistemul Internațional de Unități (abreviat SI din limba franceză: Système international d’unités) și menținut de către organizațiile de standardizare naționale, cum ar fi Institutul Național de Standarde și Tehnologie din Statele Unite ale americii.acest lucru se aplică și atunci când măsurătorile sunt repetate și medii. În acest caz, termenul eroare standard este aplicat corect: precizia mediei este egală cu abaterea standard cunoscută a procesului împărțită la rădăcina pătrată a numărului de măsurători medii., Mai mult, teorema limitei centrale arată că distribuția probabilității măsurătorilor medii va fi mai aproape de o distribuție normală decât cea a măsurătorilor individuale.în ceea ce privește precizia, putem distinge:

  • diferența dintre media măsurătorilor și valoarea de referință, părtinirea. Stabilirea și corectarea pentru părtinire este necesară pentru calibrare.
  • efectul combinat al acesteia și al preciziei.

o convenție comună în știință și inginerie este de a exprima acuratețea și/sau precizia implicit prin intermediul unor cifre semnificative., În cazul în care nu se menționează în mod explicit, marja de eroare este înțeleasă ca fiind jumătate din valoarea ultimului loc semnificativ. De exemplu, o înregistrare de 843.6 m, sau 843.0 m, sau 800.0 m ar implica o marja de 0,05 m (ultimul loc semnificativ este zecimi loc), în timp ce o înregistrare de 843 m ar implica o marja de eroare de 0,5 m (ultimele cifre semnificative sunt unități).

o citire de 8.000 m, cu zerouri la sfârșit și fără punct zecimal, este ambiguă; zerourile la sfârșit pot sau nu pot fi considerate cifre semnificative., Pentru a evita această ambiguitate, numărul ar putea fi reprezentate în notația științifică: 8.0 × 103 m indică faptul că primul zero este semnificativă (prin urmare, o marjă de 50 m), în timp ce 8.000 × 103 m indică faptul că toate cele trei zerouri sunt semnificative, oferind o marjă de 0,5 m. În mod similar, se poate folosi un multiplu de unitatea de măsură de bază: 8.0 m este echivalent cu 8.0 × 103 m. Aceasta indică o marjă de 0.05 km (50 m). Cu toate acestea, încrederea în această convenție poate duce la erori false de precizie atunci când acceptă date din surse care nu o respectă., De exemplu, o sursă care raportează un număr precum 153,753 cu precision +/- 5,000 pare să aibă precision +/- 0.5. Conform Convenției, aceasta ar fi fost rotunjită la 154 000.

în mod Alternativ, într-un context științific, dacă este de dorit pentru a indica marja de eroare cu mai multă precizie, se poate utiliza o notație cum ar fi 7.54398(23) × 10-10 m, adică o serie de între 7.54375 și 7.54421 × 10-10 m.,

Precizie include:

  • repetabilitate — variația care apar atunci când toate eforturile sunt făcute pentru a păstra condiții constante, folosind același instrument și operator, și se repetă în timpul o scurtă perioadă de timp; și
  • reproductibilitate — variația rezultate folosind același proces de măsurare între diferite instrumente și operatori, și pe durate mai lungi de timp.

Share

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *