Precisione e precisione

La precisione è la vicinanza dei risultati della misurazione al valore reale; la precisione è il grado in cui misurazioni ripetute (o riproducibili) in condizioni invariate mostrano gli stessi risultati.

Nei campi della scienza e dell’ingegneria, l’accuratezza di un sistema di misurazione è il grado di vicinanza delle misure di una quantità al valore reale di quella quantità., La precisione di un sistema di misura, in relazione alla riproducibilità e alla ripetibilità, è il grado in cui misurazioni ripetute in condizioni invariate mostrano gli stessi risultati. Sebbene le due parole precisione e accuratezza possano essere sinonimi nell’uso colloquiale, sono deliberatamente contrastate nel contesto del metodo scientifico.

Il campo della statistica, dove l’interpretazione delle misurazioni gioca un ruolo centrale, preferisce usare i termini bias e variabilità invece di accuratezza e precisione: bias è la quantità di inesattezza e variabilità è la quantità di imprecisione.,

Un sistema di misurazione può essere preciso ma non preciso, preciso ma non accurato, né l’uno né l’altro. Ad esempio, se un esperimento contiene un errore sistematico, l’aumento della dimensione del campione aumenta generalmente la precisione ma non migliora l’accuratezza. Il risultato sarebbe una stringa coerente ma imprecisa di risultati dall’esperimento imperfetto. L’eliminazione dell’errore sistematico migliora la precisione ma non modifica la precisione.

Un sistema di misurazione è considerato valido se è sia preciso che preciso., I termini correlati includono bias (effetti non casuali o diretti causati da un fattore o fattori non correlati alla variabile indipendente) ed errore (variabilità casuale).

La terminologia viene applicata anche alle misurazioni indirette, ovvero ai valori ottenuti con una procedura computazionale dai dati osservati.

Oltre alla precisione e alla precisione, le misurazioni possono anche avere una risoluzione di misurazione, che è il più piccolo cambiamento nella quantità fisica sottostante che produce una risposta nella misurazione.,

Nell’analisi numerica, la precisione è anche la vicinanza di un calcolo al valore reale; mentre la precisione è la risoluzione della rappresentazione, tipicamente definita dal numero di cifre decimali o binarie.

In termini militari, la precisione si riferisce principalmente alla precisione del fuoco (justesse de tir), la precisione del fuoco espressa dalla vicinanza di un raggruppamento di colpi al centro del bersaglio e intorno a esso.,

Quantificazionemodifica

Vedi anche: False precision

Nella strumentazione industriale, la precisione è la tolleranza di misura o trasmissione dello strumento e definisce i limiti degli errori commessi quando lo strumento viene utilizzato in condizioni operative normali.

Idealmente un dispositivo di misurazione è preciso e preciso, con misurazioni tutte vicine e strettamente raggruppate attorno al valore reale. L’accuratezza e la precisione di un processo di misurazione vengono solitamente stabilite misurando ripetutamente alcuni standard di riferimento tracciabili., Tali standard sono definiti nel Sistema internazionale di unità (abbreviato SI dal francese: Système international d’unités) e mantenuti da organizzazioni nazionali di standardizzazione come il National Institute of Standards and Technology negli Stati Uniti.

Questo vale anche quando le misurazioni vengono ripetute e calcolate in media. In tal caso, viene applicato correttamente il termine errore standard: la precisione della media è uguale alla deviazione standard nota del processo divisa per la radice quadrata del numero di misurazioni medie., Inoltre, il teorema del limite centrale mostra che la distribuzione di probabilità delle misurazioni medie sarà più vicina a una distribuzione normale rispetto a quella delle singole misurazioni.

Per quanto riguarda la precisione possiamo distinguere:

  • la differenza tra la media delle misurazioni e il valore di riferimento, il bias. Stabilire e correggere il bias è necessario per la calibrazione.
  • l’effetto combinato di questo e precisione.

Una convenzione comune nella scienza e nell’ingegneria è quella di esprimere precisione e / o precisione implicitamente per mezzo di cifre significative., Se non esplicitamente indicato, il margine di errore è inteso come la metà del valore dell’ultimo posto significativo. Ad esempio, una registrazione di 843,6 m, o 843,0 m, o 800,0 m implicherebbe un margine di 0,05 m (l’ultimo posto significativo è il posto dei decimi), mentre una registrazione di 843 m implicherebbe un margine di errore di 0,5 m (le ultime cifre significative sono le unità).

Una lettura di 8.000 m, con zeri finali e nessun punto decimale, è ambigua; gli zeri finali possono o non possono essere intesi come cifre significative., Per evitare questa ambiguità, il numero potrebbe essere rappresentato in notazione scientifica: 8.0 × 103 m indica che il primo zero è significativo (e quindi un margine di 50 m), mentre 8.000 × 103 m indica che tutti e tre zeri sono significativi, dando un margine di 0,5 m. Allo stesso modo, è possibile utilizzare un multiplo dell’unità di misura fondamentale: 8.0 km è equivalente a 8.0 × 103 m. Indica un margine di 0,05 km (50 m). Tuttavia, fare affidamento su questa convenzione può portare a falsi errori di precisione quando si accettano dati da fonti che non vi obbediscono., Ad esempio, una fonte che riporta un numero come 153.753 con precisione +/- 5.000 sembra avere precisione +/- 0,5. Secondo la convenzione sarebbe stato arrotondato a 154.000.

In alternativa, in un contesto scientifico, se si desidera indicare il margine di errore con maggiore precisione, si può utilizzare una notazione come 7.54398(23) × 10-10 m, ovvero un intervallo compreso tra 7.54375 e 7.54421 × 10-10 m.,

Precisione include:

  • ripetibilità — la variazione derivante quando tutti gli sforzi sono fatti per mantenere costanti le condizioni utilizzando lo stesso strumento e per l’operatore, e di ripetere nel corso di un breve periodo di tempo; e
  • la riproducibilità — la variazione derivante utilizzando lo stesso processo di misurazione tra i diversi strumenti e operatori, e su lunghi periodi di tempo.

Share

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *