Dokładność i precyzja

dokładność to bliskość wyników pomiaru do wartości rzeczywistej; precyzja to stopień, w jakim powtarzane (lub powtarzalne) pomiary w niezmienionych warunkach pokazują te same wyniki.

w dziedzinie nauki i inżynierii dokładność systemu pomiarowego jest stopniem bliskości pomiarów wielkości do rzeczywistej wartości tej ilości., Precyzja układu pomiarowego, związana z odtwarzalnością i powtarzalnością, to stopień, w jakim powtarzane pomiary w niezmienionych warunkach wykazują te same wyniki. Chociaż dwa słowa precyzja i dokładność mogą być synonimami w potocznym użyciu, są one celowo kontrastowane w kontekście metody naukowej.

dziedzina statystyki, w której interpretacja pomiarów odgrywa kluczową rolę, woli używać terminów bias i zmienność zamiast dokładności i precyzji: bias to ilość niedokładności, a zmienność to ilość nieprecyzyjności.,

system pomiarowy może być dokładny, ale nie precyzyjny, precyzyjny, ale nie dokładny, ani żaden, ani oba. Na przykład, jeśli eksperyment zawiera systematyczny Błąd, a następnie zwiększenie wielkości próbki na ogół zwiększa precyzję, ale nie poprawia dokładności. Wynik byłby spójny, ale niedokładny ciąg wyników błędnego eksperymentu. Wyeliminowanie błędu systematycznego poprawia dokładność, ale nie zmienia precyzji.

system pomiarowy jest uważany za ważny, jeśli jest zarówno dokładny, jak i precyzyjny., Pokrewne terminy obejmują bias (losowe lub kierowane skutki spowodowane przez czynnik lub czynniki niezwiązane ze zmienną niezależną) i błąd (zmienność losowa).

terminologię stosuje się również do pomiarów pośrednich—czyli wartości uzyskanych metodą obliczeniową z obserwowanych danych.

oprócz dokładności i precyzji, pomiary mogą mieć również rozdzielczość pomiaru, która jest najmniejszą zmianą podstawowej wielkości fizycznej, która powoduje reakcję w pomiarze.,

w analizie numerycznej dokładność jest również bliskością obliczeń do wartości rzeczywistej; podczas gdy precyzja jest rozdzielczością reprezentacji, zazwyczaj definiowaną przez liczbę cyfr dziesiętnych lub binarnych.

w ujęciu wojskowym celność odnosi się przede wszystkim do celności (justesse de tir), precyzji ognia wyrażonej przez bliskość grupy strzałów w środek celu i wokół niego.,

QuantificationEdit

Zobacz także: fałszywa precyzja

w oprzyrządowaniu przemysłowym dokładność jest tolerancją pomiaru lub transmisją przyrządu i określa granice błędów popełnianych, gdy przyrząd jest używany w normalnych warunkach pracy.

idealnie urządzenie pomiarowe jest zarówno dokładne, jak i precyzyjne, a pomiary są bliskie i ściśle skupione wokół wartości rzeczywistej. Dokładność i precyzja procesu pomiarowego jest zwykle ustalana przez wielokrotne mierzenie pewnej identyfikowalnej normy odniesienia., Normy takie są zdefiniowane w międzynarodowym systemie jednostek (w skrócie SI z francuskiego: Système international d ' unités) i utrzymywane przez krajowe organizacje normalizacyjne, takie jak Narodowy Instytut Norm i Technologii w Stanach Zjednoczonych.

dotyczy to również pomiarów powtarzanych i uśrednianych. W takim przypadku termin błąd standardowy jest prawidłowo stosowane: precyzja średnia jest równa znanym odchyleniem standardowym procesu podzielona przez pierwiastek kwadratowy liczby pomiarów uśrednionych., Ponadto, centralne twierdzenie graniczne pokazuje, że rozkład prawdopodobieństwa uśrednionych pomiarów będzie bliższy rozkładowi normalnemu niż poszczególnych pomiarów.

pod względem dokładności możemy wyróżnić:

  • różnicę między średnią pomiarów a wartością odniesienia, odchylenie. Do kalibracji niezbędne jest ustalenie i skorygowanie biasu.
  • połączony efekt tego i precyzji.

powszechną konwencją w nauce i inżynierii jest wyrażanie dokładności i/lub precyzji w sposób dorozumiany za pomocą znaczących liczb., Gdzie nie jest to wyraźnie określone, margines błędu jest rozumiany jako połowa wartości ostatniego znaczącego miejsca. Na przykład zapis 843,6 m lub 843,0 m lub 800,0 m oznaczałby margines 0,05 m (Ostatnie znaczące miejsce to dziesiąte miejsce), podczas gdy zapis 843 m oznaczałby margines błędu 0,5 m (Ostatnie znaczące cyfry to jednostki).

odczyt 8000 m, z końcowymi zerami i bez punktu dziesiętnego, jest niejednoznaczny; końcowe zera mogą, ale nie muszą, być przeznaczone jako liczby znaczące., Aby uniknąć tej dwuznaczności, liczba może być reprezentowana w notacji naukowej: 8,0 × 103 m oznacza, że pierwsze zero jest znaczące (stąd margines 50 m), podczas gdy 8,000 × 103 m oznacza, że wszystkie trzy zera są znaczące, dając margines 0,5 m. Podobnie, można użyć wielokrotności podstawowej jednostki miary: 8,0 km jest równoważne 8,0 × 103 m. wskazuje margines 0,05 km (50 m). Jednak poleganie na tej konwencji może prowadzić do fałszywych błędów precyzji przy przyjmowaniu danych ze źródeł, które jej nie przestrzegają., Na przykład źródło informujące o liczbie takiej jak 153,753 z dokładnością + / – 5,000 wygląda tak, jakby miało Dokładność +/- 0,5. Zgodnie z konwencją zaokrąglono ją do 154 tys.

alternatywnie, w kontekście naukowym, jeśli pożądane jest wskazanie marginesu błędu z większą precyzją, można użyć zapisu, takiego jak 7.54398(23) × 10-10 m, co oznacza zakres między 7.54375 a 7.54421 × 10-10 m.,

precyzja obejmuje:

  • powtarzalność — zmienność pojawiająca się, gdy podejmowane są wszelkie wysiłki, aby utrzymać warunki na stałym poziomie przy użyciu tego samego instrumentu i operatora oraz powtarzalność w krótkim okresie czasu; i
  • powtarzalność — zmienność pojawiająca się przy użyciu tego samego procesu pomiarowego między różnymi instrumentami i operatorami oraz w dłuższych okresach czasu.

Share

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *