Noggrannhet och precision är två viktiga faktorer att beakta när man mäter data. Både noggrannhet och precision återspeglar hur nära en mätning är till ett verkligt värde, men noggrannhet återspeglar hur nära en mätning är ett känt eller accepterat värde, medan precision reflekterar hur reproducerbara mätningar är, även om de är långt ifrån det accepterade värdet.
Du kan tänka på noggrannhet och precision när det gäller att slå en tjur. Att träffa målet korrekt innebär att du är nära mitten av målet, även om alla märken finns på olika sidor av mitten. Att träffa ett mål exakt innebär att alla träffar är nära åtskilda, även om de är mycket långt ifrån mitten av målet. Mätningar som är både exakta och exakta är repeterbara och mycket nära sanna värden.
Det finns två vanliga definitioner av noggrannhet. I matematik, vetenskap och teknik avser noggrannhet hur nära en mätning är det verkliga värdet.
ISO (International Organization for Standardization) tillämpar en mer rigid definition, där noggrannhet avser en mätning med både riktiga och konsekventa resultat. ISO-definitionen innebär att en exakt mätning har inget systematiskt fel och inget slumpmässigt fel. I huvudsak rekommenderar ISO det exakt används när en mätning är både exakt och exakt.
Precision är hur konsekventa resultat är när mätningarna upprepas. Exakta värden skiljer sig från varandra på grund av slumpmässigt fel, vilket är en form av observationsfel.
Du kan tänka på noggrannhet och precision när det gäller en basketspelare. Om spelaren alltid gör en korg, trots att han slår olika delar av kanten, har han en hög grad av noggrannhet. Om han inte gör många korgar men alltid slår samma del av kanten, har han en hög grad av precision. En spelare vars frikast alltid gör korgen på exakt samma sätt har en hög grad av både noggrannhet och precision.
Ta experimentella mätningar för ett annat exempel på precision och noggrannhet. Om du gör mätningar av massan i ett 50,0-gram standardprov och får värden 47,5, 47,6, 47,5 och 47,7 gram är din skala exakt, men inte särskilt exakt. Om din skala ger dig värden 49,8, 50,5, 51,0 och 49,6 är den mer exakt än den första balansen men inte lika exakt. Den mer exakta skalan skulle vara bättre att använda i labbet, förutsatt att du gjorde en justering för dess fel.
Ett enkelt sätt att komma ihåg skillnaden mellan noggrannhet och precision är:
Tror du att det är bättre att använda ett instrument som registrerar exakta mätningar eller ett som registrerar exakta mätningar? Om du väger dig själv på en skala tre gånger och varje gång antalet är annorlunda, men ändå är det nära din verkliga vikt, är skalan korrekt. Ändå kan det vara bättre att använda en skala som är exakt, även om den inte är korrekt. I detta fall skulle alla mätningar vara mycket nära varandra och "av" från det verkliga värdet med ungefär samma mängd. Detta är ett vanligt problem med skalor, som ofta har en "tar" -knapp för att nollställa dem.
Medan vågar och balanser kan tillåta dig att tara eller göra en justering för att göra mätningar både exakta och exakta, kräver många instrument kalibrering. Ett bra exempel är en termometer. Termometrar läser ofta mer tillförlitligt inom ett visst intervall och ger alltmer felaktiga (men inte nödvändigtvis upräkta) värden utanför det intervallet. För att kalibrera ett instrument, registrera hur långt bort dess mätningar är från kända eller sanna värden. Registrera kalibreringen för att säkerställa korrekt avläsning. Många utrustningar kräver periodisk kalibrering för att säkerställa exakt och exakt avläsning.
Noggrannhet och precision är bara två viktiga begrepp som används i vetenskapliga mätningar. Två andra viktiga färdigheter för att behärska är betydande figurer och vetenskaplig notation. Forskare använder procentfel som en metod för att beskriva hur exakt och exakt ett värde är. Det är en enkel och användbar beräkning.