Абсолютная погрешность описывается формулой (3.11) и выражается в единицах измеряемой величины. Относительная погрешность – это погрешность, выраженная отношением абсолютной погрешности к действительному или измеренному значению измеряемой величины
, (8)
где – абсолютная погрешность измерений; – действительное или измеренное значение величины.
Относительная погрешность может быть рассчитана в неименованных относительных единицах (долях) по формуле (3.12) или в именованных относительных единицах (например, в процентах или в промилле). При использовании именованной относительной погрешности, выраженной в процентах, формулу для относительной погрешности можно записать в виде
. (9)
Для характеристики средств измерений используют приведенную погрешность. ( ). Приведенная погрешность – это относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины (нормирующему значению), постоянному во всем диапазоне измерений или в его части
100%, (10)
где – абсолютная погрешность средства измерений; – нормирующее значение.
В качестве нормирующей величины могут использоваться верхний предел измерений либо больший из модулей пределов измерений, если нулевое значение находится внутри диапазона измерений, а верхний и нижний пределы неодинаковы по модулю, и другие величины, оговоренные в ГОСТ 8.401–80.
По характеру проявления погрешности делятся на систематические, случайные и грубые.
11) Как вычисляется относительная погрешность? Как изменяется относительная погрешность измерений с уменьшением действительного или измеренного значения измеряемой величины?
Относительная погрешность измерения (англ. relative error) – погрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному или измеренному значению измеряемой величины.
Примечание. Относительную погрешность в долях или процентах находят из отношений:
(11)
где: δx - абсолютная погрешность измерений; x - действительное или измеренное значение величины.
Относительная погрешность есть отношение абсолютной погрешности измерения к действительному или измеренному значению измеряемой величины:
δ = ΔX/X или δ = (ΔX/X) × 100%. (12)
Из этих отношений находят относительную погрешность в долях измеряемой величины или процентах.
Эта наглядная характеристика точности результата измерения (считают, что чем меньшее погрешность измерения, тем больше его точность) не годится для нормирования погрешности СИ, так как при изменении значений X, относительная погрешность принимает различные значения вплоть до бесконечности при X=0. В связи с этим для указания и нормирования погрешности СИ используется еще одна разновидность погрешности – приведенная.
12) Как вычисляется приведенная погрешность? Что такое нормирующее значение и как оно выбирается?
Приведенная погрешность средства измерений – это относительная погрешность, в которой абсолютная погрешность СИ отнесена к условно принятому значению XN, постоянному во всем диапазоне измерений или его части (обычно выражают в процентах):
γ = ΔX/XN или γ = (ΔX/XN) × 100%. (13)
Условно принятое значение XN называют нормирующим. Чаще всего за него принимают верхний предел измерений данного СИ, применительно к которым и используется главным образом понятие «приведенная погрешность». За нормирующее значение принимается значение, характерное для данного вида СИ. Это может быть, например, верхний предел измерений, длина шкалы и т.д. Для приборов с нулевой отметкой на краю шкалы нормирующее значение равно конечному значению диапазона измерений. Для приборов с двухсторонней шкалой, т.е. с отметками шкалы, расположенными по обе стороны от нуля значение ХN равно арифметической сумме модулей конечных значений диапазона измерения.
Точность ряда СИ с различными диапазонами измерений может сопоставляться только по их приведенным погрешностям.
13) Причины возникновения погрешности метода измерений. Погрешность метода измерений по характеру проявления относится к систематической или случайной погрешности?
Достарыңызбен бөлісу: |