|
1) Погре́шность измере́ния — оценка отклонения величины измеренного значения величины от её истинного значения. Погрешность измерения является характеристикой (мерой) точности измерения.
Поскольку выяснить с абсолютной точностью истинное значение любой величины невозможно, то невозможно и указать величину отклонения истинного значения от измеренного. (Это отклонение принято называть ошибкой измерения. В ряде источников, например, в БСЭ, термины ошибка измерения и погрешность измерения используются как синонимы.) Возможно лишь оценить величину этого отклонения, например, при помощи статистических методов. При этом за истинное значение принимается среднестатистическое значение, полученное при статистической обработке результатов серии измерений. Это полученное значение не является точным, а лишь наиболее вероятным. Поэтому в измерениях необходимо указывать, какова их точность. Для этого вместе с полученным результатом указывается погрешность измерений. Например, запись T=2.8±0.1 c. означает, что истинное значение величины T лежит в интервале от 2.7 с. до 2.9 с. некоторой оговоренной вероятностью (см. доверительный интервал, доверительная вероятность, стандартная ошибка).
Определение погрешности
В зависимости от характеристик измеряемой величины для определения погрешности измерений используют различные методы.
Δ X > | Xtrue − Xmeas |,
где Xtrue — истинное значение, а Xmeas — измеренное значение, должно выполняться с некоторой вероятностью близкой к 1. Если случайная величина Xmeas распределена по нормальному закону, то, обычно, за абсолютную погрешность принимают её среднеквадратичное отклонение. Абсолютная погрешность измеряется в тех же единицах измерения, что и сама величина.
где Xn - нормирующее значение, которое зависит от типа шкалы измерительного прибора и определяется по его градуировке:
- если шкала прибора односторонняя, т.е. нижний предел измерений равен нулю, то Xn определяется равным верхнему пределу измерений;
- если шкала прибора двухсторонняя, то нормирующее значение равно диапазону измерений прибора.
Приведенная погрешность - безразмерная величина (может измеряться в процентах).
По причине возникновения
Класс точности средства измерений — обобщенная характеристика прибора, характеризующая допустимые по стандарту величины основных и дополнительных погрешностей, влияющих на точность измерения.
Погрешность может нормироваться, в частности, по отношению к:
в этом случае, по ГОСТ 13600-68, цифровое обозначение класса точности (в процентах) заключается в кружок.
Для электроизмерительных стрелочных приборов принято указывать класс точности, записываемый в виде числа, например, 0,05 или 4,0. Это число дает максимально возможную погрешность прибора, выраженную в процентах от наибольшего значения величины, измеряемой в данном диапазоне работы прибора. Так, для вольтметра, работающего в диапазоне измерений 0 – 30 В, класс точности 1,0 определяет, что указанная погрешность при положении стрелки в любом месте шкалы не превышает 0,3 В. Соответственно, среднее квадратичное отклонение s прибора составляет 0,1 В.
Относительная погрешность результата, полученного с помощью указанного вольтметра, зависит от значения измеряемого напряжения, становясь недопустимо высокой для малых напряжений. При измерении напряжения 0,5 В погрешность составит 20%. Как следствие, такой прибор не годится для исследования процессов, в которых напряжение меняется на 0,1 – 0,5 В.
Обычно цена наименьшего деления шкалы стрелочного прибора согласована с погрешностью самого прибора. Если класс точности используемого прибора неизвестен, за погрешность s прибора всегда принимают половину цены его наименьшего деления. Понятно, что при считывании показаний со шкалы нецелесообразно стараться определить доли деления, так как результат измерения от этого не станет точнее
2)
3)Расходомеры переменного перепада давления
Дата добавления: 2015-07-25; просмотров: 57 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Билет№2 | | | Классификация основных методов прогнозирования развития СЭС |