Способы представления характеристики погрешности.

Государственное профессиональное

Образовательное учреждение

«Енакиевский металлургический техникум»

ПМ 01. МДК. 01.02 Методы осуществления стандартных и сертификационных испытаний, метрологических поверок средств измерений

Раздел 1. Метрология, стандартизация и сертификация

Тема 2 «Классификация и методы измерения. Погрешности»

Тема 2.6

Лекция 7

« Основные метрологические характеристики средств измерений»

План.

1. Основные метрологические характеристики средств измерений.

2. Абсолютные, относительные и приведеная погрешности.

3. Класс прибора

4. Контрольные вопросы.

5. Вопросы для самостоятельного изучения.

6. Литература. Информационные ресурсы.

 

Преподаватель ____________________ Г.В. Лунина


 

1. При использовании средств измерений принципиально важно знать степень соответствия информации об измеряемой величине, содержащейся в выходном сигнале, ее истинному значению. С этой целью для каждого СИ вводятся и нормируются определенные метрологические характеристики (МХ). Метрологическими называются характеристики свойств СИ, оказывающие влияние на результат измерения и его погрешности. Характеристики, устанавливаемые нормативными документами, называются нормируемыми, а определяемые экспериментально – действительными. Номенклатура МХ, правила выбора комплексов нормируемых МХ для средств измерений и способы их нормирования определяются стандартом ГОСТ 8.009–84. 

Метрологические характеристики СИ позволяют:

· определять результаты измерений и рассчитывать оценки характеристик инструментальной составляющей погрешности измерения в реальных условиях применения СИ;

· рассчитывать МХ каналов измерительных систем, состоящих из ряда средств измерений с известными МХ;

· производить оптимальный выбор СИ, обеспечивающих требуемое качество измерений при известных условиях их применения;

· − сравнивать СИ различных типов с учетом условий применения.

Нормируемые МХ, приводимые в нормативной документации, отражают свойства не отдельно взятого экземпляра СИ, а всей совокупности СИ этого типа, т.е. являются номинальными.

Перечень нормируемых МХ делится на шесть основных групп, которые приведены на рис. 1.

Для определения результатов измерений должны быть  известны следующие МХ:

· Функция преобразования F(X ). Данная функция нормируется для измерительных преобразователей и приборов с неименованной шкалой или со шкалой, отградуированной в единицах, отличных от единиц входной величины. Задается в виде формулы, таблицы или графика и используется для определения значений измеряемой величины Х в рабочих условиях применения СИ по известному значению информативного параметра его выходного сигнала.

· Значение одно-(Y ) или многозначной (Yi ) меры. Для этих характеристик нормируются номинальные или индивидуальные

· значения. Они используются для устройств, применяемых в качестве мер.

· Цена деления шкалы измерительного прибора или многозначной меры. Нормирование цены деления производится для показывающих приборов с равномерной шкалой, функция преобразования которых отображается на именованной шкале. При неравномерной шкале нормируется минимальная цена деления.

· Характеристики цифрового кода, используемого в СИ и их элементах. К ним относятся: вид выходного кода, число его разрядов, цена единицы младшего разряда. Эти характеристики нормируются для цифровых приборов.

 Метрологические характеристики погрешностей СИ, приведенные на рис1, описывают погрешности, обусловленные собственными свойствами СИ в нормальных условиях эксплуатации. Суммарное значение этих погрешностей образует основную погрешность СИ.

Оценка пригодности средств измерений для решения тех или иных измерительных задач проводится путем рассмотрения их метрологических характеристик.

Метрологическая характеристика (МХ) – характеристика одного из свойств средства измерений, влияющая на результат измерений и его погрешность. Метрологические характеристики позволяют судить об их пригодности для измерений в известном диапазоне с известной точностью. Метрологические характеристики, устанавливаемые нормативными документами на средства измерений, называют нормируемыми метрологическими характеристиками, а определяемые экспериментально – действительными.

Для каждого типа СИ устанавливаются свои метрологические характеристики. Ниже рассматриваются наиболее распространенные на практике метрологические характеристики.

Диапазон измерений СИ – область значений величины, в пределах которой нормированы его допускаемые пределы погрешности. Для мер это их номинальное значение, для преобразователей — диапазон преобразования. Различают нижний и верхний пределы измерений, которые выражаются значениями величины, ограничивающими диапазон измерений снизу и сверху.

Погрешность СИ — разность между показанием средства измерений – Хп и истинным (действительным) значением измеряемой величины – Х д.

2. Существует распространенная классификация погрешностей средств измерений. Ниже приводятся примеры их наиболее часто используемых видов.

Абсолютная погрешность СИ – погрешность средства измерений, выраженная в единицах измеряемой величины: D Х = Хп – Хд. Абсолютная погрешность удобна для практического применения, т.к. дает значение погрешности в единицах измеряемой величины. Но при ее использовании трудно сравнивать по точности приборы с разными диапазонами измерений. Эта проблема снимается при использовании относительных погрешностей.

Если абсолютная погрешность не изменяется во всем диапазоне измерения, то она называется аддитивной, если она изменяется пропорционально измеряемой величине (увеличивается с ее увеличением), то она называется мультипликативной

Относительная погрешность СИ – погрешность средства измерений, выраженная отношением абсолютной погрешности СИ к результату измерений или к действительному значению измеренной величины: d = D Х / Хд. Относительная погрешность дает наилучшее из всех видов погрешностей представление об уровне точности измерений, который может быть достигнут при использовании данного средства измерений. Однако она обычно существенно изменяется вдоль шкалы прибора, например, увеличивается с уменьшением значения измеряемой величины. В связи с этим часто используют приведенную погрешность.

Приведенная погрешность СИ – относительная погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины ХN, которое называют нормирующим:   g = D Х / Х N ..

Относительные и приведенные погрешности обычно выражают либо в процентах, либо в относительных единицах (долях единицы).


Рисунок 2.6.1. Номенклатура метрологических характеристик средств измерений.


 


Для показывающих приборов нормирующее значение устанавливается в зависимости от особенностей и характера шкалы. Приведенные погрешности позволяют сравнивать по точности средства измерений, имеющие разные пределы измерений, если абсолютные погрешности каждого из них не зависят от значения измеряемой величины.

По условиям проведения измерений погрешности средств измерений подразделяются на основные и дополнительные.

Основная погрешность СИ – погрешность средства измерений, применяемого в нормальных условиях, т.е. в условиях, которые определены в НТД не него как нормальные. Нормальные значения влияющих величин указываются в стандартах или технических условиях на средства измерений данного вида в форме номиналов с нормированными отклонениями. Наиболее типичными нормальными условиями являются:

- температура (20 ± 5)° С;

- относительная влажность (65±15) %;

- атмосферное давление (100±4) кПа или (750±30) мм рт. ст.;

- напряжение питания электрической сети 220 В ± 2 % с частотой 50 Гц.

Иногда вместо номинальных значений влияющих величин указывается нормальная область их значений. Например, влажность (30 – 80) %. 

Дополнительная погрешность СИ – составляющая погрешности СИ, возникающая дополнительно к основной погрешности вследствие отклонения какой-либо из влияющих величин от нормального ее значения. Деление погрешностей на основные и дополнительные обусловлено тем, что свойства средств измерений зависят от внешних условий.

 Погрешности по своему происхождению разделяются на систематические и случайные.

Систематическая погрешность СИ – составляющая погрешности средства измерений, принимаемая за постоянную или закономерно изменяющуюся. Систематические погрешности являются в общем случае функциями измеряемой величины и влияющих величин (температуры, влажности, давления, напряжения питания и т.п.).

Случайная погрешность СИ – составляющая погрешности средства измерений, изменяющаяся случайным образом. Случайные погрешности средств измерений обусловлены случайными изменениями параметров составляющих эти СИ элементов и случайными погрешностями отсчета показаний приборов.

   Аддитивная погрешность а не зависит от чувствительности прибора и является постоянной для всех значений входной величины в пределах диапазона измерений (прямая 3, рис. 2) и поэтому её называют погрешностью нуля. Это налагающиеся внешние помехи, которые влияют на измерительный сигнал и соответственно на показания прибора. Примерами аддитивных помех могут служить наложения на измерительный сигнал напряжения, наведенного переменным магнитным полем.

   Мультипликативная погрешность b × х зависит от чувствительности прибора и изменяется пропорционально текущему значению входной величины (прямая 2, рис. 2) и поэтом её называют погрешностью чувствительности. Эту помеху еще называют деформирующей. Мультипликативная помеха влияет на передаточную характеристику прибора или изменяет ее. Часто это статическое давление, температура окружающей среды, поле тяготения. Как пример такой помехи можно назвать односторонний нагрев рычажных весов солнечными лучами. В результате этого происходит тепловое удлинение одного из плеч рычага и равновесие нарушается. Еще один пример, измерение температуры движущейся жидкости. При этом скорость потока является деформирующей погрешностью, так как влияет на темплообмен между жидкостью и чувствительным элементом и вместе с другими факторами определяет инерционность прибора.

   Суммарная абсолютная погрешность выражается уравнением

D = a + b × x ,

К аддитивной погрешности прибора можно отнести погрешность, вызванную трением в опорах электроизме­рительных приборов, которая не зависит от значения входного сигнала, а также помехи, шумы, погрешность дискретности (квантования) в цифровых приборах. Ес­ли прибору присуща только аддитивная погрешность или она существенно превышает другие составляющие, то целесообразно нормировать абсолютную погрешность.

   К мультипликативной погрешности можно отнести погрешности изготовления добавочного резистора в вольтметре или шунта в амперметре, погрешности коэффициента деления делителя и т. д. Мультипликативная составляющая абсолютной погрешности увеличивается с увеличением измеряемой величины, а так как относительная погрешность остается постоянной, то в этом случае целесообразно нормировать погрешность прибора в виде относительной погрешности.

   Аддитивная и мультипликативная погрешности мо­гут иметь как систематический, так и случайный характер.

При конструировании прибора его случайную погрешность стараются сделать незначительной в сравнении с другими погрешностями. У хорошо сконструированного и выполненного прибора случайная погрешность незначительна. Однако при увеличении чувствительности средств измерений обычно наблюдается увеличение случайной погрешности. Тогда при повторных измерениях одной и той же величины в одних и тех же условиях результаты будут различными. В таком случае приходится прибегать многократнымизмерениям и к статистической обработке получаемых результатов. Как правило, случайную погрешность приборов снижается до такого уровня, что проводить многократные измерений нет необходимости.

Стабильность СИ — качественная характеристика средства измерений, отражающая неизменность во времени его метрологических характеристик.

Градуировочная характеристика СИ – зависимость между значениями величин на входе и выходе средства измерений, полученная экспериментально. Может быть выражена в виде формулы, графика или таблицы.

Основная MX СИ — погрешность СИ — есть разность между показаниями СИ и истинными (действительными) значениями ФВ.

Все погрешности СИ в зависимости от внешних условий делятся на основные и дополнительные.

Основная погрешность — это погрешность СИ при нормальных условиях эксплуатации. Как правило, нормальными условиями эксплуатации являются: температура 293±5 К или 20±5 °С, относительная влажность воздуха 65+15% при 20 °С, напряжение в сети питания 220 В+10% с частотой 50 Гц±1%, атмосферное давление от 97,4 до 104 кПа, отсутствие электрических и магнитных полей (наводок).

Существуют три способа нормирования основной погрешности СИ:

1. нормирование пределов допускаемой абсолютной (±Δ) или приведенной погрешностей, постоянных во всем диапазоне измерения;

2. нормирование пределов допускаемой абсолютной (±Δ) или относительной (±δ) погрешностей в функции измеряемой величины;

3. нормирование постоянных пределов допускаемой основной погрешности, различных для всего диапазона измерений одного или нескольких участков.

В качестве предела допускаемой погрешности выступает наибольшая погрешность, вызываемая изменением влияющей величины, при которой СИ по техническим требованиям может быть допущено к применению. То же самое относится и к дополнительным погрешностям.

Способы представления характеристики погрешности.

1. С указанием абсолютной погрешности:

А = (Аизм±ΔА),единицы измерений, с заданной вероятностью, при заданных условиях.

Например: U = (30,0±0,5),В с р=99,7% при н.у.

Наиболее достоверное значение измеренного напряжения 30,0 В, при нормальных условиях, с вероятностью 99,7% абсолютная погрешность не превысит ±0,5В.

2. С указанием относительной погрешности:

А - Анзм, ед-цы изм ±σА%, с заданной вероятностью, при заданных условиях.

Например:

U = 30,0 В ± 0,3%с р=99,7% при н.у.

3. С указанием доверительного интервала:

А = (Amin ± Аmах) ед-цы изм, с заданной вероятностью, при заданных условиях.

А = Аизм,ед-цы изм, -AC, +Ah, с заданной вероятностью, при заданных условиях.

4. Количественная характеристика погрешности должна содержать не более 2 значащих цифр.

 5. Количество знаков после запятой у основного значения и характеристики погрешности должно быть одинаковым.

Например: F = (10,000 ± 0,057) кГц с р=80% при н.у

При любых измерениях любыми средствами измерения полученное значение физической величины отличается от его истинного значения. Это связано с несовершенством применяемых методов измерения, средств измерений, непостоянством условий измерений и т.д. Отклонение результата измерения от истинного значения называется погрешностью измерения. Однако согласно одному из постулатов метрологии, истинное значение определить невозможно и поэтому погрешность определяется по отклонению результата измерения от действительного значения измеряемой величины, определяемая по формуле:

где ∆ - погрешность измерения; А - измеренное значение физической величины; Ад - действительное значение.

При проведении измерений в качестве действительного значения величины применяют значение величины, полученное с помощью образцовых средств измерений. При многократных измерениях за действительное значение обычно принимают среднее арифметическое из ряда отдельных измерений.

Погрешность измерения, выраженная в единицах измеряемой величины, называется абсолютной погрешностью (т.е. ∆). Однако, в большей степени точность средств измерений характеризует относительная погрешность, т.е. выраженное в процентах отношение абсолютной погрешности к действительному значению измеряемой величины

Если диапазон измерения прибора охватывает и нулевое значение измеряемой величины, то относительная погрешность обращается в бесконечность в соответствующей ему точке шкалы. В этом случае пользуются понятием приведенной погрешности, равной отношению абсолютной погрешности измерительного прибора к "размаху шкалы", т.е. ко всей длине шкалы, выраженной в единицах измеряемой величины

где А1 - наименьшая цифровая отметка на шкале прибора; А2 - наибольшая цифровая отметка на шкале прибора.

Часто величину Ан называют нормирующим значением прибора.

Пример 1.1. При измерении давления в рабочем пространстве нагревательной печи тягонапоромером (рабочий прибор) было зафиксировано значение +21 Па. Показание образцового прибора составило +20,5 Па. Определить абсолютную, относительную и приведенную погрешности, если крайние цифровые отметки на шкале рабочего прибора равны - 200 Па и +200 Па.

Абсолютная погрешность: ∆хизм=21–20,5=0,5 Па.

Относительная погрешность:

Приведенная погрешность:

Пример 1.2. Температура пара, измеренная рабочим прибором, составила 520 °С, а образцовым - 530 °С. Определить приведенную погрешность, если крайние цифровые отметки на шкале рабочего прибора равны +200 °С и +800 °С.

Приведенная погрешность:

Целью вычисления погрешностей измерений является оценка точности результата измерения или введение поправок в результаты измерений.

В данных примерах рассмотрены прямые однократные измерения. При прямом измерении результат определяется по показанию прибора (дополнительный расчет не производится).

При однократном измерении нельзя проследить разброс результатов, вызванный случайной составляющей погрешности.

При подобных измерениях для расчета допустимой погрешности (неопределенности) результата измерения используются метрологические характеристики прибора - допустимая основная или дополнительная погрешности прибора, которые указываются в его паспорте.

Допустимая погрешность прибора может быть представлена в виде:

- класса точности (используется только для аналоговых приборов);

- расчетной формулы;

- численного значения, выраженного в абсолютных или относительных значениях.

При многократных измерениях в качестве истинного значения, как правило, используют среднее арифметическое значение.

Пример 1.3. Получено 10 результатов измерения температуры факела пирометром (i от 1 до 10) в °С: 1859, 1849, 1855, 1848, 1853, 1852, 1842, 1851, 1846, 1845

Отсюда: t =1850 °С, ∆t1=t1– t =+9°C; ∆t2=t2– t = –1°C… ∆t10=t10– t = –5°C.

Отдельные погрешности колеблются в пределах от +9 до -8 °С. В среднем случайная погрешность одного измерения в серии r=±4°С.

Преимущество средней арифметической погрешности – простота ее вычисления. Но все же чаще определяют среднюю квадратическую погрешность

Предел допускаемой дополнительной погрешности — наибольшая дополнительная погрешность, при которой средство измерения может быть еще допущено к применению. Например, для прибора класса точности 1,0 приведенная дополнительная погрешность при изменении температуры на 10 °С не должна превышать ±1 %, Это означает, что при изменении температуры среды на каждые 10 °С добавляется дополнительная погрешность 1 %.

Погрешность результата прямого однократного измерения зависит от многих факторов, но в первую очередь определяется погрешностью используемых средств измерений. Поэтому в первом приближении погрешность результата измерения можно принять рав­ной погрешности, которой в данной точке диапазона измерений характеризуется используемое средство измерений.

Погрешности средств измерений изменяются в диапазоне измерений. Поэтому в каждом случае, для каждого измерения необходимо произвести вычисления погрешности результата измерений, используя формулы нормирования погрешности соответствующего средства измерений. Вычисляться должна как абсолютная, так и относитель­ная погрешности результата измерения, так как первая из них нужна для округления результата и его правильной записи, а вторая — для однозначной сравнительной характеристики его точности.

Для разных характеристик нормирования погрешностей СИ эти вычисления производятся по-разному.

Рассмотренные метрологические характеристики позволяют выявить такую качественную характеристику как точность средств измерений, положенную в основу деления средств измерений на классы точности.

3. Класс точности средства измерений - это его обобщенная характеристика, определяемая пределами допускае­мых основных и дополнительных погрешностей, а также другими свойствами средств измерений, влияющими на точность, значения которых устанавливаются в стандартах на отдельные виды средств измерений.

Класс точности средства измерения говорит о максимально возможной (предельной) инструментальной составляющей общей погрешности результата измерения. Реально инструментальная погрешность у исправного и своевременно поверяемого прибора может принимать любое значение внутри заданных классом точности пределов.

Класс точности средств измерений характеризует их свойства в отношении точности, но не является непосредственным показателем точности измерений, выполняемых с помощью этих средств.

Общие положения о делении средств измерений на классы точности и способы нормирования метрологических характеристик регламентированы ГОСТ 8.401—80. Однако этот стандарт не уста­навливает классы точности средств измерения, для которых предусмотрены нормы отдельно для систематической и случайной составляющих погрешности, а также если необходимо учитывать динамические характеристики.

    Если класс точности прибора установлен по пределу допускаемой относительной основной погрешности, т.е по значению погрешности чувствительности и форма полосы погрешности принята чисто мультипликативной, обозначаемое на шкале значение класса точности обводится кружком. Например,  обозначает, что dдоп = 1,5 %.

    Если же полоса погрешности принята аддитивной и прибор нормируется по пределу допускаемой приведенной основной погрешности, т.е. по значению погрешности нуля (таких приборов большинство), то класс точности указывается на шкале без каких-либо подчеркиваний. Например, 1,5 обозначает, что gдоп=1,5 %.

    Если шкала прибора неравномерная (например, у омметров), предел допускаемой основной приведенной погрешности выражается формулой, а нормирующее значение принято равным длине шкалы или ее части, класс точности обозначается на шкале одним числом, помещенным между двумя линиями, расположенными под углом. Например, 1,5 , это означает, что gдоп=1,5 %.

    Если средство измерений обладает как аддитивной, так и мультипликативной полосой погрешности, а пределы допускаемой относительной погрешности в процентах устанавливаются формулой, например,

 ,

где с = 0,02; d = 0,01, то обозначение в документации будет «класс точности

0,02/0,01», а на приборе 0,02/0,01. Таким образом, для средств измерений, пределы допускаемой основной погрешности которых принято выражать в форме относительных погрешностей, классы точности обозначают числами с и d (в процентах), разделяя их косой чертой.

   Для средств измерений, пределы допускаемой основной погрешности которых принято выражать в форме абсолютных погрешностей или относительных в виде графика, таблицы или отличающейся формулы, классы точности обозначают прописными буквами латинского алфавита или римскими цифрами. Классы точности, которым соответствуют меньшие пределы допускаемых погрешностей, должны обозначаться буквами, находящимися ближе к началу алфавита, или цифра­ми, означающими меньшие числа.

   Для всех рассмотренных случаев вместе с условным обозначением класса точности на шкале, щитке или корпусе средств измерений наносится номер стандарта или технических условий, устанавливающих технические требования на эти средства измерений.

   Классы точности цифровых измерительных приборов со встроенными вычислительными устройствами для дополнительной обработки результатов измерений устанавливают без режима обработки.

При указании классов точности на измерительных приборах с существенно неравномерной шкалой допускается указывать пределы допускаемой основной относительной погрешности для части шкалы, лежащей в пределах, отмеченных специальными знаками, например, точками или треугольниками.

Таким образом, обозначение класса точности средства измерений дает достаточно полную информацию для вычисления приближенной оценки погрешностей результатов измерений.

После проведения вычислений погрешности используют одну из форм представления результата измерений в следующем виде: х; ± D и d, где х – измеренное значение; D – абсолютная погрешность измерения; d -относительная погрешность измерения. Например, производится следующая запись: «Измерение произведено с относительной погрешностью d  = … %. Измеренное значение х = (А ± D ) , где  А – результат измерений».

Однако более наглядно указать пределы интервала неопределенности измеряемой величины в виде: x = ( A - D ) ¸ ( A + D ) или ( A - D ) < х < ( A + D ) с указанием единиц измерения.

Средствам измерений, пределы допускаемых погрешностей которых выражаются в единицах измеряемой величины, присваиваются классы точности, обозначаемые порядковыми номерами, причем средствам измерений с большим значение допускаемых погрешностей устанавливаются классы большего порядкового номера. В этом случае обозначение класса точности средства измерений не связано со значением предела допускаемой погрешности, т.е. носит условный характер.

Средствам измерений, пределы допускаемой основной погрешности которых задаются в виде приведенных (относительных) погрешностей, присваивают классы точности, выбираемые из ряда (ГОСТ 13600-68).

К=(1; 1,5; (1,6); 2,0; 2,5; (3,0); 4,0; 5,0; 6,0)*10n; n=1; 0; -1; -2…

Таблица 1. Формы задания классов точности

Вариант Форма представления Формула
  Предел основной абсолютной погрешности Δп = ±а
  Предел основной приведенной погрешности, % γп = Δ/Хн·100 = ±р
  Предел основной относительной погрешности, % δп= Δ/ХД ·100 =±q
  Предел основной абсолютной погрешности Δп = ±(а + bХ)
  Предел основной относительной погрешности δп = ±[c + d (Xк/X –1)]

 

Рисунок 2.6.2.  Лицевые панели приборов: а) вольтметра класса точности 0,5; б) амперметра класса точности 1,5; в) амперметра класса точности 0,02/0,01; г) мегомметра класса точности ( ) с неравномерной шкалой

Контрольные вопросы:

1. Назовите основные категории метрологических характеристик средств измерений?

2. Что такое нормирующее значение прибора7

3. Назовите методы установления класса точности прибора.

Вопросы для самостоятельного изучения

1. Потенциометр постоянного тока в диапазоне 0-50 мВ имеет основную погрешность , где А – показания потенциометра. Определите предел допускаемой погрешности в конце и середине диапазона измерений. Сравните их и класс точности потенциометра.

2. На шкалах измерительных приборов можно встретить различные обозначения классов точности: 0,5; ; ; 0,5/0,3. Напишите выражения для пределов допускаемой погрешности, соответствующие этим классом обозначения точности? Что Вы можете сказать о формах выражения погрешностей для этих случаев?

Литература:

1. Сергеев А. Г., Метрология. – Москва, Логос, 2005 г., 275 с.

2. Мокров Ю.В. Метрология, стандартизация и сертификация, Дубна, 2007, 131 с.

3. Марусина М.Я., Ткалич В.Л., Воронцов Е.А., Скалецкая Н.Д., Основы метрологии, стандартизации и сертификации. Санкт-Петербург 2009

4. Клевлеев В.М., Кузнецова И.А., Попов Ю.П. Метрология, стандартизация и сертификация: Учебник. – М.: ФОРУМ ИНФРА-М, 2004. – 256 с.

 


Дата добавления: 2021-02-10; просмотров: 282; Мы поможем в написании вашей работы!

Поделиться с друзьями:




Мы поможем в написании ваших работ!