Лекции по "Метрологии"

Автор работы: Пользователь скрыл имя, 05 Апреля 2015 в 18:47, курс лекций

Описание работы

Основные понятия в метрологии
Слово «метрология» происходит от древнегреческих слов «метрон» и «логос», что в переводе означает «мера» и «учение». Таким образом, метрология – это наука об измерениях. Сегодня метрологию понимают как науку об измерениях, методах и средствах обеспечения их единства и способах достижения требуемой точности.

Файлы: 18 файлов

деталь клапан.docx

— 21.96 Кб (Просмотреть файл, Скачать файл)

Клапан.doc

— 261.00 Кб (Просмотреть файл, Скачать файл)

Лекции 1 по ОТИ.doc

— 478.50 Кб (Просмотреть файл, Скачать файл)

Лекция 10.doc

— 48.00 Кб (Просмотреть файл, Скачать файл)

Лекция 11.doc

— 40.50 Кб (Просмотреть файл, Скачать файл)

Лекция 12.doc

— 103.50 Кб (Просмотреть файл, Скачать файл)

Лекция 13.doc

— 93.50 Кб (Просмотреть файл, Скачать файл)

Лекция 14.doc

— 73.00 Кб (Просмотреть файл, Скачать файл)

Лекция 15.doc

— 241.00 Кб (Просмотреть файл, Скачать файл)

Лекция 16.doc

— 58.50 Кб (Просмотреть файл, Скачать файл)

Лекция 2 по ОТИ.doc

— 94.00 Кб (Просмотреть файл, Скачать файл)

Лекция 3 по ОТИ.doc

— 205.00 Кб (Просмотреть файл, Скачать файл)

Лекция 4 по ОТИ.doc

— 151.50 Кб (Просмотреть файл, Скачать файл)

Лекция 5 по ОТИ.doc

— 209.00 Кб (Скачать файл)

Лекция

 

Основы теории измерений. Аксиомы метрологии.

Функции и числовые характеристики законов распределений

 

Аксиомы метрологии

Одной из основных задач любого эксперимента является постановка задачи. Правильно поставленная измерительная задача указывает точное наименование измеряемой величины, возможные пределы изменения измеряемой величины и необходимую точность измерения. Например, нельзя говорить: поди измерь то, не знаю чего.

Информация, которой мы владеем до измерения, называется априорной.

Первая аксиома метрологии утверждает: «без априорной информации измерение невозможно».

Она относится к ситуации перед измерением и говорит о том, что если мы не знаем, что собираемся измерять, не располагаем необходимой качественной и количественной информацией, то ничего и не узнаем.

Источниками априорной информации являются:

- опыт предшествующих измерений;

- классы точности средств измерений;

- условия проведения измерений.

Из опыта предшествующих измерений мы можем располагать информацией о виде закона распределения вероятности, значением среднеквадратических отклонений результатов измерений и поправки, которую необходимо ввести в результат измерения.

Влияние точности используемого средства измерений и условий проведения измерений на результат измерений безусловно (см. п. 6.2 и п.   ).

С другой стороны, любая процедура измерения состоит в сравнении измеряемой величины с величиной, имеющей ту же размерность. Поэтому вторая аксиома метрологии утверждает, что «измерение суть сравнение размеров опытным путем».

Вторая аксиома относится к процедуре измерения и говорит о том, что сравнение размеров опытным путем является единственным способом получения измерительной информации.

На результат измерения влияет множество факторов, полный учет которых невозможен. Это положение сформулировано в виде третьей аксиомы метрологии: «Результат измерения без округления является случайным числом».

Как известно аксиомы не доказываются, а являются отражением многовекового опыта, накопленного человечеством.

Функции и числовые характеристики законов распределений

В теории измерений для описания результата измерений используют интегральные F (Q) и дифференциальные р (Q) функции распределения случайной величины х.

1. Прежде  всего, отметим, что функция F (Q) определяет вероятность того, что отдельный результат, будет меньше ее аргумента:

.

2. Так как  вероятность не может быть  отрицательной, то

                   F (Q) ³ 0.

Чем больше х, тем больше вероятность того, что ни один результат не превысит этого значения, т.е.

F (Q) - неубывающая функция:

                    F (Q2) ³ F (Q 1), если Q2 > Q 1.

При изменении Q от –¥ до +¥ F(Q)меняется от 0 до 1.

3. Если результат  измерения меньше некоторого x1 с вероятностью F(Q1) и меньше другого Q2 >Q1 с вероятностью F (Q2), то вероятность того, что результат сравнения окажется в интервале [Q1; Q2] , равна разности значений F(Q) на границах этого интервала:

     Р{Q1£ Q £ Q2} =F (Q2) -F (Q1).

4. Плотность  распределения вероятности р(Q) связана с функцией распределения вероятности F (Q) соотношением:

     р (Q) =F' (Q).

Поэтому функцию P(Q) называют дифференциальной функцией распределения вероятности результата измерения.

В свою очередь F(Q) может быть получена интегрированием р(Q) в соответствующих пределах:            

.

Геометрическая интерпретация этой операции показана на рис. 1, а F(Q0) иногда называют интегральной функцией распределения вероятности.

5. Так как F(Q)– неубывающая функция, то их производная не может быть отрицательным: р (Q) ³ 0.

 

 

 

 

 

 

 

 

 

 

Рисунок 1 – Интегральная функция распределения вероятности

 

6. Вероятность того, что отдельный результат измерения окажется в интервале [Q1;Q2], равна площади, ограниченной графиком функции р(Q, осью абсцисс и перпендикулярами к ней на границах интервала соответственно (см. рис. 1):


 

  


Рисунок 2 – Дифференциальная функция распределения вероятности

 

7. При расширении  интервала до бесконечности рассматриваемое событие становится достоверным. Поэтому площадь, ограниченная графиками функции      р(Qи осью абсцисс, равна 1:

  .

Описание отсчета или результата измерения с помощью законов распределения вероятности является наиболее полным, но неудобным. Во многих случаях ограничиваются приближенным описанием закона распределения  вероятности с помощью его числовых характеристик, или моментов. Все они представляют собой некоторые средние значения, причем, если усредняются величины, отсчитываемые от начала координат, моменты называются начальными, а если от центра закона распределения – центральными.

Общее правило образования начальных моментов:

           ,

где r – номер момента.

Важнейшим начальным моментом является первый – среднее значение:

         ,

характеризующее математическое ожидание отсчета при бесконечном повторении процедуры измерения. Иногда математическое ожидание удобнее обозначать символом М(Q). Свойства математического ожидания:

1) математическое  ожидание неслучайного числа  равно самому этому числу:

                     М(а) =а;

2) постоянный  множитель можно выносить за  знак математического ожидания:

                     М (aQ) = аМ (Q),

где а = const;

3) математическое  ожидание алгебраической суммы  случайных чисел равно алгебраической сумме их математических ожиданий:

                 М(Q +Y -Z) = М(Q) +М(Y) —M(Z);

4) математическое  ожидание произведения независимых случайных чисел равно произведению их математических ожиданий:

                       M(Q∙Y∙Z) =M(Q) M(Y) M(Z);

5) математическое  ожидание отклонения случайного числа от его математического ожидания равно нулю:

                               М[Q - М(Q)] = 0.

Мерой рассеяния отдельных результатов около их среднего значения служит второй центральный момент. Общее правило образования центральных моментов записывается следующим образом:

                     ,

откуда сразу видно, что первый центральный момент тождественно равен нулю:

.

Второй центральный момент называется дисперсией и обозначается :

                 .

Иногда дисперсию удобнее обозначать символом             D (Q). Свойства дисперсии:

1) дисперсия  неслучайного числа равна нулю:

D (а) = 0;

2) постоянный  множитель можно выносить за знак дисперсии, возводя его при этом в квадрат:

                          D (аQ) = а2 D (Q),

где а =соnst;

3) дисперсия  алгебраической суммы двух случайных чисел:

          

  D(Q)±Y)=D(Q)+D(Y)± 2p ,

где коэффициент корреляции

                ;

4) дисперсия  алгебраической суммы независимых случайных чисел равна арифметической сумме их дисперсий:

              D (Q + Y -Zz) = D (Q) + D (Y) + D (Z);

5) дисперсия  случайного числа равна разности  между математическим ожиданием  его квадрата и квадратом математического ожидания:

                        D(Q)= М(Q2) -М2 (Q).

Чем больше дисперсия, тем значительнее рассеяние результатов относительно x. Это наглядно видно на рис. 3, где представлены кривые плотности одного и того же закона распределения вероятности отсчета при различных дисперсиях.

В метрологии в качестве меры рассеяния чаще используют среднее квадратическое отклонение:

                                            .

Находит применение и третий центральный момент:

                    .

Мерой несимметричности распределения вероятности служит асимметрия:

                            ,

которая может быть положительной и отрицательной.

Рисунок 3 – Графики плотности распределения вероятности при различной дисперсии


 

Для симметричных распределений вероятности отсчета асимметрия  равна  нулю.  На  рис. 4 в  качестве   иллюстрации приведены примеры симметричного и несимметричных законов распределения вероятности с разными математическими ожиданиями.

Четвертый центральный момент используется для оценки заостренности дифференциальной функции распределения вероятности. Мерой заостренности служит эксцесс:                                

                                  ,

равный трем у закона распределения вероятности отсчета, кривая плотности вероятности которого имеет колоколообразную форму. Кривые с более острой вершиной имеют больший эксцесс, с более пологой – меньший, вплоть до отрицательного.  

 

Рисунок 4 – Симметричные и несимметричные распределения вероятности отсчета

 

Мерой неопределенности случайного числа является энтропия    

                     –

среднее значение логарифма плотности вероятности, взятое со знаком минус. Так как р(Q)<1, то энтропия всегда положительна. Она равна нулю у неслучайного числа и максимальна при равномерной плотности распределения вероятности.

Модели эмпирических законов распределения вероятности отсчета – дифференциальная и интегральная функции распределения вероятности, как и все без исключения моменты, обладают важным качеством: будучи характеристиками случайного числа, сами они не являются случайными. Описание с их помощью отсчета или результата измерения было бы очень удобным, если бы эти характеристики можно было получить. Но на практике это невозможно, так как измерительная процедура не может быть повторена бесконечное число раз. Поэтому и в дальнейшем они будут использоваться только  качестве моделей.

Законы распределения непрерывной случайной величины

Наиболее часто в метрологии встречаются два закона распределения: закон равномерного и нормального распределения случайной величины.

Равномерное распределение. Если заранее известно, что возможные значения случайной величины лежат в определенном интервале  с одинаковой вероятностью, то говорят, что случайная величина подчиняется равномерному закону распределения (рис. 5).

Дифференциальная функция распределения вероятности такой величины (плотность вероятности) определяют по формуле:

.


       0                                                                 Q

 

          Рисунок 5 – Равномерный закон распределения

 

 

Интегральная функция распределения F(Q) определяется выражением:

.

Математическое ожидание величины х равно:

.

Дисперсия величины х:

Среднее квадратическое отклонение

.

Нормальный закон распределения. Дифференциальная функция нормального закона распределения вероятности определяется по формуле:

,

где - математическое ожидание величины Q;

- среднее квадратическое отклонение.

Интегральная функция распределения F(Q) определяется выражением:

.

Найдем вероятность, с которой любое значение результата измерения, подчиняющегося нормальному ЗРВ, должно находиться в пределах от до :

     .                                     (1)

Произведем замену переменной:

;    ;   .

После такой замены имеем:

                            .               

Вероятность того, что любое значение результата измерения, подчиняющегося нормальному закону распределения вероятности, находится в интервале от до выражена через разность значений интегральной функции, соответствующей плотности распределения вероятности:

  ,     

характеризующий так называемый нормированный нормальный закон  (рис. 6).

У нормированного нормального закона распределения ; .

          а                                                           б

Рисунок  6

 

Рисунок  7

 

Нормированный нормальный закон распределения симметричный: .

Эта функция связана с функцией Лапласа (рис. 7) соотношением:

             .

Функция Лапласа описывается выражением:

.

Функция Лапласа табулирована в диапазоне значений от 0 до 3,3, за пределами которых в сторону больших значений z,  .

Если выбрать , такую, что

.

и обозначить эту величину через t, то вместо формулы (1) получим следующее выражение:

.                                                      

 

 

 


 



Лекция 6 по ОТИ.doc

— 194.50 Кб (Просмотреть файл, Скачать файл)

Лекция 7.doc

— 146.50 Кб (Просмотреть файл, Скачать файл)

Лекция 8.doc

— 122.50 Кб (Просмотреть файл, Скачать файл)

Лекция 9.doc

— 106.50 Кб (Просмотреть файл, Скачать файл)

Информация о работе Лекции по "Метрологии"