Шпаргалка по "Статистике"

Автор работы: Пользователь скрыл имя, 19 Февраля 2011 в 13:56, шпаргалка

Описание работы

Вариант 1
1. Понятие о вероятности события. Классическое и статистическое её определение.
Теорема сложения и умножения вероятностей.
2. Случайная функция. Стационарность и эргодичность.
Вариант 2
1. Понятие об условной вероятности. Формула полной вероятности. Теорема байеса
2. Основные числовые характеристики случайной функции
Вариант 3
1. Понятие о законе распределения случайной величины. Функция распределения. Их связь и свойства. Плотность вероятности. Их связь и свойства. Их связь
2. Автокорреляционная функция (АКФ).
Вариант 4
1. Числовые характеристики положения случайной величины.
2. Взаимно корреляционная функция (ВКФ)
Вариант 5
1. Числовые характеристики рассеяния случайной величины.
2. Определение параметров уравнения регрессии по методу наименьших квадратов на примере линейной регрессии.
Вариант 6
1. Числовые характеристики распределения – моменты, асимметрия, эксцесс, квантили, квартили, процентили.
2. Применение АКФ и ВКФ в геофизике
Вариант 7
1. Непараметрическая статистика. Ранговые коэффициенты корреляции и их значимость.
2. Ряд Фурье в декартовых координатах. Амплитудный и фазовый

Файлы: 1 файл

1 ТОГИ.doc

— 868.50 Кб (Скачать файл)

Вариант 1

Понятие о вероятности  события

Вероятностью  события А называют отношение  числа благоприятствующих этому  событию исходов к общему числу  всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой Р (A) = m / n, где m - число элементарных исходов, благоприятствующих A; n - число всех возможных элементарных исходов испытания.

Классическое  и статистическое её определение

Классической  вероятностью называют отношение m к n, где n-число всевозможных, равновозможных, единственных исходов, m-число число благоприятствующих событию А исходов. P(A)=m/n. Если n достаточно велико, то частность или число, близкое к нему называют статистической вероятностью (при котором вероятностью события называют относительную частоту его появления при многократном воспроизведении комплекса условий эксперимента).

Теорема сложения и умножения  вероятностей

Теорема сложения вероятностей: вероятность суммы 2-х несовместимых событий = сумме их вероятностей. P(A+B)=P(A)+P(B). Совместные события P(A+B)=P(A)+P(B)-P(AB).

  Теорема умножения вероятностей: Произведение зависимых событий 2-х событий = произведению вероятности на условную вероятность 2-го, вычисленного в предположении, что 1-е, событие произошло: P(AB)=P(A/B)P(B)=P(B/A)P(A) Если событие А и В независимы, то вероятность произведения этих событий = произведению их вероятностей. P(AB)=P(A)*P(B);

Случайная функция

Случайная функция, функция произвольного аргумента t (заданная на множестве Т его  значений и сама принимающая или числовые значения или, более общо, значения из какого-то векторного пространства) такая, что её значения определяются с помощью некоторого испытания и в зависимости от его исхода могут быть различными, причём для них существует определённое распределение вероятностей.

Стационарность  и эргодичность

Стационарным  случайным процессом называется такой случайный процесс, для которого все числовые характеристики не изменяются при сдвиге аргумента t. Это означает, что MX(t)=const, DX(t)=const, Rx(ti,tj)=Rx(ti,ti+τ), tj=ti+τ.   (*)

Иначе говоря, для  стационарного случайного процесса математическое ожидание и дисперсия  не зависят о расположения интервала (ti,tj) по оси t, для которого они определяются, а автокорреляционная функция зависит только от расстояния между ti и tj и являются, таким образом, функцией лишь одного аргумента τ.

Случайный процесс  обладает свойством эргодичности, если средние значения его числовых характеристик, определенные на достаточно большом временном интервале, равны средним значениям тех же характеристик по множеству реализаций эквивалентно усреднению по времени для любой достаточно «длительной» реализации. В этом случае одна единственная реализация дает представление о свойствах случайного процесса в целом, являясь как бы его «полномочным представителем».

Свойство эргодичности для стационарного случайного процесса обычно выполняется при стремлении к нулю его автокорреляционной функции  при τ→∞.

Вариант 2

Понятие об условной вероятности

Вероятность события  А, вычисленная при условии, что произошло событие В, называется условной вероятностью P(A/B) события A. Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого, т.е. для независимых событий Р(А/В)=Р(A), а для зависимых Р(А/В) не равно Р(A).

Формула полной вероятности

Пусть известны вероятности событий В1, В2,…Вn и условные вероятности события А, вычисленные в предположении, что произошли события В1 или В2 или … Вn, тогда вероятность события А может быть найдена по  формуле полной вероятности:

Теорема Байеса

На основе формулы Бейеса решается задача о нахождении вероятности P(Hi/A) гипотезы Hi при условиях, что в результате проведённого эксперимента произошло событие А, а гипотезы H1, H2 … Hn образуют полную группу, причем их вероятности до опыта известны и равны соответственно P(H1), P(H2), … P(Hn). Согласно по формуле Бейеса

С помощью  этой формулы переоценивают вероятности  гипотез P(Hi), называемые априорными, т.е. известными до опыта.

Основные  числовые характеристики случайной функции

Математическим  ожиданием случайного процесса понимают неслучайную функцию M(X(t)), которая при каждом фиксированном значении времени ti равна математическому ожиданию соответствующего сечения случайного процесса mX(t)=M(X(t)).

Под дисперсией случайного процесса понимают неслучайную функцию DX(t), значение которой для фиксированного ti равно дисперсии соответствующего сечения процесса DX(t)=D(X(t)).

Корреляционная  функция оценивает степень зависимости  между различными сечениями случайного процесса, являющегося функцией двух аргументов t1 и t2 и уменьшающегося с увеличением расстояния между ними. Таким образом, корреляционный функцией называют неслучайную функцию RX(ti,tj), двух аргументов ti и tj равна корреляционному моменту соответствующих сечений случайного процесса: RX(ti,tj)=M(X(~)* (ti)X* (tj)), где X* (ti) и X* (tj) – центрированные случайные величины, т.е. X* (ti)=X*(ti)-MX(ti); X* (tj)=X(tj)-MX(tj).

Вариант 3

Понятие о законе распределения  случайной величины.

Законом распределения случайной величины называется всякое соотношение, устанавливающее  связь между возможными значениями случайной величины и соответствующими им вероятностями. Закон распределения может быть задан аналитически, в виде таблицы или графически. Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения.          

Функция распределения.

Функцией распределения называют функцию F(x), определяющую вероятность того, что случайная величина Х в результате испытаний примет значения, меньше х, т.е. F(x)=P(X<x). Эта функция существует как для непрерывных, так и для дискретных величин.

Плотность вероятности.

Плотность вероятности случайной величины X, функция р(х), такая, что при любых a и b вероятность неравенства а < Х < b равна .

Их  связь и свойства

Функция распределения вероятности —  просто  функция плотности вероятности, проинтегрированная от - до определенного значения. Для целочисленных случайных величин интеграл заменен суммированием по соответствующим индексам.

Функция распределения, свойства: 1. Значения функции распределения принадлежат отрезку (0,1): ; 2. F(x) - неубывающая функция, т.е. , если ; 3. Если возможные значения случайной величины принадлежат интервалу (a,b), то: 1) F(x)=0 при ; 2) F(x)=1 при ;

Плотность вероятности, свойства: 1) ; 2) 3) 4)

Автокорреляционная  функция (АКФ)

Показывает  связь сигнала (функции) с копией самого себя, смещённого на величину m.

График  автокорреляционной функции можно  получить, отложив по оси ординат  коэффициент корреляции двух функций (базовой и функции сдвинутой на величину m) а по оси абсцисс величину m. Если исходная функция строго периодическая, то на графике АКФ тоже будет строго периодическая функция. Таким образом, из этого графика можно судить о периодичности базовой функции, а следовательно и о её частотных характеристиках. Определяется выражением , где значение поля в i-той точке. i=1…n. m – интервал принимающий значения .  Свойства автокорреляционной функции: 1) АКФ – четная. Т.е. R(m)=R(-m). 2) При m=0, АКФ=D(дисперсии) 3) При сложении неслучайной функции φ(t) и случайного процесса АКФ процесса не меняется.4)При умножении случайного процесса на неслучайную функцию φ(t) АКФ процесса умножается на произведение φ(ti) φ(tj).

Вариант 4

Числовые  характеристики положения  случайной величины.

Такая характеристика случайной величины, как математическое ожидание, квантиль называется иногда характеристикой положения, так как она дает представление о положении случайной величины на числовой оси. Другими характеристиками положения являются мода и медиана.

y - квантиль — числовая характеристика закона распределения случайной величины; такое число, что данная случайная величина попадает левее его с вероятностью, не превосходящей: y

Модой М дискретной случайной величины называется ее наиболее вероятное значение, модой М непрерывной случайной величины – значение, в котором плотность вероятности максимальна.

Медиана Ме – делит вариационный ряд на две части, равные по числу вариантов. Если число вариантов нечётно, т.е. n=2k+1, то Me= , при четном n=2k, то Me=

Математическое  ожидание MX (среднее значение) или сумма произведения всех её возможных значений на их вероятность.

Взаимно корреляционная функция (ВКФ)

ВКФ представляет собой оценку корреляционных свойств  двух случайных процессов. Для эргодических случайных процессов ВКФ вычисляется  по данным отдельных реализаций и . ВКФ по формуле где значение поля в i-той точке. i=1…n. m – интервал принимающий значения . n – число точек для каждой реализации. Допустим, что по реализации найдены их средние значения: и , тогда модно считать что , тогда получаем

Свойства  взаимной корреляционной функции (ВКФ):

1) ВКФ  не является ни чётной ни  нечётной функцией, т.е. Rху(τ) не равно Rху(-τ).

2) ВКФ  остаётся неизменной при перемене  чередования функций и изменений  знака аргумента, т.е. Rху(τ)=Rху(-τ). 3) Если случайные функции x(t) и y(t) не содержат постоянных составляющих и создаются независимыми источниками, то для них Rху(τ) → 0. Такие функции называются некоррелированными.

Вариант 5

Числовые  характеристики рассеяния случайной величины.

Числовые характеристики рассеяния случайных величин: дисперсия, среднее квадратическое от-клонение, коэффициент вариации.

Вводят  числовую характеристику, которая называется дисперсией. Эта характеристика оценивает  рассеяние случайной величины вокруг своего математического ожидания.

Дисперсия . D(C)=0, где С=соnst.

D(CX)=C*C*D(X).

Средне  квадратичное отклонение (стандарт)

Коэффициент вариации случайной  величины — мера относительного разброса случайной величины; показывает, какую долю среднего значения этой величины составляет ее средний разброс. Вычисляется по формуле: квадратный корень из дисперсии случайной величины, деленный на ее математическое ожидание.

Размах  вариации R – разность между наибольшей и наименьшей вариантами. R=xmax-xmin.

Определение параметров уравнения  регрессии по методу наименьших квадратов  на примере линейной регрессии.

Выбрав  вид функции регрессии, т.е. вид  рассматриваемой модели зависимости Y от Х (или Х от У), например, линейную модель y(x)=a+bx, необходимо определить конкретные значения коэффициентов модели. При этом b называют коэффициентом регрессии; a называют свободным членом уравнения регрессии и вычисляют по формуле: Полученная прямая является оценкой для теоретической линии регрессии. Имеем: является уравнением линейной регрессии.

Вариант 6

Числовые  характеристики распределения  – моменты, асимметрия, эксцесс, квантили, квартили, процентили.

Переход от M(X) к M(X2) позволил лучше учесть влияние на математическое ожидание того возможного значения, которое велико и имеет малую вероятность. Поэтому вводится начальный момент порядка k – случайной величины X называют математическое величины Xk: . Также целесообразно рассматривать центральный момент порядка k случайной величины X.

Асимметрия  теоретического распределения – называют отношение центрального момента третьего порядка к кубу среднеквадратического отклонения . Асимметрия положительна, если 'длинная часть' кривой распределения расположена справа от математического ожидания; Асимметрия отрицательна, если 'длинная часть' кривой расположена слева от математического ожидания.

Эксцесс распределения  . Если эксцесс положительный, то кривая имеет более высокую и острую вершину; Если эксцесс отрицательный, то кривая имеет более низкую  и плоскую вершину;

Информация о работе Шпаргалка по "Статистике"