Статистическое изучение связи между явлениями, область применения

Автор работы: Пользователь скрыл имя, 12 Февраля 2011 в 10:30, курсовая работа

Описание работы

Цель работы – на основе изучения и обобщения статистических методов корреляционного и регрессионного анализа исследовать различные зависимости.

Содержание работы

ВВЕДЕНИЕ…………………………………………………………………………..3
ГЛАВА 1. СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ СВЯЗИ МЕЖДУ
ЯВЛЕНИЯМИ………………………………………………………………………..4
Виды и формы связей………………………………………………….4
Результативный и факторный признак……………………………….7
Методы изучения и применения взаимосвязей………………………8
Корреляционно-регрессионный анализ……………………………..11
Уравнение регрессии, показатели измерения тесноты связи………23
ГЛАВА 2. СТАТИСТИЧЕСКИЕ СВЯЗИ МЕЖДУ ЯВЛЕНИЯМИ НА ПРИМЕРЕ…………………………………………………………………………...28
2.1. Зависимость среднего балла учеников от класса обучения………...28
ЗАКЛЮЧЕНИЕ…………………………………………………………………......32
БИБЛИОГРАФИЧЕСКИЙ СПИСОК……………………………………………..34

Файлы: 1 файл

Статистическое изучение связи между явлениями область применения.doc

— 386.50 Кб (Скачать файл)

     В статистике не всегда требуются количественные оценки связи, часто важно определить лишь ее направление и характер, выявить форму воздействия одних факторов на другие. Для выявления наличия связи, ее характера и направления в статистике используются методы приведения параллельных данных; аналитических группировок; графический, корреляционный, регрессионный.5

     Метод приведения параллельных данных основан на сопоставлении двух или нескольких рядов статистических величин. Такое сопоставление позволяет установить наличие связи и получить представление о ее характере. Сравним изменения двух величин X и У. С увеличением величины X величина У также возрастает. Поэтому связь между ними прямая, и описать ее можно или уравнением прямой, или уравнением параболы второго порядка. 

     Взаимосвязь двух признаков изображается графически с помощью поля корреляции. В системе координат на оси абсцисс откладываются значения факторного признака, а на оси ординат – результативного.  Каждое пересечение линий, проводимых через эти оси, обозначается точкой. При отсутствии тесных связей наблюдается беспорядочное расположение точек на графике. Чем сильнее связь между признаками, тем теснее будут группироваться точки вокруг определенной линии, выражающей форму связи (рис. 1).

     

     Рисунок 1 

     Для социально-экономических явлений  характерно, что наряду с существенными  факторами, формирующими уровень результативного признака, на него оказывают воздействие многие другие неучтенные и случайные факторы. Это свидетельствует о том, что взаимосвязи явлений, которые изучает статистика, носят корреляционный характер и аналитически выражаются функцией вида  .6

     Корреляционный  метод имеет своей задачей количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи).

     Корреляция - это статистическая зависимость между случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.7

     В статистике различаются следующие  варианты зависимостей:

  • парная корреляция - связь между двумя признаками (результативным и факторным или двумя факторными);
  • частная корреляция - зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков;
  • множественная корреляция - зависимость результативного и двух или более факторных признаков, включенных в исследование.

     Теснота связи количественно выражается величиной коэффициентов корреляции. Коэффициенты корреляции, представляя количественную характеристику тесноты связи между признаками, дают возможность определить «полезность» факторных признаков при построении уравнений множественной регрессии. Величина коэффициента корреляции служит также оценкой соответствия уравнения регрессии выявленным причинно-следственным связям.

     Первоначально исследования корреляции проводились  в биологии, а позднее распространились и на другие области, в том числе  на социально-экономическую. Одновременно с корреляцией начала использоваться и регрессия. Корреляция и регрессия тесно связаны между собой: корреляция оценивает силу (тесноту) статистической связи, регрессия исследует ее форму. Та и другая служат для установления соотношения между явлениями, для определения наличия или отсутствия связи.

     Регрессионный метод заключается в определении аналитического выражения связи, в котором изменение одной величины (называемой зависимой или результативным признаком) обусловлено влиянием одной или нескольких независимых величин (факторов), а множество всех прочих факторов, также оказывающих влияние на зависимую величину, принимается за постоянные и средние значения. Регрессия может быть однофакторной (парной) и многофакторной (множественной).8

     По  направлению связи различают:

  • прямую регрессию (положительную), возникающую при условии, если с увеличением или уменьшением независимой величины значения зависимой также соответственно увеличиваются или уменьшаются;
  • обратную (отрицательную) регрессию, появляющуюся при условии, что с увеличением или уменьшением независимой величины зависимая соответственно уменьшается или увеличивается.

     Положительную и отрицательную регрессии можно  легче понять, если использовать их графическое изображение (см. рис. 1).

     Для простой (парной) регрессии в условиях, когда достаточно полно установлены  причинно-следственные связи, приобретает  практический смысл только последнее положение; при множественности причинных связей невозможно четко отграничить одни причинные явления от других. 

1.4  Корреляционно-регрессионный  анализ 

     Исследуя  природу, общество, экономику, необходимо считаться со взаимосвязью наблюдаемых  процессов и явлений. При этом полнота описания так или иначе  определяется количественными характеристиками причинно-следственных связей между ними. Оценка наиболее существенных из них, а также воздействия одних факторов на другие является одной из основных задач статистики.9

     Формы проявления взаимосвязей весьма разнообразны. В качестве двух самых общих их видов выделяют функциональную (полную) и корреляционную (неполную) связи. В первом случае величине факторного признака строго соответствует одно или несколько значений функции. Достаточно часто функциональная связь проявляется в физике, химии. В экономике примером может служить прямо пропорциональная зависимость между производительностью труда и увеличением производства продукции.

     Корреляционная  связь (которую также называют неполной, или статистической) проявляется  в среднем, для массовых наблюдений, когда заданным значениям зависимой переменной соответствует некоторый ряд вероятных значений независимой переменной. Объяснение тому – сложность взаимосвязей между анализируемыми факторами, на взаимодействие которых влияют неучтенные случайные величины. Поэтому связь между признаками проявляется лишь в среднем, в массе случаев. При корреляционной связи каждому значению аргумента соответствуют случайно распределенные в некотором интервале значения функции.

     Например, некоторое увеличение аргумента  повлечет за собой лишь среднее увеличение или уменьшение (в зависимости от направленности) функции, тогда как конкретные значения у отдельных единиц наблюдения будут отличаться от среднего. Такие зависимости встречаются повсеместно. Например, в сельском хозяйстве это может быть связь между урожайностью и количеством внесенных удобрений. Очевидно, что последние участвуют в формировании урожая. Но для каждого конкретного поля, участка одно и то же количество внесенных удобрений вызовет разный прирост урожайности, так как во взаимодействии находится еще целый ряд факторов (погода, состояние почвы и др.), которые и формируют конечный результат. Однако в среднем такая связь наблюдается – увеличение массы внесенных удобрений ведет к росту урожайности.

     По  направлению связи бывают прямыми, когда зависимая переменная растет с увеличением факторного признака, и обратными, при которых рост последнего сопровождается уменьшением функции. Такие связи также можно назвать соответственно  положительными и отрицательными.

     Относительно своей аналитической формы связи бывают линейными и нелинейными. В первом случае между признаками в среднем проявляются линейные соотношения. Нелинейная взаимосвязь выражается нелинейной функцией, а переменные связаны между собой в среднем нелинейно.

     Существует еще одна достаточно важная характеристика связей с точки зрения взаимодействующих факторов. Если характеризуется связь двух признаков, то ее принято называть парной. Если изучаются более чем две переменные – множественной.10

     Указанные выше классификационные признаки наиболее часто встречаются в статистическом анализе. Но кроме перечисленных различают также непосредственные, косвенные и ложные связи. Собственно, суть каждой из них очевидна из названия. В первом случае факторы взаимодействуют между собой непосредственно. Для косвенной связи характерно участие какой-то третьей переменной, которая опосредует связь между изучаемыми признаками. Ложная связь – это связь, установленная формально и, как правило, подтвержденная только количественными оценками. Она не имеет под собой качественной основы или же бессмысленна.

     По  силе различаются слабые и сильные связи. Эта формальная характеристика выражается конкретными величинами и интерпретируется в соответствии с общепринятыми критериями силы связи для конкретных показателей.

     В наиболее общем виде задача статистики в области изучения взаимосвязей состоит в количественной оценке их наличия и направления, а также  характеристике силы и формы влияния  одних факторов на другие. Для ее решения применяются две группы методов, одна из которых включает в себя методы корреляционного анализа, а другая – регрессионный анализ. В то же время ряд исследователей объединяет эти методы в корреляционно-регрессионный анализ, что имеет под собой некоторые основания: наличие целого ряда общих вычислительных процедур, взаимодополнения при интерпретации результатов и др.11

     Поэтому в данном контексте можно говорить о корреляционном анализе в широком  смысле – когда всесторонне характеризуется  взаимосвязь. В то же время выделяют корреляционный анализ в узком смысле – когда исследуется сила связи – и регрессионный анализ, в ходе которого оцениваются ее форма и воздействие одних факторов на другие.

     Задачи  собственно корреляционного анализа сводятся к измерению тесноты связи между варьирующими признаками, определению неизвестных причинных связей и оценке факторов оказывающих наибольшее влияние на результативный признак.

     Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значении зависимой переменной.

     Решение названных задач опирается на соответствующие приемы, алгоритмы, показатели, применение которых дает основание говорить о статистическом изучении взаимосвязей.

     Следует заметить, что традиционные методы корреляции и регрессии широко представлены в разного рода статистических пакетах программ для ЭВМ. Исследователю остается только правильно подготовить информацию, выбрать удовлетворяющий требованиям анализа пакет программ и быть готовым к интерпретации полученных результатов. Алгоритмов вычисления параметров связи существует множество, и в настоящее время вряд ли целесообразно проводить такой сложный вид анализа вручную. Вычислительные процедуры представляют самостоятельный интерес, но знание принципов изучения взаимосвязей, возможностей и ограничений тех или иных методов интерпретации результатов является обязательным условием исследования.12

     Методы  оценки тесноты связи подразделяются на корреляционные (параметрические) и  непараметрические. Параметрические методы основаны на использовании, как правило, оценок нормального распределения и применяются в случаях, когда изучаемая совокупность состоит из величин, которые подчиняются закону нормального распределения. На практике это положение чаще всего принимается априори. Собственно, эти методы – параметрические – и принято называть корреляционными.

     Непараметрические методы не накладывают ограничений  на закон распределения изучаемых  величин. Их преимуществом является и простота вычислений.

     Простейшим  приемом выявления связи между двумя признаками является построение корреляционной таблицы:

\    Y 
     \ 
X    \
Y1 Y2 ...   Yz Итого Yi
X1 f11 12 ... f1z
X1 f21 22 ... f2z
... ... ... ... ... ... ...
Xr fk1 k2 ... fkz
Итого
...
n
...
-

Информация о работе Статистическое изучение связи между явлениями, область применения