Автор работы: Пользователь скрыл имя, 03 Декабря 2011 в 15:06, реферат
Методами статистической обработки результатов эксперимента называются математические приемы, формулы, способы количественных расчетов, с помощью которых показатели, получаемые в ходе эксперимента, можно обобщать, приводить в систему, выявляя скрытые в них закономерности. Речь идет о таких закономерностях статистического характера, которые существуют между изучаемыми в эксперименте переменными величинами.
Введение………………………………………………………………..………..3
Глава I.Методы первичной статистической обработки результатов эксперимента…………………………………………………………...……..…4
Мода………………………………………………………..….……....4
Медиана…………………………………………………..….……….5
Выборочное среднее……………………………………..….….…….6
Разброс выборки…………………………………………..….………7
Дисперсия………………………………………………..……....……7
Глава II. Методы вторичной статистической обработки результатов эксперимента……………………………………………………………………..9
2.1 Регрессивное исчисление…………………………………………….9
2.2 Корреляция………………………………………………………..….11
2.3 Факторный анализ……………………………………………...……14
Заключение………………………………………………………………….…..16
Список использованной литературы……………
4.
Методы выявления внутренней
статистической структуры
Регрессионное исчисление - это метод математической статистики, позволяющий свести частные, разрозненные данные к некоторому линейному графику, приблизительно отражающему их внутреннюю взаимосвязь, и получить возможность по значению одной из переменных приблизительно оценивать вероятное значение другой переменной.
Графическое выражение регрессионного уравнения называют линией регрессии. Линия регрессии выражает наилучшие предсказания зависимой переменой (Y) по независимым переменным (X).
Регрессию
выражают с помощью двух уравнений
регрессии, которые в самом прямом
случае выглядят, как уравнения прямой.
Y = a 0 + a 1 * X (1)
X = b
0 + b 1 * Y (2)
В уравнении (1) Y - зависимая переменная, X - независимая переменная, a 0 - свободный член, a 1 - коэффициент регрессии, или угловой коэффициент, определяющий наклон линии регрессии по отношению к осям координат.
В уравнении (2) X - зависимая переменная, Y - независимая переменная, b 0 - свободный член, b 1 - коэффициент регрессии, или угловой коэффициент, определяющий наклон линии регрессии по отношению к осям координат.
Количественное представление связи (зависимости) между Х и Y (между Y и X) называется регрессионным анализом. Главная задача регрессионного анализа заключается в нахождении коэффициентов a 0, b 0, a1и b 1 и определении уровня значимости полученных аналитических выражений, связывающих между собой переменные Х и У.
При
этом коэффициенты регрессии a 1 и b 1
показывают, насколько в среднем величина
одной переменной изменяется при изменении
на единицу меры другой. Коэффициент регрессии
a 1 в уравнении можно подсчитать по формуле:
а
коэффициент b 1 в уравнении по формуле
где ryx - коэффициент корреляции между переменными X и Y;
Sx - среднеквадратическое отклонение, подсчитанное для переменной X;
Sy - среднеквадратическое отклонение, подсчитанное для переменной У/
Для применения метода линейного регрессионного анализа необходимо соблюдать следующие условия:
1. Сравниваемые переменные Х и Y должны быть измерены в шкале интервалов или отношений.
2. Предполагается, что переменные Х и Y имеют нормальный закон распределения.
3. Число варьирующих признаков в сравниваемых переменных должно быть одинаковым.
Следующий
метод вторичной статистической
обработки, посредством которого выясняется
связь или прямая зависимость
между двумя рядами экспериментальных
данных, носит название метод корреляций.
Он показывает, каким образом одно
явление влияет на другое или связано
с ним в своей динамике. Подобного
рода зависимости существуют, к примеру,
между величинами, находящимися в
причинно-следственных связях друг с
другом. Если выясняется, что два
явления статистически
Когда повышение уровня одной переменной сопровождается повышением уровня другой, то речь идёт о положительной корреляции. Если же рост одной переменной происходит при снижении уровня другой, то говорят об отрицательной корреляции. При отсутствии связи переменных мы имеем дело с нулевой корреляцией.
Имеется несколько разновидностей данного метода:
Линейный корреляционный анализ позволяет устанавливать прямые связи между переменными величинами по их абсолютным значениям. Эти связи графически выражаются прямой линией, отсюда название "линейный". Ранговая корреляция определяет зависимость не между абсолютными значениями переменных, а между порядковыми местами, или рангами, занимаемыми ими в упорядоченном по величине ряду. Парный корреляционный анализ включает изучение корреляционных зависимостей только между парами переменных, а множественный, или многомерный, - между многими переменными одновременно. Распространенной в прикладной статистике формой многомерного корреляционного анализа является факторный анализ.
Коэффициент
линейной корреляции определяется при
помощи следующей формулы:
где rxy - коэффициент линейной корреляции;
х, у - средние выборочные значения сравниваемых величин;
хi, уi - частные выборочные значения сравниваемых величин;
n - общее число величин в сравниваемых рядах показателей;
S2x, S2y - дисперсии, отклонения сравниваемых величин от средних значений.
К
коэффициенту ранговой корреляции в
психолого-педагогических исследованиях
обращаются в том случае, когда
признаки, между которыми устанавливается
зависимость, являются качественно
различными и не могут быть достаточно
точно оценены при помощи так
называемой интервальной измерительной
шкалы. Интервальной называют такую
шкалу, которая позволяет оценивать
расстояния между ее значениями и
судить о том, какое из них больше
и насколько больше другого. Например,
линейка, с помощью которой оцениваются
и сравниваются длины объектов, является
интервальной шкалой, так как, пользуясь
ею, мы можем утверждать, что расстояние
между двумя и шестью сантиметрами
в два раза больше, чем расстояние
между шестью и восемью сантиметрами.
Если же, пользуясь некоторым
Большинство
показателей, которые получают в
психолого-педагогических исследованиях,
относятся к порядковым, а не к
интервальным шкалам (например, оценки
типа "да", "нет", "скорее нет,
чем да" и другие, которые можно
переводить в баллы), поэтому коэффициент
линейной корреляции к ним неприменим.
В этом случае обращаются к использованию
коэффициента ранговой корреляции, формула
которого следующая:
где Rs - коэффициент ранговой корреляции по Спирмену;
di - разница между рангами показателей одних и тех же испытуемых в упорядоченных рядах;
n - число испытуемых или цифровых данных (рангов) в коррелируемых рядах.
Метод
множественных корреляций в отличие
от метода парных корреляций позволяет
выявить общую структуру
Для применения частного коэффициента корреляции необходимо соблюдать следующие условия:
1.
Сравниваемые переменные
2.
Предполагается, что все переменные
имеют нормальный закон
3.
Число варьирующих признаков
в сравниваемых переменных
4.
Для оценки уровня
Факторный
анализ - статистический метод, который
используется при обработке больших
массивов экспериментальных данных.
Задачами факторного анализа являются:
сокращение числа переменных (редукция
данных) и определение структуры
взаимосвязей между переменными, т.е.
классификация переменных, поэтому
факторный анализ используется как
метод сокращения данных или как
метод структурной
Важное
отличие факторного анализа от всех
описанных выше методов заключается
в том, что его нельзя применять
для обработки первичных, или, как
говорят, "сырых", экспериментальных
данных, т.е. полученных непосредственно
при обследовании испытуемых. Материалом
для факторного анализа служат корреляционные
связи, а точнее - коэффициенты корреляции
Пирсона, которые вычисляются между
переменными (т.е. психологическими признаками),
включенными в обследование. Иными
словами, факторному анализу подвергают
корреляционные матрицы, или, как их
иначе называют, матрицы интеркорреляций.
Наименования столбцов и строк в
этих матрицах одинаковы, так как
они представляют собой перечень
переменных, включенных в анализ. По
этой причине матрицы
Главное
понятие факторного анализа - фактор.
Это искусственный
С помощью выявленных факторов объясняют взаимозависимость психологических явлений.
Чаще
всего в итоге факторного анализа
определяется не один, а несколько
факторов, по-разному объясняющих
матрицу интеркорреляций
Факторный анализ может быть уместен, если выполняются следующие критерии:
1.
Нельзя факторизовать
2.
Все переменные должны быть
независимыми, а их распределение
должно приближаться к
3.
Связи между переменными
4.
В исходной корреляционной
5.
Выборка испытуемых должна
Однако если факторы хорошо определены (например, с нагрузками 0,7, а не 0,3), экспериментатору нужна меньшая выборка, чтобы выделить их. Кроме того, если известно, что полученные данные отличаются высокой надежностью (например, используются валидные тесты), то можно анализировать данные и по меньшему числу испытуемых.
Заключение
Если
данные, полученные в эксперименте,
качественного характера, то правильность
делаемых на основе их выводов полностью
зависит от интуиции, эрудиции и
профессионализма исследователя, а
также от логики его рассуждений.
Если же эти данные количественного
типа, то сначала проводят их первичную,
а затем вторичную
Информация о работе Статистические методы обработки результатов экспериментов