Многомерное шкалирование

Автор работы: Пользователь скрыл имя, 30 Мая 2010 в 17:21, Не определен

Описание работы

1. Меры различия, типы моделей
2. Неметрическая модель и модель индивидуальных различий
3. Построение математических моделей с помощью компьютера
Список использованной литературы

Файлы: 1 файл

математические методы в психологии.doc

— 301.50 Кб (Скачать файл)

      Многомерное шкалирование.

      Содержание

      1. Меры различия, типы моделей

      2. Неметрическая модель и модель  индивидуальных различий

      3. Построение математических моделей  с помощью компьютера

      Список  использованной литературы 

      1. Меры различия, типы  моделей

      Многомерное шкалирование предлагает геометрическое представление стимулов в виде точек координатного пространства минимально возможной размерности.

      Существует  два типа моделей: дистанционные  и векторные. В дистанционных  моделях исходные различия должны быть приближены расстояниями, в большинстве случаев используют привычное евклидово расстояние: 

      В векторных моделях меры близостей  или связей — величины, обратные различиям, аппроксимируются скалярными произведениями векторов, соединяющих  точки, соответствующие стимулам, с началом координат: 

    При построении конфигурации стимулов используется аппарат линейной или нелинейной оптимизации. Почему же такая простая  модель и формальные методы поиска экстремума позволяют получить содержательно  интерпретируемое решение? Почему оси, построенные формальным образом, приобретают смысл хорошо интерпретируемых факторов?

    Векторная модель. Обсудим геометрические свойства векторной модели. Начнем со шкалирования бинарных данных, т. е. высказываний типа «похожи—непохожи». Допустим, что мы имеем матрицу, содержащую информацию о том, что все стимулы не похожи друг на друга. Как можно представить геометрически такую структуру? Стимулы должны располагаться либо на ортогональных прямых, либо в начале координат. В этом случае все скалярные произведения будут нулями.

    Перейдем  к ситуации наличия нескольких групп  похожих между собой стимулов. Стимулы из одной группы должны представляться одной точкой; точки, соответствующие  разным группам, должны принадлежать ортогональным  прямым. Изолированные стимулы могут быть помещены в начало координат. Тогда скалярные произведения между похожими стимулами будут большими, а скалярные произведения между непохожими стимулами будут нулями.

    Ориентируем оси координатного пространства вдоль ортогональных направлений. Тогда каждая ось будет связана с группой похожих между собой стимулов, и фактор, ей соответствующий, будет лежать в основе сходства этих стимулов. Разным группам будут соответствовать ортогональные осп и, следовательно, независимые факторы. Исключение составляют изолированные стимулы, которые могут попасть в начало координат. Чем больше стимулов объединяются в группы, тем меньше измерений необходимо.

    Пусть теперь мы располагаем дискретными  или непрерывными данными, т. с. получаем оценки о сходствах или связях либо в виде баллов, либо в виде чисел. Допустим, что в этом случае матрица имеет квазиблочпую структуру. Тогда по ней можно разбить все множество на несколько групп так, что стимулы внутри каждой группы будут сильно связаны, а стимулы из разных групп—слабо связаны между собой. Характер отображения будет примерно таким же, как в случае непересекающихся бинарных данных. Однако стимулы из одной группы не будут представляться одной точкой, а будут сконцентрированы в некоторой ее окрестности. Такая структура, вообще говоря, не будет совпадать с ортогональной системой координат, поскольку точки могут лежать несколько в стороне от осей. Однако если связи в группах достаточно сильны, а связи между группами достаточно слабы, то и в этом случае каждое измерение будет связано с одной группой и фактор, ему соответствующий, будет лежать в основе сходства стимулов из этой группы.

    На  практике сильно структуризованные  данные, характеризующие непересекающиеся группы стимулов, встречаются редко, обычно группы имеют пересечения. Имеются стимулы, похожие одновременно на стимулы из двух или нескольких групп. Естественно, что они не попадут на оси, а будут располагаться в пространстве между ними. Характер распределения будет зависеть от матрицы исходных данных. Картина будет тем контрастнее, чем более структуризованы данные, т. е. сильнее внутригрупповые связи и слабее — межгрупповые. Оси будут определяться группами стимулов, которые очень похожи между собой и минимально похожи на стимулы из других групп. Такие стимулы характеризуются большими значениями координат по соответствующим осям. Эти группы стимулов лежат в основе всей структуры. Остальные стимулы, похожие одновременно на стимулы из нескольких групп, должны занять промежуточные положения между этими группами.

    Поскольку исходная матрица не является матрицей точных расстояний или скалярных произведений, то все стимулы не могут быть отображены в пространстве, определяемом ортогональными осями, соответствующими изолированным группам. Для их размещения потребуются дополнительные размерности. Если первый тип размерностей определяется большими межгрупповыми различиями и каждая размерность характеризуется значительным разбросом стимулов, то второй тип размерностей возникает за счет того, что субъективные различия между стимулами не могут быть отображены точным образом в пространстве небольшого числа размерностей. Разброс стимулов вдоль размерностей второго типа невелик и во многих случаях им можно пренебречь.

      Центрированная  векторная модель. Другой вариант векторной модели — модель центрированных скалярных произведений. На ней основан широко распространенный метод Торгерсона, положивший начало теории многомерного шкалирования. В этой модели полагается, что начало координат помещено в центре тяжести структуры. Исходные близости или связи должны быть аппроксимированы скалярными произведениями векторов, соединяющих точки, соответствующие стимулам, с центром тяжести конфигурации. Матрица исходных близостей предварительно центрируется, так что наряду с положительными числами в ней появляются и отрицательные. Если пронормировать приведенные данные: |ajk| £ 1, то их можно рассматривать как коэффициенты корреляции.

      Решение, порождаемое моделью центрированных скалярных произведений, отличается от решения, получаемого по обычной  векторной модели. В исходной матрице близости (связи) между стимулами могут принимать положительное, нулевое и отрицательное значения; будем приближать их скалярными произведениями. Естественно, что стимулы, характеризующиеся сильными положительными связями (большими мерами близостей), должны концентрироваться в окрестности одной точки, отстоящей на значительном расстоянии от начала координат. Тогда скалярные произведения между соответствующими векторами будут большими. Стимулы, характеризующиеся отрицательными связями, должны находиться по разные стороны от начала координат. Скалярные произведения между ними будут принимать максимальные отрицательные значения, если они будут принадлежать разным концам одной прямой, проходящей через начало координат. Пары стимулов с нулевыми связями должны принадлежать ортогональным прямым; в таком случае скалярные произведения между ними будут нулями. Изолированные стимулы, имеющие нулевые связи со всеми остальными, могут попадать в начало координат.

      Большие положительные, отрицательные, а также нулевые связи будут определять основную структуру всей системы. Стимулы, характеризующиеся умеренными связями, будут располагаться между этими основными группами стимулов. Чем слабее связи, тем ближе стимулы к началу координат. Поскольку исходная матрица близостей или связей не является точной матрицей скалярных произведений, то все стимулы не могут быть отображены в пространстве небольшой размерности. Как и в случае предыдущей модели, для компенсации шума в данных потребуются дополнительные размерности, разброс в направлении которых незначителен по сравнению с основными размерностями и им можно пренебречь. Таким образом, модель центрированных скалярных произведений позволяет отобразить структуру системы в координатном пространстве, натянутом на небольшое множество ортогональных прямых. Повернем первоначальные оси пространства и совместим их с этими прямыми. Тогда каждую ось можно интерпретировать как биполярный фактор: справа будут располагаться стимулы, характеризующиеся положительными значениями этого фактора, слева — отрицательными, а в центре — нулевыми. Ортогональные оси будут соответствовать стимулам или группам стимулов, не связанных между собой, поэтому они могут интерпретироваться как независимые факторы. Решение, порождаемое моделью, будет иметь смысловое содержание.

      Дистанционная модель. Посмотрим теперь, какими свойствами обладает дистанционная модель; ограничимся евклидовой метрикой. Начнем опять с системы, в которой все стимулы не похожи друг на друга. Для точной передачи структуры этой системы следует поместить каждый стимул в одну из N вершин многогранника с одинаковыми ребрами (симплекса). Тогда стимулы будут отстоять друг от друга на одинаковом расстоянии.

      Пусть имеется несколько изолированных  групп- стимулов. Тогда стимулы из одной группы должны быть помещены в одну вершину, и многогранник будет иметь размерность, равную количеству групп. В отличие от векторной модели изолированные стимулы не могут быть все помещены в одну точку — начало координат, каждый из них должен занимать отдельную вершину.

      В общем случае произвольной матрицы  различий группы похожих между собой  стимулов будут сконцентрированы вблизи одной вершины, а стимулы, похожие  одновременно на стимулы из двух или  нескольких групп, будут располагаться  между этими вершинами.

      Характер конструкции будет определяться в основном большими различиями между стимулами или группами стимулов. Однако, как и в случае векторной модели, ввиду того, что матрица различий не является точной матрицей расстояний, для передачи структуры потребуются дополнительные размерности. Но разброс стимулов в этих направлениях будет сравнительно мал.

      В результате шкалирования необходимо выявить  существенные оси, разброс в направлении  которых велик, и отбросить несущественные оси, разброс в направлении которых  мал. Итак, следуя модели многомерного шкалирования, можно разместить все стимулы в пространстве таким образом, чтобы оси несли смысловую нагрузку и факторы, им соответствующие, лежали в основе сходств или различий между стимулами.

      Построенная результирующая конфигурация и полученные размерности отражают данные, занесенные в матрицу близостей или различий. И хотя многомерное шкалирование при своем зарождении было предназначено для анализа высказываний человека, никакой специфики обработки субъективных данных в нем не содержится. Оно в равной мере может использоваться и для анализа объективных данных о близостях или связях. Более того, иногда легче поддаются интерпретации объективные данные, потому что они характеризуют некие объективные связи между объектами. Интерпретация субъективных данных, построенных на основе высказываний одного человека (эксперта, испытуемого), может вызвать значительные затруднения у другого человека (исследователя, экспериментатора).

      После анализа механизма шкалирования легко понять, какие же данные следует считать хорошими или, как принято говорить, хорошо структуризованными. Для кластерного анализа хорошо структуризованной является матрица, которая может быть приведена к блочно-диагональному виду. Иными словами, если имеется группа похожих (или сильно связанных) между собой стимулов, то все стимулы этой группы должны быть непохожими на остальные (или слабо связаны). Тогда структура может быть представлена изолированными группами сходных между собой стимулов. В многомерном шкалировании ввиду непрерывности измерений требования на входную информацию более слабые. Если два стимула сходны между собой, то они должны иметь близкие профили сходств со всеми другими стимулами. Это является необходимым условием для их адекватного представления в пространстве небольшого числа измерений.

      Хотя  модель многомерного шкалирования достаточно проста и интуитивно понятно, какого характера решение следует ожидать, попытки построить конфигурацию точек вручную могут привести к успеху лишь при очень небольшом  количестве стимулов и хорошо структуризованной матрице близостей. В общем случае исследователь вынужден прибегнуть к помощи вычислительной машины, а для работы на ней необходимо алгоритмизировать процесс решения задачи. Иногда трудно вручную построить конфигурацию даже для небольшого набора стимулов. Примером такого множества могут служить равнояркие цветовые стимулы, равномерно распределенные по длине волны. Анализ матрицы субъективных различий не позволяет выделить ключевые стимулы, различия между которыми могли бы быть положены в основу всей структуры. Обработка этих данных на ЭВМ приводит к представлению стимулов на окружности — «цветовом круге»; действительно, с точки зрения такой структуры все стимулы равноценны.

      Меры  различия. Вывод об экспериментальном эффекте может быть сделан как на основе установления значимой связи между изменениями НП и ЗП, т.е. путем использования мер связи, так и путем установления значимых различий в ЗП между экспериментальным и контрольным условиями, т.е. путем использования мер различий. Выбор тех или иных статистических критериев определяется обоснованным обсуждением адекватности их с точки зрения возможных соотнесений разных видов представления эмпирических результатов и предположений о каузальной зависимости. Если выбраны меры связи, то далее необходимы решения о выборе коэффициента корреляции, соответствующего шкалам измерения психологических переменных и плану соотнесения ЗП с экспериментальными условиями. В случае если выбраны меры различий, то также предполагается ряд решений об их соответствии плану сбора данных и типу показателей ЗП.

Информация о работе Многомерное шкалирование