Оценить:
 Рейтинг: 0

Основы регрессионного моделирования для психологов

Год написания книги
2019
<< 1 2 3 4 >>
На страницу:
3 из 4
Настройки чтения
Размер шрифта
Высота строк
Поля

Решим эту задачу на основе эмпирических результатов через расчет коэффициента детерминации (?

).

Определим меру влияния агрессивности на чувство одиночества (

). Для удобства проведения расчетов влияния х на у составим таблицу:

Когда составили таблицу, проведем расчеты

.

Вначале рассчитаем SS

:

Рассчитаем SS

:

Подставим полученные значения в основную формулу:

Вывод: 71 % общей дисперсии чувства одиночества определяет агрессивность и 29 % – те факторы, о которых мы не знаем (случайные переменные).

Определим меру влияния чувства одиночества на агрессивность (

). Для удобства проведения расчетов влияния у на x составим таблицу:

Когда составили таблицу, проведем расчеты

.

Вначале рассчитаем SS

:

Рассчитаем SS

:

Подставим полученные значения в основную формулу:

Вывод: 68 % общей дисперсии агрессивности определяет чувство одиночества и 32% – те факторы, о которых мы не знаем (случайные переменные).

Общий вывод: если сравнивать

= 0,713 и

= 0,676 по численным значениям, то по формальным аспектам агрессивность статистически выше влияет на чувство одиночества, нежели наоборот, и есть смысл определить агрессивность как независимую переменную, а чувство одиночества – как зависимую. Но есть один существенный момент: разница между

и

составляет всего 0,037 и вполне может измениться при увеличении эмпирических замеров. Поэтому в данной задаче лучше сделать такой вывод: статистический анализ не позволяет нам однозначно соотносить между собой агрессивность и чувство одиночества как зависимую и независимую переменные, а в гипотезе исследования отказаться от понятий «влияет» или «определяет».

Второй вариант решения вышеназванной задачи возможен посредством использования дисперсионного анализа (ANOVA, MANOVA), который позволяет определить статистическую достоверность влияния одной (нескольких) переменной на другую (другие) переменную[6 - Наследов А. Д. Математические методы в психологическом исследовании. Анализ и интерпретация данных: учеб. пособие. СПб.: Речь, 2004.]. Но следует всегда помнить, что для проведения дисперсионного анализа необходимо выполнение целого ряда требований, без наличия которых мы получим не совсем валидные выводы. В частности, к этим требованиям относятся следующие: количество разрядов фактора (независимой переменной) должно быть не менее трех, распределение результативного признака по каждой градации фактора не должно отличаться от нормального, должно соблюдаться условие равенства дисперсий результативного признака (зависимой переменной) по каждому разряду фактора. Когда эти требования невыполнимы и зависимая переменная неочевидна, так как переменные находятся в сложных связях, решить задачу о влиянии переменных друг на друга с использованием дисперсионного анализа (ANOVA, MANOVA) невозможно.

Третий вариант решения вышеназванной задачи, который мы представляем в данном пособии, – метод Чамберса (метод «корреспондирующей регрессии»)[7 - Множественная регрессия в SPSS. URL: http://moodle.herzen.spb.ru.]. Чамберс наблюдал, что каузальность может выводиться из соответствия дисперсий в зависимых переменных. Используя имитацию, он продемонстрировал, что высокие значения зависимой переменной вытекают из высоких значений независимых переменных, низкие значения – из низких значений, однако умеренные значения зависимой переменной могут вытекать из различных уровней независимых переменных, поскольку высокие и низкие значения независимых переменных нейтрализуют друг друга. Он также показал, что ограничение независимых переменных умеренными значениями в целом приводило к умеренным значениям зависимой переменной. Основываясь на этих наблюдениях, он показал, что дисперсия зависимых переменных, корреспондирующая со случаями с умеренными оценками независимых переменных, ниже, чем дисперсия независимых переменных, корреспондирующая со случаями с умеренными оценками зависимых переменных. Эта асимметрия используется для определения каузальной направленности.

Впоследствии Чамберс предложил способ определения каузальности на основе корреспондирующих регрессий (corresponding regressions). Возьмем двумерную регрессию y на х, где существует неопределенность в отношении того, не может ли подобная каузальная направленность оказаться противоположной. В корреспондирующих регрессиях y регрессируется на х, и абсолютные отклонения (прогнозируемые минус действительные значения y – остатки (см. параграфы 4.1–4.3)) рассматриваются как измерение крайности ошибок предсказания. Затем берутся отклонения значений х от среднего значения х для получения измерения крайности значений предиктора. Эти два столбца отклонений коррелируются, давая корреляцию отклонения для y, именуемую rde(y). Такая корреляция отклонения будет негативной, поскольку, когда значения предиктора оказываются крайними, ошибки должны быть меньше, так как высокие значения предиктора приводят к высоким значениям зависимой переменной, а низкие значения – к низким значениям. Далее та же процедура повторяется в отношении регрессии x на y, давая rde(x).

Когда истинно независимая переменная служит предиктором, должна наблюдаться более высокая корреляция, чем когда истинно зависимая переменная служит предиктором.

То есть значение rde выше, когда истинно независимая переменная служит предиктором. Это происходит по причине того, что умеренные оценки предиктора (измеряемые низкой крайностью значений предиктора) должны ассоциироваться с умеренными оценками зависимой переменной (измеряемыми крайностью ошибок) лишь в том случае, когда истинная независимая переменная используется как предиктор истинной зависимой переменной:

Chambers`D = rde(y) – rde(x)

Когда истинно независимая переменная является х, а истинно зависимая y, D будет негативным. То есть только если х является истинно независимой переменной, а y истинно зависимой, rde(y) будет более негативным, чем rde(x).

Проиллюстрируем этот способ на исходных данных, которые приведены в примере 1.1.

Только заметим, что часть необходимой информации для решения данного примера на этой стадии освоения регрессионного моделирования для читателя будет не совсем понятна, так как определение остатков в регрессионной модели приведено в нашем пособии ниже (согласно логике изложения материала), и поэтому мы рекомендуем вернуться к данному примеру после того, как читатель ознакомится со всем содержанием учебного пособия.

Пример 1.2. В студенческой группе было проведено исследование уровня агрессивности (тест-опросник Басса–Дарки) и уровня субъективного ощущения студентами своего одиночества (тест-опросник Д. Рассела, Л. Пепло, М. Фергюсона), в результате которого были получены данные, отраженные в табл. 1.2 (x – агрессивность, y – чувство одиночества).

Таблица 1.2

Данные исследования

Решение

1. Будем считать агрессивность независимой переменной, а чувство одиночества – зависимой. Исходные данные представлены в таблице:

2. Будем считать, что лучше всего аппроксимирует эмпирические данные линейная регрессионная модель. Определим параметры модели (используем SPSS).

y = 1,61x + 8,1 + ?

3. Найдем отклонения эмпирических значений от теоретических (ошибку):

4. Найдем отклонения значений х от среднего значения по х:

5. Рассчитаем коэффициент линейной корреляции (условно не будем учитывать фактор объема выборки). Так как величина коэффициента корреляции не изменится, если значения переменных x и y уменьшать или увеличивать в а раз, вычесть или прибавить к значениям переменных x и y одно и то же число b[8 - Математическая статистика / В. М. Иванова [и др.].], чтобы избавиться от отрицательных значений переменных, прибавим 7 к значениям ошибки и 5 к значениям разницы x

и x

:

rde(y)=0,006

6. Будем считать чувство одиночества независимой переменной, а агрессивность – зависимой. Исходные данные представлены в таблице:
<< 1 2 3 4 >>
На страницу:
3 из 4