Популярные услуги

Главная » Лекции » Психология » Математические методы в психологии » Методы вторичной статистической обработки результатов эксперимента

Методы вторичной статистической обработки результатов эксперимента

2021-03-09СтудИзба

Вопрос 2 Методы вторичной статистической обработки результатов эксперимента

С помощью вторичных методов статистической обработки экспериментальных данных непосредственно проверяются, до­казываются или опровергаются гипотезы, связанные с экспери­ментом.

Эти методы, как правило, сложнее, чем методы первич­ной статистической обработки, и требуют от исследователя хо­рошей подготовки в области элементарной математики и статис­тики.

Обсуждаемую группу методов можно разделить на несколь­ко подгрупп:

  1. Регрессионное исчисление.
  2. Методы сравнения между собой двух или нескольких элементарных статистик (средних, дисперсий и т.п.), относящихся к разным выборкам.
  3. Методы установления статистических взаимосвязей между пе­ременными, например их корреляции друг с другом.
  4. Методы выявления внутренней статистической структуры эмпирических данных (например, факторный анализ).

Рассмотрим каждую из выделенных подгрупп методов вторичной статистической обра­ботки на примерах.

1. Регрессионное исчисление — это метод математической ста­тистики, позволяющий свести частные, разрозненные данные к некоторому линейному графику, приблизительно отражающе­му их внутреннюю взаимосвязь, и получить возможность по зна­чению одной из переменных приблизительно оценивать вероят­ное значение другой переменной.

Воспользуемся для графического представления взаимосвязан­ных значений двух переменных х и у точками на графике (рис, 73). Поставим перед собой задачу: заменить точки на графике ли­нией прямой регрессии, наилучшим образом представляющей взаимосвязь, существующую между данными переменными. Иными словами, задача заключается в том, чтобы через скопле­ние точек, имеющихся на этом графике, провести прямую линию,

Рис. 73. Прямая регрессии Y no X.  хср и уср — средние значения переменных. От­клонения отдельных значений от линии регрессии обозначены вертикальны­ми пунктирными линиями. Величина у,-у является отклонением измеренно­го значения переменной yj от оценки, а величина у - у является отклонением оценки от среднего значения (Цит. по: Шерла К. Факторный анализ. М., 1980. С. 23).

Рекомендуемые материалы

пользуясь которой по значению одной из переменных, х или у, можно приблизительно судить о значении другой переменной. Для того чтобы решить эту задачу, необходимо правильно найти коэффициенты а и Ь в уравнении искомой прямой:

у = ах + b.

Это уравнение представляет прямую на графике и называет­ся уравнением прямой регрессии.

Формулы для подсчета коэффициентов а и Ь являются сле­дующими:

где хi уi - частные значения переменных X и Y, которым соответствуют точки на графике;

 — средние значения тех же самых переменных;

п — число первичных значений или точек на графике.

Для сравнения выборочных средних величин, принадлежа­щих к двум совокупностям данных, и для решения вопроса о том, отличаются ли средние значения статистически достоверно друг от друга, нередко используют t-критерий Стъюдента. Его основ­ная формула выглядит следующим образом:

где

    х1 — среднее значение переменной по одной выборке данных;

х2среднее значение переменной по другой выборке данных;

т1 и т2интегрированные показатели отклонений частных значений из двух сравниваемых выборок от соответствующих им средних величин.

т1 и т2 в свою очередь вычисляются по следующим формулам:

где  — выборочная дисперсия первой переменной (по первой выборке);

 — выборочная дисперсия второй переменной (по второй выборке);

п]число частных значений переменной в первой выборке;

п2число частных значений переменной по второй выборке.

После того как при помощи приведенной выше формулы вы­числен показатель t, по таблице 32 для заданного числа степеней свободы, равного n1 + п2 - 2, и избранной вероятности допусти­мой ошибки1 находят нужное табличное значение t и сравнива-

1 Степени свободы и вероятность допустимой ошибки — специальные математико-статистические термины, содержание которых мы здесь не будем рас­сматривать.

Таблица 32

Критические значения t-критерия Стъюдента

для заданного числа степеней свободы и вероятностей допустимых ошибок, равных 0,05; 0,01 и 0,001

Число

степеней

свободы

(n1+ n2 -2)

Вероятность допустимой ошибки

0,05

0,01

0,001

Критические значения показателя t

4

2,78

5,60

8,61

5

2,58

4,03

6,87

6

2,45

3,71

5,96

7

2,37

3,50

5,41

8

2,31

3,36

5,04

9

2,26

3,25

4,78

10

2,23

3,17

4,59

11

2,20

3,11

4,44

12

2,18

3,05

4,32

13

2,16

3,01

4,22

14

2,14

2,98

4,14

15

2,13

2,96

4,07

16

2,12

2,92

4,02

17

2,11

2,90

3,97

18

2,10

2,88

3,92

19

2,09

2,86

3,88

20

2,09

2,85

3,85

21

2,08

2,83

3,82

22

2,07

2,82

3,79

23

2,07

2,81

3,77

24

2,06

2,80

3,75

25

2,06

2,79

3,73

26

2,06

2,78

3,71

27

2,05

2,77

3,69

28

2,05

2,76

3,67

29

2,05

2,76

3,66

30

2,04

2,75

3,65

40

2,02

2,70

3,55

50

2,01

2,68

3,50

60

2,00

2,66

3,46

80

1,99

2,64

3,42

100

1,98

2,63

3,39

ют с ними вычисленное значение t.  Если вычисленное значение t больше или равно табличному, то делают вывод о том, что срав­ниваемые средние значения из двух выборок действительно статистически достоверно различаются с вероятностью допустимой ошибки, меньшей иди равной избранной. Рассмотрим процеду­ру вычисления t-критерия Стъюдента и определения на его ос­нове разницы в средних величинах на конкретном примере.

Допустим, что имеются следующие две выборки эксперимен­тальных данных: 2, 4, 5, 3, 2, 1, 3, 2, 6, 4 и 4, 5, 6, 4, 4, 3, 5, 2, 2, 7.

Средние значения по этим двум выборкам соответственно рав­ны 3,2 и 4,2. Кажется, что они существенно друг от друга отлича­ются. Но так ли это и насколько статистически достоверны эти различия? На данный вопрос может точно ответить только ста­тистический анализ с использованием описанного статистичес­кого критерия. Воспользуемся этим критерием.

Определим сначала выборочные дисперсии для двух срав­ниваемых выборок значений:

Поставим найденные значения дисперсий в формулу для под-

счета т и t и вычислим показатель t

Сравним его значение с табличным для числа степеней сво­боды 10+10-2 = 18. Зададим вероятность допустимой ошибки, равной 0,05, и убедимся в том, что для данного числа степеней свободы и заданной вероятности допустимой ошибки значение t должно быть не меньше чем 2,10. У нас же этот показатель ока­зался равным 1,47, т.е. меньше табличного. Следовательно, ги­потеза о том, что выборочные средние, равные в нашем случае 3,2 и 4,2, статистически достоверно отличаются друг от друга, не подтвердилась, хотя на первый взгляд казалось, что такие раз­личия существуют.

Вероятность допустимой ошибки, равная и меньшая чем 0,05, считается достаточной для научно убедительных выводов. Чем меньше эта вероятность, тем точнее и убедительнее делаемые вы­воды. Например, избрав вероятность допустимой ошибки, равную 0,05, мы обеспечиваем точность расчетов 95% и допускаем ошибку, не превышающую 5%, а выбор вероятности допустимой ошибки 0,001 гарантирует точность расчетов, превышающую 99,99%, или ошибку, меньшую чем 0,01%.

Описанная методика сравнения средних величин по крите­рию Стъюдента в практике применяется тогда, когда необходи­мо, например, установить, удался или не удался эксперимент, оказал или не оказал он влияние на уровень развития того пси­хологического качества, для изменения которого предназначал­ся. Допустим, что в некотором учебном заведении вводится но­вая экспериментальная программа или методика обучения, рас­считанная на то, чтобы улучшить знания учащихся, повысить уровень их интеллектуального развития. В этом случае выясня­ется причинно-следственная связь между независимой перемен­ной — программой или методикой и зависимой переменной — знаниями или уровнем интеллектуального развития. Соответ­ствующая гипотеза гласит: «Введение новой учебной програм­мы или методики обучения должно будет существенно улучшить знания или повысить уровень интеллектуального развития уча­щихся».

Предположим, что данный эксперимент проводится по схе­ме, предполагающей оценки зависимой переменной в начале и в конце эксперимента. Получив такие оценки и вычислив средние по всей изученной выборке испытуемых, мы можем воспользо­ваться критерием Стъюдента для точного установления нали­чия или отсутствия статистически достоверных различий меж­ду средними до и после эксперимента. Если окажется, что они действительно достоверно различаются, то можно будет сделать определенный вывод о том, что эксперимент удался. В против­ном случае нет убедительных оснований для такого вывода даже в том случае, если сами средние величины в начале и в конце эксперимента по своим абсолютным значениям различны.

Иногда в процессе проведения эксперимента возникает спе­циальная задача сравнения не абсолютных средних значений не­которых величин до и после эксперимента, а частотных, напри­мер процентных, распределений данных. Допустим, что для экс­периментального исследования была взята выборка из 100 учащихся и с ними проведен формирующий эксперимент. Предпо­ложим также, что до эксперимента 30 человек успевали на «удов­летворительно», 30 — на «хорошо», а остальные 40 — на «отлич­но». После эксперимента ситуация изменилась. Теперь на «удов­летворительно» успевают только 10 учащихся, на «хорошо» — 45 учащихся и на «отлично» — остальные 45 учащихся. Можно ли, опираясь на эти данные, утверждать, что формирующий экс­перимент, направленный на улучшение успеваемости, удался?

Для ответа на данный вопрос можно воспользоваться статис­тикой, называемой χ2-критерий («хи-квадрат критерий»). Его формула выглядит следующим образом:

где Pk —. частоты результатов наблюдений до эксперимента;

Vk — частоты результатов наблюдений, сделанных после экс­перимента;

т — общее число групп, на которые разделились результаты наблюдений.

Воспользуемся приведенным выше примером для того, что­бы показать, как работает хи-квадрат критерий. В данном при­мере переменная Рк принимает следующие значения: 30%, 30%, 40%, а переменная Vkтакие значения: 10%, 45%, 45%.

Подставим все эти значения в формулу для %2 и определим его величину:

Воспользуемся теперь таблицей 33, где для заданного числа степеней свободы можно выяснить степень значимости образо­вавшихся различий до и после эксперимента в распределении оценок. Полученное нами значение χ2 — 21,5 больше соответст­вующего табличного значения т - 1 = 2 степеней свободы, со­ставляющего 13,82 при вероятности допустимой ошибки мень­ше чем 0,001. Следовательно, гипотеза о значимых изменениях, которые произошли в оценках учащихся в результате введения новой программы или новой методики обучения,

Таблица 33

Граничные (критические) значения c2-критерия,

соответствующие разным вероятностям допустимой ошибки

и разным степеням свободы

Число степеней свободы (m-1)

Вероятность допустимой ошибки

0,05

0,01

0,001

    1

          2

3

4

5

6

7

8

9

10

11

12

13

14

15

3,84

5,99

7,81

9,49 11,07

12,59 14,07 15,51 16,92 18,31 19,68 21,03 22,36 23,68 25,00

6,64

9,21 11,34 13,28 15,09 16,81 18,48 20,09 21,67 23,21 24.72 26,05 27,69 29,14 30,58

10,83 13,82 16,27 18,46 20,52 22,46 24,32 26,12 27.88 29,59 31,26 32,91 34,53 36,12 37,70

экспериментально подтвердилась: успеваемость значительно улучшилась, и это мы можем утверждать, допуская ошибку, не превышающую 0,001%.

Иногда в психолого-педагогическом эксперименте возника­ет необходимость сравнить дисперсии двух выборок для того, чтобы решить, различаются ли эти дисперсии между собой. До­пустим, что проводится эксперимент, в котором проверяется ги­потеза о том, что одна из двух предлагаемых программ или ме­тодик обучения обеспечивает одинаково успешное усвоение зна­ний учащимися с разными способностями, а другая программа или методика этим свойством не обладает. Демонстрацией спра­ведливости такой гипотезы было бы доказательство того, что ин­дивидуальный разброс оценок учащихся по одной программе или методике больше (или меньше), чем индивидуальный разброс оценок по другой программе или методике.

Критерий Фишера

Подобного рода задачи решаются, в частности, при помощи критерия Фишера. Его формула выглядит следующим образом:

где n1количество значения признака в первой из сравнивае­мых выборок;

п2 — количество значений признака во второй из сравниваемых выборок;

(п11, п21) — число степеней свобо­ды;

 — дисперсия по первой выборке;

 — дисперсия по вто­рой выборке.

Вычисленное с помощью этой формулы значение F-критерия сравнивается с табличным (табл. 34), и если оно превосхо­дит табличное для избранной вероятности допустимой ошибки и заданного числа степеней свободы, то делается вывод о том, что гипотеза о различиях в дисперсиях подтверждается. В про­тивоположном случае такая гипотеза отвергается и дисперсии считаются одинаковыми1.

Таблица 34

Граничные значения F-критерия для вероятности допустимой ошибки 0,05 и числа степеней свободы n1 и n2

n2  n1

3

4

5

6

8

12

16

24

50

3

9,28

9,91

9,01

8,94

8,84

8,74

8,69

8,64

8,58

4

6,59

6,39

6,26

6,16

6,04

5,91

5,84

5,77

5,70

5

5,41

5,19

5,05

4,95

4,82

4,68

4,60

4,58

4,44

6

4,76

4,53

4,39

4,28

4,15

4,00

3,92

3,84

3,75

8

4,07

3,84

3,69

3,58

3,44

3,28

3,20

3,12

3,03

12

3,49

3,26

3,11

3,00

2,85

2,69

2,60

2,50

2,40

16

3,24

3,0

2,85

2,74

2,59

2,42

2,33

2,24

2,13

24

3,01

2,78

2,62

2,51

2,36

2,18

2,09

1,98

1,86

50

2,79

2,56

2,40

2,29

2,13

1,95

1,85

1,74

1,60

1. Если отношение выборочных дисперсий в формуле F-критерия оказы­вается меньше единицы, то числитель и знаменатель в этой формуле меняют местами и вновь определяют значения критерия.

Примечание. Таблица для граничных значений F-распреде­ления приведена в сокращенном виде. Полностью ее можно найти в справочниках по математической статистике, в частности в тех, которые даны в списке дополнительной литературы представленной в Теме №  1..

Пример.

Сравним дисперсии следующих двух рядов цифр с целью определения статистически достоверных различий меж­ду ними.

Первый ряд: 4,6,5,7,3,4,5,6.

Второй ряд: 2,7,3,6,1,8,4,5.

Средние значения для двух этих рядов соответственно рав­ны: 5,0 и 4,5. Их дисперсии составляют: 1,5 и 5,25. Частное от деления большей дисперсии на меньшую равно 3,5. Это и есть искомый показатель F. Сравнивая его с табличным граничным значением 3,44, приходим к выводу о том, что дисперсии двух сопоставляемых выборок действительно отличаются друг от дру­га на уровне значимости более 95% или с вероятностью допусти­мой ошибки не более 0,05%.

МЕТОД КОРЕЛЛЯЦИЙ

Следующий метод вторичной статистической обработки, по­средством которого выясняется связь или прямая зависимость между двумя рядами экспериментальных данных, носит назва­ние метод корреляций. Он показывает, каким образом одно яв­ление влияет на другое или связано с ним в своей динамике. По­добного рода зависимости существуют, к примеру, между вели­чинами, находящимися в причинно-следственных связях друг с другом. Если выясняется, что два явления статистически досто­верно коррелируют друг с другом и если при этом есть уверен­ность в том, что одно из них может выступать в качестве причи­ны другого явления, то отсюда определенно следует вывод о на­личии между ними причинно-следственной зависимости.

Имеется несколько разновидностей данного метода:

*линей­ный,

*ранговый,

*парный и

*множественный.

Линейный корреля­ционный анализ позволяет устанавливать прямые связи между переменными величинами по их абсолютным значениям. Эти связи графически выражаются прямой линией, отсюда название «линейный».

Ранговая корреляция определяет зависимость не между абсолютными значениями переменных, а между поряд­ковыми местами, или рангами, занимаемыми ими в упорядочен­ном по величине ряду.

Парный корреляционный анализ вклю­чает изучение корреляционных зависимостей только между парами переменных, а множественный, или многомерный, — меж­ду многими переменными одновременно.

Распространенной в прикладной статистике формой многомерного корреляционно­го анализа является факторный анализ.

На рис. 74 в виде множества точек представлены различные виды зависимостей между двумя переменными X и У (различ­ные поля корреляций между ними).

На фрагменте рис. 74, отмеченном буквой А, точки случай­ным образом разбросаны по координатной плоскости. Здесь по величине X нельзя делать какие-либо определенные выводы о величине Y. Если в данном случае подсчитать коэффициент кор­реляции, то он будет равен 0, что свидетельствует о том, что до­стоверная связь между X и У отсутствует (она может отсутство­вать и тогда, когда коэффициент корреляции не равен 0, но бли­зок к нему по величине).

На фрагменте Б рисунка все точки ле­жат на одной прямой, и каждому отдельному значению перемен­ной X можно поставить в соответствие одно и только одно зна­чение переменной У, причем, чем больше X, тем больше У. Такая связь между переменными X и У называется прямой, и если это прямая, соответствующая уравнению регрессии, то связанный с ней коэффициент корреляции будет равен +1. (Заметим, что в жизни такие случаи практически не встречаются; коэффициент корреляции почти никогда не достигает величины единицы.)

На фрагменте В рисунка коэффициент корреляции также бу­дет равен единице, но с отрицательным знаком: -1. Это означает обратную зависимость между переменными X и У, т.е., чем боль­ше одна из них, тем меньше другая.

На фрагменте Г рисунка точки также разбросаны не случай­но, они имеют тенденцию группироваться в определенном на­правлении. Это направление приближенно может быть представ­лено уравнением прямой регрессии.

Такая же особенность, но с противоположным знаком, характерна для фрагмента Д. Соот­ветствующие этим двум фрагментам коэффициенты корреляции приблизительно будут равны +0,50 и -0,30. Заметим, что кру­тизна графика, или линии регрессии, не оказывает влияния на величину коэффициента корреляции.

Рис. 74. Схематическое представление различных корреляционных зависи­мостей с соответствующими значениями коэффициента линейной корреля­ции (цит. по: Иберла К. Факторный анализ. М,, 1980).

Наконец, фрагмент Е дает коэффициент корреляции, равный или близкий к 0, так как в данном случае связь между перемен­ными хотя и существует, но не является линейной.

Коэффициент линейной корреляции определяется при по­мощи следующей формулы:

где rxyкоэффициент линейной корреляции;

х, у - средние выборочные значения сравниваемых величин;

хii частные выборочные значения сравниваемых величин;

п — общее число величин в сравниваемых рядах показателей;

 — дисперсии, отклонения сравниваемых величин от

средних значений.

Пример. Определим коэффициент линейной корреляции между следующими двумя рядами показателей.

Ряд 1:  2, 4, 4, 5, 3, б,  8.

Ряд II: 2, 5, 4, 6, 2, 5, 7.

Средние значения этих двух рядов соответственно равны 4,6 и 4,4.

Их дисперсии составляют следую­щие величины: 3,4 и 3,1. Подставив эти данные в приведенную выше формулу коэффициента линейной корреляции, получим следующий результат: 0,92. Следовательно, между рядами дан­ных существует значимая связь, причем довольно явно выражен­ная, так как коэффициент корреляции близок к единице. Дейст­вительно, взглянув на эти ряды цифр, мы обнаруживаем, что большей цифре в одном ряду соответствует большая цифра в дру­гом ряду и, наоборот, меньшей цифре в одном ряду соответству­ет примерно такая же малая цифра в другом ряду.

К коэффициенту ранговой корреляции в психолого-педаго­гических исследованиях обращаются в том случае, когда при­знаки, между которыми устанавливается зависимость, являют­ся качественно различными и не могут быть достаточно точно оценены при помощи так называемой интервальной измеритель­ной шкалы.

Интервальной называют такую шкалу, которая по­зволяет оценивать расстояния между ее значениями и судить о том, какое из них больше и насколько больше другого.

Напри­мер, линейка, с помощью которой оцениваются и сравниваются длины объектов, является интервальной шкалой, так как, поль­зуясь ею, мы можем утверждать, что расстояние между двумя и шестью сантиметрами в два раза больше, чем расстояние между шестью и восемью сантиметрами. Если же, пользуясь некоторым измерительным инструментом, мы можем только утверждать, что одни показатели больше других, но не в состоянии сказать на сколько, то такой измерительный инструмент называется не ин­тервальным, а порядковым.

Большинство показателей, которые получают в психолого-педагогических исследованиях, относятся к порядковым, а не к интервальным шкалам (например, оценки типа «да», «нет», «ско­рее нет, чем да» и другие, которые можно переводить в баллы), поэтому коэффициент линейной корреляции к ним неприменим. В этом случае обращаются к использованию коэффициента ран­говой корреляции, формула которого следующая:

где Rs — коэффициент ранговой корреляции по Спирмену;

diразница между рангами показателей одних и тех же ис­пытуемых в упорядоченных рядах;

п — число испытуемых или цифровых данных (рангов) в кор­релируемых рядах.

Пример. Допустим, что экспериментатора интере­сует, влияет ли интерес учащихся к учебному предмету на их успеваемость. Предположим, что с помощью некоторой психо­диагностической методики удалось измерить величину интере­са к учению и выразить его для десяти учащихся в следующих цифрах: 5, 6, 7, 8, 2, 4, 8, 7, 2, 9. Допустим также, что при помощи другой методики были определены средние оценки этих же уча­щихся по данному предмету, оказавшиеся соответственно рав­ными: 3,2;  4,0;  4,1;  4,2;  2,5;  5,0;  3,0;  4,84,6;  2,4.

Упорядочим оба ряда оценок по величине цифр и припишем каждому из учащихся по два ранга; один из них указывает на то, какое место среди остальных данных ученик занимает по успе­ваемости, а другой — на то, какое место среди них же он занима­ет по интересу к учебному предмету. Ниже приведены ряды цифр, два из которых (первый и третий) представляют исходные данные, а два других (второй и четвертый) — соответствующие ранги1:

2-1,5

2,4-1

2-1,5

2,5-2

4-3

3,0-3

5-4

3,2-4

6-5

4,0-5

7-6,5

4,1-6

7-6,5

4,2-7

8-8,5

4,6-8

9-10

5,0-10

Определив сумму квадратов различий в рангах (∑d2i) и под­ставив нужное значение в числитель формулы, получаем, что ко­эффициент ранговой корреляции равен 0,97, т.е. достаточно вы­сок, что и говорит о том, что между интересом к учебному пред­мету и успеваемостью учащихся действительно существует ста­тистически достоверная зависимость.

Однако по абсолютным значениям коэффициентов корреля­ции не всегда можно делать однозначные выводы о том, являют­ся ли они значимыми, т.е. достоверно свидетельствуют о суще­ствовании зависимости между сравниваемыми переменными. Может случиться так, что коэффициент корреляции, равный 0,50, не будет достоверным, а коэффициент корреляции, составивший 0,30, — достоверным. Многое в решении этого вопроса зависит от того, сколько показателей было в коррелируемых друг с дру­гом рядах признаков: чем больше таких показателей, тем мень­шим по величине может быть статистически достоверный коэф­фициент корреляции.

В табл. 35 представлены критические значения коэффици­ентов корреляции для различных степеней свободы.

1 Если исходные данные, которые ранжируются, одинаковы, то и их ранги также будут одинаковыми. Они получаются путем суммирования и деления пополам тех рангов, которые соответствуют этим данным.

Таблица 35

Критические значения коэффициентов корреляции

для различных степеней свободы (n - 2) и разных вероятностей

допустимых ошибок

Число

степеней

свободы

Уровень значимости

0,05

0,01

0,001

2

0,9500

0,9900

0,9900

3

8783

9587

9911

4

8114

9172

9741

5

0,7545

0,8745

0,9509

6

7067

8343

9249

7

6664

7977

8983

8

6319

7646

8721

9

6021

7348

8471

10

0,5760

0,7079

0,8233

И

5529

6833

8010

12

5324

6614

7800

13

5139

6411

7604

14

4973

6226

7419

15

0,4821

0,6055

0,7247

16

4683

5897

7084

17

4555

5751

6932

18

4438

5614

6788

19

4329

5487

6625

20

0,4227

0,5368

0,6524

21

4132

5256

6402

22

4044

5151

6287

23

3961

5052

6177

24

3882

4958

6073

25

0,3809

0,4869

0,5974

26

3739

4785

5880

27

3673

4705

5790

28

3610

4629

5703

29

3550

4556

5620

30

0,3494

0,4487

0,5541

31

3440

4421

5465

32

3388

4357

5392

33

0,3338

0,4297

0,5322

34

3291

4238

5255

35

0,3246

0,4182

0,5189

36

3202

4128

5126

37

3160

4076

5066

38

3120

4026

5007

39

3081

3978

4951

40

0,3044

0,3932

0,4896

(В данном случае степенью свободы будет число, равное п — 2, где п — ко­личество данных в коррелируемых рядах.) Заметим, что значи­мость коэффициента корреляции зависит и от заданного уров­ня значимости или принятой вероятности допустимой ошибки в расчетах. Если, к примеру, коррелируется друг с другом два ря­да цифр по 10 единиц в каждом и получен коэффициент корре­ляции между ними, равный 0,65, то он будет значимым на уров­не 0,95 (он больше критического табличного значения, состав­ляющего 0,6319 для вероятности допустимой ошибки 0,05, и меньше критического значения 0,7646 для вероятности допусти­мой ошибки 0,01).

Метод множественных корреляций в отличие от метода пар­ных корреляций позволяет выявить общую структуру корреля­ционных зависимостей, существующих внутри многомерного экспериментального материала, включающего более двух пере­менных, и представить эти корреляционные зависимости в виде некоторой системы.

ФАКТОРНЫЙ АНАЛИЗ

Один из наиболее распространенных вариантов этого мето­да — факторный анализ — позволяет определить совокупность внутренних взаимосвязей, возможных причинно-следственных связей, существующих в экспериментальном материале. В ре­зультате факторного анализа обнаруживаются так называемые факторыпричины, объясняющие множество частных (пар­ных) корреляционных зависимостей.

Фактор — математико-статистическое понятие. Будучи пере­веденным на язык психологии (эта процедура называется содер­жательной или психологической интерпретацией факторов), он становится психологическим понятием. Например, в известном 16-факторном личностном тесте Р. Кеттела, который подробно рас­сматривался в первой части книги, каждый фактор взаимно одно­значно связан с определенными чертами личности человека.

С помощью выявленных факторов объясняют взаимозави­симость психологических явлений. Поясним сказанное на при­мере. Допустим, что в некотором психолого-педагогическом экс­перименте изучалось взаимовлияние таких переменных, как ха­рактер, способности, потребности и успеваемость учащихся. Предположим далее, что, оценив каждую из этих переменных у достаточно представительной выборки испытуемых и подсчитав коэффициенты парных корреляций между всевозможными па­рами данных переменных, мы получили следующую матрицу ин­теркорреляций (в ней справа и сверху цифрами обозначены в пе­речисленном выше порядке изученные в эксперименте переменные, а внутри самого квадрата показаны их корреляции друг с другом; поскольку всевозможных пар в данном случае меньше, чем клеток в матрице, то заполнена только верхняя часть матри­цы, расположенная выше ее главной диагонали).

Анализ корреляционной матрицы показывает, что пе­ременная 1 (характер) значи­мо коррелирует с переменны­ми 2 и 3 (способности и по­требности). Переменная 2 (способности) достоверно коррелирует с переменной 3 (потребности), а переменная 3 (потребности) — с перемен­ной 4 (успеваемость). Факти­чески из шести имеющихся в матрице коэффициентов корреля­ции четыре являются достаточно высокими и, если предполо­жить, что они определялись на совокупности испытуемых, пре­вышающей 10 человек, — значимыми.

1

2

3

4

1

0,82

0,50

0,04

2

0,40

0,24

3

0,75

4

Зададим некоторое правило умножения столбцов цифр на стро­ки матрицы: каждая цифра столбца последовательно умножается на каждую цифру строки и результаты парных произведений за­писываются в строку аналогичной матрицы. Пример: если по это­му правилу умножить друг на друга три цифры столбца и строки, представленные в левой части матричного равенства, то получим матрицу, находящуюся в правой части этого же равенства:

2

X

2

3

4

=

4

6

8

3

6

9

12

4

8

12

16

Задача факторного анализа по отношению к только что рас­смотренной является как бы противоположной. Она сводится к тому, чтобы по уже имеющейся матрице парных корреляций, ана­логичной представленной в правой части показанного выше мат­ричного равенства, отыскать одинаковые по включенным в них цифрам столбец и строку, умножение которых друг на друга по заданному правилу порождает корреляционную матрицу.

Иллю­страция:

Х1

х

Х1

Х2

Х3

Х4

=

0,16

0,50

0,30

Х2

0,16

0,40

0,24

Х3

0,50

0,40

0,75

Х4

0,30

0,24

0,75

Здесь х1 х2, x3 и х4 — искомые числа.

Для их точного и быст­рого определения существуют специальные математические про­цедуры и программы для ЭВМ.

Допустим, что мы уже нашли эти цифры: x1= 0,45, х2 =,36 х3 = 1,12, х4= 0,67. Совокупность найденных цифр и называется фактором, а сами эти цифры — факторными весами или нагруз­ками.

Эти цифры соответствуют тем психологическим переменным, между которыми вычислялись парные корреляции,

х1— харак­тер,

х2способности,

х3— потребности,

х4— успеваемость.

По­скольку наблюдаемые в эксперименте корреляции между пере­менными можно рассматривать как следствие влияния на них общих причин — факторов, а факторы интерпретируются в пси­хологических терминах, мы можем теперь от факторов перейти к содержательной психологической интерпретации обнаружен­ных статистических закономерностей. Фактор содержит в себе ту же самую информацию, что и вся корреляционная матрица, а факторные нагрузки соответствуют коэффициентам корреляции. В нашем примере х3 (потребности) имеет наибольшую фактор­ную нагрузку (1,12), а х (способности) — наименьшую (0,36).

Следовательно, наиболее значимой причиной, влияющей на все остальные психологические переменные, в нашем случае явля­ются потребности, а наименее значимой — способности. Из кор­реляционной матрицы видно, что связи переменной х3 со всеми остальными являются наиболее сильными (от 0,40 до 0,75), а кор­реляции переменной х2самыми слабыми (от 0,16 до 0,40).

Чаще всего в итоге факторного анализа определяется не один, а несколько факторов, по-разному объясняющих матрицу интер­корреляций переменных. В таком случае факторы делят на ге­неральные, общие и единичные.

Генеральными называются фак­торы, все факторные нагрузки которых значительно отличают­ся от нуля (нуль нагрузки свидетельствует о том, что данная пе­ременная никак не связана с остальными и не оказывает на них никакого влияния в жизни).

Общие — это факторы, у которых часть факторных нагрузок отлична от нуля.

Единичные — это факторы, в которых существенно отличается от нуля только одна из нагрузок. На рис. 75 схематически представлена структура факторного отображения переменных в факторах различной сте­пени общности.

Переменные, между которыми определены в результате эксперимента парные корреляционные зависимости

Рис. 75. Структура факторного отображения взаимосвязей переменных.

Отрезки, соединяющие факторы с переменными, указывают на высокие

факторные нагрузки

ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА

1.         Готтсданкер Р. Основы психологического эксперимента. М:
МГУ, 1982. - 464 с. (Корреляционные исследования: 378-424.)

Ещё посмотрите лекцию "Содержание" по этой теме.

2.         Закс Л. Статистическое оценивание. М., 1976.

(Что такое статистика: 37-39. Нормальная кривая и нормаль­ное распределение: 63-71. Арифметическое среднее и стандарт­ное отклонение: 72-79. Медиана и мода: 91-94. Распределение Стъюдента: 129-136. Хи-квадрат распределение: 136-150. Рас­пределение Фишера: 150-153. Сравнение двух выборочных дис­персий из нормальных совокупностей: 241-245. Сравнение двух выборочных средних из нормальных совокупностей: 245-270. Проверка распределений по хи-квадрат критерию согласия: 295-296. Коэффициент ранговой корреляции Спирмена: 368-372. Оце­нивание прямой регрессии: 371-381. Проверка равенства не­скольких дисперсий: 448-453).

3.         Кулагин Б.В. Основы профессиональной психодиагностики. Л.,
1984.-216 с. (Измерение в психодиагностике: 13-20. Корреляция и фактор­ный анализ: 20-33.)

4.         Фресс П., Пиаже Ж. Экспериментальная психология. Вып. I и П. М., 1966. (Измерение в психологии: 197-229. Проблема надежности из­мерения: 229-231).

5.         Практикум по общей психологии / Под ред. А.И. Щербакова. М., 1990. -287 с. [Методы психологии (с элементами математической статисти­ки): 20-39].

6.         Психодиагностические методы (в комплексном лонгитюдном
исследовании студентов) / Под ред. А.А. Бодалева, М.Д. Дворяшиной, И.М. Палея. Л., 1976. - 248 с. (Основные математические процедуры психодиагностического исследования: 35-51.)

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Нашёл ошибку?
Или хочешь предложить что-то улучшить на этой странице? Напиши об этом и получи бонус!
Бонус рассчитывается индивидуально в каждом случае и может быть в виде баллов или бесплатной услуги от студизбы.
Предложить исправление
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5136
Авторов
на СтудИзбе
443
Средний доход
с одного платного файла
Обучение Подробнее