85801 (Регрессионный анализ корелляции субъективного ВАШ и лабораторных признаков активности реактивного артрита), страница 5
Описание файла
Документ из архива "Регрессионный анализ корелляции субъективного ВАШ и лабораторных признаков активности реактивного артрита", который расположен в категории "". Всё это находится в предмете "математика" из , которые можно найти в файловом архиве . Не смотря на прямую связь этого архива с , его также можно найти и в других разделах. Архив можно найти в разделе "курсовые/домашние работы", в предмете "математика" в общих файлах.
Онлайн просмотр документа "85801"
Текст 5 страницы из документа "85801"
p = 0.3222
Таблица №1.6.2. Дисперсионный анализ по одному признаку.
Компонента дисперсии | Сумма квадратов | Степень свободы | Средний квадрат |
Между выборками | 1701.7 | 3 | 567.223 |
Остаточная | 85230.9 | 176 | 484.266 |
Полная | 86932.5 | 179 | ----- |
p>pкр
Вывод:
Следовательно мы принимаем нулевую гипотезу. т.е. можно предположить что при 5% уровне значимости ВАШСП не зависит от инфекции вызывающей реактивный артрит.
В связи с тем что не один из показателей активности заболевания а также показатели ВАШ не зависят от инфекции предшествующей реактивному артриту дальнейшее разделение данных на группы можно считать не целесообразным.
2 Множественная линейная регрессия
Общее назначение множественной регрессии (этот термин был впервые использован в работе Пирсона - Pearson. 1908) состоит в анализе связи между несколькими независимыми переменными (называемыми также регрессорами или предикторами) и зависимой переменной.
В общественных и естественных науках процедуры множественной регрессии чрезвычайно широко используются в исследованиях. В общем. множественная регрессия позволяет исследователю задать вопрос (и. вероятно. получить ответ) о том. "что является лучшим предиктором для...".
Общая вычислительная задача. которую требуется решать при анализе методом множественной регрессии. состоит в подгонке прямой линии к некоторому набору точек.В многомерном случае. когда имеется более одной независимой переменной. линия регрессии не может быть отображена в двумерном пространстве. однако она также может быть легко оценена. В общем случае. процедуры множественной регрессии будут оценивать параметры линейного уравнения вида:
Y = a + b1*X1 + b2*X2 + ... + bp*Xp
Регрессионные коэффициенты (или B-коэффициенты) представляют независимые вклады каждой независимой переменной в предсказание зависимой переменной.
Линия регрессии выражает наилучшее предсказание зависимой переменной (Y) по независимым переменным (X). Однако обычно имеется существенный разброс наблюдаемых точек относительно подогнанной прямой. Отклонение отдельной точки от линии регрессии (от предсказанного значения) называется остатком.
Чем меньше разброс значений остатков около линии регрессии по отношению к общему разбросу значений. тем. очевидно. лучше прогноз. Например. если связь между переменными X и Y отсутствует. то отношение остаточной изменчивости переменной Y к исходной дисперсии равно 1.0. Если X и Y жестко связаны. то остаточная изменчивость отсутствует. и отношение дисперсий будет равно 0.0. В большинстве случаев отношение будет лежать где-то между этими экстремальными значениями. т.е. между 0.0 и 1.0. 1.0 минус это отношение называется R-квадратом или коэффициентом детерминации. Это значение непосредственно интерпретируется следующим образом. Значение R-квадрата является индикатором степени подгонки модели к данным (значение R-квадрата близкое к 1.0 показывает. что модель объясняет почти всю изменчивость соответствующих переменных).
Обычно. степень зависимости двух или более предикторов (независимых переменных или переменных X) с зависимой переменной (Y) выражается с помощью коэффициента множественной корреляции R. По определению он равен корню квадратному из коэффициента детерминации. Это неотрицательная величина. принимающая значения между 0 и 1. Для интерпретации направления связи между переменными смотрят на знаки (плюс или минус) регрессионных коэффициентов или B-коэффициентов. Если B-коэффициент положителен. то связь этой переменной с зависимой переменной положительна; если B-коэффициент отрицателен. то и связь носит отрицательный характер. Конечно. если B-коэффициент равен 0. связь между переменными отсутствует.
Прежде всего. как это видно уже из названия множественной линейной регрессии. предполагается. что связь между переменными является линейной. На практике это предположение. в сущности. никогда не может быть подтверждено; к счастью. процедуры множественного регрессионного анализы в незначительной степени подвержены воздействию малых отклонений от этого предположения.
Основное концептуальное ограничение всех методов регрессионного анализа состоит в том. что они позволяют обнаружить только числовые зависимости. а не лежащие в их основе причинные связи.
Важность анализа остатков. Хотя большинство предположений множественной регрессии нельзя в точности проверить. исследователь может обнаружить отклонения от этих предположений. В частности. выбросы (т.е. экстремальные наблюдения) могут вызвать серьезное смещение оценок. "сдвигая" линию регрессии в определенном направлении и тем самым. вызывая смещение регрессионных коэффициентов. Часто исключение всего одного экстремального наблюдения приводит к совершенно другому результату.
Используя Matlab найдем уравнение множественной регрессии для нахождения зависимости ВАШБП и ВАШСП от других показателей а также найдем коэффициент корреляции для определения зависимости между данными выборками и критерий Фишера для определения уровня доверия к полученному уравнению.
Аппарат множественной линейной регрессии реализуется в Matlab при помощи функции regress. Анализ основывается на нахождении коэффициентов b уравнения вида:
y = b0 + b1x1 + b2x2 + b3x3 + ... + bnxn
Методом наименьших квадратов.
Входными данными для программы будут:
Матрица X по одному измерению равная длине вектора Y (ВАШБП, ВАШСП), а по другому количеству переменных, по которым должна предсказываться переменная “Y” плюс один. Ещё один столбик нам понадобиться для того, чтобы matlab мог по нему рассчитать свободный член уравнения b0, расположен он должен быть первым и заполнен единицами. Т.е. 2-й столбец матрицы X это значения Hb, 3-й столбец значения СОЭ, 4-й значения СРБ и 5-й Фибриноген.
Y – значения ВАШ (ВАШБП, ВАШСП)
Функция regress задается следующим образом:
[b.bint.r.rint.stats] = regress(y.X.0.01)
regress(y.X.0.01) – означает что мы будем искать зависимость Y от Х и с вероятностью 99% коэффициенты b будут принадлежать рассчитанным нами доверительным интервалам.
Выходные данные:
Вектор коэффициентов b.
Матрица bint. содержащая 99% доверительные интервалы для b.
Вектор r (длина которого равна длине Y). содержащий остатки. т.е. разницу между исходными значениями Y. и рассчитанными по полученному уравнению регрессии.
Матрицу rint. содержащую значения 99% доверительного интервала для r
Вектор stats. состоящий из следующих 4 характеристик:
первое значение – коэффициент множественной корреляции R2. показывающий связь исходных данных y и рассчитанных по полученному уравнению. другими словами – это коэффициент. показывающий на сколько хорошо «работает» полученное уравнение. Чем ближе это значение к единице. тем лучше.
второе значение – F-статистика (её ещё называют критерием Фишера).
третье значение – p. табличное значение критерия Фишера при данных степенях свободы. Если критерий Фишера выше этого значения. то уравнению можно верить.
четвёртое значение – оценка дисперсии ошибок
I) рассчитаем уравнение множественной линейной регрессии для ВАШБП
После выполнения расчетов для ВАШБП получили следующие переменные:
b | bint | r | rint | ||||
42.1283 | 1.8780 | 82.3786 | -21.9027 | -73.5518 | 29.7465 | ||
-0.1015 | -0.3855 | 0.1824 | -10.4547 | -62.2125 | 41.3031 | ||
0.2908 | -0.1418 | 0.7233 | 14.2154 | -36.8404 | 65.2711 | ||
0.0326 | -0.0177 | 0.0829 | -18.2805 | -68.5417 | 31.9806 | ||
0.7105 | -3.0313 | 4.4524 | 1.2654 | -50.5643 | 53.0951 | ||
45.7534 | -5.3326 | 96.8394 | |||||
-14.6868 | -66.0309 | 36.6572 | |||||
7.2762 | -44.4701 | 59.0225 | |||||
44.4133 | -6.6808 | 95.5074 | |||||
-5.6498 | -57.3639 | 46.0644 | |||||
10.6615 | -40.5673 | 61.8902 | |||||
41.4956 | -9.2270 | 92.2183 | |||||
5.2307 | -46.4949 | 56.9564 | |||||
14.2893 | -37.3388 | 65.9175 | |||||
-16.9757 | -64.8977 | 30.9463 | |||||
-1.7014 | -52.3459 | 48.9432 | |||||
11.3454 | -40.2887 | 62.9794 | |||||
18.1895 | -33.3589 | 69.7380 | |||||
-24.8022 | -75.9894 | 26.3849 | |||||
4.1667 | -47.1548 | 55.4881 | |||||
7.4767 | -44.4040 | 59.3575 | |||||
53.4995 | 2.7606 | 104.2384 | |||||
-8.4099 | -60.1502 | 43.3304 | |||||
-8.1185 | -59.1222 | 42.8851 | |||||
34.8356 | -16.4892 | 86.1604 | |||||
7.3277 | -44.1261 | 58.7815 | |||||
-1.1282 | -52.7224 | 50.4660 | |||||
-22.7002 | -73.0690 | 27.6685 | |||||
35.3231 | -15.4605 | 86.1067 | |||||
12.1224 | -39.4234 | 63.6682 | |||||
23.2364 | -28.4547 | 74.9275 | |||||
2.0986 | -49.7444 | 53.9416 | |||||
3.3639 | -48.4351 | 55.1629 | |||||
-35.4930 | -86.7043 | 15.7183 | |||||
15.7701 | -35.8987 | 67.4389 | |||||
1.9511 | -49.4156 | 53.3179 | |||||
1.2643 | -37.9653 | 40.4940 | |||||
2.8817 | -47.4120 | 53.1755 | |||||
27.5456 | -23.6290 | 78.7202 | |||||
8.0058 | -43.8027 | 59.8144 | |||||
26.1533 | -25.0770 | 77.3836 | |||||
-11.6135 | -63.2959 | 40.0690 | |||||
14.2769 | -37.5125 | 66.0664 | |||||
-5.0043 | -56.8847 | 46.8760 | |||||
21.7829 | -29.7810 | 73.3468 | |||||
27.4824 | -23.6602 | 78.6249 | |||||
-15.3203 | -66.5536 | 35.9129 | |||||
36.8308 | -14.3416 | 88.0032 | |||||
21.9905 | -29.7372 | 73.7183 | |||||
-0.3487 | -52.1580 | 51.4607 | |||||
-14.4565 | -65.3638 | 36.4507 | |||||
2.2326 | -49.4426 | 53.9079 | |||||
-23.0332 | -74.5239 | 28.4574 | |||||
16.0495 | -35.4532 | 67.5522 | |||||
-21.3666 | -72.7803 | 30.0472 | |||||
-5.9001 | -57.5397 | 45.7395 | |||||
-13.5376 | -63.5547 | 36.4796 | |||||
7.2019 | -44.2296 | 58.6334 | |||||
-7.2965 | -59.0702 | 44.4772 | |||||
-31.3225 | -82.2665 | 19.6215 | |||||
24.7206 | -26.5090 | 75.9502 | |||||
12.0085 | -29.4721 | 53.4890 | |||||
-14.3362 | -66.1232 | 37.4507 | |||||
-19.4698 | -71.0521 | 32.1125 | |||||
-16.1754 | -66.8306 | 34.4799 | |||||
8.0639 | -43.7532 | 59.8809 | |||||
-12.2995 | -64.1466 | 39.5476 | |||||
13.9893 | -37.7707 | 65.7493 | |||||
-16.2954 | -67.9216 | 35.3308 | |||||
-12.3199 | -64.0425 | 39.4027 | |||||
-4.7723 | -56.3885 | 46.8438 | |||||
-7.6406 | -59.3361 | 44.0548 | |||||
-20.2521 | -71.7464 | 31.2422 | |||||
2.3469 | -49.4690 | 54.1627 | |||||
39.2104 | -11.8405 | 90.2614 | |||||
-16.6829 | -68.1490 | 34.7832 | |||||
-27.6404 | -79.0945 | 23.8136 | |||||
0.6820 | -50.1330 | 51.4970 | |||||
-30.4212 | -81.9717 | 21.1294 | |||||
-31.1453 | -82.5884 | 20.2978 | |||||
-24.1908 | -75.6191 | 27.2374 | |||||
18.2420 | -33.1537 | 69.6377 | |||||
7.2360 | -43.3212 | 57.7931 | |||||
-25.8891 | -77.5028 | 25.7247 | |||||
-29.9523 | -81.4193 | 21.5148 | |||||
-13.5789 | -65.3925 | 38.2347 | |||||
-23.7983 | -75.2594 | 27.6627 | |||||
-9.3176 | -61.0193 | 42.3841 | |||||
-12.2236 | -64.0984 | 39.6512 | |||||
-26.7522 | -78.2955 | 24.7910 | |||||
-19.1908 | -70.7002 | 32.3185 | |||||
-15.5540 | -67.2924 | 36.1844 | |||||
-21.6260 | -72.8683 | 29.6163 | |||||
-11.8236 | -62.7620 | 39.1148 | |||||
5.3410 | -46.3573 | 57.0393 | |||||
-26.0752 | -77.4141 | 25.2636 | |||||
-23.8405 | -75.5436 | 27.8627 | |||||
9.1271 | -42.3050 | 60.5592 | |||||
-22.0750 | -73.2466 | 29.0966 | |||||
-19.3643 | -70.7356 | 32.0071 | |||||
-5.2939 | -57.0079 | 46.4201 | |||||
-3.9155 | -55.2281 | 47.3971 | |||||
6.0662 | -45.1461 | 57.2784 | |||||
20.6750 | -30.6746 | 72.0246 | |||||
8.5343 | -43.3618 | 60.4303 | |||||
21.8225 | -29.5504 | 73.1954 | |||||
-19.4300 | -70.1039 | 31.2439 | |||||
5.9953 | -45.8101 | 57.8006 | |||||
2.0391 | -49.2100 | 53.2883 | |||||
42.8692 | -7.4532 | 93.1915 | |||||
24.0227 | -27.3822 | 75.4275 | |||||
21.6036 | -29.8883 | 73.0954 | |||||
7.9463 | -42.0260 | 57.9186 | |||||
-24.6224 | -75.8610 | 26.6162 | |||||
-18.1688 | -69.9114 | 33.5739 | |||||
-3.0542 | -54.5917 | 48.4834 | |||||
-7.0589 | -58.7440 | 44.6261 | |||||
-14.8646 | -66.5830 | 36.8538 | |||||
-3.5953 | -55.2165 | 48.0260 | |||||
-16.8888 | -68.7256 | 34.9480 | |||||
24.7304 | -26.4446 | 75.9054 | |||||
9.0011 | -42.8700 | 60.8722 | |||||
1.6549 | -48.7937 | 52.1035 | |||||
4.7382 | -46.8959 | 56.3724 | |||||
-24.8120 | -76.4793 | 26.8554 | |||||
-24.7124 | -76.2026 | 26.7778 | |||||
-10.3635 | -61.9389 | 41.2118 | |||||
-24.0183 | -75.5760 | 27.5393 | |||||
-31.1297 | -82.7024 | 20.4430 | |||||
-10.2047 | -61.4757 | 41.0663 | |||||
13.1655 | -38.3588 | 64.6897 | |||||
4.6407 | -47.1058 | 56.3873 | |||||
9.3834 | -40.9519 | 59.7187 | |||||
19.2757 | -32.2076 | 70.7590 | |||||
8.6060 | -43.1614 | 60.3735 | |||||
-0.6029 | -52.3315 | 51.1257 | |||||
15.3004 | -35.5974 | 66.1982 | |||||
11.9546 | -39.5044 | 63.4137 | |||||
22.3373 | -29.2132 | 73.8877 | |||||
7.2462 | -44.4642 | 58.9567 | |||||
-28.6600 | -80.0657 | 22.7457 | |||||
5.0618 | -46.6397 | 56.7633 | |||||
20.8124 | -30.2927 | 71.9175 | |||||
-1.2405 | -52.8524 | 50.3713 | |||||
-4.0754 | -55.6256 | 47.4747 | |||||
-13.1297 | -64.9991 | 38.7397 | |||||
-1.0570 | -52.6293 | 50.5152 | |||||
-8.9762 | -60.6462 | 42.6938 | |||||
-19.1095 | -70.6665 | 32.4476 | |||||
-7.3882 | -59.1979 | 44.4216 | |||||
-31.7918 | -83.1929 | 19.6092 | |||||
32.5654 | -18.8114 | 83.9423 | |||||
25.8476 | -25.6974 | 77.3926 | |||||
17.2462 | -34.3729 | 68.8654 | |||||
12.7771 | -38.9022 | 64.4564 | |||||
17.9586 | -33.6785 | 69.5957 | |||||
-12.4963 | -64.2189 | 39.2263 | |||||
28.2903 | -23.0283 | 79.6090 | |||||
-1.9287 | -53.1104 | 49.2530 | |||||
-20.1486 | -70.8255 | 30.5284 | |||||
12.7423 | -39.0574 | 64.5419 | |||||
-33.4366 | -79.4435 | 12.5702 | |||||
-28.3399 | -79.4332 | 22.7535 | |||||
45.9715 | -4.3766 | 96.3197 | |||||
17.6894 | -33.9998 | 69.3786 | |||||
28.8293 | -22.6317 | 80.2902 | |||||
45.0664 | -5.5918 | 95.7246 | |||||
38.6743 | -12.3544 | 89.7029 | |||||
-1.9044 | -53.7565 | 49.9477 | |||||
20.3493 | -31.0914 | 71.7901 | |||||
-17.8734 | -69.5782 | 33.8313 | |||||
-6.5057 | -57.7216 | 44.7103 | |||||
-23.8741 | -75.3281 | 27.5800 | |||||
-0.4543 | -52.0199 | 51.1113 | |||||
-9.0759 | -59.6117 | 41.4599 | |||||
6.4047 | -45.2060 | 58.0155 | |||||
-14.4330 | -66.1409 | 37.2749 | |||||
19.2787 | -31.6829 | 70.2403 | |||||
-3.4277 | -54.6947 | 47.8392 | |||||
-10.2520 | -61.6535 | 41.1494 | |||||
-28.7033 | -80.0804 | 22.6737 | |||||
-13.9223 | -64.7794 | 36.9348 |
stats = 0.1569; 8.2341; 0.0000; 398.2227;