С.Л. Ахназарова, В.В. Кафаров - Методы оптимизации эксперимента в химической технологии, страница 5
Описание файла
DJVU-файл из архива "С.Л. Ахназарова, В.В. Кафаров - Методы оптимизации эксперимента в химической технологии", который расположен в категории "". Всё это находится в предмете "техника эксперимента в электронике и наноэлектронике" из 6 семестр, которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. Архив можно найти в разделе "книги и методические указания", в предмете "техника эксперимента в электронике и наноэлектронике" в общих файлах.
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 5 - страница
4Р (у) ду (!.88) (1. 89) /(х, у) = /, (х) /'(у.х) /(к, у) = /,(у) /(х[у). нли (!.90) Формулы (1.89) н (1.90) часто называют теоремой распределенил. Из (1.89) и (1.90) следует: /(х, у) /з (х) /(х, у) 6 (у) умноженил законов (1.91) (!.92) или, с учетом (1.87) и (!.88). /(х, у) (1.93) /(у~х) = ')/(х, у) ду /(у ! х)= (1. 94) ~(х, у) 6х О Формулы (1.77) и (1.86) — (1.88) дают возможность по известному !акопу распределения системы найти законы распределения отдельных величин, входящих в систему. В то же время для того чтобы исчерпывающим образом охарактеризовать систему, получить ее закон распределения, недостаточно знать распределение каждой из величин, нужно еще знать зависимость между величинами, входящими в систему. Наиболее полно эта зависимость может быть охарактеризована с помощью так называемых условных законов распределения Условным законом распределения величины У, входящей в систему (Х, у), называется ее закон распределения, вычисленный при условии, что другая случайная величина Х приняла определенное значение х.
Условная функция распределения обозначается Р(у ~ х), условная плотность распределения)(у,'х). Можно показать, что плотность распределения системы двух величин равна плотности распределения одной из величин, входящих в систему, умноженной на условную плотность распределения другой величины, вычисленную при условии, что первая величина приняла ~аданное значение: 7. Стохастяческая связь. Между случайными величинами обычно существует такая связь, при которой с изменением одной величины меняется распределение другой. Такая связь называется стохастической. В отличие от функциональной зависимости, при которой, зная значение одной из величин, можно точно указать значение другой, при стохастической связи с изменением величины Х величина У лишь имеет тенденцию также изменяться (например, возрастать или убывать при возрастании Х2 Эта тенденция соблюдается лишь в среднем, в общих чертах и в каждом отдельном случае от нее возможны отступления, Стохастическая связь может быть более или менее тесной„ по мере увеличения тесноты стохастической зависимости она все более приближается к функциональной.
Таким образом, функциональную зависимость можно рассматривать как предельный случаи наиболее тесной стохастическои связи. Другой крайний случай- полная независимость случайных величин. Для непрерывных случайных величин условие независимости может быть записано в виде /(у~к) = /, (у) (1.98) илн /( к,у) =.
/, ( х). (!.96) Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид / (х, у) = /, (х) / (у), (1.97) т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему. Условие (1.97) может рассматриваться как необходимое и достаточное условие независимое~и случайных величин. Изложенный выше критерий суждения о независимости или зависимости случайных величин исходит из предположения, что закон распределения системы нам известен, На практике обычно закон распределения системы не известен.
Задача выявления и оценки тесноты стохастической связи решается с помощью некоторых показателей, оценивающих те или иные стороны стохастической связи, Из них важнейшим в силу простоты его определения по экспериментальным данным является коэффициент корреллуии. Если две случайные величины )' и Х независимы, зо дисперсия суммы этих величин равна сумме лисперсий (см. 1.50): О (Х+ Г) =.
27(Х) +27(!'). Если данное равенство не соблюдается, это признак зависимости. Из определения дисперсии (!,24) и свойств математического ожидания (1.45) следует: Р[Х+ У) =М [Х+ У вЂ” М(Х+ У))з =М [Х вЂ” М(ХИ'+ .+2МИХ вЂ” М(ХИ[У вЂ” М(У))+М [У вЂ” М(У)Г= = Д (Х) -1- 2М ([Х вЂ” М (Х)) [!' — М (Щ+ (З (У). (1.98) Зависимость между Х и У существует, если оол 2а а» 2а» зо> 2>х а 2ах М ((Х вЂ” т ) (У вЂ” ту)1 ,—ьО. (1.99) Величина (1.99) называется корреллционным моментом, моментом связи или ховариицией соу (ХУ), (соух ) случайных величин Х и У.
Из (1.99) видно, что ковариация характеризует не только зависимость величин, но и их рассеяние. Действительно, если одна из величин Х, У мало отклоняется от своего математического ожидания, то ковариация будет мала, какой бы тесной зависимостью ни были связаны величины Х и К Поэтому для характеристики связи между случайными величинами Х и У в чистом виде переходят от сох г к безразмерному показателю: соя»у М ((Х вЂ” т ) (У вЂ” ту)1 (!.!00) а ау а»а 2>ха а )х ! — го 2 ! г) аз 2г(х — т,) (у — т ) (у — т )а а а, г У (1. 101) где г — коэффициент корреляции, Предположим, что случайные величи- ны Х, У, подчиняющиеся закону распределения (1.
101), некоррелиро- ваны, т е. г=О, Получим ! (х т) (у т) г(х, у)= ехр 2» а» ау 2аа 2аа х У где о о,— средние квадратичные отклонения величин Х и К Этот показатель называется коэффициентом корреляции величин Х и У. Для независимых случайных величин коэффициент корреляции равен нулю, однако обратное утверждение несправедливо — коэффициент корреляции (и ковариация) могут быль равны нулю, а случайные величины зависимы связь, не сказываясь на дисперсиях, проявляется в моментах более высокого порядка. В общем случае справедливо более слабое утверждение: случайные величины, для которых ковариация (а значит, и коэффициент корреляции) равна нулю, называются некоррелированными. Таким образом, независимые случайные величины всегда являются некоррелированными, однако из некоррелированности величин в общем случае еще не следует их независимость, И только в случае нормального распределения равенство нулю коэффициента корреляции однозначно свидетельствует об отсутствии связи между случайными величинами Плотность нормального распределения двух случайных величин выражается формулой (!.!02) = (э(х) (о (у) т, е, плотность распределения системы равна произведению плотностей распределения отдельных величин, входящих в систему, а это значит, что случайные величины Х и Унезависимы, Таким образом, для системы случайных величин, подчиненных нормальному закону равенство нулю коэффициента корреляции свидетельствует не только о некоррелированности, но и о независимости случайных величин, поэтому важность роли коэффициента корреляции как показателя связи в этом случае существенно возрастает Отметим следующие свойства коэффициента корреляции Коэффициент корреляции не меняется от прибавления к Х и У каких-либо неслучайных слагаемых, от умножения Х и У на положительные числа, Если одну из величин, не меняя другой, умножить на — 1, то на — 1 умножится и коэффициент корреляции, Поэтому коэффициент корреляции гх не изменится, если от исходных случайных величин перейти к нормированным; т» 1 ту Хо = г», у а» ау На основании (1.98) и (1ЛОО) имеем Р (Х+ У) = Р (Х) + Р (У)+ 2гу» )х Р (Х) Р (У) Аналогично для дисперсии разности двух случайных величин можно записать а>х — В-а>х>;а>г> — о„, >' а>х>а»>.
». о» Выражения (1 101) и (1.102) для нормированных случайных величин с учетом того что Р(Хо)-Р(уа) — 1, примут вид Р (Хо+ Уо) = 2 + 2гух Р (Х Уо) = 2 — 2гу». Так как дисперсия — величина неотрицательная, имеем 2+ 2гу»>0; гу»»» 2 — 2гу»)~ 0; гу,К+ 1; и окончательно 25 ! ~гу»~+ ! ° (!. !06) Крайние значения коэффициента корреляции г„=+1 соответствуют линейной функциональной зависимости у = Ьо+ Ьхх, причем знак коэффициента Ь, соответствует знаку коэффициента корре- ляции, В общем случае, когда величины Хи Усвязаны произвольной стохасти- ческой зависимостью, коэффициент корреляции может иметь значение в пределах — 1 < гх, < 1, ! /(у!х) = ехр еу г' ! — га )г 2я ! )г х — т» 2(! — гв) ~ е» ахприО<х<! )(х) = 0 прн х(0 их)! (!.!08) Из (1.107) имеем 0 при »~0 Е (х) = аха прн О ( х с ! 1 прн х>1 ГЛАВА 0 ОПРЕДЕЛЕНИЕ ПАРАМЕТРОВ ФУНВЦИИ РАСПРЕДЕЛЕНИЯ (1.!!2) 27 При г, >0 существует положительная корреляционная связь между величинами Х и У, пРи г„у< 0 — отРицательнаЯ, Коэффициент корреляции характеризует не всякую зависимость, а только линейную, Линейная вероятностная зависимость случайных вели- чин заключается в том, что при возрастании одной случайной величины другая имеет тенденцию возрастать (или убывать) по линейному закону, Коэффициент корреляции характеризует степень тесноты линейной зависимости, Определим условные законы распределения )(у (х) и)(х)у) по фор- мулам (1.91) и (1.92) для системы случайных величин, подчиняющихся нормальному закону распределения (1.!01): ! 1 Г еу у (!.!09) Очевидно, (1109) есть выражение для плотности нормального закона распределения с математическим ожиданием е, тр1„= т, + г — (х — т,) (!.110) ег и средним квадратичным отклонением е„)„еу (1 г ).
(!. !11) Величина тг1„называется условным математическим ожиданием величины у при данном Х, Линейная зависимость (!.110) называется регрессией Уна Х Аналогично, прямая е» ~„~„= т»+ — (у — ту) еу есть регрессия Х на К Линии регрессии совпадают только при наличии линейной функциональной зависимости У от Х, При независимых Х и у линии регрессии параллельны координатным осям, В этой главе были рассмотрены основные характеристики случайных величин, Полная информация о случайных величинах содержится в законах распределения, Рассмотрены равномерный и нормальный законы распределения вероятностей, Во многих прикладных задачах нет необходимости использовать законы распределения, Вместо них можно воспользоваться числовыми характеристиками случайной величины, в сжатой форме выражающими наиболее существенные особенности распределения, В теории вероятностей и математическои статистике применяется большое количество числовых характеристик, В настоящей главе введены понятия о моментах распределения, отмечены свойства наиболее часто применяемых моментов — математического ожидания и дисперсии Введено понятие о стохастической связи между случайными величинами и коэффициенте корреляции, характеризующем тесноту линейной зависимости между случайными величинами, Исследование зависимости между случайными величинами — важная прикладная задача Упрензнения ! Сто стержней из нового полимера подвергаются выборочному контролю на прочность.