Курс лекций - Математическое моделирование технических объектов (1075784), страница 19
Текст из файла (страница 19)
Для 1-го резистора имеем:д(R1+R2)R110B1 ===0,91дR1R1+R210+1Аналогично для 2-го резистора:д(R1+R2)R21B2 ===0,0998ДR2R1+R210+1В сумме коэффициенты влияния должны давать единицу (для выходных импедансоврадиотехнических цепей), что в данном случае соблюдается.3. Определяем максимальное отклонение R в сторону уменьшения номинала, для чего в формулу (1.7) подставляем минимальные значения погрешностей Ri:R =0.91(-20%) + 0.1 (-5%) = -17,9%4. Определяем максимальное отклонение R в сторону увеличения номинала, для чегов формулу (1.7) подставляем максимальные значения погрешностей Ri:R =0.91(+20%) + 0.1 (+5%) = +17,9%5.
Записываем искомый результат: R = 11 Ком 17,9%.Рассмотренный пример показывает, что для уменьшения погрешности выходного параметра в данном случае необходимо уменьшить допуск на номинал большего резистора.Действительно, назначая допуски на относительные погрешности резисторов в пределеах:при R1=10Ком 5%; R2=1Ком20%, получим: R =0.91 (5%) + 0.1 (20%) = 6,75%, и: R= 11Ком 6,75%.Вернемся теперь к методу Монте-Карло определения параметров M(Y) и D(Y) производственной погрешности выходного параметра.
Сущность метода состоит в следующем:На первом шаге для каждого i-го входного параметра (xi) на ЭВМ генерируется псевдослучайная последовательность значений xi в пределах его ПП. В частоте появления значений xi отражается плотность распределения случайной величины х. Приведем текст машинной программы, выполняющей эту процедуру:const n=10; NN=1000;var delta,Min,Max,a,s:word; m,zMin,zMax:array[1..n]of word; i,j:word;BEGIN{randomize}for i:=1 to n do m[i]:=0; Min:=NN; for i:=1 to NN Dobegin s:=0; For j:=1 To 25 Do s:=s+1+Random(24); If s<Min Then Min:=s End;Max:=Min; for i:=1 to NN Dobegin s:=0; For j:=1 To 25 Do s:=s+1+Random(24); If s>Max Then Max:=s End;Delta:=(Max-Min) div n;For i:=1 to n do begin zMin[i]:=Min+delta*(i-1);zMax[i]:=Min+delta*i end;for i:=1 to NN Do begin s:=0; For j:=1 To 25 Do s:=s+1+Random(24);For j:=1 to n do If (s<zMax[j]) and (s>zMin[j]) then inc(m[j]) end END.Результатом работы этой программы является сформированный в массиве m вариационный ряд – (3, 22, 85, 180, 215, 218, 140, 58, 23, 4).На втором шаге для каждого i-го из К значения всех входных параметров вычисляетсявеличина i-го значения выходного параметра по формуле (1.4).
В результате получаем выборку из N значений случайной величины Y (выходного параметра). Чем больше величина Nзадаваемых значений входных параметров, тем точнее могут быть определены величиныM(Y) и D(Y). Попробуем ответить на вопрос насколько можно доверять этой выборке, тоесть: насколько точно мы приблизились к истинным значениям величин M(Y) и D(Y), еслимы вычислили, проведя всего одну серию экспериментов? То есть: насколько можно доверять массиву m в смысле вычисления M(Y) и D(Y)? Действительно, сняв комментарии с оператора randomize, и запустив дважды приведенную программу, получим следующие вариационные ряды:m(1) = (5, 19, 76, 145, 222, 204, 162, 78, 30, 7)99m(2) = (13, 36, 113, 175, 208, 190, 124, 60, 17, 5)В выражении m(i) величина i представляет номер (i=1…N) серии экспериментов из Копытов каждый.
Различие легко объяснить, если вспомнить, что мы оперируем со случайнойвеличиной производственной погрешности (в данном случае ее заменяет сумма первых 25случайных целых чисел натурального ряда). Но после проведения двойной серии вычисленийстановится ясным и другое: сами величины M(Y) и D(Y) являются величинами случайными!Они, как и все случайные величины имеют свое математическое ожидание M(Y) и дисперсию D(Y). Поставим далее цель уменьшить влияние случайной погрешности вычисления истинных величин M(Y) и D(Y).
Этот вопрос требует отдельного рассмотрения.1.3. Методы уменьшения влияния случайных погрешностейСлучайная составляющая погрешности статистических испытаний при повторных измерениях в одних и тех же условиях изменяется случайным образом. Отдельное испытание, врезультате которого получается вариационный ряд (m), будем называть наблюдением. Прииспользовании ЭВМ имеется возможность многократно повторить наблюдения, в результате можно уменьшить влияние случайных погрешностей.
В соответствии с основными положениями классической теории ошибок сделаем следующие допущения: (1) погрешности наблюдений являются случайными и распределены по нормальному закону; (2) cреднее значение погрешностей наблюдений равно нулю; (3) погрешности наблюдений являются статистически независимыми.Обработав результаты всех N наблюдений, мы получим результат, который назовемоценкой (^X) истинного значения ПП выходного параметра. Итак, Пусть имеется N наблюдений Xi случайной величины Х, (i = 1, 2, ..., N). Если XИСТ – истинное значение X, топогрешность i-го наблюдения (Xi) равна: Xi = Xi – XИСТ.
Плотность распределения Xi согласно допущению 1 описывается нормальным законом:(Xi)2(1.5)exp{}f(Xi) =2i2Для погрешностей, распределенных по нормальному закону, справедливо утверждение, что малые значения погрешностей более вероятны, чем большие. Поскольку XИСТ ввыражении (1.5) неизвестно, то неизвестны и значения погрешностей Xi. Поэтому воспользоваться выражением (1.5) нельзя.
Однако, предполагая, что имеется оценка Х^ истинногозначения, можно вместо погрешности Xi записать отклонение результата наблюдения отоценочного значения:^Xi = Xi – ^X(1.6)Подставляя (1.13) в (1.12) получим плотность распределения оценки погрешности :1L(^Xi) =1exp{-(^Xi)22i2}Распределение L(^Xi) называется правдоподобием разности (Xi – ^X) или правдоподобием оценки ^X . Если имеется одно единственное наблюдение (N=1), то максимальноправдоподобную оценку можно получить, если исследовать функцию L на максимумминимум.
Сделаем это, приняв во внимание, что положение максимума L не измениться, ес-100ли вместо функции использовать ее логарифм. Итак, приняв i=1, логарифмируем функциюправдоподобия:ln[L(^X1)] =-- (^X1)2/212lnДифференцируем полученное выражение по ^X и приравниваем результат нулю:^X1=(X1–^X)=0, или X1=^X, то есть максимально правдоподобной оценкой одного наблюдения является результат этого наблюдения.Пусть теперь имеется два наблюдения.
В этом случае для определения максимальноправдоподобной оценки (^Х) необходимо получить выражение для вычисления правдоподобия разностей ^X1=(X1–^X) и ^X2=(X2–^X) и также исследовать его на максимумминимум. Сделаем и это. Так как ^X1 и ^X2 не зависимы (согласно исходным допущениям), то: f(X1, X2) = f(X1) f(X2), откуда:11(^X1)(^X2)exp{}L(^X1,^X2) = L(^X1) L(^X2) =22+212222Заменяя ^Xi на (Xi – ^X) и логарифмируя, получим:i=2ln{L[(X1 – ^X ), (X2 – ^X )]} = – ln(212) –(Xi – ^X )22i2i=1Дифференцируем и приравниваем результат нулю:i=2дLд^X= 0 -2(Xi – ^X ) ( – 1)=02i2i=1Пусть все наблюдения равноточные, то есть: 1 = 2 = … = N.
Тогда, решая полученное выражение относительно ^X, получим: ^X = (Х1+Х2)/2. В общем случае, при числе наблюдений N оценка составит:N^X =1NXi(1.7)i=1то есть, при равноточных наблюдениях максимально–правдоподобной оценкой истинногозначения производственной погрешности выходного параметра является среднее арифметическое значение результатов наблюдений.Пусть далее проведены две серии наблюдений, в результате которых получены два вариационных ряда m1 и m2. На основании m1 вычислим оценку ^X1, а основании m2 - оценку ^X2.
Ясно, что (^X1 ^X1), так как эти величины рассчитаны по (1.7) и поэтому являютсяслучайными величинами. Распределение оценки ^X так же является нормальным. Определим его математическое ожидание M(^X):101Рис. 1Рис.2NM{^X} = M{1NNXi}=1Ni=1M{Xi}i=1Так как наблюдения распределены по нормальному закону, то, согласно рисунку 1, имеем:M{Xi} = XИСТ, откуда: M{^X} =XИСТ. Следовательно, оценка ^X является несмещенной, поскольку ее среднее значение совпадает с истинным значением.Находим дисперсию D(^X) оценки наблюдений:ND{^X} = (^X)2 = D{1NNXi}=1N2i=1D{Xi} =122 N(X)Ni=1откуда:(X)2D{^X} = (^X) =N2(1.8)В полученном выражении величина (X) представляет среднеквадратическое отклонение (СКО) наблюдений.
Формула (1.8) показывает, что при N дисперсия оценки наблюдений стремится к нулю, то есть ^X ХИСТ. Следовательно, оценка ^X является состоятельной.На практике необходимо ответить на вопрос, – с какой вероятностью (РД) оценка ^X невыходит за пределы интервала ХИСТ Хд. Для ответа на него запишем выражение для плотности распределения оценки ^X, изображенного на рисунке 1:1(^X – XИСТ)2f(^X) =exp{}2^X2Искомая вероятность отмечена штрихованной площадью на рисунке 1 и оче видноравна следующему интегралу: (^X-Хд)ХИСТ +ХдРД =f(^X)d(^X) = P[ХИСТ -Хд< ^X < ХИСТ +Хд]102ХИСТ -ХдДелая в полученном выражении замену переменных: t = (^X – XИСТ)/^X, получим:+Хд/^Xexp{-t2/2}РД =dt = 2Ф[Хд^X]-1(1.9)-Хд/^XФормула (1.9) непосредственно вытекает из графика на рисунке 1 после следующихрасчетов. Обозначим z=(Хд /^X).
Тогда доверительная вероятность равна: РД = Ф(z) – Ф(–z).Учитывая, что Ф(–z) = 1 – Ф(z), имеем: РД = Ф(z) –1 + Ф(z), что совпадает с (1.9). ФункцияЛапласа Ф(z) – табулированная функция, некоторые значения которой приведены в таблице1.Таблица 1.zФ(z)0.00.60.5000 0.72571.01.62.33.00.84130.94520.98900.99803.64.20.9998 0.99998Выполнение условий (ХИСТ -Хд)< ^X < (ХИСТ +Хд) эквивалентно выполнению условий: (^X -Хд)< ХИСТ < (^X +Хд), то есть, вероятность Рд является искомой.
ВероятностьРд называется доверительной вероятностью или надежностью интервальной оценки, а интервал значений (^X Хд) – доверительным интервалом.Выражение (1.9) позволяет определить доверительную вероятность по заданному доверительному интервалу, если известна дисперсия (^X)2 оценки наблюдений ^X. Дисперсия(^X)2, в свою очередь, связана с дисперсией наблюдений (X)2 выражением (1.8). Из опыта,однако, и эта величина не известна. Что же известно из опыта из того, что бы нам пригодилось? На этот вопрос ответил Бессель и ответ такой: «из опыта нам известна оценка дисперсии (^^X)2 оценки наблюдений ^X.».