Главная » Просмотр файлов » Курс лекций - Математическое моделирование технических объектов

Курс лекций - Математическое моделирование технических объектов (1075784), страница 19

Файл №1075784 Курс лекций - Математическое моделирование технических объектов (Курс лекций - Математическое моделирование технических объектов) 19 страницаКурс лекций - Математическое моделирование технических объектов (1075784) страница 192018-01-09СтудИзба
Просмтор этого файла доступен только зарегистрированным пользователям. Но у нас супер быстрая регистрация: достаточно только электронной почты!

Текст из файла (страница 19)

Для 1-го резистора имеем:д(R1+R2)R110B1 ===0,91дR1R1+R210+1Аналогично для 2-го резистора:д(R1+R2)R21B2 ===0,0998ДR2R1+R210+1В сумме коэффициенты влияния должны давать единицу (для выходных импедансоврадиотехнических цепей), что в данном случае соблюдается.3. Определяем максимальное отклонение R в сторону уменьшения номинала, для чего в формулу (1.7) подставляем минимальные значения погрешностей Ri:R =0.91(-20%) + 0.1 (-5%) = -17,9%4. Определяем максимальное отклонение R в сторону увеличения номинала, для чегов формулу (1.7) подставляем максимальные значения погрешностей Ri:R =0.91(+20%) + 0.1 (+5%) = +17,9%5.

Записываем искомый результат: R = 11 Ком  17,9%.Рассмотренный пример показывает, что для уменьшения погрешности выходного параметра в данном случае необходимо уменьшить допуск на номинал большего резистора.Действительно, назначая допуски на относительные погрешности резисторов в пределеах:при R1=10Ком 5%; R2=1Ком20%, получим: R =0.91 (5%) + 0.1 (20%) = 6,75%, и: R= 11Ком  6,75%.Вернемся теперь к методу Монте-Карло определения параметров M(Y) и D(Y) производственной погрешности выходного параметра.

Сущность метода состоит в следующем:На первом шаге для каждого i-го входного параметра (xi) на ЭВМ генерируется псевдослучайная последовательность значений xi в пределах его ПП. В частоте появления значений xi отражается плотность распределения случайной величины х. Приведем текст машинной программы, выполняющей эту процедуру:const n=10; NN=1000;var delta,Min,Max,a,s:word; m,zMin,zMax:array[1..n]of word; i,j:word;BEGIN{randomize}for i:=1 to n do m[i]:=0; Min:=NN; for i:=1 to NN Dobegin s:=0; For j:=1 To 25 Do s:=s+1+Random(24); If s<Min Then Min:=s End;Max:=Min; for i:=1 to NN Dobegin s:=0; For j:=1 To 25 Do s:=s+1+Random(24); If s>Max Then Max:=s End;Delta:=(Max-Min) div n;For i:=1 to n do begin zMin[i]:=Min+delta*(i-1);zMax[i]:=Min+delta*i end;for i:=1 to NN Do begin s:=0; For j:=1 To 25 Do s:=s+1+Random(24);For j:=1 to n do If (s<zMax[j]) and (s>zMin[j]) then inc(m[j]) end END.Результатом работы этой программы является сформированный в массиве m вариационный ряд – (3, 22, 85, 180, 215, 218, 140, 58, 23, 4).На втором шаге для каждого i-го из К значения всех входных параметров вычисляетсявеличина i-го значения выходного параметра по формуле (1.4).

В результате получаем выборку из N значений случайной величины Y (выходного параметра). Чем больше величина Nзадаваемых значений входных параметров, тем точнее могут быть определены величиныM(Y) и D(Y). Попробуем ответить на вопрос насколько можно доверять этой выборке, тоесть: насколько точно мы приблизились к истинным значениям величин M(Y) и D(Y), еслимы вычислили, проведя всего одну серию экспериментов? То есть: насколько можно доверять массиву m в смысле вычисления M(Y) и D(Y)? Действительно, сняв комментарии с оператора randomize, и запустив дважды приведенную программу, получим следующие вариационные ряды:m(1) = (5, 19, 76, 145, 222, 204, 162, 78, 30, 7)99m(2) = (13, 36, 113, 175, 208, 190, 124, 60, 17, 5)В выражении m(i) величина i представляет номер (i=1…N) серии экспериментов из Копытов каждый.

Различие легко объяснить, если вспомнить, что мы оперируем со случайнойвеличиной производственной погрешности (в данном случае ее заменяет сумма первых 25случайных целых чисел натурального ряда). Но после проведения двойной серии вычисленийстановится ясным и другое: сами величины M(Y) и D(Y) являются величинами случайными!Они, как и все случайные величины имеют свое математическое ожидание M(Y) и дисперсию D(Y). Поставим далее цель уменьшить влияние случайной погрешности вычисления истинных величин M(Y) и D(Y).

Этот вопрос требует отдельного рассмотрения.1.3. Методы уменьшения влияния случайных погрешностейСлучайная составляющая погрешности статистических испытаний при повторных измерениях в одних и тех же условиях изменяется случайным образом. Отдельное испытание, врезультате которого получается вариационный ряд (m), будем называть наблюдением. Прииспользовании ЭВМ имеется возможность многократно повторить наблюдения, в результате можно уменьшить влияние случайных погрешностей.

В соответствии с основными положениями классической теории ошибок сделаем следующие допущения: (1) погрешности наблюдений являются случайными и распределены по нормальному закону; (2) cреднее значение погрешностей наблюдений равно нулю; (3) погрешности наблюдений являются статистически независимыми.Обработав результаты всех N наблюдений, мы получим результат, который назовемоценкой (^X) истинного значения ПП выходного параметра. Итак, Пусть имеется N наблюдений Xi случайной величины Х, (i = 1, 2, ..., N). Если XИСТ – истинное значение X, топогрешность i-го наблюдения (Xi) равна: Xi = Xi – XИСТ.

Плотность распределения Xi согласно допущению 1 описывается нормальным законом:(Xi)2(1.5)exp{}f(Xi) =2i2Для погрешностей, распределенных по нормальному закону, справедливо утверждение, что малые значения погрешностей более вероятны, чем большие. Поскольку XИСТ ввыражении (1.5) неизвестно, то неизвестны и значения погрешностей Xi. Поэтому воспользоваться выражением (1.5) нельзя.

Однако, предполагая, что имеется оценка Х^ истинногозначения, можно вместо погрешности Xi записать отклонение результата наблюдения отоценочного значения:^Xi = Xi – ^X(1.6)Подставляя (1.13) в (1.12) получим плотность распределения оценки погрешности :1L(^Xi) =1exp{-(^Xi)22i2}Распределение L(^Xi) называется правдоподобием разности (Xi – ^X) или правдоподобием оценки ^X . Если имеется одно единственное наблюдение (N=1), то максимальноправдоподобную оценку можно получить, если исследовать функцию L на максимумминимум.

Сделаем это, приняв во внимание, что положение максимума L не измениться, ес-100ли вместо функции использовать ее логарифм. Итак, приняв i=1, логарифмируем функциюправдоподобия:ln[L(^X1)] =-- (^X1)2/212lnДифференцируем полученное выражение по ^X и приравниваем результат нулю:^X1=(X1–^X)=0, или X1=^X, то есть максимально правдоподобной оценкой одного наблюдения является результат этого наблюдения.Пусть теперь имеется два наблюдения.

В этом случае для определения максимальноправдоподобной оценки (^Х) необходимо получить выражение для вычисления правдоподобия разностей ^X1=(X1–^X) и ^X2=(X2–^X) и также исследовать его на максимумминимум. Сделаем и это. Так как ^X1 и ^X2 не зависимы (согласно исходным допущениям), то: f(X1, X2) = f(X1) f(X2), откуда:11(^X1)(^X2)exp{}L(^X1,^X2) = L(^X1) L(^X2) =22+212222Заменяя ^Xi на (Xi – ^X) и логарифмируя, получим:i=2ln{L[(X1 – ^X ), (X2 – ^X )]} = – ln(212) –(Xi – ^X )22i2i=1Дифференцируем и приравниваем результат нулю:i=2дLд^X= 0 -2(Xi – ^X ) ( – 1)=02i2i=1Пусть все наблюдения равноточные, то есть: 1 = 2 = … = N.

Тогда, решая полученное выражение относительно ^X, получим: ^X = (Х1+Х2)/2. В общем случае, при числе наблюдений N оценка составит:N^X =1NXi(1.7)i=1то есть, при равноточных наблюдениях максимально–правдоподобной оценкой истинногозначения производственной погрешности выходного параметра является среднее арифметическое значение результатов наблюдений.Пусть далее проведены две серии наблюдений, в результате которых получены два вариационных ряда m1 и m2. На основании m1 вычислим оценку ^X1, а основании m2 - оценку ^X2.

Ясно, что (^X1  ^X1), так как эти величины рассчитаны по (1.7) и поэтому являютсяслучайными величинами. Распределение оценки ^X так же является нормальным. Определим его математическое ожидание M(^X):101Рис. 1Рис.2NM{^X} = M{1NNXi}=1Ni=1M{Xi}i=1Так как наблюдения распределены по нормальному закону, то, согласно рисунку 1, имеем:M{Xi} = XИСТ, откуда: M{^X} =XИСТ. Следовательно, оценка ^X является несмещенной, поскольку ее среднее значение совпадает с истинным значением.Находим дисперсию D(^X) оценки наблюдений:ND{^X} = (^X)2 = D{1NNXi}=1N2i=1D{Xi} =122 N(X)Ni=1откуда:(X)2D{^X} = (^X) =N2(1.8)В полученном выражении величина (X) представляет среднеквадратическое отклонение (СКО) наблюдений.

Формула (1.8) показывает, что при N   дисперсия оценки наблюдений стремится к нулю, то есть ^X  ХИСТ. Следовательно, оценка ^X является состоятельной.На практике необходимо ответить на вопрос, – с какой вероятностью (РД) оценка ^X невыходит за пределы интервала ХИСТ Хд. Для ответа на него запишем выражение для плотности распределения оценки ^X, изображенного на рисунке 1:1(^X – XИСТ)2f(^X) =exp{}2^X2Искомая вероятность отмечена штрихованной площадью на рисунке 1 и оче видноравна следующему интегралу: (^X-Хд)ХИСТ +ХдРД =f(^X)d(^X) = P[ХИСТ -Хд< ^X < ХИСТ +Хд]102ХИСТ -ХдДелая в полученном выражении замену переменных: t = (^X – XИСТ)/^X, получим:+Хд/^Xexp{-t2/2}РД =dt = 2Ф[Хд^X]-1(1.9)-Хд/^XФормула (1.9) непосредственно вытекает из графика на рисунке 1 после следующихрасчетов. Обозначим z=(Хд /^X).

Тогда доверительная вероятность равна: РД = Ф(z) – Ф(–z).Учитывая, что Ф(–z) = 1 – Ф(z), имеем: РД = Ф(z) –1 + Ф(z), что совпадает с (1.9). ФункцияЛапласа Ф(z) – табулированная функция, некоторые значения которой приведены в таблице1.Таблица 1.zФ(z)0.00.60.5000 0.72571.01.62.33.00.84130.94520.98900.99803.64.20.9998 0.99998Выполнение условий (ХИСТ -Хд)< ^X < (ХИСТ +Хд) эквивалентно выполнению условий: (^X -Хд)< ХИСТ < (^X +Хд), то есть, вероятность Рд является искомой.

ВероятностьРд называется доверительной вероятностью или надежностью интервальной оценки, а интервал значений (^X Хд) – доверительным интервалом.Выражение (1.9) позволяет определить доверительную вероятность по заданному доверительному интервалу, если известна дисперсия (^X)2 оценки наблюдений ^X. Дисперсия(^X)2, в свою очередь, связана с дисперсией наблюдений (X)2 выражением (1.8). Из опыта,однако, и эта величина не известна. Что же известно из опыта из того, что бы нам пригодилось? На этот вопрос ответил Бессель и ответ такой: «из опыта нам известна оценка дисперсии (^^X)2 оценки наблюдений ^X.».

Характеристики

Список файлов лекций

Свежие статьи
Популярно сейчас
А знаете ли Вы, что из года в год задания практически не меняются? Математика, преподаваемая в учебных заведениях, никак не менялась минимум 30 лет. Найдите нужный учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
6455
Авторов
на СтудИзбе
305
Средний доход
с одного платного файла
Обучение Подробнее