Главная » Все файлы » Просмотр файлов из архивов » Файлы формата DJVU » Баскаков С.И. Радиотехнические цепи и сигналы (3-е издание, 2000)

Баскаков С.И. Радиотехнические цепи и сигналы (3-е издание, 2000), страница 97

DJVU-файл Баскаков С.И. Радиотехнические цепи и сигналы (3-е издание, 2000), страница 97 Радиотехнические цепи и сигналы (РТЦиС) (2257): Книга - 5 семестрБаскаков С.И. Радиотехнические цепи и сигналы (3-е издание, 2000): Радиотехнические цепи и сигналы (РТЦиС) - DJVU, страница 97 (2257) - СтудИзба2018-08-01СтудИзба

Описание файла

DJVU-файл из архива "Баскаков С.И. Радиотехнические цепи и сигналы (3-е издание, 2000)", который расположен в категории "". Всё это находится в предмете "радиотехнические цепи и сигналы (ртцис)" из 5 семестр, которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. .

Просмотр DJVU-файла онлайн

Распознанный текст из DJVU-файла, 97 - страница

Впервые зту задачу поставил и решил американский инженер Хартли в конце 20-х годов. Хартли предложил вычислять количество информации, содержащейся в сообщении, по формуле гл = 1ойа Рлю где логарифм может быть взят при любом основании.

В дальнейшем оказалось, что удобнее всего пользоваться двоичными логарифмами. При этом ел 1ойа Р ° Хотя с физической точки зрения величина т безразмерна, ее стали измерать в условных еднницах, называемых битами (англ. Ьйиегу сйй!г — двоичная единица). Выбор двоичных логарифмов дихтуется тем, что сообщение в технически реализуемых каналах связи чаще всего принимает форму отдельных групп (кодовых слов), состоящих только из двух символов, которые можно трактовать ках 0 и 1.

Каждая тахая группа кодирует, например, буквы того или иного естественного языка, из которых составляются отдельные слова. Логарифмический харахтер формулы (16.68) обусловлен тем, что при этом достигается аддитивность информации, завпоченной в последовательно расположенных символах. 16.6. Оценка информационных параметров радиоканала Действительно, если А и  — два независимых события, то сложное событие С„состоящее в том, что происходит как А, так и В, будет иметь вероятность Рс=Р„-Рн, а значит, гсс»!а+!и.

Ншсонец, логарифмическая функция строго монотонна на отрезке изменения аргумента от нуля до единицы; сообщение о наступлении маловероятного собтия содержит в себе большую информацию, в то время как сообщение о наступлении достоверного события (Р„=1) несет нулевую информацию. Првмер 16.5. 1змеетсн одна странияа текста, нанисаиного иа русском языке. Стрекоча содернсит 30 строк и но 60 букв в казкдоп строке.

Овезтть обьем ингбормации в данном теконе. Будем полагать, что алфавит языка состоит из 32 букв. Если считать дла простоты, что появление любой буквы в тексте равновероятно, то каждая буква содержит информацию 1 1взз — 1ояз — = 5 бит. 32 Отсюда общая ниформациовнан емкость страницы текста состават 1=50 30 60 9000 бит=9 кбвт. Следует заметить, что подобный расчет является лишь ориентировочным, прежде всего потому, что не учитывается разница между всроатиостамн появления различных букв. В действительности же буквы «а» вля «и» встречаются гораздо чаще, нежели буквы «ф» ялв «ц».

Кроме того, здесь вгпорврустся факт сильной корреляцвн между отлельвыми свмеонаык алфавита (напрнмер, сочетание букв «са» е русском юыке встречается гораздо чаще, нежели сочетание «сщ». Энтропии источника сообщений. Развивая идеи Хартлн, К. Шеннон ввел очень важное понятие энтропии источника. Пусть сообщения в канале связи строятся из символов некоторого алфавита; полное число символов (букв) в алфавите составляет М. Предположим, что известны все величины Р; (! = 1...Ф) — априорные, т.е.

известные до опьпа вероятности появления любого из символов. Энгнронией источника сообщений называют среднее значение количества информации, приходицееся на один символ алфавита (бнт/символ): и Н= — ~> Р!1обхР» (16.69) ! 1 Здесь статистическое усреднение проводится в соответствии с принципом, изложенным в и.

6.1, применительно к дискретной случайной величине. Содержательный смысл понятия энтропии состоит в то, что она характеризует степень исходной неопренделенности, которая присуща элементам алфавита, выбранного для передачи сообщений. Афавнт с малой энтропией, как правило, мало пригоден для практического использования. Глава 16. Вопросы творим помехоустойчивости релиопрмсма 450 0.5 р Теперь предположим, что источник сообщений создает символы алфавита в некотором постоянном темпе и пусть г— скорость их появления.

Тогда величину Я=гН, (16.70) можно называть информационной лроизводительастью не|ноч- ника (бнт/с). Пример 16.7. Аудиоинформация записывается на оюпический диск /СР-КОМ) в виде последователышсти о|нече|нных значемий звукового сигнала с частотой дискретизации 44.1 кГц. Казкдый отсчет предс|павлен 16-разрядным двоичным числом, Здесь первичным алфавитом слуи:ит множество аз двух равиовероятных символов 0 и 1; энтропия такого ансамбля равна 1 бвт.

При работе системы происходит переход к новому алфавиту. Его вбуквамим служат 16-разрядные кодовые слова; общее число различвых слов составляет 2 в. Легко видеть, что энтропия этой системы Н 16 бит/символ. Так как г 4.41 10ь символ/с, то по формуле (16.70) получаем величину информационной производительности Я 16 4.41 10 =7.056 10 =705.6 кбвт/с. Пропускная способность радиоканала при наличии шума. Интуитивно ясно, какими свойствами должен обладать радиоканал, эффективно осуществляющий передачу информации от источника к потребителю. Во-первых, такой канал обеспечить поддержку заранее заданной скорости информационного потока, Во-вторых, нужно гарантировать невозможность ошибочного приема символов, либо свести вероатность таких ошибок к приемлемо низкому уровню.

Если бы в канале связи полностью отсутствовали шумы, то сама постановка задачи о пропускной способности теряла смысл — любые объемы информации можно было бы передать за достаточно малый отрезок времени, полностью избежав каких-либо ошибок в принятом сообщении. Действительно, взяв один единственный отсчет сигнала и представив его двоичным числом (кодовым словом) достаточной длины, можно с помощью этого числа закодировать сколь угодно длинное сообщение. Пример 16.6.

Пусть передача ведется с помощью двоичного алфавита, состоящего ншлько из двух символов, например, 0 и 1. Вероятность появления первого символа равна Р, в |по время как вероятность появления всторого символа сос|мавляет 1 — Р. Исследовать зависимость энтропии данного источим|а сообщений о|п численного значения вероятное|пи Р. Ка основании формулы (16.69) имеем: Н вЂ” Р)ой, Р— (1 — Р) 1ой, (1 — Р).

График зависимости Н(Р), построенный ио этой формуле, показывает, что максимальное значение эвтровви, равное 1 бит/символ, достигается при раввовсроатиом воявлевии обевх букв алфавита. ИШа5 Если же Р приблииаетса в нулю или к едиивце, эвтропия источника становится весьма низкой, что говорит о малой информативиости выбранного алфавита.

Сообщешщ превращаются, по сути дела, в летсрмивврованиые последовательности свмволов. 16 6. Оценка ннформацнонных параметров радиоканала 451 Неизбежное присутствие в канале связи шумов различного происхождения в корне меняет ситуацию. Интенсивность информационного потока жестко ограничивается такими техническими параметрами, как ширина полосы частот, занимамых каналом, а также отношением средней мощности полезного сигнала к средней мощности шума на входе приемника. Разумно предположить, что канал связи тем совершеннее, тем шире полоса частот и чем больше мощность полезного сигнала в сравнении с мощностью шума. Впервые количественные оценки, дающие возможность решить данную проблему, были получены в классической работе К.

Шеннона. Суть его подхода состоит в следующем. Предположим, что имеется некоторый радиоканал с шириной полосы пропускания П, Гц в частотной области. Пусть Р,— средняя мощность полезного сигнала на входе приемника. Предположим также, что в канале присутствует белый гуссовский шум, мощность которого на входе приемника составляет величину Р . Длн надежного различения одного сигнала от другого необходимо, чтобы данные, получаемые при взятии отсчетов, отличались друг от друга на достаточную величину, например, не менее чем на среднеквадратическое отклонение, обесловленное шумом. Следует помнить, что дисперсии стационарных случайных колебаний прямо пропорциональны их мощностям.

Тогда приходим к выводу, что число «хорошо различимых» значений при взатии каждого отсчета составит — — 1+ —. Будем полагать, что передача информации длится Т секунд. По теореме Котельникова при этом берется по крайней мере 27П отсчетных значений. Общее число различных сигналов, которые могут быть пострены описанным способом, М= 1+— (16.7 1) Все они равновероятны, и вероятность выбора одного конкретного сигнала равна 1/М. Число битов информацше.

которое можно безошибочно передать за время Т, составит— 1ойз(1/М) =1ойзМ. Достигаемая при этом скорость передачи информации (бнт/с) получила название пропускной способности канала (англ. с/нюне! сарасйу): (16.72) Данное соотношение является важным ннструментом при проектировании разнообразных радиоканалов. Из формулы (16.72) следует, в частности, вывод о том, что сущствуют два пути повышения пропускной способности. Первый путь— расширить полосу частот канала, второй путь — повысить Глава !6.

Вопросы теории помехоустойчивости рвпиоприсма 452 отношеыие сигнал/шум. Этн ыути неравноценны, поскольку пропускная способность пропорциональна первой степени ширины полосы и логарифму отношения снгнал/шум. Поэтому реализовать ыа практике узкополосный канал с высокой пропускной способностью за счет повышения мощности передатчика и снижения мощыости шума удается далеко не всегда. Пример 16.8.

Один кадр черно-белого телевизионного изображения содержит 3 10з точечных элементов, тах называемых пихселей. Кадый такой элемент требует 256 градаций яркости изображения. За одну секунду передается 25 кадров. Отношение сигнал/шум составляет 30 дБ. Определить минимальное значение ширины полосы частот канала П, которое обеспечивает подобный темп передачи информации.

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5304
Авторов
на СтудИзбе
416
Средний доход
с одного платного файла
Обучение Подробнее