🌸 Теория информации и кодирования - ответы на тест в ТулГУ 🌸
Описание

Список вопросов
Определить контрольные биты
Локализовать и исправить ошибку кода Хэмминга "abc".
Выберите код, который не реализует сжатие информации?
Найти порядок примитивного полинома 5 степени в поле GF(2).
Имеются два источника информации, алфавиты и распределения вероятностей которых заданы матрицами Определить, какой источник дает большее количество информации, если p1 = q1, p2 = q2+q3.
Считая, что каждый символ кодируется одним байтом, определите, чему равен информационный объем слова ПАТРОН.
Определить проверочные биты для кода Хэмминга информационной последовательности "ce".
Исправить ошибки и выделить информационное сообщение из последовательности (d253)/h полученной сверточным кодом.
Определить пропускную способность 6-ичного симметричного канала, способного передавать 100 символов в секунду. Причем каждый из символов искажается с вероятностью p=1/6.
Найти наибольший общий делитель чисел 66 и 42.
Пусть имеется алфавит символов и их вероятности, с которыми они встречаются в тексте. Закодировать сообщение «лиса» методом Шеннона-Фано.
Выберите один ответ:
Определить количество контрольных бит кода Хэмминга для информационного сообщения длиной 241 бит.
Какое из перечисленных свойств энтропии некорректно?
Принимаемый сигнал может иметь амплитуду A1 (событие x1) или A2 (событие x2), а также сдвиг фаз φ1 (событие y1) или ?2 (событие y2). Вероятности совместных событий имеют следующие значения p(x1, y1) = 0.73; p(x1, y2) = 0.21; p(x2, y1) = 0.02; p(x2, y2) = 0.04. Вычислить количество информации, получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда.
Какое максимальное количество бит потребуется для кодирования целых положительных чисел, меньших 51?
Используя статистические данные частоты появления букв русского языка из таблицы, записать кодом Шеннона-Фано фразу «теория информации»
Определить максимально возможную скорость передачи информации по каналу связи с частотой 10MHz, если отношение сигнал-шум S/N=127.
Записать в 16-ричном виде двоичную последовательность, соответствующую полиному p(x)=x^7 +x^6 +x^3 +x^1 +x^0.
Какой примитивный полином необходимо использовать для кодирования сообщения "D" кодом, исправляющим 1-кратную ошибку?
Определить степени примитивных полиномов, которые необходимо использовать для построения полиномиального кода исправляющего 2-кратные ошибки в информационной последовательности длиной 4 бита.
Определить значения проверочных символов (e1,e2) для информационного сообщения (2,0,1,7,5) RSC над GF(8) при b=0.
Определить позиции (L1,L2) и значения (E1,E2) ошибок кода RSC над GF(8) по вектору синдромов (S1,S2,S3,S4)=(4,4,5,2)
Сообщение X с символами x1, x2, x3, x4, x5 передается по дискретному двоичному каналу с вероятностями p(x1) = 0.1; p(x2) = 0.1; p(x3) = 0.4; p(x4) = 0.3; p(x5) = 0.1. Полоса пропускания канала обеспечивает возможность передачи двоичных символов длительностью 10-4 секунды. Какой способ кодирования наиболее подходит для указанного канала.
Определить места ошибок по полиному локаторов S(x)=1+2x+6x2 над GF(8).
Дана матрица: Определить энтропию H(X,Y).
На вход приемного устройства воздействует колебание y(t) = x(t) + n(t), где сигнал x(t) и помеха y(t) – независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственно σx2 и σn2. Определить количество взаимной информации I(x,y), которое содержится в каком-либо значении принятого колебания y(t0) о значении сигнала x(t0). В расчетах принять σx2 = 1, σn2 = 2, y(t0) = 5, n(t0) = 1.
Определить, какой источник дает большее количество информации, если p1 = p2, q1 = q2 = q3.
Канал связи описан следующей канальной матрицей: Найти, чему равны информационные потери при передаче сообщения из 1000 символов алфавита, если вероятности появления символов источника сообщений равны 0.7, 0.2 и 0.1.
Возможен двоичный код с параметрами (n,k,d)=.... (Здесь d - кодовое расстояние).
Характеристики ответов (шпаргалок) к экзамену

Начать зарабатывать