Вернер М. Основы кодирования (2004), страница 40
Описание файла
PDF-файл из архива "Вернер М. Основы кодирования (2004)", который расположен в категории "". Всё это находится в предмете "шумоподобные сигналы (шпс)" из 9 семестр (1 семестр магистратуры), которые можно найти в файловом архиве МГТУ им. Н.Э.Баумана. Не смотря на прямую связь этого архива с МГТУ им. Н.Э.Баумана, его также можно найти и в других разделах. .
Просмотр PDF-файла онлайн
Текст 40 страницы из PDF
Lin, D. J. Costello: Error control coding: Fundamentals andApplications, Englewood Cliffs, NJ,: Prentice- Hall Inc., 1983[8] F. J. MacWilliams, N. J. Sloane: The Theory of Error-Correcting jCodes. Amsterdam: North-Holland, 1977, (Имеется перевод: МакВильямс Ф. Д ж . , Слоэн Н. Д ж . А. Теория кодов исправляющихошибки. -М.: Связь, 1979)[9] N. Wiener: Cybernetics or Control and Communication in theAnimal and the Mashine. Paris: Hermann, 1948V282Литература[10] R.
G. Gallager: Information Theory and Reliable Communication.New York: John Willey and Sons Inc. 1968, (Имеется перевод: Галагер Р. Теория информации и надежная связь.-М.: Сов. радио,1974)[11] W. W. Peterson, E. J. Weldon: Error- Correcting Codes. 2nd ed.-Cambrige (Mass.): MIT Press, 1971 (Имеется перевод: ПитерсенУ., Уэлдон Э. Коды, исправляющие ошибки. -М.: Мир, 1976)[12] G.
Ungerbock: Channel Coding with Multilevel/phase Signals.IEEE Trans. Inform. Theory, IT-28,1982, S.55-67.[13] J. G.Proakis: Digital Communications. New York: McGraw-Hill,2000.Литература, добавленная при переводе[14] I. Chisar, J. Кёгпег: Information theory, Coding theorems for discrete memory less systems. Akademiai Budapest, 1981 (Имеетсяперевод: Чисар И., Кернер Я. Теория информации, теоремыкодирования для дискретных систем без памяти.
-М.: Мир,1985)[15] W. Feller: An introduction to probabilistic theory and its application. John Willey & Sons, NY, 1970 (Имеется перевод: ФеллерВ. Введение в теорию вероятностей и ее приложения. -М.: Мир,1984)[16] J. M. Wozencraft, I. Jacobs: Principles of communication engineering. John Willey & Sons, NY, 1965 (Имеется перевод:Возенкрафт Дж., Джекобе И. Теоретические основы техникисвязи. -М.: Мир, 1969)[17] J. J. Stiffler: Theory of synchronous communications. NJ: Prentice Hall Inc., 1971, (Имеется перевод: Стиффлер Дж. Теориясинхронной связи.
-М.: Связь, 1978)[18] G. С. Klark, J. В. Cain: Error correction coding for digital communication, Plenum press, 1982 (Имеется перевод: Кларк Дж., КейнДж. Кодирование с исправлением ошибок в системах цифровойсвязи. -М.: Радио и связь, 1987)[19] Д. Сэломон: Практическое руководство по методам сжатияданных. М.: Техносфера, 2003[20] Е. R.
Berlekamp: Algebraic Coding Theory. NY, McGraw-Hill, 1968(Имеется перевод: Берлекэмп Э. Алгебраическая теория кодирования. -М.: Мир, 1971)[21] G. D. Jr. Forney: Concatenated Codes, Cambrige, Mass., MHTPress,1963 (Имеется перевод: Форни Д. Каскадные коды. -М.:Мир, 1970)Предметный указательАБГШ, 115Алгоритм Витерби, 245деления Евклида, 171Алфавит, 12Аналоговый источник, 44Апостериорная вероятность, 36Арифметическое кодированиие, 77Векторное пространство, 138,141Вероятностьнеобнаружимойошибки, 145ошибки, 128Взаимная информация, 36Витерби алгоритм, 245Входные последовательности,221Выходные последовательности,221Гауссовское распределение, 113Гомогенная цепь Маркова, 52,53, 55Граница Хэмминга.
145Шеннона, 117Двоичный симметричный канал (ДСК), 85Декодер Меггитта, 193максимального правдоподобия, 248с вылавливанием ошибок, 198Диаграмма канала, 95Дискретный во времени стохастический процесс, 44источник, 44источник без памяти, 12источник с памятью, 44Длина кодового ограничения,224кодового слова, средняя, 32Избыточность, 20, 75Избыточность относительная,20Импульсный отклик, 221Информационнаяпоследовательность, 221Информационное слово, 131Информационные символы, 135Информация, 15, 111несущественная, 75Код CRC, 198Абрамсона, 198Голлея, 198Файера, 200Хэмминга, 148Хэмминга циклический, 196без запятой, 29дуальный, 175катастрофический, 241линейный двоичный блоковый, 133префиксный, 24, 25систематический, 134, 243циклический, 163циклическийукороченный,200Кода скорость, 224Кодер, 133Предметный указательКодирование Хаффмана, 68, 76арифметическое, 77избыточное j 133источника, 68энтропийное, 77Кодоваяпоследовательность,221Кодовое слово, 131, 134, 163Кодовый многочлен, 165Колмогорова - Чэпмена уравнение, 51Корректирующая способность,144Крафта неравенство, 25Память, 58кодера, 224Переходные вероятности, 50Порождающая матрица, 134,172Порождающий многочлен, 167Последовательное декодирование, 245Предельная матрица, 55Префиксный код, 29Принятое слово, 132Проверочные символы, 135Пропускная способность, 100,115Лагранжа метод, 100Логарифмическаяфункцияправдоподобия, 249Распределение предельное, 55стационарное, 55Расстояние Хэмминга, 143Расширенный код Хэмминга,152Регистр сдвига, 163Мак-Миллана утверждение, 26Марковский источник, 58стационарный, 62процесс, 51Математическое-ожидание, 16Матрица переходных вероятностей, 52порождающая, 138проверочная, 138, 175Метрика, 249Минимальное кодовое расстояние, 143Многочлен кодовый, 226неприводимый, 158, 196порождающий ,225примитивный, 1598, 196Невозможное событие, 15Неопределенность, 12Ошибка декодирования, 132Ошибки необнаружимые, 140Свободное расстояние, 240Сжатие данных, 75Синдром, 136, 184Скорость кода, 133Случайные события, 12Собственный вектор, 54Совершенные коды, 144Совместная энтропия, 38, 45Состояние, 50Спектральная плотность мощности, 118Стационарная цепь Маркова,54Стационарный источник, 45Степень сжатия, 76Стохастическая матрица, 52Предметный указательТеорема Шеннона, 108кодирования, 48, 108кодирования источников, 67Условная информация, 37Условная энтропия, 39, 46Фактор сжатия, 32Цепь Маркова регулярная, 55,56Циклический сдвиг, 163Энергетический выигрыштда, 148Энергия, 118' Энтропия, 6, 15, 16, 62, 99,двоичного источника, 21дифференциальная, 112Эргодичность, 16Эффективность кода, 32.,.