Том 1 (1128361), страница 77
Текст из файла (страница 77)
Эти вспекты, называемые сеиднтическими, теорией информации игнорируютсп. А В С О Е Е б —— Н Рис. 7.2, Фрагмент азбуки Морзе как пример кода, Буквы алфавита представлены здесь сочетаниями коротких (гочки) и длинных [гире) символов. Их можно передавать разными техническими способами световыми, звуковыми, электрическими импульсами разной двитЕлЬНОсти. Справа: запись азбукой Морзе сигнала бедствия на море (505) Двоичные н недвончные символы; бнт.
В простейшем случае информацию можно передавать с помощью всего двух символов, в так называемой двоичной системе (например, нулями н единицами). Прн этом источник информации сигнализирует о выборе между двумя альтернативами (напрнмер, «да»/«нет»). Двоичные системы особенно удобны с точки зрения технической реализации (свет/темнота, включено/выключено, сильное/слабое магнитное поле н т.д.). В этом одна нз причин выбора в качестве элементарной единицы информации информационного содержании двоичного символа: 1 = = 1д 2 = 1. Количество информации, передаваемое одним двоичным символом, называется одни бит. Вычислим теперь информационное содержание каждого броска Игральной кости: 1= !д1/(1/б) = =!г) б = 2,58 бнт.
Что такое «бнт», мы рассмотрим ниже. Поскольку у карманных калькуляторов обычно нет программы длп вычисление двоичного логарифма, можно использовать следующую формулу перевода: !г)п = !ой,оп/1ой,с2 = 3,321ой,оп. Вообще говоря, вероятность появлении каждого нэ множества и возможных символов (нлн состояний источника информации) составляет р = 1/и. Следовательно, уравнение (1) можно преобразовать к виду 1= Ып. (2) Бит- зто очень мало информации. Если в такой системе требуется передать достаточно ллииныс сообще. нип, слова нужно составлнть, объединяя ло нссколькг символов. Длина слова (число в нем двоичных символов непосредственно выражает количество информации битах.
Число слов, которые можно образовать из двут двоичных символов, равно 2т =. гй 00, 01, 1О, 11. Из трет символов сосгавлпютсп 2з = 8 слов-комбинаций: 000, 001 Иными словами, информационное содержание 1--это двоичный логарифм числа и всех символов нли возможных состояний источника информации. Ниже мы применим такое соотношение к нейрофизиологии (с. 173 н далее). Рис. 7.1.
Основные понятия теории информации (вверху) с примерами элементов информационной цепи в технических и биологических системах Лика Слава Сбиблиакака РокЗЛ'Гза) ] ! а)авааабЗуапйвх.кп ! ! )П1рВУуапиа.ыъ.кп 173 ГЛАВА 7. неРВнАя системА с тОчки зРения теОРии инФОРмАции 010„011, 100, !01, 1!О, 111. Если в слове зп двоичных символов, получается и = 2 таких сочетаний. Другимв словами, в этом случае можно послать и = 2 различных сигналов с информационным содержанием в ш бат у хэждос о. Предложенное выше определение информационного содержания не зависит от природы используемых в качестве носителя символов: любой их набор можно представить в виде двоичного кода. Для однозначного соответствия между п различных символов и обозначающими их двоичными словами длина последних должна составлять в среднем ш= 1дп двоичных символов.
Попробуйте придумать примеры, иллюстрирующие это положение; предложите, в частности, двоичный код для букв от А до 3 илн чисел от 1 до 1б. Когда произвольный символ заменен двоичным словом, можно сказать, что их информационное содержание (в битах) одинаково, поэтому в среднем у любого символа из и оно определяется формулой 1 = 1д и. Перед нами уравнение (2), выведенное выше нз определения информационного содержания. Разбирая осповнью попятив теории информации, мы значительно упрости»в вопрос, в частности, допустив Равную вероятность появлепня любого символа иэ нх множессва.
Более подробное и строгое изложение теорви информации можно найти в специальной литературе. Избыточность. При кодировании, передаче и декодировании могуг возникать помехи (рис. 7.1). Например, наводки от электросети иногда проявляются при записи на мапснтную ленту в виде гудения частотой 50 или 60 Гц; телефонные сигналы ослабляются из-за повреждения изоляции кабеля, а телевизионное изображение искажается, если сигнал от удаленно~о передатппса слишком слаб, В таких случаях некоторое количество информации теряется. В технике способы защиты информации от помех основаны на концепции избыточности. В качестве иллюстрации этого понятия рассмотрим пример из обгшсти лингвистики. Попытайтесь расшифровать следующее неполное предложение (пропущенные буквы в нем заменены точками): И..орм.ц..н...
с..е.жа..е с.об.е.и. нз.е.и.о Смысл понятен, хотя не хватает 49«У» букв. Иными словами, в тексте больше символов, чем необходимо для передачи содержания. Это и называют избыточностью; она измеряется в битах. Исходя вэ частоты появления в словах каждой иэ 26 букв английского алфавита, можно показать, что среднее внформвцвовпое содержание буквы пе превышает 1,5 бит. Теоретически, если не учитывать разной вероятности появления букв, оно составило бы!020 =- 47 бит, поэтому в данном случае средняя избыточпосзь равна 4,7 бит- 1,5 бпт = 3,2 бит ва букву.
На первый взгляд такое количество символов кажется расточительным, однако преимущества его становятся очевидными, когда на канал передачи воздействуют помехи, например при плохой телефонной связи, глушении радноприема или в случае неразборчивого почерка: избыточность языка обеспечит понимание смысла текста даже при частичной идентификации символов. Теория информации количественно объясняет следующий факт: чем избынючнвв кодирование, твм сильнее защищено ат помех передаваемое сообщение.
К простым способам введения избыточности относятся передача сигналов по множеству параллельных каналов, передача каждого символа несколько раз подряд, добавление контрольных «битов четностю> к сигналу, записанному в двоичном коде. В нервной системе также используется принцип избыточности. 7.2. Теория информации В сенсорной ФИЗИОЛОГИИ Применим теперь рассмотренную выше концепцию (рис.
7.1) к передаче информации в нервной системе (5, 11, 14, 152. Возьмем для примера рецептор с его афферентным волокном. В этом случае информация кодируется последовательиосзъю нервных импульсов н в таком виде передается. Ее источник (рис. 7.1) — внешние стимулы, передатчики-рецепторные клетки сенсорного органа, канал передачи — нервные волокна, приемник — группа центральных нейронов, а пользователь-ЦНС в целом. Единицы информации здесь-количественные параметры стимулов (например, давление на кожу, местоположение раздражителя на периферической сенсорной поверхности, длина световых нли звуковых волн). Во многих рецепторах интенсивность стимула кодируется средней частотой импульсапии нейрона.
Такой способ аналогичен частотной модуляции, используемой в системах связи, и известен в лн!бой сенсорной модальности. Мышечные веретена, кожные рецепторы давления, хеморепепторы языка и фоторецепторы сетчатки — все онн сигнализируют об интенсивности соответствуюпсего им стимула средней частотой импульсации своих нервных волокон. Часнюта нейронной импульсации— универсальный носил)ель информации. Поскольку афферентные волокна сенсорных рецепторов обычно соединяются со специфичными ассоциативными нейронными системами в ЦНС, информация, передаваемая последовательностью импульсов, однозначно и адекватно интерпретируется. Например, афференты 1а оканчиваются на гомонимных мотонейронах, афференты механорецепторов проецируются в посгцентральную извилину, где образуют <«гарту» поверхности тела, а терморецепторь) передают сигналы в центр терморегуляцнн, расположенный в гипоталамусе.
Передача информации идеальным рецептором. Каким образом импульсация рецептора приобрета- Гиаеко Сиаапа (Библиоаека тепе(Г1за) ! ! и!аиаааавуапст «.сп 1 ! Нпрфуаптсо.11Ь.еп ЧАСТЬ Н. ДВИГАТЕЛЬНЫЕ И ИНТЕГРАТИВНЫЕ ФУНКЦИИ НЕРВ|!Ой СИСТЕМЫ 174 10 1 !Оит/ссимуп! 1О аа й й 4 с с о 0 50 100 5 150 Интенсивность стимупа О 0,01 0,02 0,05 0,1 0.2 0,5 1 2 Время набпмпении Време, с (3) )Ч+1оГ|+1, Рис.
7.З. Кодирование интенсивности стимула (8) нервными импульсами. Когда на рецептор действует адекватный стимул определенной длительности, в афферентном волокне генерируется целое число (й) потенциалов действия (ось ординат). Поэтому график зависимости реакции от интенсивности стимула (ось абсцисс] представляет собой ступенчатую линию ст различные состояния, информационное содержание которых можно измерить? Рассмотрим кодирование интенсивности стимула. Если бы рецептор реагировал на стимул только двумя способами: генерируя либо один импульс, либо ни одного, он мог бы информировать только о двух уровнях интенсивности раздражения. Отсутствие потенциала действия означало бы, что она ниже порогового уровня, его наличие - надпороговую величину. Теоретически, если стимул может вызвать в афферентном волокне максимум )Ч импульсов, то соответствующий рецептор способен сообщить счетчику импульсов в ЦНС о (1Ч + 1) разных уровнях интенсвВиости.
Это положение иллюстрируется рис. 7.3. Поскольку число импульсов (Щ в афферентном волокне должно быть целым, график зависимости )Ч от интенсивности стимуляции (Я ступенчатый. В случае идеального рецептора, реагирующего на пгк:тоянно действующий стимул нмпульсацней неизменной частоты, общее число импульсов ()Ч) равно произведению их частоты (Г) на время наблюдения (1): )ь) = ГЕ Тогда максимальное количество уровней интенсивности, кодируемых разрядами рецептора, составит где à — максимальная частота его импульсацин.
Если рецептор обладает спонтанной активностью (т.е. генерирует потенциалы действия в отсутствие внешнего стимула) с частотой Г,, то в уравнении (3) и всех последующих формулах величину 1' нужно заменить на Г Набор символов для кодирования определяется здесь числом различных частот импульсации в Рис. 7.4 Зависимость количества информации (1, ось ординат) идеального рецептора от времени набпюдения (1, ось обсцисс). Параметр, отличающий приведенные кривые друг от друга, максимальная частота импульсации рецептора (1 ), рассчитанная по уравнению (4).