Шмидт (ред) - Основы сенсорной физиологии - 1984 (947487), страница 18
Текст из файла (страница 18)
Поскольку логарифмические линейки н карманные калькуляторы обычно не дают возможности непосредственно определять функцию !оки полезно знать формулу перевода: !ой, я = 1ок„я)(ок, 2 = 3,32 1окю л. Вводя меру информации, мы начали с предположения, что все состояния источника информации могут иметь место с одинаковой вероятностью р, как, например, в случае игральных костей. Это предположение является упрощением; обычно отдельные знаки, или состояния, источника информации не равновероятны. Примером случая неравной вероятности могут служить буквы шьфавита, которые встречаются в тексте с разными частотами (вероятностями). Читатель может легко убедиться в этом самостоятельно; в английском'тексте, например, самая распространенная буква — е.
Обший случай неравных вероятностей выходит за рамки данного вводного рассмотрения меры информации; интересующиеся читатели могут найти дополнительную литературу по приведенному списку. Остановившись на частном случае равных вероятностей, заметим. однако, что [2-63 можно записать в другом виде; если л -общее число возможных символов, или состояний источника, справедливо равенство р = 1(л. Для игральной кости я = 6. Выражая через и количество информации при передаче одного символа, получим [2-73 1=!ок, я. Это значит, что содержание информации в таком сообщении равно логарифму по основанию 2 числа и всех возможных символов, которые могут быть переданы.
Мы применим это соотношение в нейрофизиологии (см. далее). Конечно, субьективная ценность единицы информации для получателя зависит от многих факторов, не включенных в рассмотренную выше количественную меру информации. Например, при игре в кости субъективная цена, которую игрок назначает разным числам, может варьировать в зависимости от бессознательной мотивации, его отношений с другими партнерами, того, последний ли доллар он сейчас ставит, и т.д. Изучение таких аспектов символьной информации часто называют семантикой. Двоичные и недвоичвые знаки; бит. Как подчеркивалось выше, передача информации требует набора символов, из которых передающий информацию может делать выбор. В простейшем случае набор состоит всего из двух символов, называемых двоичными, или бинарными (например, двух цифр: О и 1). Используя их, передающий информацию может посылать сообшения о выборе иэ двух возможных вариантов (например, «да» или «нет»).
Двоичные системы особенно удобны с технической точки зрения; примерами их реализации являкэтся свет — темнота, смена положений тумблера, наличие и отсутствие отверстия в перфокарте. Это одна из причин, по которой в качестве единицы информации было выбрано информационное содержание акта, определяющего один двоичный символ. Этот выбор уже подразумевался в [2-6)' и [2-7), так 82 Хт.
циммерман« 2. Нейрофнзиотогия сенсорньы систем 83 как 1о8, 2= 1. Количество информации, которое передается в сообщении, содержащем один из двух равновероятных двоичных символов, называетсн одним битом. Один бит — это относительно небольшое количество информации; если с помощью двоичных символов нужно передавать более пространные сообщении, следует объединять вместе несколько знаков — из двоичных символов нужно составлять слова. Алфавит, из которого состаштяются такие слова, состоит нз «букв» 0 и 1. Длина слов, т. е, число двоичных знаков, используемых на одно слово, есть прямая мера (в битах) количества информации, передаваемой в одном слове. Словом, состоящим из двух двоичных знаков, можно передать два бита, из трех— три и т.д.
Число различных слов, которые могут быть составлены из двух двоичных знаков, равно 2' = 4. Это 00, 01, !О и 11. С помощью трех знаков можно составить 2' = 8 слов следующего вида: 000, 001, О!О, 011, 100, 101, 110, !!1. Очевидно, что используя гл двоичных знаков на слово, можно составить л = 2 различных сообщений; процесс, конкретизирующий любое из них, передает гн бит информации.
Обсуждавшееся до сих пор определение количества информации можно также применить и к случаям, в которых в качестве носителей информации служат любые произвольные символы. Любой желаемый набор символов можно представить двоичными последовательностями достаточной длины. Чтобы кодировать символы таким образом, т.е.
чтобы получить однозначное соответствие между набором из л символов и двоичными словами, длина последних должна составлять в среднем т = 1о8 л двоичных знаков. Принцип такого кодировании представлен на рис. 2-18. Это дерево выбора решений, в котором в результате последовательного раздвоения ветвей получается в точности по одной ветви на каждый символ (здесь нужно было представить 8 букв от А до Н). Каждое раздвоение символизирует выбор из двух возможностей.
Если выбор левой ветви мы обозначим цифрой О, а правой 1, то мы сможем построить соответствующие двоичные кодовые слова путем простого прохождения от «ствола» дерева к символам на конечных веточках. Получившиеся двоичные слова написаны под буквами, к )тоторым они относятся. Если такое кодовое дерево, или дерево выбора, строить для всего английского алфавита, то число выборов (точек раздвоения) будет равно первому целому числу, превышающему 1о8, 26, или 5, так как 2' = =32.
Шесть двоичных слов, не понадобившихся для букв, можно использова~ь длн кодировании знаков препинания и интервалов. Но если произвольный знак можно заменить двоичным словом, то можно также сказать, что он содержит столько же информации (в битах), сколько и двоичное слово, которым он закодирован. Следовательно, среднее содержание информации ! в акте определения одного символа из набора в л символов равно ! = !о8, л. Это 12-73, которое мы получили выше при определении количества информации. Настоящее введение в основные концепции теории информации ~ 3 бита ~ 2 бита .ч т бнт И«юнна« точна Рнс.
2-18. Кодовое дерево, нлн дерево выбора. Путем последовательных выборов нз двух возможностей буквам от А ло Н можно присвоить разные коды, В каждой точке раздвоения повороту влево ставится в соответствие знак О, а повороту вправо-знак 1. Если начать с исходной точки н последовательно зафнкснронать все знаки вдоль какой-то траектории, получится запись н двоичной системе той буквы, которая стоит у конечной точки 1от А ло Н).
Этн двоичные слова приведены под соответствующими буквами. сильно упрощено, в частности по причине допущении равной вероятности всех символов в наборе. Ссылки на более фундаментальные изложения теории информации приведены в конце книги. Теория информации в сенсорной физиологии. Теперь мы применим идею, описанную выше в общих терминах, к передаче информации в нервной системе. Подходящим для обсуждения примером является рецептор с афферентным нервным волокном. Здесь информация кодируется и передается дальше в виде нервных импульсов.
Источниками информации служат раздражители окружающей среды. передатчиком-рецепторная клетка, каналом передачи-нервное волокно, приемником -синапс некоторого центрального нейрона, а сам этот нейрон может рассматриваться как потребитель. Физически измеримые параметры стимулов )например, интенсивность давления на кожу, положение стимула на периферической сенсорной поверхности, длины волн светового и звукового стимулов) — это передаваемые величины.
На примере рецептора растяжения (разд. 2.1) мы видели, как параметры стимула определяют реакцию рецептора; частота импульсного разрнда в афферентном волокне меняется в ту же сторону, что н интенсивность стимула. В этом случае переменная «интенсивность стимула» кодируется переменной «средняя частота нервных импульсов». Такой способ кодирования, сопоставимый с частотной модулнцией в технических системах связи, обнаружен в рецепторах всех модальностей: в мышечных веретенах, в кожных рецепторах давления, в хеморецепторах языка н фоторецепторах сетчатки носителем информации является частота ттервньтх импульсов.
Поскольку афферентные волокна определенных рецепторов связаны с определенными клетками ЦНС, информация, содержащаяся в потоке импульсов, расшифровывается соответствующим образом. Например, 84 яу. Циммерман« 2. Нейрофизиология сенсорных систем 1О 12-81 Ф о о а с 5 о о с э 0 0 0,5 1,О Интенсивность стимула 1,5 и (2-91 1=!082((' г+!). Рис. 2-!9.
Кодирование иитеисивиссги стимула (абсцисса) нервными импульсамв (орднната). Длительность каждого стнмула фиксирована. В качестве пратера взят механорецептор, подвергаемый действию силы (измеряемой в ньютонах!. Характеристическая кривая процесса кодирования имеет форму леспгвцы (красная линия). афференты 1а оканчиваются на гомонимных мотонейронах, а механочувствительные кожные афференты проецируются в постцентральную извилину. Передача информации идеальным рецептором.
Каким образом мы можем различить по сериям импульсов, посылаемых рецептором, те состояния, которые позволят описать содержащуюся информацию? Рассмотрим сначала кодирование интенсивности стимула. Если на определенном отрезке времени стимулируемый рецептор либо не выдает импульсов„либо генерирует один импульс, то он может обеспечить передачу информации только о двух уровнях интенсивности стимула. В этом случае отсутствие потенциалов действия означает, что «интенсивность стимула ниже порога», а один потенциал действия- что «интенсивность стимула выше порога».
Если возможное число импульсов составляет О, 1 и 2, то элемент-потребитель в такой системе получит информацию, достаточную для различения трех уровней стимуляции. Если стимул может возбуждать в афферентном волокне до )у' импульсов, то рецептор теоретически может сигнализировать в ЦНС об !у'+ 1 уровнях интенгивности.
Иллюстрация к такой ситуации дана на рис. 2-19. Число импульсов гц в афферентном волокне (ордината) может принимать только целые значения. По этой причине кривая, соотносящая интенсивность стимула (абсцисса) с числом импульсов, имеет форму лестницы. У идеального рецелтора, который реагирует на неизменный стимул постоянной частотой разряда, число импульсов (у' равно произведению частоты разряда 2' на вРемя наблюдения н !я' = !' !.
Значит, максимальное число уровней интенсивности стимула, различимых по активности одного нервного волокна, равно )ц + 1 =(' . г + 1, где1 — максимальная частота разряда рецептора. В случае рецептора со спонтанной частотой разрядаА (в отсутствие какого бы то ни было обнаружимого внешнего стимула) в [2-8] и во всех последующих выражениях 3„ следует заменить на 1 — А. Таким образом, в данном случае число имеющихся в наличии символов это число различимых состояний активности афферентного волокна.
Следовательно, количество информации об интенсивности стимула в примере рис. 2-19 равно 1 = !ойх()у' + 1) = !о8, 10= 3,3 бита. В обгцем случае для идеального рецептора, у которого частота разряда определяется стимулом, содержание в этом разряде информации относительно интенсивности стимула вычисляется по формуле Это соотношение между 1, 1' и временем наблюдения ! показано графически на рнс. 2-20. Очевидно, что количество информации 1 возрастает как с увеличением /, так и с увеличением !.