Радушкевич Л.В. Курс статистической физики (1185139), страница 25
Текст из файла (страница 25)
Следовательно, общая энтропия системы может не только возрастать, но может и убывать. Отсюда следует, что должны наблюдаться реаль. ные отступления от второго начала. 2) По достижении максимально вероятного состояния в системе остаются флюктуации, которые совершенно не предусматриваются обычной термодинамикой, считающей, что при максимуме энтропии все изменения системы прекращаются. Причина, вследствие которой в практических условиях всегда обеспечивается точное выполнение второго начала, состоит в том, что в обычных условиях, соответствующих термодинамическому описанию, рассматриваются лишь макрвскопическне величины, представляющие собой с точки зрения статистики среднее из огромного числа значений, относящихся к частицам микромира. В результате этот закон приобретает кажущийся непреложный характер. $ 7. Связь втврвгв начала тармвдннамнкн в твврнай ннфврмацнн Вопрос о статистическом смысле второго начала термодина.
мики в настоящее время получил дальнейшее развитие в современной теории информации, где рассматривается другой 128 Глава П. Статистическая физика, меяаника и термодинамика подход к этому закону. Тесная связь теории информации состатистической физикой и ее методами является неоспоримой, что неоднократно подчеркивалось 1; поэтому целесообразно здесь коснуться общих основ этой теории, не затрагивая ее многочисленных приложений в технике и в практике. В основе теории информации лежит представление о количестве информации.
В реальных физических системах, состоящих из большого числа частей, всегда имеется неопределенность свойств (параметров состояния), о чем мы уже неоднократно говорили. При решении многих вопросов практики, например, в области теории сообщений также всегда имеется недостаточная полнота сведений об изучаемой системе. Говоря о том, что мы не можем точно знать состояние молекул газа или электронов в металле, мы считаем, что не имеем нужной нам информации о системе и можем получать лишь некоторые сведения об ее состоянии.
Число ответов «до» испытания (или опыта) по отношению к системе обозначим как ид,', после проведения опытов по изучению системы, она тоже, как правило, остается еще неопределенной, но теперь число ответов на вопросы о системе становится меньшим и составляет и„,л„причем ид,>и„,, Это означает практически, что после испытания получена некоторая положительная информация осистеме. Оценивая количество информации, естественно считать, что это количество Р должно быть всегда положительной безразмерной величиной и должно обладать свойством аддитивности, т. е.
информация от нескольких рядов испытания должна быть суммой количеств информации в каждом испытании. Этим требованиям удовлетворяет простейшее определение количества информации как логарифма отношения идо и и „„, т. е. Р=1п идо/ииосле. Так как ид,>иа„„„то Р положительно и обладает свойством аддитивности, как логарифмическая функция. Простейшие примеры показывают, что Р непосредственно связано с априорными вероятностями. Рассмотрим бросание монеты.
Здесь число возможных исходов или ответов до бросания равно ид,— — 2, тогда как после опыта ответ один: и„,,= 1. Следовательно, количество информации равно: Р=!п т/т= — 1п '/з. При бросании кубика имеем: идо 6, а иаосде 1 и потому Р=1п е/т= — 1и '/а. ~ Л. Бр иллюэи, Наука и теория икформации, Физматгиз, М., Г960. э" 7. Связь второго начала термодинамики с теорией информации 129 Но как раз эти дроби '/т и '/е составляют вероятности тр событий — исходов. Поэтому в соответствии с определением Р можно написать: Р= — 1п тр.
Так как и ( 1, то, очевидно, Р>0. Наиболее принципиально важным является изменение количества информации в изолированной системе с течением времени. В ней возможны процессы, ведущие к появлению нового количества информации, но также и случаи, когда количество информации в отдельных частях системы уменьшается. Возникает вопрос о том, какие процессы преобладают и как должна изменяться система. Заметим, что пока мы точно не устанавливали, о какой системе идет речь. Это может быть набор сигналов, переданных по каналам связи (рассматриваемых как изолированная система), но может быть совокупность молекул в теле; теория информации не обязательно должна быть связана с деятельностью человека, а имеет общее объективное значение.
Мы ограничимся здесь лишь физическими системами и покажем, что количество информации в них изменяется соответственно ходу энтропии. Состояние физической системы, представляющей собой совокупность большого числа частиц (молекул), изменяется со временем, причем, как мы видели, то или иное состояние реализуется с разной вероятностью трд. С точки зрения теории информации в такой системе всегда имеется неопределенность ее параметров состояния и эта неопределенность связана с разным количеством информации, так что каждому состоянию отвечает количество информации Рд= — 1п гад.
Связь теории информации со статистикой дала возможность Шеннену для сложных систем ввести количество информации как выражение: Р= — ~тря!и ш». Смысл этого соотношения сводится к среднему количеству информации в системе, где имеется множество состояний с разными вероятностями (по правилу нахождения среднего), Эта формула Шеннена широко применяется в практике и тех. нике сообщений. Обращаясь к нашей изолированной физи. ческой системе, мы легко заметим, что среднее количество ин формации Р, выражаемое написанной выше формулой, вполне аналогично общему выражению Н-функции (2,12'), Таким 9 Л.
в. рьяушкеьнь 139 Глава П. Статистическая фиэика, механика и термодинамика образом, можно принять, что эта функция в статистической физике представляет собой среднюю меру количества информации. Учитывая, что всегда тра<1, и вводя в формулу (2,12) знак минус, мы приходим к выводу, что в сложной изолированной системе Н-функция представляет собой среднее количество информации, т. е. Н=Р. В таком случае выведенная ранее формула (2,12) может быть представлена как 5= — йН= — ке. Этим соотношением устанавливается однозначная связь энтропии и количества информации и получается новое общее выражение второго начала. Так как А>0 н Р>0, то энтропия о и информация Р различаются знаками.
Это дало повод рассматривать количество информации как отрицательную энтропию или «негэнтропию». Обращаясь вновь к статистическому смыслу второго начала термодинамики, мы видим, что росту энтропии системы отвечает убыль общего количества информации. Функции 5 и Н=Р изменяются со временем так, как показано на рисунке 15. Для всякой системы ход количества информации аналогичен показанному на рисунке 16.
Если начальное состояние характеризуется большим количеством информации, то потом эта величина убывает и далее идут флюктуации, при которых возможны редкие подъемы величины Р. Иначе говоря, система переходит от более упорядоченногосостояния к относительному беспорядку, отвечающему маломуколичеству информации. Поэтому Бриллюэн считает, что «энтропия есть мера недостатка информации».
Говоря о передаче сообщений, Винер пишет, что «группы сигналов, подобно группам состояния внешнего мира, возможно трактовать как группы, обладающие энтропией. Как энтропия есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации», т. е. «чем более вероятно сообщение, тем меньше оно содержит информации»'. Установление тесной связи теории информациисмолекулярвой статистикой привлекло внимание ученых к введенному еще в 1871 г.
Максвеллом так называемому демону, который представляет собой воображаемое существо, способное осуществлять отступления от второго закона термодинамики. Представим себе закрытый сосуд, разделенный перетородкой на две части, причем в перегородке имеется отверстие, которое можно открывать или закрывать «дверцей».
Сначала в одной части ' Н, Винер, Кибернетика и общество, иэд. ИЛ, М., 1953, стр. 34. р' 7. Связь второго начала термодинамики с теорией ингрормации 131 сосуда имеется газ, а в другой — вакуум. Демон, находящийся вблизи перегородки, выпускает через отверстие быструю молекулу во второе отделение сосуда, а перед медленными молекулами закрывает дверцу В результате такой сепарации, или разделения, демон может осуществить конечную разность температур без затраты работы извне, т. е. нарушить второй закон термодинамики.
При современном высоком уровне эксперимента это нарушение представляется реальным. Например, те устройства, которые были описаны на стр. 38 — 40 и выполнены для подтверждения закона Максвелла и которые приводят к сортировке молекул, казалось бы, осуществляют такие нарушения. Однако детальное обсуждение действия демона Максвелла на основе современной статистики и теории информации показывает, что эти нарушения являются кажущимися. Во-первых, сам демон или заменяющие его устройства являются материальными телами, состоящими из атомов н молекул, которым свойственно беспорядочное тепловое движение; оно может проявляться в виде броуновских движений или колебаний. Энергия этих движений соизмерима с энергией сортируемых молекул газа и неизбежный обмен двух родов частиц (газа и демона) должен нарушать скорость сортируемых молекул; при этом надо иметь в виду, что сам демон потребляет энергию от окружающих тел.