Терлецкий Я.П. Статистическая физика (1994) (Терлецкий Я.П. Статистическая физика (1994).djvu), страница 53
Описание файла
DJVU-файл из архива "Терлецкий Я.П. Статистическая физика (1994).djvu", который расположен в категории "". Всё это находится в предмете "физические основы механики" из 9 семестр (1 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 53 - страница
(88.1)], поскольку статистический вес ЬГ не является столь четко статистически определенной величиной, как плотность вероятности 7е (Х) 1см. (88.1)). Определение энтропии через статыстыческый вес можно рассматривать как уточнеыне распространенного в элементарных учебниках молекулярной физики ее определения через величину, пропорциональную логарифму вероятности: Я=к 1пр. (88.8) В этой формуле, впервые написанной Планком в 1906 г. ы названной ым формулой Больцмана, Р не является, однако, истинной вероятностью. Плаык назвал эту величину термодинамической вероятностью. Больцман пользовался термыыом ретти1аййййй а в нашей литературе ее принято называть статистическим весом, т.
е. отождествлять формулу (88.8) с (88.4), полагая ЬГ= Р*». Статистический вес Р всегда заведомо больше единицы ы может отождествляться с вероятностью только в том смысле, что он пропорционален ей тогда, когда все возможные тождественные с макроскопыческой точки зрения мыкроскопнческые состояния счытаются априори равновесными. Итак, для равновесных систем можно пользоваться как гиббсовским, так и больцмановским определениями энтропии, однако гиббсовское определение (88.8) с теоретико-вероятностной точки зрения более логично и мы отдаем ему предпочтение. Преимущества гыббсовского определения энтропии особенно очевидны пры переходе к неравновесным состояниям. Выражение (88.1), согласно Гыббсу, определяет статистическую энтропыю для любых ы(Х), как равновесных, так ы неравновесных.
Определение (88.5) для.нерав- »Лоренц Г. Л. Статистические теории а термодииамике. М. — Л., 1935. »»Наиболее последовательно величина Р опредевкетсв длв квавтовой системы как число дискретиык микросостовввй, при которыл сисе»ма имеет макроскопические параметры, равные с точиосгью до флуктуапвй ил термодвиамичесаи раввовесвым эвачевввм. 317 новесных состояний не может быть использовано без дополнительного уточнения определения статистического веса.
Но последовател но определить статистический вес неравновесного состояния возможно лишь используя сведения о виде з» (Х). Поэтому для неравновесных состояний обычно используется гиббсовское определение (88.1), а не менее определенное больцмановское (88.8) или (88.4). Гиббсовское определение (88.1) необходимо лишь дополнить требованием огрубления функции гв (Х), т. е.
заменой гв (Х) на гое (Х), согласно формуле (86.2), в тех случаях, когда нас интересует изменение энтропии со временем. Однако замену ге (Х) на зае (Х) можно и не делать, если рассматриваетсл неравновесное состояние в фиксированньгй момент временна. Итак, будем исходить из наиболее общего гиббсовского определения энтропии неравновесных состояний вероятности можно представить в виде 81Р— Р(х)1 гег(Х) =зее(Х) ю'(р) (88.10) где еПри достаточно гладкой е начальный момент времеви фуакцав н (Х) операцва огрублении (86.2) даст функциго ве (Х), незначительно отличагопвчоса от в (Х), если злемевт фазового пространства азу...ае, внутри которого проюеодвтсл усредневае н(Х), достаточно мал.
еедлк квантовой системы гле И", 2,'к„е Иг, геа — матРица огРУолеввл. З|8 (88.9) заменяя это определение более простым (88.1) при исследовании неравновесных состоянвй в фиксированный момент времени. Перейдем к вопросу об определении плотности вероятности неравновесных состояний.
Расяределение вероятностей для любого неравновесного состояния отличается от равновесного расяределения заданием некоторых дополншпельных параметров, т. е. более точным знанием физических величин. В идельном случае, если измерения дают нам точное знание некоторой физической величины Р(Х) =Р, а об остальных величинах известно лишь то, что они имеют средние значения, совпадающие со статистическим по некоторому равновесному ансамблю ве(Х), неравновесную плотность ;по(Х) =~8(Г) ~,(Х) пГ=,(Х) х(г(х)1 ы'[Г(х)1 Очевидно, в по (Х) совпадает с во (Х) в том случае, если я(Г) = = 1Р'(Г), т. е.
о величине Г (Х) не имеется никаких дополнительных сведений, кроме тех, которые содержатся в распределении вероятностей равновесного ансамбля. Таким образом, неравновесные статистические ансамбли содержат больше сведений или информацыы о системе, чем равновесные, и в этом состоит их основное отличие. Но неравновесным ансамблям всегда соответствует меньшая энтропия, чем равновесным. Это можно доказать для ряда конкретных распределений. Пусть исходным равновесным распределением ео(Х) является распределение (88.4), переходящее в микроканоническое при ЬЕ- О.
При таком распределенын плотность вероятности отлична от нуля и равна (1/11)ЬЕ выутри области фазового пространства объема ЬГ=ГоАЕ и равна нулю вне этой области. Рассмотрим другое неравновесное распределение: в (Х) = Ф (Х) во (Х). (88.13) Для этого распределения внутри областы ЬГ в (Х) = Ф (Х) —, 1 ЬГ (88.14) а вне этой области в (Х) = О. В силу условий нормировки имеем ) в (Х) ЙХ= )' и о (Х) ЙХ= 1. (88.15) Используя это условие и доказанное в 8 86 неравенство (86.12), получаем ( 1Ви(Х) и(Х) ОХ- ( 1.юо(Х) юО(Х) ОХ= = ) 1)п®(Х) '®(Х) — 1пво(Х) и~о(Х)+ооо(Х)-» (ХА ЙХ= 319 Ю'(Г)= ~ 6(à — Г(ХА,(Х) ОХ пп — плотность вероятыосги величине Г(Х) иметь заданное значеыие Г [см.
(2.37)], появляющаяся в формуле (88.10) в силу условны нормировки. Если же величина Г известна не точно, а с некоторой плотностью вероятносты я (Г), то вместо (88.10) можно записать е(х) е(х) 1 ~ ~ Ф(ХД 1п — — — 1п — — + — — — дХ= аг аг аг аг ьг Ьà — 1 [1пФ(Х)Ф(Х)+1 — Ф(Х)) дХ~>0. аг Таким образом, мы доказали неравенство 1 1лв(Х) 'и (Х) ЙХ>~ 1пиь(Х) 'юь (Х) ЙХ, т. е. в соответствии с (88.1) Я Оо.
(88.16) (88.17) Ю = ( — г ) - ( — Хь) = г -Л (88.18) можно определить как информацию о системе относительно вели- чины Е Следовательно, согласно (88.1), эту информацию можно определить так же, как у,=й() р,(Х))в,(Х) бх- ) р ь(ХЛ,(Х) бх, (8819) 1(х> КхЗ или для квантовой системы Аналогичным путем неравенство (88.17) можно доказать и для иасодного канонического равновесного распределения.
В этом случае необходимо, однако, использовать дополнительное условие, чтобы средняя энергия неравновесного распределения была равна средней энергии по равновесному распределению. Таким образом, неравновесным ансамблям соответствует меньшая энтрония, чем равновесным. Но неравновесный ансамбль содержит большую информацию о системе, чем равновесный. Следовательно, чем меньше энтропия, тем большую информаиию можно иметь о системе. Поэтому отрицательную энтропию, или негаэнтропию, можно рас: сматривать как меру возможной информации о системе.
Поскольку равновесное состояние содержит минимальную нега-. энтропию, постольку в в, (Х) содержится и минимальное количество информации о системе. Поэтому за начало отсчета количественной меры информации можно принять негаэнтропию равновесного состояния (-Я,). Тогда, обозначая через ( — Ях) негаэвтропию неравновесного состояния, задаваемого фиксацией физической величины Г, величину где И'1г~ и 57' — вероятности состояния при дополнительном фнкснрованын величины р и в состоянви равновесия. Введенное таким путем понятие информации полностью совпадает с поыятыем информации вводимой в кыбернетвке, т.
е. в общей теории связв ы управлении. Максимально возможная информация, передаваемая прн помощи какой-либо совокупности сигналов, также определяется формулой (88.19), причем за равновесное состояние принимается естественный шум, вызываемый тепловыми флуктуацыямы. Таким образом, всякую передачу негаэнтропиы в термодинамически~татнстнческом смысле мы можем рассматривать как передачу некоторой информации в кибернетическом смысле. И наоборот, передачу внформацны при помощи сигналов надо рассматривать как процесс передачи негаэнтропви от передатчика к прыемывку.
Следовательно, только такой физический процесс может быть использован для сигнализации, который переносит негаэнтропню. Установленная выше ееяэь энтропии с информацией вадчеркиеает статистический характер эитроиии. Энтропия, как и всякаа величина, определяемая статистически через вероятности, имеет относительный характер. Нельзя спрашивать: какова энтропия этой сыстемыу, — ые оговаривая одновремеыно тех сведеывй, которые у нас имеются об этой системе. Если нам априори взвестно, что система находится в равновесном состоянии, то, интересуясь ее энтропией, мы имеем в виду ее равновесную энтропию.
Если же о системе у нас ымеются дополнительные сведения и мы намерены использовать этв сведения, то можно интересоваться неравновесной энтропией системы, прн этом существенно то, что потеря (забывание) этих сведений нлы просто нх игнорирование прнводнт к ыному (равновесному) значению эвтропын. И в этом нет ничего удивительного, так как вообще в теории вероятностей вероятности мгыовеныо переоцениваются, как только мы пожелаем использовать дополнительные сведения, полученные нз наблюдений. Это скачкообразное изменение таких, казалось бы, чисто фвзвческых величин, как энтропия, только в результате ызмевеныя нашего желания использовать дополнительные сведения происходит вследетвве того, что любая статистическая теория есть лишь особый, вероятностный способ познания объективных закономерностей природы, т.
е. особый, статистический способ отраженны в нашем сознаннв возможных объективных, протекаюпшх независимо от нашего сознании физических процессов. 89. Эвтроывя как двыамвческая переменная Ранее мы выяснвлн, что с термодннамвческой точки зрения проызведенве ТоБ имеет смысл элементарной работы молекуляр- зз1 и-~ю ных свл молекул термостата, соприкасающихся через диатермическую перегородку с молекулами исследуемой системы.
Таким образом, Т имеет смысл некоторой обобщенной сипы, а Я вЂ” обобщенной координаты. Возникает поэтому желание истолковать энтрошпо о как среднее от некоторой динамической переменной— обобщенной кординаты, а температуру — как сопрюкенную этой коордннате силу. Осуществляя зто стремпенне, необходимо дать такое статистическое определение энтропии как динамической переменной, которое не противоречило бы гиббсовскому определению (88.1) и удовлетворяло закону возрастания энтропии без дополнительных допущений типа (86.1) и (86.2) об огрублении фазовой функции распределения. Такое определение недавно было предложено Нгуен Тангоме.