Терлецкий Я.П. Статистическая физика (1973) (1185097), страница 26
Текст из файла (страница 26)
В отличие от термодинамики, где энтропия представляется как один из термодинамических параметров, подобный внутренней энергии или термодинамическому потенциалу, однозначно определяющих объективное состояние системы, в статистической физике энтропия является статистической характеристикой состояния, завися~пей от совокупности сведений о системе. Иначе говоря, статистическая энтропия системы зависит от информации о системе, имеющейся в нашем распоряжении, Рассмотрим эту связь энтропии и информации более детально. Начнем с анализа статистических выражений энтропии. Согласно Гиббсу (см.
3 12), для равновесных состояний энтропия определяется как 5 = — 7е ~ (! п ш (Х)1 и (Х) т(Х, " (38.1) т. е. как величина, пропорциональная среднему значению логарифма вероятности: 5 = — Й1п гн. (38.2) Это выражение удовлетворяет соотношению, точно совпадаюгцему с основным дифференциальным соотношением термодинамики (1.4), если в качестве плотности вероятности ги (Х) выбрать каноническое распределение (11.27), как это было выяснено в конце 3 12. Такое точное совпадение не получается, однако, для других равновесных распределений. Так, например, для распределения гн(Х) = тт а~Д~ а8 ' ~, (38.4) * для квантовых систем, согласно я 40, энтропия определяется как Б= — л ~з„[!п 1Рг) Кь 167 стремящегося, согласно (15.6), к микроканоническому при ЛŠ— О, из формулы (38.1) находим Е = )с 1п (2 ЛЕ) = )е 1п ЛГ, (38.5) где ЛГ= --ЛŠ— объем слоя фазового пространства, задг ключенного между поверхностями Н (Х, а) =- Е и Н (Х, а)=- = Е + ЛЕ.
Но, с другой стороны, нам известно, что для микроканонического распределения не выражение (38.5), а выражение (10.13), т. е. Я = )е !п Г, (38.6) точно удовлетворяет соотношению (!.4). Следовательно, (35.5) не удовлетворяет основному дифференциальному соотношению (1.4). Легко, однако, показать, что для аддитивных систем, с которыми имеет дело термодинамика, при У вЂ” выражения (38.5) и (38.6) отличаются лишь на пренебрежимо малое слагаемое и, тем самым, выражения (38.5) и (38.6) практически удовлетворяют одному и тому же дифференциальному соотношению (1.4).
Действительно, в силу того, что для аддитивных систем ь) (Е) возрастает как степенная функция Е с показателем степени, пропорциональным числу частиц, величины 1п Г и 1п ЛГ отличаются на несущественную величину. Так, например, согласно (11.17), для идеальз ного газа Г (Е) счз Е' откуда 1и ЛГ =!п Г+! и (- — -~1. (38. 7) Первое слагаемое правой части этой формулы пропорционально Л~, в то время, как второе зависит от Ж только под знаком логарифма. Следовательно, при достаточно больших Л' вторым слагаемым всегда можно пренебречь ". Тем самым устраняется противоречие между формулами (38.5) и (38.6).
На свойство «нечувствительности» формулы (38.9) к некоторому произволу в определении статистического веса обратил внимание еще Г. А. Лоренц **. * Величина ЛЕ!Е также может быть выбрана зависящей от И. 1 Естественно, однако, считать ЛЕУЕ У в соответствии с (13.7). Но в этом случае, сделанное выше заключение остается в силе.
"* Г. А. Л о р е н ц. Статистические теории в термодинамике. ОНТИ, М.— Л., 1933. 163 Таким образом, для любых термодинамических аддитивных систем гиббсовское выражение (38.1) может рассматриваться как наиболее общее статистическое определение энтропии. Однако с таким же основанием и выражение вида (38.5) может рассматриваться как исходное. Действительно, понимая под КЕ среднее квадратичное уклонение энергии Л (Е), обусловленное флуктуациями, и называя сталтистическиде весом величину ЛГ = 2 Л (Е), энтропию системы можно определить как величину, пропорциональную логарифаиу статистического веса.
Такое определение энтропии выбрано, например, в курсе Л. Ландау и Е. Лифшица ". С чисто статистической точки зрения определять энтропию как константу Больцмана, умноженную на логарифм статистического веса, менее, однако, последовательно, чем определять ее по Гиббсу формулой (38,!), поскольку статистический вес ЛГ не является столь четко статистически определенной величиной, как плотность вероятности со (Х), входящая в (38.1). Определение энтропии через статистический вес можно рассматривать как уточнение распространенного в элементарных учебниках молекулярной физики ее определения как величины, пропорциональной логарифму вероятности, т. е.
5 = й 1п Р. (38.8) В этой формуле, впервые написанной Планком в 1906 г. и названной им формулой Больцмана, Р не является, однако, истинной вероятностью. Планк назвал эту величину термодинамической вероятностью. Больцман пользовался термином Регшп1аЫ11(а1, а в нашей литературе ее принято называть статистическим весом, т. е.
отождествлять формулу (38.8) с формулой (38.5), полагая ЛГ = Р **. Статистический вес Р всегда заведомо больше единицы и может отождествляться с вероятностью только в том смысле, что он пропорционален ей тогда, когда все возможные тождсствсииыс с макроскопнчсской точки зрсния микроскопи. ческие состояния считаются априори равновероятными.
Итак, для равновесных систем можно пользоваться как гиббсовским, так и больцмановским определениями энтро- * Л. Л а н д а у и Е. Л и ф ш и ц. Статистическая физика. М, <Наукам Г964, "* Наиболее последовательно величина Р определяется для квантовой системы как число дискретных микросостояний, при которых система имеет макроскопические параметры, равные с точностью до флуктуаций их термодинамически равновесным значениям. пни, однако гиббсовское определение (38.1) с теоретико- вероятностной точки зрения более логично и мы отдаем ему предпочтение. Преимущества гиббсовского определения энтропии особенно очевидны при переходе к неравновесным состояниям. Выражение (38.1), согласно Гиббсу, определяет статистическую энтропию для любых ги (Х) как равновесных, так и неравновесных.
Определение же (38.5) для неравновесных состояний не может быть использовано без дополнительного уточнения определения статистического веса. Но последовательно определить статистический вес неравновесного состояния возможно лишь используя сведения о виде пз (Х). Поэтому для неравновесных состояний обычно используется гиббсовское определение (38,1), а не менее определенное больцмаиовское (38.8), или (38,5). Гиббсовское определение (38.1) необходимо лишь дополнить требованием огрубления функции пз (Х), т. е. заменой гр (Х) на гп" (Х), согласно формуле (36.2), в тех случаях, когда нас интересует изменение энтропии со временем.
Однако замену гп (Х) на юе (Х) можно и не делать, если рассматривается неравновесное состояние в фиксированный момент времени *. Итак, будем исходить из наиболее общего гиббсовского определения энтропии неравновесных состояний: 5* = — Д1п го*, *е (38.9) заменяя это определение более простым (38.1) при исследовании неравновесных состояний в фиксированный момент времени. Перейдем к вопросу об определении плотности вероятности неравновесных состояний. Распределение вероятностей для любого неравновесного состояния отличается от равновесного распределения заданием некоторых дополнительных параметров, т.
е. более точным знанием этих физических величин. В идеальном " При достаточно гладкой а начальный момент времени функции ю (Х) операция огрубления (36.2) даст функцию ю* (Л), незначи. тельно отличающуюся от ю (Х), если элемент фазоаого пространстаа ЬзЛз ... Лю внутри которого производится усреднение ю (Х), достаточно мал. "" Для квантовой системы, очевидно, Ве= — й ~(!о(рц аг;з, где )Ре — — ~ум,Кю, я ~ — л1атрица огрубления. 170 случае, если измерения дают нам точное знание некоторой физической величины г (Х) = Р, а об остальных величинах известно лишь то, что они имеют средние значения, совпадающие со статистическими средними по некоторому равновесному ансамблю ы, (Х), неравновесную плотность вероятности можно представить в виде б [д — Р (хй шг(Х) =ша(Х) (38.
10) где %' (Р) = ~ б [Р— Р (Х)) шо (Х) дХ (38 11) есть плотность вероятности величине Р (Х) иметь заданное значение Р (см. формулу (2.37)), и появляется в формуле (38.10) в силу условия нормировки. Если же величина Р известна не точно, а с некоторой плотностью вероятности д (Р), то вместо (38.10) можно написать юа~г~(Х)= ~ д(Е) ша(Х) ЛЕ=ш„(Х) ~~ „. (38,!2) Ф Очевидно, шх <гч (Х) совпадает с в, (Х) в том случае, если д (г) =- %' (г), т. е. о величине г' (Х) не имеется никаких дополнительных сведений, кроме тех, которые содержатся в распределении вероятностей равновесного ансамбля.
Таким образом, неравновесные статистические ансамбли содержат больше сведений или информации о системе, чем равновесные, и в этом состоит их основное отличие. Но неравновесным ансамблям всегда соответствует меньшая энтропия, чем равновесным Это можно доказать для ряда конкретных распределений. Пусть исходным равновесным распределением ш, (Х) является распределение (38.4), переходящее в микроканоническое при бЕ -+ О. При таком распределении плотность вероятности отлична от нуля и равна 1)И .ЬЕ внутри области фазового пространства объема ЛГ = 11 ЬЕ и равна нулю вне этой области. Рассмотрим другое неравновесное распределение ш (Х) = Ф (Х)ш„(Х).