V.-Статистическая-физика-часть-1 (Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах), страница 9
Описание файла
Файл "V.-Статистическая-физика-часть-1" внутри архива находится в папке "Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах". DJVU-файл из архива "Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах", который расположен в категории "". Всё это находится в предмете "физика" из 1 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .
Просмотр DJVU-файла онлайн
Распознанный текст из DJVU-файла, 9 - страница
Однозначными величинами, не зависящими от выбора единиц, являются при этом лишь разности энтропий, т. е. изменения энтропии при том или ином процессе. С этим обстоятельством и связано появление квантовой постоянной 6 в определении (7.8) энтропии для классической статистики. Лишь понятие о числе дискретных квантовых состояний, неизбежно связанное с отличной от нуля квантовой постоянной, позволяет ввести безразмерный статистический вес и тем самым определить энтропию как вполне однозначную величину. Напишем определение энтропии в другом виде, выразив ее непосредственно через функцию распределения. Согласно (6.4) логарифм функции распределения подсистемы имеет вид 1пю(ЕВ) = Гт+ рЕВ.
Ввиду линейности этого выражения по .Е„, величина 1пю(Е) = г«+ ~1Е энтгопия может быть написана и как среднее значение (1пи>(Еп)). Поэтому энтропию о = 1псхГ = — 1пю(Е) (согласно (7.3)) можно написать в виде б' = — (1ггю(Еп)), (7.9) т.е. можно определить энтропию как (взятое с обратным знаком) среднее значение логарифма функции распределения подсистемы. По смыслу среднего значения имеем о' = — ~ ю„1ггю„; о (7.10) это выражение можно написать в общем операторном виде, не зависящем от выбора системы волновых функций, с помощью которых определяются элементы статистической матрицы'); о' = — 'ор1ю 1пю).
(7.11) Аналогичным образом в классической статистике определение энтропии может быть написано в виде о = — (1п~(2яй)'р)) = — р1п~(2>г6)'р] г1рдд. (7.12) Вернемся теперь к замкнутой системс в целом, и пусть гаГО ЬГв,... статистические веса ее различных подсистем. Если каждая из подсистем может находиться в одном из ЬГ квантовых состояний, то этому, очевидно, соответствует = ПЛГ. а (7.13) различных состояний системы в целом.
Эта, величина называется статистическим весом, а ее логарифм энтропией о' замкнутой системы. Ясно, что (7.14) а т. е. определенная таким образом энтропия является величиной аддитивной: энтропия сложной системы равна сумме энтропий ее частей.
Для ясного понимания способа определения энтропии важно иметь в виду следующее обстоятельство. Энтропию замкнутой ') Оператор 1п ю в соответствии с общими правилами надо понимать как оператор, собственныо значения которого равны логарифмам собственных значений оператора ю, а собственные функции совпадают с собственными функциями последнего.
44 основныв пвинпипы стлтистики гл 1 системы (полную энергию которой обозначим как Ев), находящейся в полном статистическом равновесии, можно определить и непосредственно, не прибегая к разделению системы на подсистемы. Для этого представим себе, что рассматриваемая система является в действительности лишь малой частью некоторой воображаемой очень болыпой системы (о которой в этой связи говорят как о термосгпагпе). Термостат предполагается находящимся в полном равновесии, причем таком, чтобы средняя энергия нашей системы (являющейся теперь незамкнутой подсистемой термостата) как раз совпадала с истинным значением энергии Ьш Тогда можно формально приписать нашей системе функцию распределения того же вида, что и для всякой ее подсистемы, и с помощью этого распределения определить ее статистический вес ЬГ, а с ним и энтропию, непосредственно по тем же формулам (7.3)-(7.12), которыми мы пользовались для подсистем.
Ясно, что наличие термостата вообще не сказывается на статистических свойствах отдельных малых частей (подсистем) нашей системы, которые и без того незамкнуты и находятся в равновесии с остальными частями системы. Поэтому наличие термостата не изменит статистических весов ЬГ„ этих частей, и определенный только что указанным способом статистический вес будет совпадать с прежним определением в виде произведения (7.13). До сих пор мы предполагали, что замкнутая система находится в полном статистическом равновесии. Теперь следует обобщить сделанные определения на системы, находящиеся в произвольных макроскопических состояниях (неполных равновесиях).
Итак, предположим, что система находится в некотором неполном равновесии и будем рассматривать ес в течение промежутков времени Ы, малых по сравнению со временем релаксации полного равновесия. Тогда для определения энтропии надо поступить следующим образом. Разделим мысленно систему на части, настолько малые, что их собственные времена релаксации оказались бы малыми по сравнению с промежутками времени Ы (напомним, что времена релаксации, вообще говоря, уменьшаются с уменьшением размеров системы). Такие подсистемы можно считать находящимися в течение времени Ы в некоторых своих частных равновесиях, описывающихся определенными функциями распределения. Поэтому к ним можно применить прежнее определение статистических весов ЬГ, и, таким образом, вычислить их энтропии л,. Статистический вес ЬГ всей системы определяется затем как произведение (7.13) и, соответственно, энтропия Е как сумма энтропий Ев.
ЭНТРОПИЯ 45 Подчеркнем, однако, что энтропия неравновесной системы, определенная таким образом как сумма энтропий ее частей (удовлетворяющих поставленному выше условию), не может быть теперь вычислена с помощью представления о термостате без разделения системы на части. В то же время это определение вполне однозначно в том смысче, что дальнейшее разделение подсистем на еще более мелкие части не изменит значения эятропии, поскольку каждая подсистема уже находится сама по себе в своем «полном» равновесии. Следует в особенности обратить внимание на роль времени в определении энтропии. Энтропия есть величина, характеризующая средние свойства тела за некоторый отличный от нуля промежуток времени Ы.
Задав Ьг, мы должны для определения О' мысленно разделить тело па части, настолько малые, чтобы их собственные времена релаксации были малы по сравненин> с Ы. Поскольку в то же время эти части и сами должны быть макроскопическими, то ясно., что для слишком малых иятервалов Ы понятие энтропии вообще теряет смысл; в частности, нельзя говорить о мгновенном ее значении. Дав, таким образом, полное определение энтропии, обратимся теперь к выяснению важнейших свойств и основного физического смыгта этой величины.
Для этого надо привлечь микро- каноническое распределение, согласно которому для описания статистических свойств замкнутой системы можно пользоваться функцией распределения вида (6.6) дш = сопэс б(Š— Ее) П йГ,. а Здесь дГ, можно понимать как дифференциал функции Г„(Е), представляющей собой число квантовых состояний подсистемы с энергиями, меныпими или равными Е„:, перепишем дю в виде дю = сопв1 5(Š— Еэ) П 'йЕН. дЕ, (7.15) а Статистический вес ЬГ, по самому своему определению есть функция от средней энергии Е„подсистемы: то же относится и к О„= Б,(ЕР).
Будем теперь формально рассматривать ЬГ„ и Е, как функции истинного значения энергии Е, (ть же функ- ции, которыми они в действительности являются от Е„). Тогда мы можем заменить в (7.15) производные 6Г,(Е,)(ТИТЕ, отно- шениями ЬГ„/ЛЕН, где ЬГЯ понимаемая в указанном смы- сле функция от Е„а Ьń— соответствующий ЬГЯ интервал ооновныв пгинципы статистики значений энергии (тоже функция от Еа).
Наконец, заменив ЬГа на е ~ "), получим гйл = сопвб б(Š— Ео)е П ЬЕ,' (7.16) а где Я = ~ Яа(Е ) энтропия всей замкнутой сисгемы, понимаемая как функция точных значений энергий ее частей. Множитель е', в экспоненте которого стоит аддитивная величина, есть очень быстро меняющаяся функция энергий Еа. По сравнению с этой функцией зависимость от энергий величины П глЕа совершенно несущественна, и поэтому с очеяь болыпой точностью можно заменить (7.16) выражением ди) = сопн1 Б(Š— Ев)е.
П ИЕа. (7.17) а Но гйн, выраженное в виде, пропорциональном произведению дифференциалов всех ЙЕ„есть не что иное, как вероятность всем подсистемам иметь энергии, лежащие в заданных интервалах между Е, и Еа + МЕа. Таким образом, мы видим, что эта вероятность определяется энтропией системы как функцией энергий подсистем; множитель б(Š— Ес) обеспечивает равенство суммы Е = ~; Ь' заданному значению Ев энергии системы. Это свойство энтропии, как мы увидим в дальнейшем, лежит в основе ее статистических применений. Мы знаем, что наиболее вероятными значениями энергий Еа являются их средние значения Еа.
Это значит, что функция Я(ЕПЕэ,...) должна иметь при Еа = Еа максимально возможное (при заданном значении суммы ~ Еа = Ев) значение. Но Еа есть как раз те значения энергий подсистем, которые соответствуют полному статистическому равновесию системы. Таким обраюм, мы приходим к следующему важнейшему выводу: энтропия;замкнутой системы в состоянии полного статистического равновесия имеет наибольшее возможное (при заданной энергии системы) значение.
Наконец, укажем еще одно интересное истолкование функции Я = Я(Е) -- энтропии какой-либо подсистемы или замкну.- той системы (в последнем случае предполагается, что система находится в полном равновесии, в результате чего ее энтропия может быть выражена как функция от одной лишь ее полной энергии). Статистический вес ЬГ = е~~н) по самому своему определению есть число уровней энергии, приходящихся на интервал ааЕ, определенным образом характеризующий ширину распределения вероятностей по энергии. Разделив ааЕ на ааГ, 47 злкон возглстлния энтгопии мы получим среднее расстояние между соседними уровнями в данном участке (участок вблизи значения Е) энергетического спектра рассматриваемой системы.