V.-Статистическая-физика-часть-1 (Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах), страница 9

DJVU-файл V.-Статистическая-физика-часть-1 (Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах), страница 9 Физика (2508): Книга - 1 семестрV.-Статистическая-физика-часть-1 (Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах) - DJVU, страница 9 (2508) - СтудИзба2019-04-28СтудИзба

Описание файла

Файл "V.-Статистическая-физика-часть-1" внутри архива находится в папке "Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах". DJVU-файл из архива "Ландау Л.Д., Лифшиц Е.М. - Теоретическая физика в 10 томах", который расположен в категории "". Всё это находится в предмете "физика" из 1 семестр, которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр DJVU-файла онлайн

Распознанный текст из DJVU-файла, 9 - страница

Однозначными величинами, не зависящими от выбора единиц, являются при этом лишь разности энтропий, т. е. изменения энтропии при том или ином процессе. С этим обстоятельством и связано появление квантовой постоянной 6 в определении (7.8) энтропии для классической статистики. Лишь понятие о числе дискретных квантовых состояний, неизбежно связанное с отличной от нуля квантовой постоянной, позволяет ввести безразмерный статистический вес и тем самым определить энтропию как вполне однозначную величину. Напишем определение энтропии в другом виде, выразив ее непосредственно через функцию распределения. Согласно (6.4) логарифм функции распределения подсистемы имеет вид 1пю(ЕВ) = Гт+ рЕВ.

Ввиду линейности этого выражения по .Е„, величина 1пю(Е) = г«+ ~1Е энтгопия может быть написана и как среднее значение (1пи>(Еп)). Поэтому энтропию о = 1псхГ = — 1пю(Е) (согласно (7.3)) можно написать в виде б' = — (1ггю(Еп)), (7.9) т.е. можно определить энтропию как (взятое с обратным знаком) среднее значение логарифма функции распределения подсистемы. По смыслу среднего значения имеем о' = — ~ ю„1ггю„; о (7.10) это выражение можно написать в общем операторном виде, не зависящем от выбора системы волновых функций, с помощью которых определяются элементы статистической матрицы'); о' = — 'ор1ю 1пю).

(7.11) Аналогичным образом в классической статистике определение энтропии может быть написано в виде о = — (1п~(2яй)'р)) = — р1п~(2>г6)'р] г1рдд. (7.12) Вернемся теперь к замкнутой системс в целом, и пусть гаГО ЬГв,... статистические веса ее различных подсистем. Если каждая из подсистем может находиться в одном из ЬГ квантовых состояний, то этому, очевидно, соответствует = ПЛГ. а (7.13) различных состояний системы в целом.

Эта, величина называется статистическим весом, а ее логарифм энтропией о' замкнутой системы. Ясно, что (7.14) а т. е. определенная таким образом энтропия является величиной аддитивной: энтропия сложной системы равна сумме энтропий ее частей.

Для ясного понимания способа определения энтропии важно иметь в виду следующее обстоятельство. Энтропию замкнутой ') Оператор 1п ю в соответствии с общими правилами надо понимать как оператор, собственныо значения которого равны логарифмам собственных значений оператора ю, а собственные функции совпадают с собственными функциями последнего.

44 основныв пвинпипы стлтистики гл 1 системы (полную энергию которой обозначим как Ев), находящейся в полном статистическом равновесии, можно определить и непосредственно, не прибегая к разделению системы на подсистемы. Для этого представим себе, что рассматриваемая система является в действительности лишь малой частью некоторой воображаемой очень болыпой системы (о которой в этой связи говорят как о термосгпагпе). Термостат предполагается находящимся в полном равновесии, причем таком, чтобы средняя энергия нашей системы (являющейся теперь незамкнутой подсистемой термостата) как раз совпадала с истинным значением энергии Ьш Тогда можно формально приписать нашей системе функцию распределения того же вида, что и для всякой ее подсистемы, и с помощью этого распределения определить ее статистический вес ЬГ, а с ним и энтропию, непосредственно по тем же формулам (7.3)-(7.12), которыми мы пользовались для подсистем.

Ясно, что наличие термостата вообще не сказывается на статистических свойствах отдельных малых частей (подсистем) нашей системы, которые и без того незамкнуты и находятся в равновесии с остальными частями системы. Поэтому наличие термостата не изменит статистических весов ЬГ„ этих частей, и определенный только что указанным способом статистический вес будет совпадать с прежним определением в виде произведения (7.13). До сих пор мы предполагали, что замкнутая система находится в полном статистическом равновесии. Теперь следует обобщить сделанные определения на системы, находящиеся в произвольных макроскопических состояниях (неполных равновесиях).

Итак, предположим, что система находится в некотором неполном равновесии и будем рассматривать ес в течение промежутков времени Ы, малых по сравнению со временем релаксации полного равновесия. Тогда для определения энтропии надо поступить следующим образом. Разделим мысленно систему на части, настолько малые, что их собственные времена релаксации оказались бы малыми по сравнению с промежутками времени Ы (напомним, что времена релаксации, вообще говоря, уменьшаются с уменьшением размеров системы). Такие подсистемы можно считать находящимися в течение времени Ы в некоторых своих частных равновесиях, описывающихся определенными функциями распределения. Поэтому к ним можно применить прежнее определение статистических весов ЬГ, и, таким образом, вычислить их энтропии л,. Статистический вес ЬГ всей системы определяется затем как произведение (7.13) и, соответственно, энтропия Е как сумма энтропий Ев.

ЭНТРОПИЯ 45 Подчеркнем, однако, что энтропия неравновесной системы, определенная таким образом как сумма энтропий ее частей (удовлетворяющих поставленному выше условию), не может быть теперь вычислена с помощью представления о термостате без разделения системы на части. В то же время это определение вполне однозначно в том смысче, что дальнейшее разделение подсистем на еще более мелкие части не изменит значения эятропии, поскольку каждая подсистема уже находится сама по себе в своем «полном» равновесии. Следует в особенности обратить внимание на роль времени в определении энтропии. Энтропия есть величина, характеризующая средние свойства тела за некоторый отличный от нуля промежуток времени Ы.

Задав Ьг, мы должны для определения О' мысленно разделить тело па части, настолько малые, чтобы их собственные времена релаксации были малы по сравненин> с Ы. Поскольку в то же время эти части и сами должны быть макроскопическими, то ясно., что для слишком малых иятервалов Ы понятие энтропии вообще теряет смысл; в частности, нельзя говорить о мгновенном ее значении. Дав, таким образом, полное определение энтропии, обратимся теперь к выяснению важнейших свойств и основного физического смыгта этой величины.

Для этого надо привлечь микро- каноническое распределение, согласно которому для описания статистических свойств замкнутой системы можно пользоваться функцией распределения вида (6.6) дш = сопэс б(Š— Ее) П йГ,. а Здесь дГ, можно понимать как дифференциал функции Г„(Е), представляющей собой число квантовых состояний подсистемы с энергиями, меныпими или равными Е„:, перепишем дю в виде дю = сопв1 5(Š— Еэ) П 'йЕН. дЕ, (7.15) а Статистический вес ЬГ, по самому своему определению есть функция от средней энергии Е„подсистемы: то же относится и к О„= Б,(ЕР).

Будем теперь формально рассматривать ЬГ„ и Е, как функции истинного значения энергии Е, (ть же функ- ции, которыми они в действительности являются от Е„). Тогда мы можем заменить в (7.15) производные 6Г,(Е,)(ТИТЕ, отно- шениями ЬГ„/ЛЕН, где ЬГЯ понимаемая в указанном смы- сле функция от Е„а Ьń— соответствующий ЬГЯ интервал ооновныв пгинципы статистики значений энергии (тоже функция от Еа).

Наконец, заменив ЬГа на е ~ "), получим гйл = сопвб б(Š— Ео)е П ЬЕ,' (7.16) а где Я = ~ Яа(Е ) энтропия всей замкнутой сисгемы, понимаемая как функция точных значений энергий ее частей. Множитель е', в экспоненте которого стоит аддитивная величина, есть очень быстро меняющаяся функция энергий Еа. По сравнению с этой функцией зависимость от энергий величины П глЕа совершенно несущественна, и поэтому с очеяь болыпой точностью можно заменить (7.16) выражением ди) = сопн1 Б(Š— Ев)е.

П ИЕа. (7.17) а Но гйн, выраженное в виде, пропорциональном произведению дифференциалов всех ЙЕ„есть не что иное, как вероятность всем подсистемам иметь энергии, лежащие в заданных интервалах между Е, и Еа + МЕа. Таким образом, мы видим, что эта вероятность определяется энтропией системы как функцией энергий подсистем; множитель б(Š— Ес) обеспечивает равенство суммы Е = ~; Ь' заданному значению Ев энергии системы. Это свойство энтропии, как мы увидим в дальнейшем, лежит в основе ее статистических применений. Мы знаем, что наиболее вероятными значениями энергий Еа являются их средние значения Еа.

Это значит, что функция Я(ЕПЕэ,...) должна иметь при Еа = Еа максимально возможное (при заданном значении суммы ~ Еа = Ев) значение. Но Еа есть как раз те значения энергий подсистем, которые соответствуют полному статистическому равновесию системы. Таким обраюм, мы приходим к следующему важнейшему выводу: энтропия;замкнутой системы в состоянии полного статистического равновесия имеет наибольшее возможное (при заданной энергии системы) значение.

Наконец, укажем еще одно интересное истолкование функции Я = Я(Е) -- энтропии какой-либо подсистемы или замкну.- той системы (в последнем случае предполагается, что система находится в полном равновесии, в результате чего ее энтропия может быть выражена как функция от одной лишь ее полной энергии). Статистический вес ЬГ = е~~н) по самому своему определению есть число уровней энергии, приходящихся на интервал ааЕ, определенным образом характеризующий ширину распределения вероятностей по энергии. Разделив ааЕ на ааГ, 47 злкон возглстлния энтгопии мы получим среднее расстояние между соседними уровнями в данном участке (участок вблизи значения Е) энергетического спектра рассматриваемой системы.

Свежие статьи
Популярно сейчас
Почему делать на заказ в разы дороже, чем купить готовую учебную работу на СтудИзбе? Наши учебные работы продаются каждый год, тогда как большинство заказов выполняются с нуля. Найдите подходящий учебный материал на СтудИзбе!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5224
Авторов
на СтудИзбе
428
Средний доход
с одного платного файла
Обучение Подробнее