Энтропия в термодинамике: Энтропия в термодинамике, теория и примеры

Содержание

Энтропия в термодинамике, теория и примеры

Понятие энтропии в термодинамике

Понятие энтропии ввел в XIX веке Р. Клаузиус. Энтропия () – это функция состояния, в обратимом процессе дифференциалом которой является величина :

   

где – количество теплоты, полученное термодинамической системой в ходе обратимого процесса; – термодинамическая температура системы.

В любом обратимом круговом процессе изменение энтропии равно нулю:

   

Энтропия системы, которая совершает необратимый цикл, растет:

   

Выражения (2) и (3) относятся только к замкнутым системам, в том случае, если система обменивается теплотой с внешней средой, то энтропия может вести себя как угодно. Формулы (2) и (3) в единстве представляют собой неравенство Клаузиуса:

   

которое говорит о том, что в замкнутых системах при обратимых процессах, энтропия остается постоянной, а в необратимых процессах она растет.

В случае равновесного перехода из одного состояния в другое, в соответствии с определением энтропии (1), имеем:

   

где по первому началу термодинамики. – изменение внутренней энергии термодинамической системы; – работа выполняемая системой. В формуле (5) подынтегральное выражение и пределы интегрирования следует выразить, используя параметры, которые характеризуют процесс, происходящий в термодинамической системе. Выражение (5) определяет энтропию с точностью до аддитивной постоянной. Физический смысл несет изменение энтропии, а не сама энтропия.

Свойство энтропии

Энтропия имеет свойство аддитивности: Энтропия совокупности тел равна сумме энтропий каждого тела, которое входит в систему.

Глубинный смысл энтропии открывает статистическая физика. Больцман установил, что энтропия системы связана с термодинамической вероятностью ():

   

где – постоянная Больцмана.

Напомним, что термодинамической вероятностью называют число способов, при помощи которых можно реализовать макросостояние термодинамической системы, или количество микросостояний, которые реализуют данное макросостояние.

В соответствии с (6) энтропия — это мера вероятности состояния термодинамической системы. Иногда, исходя из статистического толкования энтропии, говорят, что энтропия – мера неупорядоченности системы.

Примеры решения задач

Молекулярная физика и термодинамика

В классической механике и электродинамике мы привыкли к тому, что невозможность какого-то процесса, как правило, связана с каким-то законом сохранения (энергии, импульса, электрического заряда и т. п.). Почему же невозможен вечный двигатель второго рода? Казалось бы, он не нарушает никаких законов сохранения? Чтобы понять это, надо обратиться еще к одной функции состояния системы — к

энтропии.

Путь к этой новой для нас функции состояния недолог: надо взять уравнение первого начала термодинамики

и разделить его обе части на температуру. Прежде всего учтем, что

Далее в формуле для элементарной работы

выразим объем через давление и температуру из уравнения состояния (1.7) идеального газа:

Получим в итоге с использованием соотношения Майера между молярными теплоемкостями

следующее выражение

 

(5.17)

Правая часть (5.34) представляет собой дифференциал некоторой функции S состояния системы:

 

(5.18)

где S0постоянная интегрирования, не зависящая от термодинамических параметров системы (давления, объема, температуры). Эта функция S называется энтропией. Получилось так, что величина dQ, не являющаяся дифференциалом какой-либо функции состояния, при делении на T стала таковым:

При замкнутом обратимом цикле изменение любой функции состояния (в частности, энтропии) равно нулю:

 

(5.19)

Кружок на знаке интеграла означает, что интегрирование ведется по замкнутому контуру.

Проверим выполнение (5.19) на примере цикла Карно. Поскольку в этом цикле тепло получается системой и отдается только на изотермах (Т1,2 = const), температуру можно вынести из-под знака интеграла, и тогда интегрирование даст просто количество теплоты, поделенное на температуру, при которой оно получается или отдается. И действительно, выше было найдено, что на изотермических ветвях цикла при температуре

Т1 газ получает теплоту

 а при температуре Т2— отдает теплоту

Выполнение равенства

теперь очевидно. Напомним, что получаемое тепло имеет положительный знак, а отдаваемое — отрицательный; мы же определили ранее Q2как абсолютную величину отдаваемого тепла, поэтому в формуле появился знак «–».

Проделаем теперь похожие выкладки с произвольным обратимым циклом. Выделим в нем две части: знаком «+» обозначим те фазы процесса, когда система получает тепло, а знаком «–» фазы, когда система отдает тепло. Поскольку полный интеграл равен нулю, аналогичные интегралы по двум частям цикла равны между собой:

 

(5.20)

Если обозначить через Т1максимальную температуру в первой части цикла, то неравенство

Т < Т1влечет за собой неравенство

где Q1как и прежде означает полное количество теплоты, полученное системой. Если ввести минимальную температуру Т2во второй части цикла, то из Т > Т2следует

где Q2количество теплоты, отданное системой. Из этих неравенств и соотношения (5.20) следует, что

 

(5.21)

Наконец получаем неравенство для КПД цикла

 

(5.22)

С помощью понятия энтропии мы получили иным путем тот же результат: КПД любого цикла не превышает КПД цикла Карно с температурой нагревателя равной максимальной температуре рабочего тела и с температурой холодильника равной минимальной температуре рабочего тела рассматриваемого  цикла. В дальнейшем мы будем опускать указание на то, что сравниваются КПД тепловых машин, работающих в одном и том же интервале температур.

Таким образом, мы убедились, что новая функция состояния — энтропия — связана со вторым началом термодинамики. До сих пор мы ограничивались равновесными (обратимыми) процессами. Рассмотрим пример неравновесного процесса. Пусть в начальном состоянии имеются два одинаковых идеальных газа с равными массами m при одинаковой температуре Т, но разных давлениях р1и р2. Определим изменение энтропии при соединении сосудов с газом.

В первый момент после соединения сосудов, когда газы еще не смешались, энтропия системы равна сумме энтропии газов в отдельных сосудах:

 

(5.23)

Найдем теперь объемы сосудов:

После соединения сосудов масса газа становится равной 2m, а объем — V = V1 + V2. Значит, давление р после соединения сосудов равно

 

(5.24)

Поэтому энтропия газа после соединения сосудов равна

 

(5.25)

Приращение энтропии  находится из (5.23) и (5.25):

 

(5.26)

Под знаком логарифма стоит величина, всегда большая единицы. Стало быть, энтропия увеличилась: > 0.

 

Цель этого примера, прежде всего, состоит в том, чтобы на частном случае продемонстрировать, как работает закон возрастания энтропии:

Если замкнутая система в некоторый момент времени находится в неравновесном состоянии, то процессы, протекающие в ней, приводят к возрастанию энтропии, которая достигает максимума, когда система приходит в равновесие.

После того как мы соединили сосуды и, тем самым, открыли возможность перемешивания газов, мы получили неравновесное состояние с энтропией, равной сумме энтропий, газы стали перемешиваться, давления выравниваться, система перешла в равновесное состояние с большей, чем ранее энтропией. В результате перехода (благодаря внутренним процессам в системе) из первоначально неравновесного состояния в конечное равновесное состояние энтропия системы возрастает.

 

Дополнительная информация

http://www.femto.com.ua/articles/part_2/4761.html —  Физическая энциклопедия. Энтропия.

Энтропия в термодинамике — что это? Отвечаем на вопрос. Описание, теория и примеры

Понятие об энтропии в термодинамике — это достаточно важный и в то же время непростой вопрос, поскольку существуют различные точки зрения для ее интерпретации. Опишем энтропию подробно в статье, а также приведем примеры процессов, где она играет ключевую роль.

Значение понятия

Разговор об энтропии логичнее всего начать с ее определения. Итак, энтропия в термодинамике — это экстенсивная физическая величина, которая отражает число возможных микросостояний описываемой макросистемы. Иными словами, энтропия отражает уровень организации: чем более неоднородной является система, тем меньше ее энтропия.

Важно понимать два основных свойства энтропии:

  1. Экстенсивность. То есть эта величина зависит от размеров системы и массы вещества, которая в ней присутствует. Например, если посчитать количество энтропии для каждого из двух сосудов с водородом объемами V1 и V2, в которых газ находится при некотором давлении P и имеет температуру T, то в результате соединения этих сосудов между собой общая энтропия будет равна их сумме.
  2. Энтропия в термодинамике — это функция состояния системы. Это означает, что говорить об этой величине можно только тогда, когда система находится в термодинамическом равновесии. При этом энтропия не зависит от истории эволюции этой системы, то есть совершенно не важно, каким способом она пришла к этому термодинамическому состоянию.

Что определяет энтропия?

Другими словами, для чего она была введена в физику? Чтобы ответить на этот вопрос, достаточно рассмотреть простой эксперимент: всем известно, что если взять холодный прут металла и привести его в контакт с таким же прутом, но нагретым до некоторой температуры, то с течением времени горячее тело будет охлаждаться, а холодное – нагреваться. Никто никогда не наблюдал обратный процесс. Направление протекания рассмотренного явления описывается с использованием концепции “энтропия”.

Любая изолированная система, предоставленная самой себе, всегда стремится занять наиболее вероятное состояние. Это состояние характеризуется хаотичным и однородным распределением элементов, составляющих систему, и понимается как состояние с максимальным значением энтропии.

Статистическая интерпретация

В конце XIX — начале XX века австрийский физик Людвиг Больцман развил новое направление в физике, получившее название статистическая механика. В этой новой науке он ввел понятие об абсолютной энтропии, которую ученый представил в виде: S = k*ln(Ω), где k — константа Больцмана, Ω — количество возможных состояний в системе.

Отметим, что в физике абсолютное значение энтропии мало кого интересует, поскольку все математические формулы, которые учитывают рассматриваемую физическую величину, включают в себя именно ее изменение.

Обратимые процессы в термодинамике

Еще одно определение энтропии в термодинамике — это связь с энергией, которая никаким способом не может быть переведена в полезную работу, например, в механическую. Известно, что эта энергия существует в виде тепла в данной системе, но для практического использования она непригодна.

Например, двигатель внутреннего сгорания работает с некоторым КПД (многие люди, возможно, об этом никогда не задумывались, но коэффициент полезного действия двигателей, которые находятся внутри их автомобилей, составляет всего около 20-25 %), который никогда не будет равен 100 %, какими бы совершенными ни были технологии. Это происходит потому, что в результате термодинамического процесса сгорания топлива часть энергии (большая часть в рассматриваемом случае) теряется на разогрев деталей и на трение. Процесс сгорания топлива — яркий пример увеличения энтропии.

В середине XIX века немецкий ученый Рудольф Клаузиус, анализируя разные термодинамические процессы, ввел понятие “энтропия системы” и смог математически его выразить в виде следующего выражения: dS = δQ/T, здесь dS — изменение энтропии системы, δQ — изменение энергии, которое произошло в результате данного процесса, T — абсолютная температура. Отсюда получаем, что единицей измерения dS в СИ является Дж/К.

Приведенная формула энтропии в термодинамике справедлива только для обратимых процессов, то есть таких переходов, которые могут происходить как в прямом, так и обратном направлении, если изменить внешние условия. Например, если сжать газ, находящийся в герметичном цилиндре с помощью внешней силы, а затем прекратить действие этой силы, то газ восстановит свой первоначальный объем (состояние).

Таким образом, согласно уравнению Клаузиуса, изменение энтропии во время обратимого процесса равно отношению изменения энергии между начальным и конечным состояниями к абсолютной температуре.

Изотермический и адиабатический обратимые процессы

Изотермический процесс — это частный случай, который предполагает, что конечное и начальное состояния системы имеют одинаковую температуру. Согласно формуле Клаузиуса, в результате обратимого изотермического процесса изменение энтальпии системы будет точно равно количеству тепла, которым она обменялась с окружающей средой, деленному на температуру.

Примером такого процесса является расширение идеального газа за счет подвода к нему теплоты извне. Вся подводимая энергия в этом случае тратится на выполнение механической работы (расширение), а температура газа при этом остается постоянной.

Рассматривая концепцию энтропии, интересно также вспомнить об адиабатическом процессе, под которым понимают любой переход в изолированной системе, то есть в ней сохраняется внутренняя энергия. Если этот процесс является обратимым, то согласно формуле dS = δQ/T = 0, поскольку δQ = 0 (нет обмена теплом с окружающей средой).

Необратимые процессы

Рассмотренные примеры разных процессов могут только в грубом приближении считаться обратимыми, поскольку в них всегда существуют различные тепловые потери. В нашей Вселенной практически все процессы являются необратимыми. Для них сформулирован 2 закон термодинамики, и энтропия играет важную роль. Приведем формулу: dS≥δQ/T. О чем говорит это выражение: согласно второму закону термодинамики, энтропия в результате абсолютно любого необратимого процесса всегда увеличивается (см. знак “>” в выражении).

Таким образом, подобно факту, что энергия не может быть создана из ничего и не может исчезать бесследно, второй закон термодинамики свидетельствует, что энтропия может быть создана, но не может быть уничтожена (постоянно увеличивается).

Историческая справка

Как было выше сказано, об энтропии физики стали задумываться только в середине XIX века. Причиной этому послужил тот факт, что первые паровые машины обладали чрезвычайно низким КПД (в начале XVIII века типичным значением КПД для этих машин было 2 %). То есть энтропия изначально понималась как “распыление” тепловой энергии во время термодинамического процесса.

Само слово “энтропия”, введенное Клаузиусом, с древнегреческого языка означает “эволюция, преобразование”, тем самым подчеркивается ее важность для описания протекающих процессов.

Энтропия и тепловая смерть Вселенной

Согласно 2-му началу термодинамики, энтропия в нашей Вселенной постоянно увеличивается. Это означает, что в конце концов она достигнет своего максимального значения, когда вещество однородно распределится и температура выровняется во всем пространстве. Такая гипотеза была выдвинута тем же Клаузиусом и получила название тепловой смерти Вселенной.

Реализуется ли она в действительности, зависит от области применимости термодинамики. Дело в том, что на микроуровне, когда рассматриваются отдельные молекулы и атомы, энтропия в термодинамике — это бессмысленная величина, так как сами законы этой ветви физики перестают работать. Предполагается, что аналогичные ограничения их применимости существуют, когда масштабы системы достигают бесконечных значений, то есть размеров Вселенной.

Что такое энтропия? – Science Portal

В самом простом виде термодинамика – это изучение взаимосвязи всех форм энергии во Вселенной. Термодинамическая система – это замкнутое пространство, не пропускающее энергию внутрь или наружу, в котором существует экстенсивная функция состояния системы, называемая энтропией.

Что такое энтропия?

Энтропия – это мера беспорядка в системе. Это обширное свойство термодинамической системы, определяющее количество энергии в системе, которая больше не доступна для выполнения механической работы. Энтропия в системе почти всегда увеличивается с течением времени. В уравнениях, как правило, она обозначается буквой  и измеряется в джоулях на кельвин на моль ().

Определение энтропии впервые было использовано в научных исследованиях Клаузиуса в 1850 году, как точный способ проверки того, нет ли нарушения второго начала термодинамики конкретным процессом. Второй закон термодинамики, выраженный в терминах энтропии, гласит, что полная энтропия системы либо увеличивается, либо остается постоянной в любом процессе; она никогда не уменьшается.

Если система состоит из термически равновесных подсистем, то ее энтропия равна сумме энтропий подсистем.

Энтропия газа увеличивается при его расширении в вакуум, потому что увеличенный объем допускает больший атомный или молекулярный беспорядок. Чем больше атомов или молекул в составе газа, тем больше беспорядок. 

Энтропия изолированной системы остается постоянной при любом обратимом изменении, увеличивается при любом естественном изменении и достигает максимума в состоянии равновесия.

Формулы расчета энтропии

Известно несколько методов расчета энтропии, но самые распространенные:

  1. Энтропия обратимого процесса.

Для очень большой системы, находящейся в термодинамическом равновесии, энтропия S пропорциональна натуральному логарифму величины Wt (термодинамическая вероятность) – максимальное число микросостояний, необходимых для реализации макроскопического состояния, соответствующего  S. То есть, S=k*ln(Wt), где t – постоянная Больцмана, связанная с молекулярной энергией.

  1. Энтропия изотермического (с постоянной температурой) процесса.

По определению Клаузиуса, если количество тепла Q поступает в большой резервуар при температуре  выше абсолютного нуля, то энтропия увеличивается ΔS=Q/t.

Полное изменение энтропии системы в любом обратимом процессе равно нулю. Кроме того, система не влияет на энтропию своего окружения. Иногда об этом говорят так: «обратимые процессы не влияют на полную энтропию Вселенной».

Энтропия вселенной

Вселенная расширяется адиабатически, то есть с постоянной энтропией. Так что же вызывает увеличение энтропии?

Ответ – черные дыры. Количество состояний прямо пропорционально массам частиц в черной дыре, поэтому, чем их больше, тем больше увеличивается энтропия во Вселенной. Одна только сверхмассивная черная дыра в Млечном Пути имеет энтропию примерно в 1000 раз больше, чем у всей Вселенной во время Большого взрыва.

Если бы не было черных дыр, то энтропия Вселенной была бы почти постоянной в течение последних 13,8 миллиардов лет. 

В любом случае, Вселенная предназначена для термодинамического равновесия – максимальной энтропии. Это часто называют тепловой смертью Вселенной. Однако независимо от того, сжимается и нагревается Вселенная или продолжает расширяться и остывать, конец не близок. Расчеты черных дыр предполагают, что энтропия может легко сохраняться как минимум  лет.

Надеемся, что материал был полезен для вас. Возникающие вопросы можете оставлять в комментариях. Если вам понравилась эта статья, поделитесь ею, чтобы все имели возможность ее найти!

Понятие энтальпии и энтропии.

Что такое энтальпия?



Попробуем уяснить физический смысл и суть понятия энтальпия, которое широко используется при расчетах и прогнозировании различных процессов в теплотехнике.

Уравнение первого закона термодинамики, выражающее закон сохранения энергии в термодинамических процессах, можно преобразовать к следующему виду:

dq = du + pdv = du + pdv + vdp – vdp = d(u + pv) – vdp.

Выражение (u + pv), обозначающее элементарную сумму внутренней энергии и произведенной работы, называют энтальпией и обозначают буквой i.

i = u + pv.

Слово энтальпия в переводе с греческого означает “нагреваю”.

Энтальпия тоже является параметром состояния, поскольку составляющие u и pv имеют для каждого состояния вполне определенные значения. Тогда первый закон термодинамики можно записать в виде:

dq = di – vdp.

Чтобы понять суть параметра энтальпия газа представим цилиндр с подвижным поршнем под которым находится 1 кг газа под давлением p, и давление этого газа уравновешивается весом поршня G.
Поскольку G = pS, где S – площадь поршня, то энергия системы будет равна

u + Gh = u + pSh,

где:
u – внутренняя энергия газа;
Gh = pSh – потенциальная энергия груза (поршня), поднятого на высоту h.

Учитывая, что Sh = V и приведенное выше определение энтальпии, можно записать, что в данном случае энергия системы равна энтальпии: u + pv = i.
Подставив в это уравнение значение u и pv при температуре T, а именно: u = cvT   и   pv = RT, получим:

i = cvT + RT = (cv + R)T.

Выражение (cv + T) в соответствии с уравнением Майера можно выразить через cp:

cp – cv = R     или     cv + T = cp.

Тогда можно записать: i = cpT, т.е. энтальпия газа при температуре T численно равна количеству теплоты, подведенной к рабочему телу при его нагревании от до температуры Т при постоянном давлении.

Существует и другое определение энтальпии – это количество энергии системы или материального тела, которая доступна для преобразования в теплоту при определенной температуре и давлении.
Очевидно, что не вся энергия материальных тел, в т. ч. и газов доступна для преобразования в теплоту. Какая-то часть энергии необходима для поддержания молекулярной структуры тела.
Полная энергия, заключенная в материальном теле массой m, в соответствии с известным уравнением Эйнштейна равна E = mc2.
Лишь часть этой энергии можно превратить в тепло, остудив тело до температуры абсолютного нуля, и эта доля полной энергии (доступной для получения теплоты) – энтальпия.
Не следует забывать, что энтальпия характеризует доступное количество теплоты для конкретного состояния p-V.

Значение энтальпии различных веществ в разных состояниях приведены в справочниках.
Энтальпия используется в вычислениях для определения разницы уровней энергии между двумя состояниями термодинамической системы.
Это бывает необходимо для настройки оборудования и определения коэффициента полезного действия процесса.

***



Понятие энтропии

В переводе с греческого слово “энтропия” означает превращение.

Рассмотрим элементарный термодинамический процесс, в ходе которого 1 кг газа обменивается с внешней средой пренебрежительно малым количеством теплоты dq, при этом его температура Т остается неизменной.
На основании первого закона термодинамики можно записать:

dq = du + pdv.

Если разделить обе части этого уравнения на температуру Т, получим:

dq/T = du/T + pdv/T.

Обозначим соотношение dq/T = ds.
Энтропия s – это величина, изменение которой ds в элементарном термодинамическом процессе равно отношению элементарного количества теплоты dq к постоянной температуре Т.
Изменение энтропии тела, а не ее абсолютное значение в каких-либо состояниях характеризует количество теплоты, участвующей в термодинамическом процессе. При этом изменение энтропии зависит от параметров газа в начальном и конечном состояниях и не зависит от процесса, по которому изменяется это состояние.
Поэтому энтропию можно рассматривать, как параметр состояния рабочего тела.

Этот параметр не имеет физического смысла и введен формально на основании математических построений для облегчения решения многих теплотехнических задач применительно к идеальному газу.

Энтропия – это мера экстенсивности термодинамической системы в случае, когда переменным параметром является температура.
Проще говоря, энтропия – это мера вероятности протекания в какой-либо изолированной термодинамической системе (с конкретными параметрами) самопроизвольного процесса, при котором все элементы системы (например, молекулы вещества) примут в результате процесса равновесное энергетическое состояние, т. е. система станет энергетически устойчивой. После этого станет невозможен никакой дальнейший термодинамический процесс.

Если еще проще – энтропия характеризует разницу энергии отдельных частей (элементов) изолированной термодинамической системы при приращении температуры. Чем существеннее эта разница, тем большей энтропией обладает система, т. е. вероятность самопроизвольных процессов для установления равновесия между элементами системы (молекулами) выше. Если учесть, что весь окружающий нас физический мир стремится к состоянию максимального энергетического покоя (равновесия), то энтропия характеризует неравновесное состояние термодинамической системы, т. е. выражает степень ее стремления к термодинамическому покою.

Произведение энтропии на изменение температуры системы характеризует изменение энергии системы. При этом даже если энергия системы будет изменяться, энтропия этой системы может оставаться неизменной. Очевидно, что при изотермических процессах (температура системы неизменна) составляющая энергии системы в которую входит энтропия равна нулю.
В общем случае изменение энергии термодинамической системы не является обязательным условием изменения энтропии этой системы.

***

Топливо и его горение

Скачать теоретические вопросы к экзаменационным билетам
по учебной дисциплине “Основы гидравлики и теплотехники”
(в формате Word, размер файла 68 кБ)

Скачать рабочую программу
по учебной дисциплине “Основы гидравлики и теплотехники” (в формате Word):

Скачать календарно-тематический план
по учебной дисциплине “Основы гидравлики и теплотехники” (в формате Word):


Главная страница


Дистанционное образование

Специальности

Учебные дисциплины

Олимпиады и тесты

25. Второе начало термодинамики. Энтропия. Медицинская физика

25. Второе начало термодинамики. Энтропия

Существует несколько формулировок второго закона термодинамики: теплота сама собой не может переходить от тела с меньшей температурой к телу с большей температурой (формулировка Клаузиуса), или невозможен вечный двигатель второго рода (формулировка Томсона).

Процесс называют обратимым, если можно совершить обратный процесс через все промежуточные состояния так, чтобы после возвращения системы в исходное состояние в окружающих телах не произошло каких-либо изменений.

Коэффициентом полезного действия тепловой машины, или прямого цикла, называют отношение совершенной работы к количеству теплоты, полученному рабочим веществом от нагревателя:

Так как работа тепловой машины совершается за счет количества теплоты, а внутренняя энергия рабочего вещества за цикл не изменяется (DU = 0), то из первого закона термодинамики следует, что работа в круговых процессах равна алгебраической сумме количеств теплоты:

A = Q1 + Q2.

Следовательно:

Количество теплоты Q1, полученное рабочим веществом, положительно, количество теплоты Q2, отданное рабочим веществом холодильнику, отрицательно.

Сумму приведенных количеств теплоты для обратимого процесса можно представить как разность двух значений некоторой функции состояния системы, которую называют энтропией:

где S2 и S1 – энтропия соответственно в конечном втором и начальном первом состояниях.

Энтропия есть функция состояния системы, разность значений которой для двух состояний равна сумме приведенных количеств теплоты при обратимом переходе системы из одного состояния в другое.

Физический смысл энтропии:

Если система перешла от одного состояния к другому, то независимо от характера процесса изменение энтропии вычисляется по формуле для любого обратимого процесса, происходящего между этими состояниями:

где Q – полное количество теплоты, полученное системой в процессе перехода из первого состояния в состояние второе при постоянной температуре Т. Эту формулу используют при вычислении изменения энтропии в таких процессах, как плавление, парообразование и т. п.

Данный текст является ознакомительным фрагментом.

Продолжение на ЛитРес

Разделы >> “Энтропия термодинамической системы”.


&nbsp&nbsp

Энтропия термодинамической системы.
Энтропия — мера рассеяния энергии. Это понятие также было введено Клаузиусом, который развил и облек второй принцип термодинамики в математическую форму. Энтропию стали называть «тенью» энергии. И энергия, и энтропия — слова греческого происхождения. «Эн» означает «способность» или «содержание», «эрг» — корень слова «работа», а «тропе» — «превращение», поэтому слово «энергия» можно перевести, как «способность совершения работы», а «энтропия» – как «способность к превращениям».

Энтропия зависит от характера совершающегося процесса, поскольку от него зависит как количество тепла, рассеивающееся вследствие прямого теплообмена системы с окружающей средой, так и количество тепла, выделяющееся и рассеивающееся вследствие трения. В действительности получаемая работа тоже зависит от характера процесса и никогда не бывает равна максимальной, то есть изменению энергии системы. Она меньше максимальной на величину потерь энергии «через тепло» из-за трения и теплообмена. Но и та часть энергии, которая расходуется на совершение работы, затем тоже вследствие трения и теплообмена рассеивается в окружающей среде, еще больше, повышая ее энтропию.

Так, вся энергия сгорающего бензина, превращающаяся в автомобильном двигателе в тепло, а затем в механическую энергию, в конечном итоге рассеивается в атмосфере в результате трения кузова о воздух и колес о воздух и землю.

Энтропия тела или системы может и уменьшаться. Например, когда мотор сообщает механическую энергию холодильнику, поглощающему тепло из морозильной камеры при температуре 00С и передающему его окружающему воздуху при 270С, энтропия морозильной камеры и всей системы уменьшится. Такое уменьшение не противоречит второму за­кону термодинамики, поскольку он приме­ним лишь к замкнутым системам: при сов­местном рассмотрении всех частей системы полное изменение энтропии либо равно нулю, либо положительно.

Деятельность че­ловека на Земле приводит к локальному уменьшению энтропии: холодильники и тепловые насосы способны перекачивать тепло от холодного тела к горячему. Всюду, где наблюда­ется локальное возрастание упорядоченнос­ти, противостоящее беспорядку, происхо­дит локальное убывание энтропии. На Земле протекает естественный процесс концентрации энергии и уменьшения энтропии — процесс фотосинтеза, при котором рас­сеянная энергия солнечных лучей превращается в кон­центрированную химическую энергию зеленой массы рас­тений.

В организмах же самых высокоупорядоченных на Земле систем — животных и человека — в процессе пере­варивания и усвоения пищи происходит дальнейшее уменьшение энтропии. Однако в целом наша Солнечная система, включающая в себя и пер­воисточник энергии – Солнце, характеризу­ется возрастанием суммарной энтропии. Исходя из этого факта, Клаузиус распространил закон возраста­ния энтропии в адиабатических системах не только на нашу Солнечную систему, но и на всю Вселенную, что привело его к выводу о грядущей тепловой смерти Вселенной, соответствующей достижению максимального значения её энтропии.

Через какой-то, пусть весьма длительный, промежуток времени, считал ученый, вся энергия, имеющаяся на Земле и в других частях Вселенной, превратится в тепло, а равномерное распределение последнего между всеми телами земной природы и Вселенной приведет к выравниванию темпе­ратуры и полному прекращению каких бы то ни было превращений энергии — к «тепловой смерти Вселенной». «Можно оба главных положения механической теории теплоты, – писал он, – сформировать как основные законы Вселенной: энергия мира постоянна, энтропия мира стремиться к максимуму».

Но такое распространение второго закона термодинамики на всю Вселенную приводит к противоречию с принципом вечности движения во Вселенной, выражающимся в законе сохранения и превращения энергии.

В своих рассуждениях Клаузис исходил из допущения модели идеального газа, в котором молекулы движутся с одинаковой средней скоростью, что искажает реальную картину физических процессов.

Доказательство несостоятельности и критика теории тепловой смерти Вселенной были даны австрийским физиком Л. Больцманом: «Термодинамические понятия, полу­ченные из изучения конечных систем на ограни­ченных интервалах времени, нельзя распространять на Вселенную, бесконечную во времени и про­странстве».

Дальнейшее обобщение понятие энтропии получило в статистической физике. Согласно Л. Бопьцману, энтропия является мерой термодинамической вероятности W состояния системы. То есть при всяком взаимодействии реальных газов (диффузия, теплопроводность и т.д.) отдельные молекулы вступают во взаимодействие в согласии с законом теории вероятности. Энтропия связана с термодинамической вероятностью соотношением

S = k ln W (k — постоянная Больцмана).

При этом под термодинамической вероятностью понимается число микросостояний системы (например, число различных состояний молекул в газе), посредством которых реа­лизуется данное макросостояние. Условие термоди­намического равновесия — максимальность энтропии, то есть термодинамическое равновесие имеет место в наиболее вероятном состоянии.

Больцман показал, что второе начало термодинамики не яв­ляется абсолютным законом, а определяет лишь наиболее вероятное протекание процессов. Второе начало нарушается при флуктуациях в системе. Вместе с тем теряет абсолют­ный характер и термодинамическая необратимость, которая приобретает статистический смысл.

Термодинамическая необратимость, по Больцману, появляется только потому, что число микропроцессов, протекающих в одном направлении, подавляюще велико по срав­нению с числом микропроцессов, протекающих в обратном направлении. Однако последняя вероят­ность не равна нулю; поэтому за достаточно большой промежуток времени в системе будет не только уста­навливаться равновесное состояние, но и будут проис­ходить любые отклонения от него. В макросистемах для этого требуются времена астрономического порядка. В микроскопических объёмах внутри окружающих нас тел такие изменения происходят всё время.

В отличие от закона сохранения энергии (всеобщего закона природы), второй закон термодинамики применим только к системам, состоящим из большого числа хаотически движущихся частиц и указываемое им направление протекания процессов является наиболее вероятным. Маловероятные противоположные процессы, называемые флуктуациями, не противоречат закону и также вытекают из него.

Второй закон термодинамики

Термодинамика – это раздел физики который имеет дело с энергией и работой системы. Термодинамика имеет дело только с крупномасштабный ответ системы, которую мы можем наблюдать и измерять в экспериментах. В аэродинамике термодинамика газа, очевидно, играет важную роль в анализе двигательные установки но и в понимании высокоскоростные потоки. В первый закон термодинамики определяет отношения между различными формами энергия, присутствующая в системе (кинетическая и потенциальная), Работа что система выполняет и передача тепла.Первый закон гласит, что энергия сохраняется во всех термодинамических процессах.

Мы можем представить себе термодинамические процессы, которые сохраняют энергию но которые никогда не встречаются в природе. Например, если мы поднесем горячий предмет в контакта с холодным предметом, мы наблюдаем, что горячий предмет остывает и холодный объект нагревается до достижения равновесия. Передача тепла идет от горячий объект к холодному объекту. Однако мы можем представить систему, в которой вместо этого тепло передается от холодного объекта к горячему, и такая система не нарушает первый закон термодинамики.Холод объект становится холоднее, а горячий объект становится горячее, но энергия сохраняется. Очевидно, что мы не встречаем такой системы в природе и Чтобы объяснить это и подобные наблюдения, термодинамики предложили секунд Закон термодинамики . Классиус, Кельвин и Карно предложили различные формы второго закона, чтобы описать конкретную физическую проблему, которую каждый из них изучение. Изложенное на слайде описание второго закона было взято. из учебника Холлидея и Резника “Физика”.Начинается с определения новой переменной состояния, называемой энтропия. Энтропия имеет множество физические интерпретации, включая статистический беспорядок системы, но для наших целей будем считать энтропию просто еще одним свойством системы, например энтальпия или температура.

Второй закон гласит, что существует полезное состояние переменная называется энтропией S . Изменение энтропии дельта S равно теплопередача дельта Q разделенная по температуре Т .

дельта S = дельта Q / T

Для данного физического процесса общая энтропия система и окружающая среда остаются постоянными, если процесс может быть наоборот. Если обозначить начальное и конечное состояния системы буквами «i» и «f»:

Sf = Si (обратимый процесс)

Пример обратимого процесса В идеале заставляет течь через суженную трубу. Идеально означает отсутствие потерь в пограничном слое. Когда поток движется через сужение, давление, температура и изменение скорости, но эти переменные возвращаются к исходному значения после сужения.В штат газа возвращается в исходное состояние и изменение энтропии системы равна нулю. Инженеры называют такой процесс изоэнтропический процесс. Изэнтропия означает постоянную энтропию.

Второй закон гласит, что если физический процесс необратимый , объединенный энтропия системы и окружающая среда должна увеличиться до . Конечная энтропия должна быть больше, чем начальная энтропия необратимого процесса:

Sf> Si (необратимый процесс)

Примером необратимого процесса является проблема обсуждается во втором абзаце.Горячий предмет соприкасается с холодным предметом. В конце концов, они оба достигают одинаковой температуры равновесия. Если мы тогда разделяют объекты, которые остаются при равновесной температуре, и естественным образом не возвращаются к исходной температуре. В процесс доведения их до одинаковой температуры необратим.


Действия:

Экскурсии с гидом
  • Термодинамика:

Навигация..


Руководство для начинающих Домашняя страница

Энтропия – Scholarpedia

Рис. 1. В наивной аналогии энергию в физической системе можно сравнить с водой в озерах, реках и море. Только вода, которая находится выше уровня моря, может использоваться для работы (например, для размножения турбины). Энтропия представляет собой воду, содержащуюся в море.
  • В классической физике энтропия физической системы пропорциональна количеству энергии, больше не доступной для выполнения физической работы .Энтропия занимает центральное место во втором законе термодинамики, который гласит, что в изолированной системе любая деятельность увеличивает энтропию.
  • В теории вероятностей энтропия случайной величины измеряет неопределенность относительно значения, которое может принять переменная.
  • В теории информации энтропия сжатия сообщения (например, компьютерного файла) количественно определяет информационного содержания , переносимого сообщением, с точки зрения наилучшей степени сжатия без потерь .
  • В социологии энтропия – это естественный распад структуры (такой как закон, организация и условность) в социальной системе.
  • В обычном смысле энтропии означает беспорядок или хаос .

История

Термин энтропия был введен в употребление в 1865 г. [Cl] немецким физиком Рудольфом Клаузиусом из греческого языка en- = in + тропа = поворот (точка).Слово показывает аналогию с energy , и этимологи считают, что оно было разработано для обозначения формы энергии, которую любая энергия в конечном итоге и неизбежно превращает в – бесполезное тепло. Идея была вдохновлена ​​более ранней формулировкой Сади Карно [Са] того, что сейчас известно как второй закон термодинамики.

Австрийский физик Людвиг Больцман [B] и американский ученый Уиллард Гиббс [G] поместили энтропию в вероятностную схему статистической механики (около 1875 г.).Позднее эта идея была развита Максом Планком. Энтропия была обобщена на квантовую механику в 1932 году Джоном фон Нейманом [N]. Позже это привело к изобретению энтропии как термина в теории вероятностей Клодом Шенноном [Sh] (1948), популяризированным в совместной книге [SW] с Уорреном Уивером, которая заложила основы теории информации.

Понятие энтропии в динамических системах было введено Андреем Колмогоровым [K] и уточнено Яковом Синаем [Si] в том, что теперь известно как энтропия Колмогорова-Синая.

Формулировка парадокса Максвелла Джеймсом Максвеллом (около 1871 г.) вызвала поиск физического смысла информации, в результате чего Рольф Ландауэр [L] (1961 г.) обнаружил тепловой эквивалент стирания одного бита. информации, которая объединила понятия энтропии в термодинамике и теории информации.

Термин энтропия сейчас используется во многих других науках (например, социологии), иногда далеких от физики или математики, где он больше не сохраняет свой строгий количественный характер.Обычно это примерно означает беспорядок , хаос , распад разнообразия или тенденцию к равномерному распределению видов .

Энтропия в физике

Термодинамическая энтропия – макроскопический подход

В термодинамике физическая система – это совокупность объектов (тел), чье состояние параметризовано. по нескольким характеристикам, таким как распределение плотности, давления, температуры, скорости, химического потенциала и т. д.Изменение энтропии физической системы при переходе из одного состояния в другое равно

\ [ \ Delta S = \ int \ frac {dQ} T, \]

где \ (dQ \) обозначает элемент тепла, поглощаемый (или выделяемый; тогда он имеет отрицательный знак) телом, \ (T \) – абсолютная температура этого тела в этот момент, и интегрирование проводится по всем элементам тепла. активен в прохождении. Приведенная выше формула позволяет сравнивать энтропии различных состояний системы или вычислять энтропию каждого состояния с точностью до константы (что в большинстве случаев является удовлетворительным).Абсолютное значение энтропии устанавливается третий закон термодинамики.

Обратите внимание, что когда элемент тепла \ (dQ \) передается от более теплого тела с температурой \ (T_1 \) к более холодному телу с температурой \ (T_2 \, \), энтропия первого тела изменяется на \ (- \ frac {dQ} {T_1} \, \), а у другого повышается на \ (\ frac {dQ} {T_2} \. \). Поскольку \ (T_2

Система является изолированной , если она не взаимодействует со своим окружением (т. Е. Не подвергается никакому влиянию). В частности, изолированная система не обменивается энергией или веществом (или даже информацией) со своим окружением. В силу первого закона термодинамики (принцип сохранения энергии ) изолированная система может проходить только между состояниями с одинаковой глобальной энергией. Второй закон термодинамики вводит необратимость эволюции: Изолированная система не может перейти из состояния с более высокой энтропией в состояние с более низкой энтропией.Точно так же второй закон гласит, что это Невозможно осуществить процесс, единственным конечным результатом которого является передача тепла от более холодной среды к более теплой. Любая такая передача должна включать в себя внешнюю работу; элементы, участвующие в работе, также изменят свое состояние и общая энтропия возрастет.

Первый и второй законы термодинамики вместе подразумевают, что изолированная система будет стремиться к состоянию максимальной энтропии. среди всех состояний с одинаковой энергией. Это состояние называется состоянием равновесия , и его достижение интерпретируется как термодинамической смерти системы.Энергия, распределенная в этом состоянии, не способна к дальнейшей активности.

См. Пример расчета энтропии и нахождения состояния равновесия .

Энтропия Больцмана и энтропия Гиббса – микроскопический подход

Больцман [B] придал энтропии другое, статистическое значение. Термодинамическое состояние \ (A \) (или макросостояние , как описано в терминах распределения давления, температуры и т. Д.) Может быть реализовано множеством различных способов на микроскопическом уровне, соответствующем множеству точек \ (\ omega \ ) (называемые микросостояниями ) в фазовом пространстве \ (\ Omega \.{6n} \) с определенной энергией. Энтропия Больцмана \ (A \) определяется как пропорциональная логарифму объема фазового пространства множества \ (M_A \) всех \ (\ omega \), которые реализуют состояние \ (A \: \ )

\ [\ tag {1} S (A) = S_0 + k \ log_2 (объем (M_A)) \]


Константа \ (S_0 \) зависит от единицы объема фазового пространства, а коэффициент пропорциональности \ (k \) известен как постоянная Больцмана. Также пишут \ (S (\ omega) = S (A) \) для каждого \ (\ omega \ в M_A \. \)

Аналогично, если мы возьмем \ (\ Omega \) как конечное множество, а \ (\ # M_A \) обозначает количество элементов в множестве \ (M_A \, \), то энтропия Больцмана определяется как

\ [\ tag {2} S (А) = к \ log_2 (\ #M_A) \]


(Константа \ (S_0 \) больше не нужна, поскольку не требуется выбор единицы объема.) Логарифм используется в формулах (1) и (2), потому что разные макросостояния соответствуют множествам очень разных размеров в фазовом пространстве, наибольшее из которых (безусловно) принадлежит состоянию равновесия.

Формулы (1) и (2) можно перефразировать в вероятностных терминах, если мы представим, что один элемент \ (\ Omega \) выбран случайным образом с равномерным распределением. То есть, если набор \ (\ Omega \) всех микросостояний имеет \ (M \) элементы, а набор \ (M_A \) тех, кто реализует макросостояние \ (A \), имеет \ (N \) элементов, мы назначаем вероятность \ (\ frac 1M \) к каждому микросостоянию и \ (\ frac NM \) к состоянию \ (A \.\) Тогда формулу Больцмана можно переписать в виде

\ [\ tag {3} S (A) = S_0 ‘+ k \ log_2 (Вероятность (A)), \]


где \ (S_0 ‘= k \ log_2 (\ # \ Omega) \. \) Практически \ (S_0’ = S_ {max} \) – это максимально возможная энтропия макросостояния, поскольку \ (M_A \) не может имеют больше элементов, чем \ (\ Omega \. \) (И действительно, состояние теплового равновесия \ (E \) содержит большинство микросостояний с заданной энергией, так что \ (\ log_2 (\ # M_E) \ приблизительно \ log_2 (\ # \ Omega) \) и, следовательно, \ (S (E) \ приблизительно S_0 ‘\. \) Это означает, что состояние равновесия имеет максимально возможную энтропию.) Обратите внимание, что логарифмы вероятностей отрицательны.

Энтропия Гиббса уточняется (3) до случая, когда микросостояния \ (\ omega \) реализуют макросостояние \ (A \) могут иметь разные вероятности \ (p_ \ omega \: \)

\ [\ tag {4} S (A) = -k \ sum _ {\ omega \ in M_A} p_ \ omega \ log_2 (p_ \ omega). \]


Формула (4) сводится к (2), если \ (p_ \ omega = \ frac 1N \) для всех микросостояний в \ (M_A \. \). Для непрерывного распределения вероятностей с функцией плотности \ (\ rho \, \) энтропия Гиббса определяется как

\ [ S (A) = -k \ int \ rho (\ omega) \ log_2 (\ rho (\ omega)) \, d \ omega.\]

Распределения вероятностей по фазовому пространству возникают, в частности, потому, что состояния теплового равновесия связаны с такими распределениями, известными как каноническое, микроканоническое и макроканоническое распределения.

См. Пример расчета термодинамической энтропии и энтропии Больцмана.

Энтропия в квантовой механике

Джон фон Нейман [N] нашел аналоги в квантовой механике как для энтропии Больцмана, так и для энтропии Гиббса. Квантовая энтропия Больцмана определяется формулой

\ [ S (A) = k \ log_2 (\ dim (\ mathcal {H} _A)), \]

где \ (\ mathcal {H} _A \) – подпространство гильбертова пространства, содержащее микросостояния, реализующие макросостояние \ (A \.\) Гильбертово пространство играет роль, примерно аналогичную роли классического фазового пространства.

Квантовая энтропия Гиббса, обычно называемая энтропией фон Неймана , равна

\ [ S (\ rho) = -k \ mathrm {tr} (\ rho \ log (\ rho)), \]

где \ (\ rho \) – матрица плотности, которая играет роль, примерно аналогичную роли распределения вероятностей в фазовом пространстве. См. Также основную статью об энтропии фон Неймана.

Энтропия черной дыры

Общая теория относительности Эйнштейна подразумевает, что черные дыры существуют и что (при разумных технических предположениях) определенная величина около черной дыры, площадь поверхности \ (A \) ее горизонта, ведет себя во многом как энтропия в термодинамике: для любой системы черные дыры, сумма площадей их поверхности не может уменьшаться.3k} {4 \ gamma \ hbar} А \]

(а не сама \ (A \)) энтропия черной дыры , где префактор включает только константы природы \ [c \] – скорость света, \ (k \) постоянная Больцмана, \ (\ gamma \) Гравитационная постоянная Ньютона и \ (\ hbar \) постоянная Планка.

Считается, что второй закон динамики черной дыры может быть нарушен в действительности (из-за квантовых эффектов, не учитываемых общей теорией относительности) с использованием процессов (таких как излучение Хокинга), которые увеличивают термодинамическую энтропию.Кроме того, считается, что сумма энтропии черной дыры и термодинамической энтропии не может уменьшаться, и поэтому ее следует рассматривать как – энтропию системы, содержащей черные дыры. Доказательство этого утверждения потребовало бы квантовой теории гравитации, которая на сегодняшний день не доступна в удовлетворительном виде; также неясно, связана ли энтропия черной дыры с числом микросостояний, фигурирующих в формуле Больцмана (2), и каким образом. n \, p_i \ log_2 (p_i).\]


Векторы вероятностей возникают естественным образом в связи с конечными разбиениями вероятностного пространства. Рассмотрим абстрактное пространство \ (\ Omega \), снабженное вероятностной мерой \ (\ mu \), задающей вероятности (числа от 0 до 1) в подмножества \ (\ Omega \) (точнее, мера обычно не присваивает значения всем подмножествам только определенным выбранным подмножествам, называемым измеримыми множествами; такие множества образуют большое семейство, замкнутое относительно операций над множеством, таких как в виде объединений или пересечений, называемых сигма-полем).Конечное разбиение \ (\ mathcal A \) \ (\ Omega \) представляет собой набор попарно непересекающихся измеримых множеств \ (\ {A_1, A_2, \ dots, A_n \} \), объединение которых равно \ (\ Omega \. \) Тогда вероятности \ (p_i = \ mu (A_i) \) образуют вектор вероятностей \ (P _ {\ mathcal A} \. \) Энтропию этого вектора связывают с разбиением \ (\ mathcal A \: \)

\ [ H_ \ mu (\ mathcal A) = H (P _ {\ mathcal A}). \]

В этой настройке энтропия может рассматриваться как параметр, строго связанный с понятием информации .Учитывая измеримое множество \ (A \, \), количество информации , связанное с \ (A \), определяется как

\ [\ tag {6} Я (А) = – \ log_2 (\ му (А)). \]


Информационная функция \ (I _ {\ mathcal A} \), связанная с разделом \ (\ mathcal A = \ {A_1, A_2, \ dots, A_n \} \) определена в пространстве \ (\ Omega \) и принимает постоянное значение \ (I (A_i) \) во всех точках \ (\ omega \), принадлежащих множеству \ (A_i \, \), т.е.

\ [\ tag {7} I _ {\ mathcal A} (\ omega) = \ begin {cases} – \ log_2 (\ mu (A_1)), & если \ \ \ omega \ in A_1; \\ – \ log_2 (\ mu (A_2)), & если \ \ \ omega \ in A_2; \\ \ vdots \\ – \ log_2 (\ mu (A_n)), & если \ \ \ omega \ в A_n.\\ \ end {case} \]


Легко проверить, что ожидаемое значение информационной функции относительно \ (\ mu \) равна энтропии \ (H_ \ mu (\ mathcal A) \. \)

\ (\ tag {8} H_ \ mu (\ mathcal A) = \ int I _ {\ mathcal A} d \ mu. \)


Это объясняет связь между информацией и энтропией: в то время как информация зависит от точек в вероятностное пространство, энтропия – это константа, представляющая среднее значение информации.

В некоторых науках (например,грамм. в нейробиологии) термин информация относится к разнице между энтропией сигнала и энтропии шума. Определенная таким образом информация соответствует понятию условной энтропии. (как поясняется ниже), а схожесть имен с информационной функцией довольно случайна.

Интерпретация энтропии Шеннона

  • Раздел \ (\ mathcal A \) пространства \ (\ Omega \) связывает с каждым элементом \ (\ omega \ in \ Omega \) информацию , которая отвечает на вопрос , в котором \ (A_i \) ты? .Это максимальное знание точек, зависящих исключительно от разбиения. Один бит информации эквивалентен получению ответа на двоичный вопрос, то есть на вопрос, предлагающий выбор между двумя возможностями. Если раздел не состоит из двух элементов, вопрос в каком \ (A_i \) вы находитесь? не является двоичным. Но его можно заменить серией бинарных вопросов, и можно использовать любое расположение (дерево) таких вопросов. При таком расположении количество вопросов \ (N (\ omega) \) (i.е. количество информации в битах), необходимое для определения местоположения точки \ (\ omega \) внутри раздела, может варьироваться от точки к точке (см. пример ниже). Чем меньше ожидаемое значение \ (N (\ omega) \), тем лучше расположение. Наилучшее расположение удовлетворяет условию \ (\ mathsf {E} (I _ {\ mathcal A}) \ le \ mathsf {E} (N) \) (где \ (\ mathsf {E} \) обозначает ожидаемое значение) и \ (N (\ omega) \ le I _ {\ mathcal A} (\ omega) +1 \) почти для каждого \ (\ omega \. \) Разница между \ (I _ {\ mathcal A} (\ omega) \) и \ (N (\ omega) \) результат грубости измерения информации путем подсчета бинарных вопросов; результат всегда является положительным целым числом.Функция \ (I _ {\ mathcal A} \) может интерпретироваться как точное значение. Энтропия – это ожидаемое количество информации, необходимое для нахождения точки в разделе.

См. Пример вычисления и интерпретации информации и энтропии раздела.

  • Другая интерпретация энтропии Шеннона связана с понятием неопределенности. Пусть \ (X \) будет случайной величиной, определенной в вероятностном пространстве \ (\ Omega \) и принимающей значения в конечном множестве \ (\ {x_1, x_2, \ dots, x_n \} \.\) Переменная \ (X \) генерирует разбиение \ (\ mathcal A \) из \ (\ Omega \) на множества \ (A_i = \ {\ omega \ in \ Omega: X (\ omega) = x_i \ } \) (называется разделом прообраза). Вероятности \ (p_i = \ mu (A_i) = {Prob} (X = x_i) \) образуют разделение единицы, называемое распределением для \ (X \) . Предположим, экспериментатор знает распределение \ (X \) и пытается угадать результат \ (X \) перед проведением эксперимента, т. Е. Перед выбором некоторого \ (\ omega \ in \ Omega \) и чтением значения \ ( Х (\ омега) \.\) Его неуверенность относительно результата – это ожидаемая ценность информации, которую ему не хватает, чтобы быть уверенным. Как объяснялось выше, это именно энтропия \ (H_ \ mu (\ mathcal A) \. \)

Обратите внимание, что энтропия не зависит от метрической структуры набора значений \ (X \, \), поэтому энтропия не может быть по сравнению с дисперсией. Дисперсия измеряет другой вид неопределенности результата реальной случайной переменная \ (X \, \), которая учитывает расстояния между значениями результата.

Свойства информационной функции и энтропии Шеннона

  • (a) Информация \ (I (A) \) (см. (6)), связанная с множеством \ (A \), является неотрицательной и убывающей функцией \ (\ mu (A) \; \) меньшего набора, тем больше информации закодировано в том, что \ (\ omega \ in A \. \) \ (I (A) = 0 \) тогда и только тогда, когда \ (\ mu (A) = 1 \) (там информация не закодирована в событии, которое является достоверным).
  • (б) Энтропия раздела не зависит от порядка нумерации элементов раздела.
  • (c) Энтропия раздела неотрицательна и равна нулю тогда и только тогда, когда один из элементов \ (A_i \) раздела имеет меру 1 (а все остальные элементы имеют меру ноль).
  • (d) Энтропия разбиения на \ (n \) множеств максимальна для меры, которая присваивает этим множествам равные значения \ (\ frac 1n \). Тогда энтропия равна \ (\ log_2n \. \)
  • (e) Энтропия разбиения на \ (n \) множеств является непрерывной функцией мер этих множеств.
  • (f) Если элементы раздела \ (\ mathcal B \) получены путем объединения элементов раздела \ (\ mathcal A \) (т.е. если \ (\ mathcal A \) является уточнением из \ (\ mathcal B \)), затем \ (H_ \ mu (\ mathcal B) \ le H_ \ mu (\ mathcal A) \. \)
  • (g) Энтропия наименьшего общего уточнения \ (\ mathcal A \ vee \ mathcal B \) двух разбиений \ (\ mathcal A \) и \ (\ mathcal B \) не больше суммы энтропий \ (\ mathcal A \) и \ (\ mathcal B \) (это свойство называется субаддитивностью).
  • (h) Равенство \ (H_ \ mu (\ mathcal A \ vee \ mathcal B) = H_ \ mu (\ mathcal A) + H_ \ mu (\ mathcal B) \) выполняется тогда и только тогда, когда \ (\ mathcal A \) и \ (\ mathcal B \) стохастически независимы.

Шеннон доказал, что вышеуказанные свойства (b), (c), (d), (e) и (h) определяют определяющую формулу (5).

Условная энтропия

Даны два конечных разбиения \ (\ mathcal A \) и \ (\ mathcal B \) одного и того же вероятностного пространства. \ ((\ Omega, \ mu) \, \) условная энтропия \ (\ mathcal A \) при \ (\ mathcal B \) определяется как

\ [\ tag {9} H_ \ mu (\ mathcal A | \ mathcal B) = H_ \ mu (\ mathcal A \ vee \ mathcal B) – H_ \ mu (\ mathcal B) \]


и интерпретируется как количество информации, добавленной путем введения раздела \ (\ mathcal A \), когда раздел \ (\ mathcal B \) (и его информация) уже известен.Следующее имеет место

\ [ H_ \ mu (\ mathcal A | \ mathcal B) = \ sum_ {B \ in \ mathcal B} \ mu (B) H _ {\ mu_B} (\ mathcal A), \]

где \ (\ mu_B \) – мера условной вероятности на \ (B \), полученная ограничением и нормализацией \ (\ mu \) (нормализовать конечную меру означает умножить ее на константу, чтобы она стала вероятностная мера).

Иногда известная информация поступает не из конечного раздела, а только из семейства разделов или, более того. как правило, из семейства измеримых множеств, образующих сигма-поле \ (\ Sigma \), меньшее, чем сигмаполе всех измеримых множеств.В таком случае рассматривается условная энтропия разбиения \ (\ mathcal A \) с учетом сигма-поля \ (\ Sigma \), определенного как

\ [\ tag {10} H_ \ mu (\ mathcal A | \ Sigma) = \ inf H_ \ mu (\ mathcal A | \ mathcal B), \]


, где нижняя грань берется по всем конечным разбиениям \ (\ mathcal B \), измеримым относительно \ (\ Sigma \) (точная нижняя грань набора чисел является либо наименьшим числом в этом наборе, либо наибольшим число меньше всех элементов в наборе; например, нижняя грань всех строго положительных чисел равна 0).

См. Также взаимную информацию.

Свойства условной энтропии

  • (a) \ (H_ \ mu (\ mathcal A | \ mathcal B) \ le H_ \ mu (\ mathcal A) \, \) \ (H_ \ mu (\ mathcal A | \ mathcal A) = 0 \ )
  • (b) Если \ (\ mathcal B \) является уточнением \ (\ mathcal C \), то \ (H_ \ mu (\ mathcal A | \ mathcal B) \ le H_ \ mu (\ mathcal A | \ mathcal C) \. \)
  • (c) \ (H_ \ mu (\ mathcal A | \ mathcal B \ vee \ mathcal C) = H_ \ mu (\ mathcal A \ vee \ mathcal B | \ mathcal C) -H_ \ mu (\ mathcal B | \ mathcal C) \.\)

Свойство (h) энтропии Шеннона можно переформулировать следующим образом:

  • (h ‘) Разделы \ (\ mathcal A \) и \ (\ mathcal B \) стохастически независимы тогда и только тогда, когда \ (H_ \ mu (\ mathcal A | \ mathcal B) = H_ \ mu (\ mathcal A) \) (по симметрии также \ (H_ \ mu (\ mathcal B | \ mathcal A) = H_ \ mu (\ mathcal B) \)).

Энтропия Колмогорова-Синая

См. Основную статью об энтропии Колмогорова-Синая.

Это ключевое понятие энтропии в эргодической теории.п). \]


энтропия Колмогорова-Синая системы, сохраняющей меру \ ((\ Omega, \ mu, T) \), является супремумом

\ [\ tag {12} h_ \ mu (T) = \ sup _ {\ mathcal A} h_ \ mu (T, \ mathcal A), \]


где \ (\ mathcal A \) пробегает все конечные измеримые разбиения \ (\ Omega \. {- n} (\ mathcal A): \ n \ ge 0 \) равно сигма-полю всех измеримых множеств.{n} (\ mathcal A): \ n \ in \ Bbb Z \) – сигма-поле всех измеримых множеств.

  • Теорема Колмогорова-Синая : Если \ (\ mathcal A \) является генератором (односторонним или двусторонним), то \ (h_ \ mu (T) = h_ \ mu (T, \ mathcal A ) \. \)
  • Теорема о генераторе Кригера : Если \ (T \) обратима, то \ (h_ \ mu (T) <\ infty \) тогда и только тогда, когда система имеет конечный двусторонний генератор. Более того, \ (h_ \ mu (T) = 0 \) тогда и только тогда, когда оба \ (T \) обратимы и система имеет односторонний образующий.п \) может быть далек от единицы, только их логарифмы должны иметь абсолютные значения намного меньше, чем \ (n \. \)

    Энтропия играет ключевую роль в теории процессов Бернулли, разработанной Дональдом Орнштейном, где оказывается быть полным инвариантом изоморфизма:

    • Теорема Орнштейна : Два процесса Бернулли изоморфны тогда и только тогда, когда их энтропии равны.

    Топологическая энтропия

    Это основное понятие энтропии в топологической динамике.В топологической динамической системе топологическая энтропия измеряет экспоненциальную скорость роста числа различимых \ (n \) – орбиты по мере роста \ (n \) до бесконечности.

    См. Основную статью о топологической энтропии.

    Энтропия сжатия

    Рассмотрим сообщение в виде очень длинной последовательности (слова) \ (B \), составленной из конечного набора \ (\ Lambda \) из букв . Например, любой текстовый или компьютерный файл или даже телепрограмма имеет такую ​​форму.9 \, \), в то время как для \ (B_2 \. \) Нет очевидного сокращения. Некоторые склонны полагать, что \ (B_2 \) несет больше информации, чем \ (B_1 \, \), потому что его описание нельзя существенно сжать.

    Этой интуиции формальную форму придали такие ученые, как Шеннон и Колмогоров, в 60-х годах, а затем ее развил Леонид Левин (1974).

    Код сжатия данных без потерь формально представляет собой любую функцию, преобразующую в соответствии 1-1 все конечные сообщения в \ (\ Lambda \) в конечные последовательности (разной длины) в другом конечном алфавите, например \ (\ Sigma \.\) Обычно требуется, чтобы код также содержал все инструкции необходимо для выполнения обратного преобразования (т. е. для декодирования). Не нужно включать только общепринятые условные обозначения. Точный строгость, наложенная на код, приводит к немного другим понятиям (см., например, сложность Колмогорова).

    Информационное содержание сообщения \ (B \) равно \ (m \ log_2 (\ # \ Sigma) \, \), где \ (m \) – это длина кратчайшего возможного изображения \ (B \) с помощью кода сжатия данных без потерь.Соотношение

    \ [ R (B) = \ frac {m \ log_2 (\ # \ Sigma)} {N \ log_2 (\ # \ Lambda)} \]

    называется (наилучшей) степенью сжатия из \ (B \) или его энтропией сжатия (он представляет собой соотношение между длиной сжатого и исходного сообщения, если оба преобразованы в двоичный алфавит простой двоичной кодировкой букв).

    См. Связь между различными значениями энтропии.

    См. Пример простого алгоритма сжатия

    См. Также алгоритм Лемпеля-Зива

    Энтропия как беспорядок

    Почти во всех смыслах энтропия может рассматриваться как мера беспорядка и хаоса, если под порядком понимать , разделяя вещи по их роду (e.грамм. аналогичными свойствами или значениями параметров). Хаос – это состояние системы (физической или динамической), в которой элементы всех видов равномерно перемешаны по всей системе. пространство, так что пространство однородное . Например, емкость с газом находится в состоянии максимальной энтропии, когда температура и давление постоянны по всему объему. Это означает, что примерно одинаковое количество частиц в каждой единице объема, а соотношение между медленными и быстрыми частицами везде такой же.Состояния с более низкой энтропией возникают, когда частицы организованы , например: более медленные в одной области, более быстрые в другой. Сообщение \ (B \) имеет высокую энтропию, если все короткие слова появляются с одинаковой частотой во всех достаточно длинных подсловах. \ (B \. \) Любой след организации и логики в структуре сообщения позволяет его сжатие и следовательно, снижает его энтропию сжатия. Эти наблюдения приводят к здравому смыслу энтропии.

    Поддержание порядка в доме означает, что пища должна быть отделена от посуды и тарелок, а одежда должна располагаться в шкафу по типу, мусор, помещенный в контейнер для мусора и т. д.Когда эти вещи смешиваются вместе, энтропия увеличивается, вызывая беспорядок и хаос. В социальной системе порядок связан с классификацией людей по их навыкам и присвоением им соответствующие позиции в системе. Для поддержания такого порядка применяются законы и другие механизмы. Когда эта классификация и присвоение терпят неудачу, система впадает в хаос.

    Связь между различными значениями энтропии

    См. Связь между различными значениями энтропии.

    Список литературы

    [B] Людвиг Больцман, Лекции по теории газа, 1898 г.

    [Ca] Сади Карно, Размышления о движущей силе огня, 1824 г.

    [Cl] Рудольф Клаузиус, Механическая теория тепла – с ее приложениями к паровому двигателю и физическим свойствам тел, Лондон, 1865.

    [G] Уиллард Гиббс, Метод геометрического представления термодинамических свойств веществ с помощью поверхностей, 1873 г.

    [L] Рольф Ландауэр, IBM Jl.Res. Развивать. 5, 1961.

    [K] Андрей Н. Колмогоров, Новый метрический инвариант транзитивных динамических систем и эндоморфизмы пространств Лебега, 1958.

    [N] Джон фон Нейман, Mathematische Grundlagen der Quantenmechanik, Springer, Berlin, 1932.

    [P] Карл Петерсен, Эргодическая теория, Кембридж, 1983.

    [Sh] Клод Э. Шеннон, Математическая теория коммуникации, 1948.

    [Si] Яков Г. Синай, О понятии энтропии динамической системы, 1959.

    [SW] Клод Э. Шеннон и Уоррен Уивер, Математическая теория коммуникации.

    [Wa] Питер Уолтерс, Эргодическая теория: вводные лекции, Springer, Berlin, 1975.

    Внутренние ссылки

    Подстраницы

    Внешние ссылки

    См. Также

    энтропия Бекенштейна-Хокинга, Хаос, Сжатие данных, Энтропия в хаотической динамике, Энтропия шипованных поездов, Колмогоровская сложность, Энтропия Колмогорова-Синая, Законы термодинамики, Взаимная информация, Стрела времени и энтропия Больцмана, Топологическая энтропия, Передача энтропии, Энтропия фон Неймана.

    Энтропия

    Использование законов Ньютона для описания движения молекул не скажет вам, что появилось раньше. Для изолированной системы энтропия всегда увеличивается или остается неизменной, поэтому, если вы сравните состояния с разной энтропией, то состояние с большей энтропией будет позже.

    Предостережения и возражения

    Есть некоторые тонкости в природе энтропии и других термодинамических величин, тонкости, которые мы пытаемся выразить в словесных изображениях и набросках, которые иногда упрощают.Преподавая термодинамику, я всегда старался помнить слова одного из великих учителей физики середины ХХ века Марка Земанского:

    «Преподавать теплофизику
    так же просто, как песня:
    Вы думаете, что упрощаете
    , когда делаете что-то не так».

    Приведенные выше диаграммы вызвали оживленную дискуссию, отчасти из-за использования порядка и беспорядка в концептуальном введении энтропии. Для физиков типично использование такого рода введения, потому что оно быстро вводит понятие множественности визуальным, физическим способом с аналогиями в нашем обычном опыте.С другой стороны, химики часто протестуют против этого подхода, потому что в химических приложениях порядок и беспорядок не передают необходимые идеи на молекулярном уровне и действительно могут вводить в заблуждение. Сам факт расхождения во взглядах на использование порядка и беспорядка может быть поучительным.

    На верхней диаграмме стрелка времени изображена как указывающая от порядка к беспорядку, но следует признать, что очевидная тенденция перехода от порядка к беспорядку – не самый фундаментальный способ взглянуть на верхнюю диаграмму.При обычных температурах внутренняя энергия газа дала бы молекулам высокие скорости, и очевидно, что такое упорядоченное расположение будет очень редким, потому что есть только несколько способов сделать это. Если бы это произошло, то это было бы на короткое время, а затем молекулы переместились бы в какую-то другую конфигурацию. На диаграмме слева изображена более случайная или неупорядоченная конфигурация, но ключевым моментом является то, что существует огромное количество способов, которыми такие конфигурации могут быть достигнуты. Таким образом, множественность является ключевой концепцией: молекулярные ансамбли будут спонтанно эволюционировать от конфигураций с меньшей множественностью к конфигурациям с большей множественностью.

    Нижняя диаграмма – это снова картина, которую сразу же идентифицирует обычный опыт – существует больше способов создать груду беспорядочных кирпичей, чем аккуратно сложенную конструкцию. Опять же, идея множественности является ключевым моментом. Возражения против такого рода введения в энтропию исходят из того факта, что полезные применения энтропии являются термодинамическими и связаны с природой в атомном и молекулярном масштабе. Упорядоченные кирпичи по сравнению с беспорядочной кучей могут быть полезной вводной визуализацией, но если бы эти две груды кирпичей были при одинаковой температуре, то числовое значение энтропии было бы почти идентичным для двух стопок.Если вклады в энтропию включают множество способов, которыми может быть организовано огромное количество молекул в двух стопках кирпичей, то тот факт, что макроскопическая ориентация кирпичей разная, является незначительным вкладом в общую энтропию. Энтропия – это важнейшая микроскопическая концепция для описания термодинамики систем молекул, и приписывание энтропии макроскопическим объектам, таким как кирпичи, не имеет очевидной практической ценности, кроме как вводной визуализации.

    Индекс

    Энтропийные концепции

    Разница между энтальпией и энтропией

    Энтропия и энтальпия

    В физике термодинамика – это исследование воздействия тепла, энергии и работы на систему.

    Энтропия – это мера тепловой энергии системы на единицу температуры.

    Это мера недоступной энергии в замкнутой термодинамической системе и связана с измерением молекулярного беспорядка или хаотичности молекул внутри системы.

    Проще говоря, энтропия – это степень беспорядка или неопределенности в системе.

    Энтальпия – центральный фактор термодинамики. Это общее количество тепла, содержащегося в системе.

    Это означает, что при добавлении энергии энтальпия увеличивается.

    Если энергия отдается, то энтальпия системы уменьшается.

    (Изображение будет добавлено в ближайшее время)

    Энтальпия и энтропия в термодинамике

    Энтальпия

    В термодинамике

    H = U + PV

    Где U – внутренняя энергия

    P – внешнее давление

    V = Объем

    H = Энтальпия

    Например,

    Рассмотрим систему, в которой молекулы движутся беспорядочно.Эти молекулы имеют некоторое притяжение между собой, поэтому они обладают потенциальной энергией.

    Все вместе эти энергии состоят из внутренней энергии.

    Здесь система находится в свободном состоянии.

    Чтобы установить давление и объем внутри системы, необходимо проделать определенную работу. Используемая энергия – это фактически PV.

    Итак,

    Теплосодержание = Внутренняя энергия = Оно исходит от атомов и молекул или электронов на квантовом уровне, поскольку они очень малы по радиусу действия.

    Здесь PV = – энергия, необходимая для создания системы при давлении P, объеме V из пустого пространства.

    Следовательно, полная энергия, которая требуется для всего процесса, называется энтальпией.

    Единица измерения H – кДж / моль.

    Здесь на моль означает энергию, требуемую на моль реакции.

    Главный недостаток H в том, что его невозможно измерить, поэтому мы рассматриваем ΔH (изменение энтальпии).

    Энтропия

    Термин энтропия возник в результате спонтанного процесса (процесса, который происходит сам по себе или при небольшом толчке).

    Когда случайность системы увеличивается, процесс называется спонтанным.

    Например, вы сидите в классе по своему желанию.

    Ваш учитель усаживает вас на свои места. Таким образом, в классе создается случайность из-за внешней энергии или небольшого толчка (со стороны вашего учителя), приложенного к вам. Такой процесс носит стихийный характер.

    Мера такого неорганизованного движения молекул называется энтропией (обозначается S).

    Когда мы рассматриваем природу, энтропия продолжает расти. Поэтому природа спонтанна.

    Связь между энтропией и энтальпией

    Энтальпия – это сумма всех энергий, а энтропия – это мера изменения энтальпии / температуры.

    Давайте разберемся на примере,

    Предположим, у вас есть рупии. 100 с вами. Если кто-то даст вам рупий. 50 обратите внимание, это будет иметь значение.

    Если у вас есть рупий. 1,00,00,000 с вами и кто-то дает, вам рупий.50, хотя изменение такое же.

    Итак, нам нужен еще один термин, чтобы измерить разницу, создаваемую этой банкнотой в 50 рупий.

    Мы можем разделить сдачу на сумму, которая у вас была изначально.

    Как и в первом случае,

    Это 50/100 = 0,5

    А во втором случае

    50/1,00,00000 = 0,000005

    В термодинамике

    Это соотношение называется энтропией. то есть подводимое тепло (примерно изменение энтальпии, ΔH), деленное на температуру (напрямую связанное с энтальпией).

    Разница между энтальпией и энтропией

    Энтальпия

    Энтропия

    Это атрибут энергии

    .

    Непосредственно связано с внутренней энергией системы.

    Энтропия – это измерение молекулярной случайности

    Это сумма всех энергий внутри системы.

    Увеличивается с повышением температуры.

    Обозначено как H.

    Обозначено как S.

    Единица = кДж / моль

    Единица = Дж / К

    906 Kamerlingh Onnes.

    Названо ученым по имени Рудольф Клаузиус.

    Спонтанность

    Как мы обсуждали выше, при свободном расширении газа в молекулах присутствует хаотичность.

    ∆H = -ve (тепло отдается в окружающую среду или экзотермически), стабильная система и, следовательно, самопроизвольная.

    ∆H = + ve (тепло, добавляемое из окружающей среды), энтропия увеличивается.

    ∆S = + ve, случайность увеличивается.

    Если ∆S = -ve, когда вода превращается в лед, энтропия уменьшается.

    Здесь из-за вариативности не удалось добиться идеальных спонтанных реакций.

    Итак,

    ΔG стал идеальным шагом для определения спонтанности реакции со 100% гарантией.

    G = H – T S

    Где G – свободная энергия Гиббса.

    Если реакцию проводят при ΔT = 0 (T в кельвинах), то

    ΔG = ΔH – TΔS

    Это уравнение называется уравнением Гиббса-Гельмгольца.

    Где ∆G – изменение свободной энергии.

    Для спонтанных реакций ∆G всегда <0.

    Следовательно, свободная энергия Гиббса – это термодинамический потенциал, который можно использовать для расчета полезной работы, выполняемой термодинамической системой при постоянной температуре и давлении.

    Энтропия: невидимая сила, несущая беспорядок во Вселенную

    Вы не можете легко вернуть зубную пасту в тюбик. Вы не можете ожидать, что молекулы пара спонтанно мигрируют вместе, чтобы сформировать шар воды. Если вы выпустите кучу щенков корги в поле, маловероятно, что вы сможете собрать их всех обратно в ящик, не проделав кучу работы. Это проблемы, связанные со вторым законом термодинамики, также известным как закон энтропии.

    Второй закон термодинамики

    Термодинамика важна для различных научных дисциплин, от инженерных и естественных наук до химии, физики и даже экономики. Термодинамическая система – это замкнутое пространство, которое не пропускает энергию внутрь или наружу.

    Первый закон термодинамики связан с сохранением энергии – вы, вероятно, помните, что слышали ранее, что энергия в замкнутой системе остается постоянной («энергия не может быть ни создана, ни уничтожена»), если в нее не вмешиваются извне.Однако энергия постоянно меняет форму – огонь может превратить химическую энергию растений в тепловую и электромагнитную энергию. Батарея превращает химическую энергию в электрическую. Мир поворачивается, и энергия становится менее организованной.

    «Второй закон термодинамики называется законом энтропии», – сообщил нам в электронном письме Марко Попович, научный сотрудник биотермодинамики в Школе естественных наук Технического университета Мюнхена. «Это один из важнейших законов природы.«

    Энтропия – это мера беспорядка в замкнутой системе. Согласно второму закону, энтропия в системе почти всегда увеличивается со временем – вы можете выполнять работу по созданию порядка в системе, но даже работу, которая требует переупорядочения увеличивает беспорядок как побочный продукт – обычно в виде тепла. Поскольку мера энтропии основана на вероятностях, конечно, возможно, возможно, для энтропии иногда уменьшаться в системе, но это статистически очень маловероятно.

    Определение беспорядка

    Сложнее, чем вы думаете, найти систему, которая не выпускает энергию внутрь или наружу – наша Вселенная является таким же хорошим примером, как и мы, – но энтропия описывает, как беспорядок происходит в система размером с Вселенную или маленькая, как термос с кофе.

    Однако энтропия не имеет ничего общего с типом беспорядка, о котором вы думаете, когда запираете группу шимпанзе на кухне. Это больше связано с , сколько возможных перестановок беспорядка может быть сделано на этой кухне, а не с тем, насколько большой и возможен беспорядок.Конечно, энтропия зависит от множества факторов: сколько есть шимпанзе, сколько вещей хранится на кухне и насколько велика кухня. Итак, если вы посмотрите на две кухни – одну очень большую и укомплектованную до самых жабр, но тщательно чистую, а другую, меньшую по размеру, с меньшим количеством вещей, но уже изрядно вытесанную шимпанзе, – соблазнительно сказать, что в более грязной комнате больше энтропия, но это не обязательно так. Энтропия больше связана с , сколько различных состояний возможно , чем с тем, насколько оно неупорядочено в данный момент; система, следовательно, имеет больше энтропии, если в ней больше молекул и атомов, и если она больше.А если будет еще шимпанзе.

    Энтропия сбивает с толку

    Энтропия может быть самой верной научной концепцией, которую действительно понимают немногие люди. Концепция энтропии может сбивать с толку – отчасти потому, что на самом деле существуют разные типы. Венгерский математик Джон фон Нейман посетовал на ситуацию следующим образом: «Кто бы ни использовал термин« энтропия »в дискуссии, всегда побеждает, поскольку никто не знает, что такое энтропия на самом деле, поэтому в дебатах всегда есть преимущество».

    «Определить энтропию немного сложно, – говорит Попович.«Возможно, его лучше всего определить как неотрицательное термодинамическое свойство, которое представляет собой часть энергии системы, которая не может быть преобразована в полезную работу. Таким образом, любое добавление энергии к системе означает, что часть энергии будет преобразована в энтропию, увеличивая беспорядок в системе. Таким образом, энтропия является мерой беспорядка системы ».

    Но не расстраивайтесь, если вы запутались: определение может варьироваться в зависимости от того, какая дисциплина используется в данный момент:

    В середине 19 века немецкий физик по имени Рудольф Клаузиус, один из основателей концепция термодинамики, работал над проблемой эффективности паровых двигателей и изобрел концепцию энтропии, чтобы помочь измерить бесполезную энергию, которая не может быть преобразована в полезную работу.Пару десятилетий спустя Людвиг Больцманн (другой «основатель» энтропии) использовал эту концепцию для объяснения поведения огромного числа атомов: хотя невозможно описать поведение каждой частицы в стакане воды, все же можно предсказать их коллективное поведение при нагревании с использованием формулы энтропии.

    «В 1960-х годах американский физик Э.Т. Джейнс интерпретировал энтропию как информацию, которую мы упускаем для определения движения всех частиц в системе», – говорит Попович.«Например, один моль газа состоит из 6 x 10 23 частиц. Таким образом, для нас невозможно описать движение каждой частицы, поэтому вместо этого мы делаем следующее лучшее, что определяем газ не через движение каждой частицы, но благодаря свойствам всех частиц вместе взятых: температуре, давлению, полной энергии. Информация, которую мы теряем при этом, называется энтропией ».

    И ужасающая концепция «тепловой смерти вселенной» была бы невозможна без энтропии.Поскольку наша Вселенная, скорее всего, начиналась как сингулярность – бесконечно малая упорядоченная точка энергии – которая раздувалась и продолжает расширяться все время, энтропия в нашей Вселенной постоянно растет, потому что там больше места и, следовательно, больше потенциальных состояний беспорядка для атомы здесь, чтобы принять. Ученые выдвинули гипотезу, что спустя много времени после того, как мы с вами уйдем, Вселенная в конечном итоге достигнет некоторой точки максимального беспорядка, в этот момент все будет иметь одинаковую температуру, без каких-либо очагов порядка (таких как звезды и шимпанзе).

    И если это произойдет, мы будем благодарить за это энтропию.

    Энтропийная термодинамика | Инженеры Edge

    Энтропийная термодинамика

    Справочник по термодинамике | Справочник по теплопередаче

    Энтропийная термодинамика

    Одним из следствий второго закона является развитие физического свойства материи, называемого энтропией (S).Энтропия была введена, чтобы помочь объяснить Второй закон термодинамики. Изменение этого свойства используется для определения направления, в котором будет развиваться данный процесс. Энтропию также можно объяснить как меру недоступности тепла для выполнения работы в цикле. Это относится ко второму закону, поскольку второй закон предсказывает, что не все тепло, подаваемое в цикл, может быть преобразовано в равный объем работы, должен иметь место некоторый отвод тепла. Изменение энтропии определяется как отношение тепла, переданного во время обратимого процесса, к абсолютной температуре системы.

    Второй закон также может быть выражен как ΔS≥O для замкнутого цикла. Другими словами, энтропия должна увеличиваться или оставаться неизменной для циклической системы; он никогда не может уменьшиться.

    Энтропия – это свойство системы. Это обширное свойство, которое, как и полная внутренняя энергия или полная энтальпия, может быть вычислено из конкретных энтропий, основанных на единице массы системы, так что S = ms. Для чистых веществ значения удельной энтропии могут быть сведены в таблицу вместе с удельной энтальпией, удельным объемом и другими интересующими термодинамическими свойствами.Одно место, чтобы найти эту та

    Удельная энтропия, поскольку это свойство, преимущественно используется в качестве одной из координат при графическом представлении обратимого процесса. Площадь под кривой обратимого процесса на диаграмме T-s представляет количество тепла, переданного во время процесса.

    Термодинамические проблемы, процессы и циклы часто исследуются путем замены фактического необратимого процесса на обратимые процессы, чтобы помочь студенту в анализе второго закона.Эта замена особенно полезна, потому что только обратимые процессы могут быть изображены на диаграммах (например, h-s и T-s), используемых для анализа. Реальные или необратимые процессы невозможно нарисовать, поскольку они не являются последовательностью условий равновесия. Известны только начальные и конечные условия необратимых процессов; однако некоторые тексты по термодинамике изображают необратимый процесс пунктирными линиями на диаграммах.

    Энтропия в химии: определение и закон – видео и стенограмма урока

    Позиционная энтропия

    Из нашего исследования свойств вещества мы знаем, что молекулы в твердой фазе занимают строгое жесткое положение; молекулы в жидкой фазе плотно упакованы, но могут двигаться более свободно, чем твердые молекулы; а молекулы в газовой фазе не имеют фиксированного положения и могут распространяться и перемещаться настолько свободно, насколько это возможно.

    Как вы можете видеть здесь, молекулы газа обладают способностью расширяться сильнее, чем молекулы в любой другой фазе. Таким образом, молекулы газа обладают наибольшей позиционной энтропией. Позиционная энтропия зависит от количества доступных конфигураций или расположений в пространстве. Поскольку молекулы газа могут расширяться и двигаться более свободно, они имеют больше возможных расположений или положений, что придает им большую энтропию.

    Более того, поскольку молекулы жидкости могут двигаться более свободно, чем молекулы твердого тела, жидкости имеют большую позиционную энтропию, чем твердые тела.В целом мы видим, что энтропия увеличивается от твердой фазы к жидкой фазе и от жидкой фазы к газовой фазе.

    Второй закон термодинамики

    Как мы уже узнали, природа Вселенной движется к наиболее вероятному доступному состоянию. В терминах энтропии это означает, что в любом спонтанном процессе (процессе, который происходит без внешнего влияния) всегда происходит увеличение энтропии Вселенной. Это известно как второй закон термодинамики , который, говоря простым языком, заявляет, что энтропия Вселенной постоянно увеличивается.

    Резюме урока

    Итак, энтропия – это термодинамическая функция, которая измеряет случайность и беспорядок во Вселенной. Позиционная энтропия основывается на количестве молекулярных положений или расположений, доступных системе. Молекулы газа обладают наивысшей позиционной энтропией из всех состояний вещества. Хотя молекулы жидкости имеют большую энтропию, чем твердые тела, обе они намного меньше энтропии газообразных веществ.

    Наконец, каждый спонтанный процесс во Вселенной естественным образом движется в сторону увеличения энтропии, что означает, что энтропия Вселенной постоянно увеличивается, и в вашей комнате, скорее всего, будет беспорядок! Теперь у вас есть повод дать маме в следующий раз лекцию о уборке!

    Расчет энтропии

    Вопрос:

    Предположим, у вас есть два медных блока, каждый с теплоемкостью Cv = 200.Дж / (° К). Первоначально один блок имеет однородную температуру 300 ° K, а другой 310 ° K. Вычислите изменение энтропии, которое происходит, когда вы помещаете два блока в тепловой контакт друг с другом и окружаете их идеальной теплоизоляцией. Предположим, что процесс происходит при постоянном объеме.

    Решение:

    Поскольку блоки имеют одинаковую теплоемкость, определенное количество теплопередачи от более теплого к более холодному блоку вызывает изменения температуры, равные по величине и противоположные знаки.Конечная равновесная температура составляет 305 ° К, среднее из начальных значений.

    Когда температура одного из блоков обратимо изменяется от T1 до T2, изменение энтропии составляет Δ S = ∫ dq / T = cv dT / T с пределами интегрирования от T1 до T2.

    Изменение энтропии cv ln T2 / T1.

    Для охлаждающего блока Δ S = 200 Дж K-1 ln 305/300 = 3,306 Дж K-1

    Для более теплого блока Δ S = 200 Дж K-1 ln 305/310 = -3,252 Дж K-1

    Общее изменение энтропии равно 3.

Оставить комментарий