Энтропия

Материал из Циклопедии
Перейти к навигации Перейти к поиску
Энтропия / Автор сценария: Филановский Г., Режиссер: Дубинская Л. 1981 г. [15:44]
Физика для чайников. Лекция 32. Энтропия // Телеканал Первый образовательный

Энтропия — семейство концепций об определённого рода мере, соотносящей информационный «размер» некоей общей совокупности или системы — с частными вариантами, случаями и состояниями той системы. Общее понятие об энтропии рассекает границы целого ряда формальных и естественных наук, а фундаментальный метафизический характер энтропии утверждён её главной ролью в формулировке Второго начала термодинамики.

Термин «энтропия» подвержен профанации, в особенно расхожей частности — путём описаний-«определений» энтропии, как меры «беспорядка», «хаотичности» и тому подобного.

Основные образцы[править]

Информационная энтропия[править]

Наиболее простая и прозрачная концепция об энтропии — информационная энтропия дискретной случайной величины:

Здесь Η — греческая буква э́та; X, икс — случайно выбранный элемент x из множества 𝓧 при функции распределения вероятностей p: 𝓧→[0,1] ; Σ это нотация суммирования (здесь суммируются все x), а log — операция логарифм с произвольным выбором основания. Словами: информационная энтропия элемента данного множества, выбранного случайно при распределении вероятностей p, равна со знаком минус сумме произведений меры вероятности на логарифм меры вероятности для каждого из элементов данного множества.

Единица измерения для такого рода энтропии, Ηшеннон, с синонимом бит, однако, «бит» наводит ложную конфузию с единицей цифровой информации. Континуальный аналог — дифференциальная [информационная] энтропия:

где — функция распределения плотности вероятности.

Энтропия в статистической механике[править]

Изначально, концепция энтропии развивалась в ходе основоположения термодинамики, как точной дисциплины на строгих математических началах. Впоследствии статистическая механика сыграла роль в формировании современной физики вообще и квантовой механики в особой курьёзной частности. Это уяснило роль энтропии, как фундаментальной концепии физики, и это при том, что данное выше определение информационной энтропии никак не опирается на физические интерпретации, даром, что оно целиком аналогично формуле Гиббса для «классической» термодинамической энтропии: Здесь kB — постоянная Больцмана, строго равная 8.617333262×10−5 eVK−1

Постоянная Больцмана соотносит понятие энергии с понятием температуры, и отсюда единица меры термодинамической энтропии: джоуль-на-кельвин или электронвольт-на-кельвин.

История понятия[править]

Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального.

Стандартная энтропия[править]

Стандартная энтропия — энтропия вещества при температуре 25 °С (298,15 К) и давлении 101 325 Па. Имеются таблицы стандартной энтропии разных веществ.

Значениями энтропии веществ пользуются для установления изменения энтропии системы в результате соответствующих процессов (по закону Гесса).

Энтропийный фактор[править]

Возрастание энтропии в системе называется энтропийным фактором. Этот фактор проявляется тем сильнее, чем выше температура. Количественно энтропийный фактор можно оценить произведением температуры на изменение энтропии и выразить в единицах энергии (Дж).

Об изменении энтропии в химической реакции можно судить по изменению объема системы в ходе реакции. Если объем системы возрастает, энтропия тоже возрастает.

Если реакция протекает между твердыми веществами, объем системы и ее энтропия обычно не меняется.

Изменение энергии системы называется энергетическим или энтальпийным фактором. Количественно эта тенденция системы выражается через тепловой эффект процесса.

См. также[править]

Ссылки[править]