Читайте также:
|
|
Следует выделить еще два понятия, которые мы будем использовать в дальнейшем - энтропия и информация.
Исследуя поведение термодинамических систем немецкий физик, один из основателей термодинамики и молекулярно-кинетической теории Р.Клаузиус (1822-1888) для описания протекающих в них процессов ввел специальную функцию, характеризующую состояние системы, и назвал ее энтропией (S) (греч. entropia - поворот, превращение). Она является мерой беспорядка (хаоса) в системе.
Количественная связь между энтропией и беспорядком была установлена австрийским физиком Л.Больцманом (1844-1906):
S = k ln W,
здесь ln - натуральный логарифм (логарифм с основанием 2,72), k - постоянная Больцмана, W - вероятность случайного события (статистический вес состояния системы). S и W выступают мерой неупорядоченности системы, неопределенности ее состояния
Энтропия всегда положительная величина. Иногда используют термин негэнтропия - энтропия, взятая со знаком минус; она отражает степень упорядоченности системы.
Информация в обыденном смысле - это совокупность сведений о чем-либо. Но как оказалось, информация - это всеобщее свойство материи, заключающееся в способности материальных объектов сохранять следы былых взаимодействий. Информация проявляется через отражение и может быть оценена количественно:
I = a ln N,
здесь I - количество информации, а - коэффициент, определяющий единицу ее измерения, N - число вариантов, единственный выбор из которых определяет данная информация
Информация - это мера упорядоченности системы, это негэнтропия.
Дата добавления: 2015-07-12; просмотров: 169 | Нарушение авторских прав
<== предыдущая страница | | | следующая страница ==> |
Пространство и время | | | Фундаментальные законы природы |