Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Информационная энтропия. Энтропия в биологии

Читайте также:
  1. Библиотека как информационная система.
  2. Бухгалтерский учет как информационная система
  3. Второе начало термодинамики. Энтропия
  4. Дифференциалдық энтропия
  5. Зертханалық жұмыс №2.Шартты энтропия мен қосылмалы энтропияны анықтау. (4 сағат).
  6. Информационная база моделирования кредитоспособности
  7. Информационная культура: понятие и компоненты

Информационная энтропия служит мерой неопределенности сообщений. Сообщения описываются множеством величин x1, x2 xn, которые могут быть, например, словами: p1, p2 …, pn. Информационную энтропию обозначают Sn или Hu. Для определенного дискретного статистического распределения вероятностей Pi используют следующее выражение:

 

при условии:

 

Значение Sn = 0, если какая‑либо вероятность Pi = 1, а остальные вероятности появления других величин равны нулю. В этом случае информация достоверна, то есть неопределенность в информации отсутствует. Информационная энтропия принимает наибольшее значение, когда Pi равны между собой и неопределенность в информации максимальна.

Общая энтропия нескольких сообщений равна сумме энтропий отдельных сообщений (свойство аддитивности).

Американский математик Клод Шеннон, один из создателей математической теории информации, использовал понятие энтропии для определения критической скорости передачи информации и при создании «помехоустойчивых кодов». Такой подход (использование из статистической термодинамики вероятностной функции энтропии) оказался плодотворными в других направлениях естествознания.

Понятие энтропии, как показал впервые Э. Шредингер (1944 г.), а затем Л. Бриллюэн и др., существенно и для понимания многих явлений жизни и даже деятельности человека.

Теперь ясно, что с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельно возможной упорядоченности, которому соответствует единственно возможное состояние элементов системы.

Живой организм с точки зрения протекающих в нем физико‑химических процессов можно рассматривать как сложную открытую систему, находящуюся в неравновесном, нестационарном состоянии. Для живых организмов характерна сбалансированность процессов обмена, ведущих к уменьшению энтропии. Конечно, с помощью энтропии нельзя охарактеризовать жизнедеятельность в целом, так как жизнь не сводится к простой совокупности физико‑химических процессов. Ей свойственны другие сложные процессы саморегуляции.

 


[1]Формулировка принадлежит известному физику Д. Бому.

 

[2]ОТО – одна из самых сложных областей современной физики. Она базируется на громоздком математическом аппарате уравнений Эйнштейна, которые представляют собой систему ковариантных уравнений в частных производных.

 


Дата добавления: 2015-10-23; просмотров: 145 | Нарушение авторских прав


Читайте в этой же книге: Ньютоновская концепция абсолютного пространства и времени. Законы движения | Два постулата Эйнштейна в СТО | Релятивистские эффекты | Идеальный цикл теплового двигателя Карно |
<== предыдущая страница | следующая страница ==>
Второе начало термодинамики. Энтропия| СПИСОК ИСТОЧНИКОВ И ЛИТЕРАТУРЫ

mybiblioteka.su - 2015-2024 год. (0.005 сек.)