научная статья по теме ИНФОРМАЦИОННО-ТЕРМОДИНАМИЧЕСКИЙ ПРИНЦИП ОРГАНИЗАЦИИ ХИМИКО-ТЕХНОЛОГИЧЕСКИХ СИСТЕМ Химическая технология. Химическая промышленность

Текст научной статьи на тему «ИНФОРМАЦИОННО-ТЕРМОДИНАМИЧЕСКИЙ ПРИНЦИП ОРГАНИЗАЦИИ ХИМИКО-ТЕХНОЛОГИЧЕСКИХ СИСТЕМ»

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ХИМИЧЕСКОЙ ТЕХНОЛОГИИ, 2011, том 45, № 5, с. 541-549

УДК 66.01:007./.005

ИНФОРМАЦИОННО-ТЕРМОДИНАМИЧЕСКИЙ ПРИНЦИП ОРГАНИЗАЦИИ ХИМИКО-ТЕХНОЛОГИЧЕСКИХ СИСТЕМ

© 2011 г. В. А. Налётов, Л. С. Гордеев, М. Б. Глебов, А. Ю. Налётов

Российский химико-технологический университет им. Д.И. Менделеева, Москва

епе^о@тис^. ги Поступила в редакцию 27.01.2011 г.

Дана количественная интерпретация эволюционного закона системной организации организмов К.Ф. Рулье применительно к химико-технологическим системам, основанная на энтропии информации. С позиции создания высокоорганизованной химико-технологической системы выведены соотношения для многоцелевых процессов и многомаршрутных систем, характеризующие оптимальное распределение затрат на организацию объектов.

ВВЕДЕНИЕ

Наиболее общим законом, лежащим в основе развития живой материи и создания систем с высокой степенью организованности, является эволюционный закон К.Ф. Рулье — системной организации организмов. Существо закона сводится к следующему: развитие живых организмов, а также всех природных, технических и социальных систем идет в направлении повышения их организованности путем нарастающей дифференциации (разделения) функций их элементов (подсистем), что приводит к усложнению всех типов систем.

Следовательно, совмещение нескольких функций в одном технологическом процессе или системе объективно мотивировано. Исходя из опыта развития, в частности, когенерационных (в широком смысле этого термина — совмещающих две и более технологических целей) процессов и установок, можно заключить, что подобная объективная тенденция системной организации процессов эффективна и с экономической точки зрения, поскольку затраты на процесс разделяются между потоками продуктов, что приводит к снижению их стоимости.

Целью настоящей работы является количественная интерпретация закона К.Ф. Рулье для объектов неживой материи, какими являются химико-технологические системы.

ТЕОРЕТИЧЕСКИЙ АНАЛИЗ

Как было показано ранее [1], характеристикой организованности химико-технологического процесса (ХТП) или системы (ХТС) является информация, содержащаяся и переносимая технологическими потоками.

По определению, используемому в настоящей статье, информация с одной стороны — есть выбор из ряда альтернатив единственного решения (исхо-

да), а с другой — есть реализованные посредством затраты обобщенной работы возможности к превращению, заложенные в исходных веществах. Поскольку информация есть результат выбора, то будем ассоциировать ее с решением некоторой информационной задачи по выбору какого-либо исхода из числа возможных. Следовательно, информационный подход изначально предполагает исходную неопределенность, связанную, например, с возможной дифференциацией функций системы между ее элементами, или с возможной дифференциацией функций самих элементов, путем создания многоцелевых, совмещенных технологических процессов. Согласно иерархическому представлению ХТС [2], в ней выделяются три уровня иерархии: ХТС как единое целое (замкнутая термодинамическая система), ХТП как единое целое (замкнутая термодинамическая система) и микросостояния, определяемые вероятностями возможных исходов. Представление объектов в виде замкнутых термодинамических систем обусловлено изоэнергетично-стью всех этапов преобразования информации [2].

Таким образом, в информационной системе, отображающей ХТС, имеется два вида неопределенностей: неопределенность того, что система передает свою функцию какому-либо элементу (ХТП), средний термодинамический уровень которого является специфической характеристикой данного ХТП и неопределенность того, что в данном ХТП, которому передала функцию система, на выходе реализуется один или несколько (если имеет место дифференциация функций в самом ХТП) исходов из числа возможных. Первая неопределенность описывается стохастическим процессом на основе модели нешенноновской информации, а вторая — на основе модели шенноновской информации, как было показано в [2]. Отличительной чертой использования обеих моделей информационного процесса является исходное положение, что число возмож-

А

Аз

А4

А5

Аб

Рис. 1. К выводу критерия организованности системы: возможные исходы при дифференциации функций ХТС: А0 — возможные исходы при дифференциации функций ХТС на уровне Z = 1; А^, А2 — возможные исходы при дифференциации функций ХТС на уровне Z = 2; А3, А4, А5, А6 — возможные исходы при дифференциации функций ХТС на уровне Z = 3.

ных сочетании средних термодинамических уровней ХТП в ХТС, равно как и число возможных исходов на микроуровне, стремится к бесконечности, путем минимизации в пределе до нуля дискретного шага квантования, позволяющего лишь теоретически установить различимость состояний. Вероятность исхода в такой информационной задаче может быть графически интерпретирована следующим образом (рис. 1).

Информационная задача, подобная той, которая изображена на рис. 1, решается поэтапно. Например, этап раскрытия неопределенности при возможной дифференциации функций системы между ее элементами (разбиение на уровни) и этап раскрытия неопределенности при возможной дифференциации функций между подсистемами процессов (разбиение на исходы). Оба этапа в решении информационной задачи оцениваются независимо в силу статистической независимости возможных уровней и исходов. Статистическая независимость возможных уровней и исходов является следствием следующих предпосылок:

вероятности возможных исходов отражают независимые возможные состояния информационной системы, которая является по сути модельным отображением процесса в реальном ХТП. При этом эти состояния идентифицируются с различными независимыми вариантами организации ХТП и моделируются на основе представлений об идеальном шанс-газе [3];

вероятности различных исходов и уровней являются независимыми по постулатам статистической физики [4], согласно которым равновесие по отношению к взаимному движению молекул и обмену энергией устанавливается быстрее, чем равновесие по отношению к взаимному превращению молекул или составу, что позволяет рассматривать все состояния системы как равновесные (находящиеся в ста-

тистическом равновесии) при неравновесном составе вещества. Это обстоятельство нашло свое отражение в количественном определении вероятностей уровней и исходов на основании распределения Больцмана, которое можно представить в виде произведения вероятностей изменения состава и энергии потоков.

Пусть мы имеем информационную систему, содержащую Z уровней, а на каждом уровне имеем N возможных исходов. Число конечных исходов будет в этом случае равно Ж

Энтропия информации, являющаяся мерой упорядочивания, на каждом этапе решения информационной задачи является функцией вероятностей ансамбля возможных исходов:

Н = Н (л; Ръ-.-Рн),

(1)

которая имеет максимум для ^кратно "вырожденной" информационной системы, когда все исходы равновероятны.

В этом случае зависимость (1) является монотонно возрастающей функцией от числа исходов N, т.е. Н = Г (Н) — возрастающая функция (при

р{ = —, 1 = 1, N) и, кроме того, она непрерывна и N

дифференцируема, как непрерывна и дифференцируема функция энтропии от числа уровней.

Принимая во внимание статистическую независимость вероятностей возможных исходов на всех Z уровнях, можно математически связать число возможных исходов с количеством уровней Z и числом исходов на каждом уровне N

Г (н2) = 2Г (н).

(2)

Энтропия информации сложной системы представляется в соответствии с принципом аддитивности энтропии как сумма энтропий информации ее подсистем.

Для примера, приведенного на рис. 1, имеем: Z = 2 и N = 2, таким образом N = 22=4, т.е. число конечных исходов равно 4 (А3, А4, А5, А6).

Продифференцируем сначала выражение (2) по числу уровней ^

Гг [Н2) = Гнх (Н2)Н2 1п N = /(Н).

(3)

Затем продифференцируем выражение (2) по числу исходов N

ГН (Нг) = ГН г (н2) гн2-1 = ггн (н). (4) В выражениях (3) и (4) имеется общий множитель ГН г (Н2), который мы исключаем. Тогда

Г (н) _ 2ГН (н)

Н21п Н

2Н2

Производя сокращения, имеем

fN (N) = 1

f (N) N ln N'

(6)

или

(7)

df (N) = dN f (N) N In N

Интегрирование выражения (7) приводит его к следующему виду:

dN

In f (N) = J-

N In N

■ + const

(8)

или

In f (N) = ln (In N) + const.

Откуда окончательно имеем

f (N) = H = Kln (N), (9)

где К — положительная постоянная. Выражение (9) совпадает с энтропией информации Шеннона.

Поскольку было принято, что p = 1, то выражение (9) для вырожденной информационной системы можно представить в виде

H = -K ln p. (10)

Величина положительной постоянной К полагается равной статистическому весу информационной системы АГ [3], т.е. K = AT, который рассчитывается на основании распределения, обратного распределению Больцмана для характеристик технологического потока:

(-т). (ID

АГ = ехр (-

По физическому смыслу величина статистического веса АГ — число дискретных (квантованных) состояний (исходов), приходящихся на интервал изменения энергии в процессе.

Для информационной системы "с прединформа-цией" [3], когда вероятности исходов не равны друг другу, выражение (10) имеет другой вид:

H = -K£ pt In pt.

(12)

Связь между энтропией информации согласно (12) и энтропией информации (10) показана в [3]. Независимо от выражений энтропии информации оба они сводятся к приведенному далее.

С учетом того, что ^ р = 1, по смыслу среднего

г

значения выражение (12) можно представить в виде

[4]:

Н = -К^ р 1п р = -К1пр(Ё) = -К 1п р(Е). (13)

Рис. 2. Пример дифференциации функций сложного ХТП: Нвх — энтропия информации на входе; Нвых12 — энтропия информации потоков продуктов; {и} — управляющее воздействие; ^1, ^2 — безразмерные множители (множители Лагранжа).

Принимая во внимание зависимость статистического веса АГ от вероятности

АГ p(E) = 1,

(14)

получим выражение для энтропии информации через статистический вес:

H = K lnA Г.

(15)

В работе [5] было показано, что статистический вес системы есть величина мультипликативная, что является следствием статистической независимости вероятностей в выражении (12), например, для системы, состо

Для дальнейшего прочтения статьи необходимо приобрести полный текст. Статьи высылаются в формате PDF на указанную при оплате почту. Время доставки составляет менее 10 минут. Стоимость одной статьи — 150 рублей.

Показать целиком