ЕНТРОПІЙНО-НЕГЕНТРОПІЙНІ МІРИ ПРОСТОТИ-СКЛАДНОСТІ СИСТЕМ

Опис документу:
У параметричній загальній теорії систем простота-складність (П-С) системи зазвичай моделюється за допомогою ентропії-негентропії певного способу статистичного розподілення: системні дескриптори розподіляються за їх ролями (чи за підвидами ролей) в заданому системнопараметричному співвідношенні (СП). Тут ентропія відображає невизначеність і простоту системи за даним СП. Визначеність, яка вводиться в систему за даним СП для її повної конкретизації, ускладнює її за цим СП (як і негентропія).

Відображення документу є орієнтовним і призначене для ознайомлення із змістом, та може відрізнятися від вигляду завантаженого документу. Щоб завантажити документ, прогорніть сторінку до кінця

Перегляд
матеріалу
Отримати код Поділитися

М.П Савусін,

методист департаменту освіти та науки Одеської міської ради,

здобувач ступеню кандидата філософських наук.

Одеський національний університет ім. І.І. Мечникова,

філософський факультет, кафедра філософії природничих факультетів.

УДК: 165 / 168: 001.8 (043.3)

ЕНТРОПІЙНО-НЕГЕНТРОПІЙНІ МІРИ ПРОСТОТИ-СКЛАДНОСТІ СИСТЕМ

В параметричній загальній теорії систем простота-складність (П-С) системи зазвичай моделюється за допомогою ентропії-негентропії певного способу статистичного розподілення: системні дескриптори розподіляються за їх ролями (чи за підвидами ролей) в заданому системнопараметричному співвідношенні (СП). Тут ентропія відображає невизначеність і простоту системи за даним системним параметром (СП). Визначеність, яка вводиться в систему за даним СП для її повної конкретизації, ускладнює її за цим СП (як і негентропія).

Ключові слова: система, простота-складність, ентропія-негентропія, визначеність-невизначеність, системний параметр, критерії спрощення, системний дескриптор.

ЭНТРОПИЙНО-НЕГЕНТРОПИЙНЫЕ МЕРЫ ПРОСТОТЫ-СЛОЖНОСТИ СИСТЕМ

В параметрической общей теории систем простота-сложность (П-С) системы обычно моделируется с помощью энтропии-негентропии некоторого способа статистического распределения: системные дескрипторы распределяются по их ролям (или по подвидам ролей) в заданном системнопараметрическом соотношении (СП). Здесь энтропия отражает неопределённость и простоту системы по данному системному параметру (СП). Определённость же, которая вводится в систему (в плане данного СП) для её полной конкретизации, усложняет её (как и негентропия) по СП.

Ключевые слова: система, простота-сложность, энтропия-негэнтропия, определённость-неопределённость, системный параметр, критерии упрощения, системный дескриптор.

ENTROPY-NEGENTROPY MEASUREMENT of SYSTEM CIMPLICITY-COMPLEXITY

In Parametrical General System Theory, at usually, we modeling the complexity-simplicity (C-S) by means of entropy-negentropy, which is in certain mode of statistical distribution: system descriptors distributes by their roles (or kinds of roles) in the present system parametrical correlation (SP). The entropy represents vagueness and simplicity of system by given system parameter (SP) here. The definiteness, which introduces in system (in present SP) for its full concretization, complicates it (as negentropy) by this SP.

Keywords: system, complexity-simplicity, entropy-negentropy, definiteness-vagueness, system parameter, criterion of simplification, system descriptor.

1. Моделі статистичних систем як основа кількісних мір складності.

Для вимірювання простоти складності (П-С) систем у Загальній Теорії Систем, в її Параметричному Варіанті (ЗТС ПВ) [1 - 2], найбільш поширеним є метод ентропійних оцінок. Передумови такого вимірювання з’ясовувалися, зокрема, в працях [1 - 14]. Оцінки П-С, трохи схожі на ентропійні, ми не розглядаємо, бо вони не задовольняють відомих у математиці стандартних вимог до ентропійних мір.

Суттєво узагальнюючи підходи Н. Гудмена і Дж. Кемені, А.І. Уйомов розглядає складність як характеристику способу відповідностей між властивостями і відношеннями, що маються в системі, з одного боку, та їх носіями – з другого [1- 8]. Ці відповідності суть предикації, котрі властиві системі. Інакше кажучи, складність, за А.І. Уйомовим, служить властивістю предикацій. Наприклад, - є властивістю предикації, взятої в деякому вигляді цієї предикації. Тобто, складність властива способу предикації (котрий зводиться в окремому випадку до самої предикації).

Згадані вище предикації в системі та їх способи є відношеннями її дескрипторів, тобто, атрибутивними параметрами. У працях [1 – 14; 15, с. 104 – 111; 16 – 19]. вивчається череда окремих випадків для таких способів предикації. Звернімося до одного з них – статистичному за своєю природою.

У ПВ ЗТС простота-складність системи, зазвичай вимірювана з допомогою ентропії, фактично розглядається як невизначеність-визначеність, яка криється в способі деякого статистичного розподілення об’єктів по класах. Подібні розподілення послуговують моделями для певних системних параметрів, властивих системам доволі вузького класу [2 - 14].

Такі, вельми жорсткі та кількісні моделі необхідно узагальнити до рівня тих, котрі можна описати чисто якісно, в мові МТО [13 - 14] (МТО як логічний апарат створено саме для потреб ЗТС [1]). Після цього до чисто якісних, логічних, моделей можна буде застосувати всю дедуктивну міць МТО. Зокрема, - з метою вирішення актуальної проблеми оптимального спрощення систем.

Нижче ентропійно-негентропійні міри простоти-складності систем узагальнюються до мір, які спираються на категорії визначеність-невизначеність. Саме останні лежать в основі МТО.

Аналізуючи систему, як правило, неважко виділити реістичні компоненти її субстратупідсубстрати») і реляційні компоненти її структури – виділити підструктури. Тоді, зазвичай, буває, що вдається абстрагувати кожне відношення, в котрому беруть участь елементи системи (її підсубстрати). Можна побачити, що в підструктурі приймають участь окремі елементи, або екземпляри дескриптора на ймення «елемент» («елемент» чи «підсубстрат»). Нехай таких окремих елементів буде всього N екземплярів (чи штук).

Припустимо також, що в системі встановлено набір відповідностей. Конкретні розрізнені підструктури відповідають окремим елементам, на котрих ці підструктури реалізуються. Відповідність цю відобразимо в вигляді дводольного графа (графа паросполучень) [11 - 12]. Набір відповідностей, або складена відповідність виглядає як комбінаторна конфігурація. По суті, ця конфігурація є співвідношенням структури і субстрату. Назвемо його R/M-співвідношенням. Тобто, конфігурація є деякою предикацією типу «структура-субстрат». Причому, - складеною предикацією. Вона складається з окремих інших предикаційпідпредикацій» типу «частина структури-елемент»). Це – ітеративно встановлене співвідношення «відношення – його. носій» [15, с. 104 – 111; 3]. Сенс розуміння предикату у зв'язку з проблемою складності розглянуто також у [18; 19].

Конфігурацію як деяку предикацію тут може бути конкретизовано (обмежено, проявлено і т. п.) за рахунок накладення на неї зв’язків і залежностей. При цьому утворюється деякий спосіб предикації.

Комбінаторна конфігурація є відображення, котре задовольняє деяким обмеженням. Відображення множини екземплярів (взірців, примірників, варіантів) дескриптора на множину ролей (чи навпаки) може встановлюватися, як відомо, різними способами (в вигляді різних окремих комбінаторних конструкцій (окремих конфігурацій), індивідуалізованих «розбиттів множини», зокрема, - «вибірок», «сполучень», «урнових схем».

Але, з іншого боку, наша конфігурація конкретна і її можна представити як конкретний приклад, чи спосіб, предикації. Тоді, наклавши на цей спосіб предикації додаткові обмеження (чи застереження), ми перейдемо до окремого випадку цього способу (до його екземпляру, до його форми проявлення і т.п.). Можна також сказати, - перейдемо до реалізації, чи маніфестації, цього способу предикації. Наприклад, - до локалізованого способу предикації. Тут локалізований об’єкт – це об’єкт максимально визначений, максимально конкретний. Зрозуміло, що питання, чи є об’єкт максимально визначеним, вирішується на базі критеріїв, обумовлених практикою. Відмінності між конкретною предикацією і її способом є відносними.

Нехай через ι ξ Z φδα позначено певний системний параметр, який можна представити в вигляді відношення ι F, реалізованого на дескрипторі ι δ α M вихідної речі ι α O . Усе це зроблено аналогічно тому, як воно є в [13 - 14]; зауважимо також, що в МТО, як і раніше, річ ɿ α B – це річ, тотожна об’єкту ι α A . При цьому, вихідна річ нехай тлумачиться як система, а її дескриптор ɿ δ α а – як набір усіх її елементів, на котрих реалізується сукупність ɿ F усіх частин її структури. Тобто, ɿ ξ Z φδα. – це відношення складеного дескриптору (чи дескрипторів – елементів), інакше кажучи, - дескрипторне співвідношення.

Як і в [13 - 14], позначимо через Pδ α саме таке дескрипторне співвідношення ɿ Zδα у вихідної речі ɿ α а, на яке реляційним чином накладено обмеження ι J:

ι P δ α = def ι[ ι J(ɿ Zδα ) ]. (1)

Можна сказати, що воно накладено в вигляді відношення ι J . Згідно з [13 - 14], обмежене дескрипторне співвідношення ɿ P δ α є таким атрибутом для ɿ α а (як системи), котрий утворено реляційним концептом ɿ J.

Параметр ɿ ξ Z φδα системи, вочевидь, можна проінтерпретувати як R/M-предикацію в системі. Тоді системний атрибут ɿ π P буде ілюструвати собою спосіб предикації. Але, якщо той же параметр ɿ ξ Z φδα інтерпретовано як спосіб R/M-предикації, то системний атрибут ɿ π P буде витлумачено вже як реалізацію способу предикації. Зокрема, - як локалізований спосіб предикації. Щоби відобразити наш приклад, параметр ɿ ξ Z φδα , згідно з його дефініцією (точніше - див. [13 - 14]), слід проаналізувати й подати як сукупність виконаних ролей. Подати - як сукупність разом узятих розрізнених ролей, котрі виконано екземплярами такого дескриптора, як елемент (можна сказати, що це сукупність «підпараметрів» у вихідного параметра). Тоді тут ι Fце всі ролі; ɿ δ α а – всі елементи.

Нехай виділено всього G штук окремих, чітко визначених і розрізнених, взаємно виключних ролей. Перенумеруємо їх індексом g (g=1, 2 3,…G). Хай при цьому кожний окремий елемент відіграє одну і тільки одну роль, так, що число елементів, виступаючих у g-й ролі, дорівнює n g . Тобто,

=N. (2)

Тут число n g – це об’єм g-го класу. Окрім того, будемо вимагати, щоби, відігріваючи g-у роль, елемент міг би, при цьому, виконувати також і одну із усієї кількості ω g різних взаємо виключних функцій, чи субролей цієї ролі. Граючи g-у роль, нехай елемент може й виконувати й хоча би якусь зі всіх ω g штук таких

функцій (або субролей) в рамках g-ї ролі. При цьому

. (3)

Таким чином, N елементів розподіляться по G класах, а всередині класів – по підкласах (чи видах, або станах). Число ω g – «кратність виродження g-го класу» - це число видів у ньому (інакше ω g у статистиці називають активністю; це, немов би, - активність g-го класу в його проявах через свої підкласи).

Коли ω g=1≡const, то класи не вироджені, будь-який вид співпаде зі своїм класом і буде Ω=G; (ω g / Ω) ≡ (1 / G).

Врешті, ми витлумачили параметр ɿ ξ Z φδα як розподіл N елементів по G класам, які можна розрізнити. Інакше кажучи, - як класифікацію, чи класифікаційний розподіл. За достатньо великих N; G; Ω , він є аналогічним статистиці, статистичному розподілу ймовірностей. Цей розподіл, перебуваючи обмеженим умовами ι J , тобто, прийнявши вигляд властивості ɿ π P (див. (1)), - уже є подібним до способу статистичного розподілу.

Якщо розповідати про характерні для статистичних систем (статсистем) статистичні розподіли, то нашому розміщенню елементів по класах можна співставити наступне поняття. Це – розподіл частот зустрічаємості елементів даного класу (серед усіх елементів). Аналогічно, замість частот можна говорити про імовірності.

Розподілу ɿ ξ Z φδα притаманні наступні характеристики 1 - 7.

1. Факт указування на те, чи розрізняються всі елементи (передумова розрізняльності-нерозрізняльності елементів).

2. Передумова для указування того, які об’єми n g класів допустимі, а які заборонено (якщо в одному класі допустимо не більше одного елемента, то отримаємо статистику типу Фермі-Дірака і т. д.).

3. Ситуація постійності, чи збереження числа N усіх елементів (N≡const).

4. Елементи розміщуються по класах незалежно один від одного (зокрема, це буває при N < < Ω).

2.1. Зіштовхуючись із статистикою Максвелла-Больцмана, ми зустрінемо наступні уточнюючі обставини чи застереження.

2.1.1. Допустимі довільні об’єми n g з урахуванням того, що =N.

2.1.2. Усі елементи можна розрізнити, вони розрізняльні.

1.2. Для статистики Бозе-Ейнштейна підійде такий додатковий опис.

1.2.1. Усі елементи нерозрізняльні (безликі, знеличені, чи обезличені). Тобто, тут є деяка індиференція. Це – замість 2.1.2.

1.2.2. Одначе, розрізнити можна об’єми класів і тотожними вважаються ті розміщення, за яких у дані класи попадає певне число елементів, але які саме елементи, - не має значення [20 - 22].

У нормативне обмеження ɿ ω J ,у випадку статистик, входять наступні вимоги.

5. Закон розподілення елементів по класах (чи закон розподілення об’ємів у класів) задається набором {n g} чисел n g , чисел заповнення класів.

У обмеження ɿ ω J можуть також включатися й інші умови, наприклад,

наведені нижче (6 – 7).

6. Попадаючи в g-й клас, елемент набуває певного значення ε g , конкретної адитивної властивості r . А всі n g штук елементів у класі n g вносять спільно й разом у систему значення ε gn g цієї властивості r .

7. Зафіксовано і не змінюється сукупне значення Е цієї властивості у всієї системи в цілому:

Е=≡ const. (4)

Ця умова трактується як закон кількісного збереження адитивної властивості r. Вона зберігається при переходах елементів із класу в клас. Назвемо це обмеження квазіенергетичним, чи законом збереження квазіенергії r.

Якщо ж параметр ɿ ξ Z φδα тлумачити як сам спосіб статистичного розподілення, якому притаманні обмежуючі умови (1. – 4.), то ɿ π P - це реалізований спосіб розподілення. Зокрема, може статися, що це – локалізований спосіб розподілення, де ɿ ω J - умови локалізації.

Нехай в останньому випадку, вихідна річ ɿ α а це вихідна статистична система. Тоді така система, але система, конкретизована за рахунок придання їй характерного способу розподілення елементів, - це вже її стан S. Його можна інтерпретувати як макростан системи ɿ α а [22, с. 90 - 91]. Конкретизована до границі S система ɿ α а , тобто локалізована система, як об’єкт S, є подібною до микростанумікроздійсненню») статистичної системи [23, с. 200 – 201; 24; 25; 22, с. 90 – 91; 26, с. 15 – 17; 27, с. 100 -102; 28, с. 102].

Макростан проявляється в вигляді того чи іншого мікростану. Об’єм поняття про макростан є аналогічним статистичному ансамблю за Дж. Гіббсом [22, с. 90 – 91]. Макростан як аналог конфігурації може реалізуватися немов би в вигляді окремих конфігурацій, їх екземплярів (примірників, взірців), у вигляді окремих підсумків досліду по виявленню того, в якому саме стані система перебуває.

Змоделювавши систему як статистичну, в ЗТС ПВ зазвичай відшукують чисельне значення її простоти-складності через ентропію. Досліджують ентропію способу відповідного статистичного розподілу (статрозподілу). Так, ентропійна міра різноманітності, схованого в способі статистичного розподілення, послуговує А.І. Уйомову та іншим ученим мірою складності модельованих систем [5].

Позначимо подібну ентропію через Н {n g} . По суті, ентропійні міри різноманітності для аналогічних, але більш вузьких цілей, використовувалися прибічниками алгоритмічної концепції складності [29].

Виявлення ролей, котрі взаємно виключають одна одну (взаємовиключних

ролей), ролей для екземплярів дескриптора в рамках параметричного співвідношення, це виявлення автоматично буде означати й вибір основної імовірнісної множини подій (О.І.М.). Це - події в статистичних моделях. Від того, як цю множину задано, буде залежить і величина знайденої ентропії. Значимість такого фактора завдання О.І.М. демонструє ту реалію, що величина ентропії,

хоча й є об’єктивною, але є й відносною. Вона залежить від системного представлення об’єкта. При зміні системовизначального чинника, концепту, ентропія може змінитися стрибком. Звідси виникає, наприклад, і відомий парадокс Гіббса [26]. Через те слід врахувати, що ентропія – величина адитивна й визначається з точністю до константи. Тому важливіше слідкувати лише за змінами ентропії в системі (разом із зміною стану системи).

Деякі автори застосовують ентропійне мірило також і для з’ясування степеня організованості систем деякого вузького класу [4, с. 191 - 200].

2. Ентропія-негентропія як міри невизначеності-визначеності.

За допомогою ентропії, як відомо, будують кількісну модель невизначеності. Хоча , буває, що й – різноманітності, однорідності й хаосу, також неорганізованості (або дезорганізації). До того ж і – незворотності (зокрема, - часу), і т.п. [30, с. 71 – 72, 129; 31, с. 73; 32, с. 159]. На жаль, поняття «ентропія взагалі» в літературі не визначається, або ж задається надто вузько [33]. Відомі деякі намагання аксіоматизувати статистичну термодинаміку, коріння котрих сягає ще до ідей К. Каратеодорі (1909 р.). Цей автор будував аксіоматизацію на основі теорії множин і класичної математики. В подібних аксиоматизаціях відображено дещо узагальнений аналог ентропії («емпірична ентропія»). Одначе, останнє поняття все ж залишається занадто вузьким. Здебільшого, - з причини обраної для аксіом формальної мови. Але й на такому рівні узагальнення поняття емпіричної ентропії залишається аналогічним поняттю «невизначеність-визначеність» [33, с. 25 - 40].

Проблема визначити термін «ентропія», дати йому дефініцію в узагальненому вигляді, за словами Л. Бриллюена, має першорядну важливість [23, с. 100; 24, с. 27]. І. М. Бонгард вважає, що в деякому сенсі, «ентропія є … окремим випадком невизначеності» [31, с. 73]. Ця точка зору отримала доволі широке ходження в літературі більш пізнього періоду. Можна сказати, що простота-складність, як і невизначеність, так чи інакше експлікуються через ентропію. Нижче, торкаючись дефекту ентропії, ми побачимо, що ентропія є індикатором простоти в одному плані, а складності – в іншому.

Але в якому сенсі ентропія Н {n g} послуговує мірилом невизначеності, яка міститься в способі статистичного розподілення? Очевидно, якщо ми вкажемо, скільки екземплярів даного дескриптора попали в g-й клас, але не вкажемо, які саме екземпляри, то на цей рахунок залишиться невизначеність. Ентропія вимірює степінь багаточисельності всіляких можливих окремих способів розподілення, котрі можуть реалізуватися в системі. Реалізуватися – якщо їх обмежено законом розподілення {n g} або відповідною функцією розподілення ймовірностей [34, с. 128, 133 - 134]. А також, можливо, - іншими , явно заданими «рамковими» умовами. Наприклад, законом збереження (3.3.). Можливість усіляких таких реалізацій заданого способу розподілення (хай їх буде всього Г {n g} штук) слід прийняти до уваги. Щодо них (об’єктивно, хоча й відносно) існує невизначеність. Вона обчислюється через ентропію, як степінь широти об’єму поняття «даний спосіб розподілення». Ентропія дорівнює логарифму числа Г {n g} (абсолютна ентропія):

Н {n g} =ln Г {n g} . (5)

Усі способи розподілення, разом узяті, тобто, об’єм поняття «спосіб розподілення», - це статистичний ансамбль.

Можна довести, що (при не вироджених класах), така ентропія Н {n g} , котра приходиться на один елемент, вона обчислюється за відомою формулою Шеннона.

Ця ентропія – абсолютна [27, с. 88]. Інші види ентропії відрізняються від неї коефіцієнтами або – на константу [34, с. 21 – 22; 20; 21; 24; 27; 35]. Ентропія за К. Шенноном, із точністю до знаку, еквівалентна ентропії за Н. Вінером [35; 27, с. 122].

Пригадаємо, що саме ми інтерпретували у вигляді способу розподілення? Спосіб розподілення, як ми бачили в п. 3.1., це, крайньою мірою, - деяка форма проявлення, деякий приклад у значення ɿ π P відповідного системного параметра.

Таким чином, ентропійні мірила схоплюють невизначеність, приховану, по суті, в системно-параметричному значенні ɿ π P. Одначе, ці мірила здатні утримати власне, чи безпосередньо, лише ту невизначеність, яка міститься в об’ємі поняття про вказаний спосіб ɿ π P . Ентропія є адекватною невизначеності, що міститься в способі розподілення ɿ π P лише екстенсионально. Але – не інтенсионально. На жаль, невизначеність, розміщену в змісті поняття про спосіб розподілення ɿ π P , ця ентропія відображає лише опосередковано, скісним чином.

Об’єм поняття про даний спосіб розподілення можна змоделювати і подати як «об’єм висловлювання», або «ширину w(s) висловлювання s » за Я. Хінтіккою [28, с. 400; 36 с. 188]. По суті, у Р. Карнапа такий об’єм, - це «логічний простір LР (s) висловлювання s [28, с. 400], як і у Л. Вітгенштейна, згідно з думкою Л. Тондла [28, с. 90 - 147]. У Д. Кемені це – сфера інтерпретації речення s [28].

В об’єм висловлювання s, а, по суті, - в об’єм поняття про s, увійде набір, взагалі кажучи, інших висловлювань. Туди ввійдуть все можливі висловлювання (наприклад – диз’юнкції конституент Я. Хінтікки), еквівалентні вихідному висловлюванню s. Еквівалентні – в тому плані, як цьому ж s еквівалентні об’єкти, котрі є річчю s, являються нею в сенсі конкретної імплікатії ( | ) в МТО [1; 13].

Об’єм поняття про вказаний спосіб розподілення можна також подати як множину істинності того висловлювання [37, с. 37 – 41, 83], яке відображає даний спосіб. Аналогічно, ентропія даного поняття відобразила би степінь широти його об’єму. Але негентропія представить лише степінь звуження цього об’єму у поняття. Ясно, об’єм звужується за рахунок довизначення поняття за деякою ознакою цього поняття. Степінь звуження об’єму – це, немов би логарифм у відношення потужностей таких об’ємів. Річ іде про відношення потужності не звуженого – до потужності звуженого.

Конкретизуючи статистичну систему за рахунок такого характерного для неї параметра як спосіб розподілення, ми одночасно звужуємо об’єм поняття про неї. Ми обмежуємо увесь статистичний ансамбль таких систем, яким цей спосіб розподілення властивий.

Уявімо собі, що в нашому класифікаційному розподіленні ми встановили не тільки закон розподілення {n g}. Уявімо, що ми вказали, які саме окремі екземпляри – куди, в яке місце попали. Скажімо, - які, персонально, елементи в якому конкретно класі (і навіть, - в якому його підкласі) опинились, якими є їх індивідуальні ролі та субролі. Ясно, що тоді, при такій локалізації, ми повністю знімемо згадану невизначеність, погасимо її.

Але ми знімемо невизначеність, тому що введемо туди визначеність. Невизначеність за системно-параметричним значенням ɿ π P остаточно зніметься при повному його довизначенні, тобто, при локалізації системи за відповідним параметром. Наприклад, ми могли би максимально суворо вказати, якими є персонально дескриптори ɿ δ α а та ι F, таким чином: шляхом їх остенсивного визначення через їх місця в рамках практично значимої ситуації [38]. При цьому локалізований спосіб розподілення можна зрозуміти як однозначно інтерпретований параметр ɿ π P.

При цьому, невизначене значення параметра служить передумовою можливої локалізації. Воно немов би є потенційною об’єктивною реальністю, котра довизначаючись, реалізується, чи актуалізується. Перетворюється - на актуальну реальність [36, с. 75 - 87]. Таку невизначеність можна назвати передумовною.

Замітимо, що в дійсності визначеність може з’явитися всередині системи об’єктивно, не завжди залежно від дослідника системи. Скажімо, в замкнених системах – із причин внутрішніх флуктуацій. У відкритих системах, не ізольованих від середовища, визначеність іноді виникає через впливи ззовні.

Максимально визначене, мовляв, «грубе» значення параметра (чи дескриптора), назвемо оболонкою системи в плані цього параметра (чи дескриптора). Можна навіть сказати, що це – груба оболонка, чи грубе, брутальне, облачення.

Для початку, припустімо, що існує таке наближення, як зараз нижче покажемо. Нехай у цілком насиченому конкретикою значенні параметра вже знято експертом всю невизначеність. Її еліміновано і замінено визначеністю. Замінено в тій же мірі. Але, немов би, - з протилежним знаком. Висловлюючись метафорично, в локалізованій системі міститься (за абсолютною величиною) рівно стільки визначеності, скільки там було невизначеності перед моментом такої локалізації. Та невизначеність, яку знято в повній мірі, дорівнює (за модулем) тій визначеності, котру введено для такого граничного зняття. Вона (та невизначеність) дорівнює, за модулем, максимально можливій визначеності, яка має сенс у даній ситуації практики.

Вказуючи величину присутньої визначеності, ми, тим самим, указуємо рівну їй величину передумовної невизначеності, яку знято (погашено) із цією присутністю. У термінах ентропійної концепції, ми тим самим, указуємо величину елімінованої ентропії, тобто, величину негентропії [23, с. 200 - 201].

Зростання ентропії веде до росту визначеності, здатної (під виглядом негентропії) погасити цю ентропію. Здатної – потенційно.

Таким чином, із позиції нашої гіпотези («складність як визначеність»), за інших рівних умов, зростання негентропії, а отже й визначеності, говорить про те, що зростає (в відомому плані) і складність. Складність – в плані умов конкретизації, що знижують ентропію. Зокрема, - складність в аспекті умов локалізації системи.

Негентропією вимірюють інформацію [23; 34; 39]. Тому негентропійна міра складності відповідає й мірі інформації (чи інформативності) [9]. В той час, як ентропія відображує невизначеність, негентропія, навпаки, - визначеність.

Розглянемо невизначеність способу розподілення у випадку статистики Максвелла-Больцмана, без додаткових квазіенергетичних обмежень. Хіба-що, нехай, для початку

n g ≡const ; (6)

ω g ≡const. (7)

Тоді ніякий клас для його представників (індивідів) нічим не до вподоби в порівнянні з іншими класами. Як відомо, в цьому випадку невизначеність і ентропія способу розподілення максимальні. Якщо обмеження (6) зняти, то ентропія максимальна, коли індивіди розподілено по класах пропорційно числу підкласів у класі [11; 12].

Нав’язавши квазіенергетичне обмеження (4) тому параметру, котрим є спосіб розподілення, ми знизимо число можливих способів розподілення. А саме, ми зменшимо число Г {n g} , тобто потужність статистичного ансамблю. Таким чином, ми понизимо ентропію, характерну для попереднього способу розподілення, менш конкретного. Для того – котрому квазіенергетичне обмеження ще не нав’язане. Максимум ентропії знизиться порівняно з її максимумом N log G (котрий приходиться на всі N екземплярів). Максимум досягається в випадку n g ≡ const; ωg ≡ const ≡1. Інша справа, що зміна ентропії може слабо залежати від зміни величини квазіенергії.

Інформація, яка потрібна (за інших рівних умов) для розрізняння першого й другого способів розподілення з частотами {g} і g} по спостереженню над розподіленням із частотами {g}, - дорівнює інформації за Кульбаком [34, с. 15 - 16].

І (g : рg ) = (8)

Тут мова – про частоти зустрічаємості представників g-го класу.

Назвемо рівноважним, чи стаціонарним, розподіл найбільш невизначений. Об’єм поняття про нього є максимальним: воно здійснюється найбільшим числом Г {n g} індивідуалізованих способів розподілу. Отже, воно найбільш імовірне. Позначимо максимальне Г {n g} через Г {n g}max.

За наявності квазіенергетичного обмеження, рівномірний розподіл по класах

(коли ωg ≡const ≡1) уже не буде рівноважним. Рівноважним стане експоненціальне розподілення [22; 40; 11; 12].

Логічно закономірне звуження об’єму поняття про статистичну систему (тобто, - обмеження її статистичного ансамблю) при її конкретизації за даним параметром, іде паралельно із звуженням об’єму поняття про певний спосіб розподілення. Цей спосіб відображено у згаданому параметрі (п. 1.). Нагадаємо, що тут діє відомий в логіці закон зворотного співвідношення об’єму і змісту поняття.

За інших рівних умов, більш конкретна статсистема має меншу ентропію по своєму способу розподілення, тобто, меншу невизначеність. А, отже, - і більшу визначеність. Тим самим, - і більшу складність. Тут ми, як і раніше, використали робочий генетичний критерій порівняно більшої визначеності [13 - 14].

На прикладі статистичних систем, невизначеність яких оцінюється ентропією, видно, як цей робочий критерій працює. За інших рівних умов, більш визначена система, в заданому плані, тим самим є і більш складною в цьому ж плані. Стан системи, найбільш невизначений, в даному плані, тобто стан із максимальною ентропією, (рівноважний стан) є й найпростішим у даному плані.

Слабкішу умову більшої визначеності об’єкта A порівняно з річчю B отримуємо як узагальнення попередньої умови [13 - 14].

Таким чином, за допомогою МТО можна порівняти степені визначеності-невизначеності вже не екстенсиональними методами (не через екстенсіонали понять, не через об’єми понять, не через сфери інтерпретації висловлювань). За допомогою МТО це можна зробити через інтенсіонали понять чи суджень. І, взагалі, - через логічні відношення між типами визначеності-невизначеності .

3. Визначеність, відображувана дефектом ентропії, як складність за умовами конкретизації.

Деякий вид складності статистичної системи можна вимірити негентропією,

тобто вилученою ентропією, як мірою знятої невизначеності. Справді, звернімося до статистики Максвелла-Больцмана. Для неї число Г {n g} всіляких можливих

способів розподілення за законом {n g}, можна знайти за формулою:

Г {n g} = W {n g}•ΩN (9)

Тут W {n g} – імовірність такого способу розподілення [11; 12]:

W {n g} = N ! •( / n g !); pg = (ωg / Ω). (10)

Можна переконатися, що рівноважний розподіл (із законом {g }) як той, що має максимум ваги Г {n g} , а тому й максимум ентропії Н {n g} , досягається при g = ωg •(N / Ω). А, у випадку невироджених класів, - при рівномірному розподілі: при g = (N / G). [34, с. 21 – 22; 22, с. 27, 95 – 96; 11; 12].

Звернімо увагу на дещо невизначений спосіб статистичного розподілу, де ентропія не нульова, а позитивна. Уявімо собі, що на цей спосіб розподілення

накладено сильне обмеження, що воно рясно насичене визначеністю. Таке, - що

зразу знизило ентропію до мінімуму. І, навіть, - до нуля. Із формули (10) зразу видно, що для цього (при невироджених класах, тобто, при ωg≡1) достатньо, щоби всі N екземплярів попали в один клас. Хоча би – в якийсь, не важливо і не ясно в який. Нехай – у випадковий. Але всі – в один і той же самий. Тоді

Г {n g} ≡ Г { … 0… N0 … } = 1. (11)

Коли ентропія «занулилася», ніби «щезла», ми досягли повної визначеності, котру здатна дати наша ентропійна модель. Модель, в основі своїй, - теоретико-множинна і кількісна.

При нашій гіпотезі «складність як визначеність», це означає наступне. Обнуливши ентропію (тобто, зробивши її рівно нульовою), а, значить, максимально довизначивши систему, ми внесли в неї максимальну складність. Ми ускладнили систему за умовами конкретизації її способу розподілення. А саме, - за умовами максимальної конкретизації, тобто, локалізації системи. Її локалізовано в плані її параметра ɿ ξ Z φδα і за рахунок накладання на нього обмеження ɿ ω T . Цей параметр послужив передумовою, чи засадою, локалізації, планом проявлення системи. Спосіб розподілення, локалізувавшись, немов би став «безентропійним».

Згадана складність відображається в тій максимальній негентропії, яка погасила, зняла, всю невизначеність, всю ентропію в системі.

Не завжди обмеження, що накладено на статсистему, знижує її ентропію до нуля, тобто ускладнює її до границі. Припустимо, система, спочатку була максимально невизначеною, максимально ентропійною. Вона знаходилася в рівноважному стані і тому мала ентропію Н { g }, дорівнюючу максимально можливій Нmax { n g }. Але, згодом, ентропія перенесла ремісію, тобто, система стала трохи менш ентропійною, ускладнилася, відхилилась від рівноваги. Налице – відхилення максимуму від фактичного значення Н { n g }. Позначимо це відхилення через І { n g }. Воно називається дефектом ентропії [27].

І { n g }.= Нmax { n g } - Н { n g } = Н { g } - Н { n g } . (12)

Ясно, що в тих межах, де ентропійна модель спрацьовує, величину введеної в систему визначеності можна виміряти дефектом ентропії. Він може служити скісним кількісним індикатором тієї визначеності, котра виникла в системі. Або – тієї невизначеності, яку із системи виключено. Дефект ентропії можна міряти , маючи на увазі ентропію за Н. Вінером [35], як величину, аналогічну І { n g } , і ту, що також відповідає визначеності, котра вводиться.

За нашою гіпотезою, - це також і та складність, яка з’явилася в системі. Складність – за умовами конкретизації системи від її рівноважного стану до фактичного.

Дефект ентропії можна тлумачити як інформацію для відрізняння даного розподілу { n g } від рівноважного { g }. Тобто, - від неконкретизованого.

Якщо дефект ентропії в вихідному розподіленні вже великий, тобто, якщо визначеність у значенні того параметра, яким служить спосіб розподілення, вже

початково велика, то для повного його довизначення (для локалізації його системи) достатньо буде і слабкої визначеності. Вона призведе до низької складності за тим значенням, що йому надається (це – в термінах нашої Гіпотези). Тому спосіб розподілення достатньо буде вельми мало доповнити , щоби локалізувати систему. Отже локалізована система, в цьому плані, буде простою. Простою, - через слабкість обмеження ɿ ω T, яке накладено на спосіб розподілення ɿ ξ Z φδα . Інакше кажучи – простою за своїми умовами локалізації. Або ж – простою за передумовою ɿ ξ Z φδα своєї локалізації.

Дефект ентропії відображує ту складність, яка є за способом розподілення. Це – складність через ту умову, завдяки якій система є конкретизованою більше, ніж її рівноважний стан. Це – через конкретизуючу умову ɿ ω T . Можна також сказати, що це – складність за передумовою ɿ ω T такої конкретизації.

Вихідна статсистема в рівноважному стані максимально ентропійна, невизначена. Вона характеризується таким способом розподілення, для якого вірними є лише мінімально конкретні, найменш змістовні висловлювання. Вони фіксують ситуації які відповідають опису ɿ π P ,ситуації наступного типу: «будь-який екземпляр даного дескриптора грає якусь роль (знаходиться в якомусь класі)». Цим відображено той факт, що нема явної тенденції попасти екземплярам в конкретний, один і той самий клас. За імовірнісною моделлю, цієї ситуації, всі ролі рівноймовірні. Фактично, при цьому, цілісність системи всіх екземплярів дескриптора сильно послаблено, вони мають мало спільного.

Тут рівноймовірність обґрунтовується «принципом індиферентності». Згідно з Р.Карнапом, він означає, що в ситуації розподілення є симетрія деякого виду [41, с. 74]. Симетрія тут – уже в тому, що здатність грати деяку роль властива, саме, кожному екземпляру даного дескриптора.

За нашою Гіпотезою, така ситуація є найпростішою Простота тут – за способом розподілення. А, отже й – за системним параметром, чи за його предметним значенням ɿ π P.

Об’єм Г {n g} поняття про рівноважний спосіб розподілення ɿ π P (тобто об’єм Г{ g } ), він максимальний, він простирається гранично широко. Тому таке поняття мінімально визначене. А, отже, у згоді з нашою Гіпотезою, система S є максимально простою за цим способом розподілення.

Навпаки, в локалізованому стані (коли вся ентропія щезла) система є найбільш визначеною, тобто, максимально складною. Складною – через визначеність, яка локалізує. Складною – за умовами своєї локалізації і т.п. У своїх умовах ɿ ω T, які локалізують, а отже, - і за системно-параметричним значенням ɿ π P (див. формулу (1). Воно, це значення, стало грубою оболонкою системи S.

Можна сказати, що у локалізованої системи S великою є її локалізуюча визначеність. Об’єм Г {n g} для поняття про безентропійний, локалізований, спосіб розподілення (в об’єкті ɿ α а як системі), цей об’єм максимально вузький. У випадку невироджених класів, він навіть обмежений до одного єдиного явища порівняно з об’ємом поняття про вихідний спосіб. Він гранично звужений, бо ентропія його занулилася, дефект ентропії зріс максимально.

Розглядаючи формули (2) – (10) з урахуванням того, що максимум N ln G ентропії Н{n g} (де Н{n g} = lnГ{n g}), досягається при рівноважному законі розподілу {}, - можна запримітити, що дефект ентропії дорівнює так званій ентропії НБ , ентропії Л. Больцмана [27; 11 - 12]:

І { n g }.= - ln W{ng} = HБ { n g } НБ (13)

Дефекту ентропії аналогічна інформація за Н. Вінером [35, с. 119 - 127]. Зрозуміло, що така інформаційна ентропія як І { n g } (та, взагалі, як І (g : рg)), - це, заодно, є й «міра перетворення можливості у дійсність» [42, с. 237]. Це – і мірило степеня актуалізації, чи локалізації, згаданого способу розподілу. Того, - що властивий розглядуваній системі.

4. Моделі семантичної інформації як аналога локалізуючої визначеності.

До змальованих вище статистичних моделей подібні моделі логічної ймовірності та семантичної, чи інтенсиональної інформації Р. Карнапа, І. Бар-Хілела, Д. Кемені, Я. Хінтікки, ЄК. Войшвилло та інших [28, с. 94 – 95]. Такі моделі походять ще з ідей Л. Віттгенштейна [43], котрий, у свою чергу, тут спирається на відому ідею можливих світів Лейбніца.

Для поняття про таку предикацію, як статистичний розподіл, існує в логіці ряд аналогів теоретико-множинного характеру. У Р. Карнапа поняттю предикації відповідає поняття «опис структури»: воно охоплює «клас описів стану» (множину положень справ і у дійсності» [44; 45, с. 91 - 128]. У Д. Кемені такими аналогами є скінченна інтерпретація (n - модель) як така взагалі, чи клас можливих інтерпретацій [28; 46]. Поняттю предикації аналогічно також уведене Є.К. Войшвилло поняття узагальненого опису стану як такого [47 - 49; 48, с. 218 – 222; 50]. У М.В. Поповича способу предикації, по суті, аналогічна будь-яка передумова питання, котра фіксується в вигляді набору можливих відповідей на це питання [51]. Вона проблематизує ситуацію, провокуючи зняти невизначеність (як це відомо - з еротетичної логіки). Можна переконатися, що дистрибутивна нормальна форма висловлювання s (позначена, за Я. Хінтіккою, ДНФ (s)), також є деяким способом предикації [36, с. 188].

Такі моделі критикувалися У. Квайном, Д. Кемені, Л. Тондлом та іншими

[28, с. 94 – 95, 134 - 135]. Удосконалив моделі типу «опис стану» Д. Кемені. Його модель – це модель під назвою «n– інтерпретація» [46; 28, с. 134, 147]. Загалом, останні теоретико-множинні моделі суттєво обмежені специфікою тієї мови, яка використовується для їх формалізації [28, с. 99, 104, 134 - 135]. Мова МТО [1] ці обмеження радикально послаблює.

Логіко-математичні моделі, згадані вище, суттєво використовують ентропійні мірила тієї інформації, котра криється у висловлюваннях. По-суті, вони відображують простоту-складність деякого типу. Відображують – в міру подібності цієї властивості до якості на ймення «ентропія-негентропія». Судячи по моделях семантичної чи інтенсиональної інформації, вона є окремим випадком, так би мовити, «локалізуючої складності». Тобто вона є або служить референтом для складності, одним із її денотатів і т. п. Наприклад, інформація inf(s), прихована в висловлюванні s , за Я. Хінтіккою, вимірюється як дефект відповідної ентропії. Остання вимірюється через від’ємний логарифм імовірності р(s). А, отже, і – через степінь потужності об’єму (чи ширини) w(s) висловлювання s. Цей об’єм виділяється всередині універсуму всіх логічно можливих альтернатив. Можна впевнитися в наступному. Тут inf(s) – це, фактично, максимальний дефект ентропії log w(s). Згідно з нашою Гіпотезою, виходить, що в вигляді inf(s) можна інтерпретувати складність висловлювання s, поданого як система. Поданого як система - через усілякі альтернативи (скажімо, через Q-предикати Р. Карнапа; див. [28, с. 122]). Тут складність береться в плані того параметра, за яким ця система локалізована до стану, еквівалентного самому s. А система ця локалізується шляхом указування умов, які відповідають диз’юнкції конституант Я. Хінтікки, еквівалентних висловлюванню s [36, с. 188].

Згадану велику «локалізуючу складність» можна тлумачити як причину в потребі великої «інформаційної роботи по знищенню ентропії», за Н.І Кобозевим та И.З. Цехмістром [52; 53, с. 60]. Інформаційну ентропію на кшталт І (g : рg ), чи І { n g } (див. (8) і (12)), витлумачено «як міру складності одного… об’єкта по відношенню до другого» В.С. Готтом, В.С. Тюхтіним, Е.М. Чудіновим [54, с. 237].

5. Ентропійність як узагальненість та інформаційна ємність.

Із відходом статистичної системи S поближче до рівноваги, тобто, з ростом її ентропії, падає й величина дефекту І { n g } ентропії, притаманного їй. Падає й величина вже введеної в систему визначеності. Тієї визначеності, - котра раніше відхилила систему від рівноваги. Разом із цим, стаючи більш імовірним, узагальнюється і спосіб розподілення, притаманний системі, і сама система. Вона стає, в цілому, більш невизначеною. Зростання степеню стохастичності системи S відображається ростом степеня узагальненості поняття про неї. Тут ми спеціально зауважимо: це поняття (про S) узагальнюється у нас у тій самій, усталеній системі термінів, де воно (поняття про S) було до свого узагальнення. Тобто система термінів не розвивається в ході узагальнення поняття про S.

Система S стає менш конкретною, більш абстрактною, в цілому, більш простою. Тому для локалізації системи, її прийдеться ускладнювати більше. Ускладнювати - для її повного подання. Більш загальна система складніше піддається довизначенню до максимуму. При повному її довизначенні (за значенням передумовного параметра), тобто, в плані свого проявлення, вона опиниться складнішою. Складнішою, - ніж та система, де спосіб розподілення є менш імовірним. Складнішою, - бо буде потрібно вносити більшу визначеність разом із значенням, яке додається її параметру.

Простота, котра вимірюється абсолютною ентропією, аналогічна тій «ентропії питання за умов наявності даних», яку використовує Є.К. Войшвилло. Він її застосовує як міру недостатності інформації для отримання позитивної відповіді на задане питання [47 - 50].

Якщо для своєї локалізації система здатна вмістити в себе більшу складність, то вона має для цього більшу негентропійну ємність. Таку ємність, зокрема, можна тлумачити як більшу змістовну, інформаційну ємність системи, як більшу ємність знання про неї [55 - 57]. «У цьому зв’язку, можна зрозуміти ту закономірність, що явище несе тим більше інформації, чим більша його ентропія, і навпаки» [55, с. 246, 16]. Така система, як сутність статистичного явища, локалізуючись у вигляді самого явища, набуває максимальної релевантної визначеності. Визначеності - для такого свого локалізованого прояву. Набуває – порівняно з тією високою ентропією, котра в ній була до локалізації.

Індивідуалізація властивостей системи, зрозуміло, є відносною і залежить від тієї ситуації, де ці властивості проявляються. Умовами локалізації статистичної системи (у вигляді, наприклад, термодинамічного чи квантового явища) виявляються оточуючі обставини, ситуація і технологія експериментування із системою. У цих умовах система проявляється як локалізована в тому чи іншому степені. Цей степінь залежить від того, наскільки прилади здатні здійснити її індикацію, тобто, наскільки її індикація є під силу приладам. Індикація здійснюється в міру принципової можливості зафіксувати властивості системи як ті, що визначаються одна поряд із іншою, тобто співвизначаються [28, с. 104].

В умови локалізації об’єкта входить (у вигляді передумови) співвідношення типу «об’єкт - прилад». Аналогічні факти враховуються і в рамках статистичної термодинаміки за умов так званого «операціонального підходу до ентропії» [26, с. 17 - 21].

6. Простота-складність в статистиці систем зі знеличкою.

За характерних для системи обставин, на їх учасників може розповсюджуватися відомий у комбінаториці принцип нерозрізняльності елементів. Або - принцип знелички (обезлички, чи знезлицювання), тобто, - принцип, коли елементи позбавляються конкретного лиця, обличчя, індивідуальності. Тоді такі учасники-елементи можна вважати однорідними. Однорідними – за конкретною типовою для них властивістю (в плані володіння нею). В певному відношенні елементи не можуть бути розрізнені, оскільки всі, перебуваючи в ньому, мають невизначені прояви цієї типової властивості. Одначе, зазвичай, їх можна розбити на класи в іншому сенсі, скажімо, за здатністю володіти заданим значенням квазіенергії (тобто деякої адитивної якості) і т. п. Тут – схожість із квантовими статистиками. Наприклад, - типу Бозе-Ейнштейна, Фермі-Дірака. Не розрізняючись за певними властивостями, елементи можуть розрізнятися за певними відношеннями.

Усі N учасників розподілу можуть розрізнятися за їх здатністю грати задану (g-у) роль, а, в рамках цієї ролі, виконувати конкретну функцію-суброль.

Одну - з ω g штук субролей даної ролі… І все це – з урахуванням розрізненості чи розрізняльності всіх G ролей і всіх Ω штук субролей: (g=1, …, G). Ролі, як і раніше, можуть розрізнятися за степенем їх значимості. Скажімо, - за тією енергією чи квазіенергією, з якою пов’язано їх виконання [22; 40].

Системи із знеличкою локалізуються за рахунок тих умов локалізації, котрі не протирічать цій знеличці. Для них вихідний об’єм поняття про спосіб статрозподілення, число Г{ng} , підраховується за іншими формулами, ніж (9) – (10) [22; 40].

Одначе, розуміння ентропії-негентропії як міри невизначеності залишається тим самим, що й при статистиці Максвелла-Больцмана. Тому і простота-складність таких систем також допускає трактовку й експлікацію в термінах нашої Гіпотези. Трактовку – аналогічну до тлумачення опозиції «просте-складне» на системах із розрізняльними елементами.

Висновки. У подальшому, для визначення П-С системи, замість використання її вузьких статистичних моделей, можна використати її логічну модель в МТО. Завдяки цьому, на базі чисто логічних критеріїв порівняння можна спрощувати систему за вибраним її параметром. Порівнювати прийдеться ту визначеність-невизначеність, яка міститься в значеннях обраного параметра.

СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ

1. Уёмов А.И. Основы формального аппарата параметрической общей теории систем // Cистемные исследования. Методологические проблемы. Ежегодник 1984.

– М.: Наука, 1984, С. 152 – 180.

2. Логика и методология системных исследований. – Киев – Одесса: Вища школа. 1977. – 256 с.

3. Уйомов А.I. Спрощувальні властивості відношень і міри простоти систем. – Філософські проблеми сучасного природознавства. Міжвідомчий наук. Збірник. Вип.. 27. – Київ: Вид.-во Київського ун.-ту, 1972. С. 49 – 62.

4. Мамчур Е.А., Овчинников Н.Ф., Уёмов А.И. Принцип простоты и меры сложности. – М.: Наука, 1989. – 304 с.

5. Уёмов А.И., Плесский Б.В., Сумарокова Л.Н. Информационные процессы в научном исследовании и проблемы их упрощения // Проблемы информатики. Заочный семинар. Вып. 3. – Новосибирск: Наука, Сибирск. Отделение, 1972,– 58 с.

6. Уёмов А.И. Методологические основания формализации концептуальной простоты-сложности систем в языке тернарного оп // Системные исследования в современной науке. Сб. научн. трудов. – Новосибирск: Изд.-во НГУ, 1982, с. 57 – 64.

7. Уёмов А.И. Проблема построения общей теории упрощения научного знания / Логика и методология науки. IV Всесоюзный симпозиум. Киев. Июнь 1965 г. – М.: Наука, 1967. С. 81 – 85.

8. Уёмов А.И. Типы и критерии простоты систем. – Киев, 1973. – 20 с. (Препринт / АН УССР, Ин.-т кибернетики: РИО ИК, 73 – 19).

9. Алдакимова М.П., Сухоруков Г.А. Об одном подходе к определению количественной оценки сложности систем // Промышленная кибернетика. – Киев: Изд.-во Ин.-та кибернетики АН СССР, 1971. – 343 с. С. 101 – 114, 184 – 193.

10. Уёмов А. И., Сумарокова Л.Н., Дмитревская И. В. К вопросу об измерении простоты // Методологические проблемы теории измерений. – Киев: Наукова думка, 1966. – 207 с., С. 179 – 191.

11. Савусін М.П. Про один варіант ентропійної міри простоти-складності систем // Філософські проблеми сучасного природознавства. Міжвідомчий наук. збірн. Вип. 34. – Київ: Вид.-во Київськ. держ. ун.- ту, 1974, С. 1 – 4.

12. Савусин Н.П. Субстратно-структурная простота систем и связь между её видами // Системные исследования. Методологические проблемы. Ежегодник, 1980. – М.: Наука, 1981. – С. 303 – 314.

13. Савусін М.П. Філософські й теоретико-системні передумови критеріїв порівняно більшої визначеності об’єктів у мові тернарного опису (МТО). // Перспективи. Соціально-політичний журнал. Серія: філософія, соціологія, політологія. – Одеса: Вид.-во Південноукраїнського національного педагогічного університету ім. К.Д. Ушинського, 2015. 1 друк. аркуш.У друці.

14. Савусін М.П. Конкретизація та узагальнення системи через зміну визначеності-невизначеності у значенні системного дескриптора // Наукове пізнання: методологія та технологія. Науковий журнал. Серія: філософія, соціологія, політологія. – Одеса: Вид.-во Південноукраїнського національного педагогічного університету ім. К.Д. Ушинського, 2015. 1 друк. аркуш.У друці.

15. Уёмов А.И. Логические основы метода моделирования. – М.: Мысль, 1971. – 312 с.

16. Малиновський О.О. Уйомов А.І. Типи систем і основні біологічні закономірності // Організм як система. Республіканський міжвідомч. збірн. – Київ: Наукова думка, 1966. - С. 10 – 17.

17. Савусін М. П. Системное исследование процедур формирования целевых комплексных программ. // Целевые комплексные программы хозяйственного освоения ресурсов Мирового океана. /А.И. Уёмов, Киев: Наукова думка, 1988. С. 107 – 117.

18. Дмитревская И.В. Обучение сочинениям в средней школе и структурная сложность текстов. Учёные записки Ивановского гос. пед. ин.-та им. Д.А. Фурманова, т. 49. Проблемы сознания и нравственности. – Іваново: Изд.-во Ивановского гос. пед. ин.-та, 1967. – 200 с. С. 175 – 199.

19. Дмитревская И.В. Структурная сложность текстов. Автореф. дисс. … канд. филос. н. – Одеса, 1967. – 15 с. – В надзаг.: Одесский гос. ун.–т.

20. Оливер Б.М. Эффективное кодирование // Теория информации и её приложения. – М.: Гос. изд.-во физ.-мат. лит.-ры, 1959. – 328 с. С. 158 – 190.

21. Шеннон К. Математическая теория связи // Теория информации и её приложения. – М.: Гос. изд.-во физ.-мат. лит.-ры, 1959. – 328 с. С. 243 - 332.

22. Хуанг К. Статистическая механика. – М.: Мир, 1966. – 520 с.

23. Бриллюэн Л. Наука и теория информации. – М.: Гос. издат. физ.-мат. лит.-ры, 1960. – 395 с.

24. Бриллюэн Л. Термодинамика-кибернетика-жизнь // Кибернетика – неограниченные возможности возможные ограничения: современное состояние. – М.: Наука, 1980, с. 8 – 27. С. 27.

25. Бриллюэн Л. Научная неопределённость и информация. М.: Гос. издат. физ.-мат. лит.-ры, 1966. – 380 с.

26. Хайтун С.Д. История парадокса Гиббса. – М.: Наука, 1986. – 166 с.

27. Рейхенбах Г. Направление времени. – М.: Изд.-во иностр. лит.-ры, 1962. – 396 с.

28. Тондл Л. Проблемы семантики. – М.: Прогресс, 1975. - 484 с.

29. Звонкин А.К., Левин Л.А. Сложность конечных объектов и обоснование понятий информации и случайности с помощью теории алгоритмов. – Успехи математических наук, 1970, 25, вып. 6 (156), С. 85 – 127.

30. Яглом А.М., Яглом И.М. Вероятность и информация. – М.: Наука, 1973. – 512 с.

31. Бонгард И.М. О понятии «полезная информация» // Проблемы кибернетики. Вып. 9, 1963. – М.: Гос. издат. физ.-мат. лит.-ры, 1963, с. 71 – 102. С. 73.

32. Глушков В.М. Введение в кибернетику. – К.: Изд.-во АН УССР, 1964. – 324 с.

33. Петров Н., Бранков Й. Современные проблемы термодинамики. – М.: Мир, 1986. – 286 с.

34. Кульбак С. Теория информации и статистика. – М.: Наука. Гл. ред. физ.-мат. лит.-ры, 1967. – 408 с.

35. Винер Н. Кибернетика, или управление и связь в животном и машине. 2-е изд., М.: Главн. ред. изданий для зарубежн. стран изд.-ва «НАУКА», 1983. – 344 с.

36. Хинтикка Я. Логико-эпистемологические исследования. - М.: Прогресс. – 448 с. С. 188.

37. Кемени Дж., Снелл Дж., Томсон Дж. Введение в конечную математику. – М.: Изд.-во иностр. лит.-ры, 1963. – 487 с.

38. Савусин Н.П. Указание объектов в языке тернарного описания (ЯТО) с помощью аналогий // Современная логика: проблемы теории, истории и применения в науке (научная конференция) 16 – 17 июня 1994 г. Тез. докл. Часть 1. Современные направления логических исследований. – СПб.: Изд.-во СПб. гос. ун.-та, 1994. – 105 с. С. 66 – 68.

39. Стратонович Р.Л., Комкова М.С. Элементы молекулярной физики, термодинамики и статистической физики. – М.: Изд.-во МГУ, 1981. – 176 с.

40. Фаулер Р., Гуггенгейм Э. Статистическая термодинамика. Перев. с англ. М.: Изд.-во иностр. лит.-ры, 1949. – 601 с. Гл. 2. С. 201.

41. Карнап Р. Философские основания физики. – М.: Прогресс, 1971. – 391 с.

42. Готт В.С., Тюхтин В.С., Чудинов Э.М. Философские проблемы современного естествознания. – М.: Высшая школа, 1974. – 264 с.

43. Виттгенштейн Л. Логико-философский трактат // Л. Виттгенштейн. – М.: Канон. РООИ «Реабилитация», 2011. – 288 с.

44. Bar-Hillel J., Carnap R. Semantic Information // British Journal for the Philosophy of Science. 1953. Vol. 4. № 14.

45. Дирак П. Эволюция взглядов физиков на картину природы. – Вопросы философии, № 12, 1963. С. 78.

46. Kemeny J.G. A New Approach to Semantics. - The Journal of Symbolic Logic, 1956, 21.

47. Войшвилло Е.К. Понятие интенсиональной информации и интенсионального отношения логического следования (содержательный анализ) // Логико-методологические исследования. – М.: Изд.-во МГУ, 1980. С. 206 – 245.

48. Войшвилло Е.К. Попытка семантической интерпретации статистических понятий информации и энтропии // Кибернетику – на службу коммунизму. Теория информации. Вычислительная техника. Семиотика. – М. – Л.: Энергия, 1966. – 312 с. С.275 – 293.

49. Войшвилло Е.К. Философско-методологические аспекты релевантной логики. – М.: Изд.-во МГУ, 1988. – 140 с.

50. Войшвилло Е.К. Символическая логика, классическая и релевантная. – М.: Высшая школа, 1989. – 150 с. С. 90 – 91.

51. Попович М.В. Доказательство и смысл теоретических утверждений // Актуальные проблемы логики и методологии науки. – Киев: Наукова думка, 1980. – 335 с. С. 50 – 68.

52. Кобозев Н.И. Исследования в област термодинаміки процес сов информации и мышления. – М.: Изд.- во МГУ. – 195 с.

53. Цехмистро И.З. Поиски квантовой концепции физических оснований сознания. – Харьков: Вища школа, 1981. – 176 с.

54. Готт В.С., Тюхтин В.С., Чудинов Э.М. Философские проблемы современного естествознания. – М.: Высшая школа, 1974. – 264 с.

55. Сухотин А.К. Гносеологический анализ ёмкости знания. Томск: Изд.-во Томского гос. ун.-та, 1968. – 204 с.

56. Сухотин А.К. К вопросу об информационной ёмкости знания // Методологические вопросы естествознания. Томск: Изд.-во Томського гос. ун.-та, 1967. С. 114 – 120.

57. Слемнев М.А. Простое и сложное в природе и познании. – Минск: Наука и техника, 1976. – 114 с.

58. Савусін М.П. Ентропійно-негентропійні міри простоти-складності систем // Перспективи. Соціально-політичний журнал. Серія: філософія, соціологія, політологія. № 1 (63) – Одеса: Вид.-во Південноукраїнського національного педагогічного університету ім. К.Д. Ушинського, - 2015. 1 друк. аркуш.

Savusin N.P.,

Methodist of Odessa city parliament's department of education and science,

competitioner candidate of philosophy degree,

Odessa's national university by name of I.I. Mechnikov,

Philosophical faculty, cathedra of philosophy of natural faculties.

ENTROPY-NEGENTROPY MEASUREMENT of SYSTEM CIMPLICITY-COMPLEXITY

SUMMARY

In Parametrical General System Theory (PGST), at usually, we modeling the complexity-simplicity (C-S) by means of entropy-negentropy, which is in certain mode of statistical distribution: system descriptors distributes by their roles in the present system parametrical correlation (SP). The entropy represents a vagueness and a simplicity of system by given system parameter (SP) here. The definiteness, which introduces in system (in present SP) for its full concretization, complicates it (as negentropy).

So, we modeled the statistical distribution as an attributive system parameter (SP). If we have such models, we can to use all `arsenal` of PGST, with its deductive power, for strong analysis of entropy. The PGST formulates in logical apparatus LTD [1-2], therefore, such models give non-quantitative, but qualitative analysis of entropy and negentropy. The vagueness- definiteness, which represented by entropy-negentropy, are in significance of system parameter (SP), which was referred to.

For comparison of systems by its complexity, we can (instead of numerical measurement of entropy) to compare the types of that vagueness- definiteness, which is in significance of system parameter. These types are comparing in language LTD, by logical criteria, which we presented. The value of our result is in this fact.

With help of negentropy we can to represent the definiteness, as the vagueness, which is eliminated. The vagueness is eliminating, when the system is concretizing (fixing). The vagueness is substituting for definiteness. Next operations are analogous to operation of fixing of system: action by name `to concretize`, realization, representation, actualization, incarnation (embodiment), manifestation, demonstration of system, localization. We have a localization of system in a case like that: we tie on such restriction to system descriptor (or parameter, in particular), which indicates the place (or role) of this descriptor very definitely, by maximum definiteness. Localized system is similar to that system, which is in rough cover (envelope).

Criteria of full concretization, i. e. - of full localization, are determinated by necessity of practice. The degree of concretization of object as a system, in particular, the degree of localization, depends on system approaching of object, on changing of system concept.

If we tie the limitation on the mode of statistical distribution, then entropy and vagueness decrease, but the definiteness increases. Conditions of concretization or initial conditions, or edge-conditions, or border-conditions, - all they can be as such limitation. The localization of statistic systems realizes in practice if we fix the conditions very hard.

Statistic system, which is more definite by given descriptor (or parameter, in particular) is more complex by this descriptor (or parameter). Let we have a more concrete system and let we want to concretize it as much, as possible, i. e. to localize it. Then we bring to it less definiteness, less complexity, then in case with the second system, which is less concrete (more simply). So, this definiteness and this complexity are in condition of localization of system. This definiteness and this complexity are analogous to negentropy and to the next concepts: defect of entropy; the entropy by L. Boltsman; information (information by K. Shannon, information by S. Koolback, N. Wiener, - in particular); semantic, or intensional information by Carnap R., Bar-Hillel J., Kemeny J.G., Hintikka Y., Woishwillo E. K. and others.

The state of system, which is more indeterminate by selected parameter, i. e. which has the most entropy, or equilibrium-state, it is the most simply by this parameter.

Many scientists noted the analogy between the more probability state of system, or its more vagueness, in one side, and its more simplicity, in second side. In particular, - the next authors: Wrinch D., Jeffreys H., Barker S.F., Mach E., Hursunnue Dj., Kirckhgoff M., Avenarius, and others.

There is an implicative tie between more probability of system, or more logical weakness its model, in first side, and - its more simplicity, in second side. The next scientists noted this tie: Popper K.R., Wittgenshtein L., Carnap R., Bar-Hillel J., Woishwillo E. K. However, in fact, K. Popper does not imply a simplicity of initial system under the concept `simplicity of system`: he means only the simplicity of that system, which is localized, but not a simplicity of initial system. He implies the simplicity of initial system by conditions of its localization.

LITERATURE

1. Avenir I. Uyemov. The Language of Ternary Description as a deviant logic. Boletin da cociedade Paranaense de Matematica: Editora UFPR. 1-2 as, V.15 n 1/2, 1995; II-(2s). V.17, 1/2 (1997); III - V.18, N 1-2, 1998.

2. Avenir Uyemov. The Ternary Description Language as a formalism for the Parametric General System Theory; Part 1—Int. J. General Systems, - 1999 OPA, N.Y., Vol. 28 (4-5). Part II—2002, Vol. 31 (2), p.p.131 - 151.

21

Зверніть увагу, свідоцтва знаходяться в Вашому особистому кабінеті в розділі «Досягнення»

Всеосвіта є суб’єктом підвищення кваліфікації.

Всі сертифікати за наші курси та вебінари можуть бути зараховані у підвищення кваліфікації.

Співпраця із закладами освіти.

Дізнатись більше про сертифікати.

Приклад завдання з олімпіади Українська мова. Спробуйте!
До ЗНО з ФІЗИКИ залишилося:
0
3
міс.
1
0
дн.
1
5
год.
Готуйся до ЗНО разом із «Всеосвітою»!