Зворотний зв'язок

Інформаційне забезпечення в процесі управління

Як міра апріорного невизначення в теорії застосовується спеціальна одиниця вимірювання ентропія. Поняття ентропії є основним

n

Н(X) = - ( Pi * log Pi

i = 1

Ентропія володіє рядом властивостей:

Звертається в нуль, коли одне з складових достовірне, а інший стан неможливий;

При заданому числі станів вона звертається в максимум, коли ці стани різновірогідні;

Володіє властивістю адитивності, тобто коли декілька незалежних систем об'єднані в одну, то ентропія складається.

xix1x2

Pi? ?

Алгоритм ентропії системи рівний 1.

Надійність інформації.

Надійність передачі інформації визначається надійністю з'єднання елементів в інформаційній системі.

При послідовному з'єднанні елементів вихід з ладу хоч би одного елемента приводить до відмови всієї системи. Імовірність безвідмовної роботи буде дорівнювати виробленню імовірностей безвідмовної роботи кожного елемента системи.

n n

Pc = P1*P2*…*Pn ; Pc = P Pc ; Pc(t) = P Pi (t) .

i = 1 i = 1

Якщо в рівнянні імовірність безвідмовної роботи однакова, то

Pc(t) = P Pªi (t), де (a = n)

При паралельному з'єднанні елементів система загалом відмовляє при виході з ладу всіх елементів. Імовірність відмови системи рівно імовірності відмови всіх елементів.

qc(t) = q1(t) * q2(t) * … * qn(t) ;

n n

qc(t) = P qi (t) ; Pc(t) = 1- P qi (t) - імовірність безвідказної роботи

i = 1 i = 1


Реферати!

У нас ви зможете знайти і ознайомитися з рефератами на будь-яку тему.







Не знайшли потрібний реферат ?

Замовте написання реферату на потрібну Вам тему

Замовити реферат