Інформаційне забезпечення в процесі управління
Як міра апріорного невизначення в теорії застосовується спеціальна одиниця вимірювання ентропія. Поняття ентропії є основним
n
Н(X) = - ( Pi * log Pi
i = 1
Ентропія володіє рядом властивостей:
Звертається в нуль, коли одне з складових достовірне, а інший стан неможливий;
При заданому числі станів вона звертається в максимум, коли ці стани різновірогідні;
Володіє властивістю адитивності, тобто коли декілька незалежних систем об'єднані в одну, то ентропія складається.
xix1x2
Pi? ?
Алгоритм ентропії системи рівний 1.
Надійність інформації.
Надійність передачі інформації визначається надійністю з'єднання елементів в інформаційній системі.
При послідовному з'єднанні елементів вихід з ладу хоч би одного елемента приводить до відмови всієї системи. Імовірність безвідмовної роботи буде дорівнювати виробленню імовірностей безвідмовної роботи кожного елемента системи.
n n
Pc = P1*P2*…*Pn ; Pc = P Pc ; Pc(t) = P Pi (t) .
i = 1 i = 1
Якщо в рівнянні імовірність безвідмовної роботи однакова, то
Pc(t) = P Pªi (t), де (a = n)
При паралельному з'єднанні елементів система загалом відмовляє при виході з ладу всіх елементів. Імовірність відмови системи рівно імовірності відмови всіх елементів.
qc(t) = q1(t) * q2(t) * … * qn(t) ;
n n
qc(t) = P qi (t) ; Pc(t) = 1- P qi (t) - імовірність безвідказної роботи
i = 1 i = 1