Метод розгалужень і меж. Евристичні алгоритми. Застосування принципу оптимальності
За цими сумами можна аналогічно підрахувати суми для клітин третього кільця. Так само при переході до четвертого кільця достатньо знати лише найбільші суми для клітин третього кільця тощо. Діставши суми для клітин останнього кільця, вибираємо найбільшу з них, і задачу розв'язано.
Уточнення алгоритму залишаємо вправою. Скажемо лише, що суми Ski, k=2, … , m, i=0, … , n-1, обчислюються за єдиною формулою
Ski=Cki+max{Sk-1, (i-1+n) mod n, Sk-1, i, Sk-1, (i+1) mod n}.Оцінимо складність наведеного алгоритму. Очевидно, що при переході на наступне кільце обчислюються n сум за сталу кількість дій кожна. Таких переходів відбувається m-1, тому загальна кількість дій оцінюється як O(nm).
У наведених обчисленнях сум ми керувалися правилом: при переході на наступне кільце неважливо, якими були шляхи до клітин попереднього кільця. Аби вони давали найбільші суми, можливі для їх кінцевих клітин. Ішими словами, вибір шляхів від клітин попереднього кільця в клітини наступного не залежить від того, як саме ми вибирали клітини раніше.
Наведене правило є окремим конкретним випадком принципу оптимальності, одного з головних у теорії динамічного програмування. Її автор, Р.Беллман, сформулював цей принцип так:
"Оптимальна поведінка має таку властивість, що, якими б не були початковий стан і рішення в початковий момент, наступні рішення повинні складати оптимальну поведінку відносно стану, який одержується в результаті першого рішення."
Обсяг книжки не дозволяє викладати тут теорію динамічного програмування. Вона велика й серйозна. Наведемо натомість ще один приклад застосування принципу оптимальності.
Приклад 3. Розглянемо обчислення добутку n матриць
A = A1 A2 … An,
де кожна Ai – матриця з si-1 рядками та si стовпцями. Як відомо, операція множення матриць є асоціативною, і результат не залежить від порядку її застосування. Але від нього залежить кількість множень їх елементів.
За традиційним алгоритмом множення матриць розмірами a b та b c відбувається abc множень їх елементів. Наприклад, множення матриць A1 A2 A3 розмірами 100 1, 1 100, 100 1 відповідно у порядку (A1 A2) A3 вимагає 100 1 100+100 100 1=20000 множень, тоді як у порядку A1 (A2 A3) – лише 1 100 1+100 1 1=200, тобто в 100 разів менше.
Отже, за послідовністю розмірів матриць s0, s1, s2, … , sn треба обчислити найменшу кількість множень їх елементів, необхідних для обчислення добутку матриць A = A1 A2 … An.
Очевидно, що при обчисленні добутку останнім виконується одне з множень, тобто A=(A1 … Ai) (Ai+1 … An), де 1 i n-1. Якщо добутки A1 … Ai та Ai+1 … An обчислено, то виконання останнього множення вимагає s0 si sn множень. Позначимо mik мінімальну кількість множень, необхідних для обчислення Ai Ai+1 … Ak за i
m1n = {m1i+mi+1,n+s0 si sn}
Отже, задача відшукання m1n, тобто задача розміру n, зводиться до 2(n-2) задач меншого розміру. Але головним тут є той факт, що числа m1i та mi+1,n
не залежать одне від одного, тобто найменша кількість множень при обчисленні добутку A1 … Ai не залежить від того, як обчислюється добуток Ai+1 … An, і навпаки. Завдяки саме цій незалежності можна застосувати принцип оптимальності.
Спочатку обчислимо всі mi,i+1 за i=1, … , n-1. Очевидно, mi,i+1=si-1 si si+1. Запам'ятавши їх, обчислимо mi,i+2 і також запам'ятаємо. Потім обчислимо всі mi,i+3 тощо, збільшуючи різницю d між другим та першим індексами, поки не дійдемо до m1n. При цьому ми обчислюємо mij за формулою