трусики женские купить украина
реферати студентам
« Попередня Наступна »

10.4. Алгоритми узагальненого покоординатного спуску


Процедура обчислення похідних може бути організована користувачем, наприклад, відповідно до рекомендацій, наведених в розд. 10.3. Однак в якості основної процедури для обчислення матриці Гессе далі обраний метод звичайно-різницевих співвідношень із змінним кроком дискретності s. Останній може визначатися автоматично, наприклад, залежно від просування в просторі змінних х, що задається нормою | | JC, '-JCm | |. Чим більше значення s використовується, тим ширше передбачувана область справедливості локальної квадратичної моделі вихідного функціоналу. Найбільша точність обчислень за формулою (10.16) стосовно квадратичним залежностям досягається при роботі з максимальним можливим s, тому що в цьому випадку внесок похибок завдання значень J в остаточний результат стає найменшим. Тому чим далі вдалося просунутися на основі побудованої квадратичної апроксимації функціоналу, тим, очевидно, великі значення s доцільно вибирати для обчислення похідних на наступному етапі пошуку. Можливі й інші стратегії регулювання параметра s. Наприклад, сама підпрограма, що реалізує метод оптимізації, може бути налаштована на роботу з постійним кроком дискретності. Зміни s в цьому випадку здійснюються у зовнішній програмі залежно від отримуваних результатів.
Власні вектори матриці не залежить від скалярного множника, тому, як вже вказувалося, поділ на 4s2 у формулі (10.16) не проводиться.
Отримані в результаті діагоналізацією матриці Гессе нові коорди-натного орти використовуються далі для реалізації базового алгоритму покоординатного спуску з процедурою вибору кроків просування по осях, застосовуваної в алгоритмі GZ1. Перехід до нових осях координат доцільно здійснювати після того, як поточні осі "вичерпали себе" і подальшого істотного поліпшення ситуації не очікується. У пропонованих алгоритмах оновлення осей координат відбувається після того, як по кожному з координатних напрямків слідом за успішним просуванням пішла невдача - зростання значення J (x). Зрозуміло, можуть існувати й інші критерії для визначення мо-мента зміни координатних ортов.
Збільшене опис алгоритму, що реалізує метод ОПС, зводиться до наступної послідовності кроків.
10.4-1-Алгоритм SPAC1
Крок 1. Ввести дані: х, s.
Крок 2. Обчислити матрицю В = {'у} за формулами
bij = J (x + set + se) - J (x - set + SCj) - J (x + set - SCj) + J (x - sei - sej),
ЄІ = (0, ..., 1, ..., 0),
/ J = 1,
Крок 3. За допомогою процедури jacobi побудувати ортогональну матрицю? /, Що приводить матрицю В до діагонального вигляду UTBT.
Крок 4. У осях {wy}, співпадаючих зі стовпцями матриці U, реалізувати процес покоординатного спуску з точки х до виконання умови повороту осей; привласнити х отримане краще значення, модифікувати s і перейти до кроку 2.
Процес закінчується після вичерпання заданого числа звернень до процедури обчислення J (x). Так само, як і в алгоритмі GZ1, повинна бути передбачена можливість повторних входів в алгоритм і продовження обчислень з перерваного місця. Практичне застосування алгоритму SPAC1 при належному масштабуванні і нормалізації основних змінних задачі дозволяє рекомендувати автоматичний вибір кроків дискретності для чисельного диференціювання виходячи з рівності = 0, l | | x / +1-х%
Побудований алгоритм має просту структуру, однак його ефективність може бути досить високою, незважаючи на необхідність побудови матриці В. У деяких випадках більш ефективною виявилася модифікація методу ОПС, реалізована в алгоритмі SPAC2.
В алгоритмі SPAC2 матриця других похідних обчислюється в поточних осях {wz}, без повернення до одиничного вихідного базису {е,}. В результаті інформація про останній використовуваному базисі не втрачається, що дозволяє інколи скоротити трудомісткість рішення задачі.
10.4.2. Алгоритм SPAC2
Крок 1. Ввести вихідні дані: х, s.
Крок 2. Прийняти U = Е, де Е-одинична матриця; в якості координатних векторів взяти стовпчики {щ} матриці U.
Крок 3. Побудувати матрицю В = {Ь (/} за формулами
Ьі} = J (x + suj + suj) - J (x - sui + suj) ~ J (x + sui - suj) + J (x - suj - suj),
ij = 1, ..., n.
Крок 4. Прийняти U: = UT, де T-ортогональна матриця, що приводить матрицю В до діагонального вигляду ТтВТ.
Крок 5. В осях реалізувати процес покоординатного спуску з точки х до виконання умови повороту осей; привласнити х найкраще отримане значення. Модифікувати s і перейти до кроку 3 .
Закінчення процесу і вибір кроків дискретності такі ж, як і в алго-ритмі SPAC1.
Дамо необхідні пояснення до алгоритму, що стосуються побудови матриці U на кроці 4.
Вибір в якості координатних напрямків стовпців деякої ортогональної матриці U очевидно еквівалентний заміні змінних х = Uy. У цьому випадку зміни компонент yt вектора у приводять у вихідному просторі до зсувів уздовж однойменних векторів щ.
Функціонал J (Uy) = I (y) як функція у має матрицю Гессе виду Г (у) = UTJ "U. Дійсно, I '(y) = UTJ \ x) \ Г (У) = d [UTJ \ Uy)] / dy == UTJ "(x) U.
Таким чином, якщо необхідно працювати з функціоналом, що має матрицю Гессе виду UTJ "U, то для цього достатньо в якості базису взяти стовпчики матриці U. Якщо потрібно змінити матрицю Гессе і привести її до виду TT ( JJtJ "U) T = UTXJUX, де Т-нова ортогональна матриця; UX = UT9 то в якості базисних векторів досить вибрати стовпці матриці UX = UT. Зазначена процедура і реалізована на кроці 4 сформульованого алгоритму.
Зупинимося на деяких принципових відмінностях алгоритму SPAC2 від SPAC1. По-перше, якщо минимизируемого функціонал близький до квадратичного і матриця Гессе змінюється відносно мало, то її повторне побудова в осях {м,} знову призведе до діагональної матриці і тому число якобіевих циклів обертань при подальшій діагоналізацією знову отриманої матриці J "буде зведено до мінімуму . В результаті матрична поправка Тк матриці С /, що обчислюється на кроці 4, виявляється близькою до одиничної матриці. В алгоритмі SPAC1 в зазначених умовах весь процес діагоналізацією повинен кожен раз цілком повторюватися; те, що осі {ц} фактично міняються мало при переході до наступної точці х ', ніяк не використовується.
По-друге, якщо на якомусь етапі пошуку мінімуму крок дискретності s
виявляється менше, ніж, скажімо, min | eM; d, де єм - машинне епсіІ ''
лон, то це призведе до отримання нульової матриці на етапі побудови матриці В. Підпрограма, що реалізує алгоритм jacobi, виконана таким чином, що при цьому в якості діагоналізірующей матриці Т отримаємо одиничну матрицю. Якщо зазначена ситуація виникає в процесі роботи SPAC2, то на кроці 4 не відбудеться зміни матриці U та процес покоординатного узвозу буде продовжений в поточних осях координат. Таким чином, зберігатиметься можливість повільного просування, швидкість якого потім може знову зрости. При використанні алгоритму SPAC1 нульова матриця В автоматично призведе до отримання матриці U - Е, що еквівалентно поверненню до вихідного одиничного базису.
В результаті ймовірність "заклинювання" на ділянках повільного просування для SPAC1 виявляється істотно більшою , ніж для SPAC2.
Зазначені особливості SPAC2 не дозволяють, однак, повністю відмовитися від застосування SPAC1. Це пояснюється, по-перше, тим, що трудомісткість обчислення матриці В у SPAC2 виявляється помітно вище, ніж у SPAC1, т. к. вектор х варіюється в напрямках м "відмінних, по-загально кажучи, від одиничних векторів ег Крім цього, важлива відмінність полягає в тому, що алгоритм SPAC2 передбачає майже єдиний можливий спосіб побудови матриць Гессе, заснований на співвідношеннях (10.16 ). При застосуванні ж SPAC1 придатний будь-який з описаних в розд. 10.3 методів. Остання обставина часто виявляється вирішальним при виборі методу.
« Попередня Наступна »
= Перейти до змісту підручника =
Інформація, релевантна "10.4. Алгоритми узагальненого покоординатного узвозу "
  1. 10.2. Методи узагальненого покоординатного спуску
    Нехай вирішується завдання J {x) -» min, л; є R! \ J є C2 ( R ") з овражним (за визначенням 9.3) функціоналом. Таким чином, існує деякий підмножина QaR! \ І при VJCG Q ДЛЯ власних чисел матриці Т '(х) справедливі нерівності Х, * ... ^ »> ...> UJ. (10.2) Число г малих власних значень визначає розмірність яру (дна яру). Основною процедурою при реалізації розглянутого далі класу
  2. Зміст
    Передмова 1 Введення 7 Частина I. Методи прийняття рішень 19 Глава 1. Завдання прийняття рішень 21 Постановка задачі прийняття рішень. Критерійний мова опису вибору 21 Опис вибору на мові бінарних відносин. Формальні моделі задачі прийняття рішень 27 Зв'язок різних способів опису вибору. Однокритеріальних і багатокритерійний вибір 31 Функції вибору 36 Глава 2. Багатокритеріальні
  3. 10.3. Реалізація методів узагальненого покоординатного спуску
    Методи обчислення похідних. Для функціоналів, заданих аналітично, можна скористатися аналітичним методом обчислення похідних. Проте насправді такий підхід має обмежене застосування, т. к. реальні функціонали мають досить складну алгоритмічну структуру, що не дозволяє скористатися аналітичним диференціюванням. Тому найбільш часто на практиці
  4. Глава 10 покоординатного стратегії конечномерной оптимізації
    Глава 10 покоординатного стратегії конечномерной
  5. 10.1. Методи покоординатного спуску
    Нехай заданий функціонал J (x) ? Cx {Rn). Вирішується завдання побудови мінімізує послідовності {х *} для J (x). Часто використовуваний метод вирішення поставленого завдання полягає в застосуванні покоординатного стратегії дослідження простору пошуку. і / (Xj І X - min J ((10.1) У яружної ситуації цей метод можна застосовувати лише в рідкісних випадках орієнтації ярів уздовж координатних осей. Труднощі
  6. 11.2. Класичні градієнтні схеми
    Розглянемо деякі конкретні методи (11.2) і відповідають їм функції релаксації. Простий градієнтний спуск (ПГС). Формула методу + 1 = xk __ const) Відповідна функція релаксації R (k) = 1 - hk лінійна і представлена ??на рис. 11.2. ПГС має вигляд (11.12) (11.13) Рис. 11.2. Функція релаксації методу простого градієнтного спуску Нехай власні значення матриці Ак розташовані в замкнутому
  7. Предметний покажчики
    r R-оптимальний елемент 29 А Абсолютна точність 236 Адаптація 255 Адаптируемость 231 Аксіоми 3.1 і 3.2 81 Алгоритми: GZ1 212, 225 jacobi 223 SPAC1 225,226 SPAC2 226 оптимізації 261 покоординатного спуску 233 Уїлкінсона і Райнша 223 Альтернатива 10 Антагоністична гра 83 Апарат нечіткої логіки 359 Апроксимація похідних кінцевими різницями 248 'Асиметрична долина "233 Атрибут 280 б База
  8. 10.5. Реалізація методів узагальненого покоординатного спуску на основі рекурентних алгоритмів оцінювання
    У процесі роботи алгоритму ОПС виходять послідовність векторів {хА} і відповідає ним, послідовність значень минимизируемого функціоналу {/ *}. У зазначених алгоритмах використовуються тільки ті точки хк, які призводять до монотонного зменшенням J (x), а "невдалі" точки відкидаються і далі ніяк не беруть участь в процесі пошуку. Нижче показано, що відповідна інформація може бути
  9. 11.4. Гірські види екстремального туризму
    Альпінізм - вважається самим екстремальним відпочинком. Сьогодні альпінізм являє собою цілу індустрію, яка рівномірно розвивається і популяризується . Як правило, для сходження прийнято вибирати літо, коли погода дозволяє з мінімальними втратами дістатися до наміченої вершини. Проте любителі гострих відчуттів не зупиняються і взимку, а складні погодні умови і сходи лавин тільки
  10. 9.1. Явище яружно
    У цьому розділі аналізуються часто виникають на практиці випадки отримання незадовільних результатів за допомогою стандартних методів конечномерной оптимізації, застосовуваних у задачах моделювання, чисельного експерименту та інших завдань системного аналізу (див. приклад про керованій системі другого порядку у Вступі). Як правило, це виражається в різкому збільшенні витрат машинного часу,
  11. 5.6. СИНТЕЗ СИСТЕМ УПРАВЛІННЯ МЕТОДАМИ ОПТИМІЗАЦІЇ
    СИНТЕЗ СИСТЕМ УПРАВЛІННЯ МЕТОДАМИ БЕЗУМОВНОГО ОПТИМІЗАЦІЇ Сутність і область застосування Сутність безумовної оптимізації полягає в пошуку мінімуму функції Y = fix) шляхом багаторазових обчислень при різних значеннях параметрів х = {хк}, к = 0, 1, 2, ..., причому на кожному к-і кроці обчислень контролюють виконання умов Лх (до +1)). Найбільше значення похідної показує напрямок
  12. 11.3. Методи з експоненційної функцією релаксації
    Досліджувані в цьому розділі методи можуть бути побудовані за принципом "безперервних методів "із загальної теорії чисельного інтегрування жорстких систем звичайних диференціальних рівнянь за допомогою спеціальних" системних "алгоритмів чисельного інтегрування [32]. У даний роботі використаний інший підхід до побудови алгоритмів, заснований на понятті функції релаксації. Виходячи з викладених раніше
  13. 10.6. Тестування алгоритмів оптимізації
    Основним підходом до порівняння алгоритмів з точки зору їх подальших додатків є тестування, тобто перевірка алгоритмів при вирішенні певного класу тестових завдань оптимізації, побудованих таким чином, щоб внести в процес оптимізації характерні труднощі, що виникають при вирішенні реальних завдань. Однак вибір класу тестових функціоналів, що підлягають мінімізації, ще не вирішує

bibyurecon.ml
енциклопедія  пікантні  перлова  кавово-вершковий  риба