Метод Сопряженных Градиентов Программа

Метод Сопряженных Градиентов Программа

Метод Сопряженных Градиентов Программа Rating: 4,5/5 5542votes

Метод Сопряженных Градиентов Программа' title='Метод Сопряженных Градиентов Программа' />Метод сопряженных градиентов математический аппарат. Термин. Дело в том, что, за исключением частного и не представляющего практического интереса случая, градиенты не являются сопряженными, а сопряженные направления не имеют ничего общего с градиентами. Бланк Анкета На Работу подробнее. Название метода отражает тот факт, что данный метод отыскания безусловного экстремума сочетает в себе понятия градиента целевой функции и сопряженных направлений. Несколько слов об обозначениях, используемых далее. Скалярное произведение двух векторов записывается xTy и представляет сумму скаляров sum. Заметим, что xTy yTx. Тема Реализация метода сопряженных градиентов на NVIDIA CUDA, текст научной статьи из научного журнала Молодой ученый. Если x и y ортогональны, то xTy 0. В общем, выражения, которые преобразуются к матрице 1х. Ty и xTA. Решение этой системы эквивалентно нахождению минимума соответствующей квадратичной формы. Квадратичная форма это просто скаляр, квадратичная функция некого вектора x следующего вида f,x frac. Например, матрица А называется положительно определенной, если для любого ненулевого вектора x справедливо следующее xTA. Основой метода сопряженных градиентов является следующее свойство решение системы линейных уравнений. Метод сопряжнных градиентов в общем случае. В программе реализована одномерная оптимизация методом золотого сечения. Термин метод сопряженных градиентов один из примеров того, как бессмысленные словосочетания, став привычными, воспринимаются сами собой. Метод сопряженных градиентов предназначен для решения систем. Онлайнкалькулятор предназначен для нахождения минимума функции методом сопряженных градиентов см. Метод ФлетчераРивза и. Причем, метод сопряженных градиентов сделает это за n или менее шагов, где n размерность неизвестного вектора x. Так как любая гладкая функция в окрестностях точки своего минимума хорошо аппроксимируется квадратичной, этот же метод можно применить для минимизации и неквадратичных функций. При этом метод перестает быть конечным, а становится итеративным. Рассмотрение метода сопряженных градиентов целесообразно начать с рассмотрения более простого метода поиска экстремума функции метода наискорейшего спуска. На рисунке 2 изображена траектория движения в точку минимума методом наискорейшего спуска. Суть этого метода в начальной точке x0 вычисляется градиент, и движение осуществляется в направлении антиградиента до тех пор, пока уменьшается целевая функция в точке, где функция перестает уменьшаться, опять вычисляется градиент, и спуск продолжается в новом направлении процесс повторяется до достижения точки минимума. В данном случае каждое новое направление движения ортогонально предыдущему. Не существует ли более разумного способа выбора нового направления движения Существует, и он называется метод сопряженных направлений. А метод сопряженных градиентов как раз относится к группе методов сопряженных направлений. На рисунке 3 изображена траектория движения в точку минимума при использовании метода сопряженных градиентов. Определение сопряженности формулируется следующим образом два вектора x и y называют А сопряженными или сопряженными по отношению к матрице А или Аортогональными, если скалярное произведение x и Ay равно нулю, то есть xTA. Действительно, когда матрица А единичная матрица, в соответствии с равенством 4, векторы x и y ортогональны. Можно и иначе продемонстрировать взаимосвязь понятий ортогональности и сопряженности мысленно растяните рисунок 3 таким образом, чтобы линии равного уровня из эллипсов превратились в окружности, при этом сопряженные направления станут просто ортогональными. Остается выяснить, каким образом вычислять сопряженные направления. Один из возможных способов использовать методы линейной алгебры, в частности, процесс ортогонализации ГраммаШмидта. Но для этого необходимо знать матрицу А, поэтому для большинства задач например, обучение многослойных нейросетей этот метод не годится. К счастью, существуют другие, итеративные способы вычисления сопряженного направления, самый известный формула Флетчера Ривса d. Направления, вычисленные по формуле 5, оказываются сопряженными, если минимизируемая функция задана в форме 2. То есть для квадратичных функций метод сопряженных градиентов находит минимум за n шагов n размерность пространства поиска. Для функций общего вида алгоритм перестает быть конечным и становится итеративным. При этом, Флетчер и Ривс предлагают возобновлять алгоритмическую процедуру через каждые n 1 шагов. Можно привести еще одну формулу для определения сопряженного направления, формула ПолакаРайбера Polak Ribiere beta. Однако последний часто сходится быстрее первого метода. К счастью, сходимость метода Полака Райбера может быть гарантирована выбором beta max. Это эквивалентно рестарту алгорима по условию beta leq 0. Рестарт алгоритмической процедуры необходим, чтобы забыть последнее направление поиска и стартовать алгоритм заново в направлении скорейшего спуска. Далее приведен алгоритм сопряженных градиентов для минимизации функций общего вида неквадратичных. Вычисляется антиградиент в произвольной точке x0. Чтобы осуществить рестарт алгоритма, то есть забыть последнее направление поиска и стартовать алгоритм заново в направлении скорейшего спуска, для формулы ФлетчераРивса присваивается 0 через каждые n 1 шагов, для формулы Полака Райбера beta. Для этого, в частности, можно воспользоваться методом Фибоначчи, методом золотого сечения или методом бисекций. Более быструю сходимость обеспечивает метод НьютонаРафсона, но для этого необходимо иметь возможность вычисления матрицы Гессе. В последнем случае, переменная, по которой осуществляется оптимизация, вычисляется на каждом шаге итерации по формуле a ,frac. В этом случае используется обучение по эпохам, то есть при вычислении целевой функции предъявляются все шаблоны обучающего множества и вычисляется средний квадрат функции ошибки или некая ее модификация. То же самое при вычислении градиента, то есть используется суммарный градиент по всему обучающему набору. Градиент для каждого примера вычисляется с использованием алгоритма обратного распространения Back. Prop. В заключение приведем один из возможных алгоритмов программной реализации метода сопряженных градиентов. Сопряженность в данном случае вычисляется по формуле ФлетчераРивса, а для одномерной оптимизации используется один из вышеперечисленных методов. По мнению некоторых авторитетных специалистов скорость сходимости алгоритма мало зависит от оптимизационной формулы, применяемой на шаге 2 приведенного выше алгоритма, поэтому можно рекомендовать, например, метод золотого сечения, который не требует вычисления производных. Вариант метода сопряженных направлений, использующий формулу Флетчера Ривса для расчета сопряженных направлений. Sigmanew r. T r квадрат модуля антиградиента. Sigma. 0 Sigmanew Цикл поиска выход по счетчику или ошибкеwhile i lt imax and Sigmanew Eps. Sigma. 0beginj 0. Sigmad d. T d Цикл одномерной минимизации спуск по направлению drepeata x x aj j 1until j jmax or a. Sigmad lt Eps. Sigmaold Sigmanew. Sigmanew r. T rbeta Sigmanew Sigmaoldd r beta d Вычисление сопряженного направленияk k 1if k n or r. T d lt 0 then Рестарт алгоритмаbegind rk 0endi i 1end. Метод сопряженных градиентов является методом первого порядка, в то же время скорость его сходимости квадратична. Этим он выгодно отличается от обычных градиентных методов. Например, метод наискорейшего спуска и метод координатного спуска для квадратичной функции сходятся лишь в пределе, в то время как метод сопряженных градиентов оптимизирует квадратичную функцию за конечное число итераций. При оптимизации функций общего вида, метод сопряженных направлений сходится в 4 5 раз быстрее метода наискорейшего спуска. При этом, в отличие от методов второго порядка, не требуется трудоемких вычислений вторых частных производных. Литература Н. Н. Моисеев, Ю. П. Иванилов, Е. М. Столярова. Наука, 1. А. Фиакко, Г. Мак Кормик. Мир, 1. 97. 2У. И. Зангвилл. Советское радио, 1. Jonathan Richard Shewchuk.

Архив

Метод Сопряженных Градиентов Программа
© 2017