13. Итеративные методы. Постановка задачи

Ограниченные возможности симплексного метода привели к широкому распространению градиентных и других итеративных методов, в основе которых лежит понятие градиента целевой функции g(x).

Градиентом функции g(x), обозначаемым grad g(x) и , называют вектор, величина которого определяет скорость изменения функции g(x), и наибольшего возрастания этой функции. Пусть , но . (1)

Условия стационарности точки . (2) Разложим в ряд Тейлора в окрестности точки оптимума , которую считаем стационарной (3), где - отклонение от точки оптимума; (4), т. к. , то

, (5) где элементы матрицы А определяются akj по формуле (4). Разрешая систему уравнений (5) относительно , получаем: . (6) Если заменить неизвестную матрицу А-1 на матрицу Г ([γkj]), то можно надеется, что величина даст значение, более близкое к оптимуму, чем x. При этом открываются возможности многошаговой процедуры поиска.

Обозначим через , значение на n-ом шаге. Тогда процедура поиска запишется в виде .

Градиентный метод.

Этот метод представляет собой последовательность шагов, содержащих две операции:

1) Определение направления наибольшей крутизны спуска, т. е направление антиградиента g(x).

2) Перемещение в выбранном направлении на заданное расстояние.

Математически стратегия градиентного метода получается, если перемещение на каждом шаге будет пропорционально составляющей градиента в направлении этой оси: (8) тогда Гn будет диагональной Гn =γI (9) при этом, поправка на n-м шаге равна: . (10) При таком ограничении некоторые шаги могут оказаться мелкими. Это можно исправить, используя стратегию с постоянным шагом γ. (11) где .

Метод наискорейшего спуска (подъема).

В этом методе градиент находят только в начальной точке и движении в найденном направлении продолжается c одинаковыми шагами до тех пор, пока уменьшается значение . Если на каком-то шаге возросло, то движение в данном направлении прекращается, последний шаг снимается полностью, или на половину, и вычисление нового градиента функции , т. е новое направление движение.

При этом, шаг движения не должен быть большим, чтобы не пропустить оптимум на данном направлении.

Алгоритм Ньютона.

Этот метод применим, когда поверхность отклика достаточно хорошо описывается уравнением 2-го порядка. Метод позволяет резко уменьшить число шагов. При хорошей поверхности отклика вторые производные: (12) вычисленные в точки будут близкими и элементам akj матрицы А. Используя в качестве Гn матрицу вторых производных в точке , получим вектор поправок для алгоритма Ньютона: . (13) Если разложения (3) является точным, то оптимум достигается за один шаг.

© 2011-2024 Контрольные работы по математике и другим предметам!