Градиентные методы
Метод Гаусса-Зейделя
Метод заключается в поочерёдном нахождении частных экстремумов целевой функции по каждому фактору. При этом на каждом этапе стабилизируют (k-1) факторов и варьируют только один i-ый фактор
Порядок расчёта: в локальной области факторного пространства на основании предварительных опытов выбирают точку, соответствующую наилучшему результату процесса, и из неё начинают движение к оптимуму. Шаг движения по каждому фактору задаётся исследователем. Вначале фиксируют все факторы на одном уровне и изменяют один фактор до тех пор, пока будет увеличение (уменьшение) функции отклика (Y), затем изменяют другой фактор при стабилизации остальных и т. д. до тех пор пока не получат желаемый результат (Y). Главное правильно выбрать шаг движения по каждому фактору.
Этот способ наиболее прост, нагляден, но движение к оптимуму длительно и метод редко приводит в оптимальную точку. В настоящее время он иногда применяется при машинном эксперименте.
Эти методы обеспечивают движение к оптимуму по прямой перпендикулярной к линиям равного отклика, т. е. в направлении градиента функции отклика.
Градиентные методы имеют несколько разновидностей, различающихся правилами выбора ступеней варьирования и рабочих шагов на каждом этапе движения к экстремуму.
Сущность всех методов состоит в следующем: первоначально на основании предварительных опытов выбирают базовую точку. Затем на каждом этапе вокруг очередной базовой точки организуют пробные эксперименты, по результатам которых оценивают новое направление градиента, после чего в этом направлении совершают один рабочий шаг.
Метод градиента (обычный) осуществляется по следующей схеме :
а) выбирают базовую точку;
б) выбирают шаги движения по каждому фактору;
в) определяют координаты пробных точек;
г) проводят эксперименты в пробных точках. В результате получают значения параметра оптимизации (Y) в каждой точке.
д) по результатам опытов вычисляют оценки составляющих вектор-градиента в т. М для каждого i-го фактора:
![]() |
(24)
где b1- расчетный коэффициент уравнения регрессии.
Аналогично вычисляют grad Y относительно Xi и т. д.
е) находят координаты следующей рабочей точки на направлении градиента (X i+1):
![]() |
(25)
где Hi-шаг движения по Xi.
Xi – координаты предыдущей рабочей точки.
ж) координаты этой рабочей точки принимают за новую базовую точку, вокруг которой проводят эксперименты в пробных точках. Вычисляют градиент и т. д., пока не достигнут желаемого параметра оптимизации (Y). Корректировка направления движения производится после каждого шага.
Достоинства метода: простота, более высокая скорость движения к оптимуму.
Недостатки: большая чувствительность к помехам. Если кривая имеет сложную форму, метод может не привести к оптимуму. Если кривая отклика пологая - метод малоэффективен. Метод не даёт информации о взаимодействии факторов.