Многомерная оптимизация (поиск экстремума функции численными методами)


Функция

x^2+y^2+z^2-4\cdot x\cdot y+6\cdot x-8
Введите функцию, например, x^5-x^2 или x^2+y^2+x*y



Двумерная оптимизация
Одномерная оптимизация
Решение решено за 0.7163 сек

\[f\left( x,y,z \right)=x^{2} - 4 x y + 6 x + y^{2} + z^{2} - 8\]

Метод Ньютона

Начнём с точки \(X_0=\left( 0;0;0 \right)^T\)

Градиент:

\[\nabla f=\left( {\begin{array}{*{20}{c}} 2 x - 4 y + 6\\- 4 x + 2 y\\2 z \end{array}} \right)\Rightarrow \nabla f\left({X_0}\right)=\left( {\begin{array}{*{20}{c}} 2 \cdot 0 - 4 \cdot 0 + 6\\- 4 \cdot 0 + 2 \cdot 0\\2 \cdot 0 \end{array}} \right)=\left( {\begin{array}{*{20}{c}} 6\\0\\0 \end{array}} \right)\]

Матрица Гессе:

\[H=\left({{\begin{array}{*{20}{c}}{\frac{\partial^{2} f}{ \partial x^{2}}} &{\frac{\partial^{2} f}{ \partial x \partial y }} &{\frac{\partial^{2} f}{ \partial x \partial z }} \\{\frac{\partial^{2} f}{ \partial y \partial x }} &{\frac{\partial^{2} f}{ \partial y^{2}}} &{\frac{\partial^{2} f}{ \partial y \partial z }} \\{\frac{\partial^{2} f}{ \partial z \partial x }} &{\frac{\partial^{2} f}{ \partial z \partial y }} &{\frac{\partial^{2} f}{ \partial z^{2}}}\end{array}}}\right)=\left(\begin{matrix}2 & -4 & 0\\-4 & 2 & 0\\0 & 0 & 2\end{matrix}\right)\]

Итерация 1

\[H\left({X_{0}}\right)=\left(\begin{matrix}2 & -4 & 0\\-4 & 2 & 0\\0 & 0 & 2\end{matrix}\right)\]

Вычислим матрицу, обратную к матрице Гессе в точке \(X_0\):

Найдём обратную матрицу методом Жордана-Гаусса. Составим матрицу \(H|E\), гду \(E\) - единичная матрица

Прямой ход

\[\left(\begin{array}{ccc|ccc}2 & -4 & 0 & 1 & 0 & 0\\-4 & 2 & 0 & 0 & 1 & 0\\0 & 0 & 2 & 0 & 0 & 1\end{array}\right)\Rightarrow \left(\begin{array}{ccc|ccc}1 & -2 & 0 & \frac{1}{2} & 0 & 0\\0 & \frac{3}{2} & 0 & - \frac{1}{2} & - \frac{1}{4} & 0\\0 & 0 & 2 & 0 & 0 & 1\end{array}\right)\Rightarrow \left(\begin{array}{ccc|ccc}1 & -2 & 0 & \frac{1}{2} & 0 & 0\\0 & 1 & 0 & - \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & 2 & 0 & 0 & 1\end{array}\right)\Rightarrow \left(\begin{array}{ccc|ccc}1 & -2 & 0 & \frac{1}{2} & 0 & 0\\0 & 1 & 0 & - \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & 1 & 0 & 0 & \frac{1}{2}\end{array}\right)\]

Обратный ход

\[\left(\begin{array}{ccc|ccc}1 & -2 & 0 & \frac{1}{2} & 0 & 0\\0 & 1 & 0 & - \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & 1 & 0 & 0 & \frac{1}{2}\end{array}\right)\Rightarrow \left(\begin{array}{ccc|ccc}1 & -2 & 0 & \frac{1}{2} & 0 & 0\\0 & 1 & 0 & - \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & 1 & 0 & 0 & \frac{1}{2}\end{array}\right)\Rightarrow \left(\begin{array}{ccc|ccc}1 & 0 & 0 & - \frac{1}{6} & - \frac{1}{3} & 0\\0 & 1 & 0 & - \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & 1 & 0 & 0 & \frac{1}{2}\end{array}\right)\]

Таким образом, обратная матрица равна

\[H^{-1}=\left(\begin{matrix}- \frac{1}{6} & - \frac{1}{3} & 0\\- \frac{1}{3} & - \frac{1}{6} & 0\\0 & 0 & \frac{1}{2}\end{matrix}\right)=\left(\begin{matrix}-0.1667 & -0.3333 & 0\\-0.3333 & -0.1667 & 0\\0 & 0 & 0.5\end{matrix}\right)\]

Тогда

\[X_{1}=X_{0}-H^{-1}\left({X_{0}}\right)\cdot \nabla f\left({X_{0}}\right)=\left( {\begin{array}{*{20}{c}} 0\\0\\0 \end{array}} \right)-\left(\begin{matrix}-0.1667 & -0.3333 & 0\\-0.3333 & -0.1667 & 0\\0 & 0 & 0.5\end{matrix}\right)\cdot\left( {\begin{array}{*{20}{c}} 6\\0\\0 \end{array}} \right)=\left( {\begin{array}{*{20}{c}} 1\\2\\0 \end{array}} \right)\]

\[f\left({X_{1}}\right)=1^{2} - 4 \cdot 1 \cdot 2 + 6 \cdot 1 + 2^{2} + 0^{2} - 8=-5\]

\[\nabla f\left({X_{1}}\right)=\left( {\begin{array}{*{20}{c}} 2 \cdot 1 - 4 \cdot 2 + 6\\- 4 \cdot 1 + 2 \cdot 2\\2 \cdot 0 \end{array}} \right)=\left( {\begin{array}{*{20}{c}} 0\\0\\0 \end{array}} \right)\]

\[\left|\left|\nabla f\left({X_{1}}\right)\right|\right|=\sqrt {0^{2}+0^{2}+0^{2}}=0<0.01\]

В решении могут быть ошибки, несмотря на то, что авторы сервиса стараются исключить их. Проверяйте решение.
Чат с AI
Нейросеть ответит на ваши вопросы
Нейросеть печатает