View on GitHub

memo

Gradient Descent Method

Gradient Descent Method

Steepest descentとも言う。 関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。

Good

Bad

Definition

スカラー値関数$f$の勾配を以下で定義する。

\[\nabla f := (\frac{\partial f}{\partial x^{1}}, \cdots, \frac{\partial f}{\partial x^{N}})\]

Theory

スカラー値関数$f$について

\[x^{1} := x^{0} - \gamma (\nabla f)(x^{0})\]

とおくと、

\[f(x^{0}) \ge f(x^{1}) \ge \cdots\]

となる。

最急降下法では、この性質を利用して関数の最小化問題や線形方程式を解く。

Problem

以下の問題を考える。

\[\begin{equation} S(x) := \sum_{i=1}^{M} r^{i}(x)^{2} := \sum_{i=1}^{M} \left( y^{i} - f^{i}(x) \right)^{2} \in \mathbb{R} \end{equation}\]

ここで、$y = (y^{1}, \ldots, y^{M}) \in \mathbb{R}^{M}$である。 $r(x) = (r^{1}(x), \ldots, r^{M}(x))$は残差を表し、$r^{i}(x) = y^{i} - f^{i}(x)$である。

またベクトル表記で

\[\begin{equation} S(x) = \left\| r(x) \right\|^{2} = \left\| y - f(x) \right\|^{2} \end{equation}\]

とも書く。

Algorithm

reference