Gradient Descent Method
Steepest descentとも言う。 関数(ポテンシャル面)の傾き(一階微分)のみから、関数の最小値を探索する連続最適化問題の勾配法のアルゴリズムの一つ。
Good
Bad
Definition
- $x = (x_{1}, \ldots, x_{N})^{T} \in \mathbb{R}^{N}$
- $f^{i}(\cdot) := f(\cdot; \theta_{i}): \mathbb{R}^{N} \rightarrow \mathbb{R} (\forall i = 1, \ldots, M)$
- $\theta_{i} \in \mathbb{R}^{K}$をパラメータとする$N$変数関数
- $f(\cdot) = (f^{1}(\cdot), \ldots, f^{M}(\cdot))^{T}: \mathbb{R}^{N} \rightarrow \mathbb{R}^{M} $
- $\theta \in \mathbb{R}^{K}$をパラメータとする$N$変数$M$次元ベクトル値関数
スカラー値関数$f$の勾配を以下で定義する。
\[\nabla f := (\frac{\partial f}{\partial x^{1}}, \cdots, \frac{\partial f}{\partial x^{N}})\]Theory
スカラー値関数$f$について
\[x^{1} := x^{0} - \gamma (\nabla f)(x^{0})\]とおくと、
\[f(x^{0}) \ge f(x^{1}) \ge \cdots\]となる。
最急降下法では、この性質を利用して関数の最小化問題や線形方程式を解く。
Problem
以下の問題を考える。
\[\begin{equation} S(x) := \sum_{i=1}^{M} r^{i}(x)^{2} := \sum_{i=1}^{M} \left( y^{i} - f^{i}(x) \right)^{2} \in \mathbb{R} \end{equation}\]ここで、$y = (y^{1}, \ldots, y^{M}) \in \mathbb{R}^{M}$である。 $r(x) = (r^{1}(x), \ldots, r^{M}(x))$は残差を表し、$r^{i}(x) = y^{i} - f^{i}(x)$である。
またベクトル表記で
\[\begin{equation} S(x) = \left\| r(x) \right\|^{2} = \left\| y - f(x) \right\|^{2} \end{equation}\]とも書く。