View on GitHub

memo

Richardson Extrapolation

Richardson Extrapolation

誤差評価が分かっている近似手法に対して、収束次数をあげる為の手法。 適用範囲が広く実用上も有益。 ただし、数値計算上は桁落ちなどに注意が必要。

Romberg’s methodはRichardson extraplationの積分への応用である。

Good

Bad

Definition

Algorithm

$h$を近似手法のパラメータとし、真値$A^{*}$との誤差が以下で表現できるとする。

\[\begin{eqnarray} A(h) & = & A^{*} + c_{n} h^{n} + O(h^{n+1}) \nonumber \\ & = & A^{*} + O(h^{n}) \nonumber \end{eqnarray}\]

ここで、$c_{n} \in \mathbb{R}$は定数である。 このとき、

\[A(kh) = A^{*} + k^{n} c_{n} h^{n} + O(h^{n+1})\]

より、

\[\begin{eqnarray} k^{n} A(h) - A(kh) & = & k^{n} \left( A^{*} + c_{n} h^{n} + O(h^{n+1}) \right) - A^{*} + k^{n} c_{n} h^{n} + O(h^{n+1}) \nonumber \\ & = & (k^{n} - 1) A^{*} + O(h^{n+1}) \nonumber \end{eqnarray}\]

となる。 よって、近似手法$\bar{A}(h, k)$を新しく

\[\begin{eqnarray} \bar{A}(h, k) & := & \frac{ k^{n} A(h) - A(kh) }{ k^{n} - 1 } \nonumber \\ & = & A^{*} + O(h^{n+1}) \nonumber \end{eqnarray}\]

とおけば、$h^{n+1}$で収束する手法となる。

Example

例を見たほうが理解が早い。

Reference