Takuya Kawanishi

極大点・極小点を求めるアルゴリズム

この章で学ぶこと

現在, 最適化で最もよく用いられているのは, おそらく, Newton 法と勾配降下法だろう. 前者は効率よく最適値を求めるのに適しており, 後者は 1 階微分のみを使うという計算負荷上の利点から機械学習で用いられる(実際には派生法である確率的勾配降下法がよく用いられる).

最適化の難しさは, 過学習や, 初期値の設定方法, などアルゴリズムとは違ったところにあることが多いが, それでも, アルゴリズムを理解していれば, 問題に対してより適切な対処ができる可能性が高まる. そのような観点から, この章では, Newton 法と勾配降下法を学ぶ.

最適化のアルゴリズム(1変数)

Newton 法

Newton 法(Newton Raphson 法)は, 極小値を求めるというよりは, 方程式 \(f(\boldsymbol x) = 0\) の解を求める方法である. 極小値を求めるためには, 1 階微分のゼロ点 \(df/dx = 0\) つまり停留点を求める. 図 1 に \(y = f(x) = 0\) の解を求める例を示す.

../_images/newton_method_010.pdf

まず, 適当な初期値 \(x_0\) を決める. 次に, その初期値における関数の値 \(f(x_0)\) を求める. 点 \((x_0, f(x_0))\) から, 接線(傾き \(f^\prime(x)\))を引く. 接線と \(x\) 軸(\(y=0\)) との交点を求め, \(x_1\) とする. 以下, \((x_i, f(x_i))\) から接線を引いて \(x\) 軸との交点 \(x_{i+1}\) を求めることを繰り返す. \(\left\lvert f(x_{i+1}) \right\rvert < \varepsilon_0\) となったら, \(x_{i+1}\) を解の近似値として採用し, 計算を終える.

Newton 法で極大・極小点を求めるには, 停留点を求める. 求めた停留点が極大点か極小点かについては, 第 1 章に述べた方法で別に調べる必要がある. fig: newton stationary に停留点を Newton 法で求めるときの \(x\) の更新過程の例を示す. \(f^\prime(x) = 0\) を解くことで, 関数 \(f(x)\) の極小点が求まっている. fig: newton method algorithm に, Newton 法で停留点を求めるアルゴリズムを示しておく.

../_images/newton_find_stationary.pdf
../_images/fig_algorithm_newton_one.png

勾配降下法

勾配降下法では関数の勾配(が最大になる)方向に勾配に比例するだけ移動する. 関数の谷を降りていき, 谷底(極小点)に到達すれば, 勾配が 0 になるので, 移動が止まる. 計算には, 学習率(learning rate)と呼ばれるパラメーターを用いるが, この値により収束速度が大きく異なり, 場合によっては収束しないこともある. fig: example gradient descent に勾配降下法での極小点を求めるまでの \(x_i\) の更新の様子の例を示す.

../_images/gradient_descent.pdf

fig: gradeent descent algorithm に, 勾配降下法のアルゴリズムを示す.

../_images/fig_algorithm_GD_one.png

Newton 法と勾配降下法の比較

Newton 法では, \(f^\prime\) の接線と \(y=0\) との交点を更新点として用いるが, 勾配降下法では, \(f\) の接線方向に, その傾きに比例した分だけ \(x\) を変化させる. Newton 法で停留点を求めるためには, アルゴリズムからも分かるように, \(f^\prime(x_i)\)\(f^{\prime\prime}(x_i)\) が必要である. 勾配降下法では, \(f^\prime(x_i)\) だけが必要である.

備考 2.1

アルゴリズムから分かるが, Newton 法は停留点に収束する. つまり極大値にも収束する. 勾配降下法は極小値のみに収束し, 極大値に収束することはない.


例題 2.1

\(x_0 = 2\) からの 1) Newton 法, 2) 勾配降下法で, ともに収束条件を \(\lvert f^\prime(x_i)\rvert < \varepsilon_0\), \(\varepsilon=1.0 \times 10^{-4}\) として求めよ. ただし, 勾配降下法の学習率は \(\eta=0.1111\) とする.

\[y = f(x) = x^3 - 3 x\]

この問題はできれば関数電卓で解いてみよう.


解答例題 2.1

\(y = f(x)\) の 1 階, 2 階の導関数は以下のとおりである.

\[f^\prime(x) = 3 x^2 - 3, \quad f^{\prime\prime} = 6 x\]

\(x_0=2\) として, それぞれのアルゴリズムに従って, \(f^\prime(x_i)\), \(f^{\prime\prime}(x_i)\) を計算し, それらをもとに Newton 法では \(\Delta x_i = f^\prime(x_i) / f^{\prime\prime(x_i)}\), 勾配降下法では \(\Delta x_i = - \eta f^\prime(x_i)\) を算出. そこから \(x_{i+1} = x_i + \Delta x_i\) を算出した. 結果を表 1 にまとめた.

2.2


例題 2.1 の計算

N ewton

Gra dient de scent

(l r)2-5 (l r)6-8 :mat h:i

: math: x_i

: math: f^p rime( x_i)

:mat h:f^ {pri mepr ime}( x_i)

:ma th:`Delta

x_i`

: math: x_i

: math: f^p rime( x_i)

:ma th:`Delta

x_i`

0

2. 00000

9. 00000

12. 00000

-0. 75000

2. 00000

9. 00000

-0. 99990

1

1. 25000

1. 68750

7. 50000

-0. 22500

1. 00010

0. 00060

-0. 00007

2

1. 02500

0. 15187

6. 15000

-0. 02470

1. 00003

0. 00020

-0. 00002

3

1. 00030

0. 00183

6. 00183

-0. 00030

1. 00001

4

1. 00000

備考 2.3

以上の操作で, Newton 法と勾配降下法で \(x_i\) が近似解に近づいていく様子がよく分かる. この問題の場合, 勾配降下法のほうが, Newton 法より速く収束した. 勾配法でも, 学習率をうまく選べば, 収束を早めることができる. ただし, ここでは収束条件を \(\varepsilon_0 = 1.0 \times 10^{-4}\) とかなり緩いものにした. 例えばこれを \(1.0 \times 10^{-6}\) に変えると Newton 法のほうが速くなる.

一般に, Newton 法は近似解への収束が速いことが知られている. これに対し, 勾配降下法は収束速度が遅いが, 1 階微分を計算するだけでよいのが大きなメリットとなる. 特に機械学習など変数の数 \(n\) が大きい場合には, 2 解微分である Hessian の計算に \(n^2\) の計算が必要となることを考えると, 勾配降下法が選ばれる理由が納得できる.

初期値依存性

非線形の最適化問題は, 初期値の選び方が重要である. 領域内の「最小点」を選ぶ問題の場合, 初期値の選び方によっては, 最小点とは別の極小点が解として得られてしまう場合もあれば, 全く解が得られない(発散する)場合もある.

大まかな傾向とすれば, 目的とする極小値(例えば最小値)の近くに初期値を持ってくると, その点に収束する場合が多い. しかし, 勾配降下法などでは適切な学習率を設定しないと, 初期値が解の近くにあっても \(x_i\) が解に収束しない場合がある(後述).

また, そもそもの問題として, 解が未知なのだから, 初期値をその近くに設定するというのは無理がある. このため, 往々にして様々な初期値を試すことになる. このあたりに非線形最適化問題の難しさがある.

まずは Newton 法で初期値依存性をみよう.


例題 2.2

例題 2.1 の次の関数の停留点を求めるのに Newton 法を用いる.

\[y = f(x) = x^3 - 3 x\]

初期値を \(x_0=-0.1, 0.1\) としたときに, それぞれ, どのような停留点に収束するか.


解答例題 2.2 実際に Newton 法で計算してみると(表 2)\(x_0= -0.1\) のときには, \(x=-1\) に, \(x_0 = 0.1\) のときには \(1\) に収束することが分かる.

備考 2.4

Newton 法は, 停留点 \(df/dx = 0\) を求める方法なので, 極大点にも収束する. 表 2 に, \(x_0 = -0.5, \, -0.1, \, 0.1, \, 0.6\) のときに, \(x_6\) までを計算した結果を示す. 図を描いてみれば分かるが, この関数の変曲点 \(x=0\) より初期値 \(x_0\) が小さければ極大点 \(x=-1\) に収束し, 大きければ極小点 \(x=1\) に収束する. \(x_0 = -0.5\) のほうが, \(x_0 = -0.1\) よりも \(x=-1\) に近いので, 前者の場合のほうが収束が速い. また, この関数は原点まわりで点対称なので, 初期値 \(x_0\) の絶対値が同じであれば, 符号以外の結果は同じになる. これを踏まえて, \(x_0 = -0.5\)\(x_0 = 0.6\) を比較すると, \(\lvert -1 - (-0.5) \rvert > \lvert 1 - 0.6\rvert\) なので, 後者のほうが速く収束する.

2.5


Table 1 Newton 法の初期値依存性

\(i\) \\(x_0\)

\(-0.5\)

\(-0.1\)

\(0.1\)

\(0.6\)

0

-0.5000

-0.1000

0.1000

0.6000

1

-1.2500

-5.0500

5.0500

1.1333

2

-1.0250

-2.6240

2.6240

1.0078

3

-1.0003

-1.5026

1.5026

1.0000

4

-1.0000

-1.0840

1.0840

1.0000

5

-1.0000

-1.0033

1.0033

1.0000

6

-1.0000

-1.0000

1.0000

1.0000

例 2.6

例題 例題 2.1 の関数

\[y = f(x) = x^3 - 3 x\]

に勾配降下法を適用する. 様々な初期値と学習率の組で計算を行った場合の \(i=8\) までの \(x_i\) を表 3 にまとめた.

2.7


Table 2 勾配降下法における初期値と学習率の影響の例

:ma th:qu ad x_0

:math :-1.1

:math :-0.9

:math :0.99

:math :0.99

:math :0.99

:math :0.99

:m ath:i \:math:` eta`

:mat h:0.1

math:

0.167

math:

0.167

:mat h:0.1

:mat h:0.3

:mat h:0.6

0

-1.1000

-0.9000

0.9900

0.9900

0.9900

0.9900

1

-1.1630

-0.8048

1.0000

0.9960

1.0079

1.0258

2

-1.2688

-0.6283

1.0000

0.9984

0.9936

0.9317

3

-1.4517

-0.3251

1.0000

0.9994

1.0051

1.1693

4

-1.7839

0.1229

1.0000

0.9997

0.9959

0.5084

5

-2.4387

0.6164

1.0000

0.9999

1.0032

1.8432

6

-3.9228

0.9270

1.0000

1.0000

0.9974

-2.4720

7

-8.2393

0.9975

1.0000

1.0000

1.0021

11.6716

8

28.3052

1.0000

1.0000

1.0000

0.9983

-2 55.0771

勾配降下法では, 初期値 \(x_0\) と学習率 \(\eta\) の両方によって収束が違ってくる. 左から見ていこう. 初期値と学習率が \(x_0=-1.1\), \(\eta=0.1\) の場合, 初期値が極大点 \(-1\) より小さいので, 勾配を下ると, \(x\) はどんどん負の方向に移動する. よって発散してしまう. \(x_0 = -0.9\), \(\eta=0.167\) のときは, 初期値は極大値より右なので収束する. 学習率はこれが最適だが, 収束は遅い. \(x_0 = 0.99\) の場合, 学習率を最適, 0.1, 0.3, 0.6 と変化させてその影響をみた. 最適学習率 \(\eta = 0.167\) の場合, \(x_1\) ですでに誤差が \(5 \times 10^5\) 以下になっている. \(\eta = 0.1\) の時には, 同じようなレベルになるのに 6 回かかっている. \(\eta = 0.3\) の場合, \(x_i\) は, \(x_i > 1\), \(x_i < 1\) を繰り返してながら \(x=1\) に近づいている. この場合はいずれ収束するが, このように \(x_i\) が振動する場合は学習率が大きすぎると考えてよい. \(\eta = 0.6\) の場合, \(x_i\) は, \(x_i > 1\), \(x_i < 1\) を繰り返してながら発散し, \(x_i < -1\) となったところから勾配を降ってどんどん負の方向に移動することになる.

多変数関数の場合

2 変数関数のゼロ点と停留点

第 1 章で見たように, 2 変数以上の多変数関数の極大・極小問題はすべて同じように扱える. よって, ここでは 2 変数関数のみ考える. 次の関数を考えよう.

\[y = f(x, y) = x^2 + y^2 - 1\]

この関数のゼロ点は \(x^2 + y^2 - 1 = 0\) の解だから, 原点を中心として半径を 1 とする円となる. つまり, この関数のゼロ点は 1 点には定まらない. 一方, 停留点は

\[\frac{\partial f}{\partial x} = 2x = 0, \quad \frac{\partial f}{\partial y} = 2y = 0\]

の解なので, \((x, y) = (0, 0)\) と 1 点に定まる. 停留点が極大値を与えるか極小値を与えるか等については, 第 1 章で解説した方法で調べればよい. 以上を考えて, この節では Newton 法でもゼロ点はとりあげず, 停留点と極小点のみを議論する.

Newton 法による停留点の求め方(2 変数)

1 変数の場合と, アルゴリズムは同じになる. ただし, \(f\) が多変数関数なので, \(x_i\) がベクトル \(\boldsymbol x_i = \left[x_i, y_i \right]^\mathrm T\) に変わるほか, \(x_i\) の更新の部分(1 変数の場合は \(\Delta x_i = - f^\prime(x_i)/f^{\prime\prime}(x_i)\))が次のように変わる.

(11)\[\boldsymbol x_{i + 1} = \boldsymbol x_i + \Delta \boldsymbol x_i, \quad \boxed{\Delta x_i = - H_f(\boldsymbol x_i)^{-1} \boldsymbol \nabla f (\boldsymbol x_i)} \label{eq: renewal x_i newton multivariable}\]

ここで, \(H_f\) は第 1 章でもとりあげた Hesse 行列である. 関数 \(f\) の Hesse 行列であることを強調したいために, 添字として \(f\) を付けてある. \(H(\boldsymbol x_i)^{-1}\)\(\boldsymbol x_i\) における Hesse 行列の逆行列である. \(\nabla f(\boldsymbol x_i)\) は, 次に示す勾配(gradient)である. 勾配は \(\nabla f\) とか \(\operatorname{grad} f\) で表される.

\[\begin{split}\renewcommand*{\arraystretch}{0.25} \nabla f(\boldsymbol x_i) = \operatorname{grad} f (\boldsymbol x_i) = \begin{bmatrix} \\ \dfrac{\partial f}{\partial x}(\boldsymbol x_i) \\ \\ \\ \dfrac{\partial f}{\partial y} (\boldsymbol x_i) \\ \\ \end{bmatrix}\end{split}\]

(11)\(\Delta \boldsymbol x_i\) は, \(2 \times 2\) 行列 \(H(\boldsymbol x_i)^{-1}\) と 2 項列ベクトル \(\nabla f(\boldsymbol x_i)\) の積だから, 2 項列ベクトルとなる.

これだけでは分かりにくいだろうから, 簡単な計算例をみていこう.

例 2.8

\[\begin{aligned} y = f(x, y) = x^2 + y^2 + x^2 y^2\end{aligned}\]

の停留点は \(\boldsymbol x = \left[0, 0\right]^\mathrm T\) だが, 初期値を \(\boldsymbol x_0 = \left[2, 1\right]^\mathrm T\) として Newton 法で求める最初のステップを調べる.

\[\begin{split}\nabla f (\boldsymbol x)= \begin{bmatrix} \begin{array}{r} 2 x + 2 x y^2 \\ 2 y + 2 x^2 y \end{array} \end{bmatrix}, \quad H_f(\boldsymbol x) = \begin{bmatrix} \begin{array}{rr} 2 + 2 y^2 & 4 xy \\ 4 xy & 2 + 2 x^2 \end{array} \end{bmatrix}\end{split}\]

さて, \(\boldsymbol x_0 = \left[2, 1\right]^\mathrm T\) のときに

\[\begin{split}\nabla f(\boldsymbol x_0) = \begin{bmatrix} \begin{array}{r} 8 \\ 10 \end{array} \end{bmatrix}, \quad H_f(\boldsymbol x_0)= \begin{bmatrix} \begin{array}{rr} 4 & 8 \\ 8 & 10 \end{array} \end{bmatrix}, \quad H_f(\boldsymbol x_0)^{-1} = \begin{bmatrix} \begin{array}{rr} -5/12 & 1/3 \\ 1/3 & - 1/6 \end{array} \end{bmatrix}\end{split}\]
\[\begin{split}\Delta \boldsymbol x_0 = -H_f(\boldsymbol x_0)^{-1} \nabla f (\boldsymbol x_0) = - \begin{bmatrix} \begin{array}{rr} -5/12 & 1/3 \\ 1/3 & -1/6 \end{array} \end{bmatrix} \begin{bmatrix} \begin{array}{r} 8 \\ 10 \end{array} \end{bmatrix} = \begin{bmatrix} \begin{array}{r} 0 \\ -1 \end{array} \end{bmatrix}\end{split}\]
\[\begin{split}\begin{aligned} \boldsymbol x_1 = \boldsymbol x_0 + \Delta \boldsymbol x_0 = \begin{bmatrix} \begin{array}{r} 2 \\ 1 \end{array} \end{bmatrix} + \begin{bmatrix} \begin{array}{r} 0 \\ - 1 \end{array} \end{bmatrix} = \begin{bmatrix} \begin{array}{r} 2 \\ 0 \end{array} \end{bmatrix}\end{aligned}\end{split}\]

あとは, \(x_i\) の更新を繰り返せばよい.

勾配降下法による極小点の求め方(2 変数)

勾配降下法の場合も, \(f^\prime(x_i)\)\(\nabla f(x_i)\) となるだけで, アルゴリズムは同じである. 学習率はスカラーのままでよい.

\[\boldsymbol x_{i+1} = \boldsymbol x_i + \Delta \boldsymbol x_i, \quad \boxed{ \Delta \boldsymbol x_i = - \eta \nabla f(\boldsymbol x_i) }\]

例 2.9

例 2.8 と同じ関数

\[y = f(x, y) = x^2 + y^2 + x^2 y^2\]

の関数の極小点を勾配降下法で求る最初のステップを示そう.

ただし学習率は \(\eta = 0.05\) とする.

例 2.8 でみたように, 勾配は, \(\nabla f = \left[ 2 x + 2 x y^2 , 2 y + 2x^2 y\right]^\mathrm T\) だから, 初期値 \(\boldsymbol x_0 = \left[ 2, 1\right]^\mathrm T\) に対して

\[\begin{split}\begin{aligned} \nabla f(\boldsymbol x_0) = \begin{bmatrix} \begin{array}{r} 8 \\ 10 \end{array}\end{bmatrix}, \quad \Delta x =- \eta \nabla f(\boldsymbol x_0) = \begin{bmatrix} \begin{array}{r} -0.4 \\ -0.5 \end{array} \end{bmatrix}\end{aligned}\end{split}\]
\[\begin{split}\begin{aligned} \boldsymbol x_{i+1} = \boldsymbol x_i + \Delta \boldsymbol x _i = \begin{bmatrix} \begin{array}{r} 2 \\ 1 \end{array} \end{bmatrix} + \begin{bmatrix} \begin{array}{r} -0.4 \\ - 0.5 \end{array} \end{bmatrix} = \begin{bmatrix} \begin{array}{r} 1.6 \\ 0.5 \end{array} \end{bmatrix}\end{aligned}\end{split}\]

あとは, \(\boldsymbol x_i\) の更新を繰り返すことになる.

収束判定(多変数)

多変数の場合の収束判定は, 1 変数の場合と違って, ベクトル \(\nabla (\boldsymbol x_i)\) の大きさを調べることになる. これにはいくつかの方法があるが, \(\boldsymbol \xi = \left[ \xi_1, \dotsc, \xi_n\right]^\mathrm T\) のユークリッドノルム

\[\left\lVert \boldsymbol \xi \right\rVert_2 = \sqrt{ \xi_1^2 + \dotsb + \xi_n^2}\]

は, 変数の数が多くなると, 計算コストが高い. そのためだろうが, 多くの場合, 最大値ノルムが用いられる.

\[\left\lVert \boldsymbol \xi \right\rVert_\infty = \max \left\lvert \xi_i \right\rvert\]

アルゴリズム

整理の意味もこめて, 多変数の Newton 法と勾配降下法のアルゴリズムを載せる.

../_images/fig_algorithm_newton_multi.png
../_images/fig_algorithm_GD_multi.png

Python による計算例

はじめに

Newton 法にせよ勾配降下法にせよ, 1 変数の場合はともかく, 多変数の場合はコンピューターを使って計算すべきものである. このとき, 勾配などを計算する必要があるが, 特に Newton 法の場合, Hesse 行列, 及びその逆行列を計算する必要があり, これを一々入力するのは大変である. このようなとき, 自動微分関連のパッケージを用いればよい.

ここでは, Google 製の JAX(https://github.com/google/jax)を使う. JAX は自動微分と高速化線形代数をひとつにしたパッケージであり, 色々なことができるのだが, ここでは, numpy の機能を代替する \(\texttt{jnp.numpy}\) と, 自動微分の機能のみを使う. 自動微分を使うだけで, 最適化計算にかかる労力の大半を削減することができる.

Newton 法の計算例(2 変数)

ここでは, 次の関数の停留点を初期値 \(\boldsymbol x_0 = [0.2, 2.2]^\mathrm T\) として Newton 法で解く.

\[z = f(x, y) = - \cos(2 x) \sin(y)\]
{language=Python}
import jax  # jax パッケージを使う
import jax.numpy as jnp  # numpy の代わりに jax.numpy を使う.
from jax import config  # この行と次の行は jax での 64-bit 浮動小数点計算のため
config.update("jax_enable_x64", True)


def func(x):
    return - jnp.cos(2 * x[0]) * jnp.sin(x[1])


# jax では, Hesse 行列を計算する関数がないので作る.
def jax_hess(f):
    return jax.jacfwd(jax.jacrev(f))


def main():
    eps_0 = 1.e-15  # 収束条件の設定
    x = jnp.array([.2, 2.2])  # 初期値の設定
    # 最大値ノルムの計算
    nrm_grad = jnp.linalg.norm(jax.grad(func)(x), ord=jnp.inf)
    while nrm_grad > eps_0:
        grad = jax.grad(func)(x)
        hess = jax_hess(func)(x)
        hess_inv = jnp.linalg.inv(hess)  # Hesse 行列の逆行列
        dltx = jnp.matmul(hess_inv, grad) # H_f^-1 と grad f の積
        x = x - dltx
        print(x)
        nrm_grad = jnp.linalg.norm(grad, ord=jnp.inf)
    # 極大・極小判定のため Hessian matrix の 固有値を出力
    print(jnp.linalg.eigvals(hess))


if __name__ == '__main__':
    main()

出力は以下の通り.

{language=Python}
    [-0.15723497  1.25222653]
    [0.02518525 1.62116685]
    [-8.55469635e-05  1.57062523e+00]
    [3.33897023e-12 1.57079633e+00]
    [0.         1.57079633]
    [0.         1.57079633]
    [4.+0.j 1.+0.j]

出力から, 停留点として \([0, 1.57]^\mathrm T\) が得られ, Hesse 行列の固有値が 4, 1, で共に正だから, これが極小点であることが分かる.

演習問題

次の関数の極小点を \(x \in (0, 2)\) の範囲で求めるために, 例題1 と同様のやり方で \(x_4\) までの各値を求めて表にせよ. ただし, 初期値は \(x_0 = 2\) とし, 勾配降下法の学習率は \(\eta = 0.033\) とせよ.

\[y = f(x) = x^4 - 6 x^2\]

次の関数の停留点を Newton 法で求める. 1) 関数 \(y = f(x)\) のグラフを \(x \in (-1.5, 1.5)\) の範囲で描け. 2) 初期値 \(x_0 = -3, -1, 0.3, 2\) から初めたとき, 解はどの停留点に収束するか.

(12)\[y = f(x) = x^4 - 2 x^2 \label{eq: problem 2 function}\]

ちなみに, 停留点は,

\[y = f^\prime(x) = 4 x^3 - 4 x =0\]

の解なので, \(x = -1, 0, 1\) の 3 つである. また, 変曲点は

\[y = f^{\prime\prime}(x) = 12 x^3 - 4 =0\]

の解であるから, \(x = \pm 1 / \sqrt{3}\) である.

(この問題は Python を使うほうがよい.) 上記の式 (12) の関数の極小点を勾配降下法で求めることにする. グラフの形から, 初期値を正の数にとると, 極小値 \(x=1\) に, 初期値を負の値にとると, 極小値 \(x=-1\) に収束するはずである. 1) 初期値を負にとり, その値で \(x=-1\) に収束するように学習率 \(\eta\) を定めよ. 2) 初期値を正にとり, その値で \(x=1\) に収束するように学習率 \(\eta\) を求めよ. 3) 上記 1), 2) のいずれかにおいて, 学習率 \(\eta\) を変えたときに, 収束速度がどのように変化するか計算例を示せ.