018. Week 04. Logistic Regression - 05. How Gradient method works

@
example function : Rosenbrock function 이라는 예제 샘플을 통해 optimize 되는 과정을 살펴보자
Rosenbrock function 의 정의.
$f(x_{1},x_{2})=(1-x_{1})^{2}+100(x_{2}-x_{1}^{2})^{2}$
$\frac{\partial{}}{\partial{x_{1}}} f(x_{1},x_{2}) = -2(1-x_{1})-400x_{1}(x_{2}-x_{1}^{2})$
편미분을 통해서 global minimum = 0 인 지점 at (1,1) 을 찾을 수 있다.
$\frac{\partial{}}{\partial{x_{2}}} f(x_{1},x_{2}) = 200(x_{2}-x_{1}^{2})$