RL Researcher

Gradient, Jacobian Matrix, Hessian Matrix, Laplacian 본문

Optimization

Gradient, Jacobian Matrix, Hessian Matrix, Laplacian

Lass_os 2021. 7. 7. 19:29

Gradient


어떤 다변수 함수 f(x1,x2,,...,xn)가 있을 떄, f의 Gradient는 아래와 같이 정의됨.

f=(fx1,fx2,...,fxn)

Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 f의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다.

 

Ex)  f(x1,x2)=5x1+8x2+x1x2x212x22의 Gradient는

Df(x)=(f(x))T=[fx1fx2]=[5+x2x22x1,8+x14x2]

또한 반대로 Gradient에 음수를 취하면 즉, ff값이 가장 가파르게 감소하는 방향을 나타내게 됩니다.

 

이러한 Gradient의 특성은 어떤 함수를 지역적으로 선형 근사(linear approximation)하거나 혹은 Gradient descent방법처럼 함수의 극점(최대값, 최소값 지점)을 찾는 용도로 활용될 수 있습니다.

 

Gradient를 이용한 다변 scalar함수의 f의 점 p 근처에서의 선형 근사식은 아래와 같습니다. (First order Tylor expansion).

f(x)f(p)+f(p)(xp)

Jacobian Matrix


어떤 f:RnRm 함수 F(x1,...,xn)=(f1(x1,...,xn),...,fm(x1,...,xn))에 대한 Jacobian Matrix은 아래와 같이 정의된다.

Jf=(f1x1f1xnfmx1fmxn) 

 

Hessian Matrix


 

'Optimization' 카테고리의 다른 글

미분성 (Differentiability)  (0) 2021.07.07
Bounded sequence  (0) 2021.07.06
Taylor Expansion  (0) 2021.07.06