일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 유니티
- Series
- paper
- 김성훈 교수님
- 사이킷런
- neural network
- machine learning
- Linear algebra
- David Silver
- 논문
- ML-Agent
- Python Programming
- statistics
- 데이터 분석
- 판다스
- unity
- optimization
- 리스트
- Deep Learning
- reinforcement learning
- 딥러닝
- pandas
- convex optimization
- rl
- Jacobian Matrix
- 강화학습
- 모두를 위한 RL
- list
- Laplacian
- Hessian Matrix
RL Researcher
Gradient, Jacobian Matrix, Hessian Matrix, Laplacian 본문
Gradient
어떤 다변수 함수 f(x1,x2,,...,xn)가 있을 떄, f의 Gradient는 아래와 같이 정의됨.
▽f=(∂f∂x1,∂f∂x2,...,∂f∂xn)
Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 f의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다.
Ex) f(x1,x2)=5x1+8x2+x1x2−x21−2x22의 Gradient는
Df(x)=(▽f(x))T=[∂f∂x1∂f∂x2]=[5+x2−x2−2x1,8+x1−4x2]
또한 반대로 Gradient에 음수를 취하면 즉, −▽f는 f값이 가장 가파르게 감소하는 방향을 나타내게 됩니다.
이러한 Gradient의 특성은 어떤 함수를 지역적으로 선형 근사(linear approximation)하거나 혹은 Gradient descent방법처럼 함수의 극점(최대값, 최소값 지점)을 찾는 용도로 활용될 수 있습니다.
Gradient를 이용한 다변 scalar함수의 f의 점 p 근처에서의 선형 근사식은 아래와 같습니다. (First order Tylor expansion).
f(x)≃f(p)+▽f(p)(x−p)
Jacobian Matrix
어떤 f:Rn→Rm 함수 F(x1,...,xn)=(f1(x1,...,xn),...,fm(x1,...,xn))에 대한 Jacobian Matrix은 아래와 같이 정의된다.
Jf=(∂f1∂x1⋯∂f1∂xn⋮⋱⋮∂fm∂x1⋮∂fm∂xn)
Hessian Matrix
'Optimization' 카테고리의 다른 글
미분성 (Differentiability) (0) | 2021.07.07 |
---|---|
Bounded sequence (0) | 2021.07.06 |
Taylor Expansion (0) | 2021.07.06 |