일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- list
- reinforcement learning
- ML-Agent
- neural network
- 판다스
- Jacobian Matrix
- optimization
- 유니티
- David Silver
- Linear algebra
- Series
- Python Programming
- 사이킷런
- paper
- unity
- 데이터 분석
- convex optimization
- 리스트
- 논문
- 딥러닝
- Laplacian
- Hessian Matrix
- rl
- 모두를 위한 RL
- 김성훈 교수님
- statistics
- machine learning
- pandas
- 강화학습
- Deep Learning
목록Optimization (12)
RL Researcher
Gradient 어떤 다변수 함수 $f(x_{1}, x_{2},,...,x_{n})$가 있을 떄, $f$의 Gradient는 아래와 같이 정의됨. $$\bigtriangledown f = \begin{pmatrix} \frac{\partial f}{\partial x_{1}}, & \frac{\partial f}{\partial x_{2}}, & ..., & \frac{\partial f}{\partial x_{n}} \end{pmatrix}$$ Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 $f$의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다. Ex) $f(x_{1},x_{2})=5x_{1}+8x_..
미분학은 임의의 함수를 $Affine \ function$으로 근사한다라는 개념에 기초한다. 모든 $x \in R^{n}$에 대해서 $linear \ function \ \ \mathcal{L} : R^{n} \rightarrow R^{m}$ 그리고 벡터 $y \in R^{m}$을 만족한다면 함수 $\mathcal{A} : R^{n} \rightarrow R^{m}$은 $affine$하다. $$\mathcal{A}(x)=\mathcal{L}(x)+y$$ function $f:R^{n} \rightarrow R^{m}$ 점 $x_{0} \in R^{n}$에 대해서 고려해보면, 우리는 점 $x_{0}$ $f$ 근처에 가까운 $affine \ function$ $\mathcal{A}$를 찾을려고 합니다. 처음..
sequence $(x_{n})$의 모든 원소의 absolute value가 어떠한 실수 $M > 0$보다 작거나 같은 경우에 Sequence $(x_{n})$는 bounded 라고 한다. 모든 $n \in \mathbb{N}$에 대해서 $\left | x_{n} \right | \le M$인 실수 $M > 0$이 존재하면 sequence $(x_{n})$은 bounded이다. 모든 $n \in \mathbb{N}$에 대해 $x_{n} \le A$인 실수 $A$가 존재한다면, sequence $(x_{n})$은 bounded above라고 하고, $A$는 upper bound라고 한다. (upper bound 중에서 가장 작은 upper bounded는 least upper bounded 또는 supre..
$\boldsymbol{Taylor \ expansion}$은 $\boldsymbol{Taylor \ series}$로도 불리며, Optimization Method를 이해하는데 매우 중요하다. first fundamental theorem of calclus로부터 아래의 수식이 성립함을 알 수 있다. $$f(x+h)=f(x)+\int_{0}^{h}f^{'}(x+a)da$$ 정의를 중복해서 적용하면 $x$ 주변의 $f$의 Taylor expansion을 산출한다. $$f(x+h)=f(x)+\int_{0}^{h}(f^{'}(x)+\int_{0}^{a}f^{''}(x+b)db)da \\ = f(x)+f^{'}(x)h+\int_{0}^{h} \int_{0}^{a} f^{''}(x+b)db \ da \\ = f..