일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Deep Learning
- Series
- list
- David Silver
- 모두를 위한 RL
- convex optimization
- 딥러닝
- 유니티
- 논문
- machine learning
- pandas
- Linear algebra
- reinforcement learning
- 강화학습
- 판다스
- Python Programming
- Hessian Matrix
- unity
- 사이킷런
- 리스트
- Laplacian
- optimization
- statistics
- ML-Agent
- 김성훈 교수님
- rl
- 데이터 분석
- Jacobian Matrix
- paper
- neural network
목록Optimization (12)
RL Researcher
Gradient 어떤 다변수 함수 $f(x_{1}, x_{2},,...,x_{n})$가 있을 떄, $f$의 Gradient는 아래와 같이 정의됨. ▽f=(∂f∂x1,∂f∂x2,...,∂f∂xn) Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 $f$의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다. Ex) $f(x_{1},x_{2})=5x_{1}+8x_..
미분학은 임의의 함수를 $Affine \ function$으로 근사한다라는 개념에 기초한다. 모든 $x \in R^{n}$에 대해서 $linear \ function \ \ \mathcal{L} : R^{n} \rightarrow R^{m}$ 그리고 벡터 $y \in R^{m}$을 만족한다면 함수 $\mathcal{A} : R^{n} \rightarrow R^{m}$은 $affine$하다. A(x)=L(x)+y function $f:R^{n} \rightarrow R^{m}$ 점 $x_{0} \in R^{n}$에 대해서 고려해보면, 우리는 점 $x_{0}$ $f$ 근처에 가까운 $affine \ function$ $\mathcal{A}$를 찾을려고 합니다. 처음..
sequence $(x_{n})$의 모든 원소의 absolute value가 어떠한 실수 $M > 0$보다 작거나 같은 경우에 Sequence $(x_{n})$는 bounded 라고 한다. 모든 $n \in \mathbb{N}$에 대해서 $\left | x_{n} \right | \le M$인 실수 $M > 0$이 존재하면 sequence $(x_{n})$은 bounded이다. 모든 $n \in \mathbb{N}$에 대해 $x_{n} \le A$인 실수 $A$가 존재한다면, sequence $(x_{n})$은 bounded above라고 하고, $A$는 upper bound라고 한다. (upper bound 중에서 가장 작은 upper bounded는 least upper bounded 또는 supre..
$\boldsymbol{Taylor \ expansion}$은 $\boldsymbol{Taylor \ series}$로도 불리며, Optimization Method를 이해하는데 매우 중요하다. first fundamental theorem of calclus로부터 아래의 수식이 성립함을 알 수 있다. f(x+h)=f(x)+∫h0f′(x+a)da 정의를 중복해서 적용하면 $x$ 주변의 $f$의 Taylor expansion을 산출한다. $$f(x+h)=f(x)+\int_{0}^{h}(f^{'}(x)+\int_{0}^{a}f^{''}(x+b)db)da \\ = f(x)+f^{'}(x)h+\int_{0}^{h} \int_{0}^{a} f^{''}(x+b)db \ da \\ = f..