일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 강화학습
- paper
- Series
- 김성훈 교수님
- 데이터 분석
- David Silver
- Deep Learning
- optimization
- Laplacian
- ML-Agent
- 논문
- Python Programming
- neural network
- 리스트
- Linear algebra
- pandas
- 모두를 위한 RL
- convex optimization
- 사이킷런
- statistics
- rl
- 유니티
- Hessian Matrix
- machine learning
- 판다스
- Jacobian Matrix
- unity
- reinforcement learning
- list
- 딥러닝
목록전체 글 (88)
RL Researcher
두 개의 벡터 $v,w$가 있다고 하자.(벡터에 어떠한 scalar값을 곱한 것을 $cv, dw$라고 정의) Combining two operation called "$\boldsymbol{linear \ combination}$". $$cv + dw = c\begin{bmatrix} 1\\1 \end{bmatrix} = d\begin{bmatrix} 2\\3 \end{bmatrix}=\begin{bmatrix} c+2d\\c+3d \end{bmatrix}$$ 벡터 $cv$는 line을 따라 놓여 있지만, $w$ 벡터는 line 위에 있지 않다. 두 벡터의 조합인 $cv + dw$는 2차원 평면을 채운다. (항상 그렇지는 않지만, 벡터와 그들의 조합은 평면(plane)이나 선(line) 위에 놓인다.) ..
Gradient 어떤 다변수 함수 $f(x_{1}, x_{2},,...,x_{n})$가 있을 떄, $f$의 Gradient는 아래와 같이 정의됨. $$\bigtriangledown f = \begin{pmatrix} \frac{\partial f}{\partial x_{1}}, & \frac{\partial f}{\partial x_{2}}, & ..., & \frac{\partial f}{\partial x_{n}} \end{pmatrix}$$ Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 $f$의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다. Ex) $f(x_{1},x_{2})=5x_{1}+8x_..
미분학은 임의의 함수를 $Affine \ function$으로 근사한다라는 개념에 기초한다. 모든 $x \in R^{n}$에 대해서 $linear \ function \ \ \mathcal{L} : R^{n} \rightarrow R^{m}$ 그리고 벡터 $y \in R^{m}$을 만족한다면 함수 $\mathcal{A} : R^{n} \rightarrow R^{m}$은 $affine$하다. $$\mathcal{A}(x)=\mathcal{L}(x)+y$$ function $f:R^{n} \rightarrow R^{m}$ 점 $x_{0} \in R^{n}$에 대해서 고려해보면, 우리는 점 $x_{0}$ $f$ 근처에 가까운 $affine \ function$ $\mathcal{A}$를 찾을려고 합니다. 처음..
아래와 같은 연립 방적식인 $Ax=b$가 있다고 하자. $$Ax = \begin{bmatrix} 2 & 1 & 1\\ 4 & -6 & 0\\ -2 & 7 & 2 \end{bmatrix} \begin{bmatrix} u\\ v\\ w \end{bmatrix} = \begin{bmatrix} 5\\ -2\\ 9 \end{bmatrix}=b$$ 이 행렬에서는 3번의 소거 단계가 있다. 1. 1st equation의 2배를 2nd equation에서 뺀다. 2. 2nd equation의 -1배를 3rd equation에서 뺀다. 3. 1st equation의 -1배를 3rd equation에서 뺀다. 위의 단계를 수행하게 되면 if and only if인 연립 방정식 $Ux=c$가 나오는데, $U$는 coeff..