일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- reinforcement learning
- David Silver
- 사이킷런
- rl
- optimization
- machine learning
- paper
- 데이터 분석
- Linear algebra
- 강화학습
- 논문
- 모두를 위한 RL
- neural network
- 딥러닝
- ML-Agent
- 김성훈 교수님
- Series
- 리스트
- 판다스
- Laplacian
- Python Programming
- convex optimization
- pandas
- list
- 유니티
- unity
- Deep Learning
- statistics
- Hessian Matrix
- Jacobian Matrix
목록Mathmatics/Linear algebra (4)
RL Researcher
두 개의 벡터 $v,w$가 있다고 하자.(벡터에 어떠한 scalar값을 곱한 것을 $cv, dw$라고 정의) Combining two operation called "$\boldsymbol{linear \ combination}$". $$cv + dw = c\begin{bmatrix} 1\\1 \end{bmatrix} = d\begin{bmatrix} 2\\3 \end{bmatrix}=\begin{bmatrix} c+2d\\c+3d \end{bmatrix}$$ 벡터 $cv$는 line을 따라 놓여 있지만, $w$ 벡터는 line 위에 있지 않다. 두 벡터의 조합인 $cv + dw$는 2차원 평면을 채운다. (항상 그렇지는 않지만, 벡터와 그들의 조합은 평면(plane)이나 선(line) 위에 놓인다.) ..
아래와 같은 연립 방적식인 $Ax=b$가 있다고 하자. $$Ax = \begin{bmatrix} 2 & 1 & 1\\ 4 & -6 & 0\\ -2 & 7 & 2 \end{bmatrix} \begin{bmatrix} u\\ v\\ w \end{bmatrix} = \begin{bmatrix} 5\\ -2\\ 9 \end{bmatrix}=b$$ 이 행렬에서는 3번의 소거 단계가 있다. 1. 1st equation의 2배를 2nd equation에서 뺀다. 2. 2nd equation의 -1배를 3rd equation에서 뺀다. 3. 1st equation의 -1배를 3rd equation에서 뺀다. 위의 단계를 수행하게 되면 if and only if인 연립 방정식 $Ux=c$가 나오는데, $U$는 coeff..
$A$라는 행렬의 역행렬(Inverse matrix)은 $A^{-1}$으로 표기한다. Properties) 1. A가 가역 행렬(invertible matrix)이면 $Ax=b$의 유일한 해인 $x=A^{-1}b$가 존재한다. 2. 영벡터가 아닌 $x$가 존재하지만 $Ax=0$이면 $A$의 역행렬은 존재하지 않는다. 3. $2 \times 2$ matrix가 invertible matrix려면 $ad-bc \neq 0$이여야 한다. ($ad-bc$는 determinant이며 $det(A)$가 0이 아닐때 역행렬이 존재한다.) $$\begin{bmatrix} a & b\\ c &d \end{bmatrix}^{-1}=\frac{1}{ad-bc}\begin{bmatrix} d & -b\\ -c & a \end..
Eigen Value, Eigen Vactor란? 고유값(eigenvalue), 고유벡터(eigenvector)에 대한 수학정 정의는 다음과 같다. 행렬 A를 선형변환(Linear transform)으로 봤을 때, 선형변환 A에 의한 변환 결과가 자기 자신의 상수배가 되는 0이 아닌 벡터 를 고유벡터(eigenvactor)라고 하고, 이 상수배 값을 고유값(eigenvalue)라고 한다. 고유값(eigenvalue), 고유벡터(eigenvector)는 $n \times x$ 정방행렬에 대해서만 정의된다. A에 대해 $Av = \lambda v$를 만족하는 0이 아닌 열벡터 v를 고유벡터, 상수 $\lambda$를 고유값이라고 정의한다. $Av = \lambda v$ -- (1) $\begin{pmatri..