일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 사이킷런
- reinforcement learning
- pandas
- 강화학습
- 모두를 위한 RL
- 리스트
- Python Programming
- David Silver
- optimization
- 논문
- Laplacian
- paper
- 판다스
- Deep Learning
- list
- unity
- Hessian Matrix
- convex optimization
- ML-Agent
- 딥러닝
- Series
- machine learning
- Jacobian Matrix
- Linear algebra
- statistics
- 유니티
- rl
- 김성훈 교수님
- neural network
- 데이터 분석
목록전체 글 (88)
RL Researcher
두 개의 벡터 v,w가 있다고 하자.(벡터에 어떠한 scalar값을 곱한 것을 cv,dw라고 정의) Combining two operation called "linear combination". cv+dw=c[11]=d[23]=[c+2dc+3d] 벡터 cv는 line을 따라 놓여 있지만, w 벡터는 line 위에 있지 않다. 두 벡터의 조합인 cv+dw는 2차원 평면을 채운다. (항상 그렇지는 않지만, 벡터와 그들의 조합은 평면(plane)이나 선(line) 위에 놓인다.) ..
Gradient 어떤 다변수 함수 f(x1,x2,,...,xn)가 있을 떄, f의 Gradient는 아래와 같이 정의됨. ▽f=(∂f∂x1,∂f∂x2,...,∂f∂xn) Gradient는 위 식과 같이 각 변수로의 일차 편미분 값으로 구성되는 벡터이다. 이 벡터는 f의 값이 가장 가파르게 증가하는 방향을 나타냅니다. 벡터의 크기는 증가의 기울기(가파른 정도)를 나타낸다. Ex) $f(x_{1},x_{2})=5x_{1}+8x_..
미분학은 임의의 함수를 Affine function으로 근사한다라는 개념에 기초한다. 모든 x∈Rn에 대해서 linear function L:Rn→Rm 그리고 벡터 y∈Rm을 만족한다면 함수 A:Rn→Rm은 affine하다. A(x)=L(x)+y function f:Rn→Rm 점 x0∈Rn에 대해서 고려해보면, 우리는 점 x0 f 근처에 가까운 affine function A를 찾을려고 합니다. 처음..
아래와 같은 연립 방적식인 Ax=b가 있다고 하자. Ax=[2114−60−272][uvw]=[5−29]=b 이 행렬에서는 3번의 소거 단계가 있다. 1. 1st equation의 2배를 2nd equation에서 뺀다. 2. 2nd equation의 -1배를 3rd equation에서 뺀다. 3. 1st equation의 -1배를 3rd equation에서 뺀다. 위의 단계를 수행하게 되면 if and only if인 연립 방정식 Ux=c가 나오는데, U는 coeff..