일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- machine learning
- 딥러닝
- statistics
- Linear algebra
- optimization
- David Silver
- 모두를 위한 RL
- Laplacian
- Python Programming
- 데이터 분석
- 강화학습
- 김성훈 교수님
- Series
- ML-Agent
- 판다스
- Hessian Matrix
- Jacobian Matrix
- list
- rl
- 유니티
- unity
- 사이킷런
- convex optimization
- Deep Learning
- pandas
- paper
- 리스트
- reinforcement learning
- 논문
- neural network
목록분류 전체보기 (88)
RL Researcher
1. 튜플(tuple) 튜플(tuple)은 불변한 순서가 있는 객체의 집합입니다.(immutable) list형과 비슷하지만 한번 생성되면 값을 변경할 수 없습니다. list와 마찬가지로 다양한 타입이 함께 포함될 수 있습니다. t = (1, "korea", 3.5, 1) print(t) print(type(t)) ======================================================================== (1, 'korea', 3.5, 1) 순서가 있기 때문에 인덱스로 접근 가능합니다. print(t[0]) print(t[1]) ======================================================================== 1 'k..
1. Overfitting이란? 복잡한 모형일수록, 데이터가 적을수록 Overfitting이 일어나기 쉬움 (학습데이터에 너무 잘 맞은 나머지 검증데이터에 맞지 않은 것) 2. 과적합(Overfitting) 분산(Variance)과 편향(Bias)의 트레이드오프(Tradeoff) 모형$\hat{f}(X)$로 모집단의 전체 데이터를 예측할 때 발생하는 총 Error를 계산하면 reducible error(돌이킬 수 있는 에러)와 irreducible error(돌이킬 수 없는 에러)로 표현되며, reducible error는 다시 분산과 편향으로 구성 $$E(Y-\bar{Y})^{2} = E[f(X)+\epsilon -\hat{f}(X)]^{2} = Var(\hat{f}(X)) + [Bias(\hat{f}..
1. 선형 회귀분석(Linear Regression) 독립 변수와 종속변수가 선형적인 관계가 있다라는 가정하에 분석합니다. 직선을 통해 종속변수를 예측하기 때문에 독립변수의 중요도와 영향력을 파악하기 쉽습니다. 2. 의사결정나무(Decision Tree) 독립변수의 조건에 따라 종속변수를 분리합니다.( 눈이 내린다 -> 테니스를 치지 않는다) 이해하기는 쉬우나 overfitting이 잘 일어납니다. 3. KNN(K-Nearest Neighbor) 새로 들어온 데이터의 주변 k개의 데이터의 class로 분류하는 기법입니다. 4. NN(Neural Network) 입력, 은닉, 출력층으로 구성된 모형으로서 각 층을 연결하는 노드의 가중치를 업데이트하면서 학습합니다. Overfitting이 심하게 일어나고 학..
1. 지도 학습(Supervised Learning) Y = f (X)에 대하여 입력변수(X)와 출력변수(Y)의 관계에 대하여 모델링 하는것 (Y에 대하여 예측 또는 분류하는 문제) 회귀(Regression) : 입력 변수 X에 대해서 연속형 출력 변수 Y를 예측 분류(Classification) : 입력 변수 X에 대해서 이산형 출력 변수 Y(class)를 예측 2. 비지도 학습(Unsupervised Learning) 출력 변수(Y)가 존재하지 않고, 입력 변수(X)간의 관계에 대해 모델링 하는 것 군집 분석 : 유사한 데이터끼리 그룹화하는 것 PCA : 독립변수들의 차원을 축소화하는 것 3. 강화학습(Reinforcement Learning) 수 많은 시뮬레이션을 통해 현재의 선택이 먼 미래에 보상..