Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- machine learning
- 논문
- 판다스
- 딥러닝
- Python Programming
- statistics
- Hessian Matrix
- unity
- ML-Agent
- 사이킷런
- 데이터 분석
- reinforcement learning
- neural network
- pandas
- paper
- list
- 모두를 위한 RL
- convex optimization
- 김성훈 교수님
- Jacobian Matrix
- Deep Learning
- 유니티
- Linear algebra
- rl
- 리스트
- David Silver
- optimization
- Laplacian
- 강화학습
- Series
Archives
RL Researcher
과적합(Overfitting) 본문
1. Overfitting이란?
- 복잡한 모형일수록, 데이터가 적을수록 Overfitting이 일어나기 쉬움 (학습데이터에 너무 잘 맞은 나머지 검증데이터에 맞지 않은 것)
2. 과적합(Overfitting)
-
분산(Variance)과 편향(Bias)의 트레이드오프(Tradeoff)
- 모형$\hat{f}(X)$로 모집단의 전체 데이터를 예측할 때 발생하는 총 Error를 계산하면 reducible error(돌이킬 수 있는 에러)와 irreducible error(돌이킬 수 없는 에러)로 표현되며, reducible error는 다시 분산과 편향으로 구성
$$E(Y-\bar{Y})^{2} = E[f(X)+\epsilon -\hat{f}(X)]^{2} = Var(\hat{f}(X)) + [Bias(\hat{f}(X))]^{2} + Var(\epsilon )$$
-
분산 : 전체 데이터 집합 중 다른 학습 데이터를 이용했을 때, f_hat이 변하는 정도 (복잡한 모형일수록 분산이 높음)
-
편향 : 학습 알고리즘에서 잘못된 가정을 하였을 때 발생하는 오차 (간단한 모형일수록 편향이 높음)
-
복잡한 모형 $\hat{f}(X)$을 사용하여 편향을 줄이면, 반대로 분산이 커짐 (간단한 모형일 경우에 반대의 현상이 발생)
-
따라서 분산과 편향이 작은 모형을 찾는게 중요함
3. 분산(Variance)과 편향(Bias)의 트레이드오프(Tradeoff)
※ 적절한 모형 선택과 실험 설계를 통한 과적합 방지가 필요!!
'Machine-Learning > Algorithm' 카테고리의 다른 글
결정계수(coeffcient of determination, R2) (0) | 2020.12.27 |
---|---|
평균 절댓값 오차 - MAE(Mean Absolute Error) (0) | 2020.12.27 |
평균 제곱근 오차(RMSE(Root Mean Squared Error)) (0) | 2020.12.25 |
가중치(weight), 편향(bias) (0) | 2020.12.25 |
Activation Function(sigmoid 함수) (0) | 2020.12.24 |
Comments