일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- pandas
- Linear algebra
- 유니티
- David Silver
- statistics
- 김성훈 교수님
- rl
- paper
- Deep Learning
- unity
- 판다스
- Hessian Matrix
- Laplacian
- convex optimization
- machine learning
- 데이터 분석
- 사이킷런
- 강화학습
- 논문
- 딥러닝
- optimization
- Series
- 모두를 위한 RL
- neural network
- 리스트
- reinforcement learning
- list
- Python Programming
- Jacobian Matrix
- ML-Agent
RL Researcher
결정계수(coeffcient of determination, R2) 본문
1. 결정계수(R2)
결정계수(R2)는 회귀모형의 예측능력을 평가하는 대표적인 지표입니다. 결정계수는 추정한 선형 모형이 주어진 자료에 적합한 정도를 재는 척도입니다. 반응 변수(Y)의 분산 중에서 적합한 모형이 설명가능한 부분의 비율을 말합니다.
$$R^{2} = \frac{SSR}{SST} = \frac{1- SSE}{SST}$$
결정계수(R2)의 범위는 0 ~ 1 까지며 수식에서 보듯이 예측모형의 편차가 전체 데이터의 편차를 모두 대신할 수 있으면 결정계수(R2)가 1입니다. 즉 모형의 예측 정확도가 높아지면 결정계수가 1에 가까워진다는 의미입니다. ( 0에 가까울수록 설명력이 낮고, 1에 가까울수록 설명력이 높다.)
2. SST
SST 는 Sum of Square Total로 편차의 제곱합입니다. SST의 수식을 보겠습니다.
$$SST = \sum (y_{i}-\hat{y_{i}})^{2}$$
3. SSE
SSE는 Sum of Square Error로 회귀식과 실제값의 차이를 말합니다. SSE의 수식을 보겠습니다.
$$SSE = \sum (y_{i}-\bar{y})^{2}$$
4. SSR
SSR은 Sum of Square Regression으로 회귀식과 평균값의 차이를 의미합니다. 위의 그림을 보면 파란선과 빨간선이 엇갈리며 차이가 발생하는 것을 확일할 수 있다. SSR이 높아질수록 R-squared가 높아집니다.
$$SSR = \sum (\hat{y_{i}}-\bar{y})^{2}$$
SST는 모든 차이의 합이며, 이것이 SST와 SSR이라고 합니다. 즉 SST = SSE + SSR로 표현할 수 있습니다.
'Machine-Learning > Algorithm' 카테고리의 다른 글
과적합(Overfitting) (0) | 2021.01.01 |
---|---|
평균 절댓값 오차 - MAE(Mean Absolute Error) (0) | 2020.12.27 |
평균 제곱근 오차(RMSE(Root Mean Squared Error)) (0) | 2020.12.25 |
가중치(weight), 편향(bias) (0) | 2020.12.25 |
Activation Function(sigmoid 함수) (0) | 2020.12.24 |