일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- ML-Agent
- 사이킷런
- 딥러닝
- rl
- Series
- reinforcement learning
- 논문
- Linear algebra
- paper
- 김성훈 교수님
- unity
- neural network
- 모두를 위한 RL
- pandas
- David Silver
- Jacobian Matrix
- optimization
- Laplacian
- convex optimization
- Hessian Matrix
- machine learning
- list
- Python Programming
- 데이터 분석
- Deep Learning
- statistics
- 판다스
- 리스트
- 유니티
- 강화학습
RL Researcher
Hyperplane 본문
$u_{1}, u_{2}, ...,u_{n}, v \in \mathbb{R}$이고, 적어도 한개 이상의 $u_{i}$가 0이 아니라고 했을 때, 집합 $x=[x_{1}, x_{2}, ..., x_{n}]^{T}$ 안의 모든 점들은 아래의 선형 방정식(linear equation)을 만족합니다.
$$u_{1}x_{1} + u_{2}x_{2} + \cdots + u_{n}x_{n} = v$$
우리는 위의 수식을 $\mathbb{R}^{n}$공간의 $\boldsymbol{hyperplane}$이라고 합니다. ($\boldsymbol{hyperplane}$은 아래의 수식으로 설명할 수 있습니다.)
$$\left \{\boldsymbol{x} \in \mathbb{R}^{n} : \boldsymbol{u}^{T} \boldsymbol{x} = v \right \}$$
where
$$\boldsymbol{u} = [u_{1}, u_{2}, ..., u_{n}]^{T}$$
일반적으로 $\boldsymbol{hyperplane}$은 원점을 포함하지 않으므로 반드시 $\mathbb{R}^{n}$의 subspace는 아닙니다.
$n=2$인 경우에, $\boldsymbol{hyperplane}$의 방정식은 직선의 방정식인 $u_{1}x_{1}+u_{2}x_{2}=v$의 형태를 가지므로, 직선은 $\mathbb{R}^{2}$공간의 $\boldsymbol{hyperplane}$이다.
$\mathbb{R}^{3}$(three-dimensional space), 에서 $\boldsymbol{hyperplane}$은 평범한 평면이다.
$\boldsymbol{hyperplane}$이 $\mathbb{R}^{n}$ 공간의 원점을 포함하도록 변환하면, $\mathbb{R}^{n}$의 subspace가 됩니다. 왜냐하면, subspace의 차원은 $n-1$이기 때문에, 우리는 $\boldsymbol{hyperplane}$ 차원을 $n-1$으로 정의 할 수 있습니다.
'Optimization > Concept From Geometry' 카테고리의 다른 글
Line Segment (0) | 2021.07.01 |
---|---|
초평면 (Hyperplane) (0) | 2021.07.01 |