Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 리스트
- optimization
- list
- reinforcement learning
- 유니티
- neural network
- 논문
- convex optimization
- Series
- ML-Agent
- Laplacian
- 모두를 위한 RL
- 딥러닝
- Deep Learning
- Jacobian Matrix
- 사이킷런
- David Silver
- 강화학습
- paper
- unity
- 김성훈 교수님
- Linear algebra
- statistics
- Python Programming
- rl
- machine learning
- Hessian Matrix
- pandas
- 데이터 분석
- 판다스
Archives
RL Researcher
Convex optimization 본문
1.1 Mathematical optimization
수학적 최적화 문제, 또는 그냥 최적화 문제는 다음과 같은 형식을 가집니다.
- vector $x=(x_{1},...,x_{n})$ called optimization variable(최적화 변수).
- function $f_0 : R^{n}\rightarrow R$ called objective function(목적함수).
- function $f_{i} : R^{n}\rightarrow R, \ \ i=1,...,m$ called (inequality)constraint functions(부등식)제약함수.
- constant $b_{1},...,b_{m}$ constraints에 대한 limits or bounds.
- vector $x^{*}$은 called solution or optimal.
For example, 위의 optimization problem이 objective function과 constraint function $f_{0},...,f_{m}$이 linear일 때 called linear program. 즉, 다음을 만족한다.
$$f_{i}(\alpha x + \beta y)\leq \alpha f_{i}(x) + \beta f_{i}(y)$$
모든 $x, y \in R^{n}$이고 모든 $\alpha, \beta \in R$이다.
If, optimization problem이 linear하지 않다면 called nonlinear program.
이 책은 Convex optimization problem이라고 불리는 최적화 문제의 종류에 관한 것이다. Convex optimization problem의 objective function과 constraint는 convex하며, 이는 다음과 같은 부등식을 만족시킨다.
$$f_{i}(\alpha x + \beta y) \leq \alpha f_{i}(x) + \beta f_{i}(y)$$
all $x, y \in R^{n}$, all $\alpha, \beta \in R$에 대해 $\alpha + \beta = 1, \ \alpha \geq 0, \beta \geq 0$이다.
1.1.1 Applications
Comments