Published: Aug 20, 2021 by Dev-hwon
이 내용은 고려대학교 강필성 교수님의 Business Analytics 수업을 보고 정리한 것입니다.
아래 이미지 클릭 시 강의 영상 Youtube URL로 넘어갑니다.
Support Vector Regression
예측하고자 하는 변수가 연속형 수치형 변수
loss function과 flatness라고 하는 모형의 단순성을 하나의 목적함수로 결합
1. \(\varepsilon\)-SVR
✓ Loss function
- 기본적인 가정은 \(y=f(x)+\varepsilon \;\;(\varepsilon\text{ is noise})\)
- \(\pm \varepsilon\)정도는 맞았다고 치자
- Ridge regression과 다르게 loss가 선형적으로 증가하기 때문에 outlier에 덜 민감하게 반응하며, 노이즈에 좀 더 강건
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled.png)
✓ Formulation
-
Estimating a linear regression
\[f(\textbf{x})=\textbf{w}^T\textbf{x}+b\] -
with precision \(\varepsilon\) bt minimizing
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 1.png)
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 2.png)
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 3.png)
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 4.png)
✓ Primal Lagrangian
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 5.png)
✓ \(b,w,\xi\)에 대해 미분
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 6.png)
✓ Dual Lagrangian Problem
$$img src=’/img/Support Vector Regression(SVR) 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 7.png’ width=’600’>
✓ Decision Function
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 8.png)
✓ Dual Lagrangian Problem with Kernel Trick
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 9.png)
✓ Decision Function
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 10.png)
✓ Various Loss Functions for SVR
 731d2c3bb8374ee3bce20ff9a6a65397/Untitled 11.png)
✓ C에 따른 결과 차이
C의 크기가 크면 복잡한 함수, C의 크기가 작으면 선형에 가깝다.
