Published: Aug 20, 2021 by Dev-hwon
이 내용은 고려대학교 강필성 교수님의 Business Analytics 수업을 보고 정리한 것입니다.
아래 이미지 클릭 시 강의 영상 Youtube URL로 넘어갑니다.
Kernel Fisher Discriminant Analysis(KFDA)
LDA의 Kernel화된 확장판이라고 보면 됨
1. Linear Discriminant Analysis
data의 class가 잘 구분이 되게 사영시키기 위한 기저 찾기
✓ Two type of class distance
- Between-class distance : 두 class의 centroid간의 거리 (커야하고)
- Within-class distance : 각각의 객체로 부터 해당 class의 centroid까지의 누적 또는 평균 거리 (작아야 한다.)
✓ Fisher’s LDA
- D차원 입력 벡터 x를 가져와 하나의 차원으로 투영
- \(\textbf{m}_1\)은 한 class의 centroid, \(\textbf{m}_2\)를 다른 class의 centroid라고 하면,
- Objective 1: between class variance가 최대한 커지는 \(\textbf{w}\)
- Objective 2: Within-class variance를 최소화하는 \(\textbf{w}\)
- Fishers’ criterion
\(J(\mathbf{w})\)를 maximize하는 것이 목표!
- Find \(\mathbf{w}\)
를 미분한 값이 0이 되어야 한다.
\[\frac{\partial J(\textbf{w})}{\partial \textbf{w}}=0\]분모만 가지고 오면
- \(\textbf{S}_B\)는 항상 \((\textbf{m}_2-\textbf{m}_1)\)의 방향
- \(\frac{\textbf{w}^T\textbf{S}_B\textbf{w}}{\textbf{w}^T\textbf{S}_W\textbf{w}}\)를 scalar
- 따라서 Fisher’s linear discriminant
2. Kernel Fisher Discriminant (KFD)로 확장
- 데이터를 고차원 벡터로 mapping 후에 covariance matrix 계산 (\(\textbf{m}^\Phi\)는 sentroid)
- within-class variance, between-class variance
✓ Objective functions
✓ Projected vector
Feature space 내의 객체들의 선형 결합으로 표현 될 수 있다.
✓ Projected mean
✓ Objected function (Numerator)
✓ Objected function (Denominator)
\(\alpha\)와 커널 함수 매트릭스로 나온다는 것이 핵심, 결국 feature space내에서 실질적인 계산을 하지 않고 입력 공간네에서 커널 함수만 정의가 되면 분모도 계산할 수 있다.