sailorCat
카테고리
작성일
2022. 1. 26. 12:58
작성자
sailorCat
728x90

분류의 목표 

입력벡터 x를 K 개의 가능한 클래스 중에 하나의 클래스에 할당하는 것

 

분류를 위한 결정이론

 

확률적 모델 Probabilistic Model

- 생성모델 Generative Model : 사전확률과 확률을 모델링 한 후, 베이즈 정리를 통해 사후확률을 구한다. 

또는 결합확률을 직접 모델링 할 수도 있다.

- 식별모델 Discriminative : 사후확률을 직접 모델링

 

판별함수 Discriminant Function 

- 입력 x를 클래스로 할당하는 판별함수를 찾는다

- 확률값을 계산하지 않는다

 

 

입력 X를 클래스로 할당하는 판별함수를 찾을 때, 함수가 선형함수라면 선형 판별함수는 다음과 같다.

선형판별함수 y(x) 가 0보다 크거나 같을 경우 C1, 0보다 작은 경우 C2로 판별한다.

 

결정경계 Decision Boundary 는 다음과 같다.

그림으로 그래프를 표현하면

결정 경계면 위의 두 점 Xa와 Xb 는

빨간선은 결정경계면이고, w벡터가 결정경계면에 직교한다.

원점에서 빨간 선까지 거리에 미치지 못하는 것은 C2, 빨간 선을 넘는 것을 C1이라고 한다.

 

벡터 w를 원점에서 결정경계면에 대한 사영이라고 할 때.

w0은 결정 경계면의 위치를 결정한다.

- w0 < 0 이면 결정 경계면은 원점으로부터 w가 향하는 방향으로 멀어져 있다

- w0 > 0 이면 결정 경계면은 원점으로부터 w의 반대방향으로 멀어져 있다

 

이때 y(x) 값은 x와 결정경계면 사이의 부호화된 거리와 비례한다.

임의의 한 점 x의 결정 경계면에 대한 사영에서 다음의 식이 나온다.

 

여기서 r은 x가 결정경계면으로 직교하는 선을 사영했을 때 그 거리를 의미한다.

그래프에서 파란 점선으로 확인할 수 있다.

- y(x) > 0 이면 x는 결정 경계면을 기준으로 w가 향하는 방향에 있다

- y(x) < 0 이면 x는 결정 경계면을 기준으로 -w가 향하는 방향에 있다

- y(x)의 절대값이 클 수록 더 멀리 떨어져 있다

 

 

가짜 입력 Dummy Input x0 = 1을 이용해서 수식을 단순화 시키면

 

 

 

 

분류를 위한 최소제곱법 Least Squares for Classification

 

결정경계면에 닿았는지를 판별하는 C1, C2 값들을 실수로 만들면 최소제곱법을 사용할 수 있다.

 

위와 같은 판별함수에서 

제곱합 에러함수

 

판별함수는 다음과 같다.

최소 제곱법의 단점은 다음과 같다

- 극단치, 이상치 Outlier에 민감

- 목표값의 확률분포에 대한 잘못된 가정에 기초

 

보라색선이 최소제곱법

녹색선은 로지스틱 regression

퍼셉트론 알고리즘 The Perceptron Algorithm

f는 활성함수 Activtion Function으로 퍼셉트로는 다음의 계단형 함수를 사용한다.

 

목표값이 옳다면 0보다 큰 양수값을 가져야 한다.

에러가 생긴다면 Ep(w) 값이 음수 값을 가질 것이다.

 

 

에러함수가 주어지면 SGD를 통해 결정경계면을 알아낼 수 있다.

잘못 분류된 샘플에는 다음과 같은 영향을 준다.

마지막 그림이 이상적인 분류 그림이고 나머지는 점진적으로 분류가 진행되는 모습이다.

 

 

두 가지 모델은 지금은 쓰이지 않는다.

분류 모델의 기초가 되었지만 현재는 더 정확한 알고리즘이 나왔기 때문이다.

728x90