sailorCat
카테고리
작성일
2022. 2. 11. 16:49
작성자
sailorCat
728x90

이전에 올렸던 Mnist MLP에서 정확도를 높일 수 있는 방법이 무엇인지 알아본다.

우선 optimizer의 경사하강법 함수의 보폭을 r = 0.1 에서 r = 0.01 로 변경해보았다.

정확도가 상승한 것을 확인할 수 있다.

테스트 정확도도 92% 손실값 0.265613 으로 향상된 것을 볼 수 있다.

 

 

 

 

r을 더 줄여서 r = 0.001로 변경해보니

정확도에 큰 차이가 없었다.

속도를 위해 r = 0.01인 것이 낫다는 생각이 들었다.

 

 

 

 

 

다시 전체 코드를 원 상태로 만들고, 이번에는 Net class의 ReLU 함수를 두개의 레이어에 대해 적용했다.

원래는 self.fc1에 대한 ReLU 만 작성 되어 있었다.

트레이닝 셋에서 손실값이 0.017782 값으로 눈에 띄게 줄어들었다.

테스트에서는 97%의 정확도와 손실값 0.0066920값으로 매우 향상된 것을 확인할 수 있다.

 

 

 

 

 

 

 

위에서 확인한 두가지를 동시에 적용한다면 

train
test

98%로 거의 100%에 도달하는 모습이다.

728x90