DeepLearning_Lec06 - 8BitsCoding/RobotMentor GitHub Wiki
SoftMax Regresson : Multinomial classification중 하나
복습
- Logistic regression 이란?
기존의 hypothesis의 단점은 x input 이 엄청 큰 값이 들어옴에 따라 hypothesis가 오류가 생길 수 있는 문제가 있었음.
그 문제를 보완하기 위해서 g(z)라는 Logistic regression을 도입
식이 많고 복잡화 됨에 따라 아래와 같이 그림으로 간단화 시킨다.
다시 정리해 보자면...
Logistic regression이란 특정변수 x1, x2에 따라 y를 분류해나가는 과정이라 할 수 있다.
Multinomial classification
앞의 예에서는 결과(y)가 0 혹은 1이였으나
결과가 많을경우는 어떻게 될까??
이걸 어떻게 분류하지??
Binary classification을 여러개 써보자?
Logistic regression을 분류의 개수만큼 넣으면 되겠군??
어떻게 구현하는지 좀더 상세하게 보고싶은데?
Sigmoid function 처리
이제 다 왔다 Sigmoid Function은 어떻게 처리할까?
아래는 sigmoid처리 전 결과 y가 0~1이 아닌 큰 값이 나온 경우
다음과 같이 0~1사이 값으로 만들고 싶다. (Sigmoid function : SoftMax function)
- SoftMax 조건
- 0~1사이의 값
- 각 결과는 확률 값
Cost function
여기까지가 hypothesis이고 실제의 값과 예측값이 맞는지 비교를 해봐야한다.(cost function)
왜 식이 위와 같이 나오는가??
cost function은 아래와 같이 탄생
Gradient Descent Algo
미분이 복잡해졌기에 미분자체를 다루지는 않는다.