DeepLearning_Lec06 - 8BitsCoding/RobotMentor GitHub Wiki


SoftMax Regresson : Multinomial classification중 하나

복습

  • Logistic regression 이란?

이미지

기존의 hypothesis의 단점은 x input 이 엄청 큰 값이 들어옴에 따라 hypothesis가 오류가 생길 수 있는 문제가 있었음.

그 문제를 보완하기 위해서 g(z)라는 Logistic regression을 도입

이미지

식이 많고 복잡화 됨에 따라 아래와 같이 그림으로 간단화 시킨다.

이미지

다시 정리해 보자면...

Logistic regression이란 특정변수 x1, x2에 따라 y를 분류해나가는 과정이라 할 수 있다.

이미지


Multinomial classification

앞의 예에서는 결과(y)가 0 혹은 1이였으나

결과가 많을경우는 어떻게 될까??

이미지

이걸 어떻게 분류하지??

이미지

Binary classification을 여러개 써보자?

이미지

Logistic regression을 분류의 개수만큼 넣으면 되겠군??

어떻게 구현하는지 좀더 상세하게 보고싶은데?

이미지

이미지

이미지


Sigmoid function 처리

이제 다 왔다 Sigmoid Function은 어떻게 처리할까?

아래는 sigmoid처리 전 결과 y가 0~1이 아닌 큰 값이 나온 경우

이미지

다음과 같이 0~1사이 값으로 만들고 싶다. (Sigmoid function : SoftMax function)

이미지

이미지

  • SoftMax 조건
  1. 0~1사이의 값
  2. 각 결과는 확률 값

이미지

Cost function

여기까지가 hypothesis이고 실제의 값과 예측값이 맞는지 비교를 해봐야한다.(cost function)

이미지

왜 식이 위와 같이 나오는가??

이미지

이미지

cost function은 아래와 같이 탄생

이미지

Gradient Descent Algo

이미지

미분이 복잡해졌기에 미분자체를 다루지는 않는다.