본문 바로가기
기계학습/코세라 - 기계학습 (Andrew Ng)

(개념별 정리) Regularization

by tryotto 2019. 8. 17.

- Small value of Parameter(가중치) 의 효과?

       1) Simpler Hypothesis (사실상, 변수가 하나 줄어든 것과 마찬가지이므로)

       2) Overfitting 이 잘 일어나지 않음 (이유 : 1)과 동일)

-> 그렇다면, 어떤 변수의 가중치를 작게 해야 할까? (=어떤 변수를 무력화 할까?)

-> 방법 : Regularization


- Regularization의 식 

       -> Cost Function 뒷부분에 따로 Regularization을 위한 값을 더한다


       - 람다값 뜻 : Regularization Parameter

-> 역할 : Trade Off 를 담당한다

즉, Cost Function 값을 최소화 할 것인가라는 목표와 Parameter값들의 합을

최소화 할 것인지의 목표를 서로 Trade Off 할 수 있도록 설정하는 상수다


- 람다값이 크면 클수록 : 매개변수 값들을 Simpler하게 만드는 것이므로, Underfitting을 

       유발한다


       - Regularization을 위한 값의 의미 : 전체 Variance를 줄이기 위해서, 얼만큼 "모든"변수들의 크기를 줄일 것인지를 알려주는 

   값이다. Simpler Hypothesis를 위한 값임.



# Regularization을 Cost Function 최적화에 사용하기

-> Linear Regression의 Cost Function 최적화에는 크게 Gradient, Normal Equation

    두 가지의 방식이 있다


- Regularization을 Gradient에 적용

       - Θ_0 에 대해서는 Regularization을 하지 않는다 (다른 Θ값들은 해준다)

       - 그 외는 일반적인 Gradient Descent 값 구하는것과 똑같다

       - 전체 Gradient를 수행한 다음엔, Θ값이 약간 줄어든다 (Regularization때문)


- Regularization을 Normal Equation에 적용

       - 최적화를 하기 위해, 역함수를 적절히 이용해주면 식이 나온다

-> 그걸 계산해주기만 하면 된다


       

'기계학습 > 코세라 - 기계학습 (Andrew Ng)' 카테고리의 다른 글

(개념별 정리) Gradient Descent, Cost Function, Classification  (0) 2019.08.17
(개념별 정리) 오버피팅, 회귀  (0) 2019.08.17
week 11  (0) 2019.08.14
week10  (0) 2019.08.14
week9  (0) 2019.08.14