1. supervised Learning
- 정의 : 올바른 답이 주어져 있을 때, 이를 기반으로 하는 학습
- 종류 :
1) Regression Problem : 참값을 예측하는 문제
2) Classification Problem : 어느 영역에 속하는지 판단하는 문제
- 과정 :
1) 훈련 세트를 받음
2) 학습 알고리즘을 통해 학습함
3) 가설을 세움 (예상되는 함수)
4) 직접 데이터를 넣어서, 어떤 결괏값이 나올 지 예측해서 출력함.
- 가설의 종류 :
- 이번 장에서 배울 내용은, 선형 함수
- Leanear Regression, Univariate linear regression
2. Cost Function
- 종류 : Squared Error Function
- Squared Error Function
- 정의 : 직선의 가설이 있으면, (각각의 데이터와의 거리)**2 합을 최소로 만드는
미지수를 구하기 위함
** 이떄, 데이터와의 거리는 y값 거리를 의미한다
3. Parameter Learning : 매개변수 학습 - Gradient Descent
- 목적 : Cost Function에서 최솟값을 구해야하는데, 그 최솟값을 구할 때 사용하는 방식
- 주의점 : 여러 개의 변수들을 "동시에" 업데이트 해야 한다. 하나씩 업데이트 하면 문제발생
- 탈출 조건 : (미분값 = 0)인 경우, 더 이상의 연산을 진행하지 않고 탈출한다.
- 특징 : Learning Rate값이 변하지 않더라도, 매개변수의 값은 결국엔 최적화 값에 도달함.
단지 문제점이라고 할 수 있는건, 찾아낸 최적화값이 전체 최적값이 아닌 경우임.
- 배치 Gradient : 모든 case들에 대한 Gradient를 구해내는 방식. 머신러닝에서 자주 사용.
'기계학습 > 코세라 - 기계학습 (Andrew Ng)' 카테고리의 다른 글
week4 (0) | 2019.08.14 |
---|---|
week3 (0) | 2019.08.14 |
week2 (0) | 2019.08.14 |
week1 (2) (0) | 2019.08.14 |
week8 : Clustering Algorithm (0) | 2019.08.03 |