본문 바로가기

기계학습/코세라 - 기계학습 (Andrew Ng)17

week3 1. Classification - 목적 : 여러 개의 데이터들을 원하는 기준에 맞게 분류하는 것. - 방식 : - Linear Regression(?) : 손실함수의 값이 특정 threshold 값보다 작으면 0, 크면 1-> 그러나, 정확한 답을 산출하지 않음. 좋은 분류 방식이 아님.-> classification에 거의 사용하지 않는 방식이다- Logistic Regression : 손실함수의 원래 범위는 0~1 사이에 있는 수가 아니어도 됨 그러나, Logistic Regression은 반드시 0 여기서는 활성화함수라고 할 수 없다!! 그냥 일종의 함수!! - 의미 : Sigmoid function 값이 0.7이라 하면? -> 특정 사건이 일어날 확률이 70%라는 의미 3. Decision Bo.. 2019. 8. 14.
week2 1. multivariate features - 공식 : h(x) = Θ^T * x - cost function에 적용 : (h(x)-y)^2 의 sum값의 최솟값을 만드는 매개변수를 구해야 함-> cost function을 통한 매개변수 획득 - gradient 를 통해 할 수 있는 것 = 손실함수의 최적값 (최적의 매개변수) 을 구하는 것- 방법 : 매 턴마다 미분한 값을 써서, 매개변수 값을 바꿔준다- 미분하는 방식 : 변수가 들어있을때에는, h(x(i))의 미분 (대충) 이런식이기 때문에, 합성함수 미분 하듯이, 속미분한 값을 밖에 곱해줘야 함 (편미분) ** 노트 참조 2. Gradient Descent를 더 간단하게 할 수 있는 방법 - Feature Scaling (1) : 각각의 변수들의 .. 2019. 8. 14.
week1 (2) 1. matrices and vectors - 벡터 : (n*1)짜리 메트릭스 - n차원의 벡터라고 부른다 - 1차함수 식 (1개의 변수와 1개의 상수가 있는 식)도 간단한 행렬 연산으로 바꿀 수 있다.- 여러 개의 함수식을 만드는 데에도 활용이 가능하다 ** 노트참조 꼭 하자 2019. 8. 14.
week1 (1) 1. supervised Learning - 정의 : 올바른 답이 주어져 있을 때, 이를 기반으로 하는 학습 - 종류 :1) Regression Problem : 참값을 예측하는 문제2) Classification Problem : 어느 영역에 속하는지 판단하는 문제 - 과정 :1) 훈련 세트를 받음 2) 학습 알고리즘을 통해 학습함3) 가설을 세움 (예상되는 함수)4) 직접 데이터를 넣어서, 어떤 결괏값이 나올 지 예측해서 출력함. - 가설의 종류 :- 이번 장에서 배울 내용은, 선형 함수- Leanear Regression, Univariate linear regression 2. Cost Function - 종류 : Squared Error Function - Squared Error Functio.. 2019. 8. 14.
week8 : Clustering Algorithm 1) clustering algorithm- K-means algoritm : 가장 유명한 clustering algo의 종류- 임의의 두 개의 cluster centroids를 선택한다.- 각각의 자료들이, 두 cluster centroids중 어디에 속하는지 결정한다.- 각각의 색깔들의 평균이 되는 지점을 선택한다. -> 새로운 centroid 선택- 각각의 centroid에 가까운 자료들을 재결정한다-> 위의 과정들 반복루프- K 는 centroid의 갯수라고 할 수 있다.- 몇 개의 cluster를 만들고 싶은가? -> K 개의 cluster를 만들고싶다- c^(i) : x^(i) 에 가장 가까운 cluster centroid의 인덱스값(매 턴마다 cluster centroid가 K개 있는데, 그.. 2019. 8. 3.