본문 바로가기

기계학습/카이스트 강의3

(카이스트 강의) Hidden Markov Model # What/How model - 표현해야 하는 값들 : 공간적인게 아니라, 시간적인 것들 -> 각각의 데이터들이 independent 하지 않다 (시간의 흐름에 있어서, 서로 의존적이다) - 이를 표현하는 베이즈 네트워크 모양 : initial state가 다른 시간의 흐름들에게 연쇄적으로 작용한다-> 모두 dependent 하다 # Hidden Markov 의 구성 확률 1) State Transition Probability 2) State Emission Probability-> 내가 구해야 하는 것 : Hidden State!!!! Emission 상태를 보고, 현재 어떤 State에 있을지를 추측함 # HMM 의 기초 질문들 1) Evaluation Question- 정의 : π, a, b 가.. 2019. 8. 17.
(카이스트 강의) K-means, Gaussian Mixture Model #머신러닝의 종류1) 지도학습2) 비 지도학습3) 강화학습 # 비 지도학습 특징- true value가 무엇인지 모른다. #clustering의 문제- 문제 : 여러 case들이 있는데, 그 case가 어떤 군집에 속하는지 명확하게 판단하기힘든 경우가 있음 - 해결 방법 : K-Means 알고리즘 # K-means 알고리즘- 정의 : N개의 case들이 있을 때, K개의 추정되는 값들(Means, 평균값)을 구해내는 알고리즘. - 순서 : 1) K 개의 추정되는 값들을 정한다 (centroids) 2) 모든 case들에 대해, 자신과 가까운 centroid를 선정해서 clustering 한다-> 이 내용을 수식으로 나타낼 수 있다 # Expectation and Maximization - 순서 : 1) .. 2019. 8. 17.
(카이스트 강의) Bayesian Network 1. Conditional Independence vs. Marginal Independence - Conditional Independence ( 조건부 독립 ) : -> P(a | b, c ) = P(a | c) 만족하나, P( a | b) != P( a)-> marginal independence는 만족하지 않는 상태임 - Marginal Independence ( 일반적인 독립 ) :-> P( a | b) = P( a)-> 가장 일반적인 독립 형태 2. Naive Bayes - Bayes 정리 : 특정 확률값을 구하기 위해서, 다른 확률값을 이용해서 구함ex) P(A|B) = {P(B|A) * P(A)} /P(B)** 단, 위의 조건을 이용하기 위해선 반드시 A와 B가 "독립" - Naive Ba.. 2019. 8. 17.