* 선형 회귀 분석(Linear Regression)
- 독리변수와 종속변수가 선형적인 관계가 있다는 가정하에 분석
* 의사결정나무(Decision Tree)
- 독립변수의 조건에 따라 종속변수를 분리(비 -> 축구No)
- overfitting이 잘 일어남
- ensemble model의 기초
* KNN(K-Nearest Neighbor)
- 새로 들어온 데이터의 주변 k개의 데이터의 class로 분류하는 기법
- hyper paramete: k개와 같이 사람이 지정해줘야 하는 매개변수
* Neural Network
- 입력, 은닉, 출력층으로 구성된 모형으로서 각 층을 연결하는 노드의 가주잋를 업데이트하며 학습
- overfitting 단점이 있음
* SVM(Support Vector Machine)
- Class간 거리(margin)가 최대가 되도록 decision boundary를 만듬
- 어느정도의 오차를 허용함
- Neural Network의 경우 오차를 허용하지 않음
- 데이터가 커질수록 학습 시간이 더 오래걸리고, 요즘은 잘 사용하지 않음
* Ensemble Learning
- 여러 개의 모델(classfifier-decision tree or base learner-regression)을 결합하여 사용하는 모델
- 여러개의 decision tree로 모델을 만들어 사용함
- base learner를 다양하게 만들어서 성능을 높이는게 목적
* K-means clustering (Unsupervised Learning)
- Label없이 데이터의 군집을 K개로 생성
- K는 사람이 가르쳐 줘야하는 것 의미
- K에 따라 성능이 달라지고, 데이터가 고차원적으로 갈 수록 성능이 안좋아짐