2021. 10. 9. 11:26ㆍ1. Data Analyst/1-0-1. Machine Learning
1. K-NN (K-Nearest Neighbor)
: 내 위치 기준으로 K명한테 물어봄 -> 다수결로 (클래스) 결정
2. SVM (Support Vector Machine)
: 이진 분류기
: 분류 성능 가능성(높음) => '분류'에 많이 활용됨
3. Decision Tree(의사결정 트리)
: 이진트리 활용해서 관측-목표값 연결하는 예측 모델
: 오버피팅(과적합) 多 발생 ( 해결법 => 랜덤포레스트)
4. Random Forest (랜덤포레스트)
: 트리가 많이 있는 것, 즉 다수의 의사결정 트리를 만들고 그 나무들의 분류를 집계하여 최종 분류하는 학습 방법
: 의사결정트리 단점인 오버피팅 문제 개선 可
5. Naive Bayse Classifier (나이브 베이즈 분류기)
: 조건부 확률 모델
: 일반적으로 텍스트분류에 사용됨
: 정확도 괜찮
6. K-means 클러스터링
: K 개의 중심점 결정해줘야 함
: K값과 최초지정하는 중심점에 따라 결과가 달라질 수 있음
7. 선형회귀 (Linear Regression) [ y=ax+b ]
: data 값(점)들을 찍어 경향성을 잘 표현할 수 있는 선을 찾고, 새 데이터가 들어오면 이 선을 기반으로 예측하는 것임.
: 각 점에서 회귀 직선까지의 거리 제곱의 총합을 최소로해서 얻어진 직선
8. Logistic Regression (로지스틱 회귀)
: data가 어떤 범주에 속할 확률을 0-1 사이 값으로 예측하고 그 확률에 따라 가능성이 더 높은 값으로 분류
: 0 혹은 1로 양분화
'1. Data Analyst > 1-0-1. Machine Learning' 카테고리의 다른 글
5. Gradient Descent Intution (0) | 2021.02.06 |
---|---|
4. Gradient Descent (0) | 2021.02.05 |
3. Cost Function(비용함수) (0) | 2021.02.04 |
2. How does Supervised Learning work? (0) | 2021.02.03 |
1. Supervised learning(지도학습) / Unsupervised learning(비지도 학습) (0) | 2021.02.02 |