1. Data Analyst/1-0-1. Machine Learning(7)
-
Machine Learning Algorithms 머신러닝 알고리즘
1. K-NN (K-Nearest Neighbor) : 내 위치 기준으로 K명한테 물어봄 -> 다수결로 (클래스) 결정 2. SVM (Support Vector Machine) : 이진 분류기 : 분류 성능 가능성(높음) => '분류'에 많이 활용됨 3. Decision Tree(의사결정 트리) : 이진트리 활용해서 관측-목표값 연결하는 예측 모델 : 오버피팅(과적합) 多 발생 ( 해결법 => 랜덤포레스트) 4. Random Forest (랜덤포레스트) : 트리가 많이 있는 것, 즉 다수의 의사결정 트리를 만들고 그 나무들의 분류를 집계하여 최종 분류하는 학습 방법 : 의사결정트리 단점인 오버피팅 문제 개선 可 5. Naive Bayse Classifier (나이브 베이즈 분류기) : 조건부 확률 모델 ..
2021.10.09 -
5. Gradient Descent Intution
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 경사 하강법을 적용시키기 위해 θ1의 매개변수를 사용한 비용함수를 좌표로 찍어보았다. 단일변수를 위한 우리의 공식은 다음과 같았다. 수렴할때까지 계속 반복: θ1 := θ1−α d/dθ1 J(θ1) 경사 표시인 d/dθ1J(θ1) , θ1 와 상관없이 결국에는 그것의 최소값으로 모이게 된다. Regardless of the slope's sign for d/dθ1J(θ1) , θ1 eventually converges to its minimum value. 다음 그래프는 기울기에 따름 θ1 값의 변화를 보여준다. 경사가 음수면 θ1 ..
2021.02.06 -
4. Gradient Descent
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 우리는 가설함수를 갖고 있고, 이것이 데이터에 얼마나 잘 들어맞는지 측정하는 방법(비용함수 - Cost Function)을 알고 있다. 이제 우리는 가설함수의 매개변수를 측정해야 한다. θ0와 θ1를 기반으로한 가설함수를 그린다고 생각해라. (실제 우리는 매개변수 측정을 위해 비용함수를 그래프로 나타난다) 우리는 x,y 그 자체를 그리지않고 가설함수의 매개변수 범위와 특정 변수로 나타내지는 비용결과를 그린다. θ0를 x축에. θ1를 y축에 그리고 비용함수( J(θ0, θ1) )를 수직인 Z축에 높는다. 그래프 위의 점이 특정 세타변수를 포함한 비용..
2021.02.05 -
3. Cost Function(비용함수)
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 앞서 우리는 xy좌표평면에 흩뿌려져 있는 train data set을 가장 잘 표현하는 직선을 그려 new data(x)의 y값을 예측하는 것, 우리는 이것을 회귀 라고 불렀다. 그렇다면 앞서 말한 data set을 대표하는 직선은 어떻게 그리는 것일까? 가장 대표적인 방법이 오늘 우리가 배울 비용함수(Cost Function)라는 것이다. 3-1. Cost Function(비용함수) 비용함수 (=오차함수의제곱, 평균제곱오차함수(MSE- Mean Square Error)) 비용함수 사용시 주어진 데이터에 가장 가까운 일차함수 그래프를 알아낼 수 있다. ..
2021.02.04 -
2. How does Supervised Learning work?
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 3-1. Notation (표기법) m data set number (데이터 개수) x "input" variable / features y "output" variable / "target" variable ( x , y ) one training example ( x(i) , y(i) ) i 번째 training example 3-2. How does the supervised learning work? (지도학습 작동 원리) training set (housing price) ↓ feed Learning Algorithm ↓ size of hous..
2021.02.03 -
1. Supervised learning(지도학습) / Unsupervised learning(비지도 학습)
Supervised learning vs Unsupervised learning 지도학습 vs 비지도학습 지난 시간 머신러닝 알고리즘은 크게 4가지가 있고, 이 중 메인은 Supervised Learning(지도학습)과 Unsupervised Learning(비지도 학습)이라고 했다. 쉽게 생각하면 기계를 어떤 알고리즘으로 교육을 시키는가? 를 의미한다. 둘의 차이점을 시각화 한 그래프다. 지도학습은 라벨링된(명시적으로 구분되어 있는) 데이터를 학습하도록 하는 반면, 비지도학습은 아무 라벨링이 없거나, 모두 같은 라벨링 된 즉, 구분되지 않은 데이터를 던져주고 스스로 학습하여 Structure을 찾도록 한다. 자 그럼 비지도학습 알고리즘이 어떻게 Structure을 찾는가? 가장 대표적인 방법은 Clus..
2021.02.02 -
0. 머신러닝이란?
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 0-1. 머신러닝 사례 넷플릭스의 영화추천, 에이블리의 유사상품 추천, 이세돌과 대결한 알파고, 로봇 상담사 챗봇, 사물 감별기능, 스팸메일 자동분류, . . . 위의 예시들에 대해 들어본 적이 없거나 한번이라도 사용해보지 않은 사람이 있는가? 위의 예시들은 모두 머신러닝이 활용된 사례이며 머신러닝은 더이상 인간과 뗄레야 뗄 수 없는 수준까지 인간의 삶에 녹아들었다. 0-2. 머신러닝 정의 다음은 한 학자가 Machine Learning을 정리한 문장이다. Learn from experience E with respect to some task T an..
2021.02.01