2021. 2. 3. 21:59ㆍ1. Data Analyst/1-0-1. Machine Learning
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고
개인 복습을 위해 작성한 포스트 입니다.
3-1. Notation (표기법)
m | data set number (데이터 개수) |
x | "input" variable / features |
y | "output" variable / "target" variable |
( x , y ) | one training example |
( x(i) , y(i) ) | i 번째 training example |
3-2. How does the supervised learning work? (지도학습 작동 원리)
training set (housing price)
↓ feed
Learning Algorithm
↓
size of house (x) --------------> h (hypothesis) -------------> Estimated value of y
: Training set 데이터로 알고리즘을 학습시킨다.
이 학습된 알고리즘을 hypothesis라고 부른다(function).
이 학습된 알고리즘(hypothesis)를 이용해 test data set에서 y value 예측.
3-3. How do we represent h?
우리가 Learning Algorithm을 디자인할때
신경써야하는 한가지가 있다.
그건 바로 h를 어떻게 표현할 것인가? 이다.
(When Design a learning algorithm, what we have to decide is,
How Do We Represent h?)
* h(hypothesis)는 가설을 의미: 여기서는 선형함수를 예측하는 것으로 쓰임
hθ(x) = θ0 + θ1x
ㄴ> shorthand : h(x)
* 우리가 예측하려는 y가 연속적이라면 (ex- 집값, 나이), 우리는 이 학습문제를 회귀문제 라고 부른다.
(When the target variable(y) that we're trying to predict is continuous, such in our housing problem, we call the learning problem a regression problem)
* y가 작은 수의 불연속적인(이산) 수라면 (ex- 거주지가 주택인지 아파트인지 예측하고 싶다면), 우리는 이것을 분류문제 라고 부른다.
(When y can take on only a small number of discrete values (such as, if given the living area, we wanted to predict if a dwelling is a house or an apartment, say), we call it a classification problem)
'1. Data Analyst > 1-0-1. Machine Learning' 카테고리의 다른 글
5. Gradient Descent Intution (0) | 2021.02.06 |
---|---|
4. Gradient Descent (0) | 2021.02.05 |
3. Cost Function(비용함수) (0) | 2021.02.04 |
1. Supervised learning(지도학습) / Unsupervised learning(비지도 학습) (0) | 2021.02.02 |
0. 머신러닝이란? (0) | 2021.02.01 |