코세라(3)
-
4. Gradient Descent
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 우리는 가설함수를 갖고 있고, 이것이 데이터에 얼마나 잘 들어맞는지 측정하는 방법(비용함수 - Cost Function)을 알고 있다. 이제 우리는 가설함수의 매개변수를 측정해야 한다. θ0와 θ1를 기반으로한 가설함수를 그린다고 생각해라. (실제 우리는 매개변수 측정을 위해 비용함수를 그래프로 나타난다) 우리는 x,y 그 자체를 그리지않고 가설함수의 매개변수 범위와 특정 변수로 나타내지는 비용결과를 그린다. θ0를 x축에. θ1를 y축에 그리고 비용함수( J(θ0, θ1) )를 수직인 Z축에 높는다. 그래프 위의 점이 특정 세타변수를 포함한 비용..
2021.02.05 -
3. Cost Function(비용함수)
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 앞서 우리는 xy좌표평면에 흩뿌려져 있는 train data set을 가장 잘 표현하는 직선을 그려 new data(x)의 y값을 예측하는 것, 우리는 이것을 회귀 라고 불렀다. 그렇다면 앞서 말한 data set을 대표하는 직선은 어떻게 그리는 것일까? 가장 대표적인 방법이 오늘 우리가 배울 비용함수(Cost Function)라는 것이다. 3-1. Cost Function(비용함수) 비용함수 (=오차함수의제곱, 평균제곱오차함수(MSE- Mean Square Error)) 비용함수 사용시 주어진 데이터에 가장 가까운 일차함수 그래프를 알아낼 수 있다. ..
2021.02.04 -
2. How does Supervised Learning work?
이 카테고리는 Standford Univ. Andrew Ng 교수님의 Machine-Learning 강의를 듣고 개인 복습을 위해 작성한 포스트 입니다. 3-1. Notation (표기법) m data set number (데이터 개수) x "input" variable / features y "output" variable / "target" variable ( x , y ) one training example ( x(i) , y(i) ) i 번째 training example 3-2. How does the supervised learning work? (지도학습 작동 원리) training set (housing price) ↓ feed Learning Algorithm ↓ size of hous..
2021.02.03