ML&DATA/모두를 위한 딥러닝6 simple linear regression (단순 선형 회귀) 데이터를 (x,y)로 표현할 수 있다면 2차원 좌표평면에 점을 찍을 수 있다. 그 데이터들을 가장 잘 대변하는 직선의 방정식을 찾아가는 과정을 linear regression이라고 한다. 가장 잘 대변하는 직선이란, cost(=loss, error)의 제곱의 평균이 가장 작은 경우를 말한다. 결과 $y = ax + b$의 a,b를 찾기 위해서 가설함수$H(x)$와 비용함수$cost(W,b)$를 사용해야 한다. (W는 가중치, b는 bias) $$H(x) = Wx + b$$ $$cost(W,b) = \frac{1}{m}\sum_{i}^{m}(H(x_i)-y_i)^{2}$$ 데이터 셋이 다음과 같이 주어졌을 때 선형회귀를 수행해보자 x y 1 1 2 2 3 3 4 4 5 5 import tensorflow .. 2020. 7. 8. 용어/개념 supervised learning : training set으로 학습. 이 코스에서 다룰 내용 지도학습의 결과에 따라 분류 가능 ex) 점수 예측 regression : 0~100점 사이의 점수 binary classification : P/F multi-label classification : A B C D F 2020. 7. 8. 이전 1 2 다음