본문 바로가기

ML&DATA/핸즈온 머신러닝12

4 - 다항회귀, 규제 www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. 다항회귀 비선형 데이터를 학습하는 데 선형 모델을 사용할 수 있다. 각 특성의 거듭제곱을 새로운 특성으로 추가하고, 이 확장된 특성을 포함한 데이터셋에 선형 모델을 훈련시키는 것이다. 이런 기법을 다항 회귀(polynomial regression)라고 한다. 1. polynomialfeature로 특성 확장 후 선형 모델 학습 직선은 이 데이터에 잘 맞지 않을 것이므로 우선 사이킷런의 PolynomialFeatures를 사용해 훈련 데이터를 확장한다 from sklearn.preprocessing imp.. 2020. 9. 9.
4 - 선형회귀 (경사하강법) www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. 선형 회귀 모델을 훈련시키는 두 가지 방법 정규방정식 경사하강법 GD(배치, 미니배치, 확률적(stochastic)) 경사하강법 특성이 매우 많고 훈련 샘플이 너무 많아 메모리에 모두 담을 수 없을 때 적합함. sklearn.linear_model 의 SGDRegressor을 사용하면 된다. 확률적 경사하강법(SGD)이 구현돼 있다. from sklearn.linear_model import SGDRegressor #learning_rate = 'invscaling' -> eta0/t**0.25, 학습률.. 2020. 9. 4.
4 - 선형 회귀 (정규방정식) www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. 선형 회귀 모델을 훈련시키는 두 가지 방법 정규방정식 경사하강법 GD(배치, 미니배치, 확률적(stochastic)) 정규방정식 sklearn.linear_model의 LinearRegression에 해당함. from sklearn.linear_model import LinearRegression lin_reg = LinearRegression() lin_reg.fit(X,y) lin_reg.intercept_, lin_reg.coef_ #bias와 weight #(array([4.41766218]), .. 2020. 9. 4.
3 - 다중 레이블 분류, 다중 출력 분류 3.6 다중 레이블 분류 이진 레이블이 여러 개일 때의 분류를 다중 레이블 분류라고 한다. mnist에서 숫자가 7이상인지와 홀수인지를 학습하는 분류기를 만들어보자. 다중 분류기를 지원하는 KNeighborsClassifier를 사용. from sklearn.neighbors import KNeighborsClassifier y_train_large = (y_train>=7) y_train_odd = (y_train%2==1) y_multilabel = np.c_[y_train_large, y_train_odd] knn_clf = KNeighborsClassifier() knn_clf.fit(X_train, y_multilabel) 손글씨 5를 7미만이고 홀수라는 것을 예측했다. knn_clf.predi.. 2020. 8. 27.