본문 바로가기

ML&DATA/핸즈온 머신러닝12

5. SVM - 비선형 분류 www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. SVM 서포트 벡터 머신은 분류(선형, 비선형), 회귀, 이상치 탐색에 사용할 수 있는 다목적 머신러닝 모델이다. 굉장히 사용 빈도가 높으며 반드시 알고 있어야 한다. SVM은 복잡한 분류 문제에 잘 맞고 중간 이하 크기의 데이터셋에 적합하다. 5.2 비선형 SVM 분류 선형 SVM 분류기로 분류할 수 없는 비선형 데이터 셋에 사용한다. suuntree.tistory.com/298?category=875918 처럼 다항 특성과 같은 특성을 더 추가하여 비선형 데이터셋을 다룰 수 있다. 이렇게 하면 선형적.. 2020. 9. 28.
5. SVM - 선형분류 www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. SVM 서포트 벡터 머신은 분류(선형, 비선형), 회귀, 이상치 탐색에 사용할 수 있는 다목적 머신러닝 모델이다. 굉장히 사용 빈도가 높으며 반드시 알고 있어야 한다. SVM은 복잡한 분류 문제에 잘 맞고 중간 이하 크기의 데이터셋에 적합하다. 5.1 선형 SVM 분류 두 개의 클래스를 나누는 결정 경계를 각 클래스의 훈련 샘플로부터 가능한 멀리 떨어져 있도록 한다. 라지 마진 분류(large margin classification)라고도 하며 이진 분류이다. sklearn.svm의 LinearSVC를 .. 2020. 9. 28.
4 - 정리, 연습문제 1. 수백만 개의 특성을 가진 훈련 세트에서는 어떤 선형 회귀 알고리즘을 사용하는지? 정규방정식의 역행렬을 유사역행렬로 사용한 것(SVD) : 훈련 세트가 많은 것은 상관 없으나 특성의 수 n이면 $O(n^{2})$걸림. 부적절 확률적경사하강법(SGD)나 미니배치 경사하강법이 적절하다. 2. 훈련 세트의 특성들이 서로 아주 다른 스케일을 가지고 있다. 이런 데이터에 작동하지 않는 알고리즘은 무엇이고 이유와 해결 방안은? 훈련 세트에 있는 특성의 스케일이 매우 다르면 비용함수는 길쭉한 타원 모양의 형태가 되어 경사하강 알고리즘이 수렴하는 데 오래 걸린다. 훈련 전에 스케일링을 하면 된다. 정규 방정식이나 SVD방법은 스케일 조정 없이도 잘 작동한다. 3. 경사하강법으로 로지스틱 회귀 모델을 훈련시킬 때 지.. 2020. 9. 18.
4 - 로지스틱 회귀, 소프트맥스 회귀 www.youtube.com/watch?v=6omvN1nuZMc&list=PLJN246lAkhQjX3LOdLVnfdFaCbGouEBeb&index=13 박해선 교수님의 유튜브 강의로 공부했음을 밝힙니다. 4.6 로지스틱 회귀 로지스틱 회귀 : 분류에 사용되는 회귀모델. 샘플이 특정 하나의 클래스에 속할 확률(predict_proba)을 추정한다. 소프트맥스 회귀 : 다항 로지스틱 회귀라고도 한다. 각 클래스에 속할 확률을 추정한다. sklearn.linear_model의 LogisticRegression사용. coef_속성은 (클래스 수, 특성 수)크기의 2차원배열. intercept_속성은 클래스 수와 같은 1차원 배열 1. 로지스틱 회귀 머신러닝의 'hello world'라고 부르는 붓꽃 데이터 셋... 2020. 9. 15.