본문 바로가기

머신러닝7

[머신러닝] 6. 머신러닝 총정리 1. 알고리즘 간단 정리    1.1. K-NN    1.2. Decision Tree1.3. Random Forest    1.4. Linear/Logistic Regression    1.5. SVM2. 머신러닝 기법 장단점 비교3. 머신러닝 기법 코드 실험1. 알고리즘 간단 정리지금까지 알아 본 머신러닝 기법들을 간단히 정리하고, 여러가지 데이터셋들에 대해 실험해보고 결과 한번 확인해 보고 마무리 해보도록 하겠습니다.1.1. K-NN알고리즘학습 데이터들을 저장한다.예측해야 하는 데이터가 주어지면, 저장한 데이터들과의 거리를 측정한다.측정한 거리를 보고, 가장 가까운 K개의 데이터의 과반수 라벨, 또는 평균값을 결과값으로 예측한다.자세한 내용 : https://all-the-meaning.tistor.. 2024. 12. 6.
[머신러닝] 5. SVM (Support Vector Machine) 1. SVM이란?2. 결정 경계 찾기    2.1. 결정 경계와 서포트 벡터 방정식    2.2. 마진 측정 방법    2.3. ||w|| 최소화하기    2.4. 목적함수 설정하기    2.5. $\alpha$ 최대화하기    2.6. 정리3. 커널트릭4. 장단점5. SVM 코드 구현    5.1. scikit-learn에서의 SVM    5.2. SVC 커널 실험1. SVM이란?SVM은 머신러닝에 사용되는 최적의 결정 경계를 찾는 분류 알고리즘입니다.위 그림과 같이 데이터를 분류할 수 있는 최적의 결정 경계를 찾는 것이 SVM의 목표입니다. 이를 위해선 최적의 서포트 벡터를 찾아야 합니다. 서포트 벡터란, 두 분류 데이터의 경계를 가장 잘 나타낼 수 있는 데이터로, 서로 평행한 2개의 벡터를 선정하게.. 2024. 12. 4.
[머신러닝] 4. Linear Regression과 Logistic Regression 1. Linear Regression과 Logistic Regression    1.1. Linear Regression    1.2. Logistic Regression2. 손실 함수    2.1. Linear Regression    2.2. Logistic Regression3. 학습 방법    3.1. Linear Regression의 학습 방법    3.2. Logistic Regression의 학습 방법        A. sag, saga        B. liblinear        C. newton-cg        D. lbfgs4. 학습 규제    4.1. Early stopping    4.2. L1, L2 regularizer 5. 장단점6. Linear Regression과 Lo.. 2024. 12. 3.
[머신러닝] 3. Random Forest 1.  Random Forest     1.1. Random Forest의 알고리즘2. Random Forest의 특징    2.1. 장점    2.2. 단점3. Random Forest 코드 구현    3.1. scikit-learn에서의 Random Forest    3.2. Random Forest 모델 실험           A. n_estimators           B. criterion          C. Pruning 1. Random ForestRandom Forest는 여러 개의 Decision Tree를 학습한 뒤, 앙상블을 통해 결과를 예측하는 머신러닝 기법입니다.따라서 더 자세히 알고 싶다면 Decision Tree를 먼저 알고 오는 것이 좋습니다. Decision Tree에 .. 2024. 11. 27.
[머신러닝] 2. Decision Tree 1. Decision Tree     1.1. CART 알고리즘         A. 분류 문제         B. 회귀 문제2. Pruning     2.1. 소제목    2.2. 소제목3. Decision Tree의 주요 특징    3.1. Decision Tree의 장점    3.2. Decision Tree의 단점4. Decision Tree 코드 구현    4.1. scikit-learn에서의 Decision Tree    4.2. scikit-learn 모델 실험           A. 정규화           B. Criterion          C. Pruning   1. Decision TreeDecision Tree는 트리 구조를 사용해 데이터를 분류, 회귀하는 방법입니다. 학습 파라미.. 2024. 11. 27.
[머신러닝] 1. KNN (K-Nearest Neighbors) 1. KNN (K-Nearest Neighbors)    1.1. KNN의 작동원리    1.2. KNN의 하이퍼 파라미터2. KNN의 주요 특징    2.1. KNN의 장점    2.2. KNN의 단점3. KNN 코드 구현    3.1. scikit-learn에서 KNN    3.2. KNN 모델 실험        A. 데이터 정규화의 영향        B. 근접 이웃(K)의 영향        C. 가중치 영향        D. 거리 측정 방식의 영향1. KNN (K-Nearest Neighbors)KNN은 별다른 학습이 필요 없는 이해하기 가장 쉬운 알고리즘입니다. KNN에 대해서 먼저 알아 보도록 하겠습니다.1.1. KNN의 작동 원리1. 학습에 필요한 데이터들을 저장한다.2. 예측하고자 하는 데이.. 2024. 11. 26.