본문 바로가기
728x90
반응형

Machine Learning6

[ML] 앙상블 기법 정리 Ensemble Learning 앙상블 기법이란? 여러개의 모델을 조합하여 최적의 모델로 일반화하는 방법약한 분류기(weak classifier)들을 결합하여 강한 분류기(stromg classifier)로 만드는 것이 앙상블 기법이다.앙상블 기법에는 Voting, Bagging, Boosting, Stacking 이 있다.     Voting 보팅(Voting)각각 다른 알고리즘 분류기를 사용하여 최종 예측값을 결정한다.여러 분류 모델의 결과값을 토대로 가장 많이 예측된 클래스를 voting의 최종 예측으로 결정한다.보팅은 하드보팅과 소프트 보팅으로 나누어 설명할 수 있는데,하드보팅은 각 모델이 최종 예측한 값을 모아 앙상블 모델의 최종 예측값을 정할 수 있고소프트보팅은 각 모델이 클래스마다 예측한 확.. 2024. 10. 30.
DevOps란? DevOps = dev + opsdeveloper : 소프트웨어 개발자operations : 운영 담당자, 모니터링 관리자 어플리케이션 퍼포먼스- 우리 app응답시간이 지연이 있는가?d: 어떻게 하면 줄일수 있지o: 잘 해결 되었는지, app 지표에는 문제가 없는지 (환경에 문제가 없는지) end userd: 디바이스 퍼포먼스에 문제가 없는지o: 실제 유저의 불편사항이 해결되었는가 quality coded: 개발 난이도o: 퍼포먼스 분석 => 두개 간의 충돌전반적으로 모두 다룰수 있는 툴?  se(server engineer)가 많이 devops 엔지니어로 많이 이동함 이 중에서 맞는 툴이나 서비스를 고르고 사용하도록 함혹은 적절한 툴?을 만들어 내는 것도 하나의 역할클라우드를 구성하고 배포하는 역할도 .. 2024. 2. 24.
[Machine Learning] SMOTE SMOTE( Synthetic Minority Oversampling Technique) 는 오버샘플링의 일종. 타겟변수의 범주별 비율이 맞지 않을 때? 사용했다. y값 y.value_counts() y.value_counts(normalize=True) normalize=True 를 넣어주면 비율로 확인할 수 있다. 아 팀프로젝트로 파산데이터 분석을 진행했었는데 타겟변수가 파산했는가 에 대한 여부였다. 파산 한 경우 : 1, 파산하지 않은 경우 : 0 거의 96% 이상이 타겟변수 0으로 쏠려 있는 것을 볼 수 있다. 이런 경우에는 0으로 과적합 될 가능성이 있다. 음.. 그러니까 독립변수가 어떠하더라도 대부분의 예측 결과로 0이 나올수도 있다 이 말..! 임의로 8:2의 비율로 오버샘플링 하였다. 굳이.. 2023. 7. 23.
[Machine Learning] Hyper Parameter 하이퍼 파라미터 파라미터는 모델 내부에서 결정되는 변수이다 각 파라미터는 데이터를 통해 구해지며 모델 내부 자체적으로 결정되는 값이기 때문에, 사용자가 임의로 설정할 수는 없다. ## 파라미터 VS 하이퍼파라미터 하이퍼 파라미터는 모델링 시 사용자가 직접 결정할 수 있는 변수이다. 각 파라미터는 최적의 값이 정해져 있지 않아서 사용자의 경험이나, 필요 조건에 따라 결정해야 한다. 만약 하이퍼 파라미터를 수동으로 결정하지 못하겠다면 그리드 서치( Grid Search) 나 베이지안 최적화( Bayesian Optimization) 방법을 사용해도 좋다. >>>https://data-yun.tistory.com/4 [Machine Learning] Grid Search 그리드 서치 그리드 서치(Grid Search) : 좋.. 2023. 7. 23.
728x90
반응형