일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- BERT이해
- BANDiT
- AWS
- MLOps
- 머신러닝
- aws자격증
- 추천시스템
- 자연어처리
- BERT
- COFIBA
- TFX
- 메타버스
- 머신러닝 파이프라인
- 네트워크
- chatGPT
- MSCS
- Collaborative Filtering Bandit
- llm
- docker
- HTTP
- RecSys
- transformer
- 플랫폼
- MAB
- nlp
- 미국석사
- 클라우드자격증
- 클라우드
- 언어모델
- 중국플랫폼
Archives
- Today
- Total
목록앙상블 (1)
Julie의 Tech 블로그
앙상블 - 배깅과 부스팅, GBM(Gradient Boosting) 알고리즘
Kaggle 필사를 하다 보면 가장 흔하게 사용되는 모델들이 있다. 예를 들어 XGBoost와 lightGBM 모델이 그 예로 해당된다. 오늘은 이 두 모델이 근간을 두고 있는 앙상블에 대한 개념을 다시 짚고, Gradient Boosting 알고리즘에 대해 살펴볼 것이다. 앙상블에는 두 가지 타입이 있다. 1. 배깅(Bagging) 배깅은 독립된 모델들의 결과를 합산하여 다수결 투표(Voting)을 통해 결과를 산출하는 것이다. parallel ensemble이라고도 부른다. 위 이미지에서 왼쪽처럼 bootstrap된(=랜덤 복원샘플링) 데이터가 각 분류기에 input되고, 각각에 따른 결과물들을 한 데 결합하여(Aggregation) 중 다수가 추측한 결과대로 결과를 뽑는 것이다. 2. 부스팅(B..
Tech/ML, DL
2021. 5. 14. 11:48