일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 클라우드
- 플랫폼
- 미국 개발자 취업
- 중국플랫폼
- MSCS
- HTTP
- docker
- transformer
- 추천시스템
- TFX
- 메타버스
- BANDiT
- 머신러닝
- RecSys
- AWS
- maang
- BERT
- swe취업
- 미국석사
- 합격후기
- 네트워크
- nlp
- llm
- chatGPT
- MAB
- 자연어처리
- MLOps
- 클라우드자격증
- 언어모델
- BERT이해
Archives
- Today
- Total
목록앙상블 (1)
SWE Julie's life

Kaggle 필사를 하다 보면 가장 흔하게 사용되는 모델들이 있다. 예를 들어 XGBoost와 lightGBM 모델이 그 예로 해당된다. 오늘은 이 두 모델이 근간을 두고 있는 앙상블에 대한 개념을 다시 짚고, Gradient Boosting 알고리즘에 대해 살펴볼 것이다. 앙상블에는 두 가지 타입이 있다. 1. 배깅(Bagging) 배깅은 독립된 모델들의 결과를 합산하여 다수결 투표(Voting)을 통해 결과를 산출하는 것이다. parallel ensemble이라고도 부른다. 위 이미지에서 왼쪽처럼 bootstrap된(=랜덤 복원샘플링) 데이터가 각 분류기에 input되고, 각각에 따른 결과물들을 한 데 결합하여(Aggregation) 중 다수가 추측한 결과대로 결과를 뽑는 것이다. 2. 부스팅(B..
Tech/ML, DL
2021. 5. 14. 11:48