일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- TFX
- 플랫폼
- 언어모델
- MLOps
- HTTP
- BANDiT
- transformer
- 머신러닝
- BERT이해
- Collaborative Filtering Bandit
- 머신러닝 파이프라인
- AWS
- MSCS
- BERT
- aws자격증
- llm
- 클라우드
- 중국플랫폼
- 클라우드자격증
- 네트워크
- 미국석사
- nlp
- COFIBA
- chatGPT
- 추천시스템
- 메타버스
- RecSys
- 자연어처리
- MAB
- docker
- Today
- Total
목록kaggle (2)
Julie의 Tech 블로그
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/wW0YB/btq4K9NjGwU/L1Hu0mp4sqimltKjN71yl1/img.png)
오늘은 Santender Customer Transaction Prediction 모델에서 우승팀 중 하나가 사용했던 lightGBM 모델의 논문을 살펴본 결과를 공유할 것이다. 모델이 뿌리를 두고 있는 앙상블 기법과 GBT 모델에 대해 간단히 살펴보고, lightGBM이 새로 도입한 두 가지 기법에 대해 알고리즘적으로 살펴볼 것이다. 이 모델의 근간이 되는 GBM과 앙상블에 대해 정리된 글은 아래 링크에 있다. https://blog.naver.com/ilovelatale/222320553535 앙상블과 GBM(Gradient Boosting) 알고리즘 Kaggle 필사를 하다 보면 가장 흔하게 사용되는 모델들이 있다.예를 들어 XGBoost와 lightGBM 모델... blog.naver.com ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/Kal2C/btq4IL0ckrG/zQrpvHBDnO5btK8Ikgz1K1/img.jpg)
본 카테고리는 Kaggle Case study를 통해 학습데이터 구성부터 모델 빌딩까지의 cycle 경험을 늘려보려고 한다. 참고한 코드는 아래 링크에서 확인 가능하다. Santander Customer Transaction - EDA / FE / LGB https://www.kaggle.com/gunesevitan/santander-customer-transaction-eda-fe-lgb Santander Customer Transaction - EDA / FE / LGB Explore and run machine learning code with Kaggle Notebooks | Using data from Santander Customer Transaction Prediction www.kaggle..