일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 메타버스
- chatGPT
- BERT
- 클라우드자격증
- MSCS
- 언어모델
- 클라우드
- 머신러닝
- llm
- 네트워크
- Collaborative Filtering Bandit
- aws자격증
- 추천시스템
- RecSys
- TFX
- BANDiT
- 자연어처리
- 머신러닝 파이프라인
- 중국플랫폼
- COFIBA
- AWS
- nlp
- BERT이해
- HTTP
- MAB
- docker
- 플랫폼
- MLOps
- 미국석사
- transformer
- Today
- Total
목록Multi-armed Bandit (2)
Julie의 Tech 블로그
이전 글에서는 COFIBA모델의 pseudo code와 각 구간별 로직에 대해 설명을 담았었다. 이번 글에서는 해당 모델이 세 개 테스트 데이터 셋에서 어떤 성과를 내었으며, 어떤 결론을 내릴 수 있는지 다룰 것이다. 수식 편집기 한계로, 글에서 기울임체로 작성하는 변수는 각각 아래와 같이 이해하면 된다. 1) 야후 뉴스 추천 데이터셋 - 2주간 야후 내 'Today Module' 섹션에 유입된 3000만 트래픽 기록 중 random하게 셀렉 - 뉴스 추천과 방문자가 모두 random하게 꾸려짐 - 유저 벡터 > it (136개 feature dimension), 뉴스 컨텐츠 > Cit, 클릭 여부 > at 2) Telefonica 광고 데이터셋 - Telefonica에서 운영하는 웹사이트 내 광고 클릭..
요즈음 상품 추천 알고리즘에 대해 고민을 많이 하면서, 리서칭하다 보면 MAB 접근법 등 Bandit 이라는 개념이 많이 등장한다. 이번 글에서는 Bandit 알고리즘이란 무엇이며, 추천시스템과는 어떻게 연결되는지를 살펴보고자 한다. 그리고 MAB 문제를 해결하는 여러 알고리즘에 대해 정리해볼 것이다. 우선 수확(Exploitation)과 탐험(Exploration)이라는 개념에 대해 고찰해보자. 우리가 어떤 레스토랑에서 밥을 먹을지 고민을 하고 있다고 가정해보자. 우리는 하나의 레스토랑에서 밥을 먹을 수 밖에 없고, 비용을 지불해야하니 가장 맛있는 레스토랑에서 식사를 하고 싶다. 수확이란 가장 효용이 높은 곳에서 집중적으로 보상을 받는 행동을 의미하고, 탐험은 지금껏 해보지 않은 경험이라 새로운 시..