일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 미국석사
- BERT
- BERT이해
- docker
- aws자격증
- 네트워크
- 머신러닝
- MLOps
- AWS
- TFX
- 중국플랫폼
- 추천시스템
- HTTP
- Collaborative Filtering Bandit
- MSCS
- RecSys
- MAB
- 자연어처리
- nlp
- COFIBA
- 클라우드
- 언어모델
- 플랫폼
- 머신러닝 파이프라인
- chatGPT
- 클라우드자격증
- transformer
- 메타버스
- llm
- BANDiT
Archives
- Today
- Total
목록self-Attention (1)
Julie의 Tech 블로그
BERT - (4) BERT 이해하기
BERT는 뛰어난 성능을 보이지만 아이러니하게도 어떤 요소로 인해 그러한 성능이 발휘되는지에 대해서는 정확히 판별할 수 없는 상황이다. 모델이 문맥을 이해하는 듯 하여 언어적인 지식을 습득하는 것 같은데, 파라미터 수와 모델의 depth로 인해 워낙 큰 모델이다보니 어떤 특성을 갖는지 분석하기가 어렵다. 따라서 BERT와 관련하여 연구된 논문 150가지 이상을 리뷰한 또 다른 논문이 등장하게 된다. 그 논문이 BERTology인데, 이 논문은 아래와 같은 내용을 중점적으로 다룬다. BERT 연구가 어떻게 진행되었고, 진행되고 있는지 BERT가 어떻게 동작하는지, 어떤 정보를 학습하는지, input이 어떻게 represent되는지, 파라미터 거대화(overparameterization issue)와 그..
Tech/ML, DL
2022. 12. 20. 00:21