일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- AWS
- 중국플랫폼
- 클라우드
- 언어모델
- BANDiT
- 자연어처리
- 플랫폼
- transformer
- swe취업
- 합격후기
- 추천시스템
- 미국석사
- 네트워크
- TFX
- maang
- 메타버스
- llm
- HTTP
- RecSys
- 클라우드자격증
- MAB
- chatGPT
- BERT이해
- 머신러닝
- docker
- MLOps
- nlp
- 미국 개발자 취업
- BERT
- MSCS
Archives
- Today
- Total
목록Next Sentence Prediction (1)
SWE Julie's life

BERT는 Bidirectional Encoder Representations from Transformer로서 기존 Transformer 모델의 인코더만을 채택하여 사용한다. 논문에서는 Transformer의 인코더와 BERT의 인코더가 크게 다르지 않다고 언급하고 있어 BERT의 특징인 'Bidirectionality'에 대해서 중점적으로 이야기해볼 것이다. BERT는 기존의 NLP 모델들이 'Unidirectional(단방향)'했다는 것과 다르게 양방향성을 띄고 있다. 이를 예시를 들어 설명하면 아래와 같다. I can't trust you. They have no trust left for their friends. He has a trust fund. 여기서 BERT는 다른 모델들과 ..
Tech/ML, DL
2022. 12. 20. 00:18