일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- BERT
- 자연어처리
- docker
- 머신러닝
- chatGPT
- 언어모델
- MSCS
- maang
- 미국 개발자 취업
- HTTP
- BERT이해
- 추천시스템
- swe취업
- 네트워크
- 중국플랫폼
- MLOps
- RecSys
- 클라우드
- 합격후기
- BANDiT
- 플랫폼
- 메타버스
- TFX
- nlp
- 미국석사
- transformer
- 클라우드자격증
- MAB
- llm
- AWS
Archives
- Today
- Total
목록인코더 (1)
SWE Julie's life

Background 요즈음의 Machine Translation (MT)의 최신 모델들은 모두 BERT 혹은 BERT의 확장판을 기반으로 하고 있다. 실제로 NLP의 여러 Task들에 대한 최신 NLP모델들의 성능을 리더보드로 제공하는 Glue Benchmark(https://gluebenchmark.com/leaderboard)를 살펴보면, 대부분의 모델명에 BERT가 포함되어있는 것을 쉽게 확인할 수 있다. 따라서 NLP에 대한 이해를 하기 위해서는 BERT를 이해하는 것이 매우 중요하다고 할 수 있다. 최근에 화제가 되고있는 GPT와 BERT는 모두 Transformer 아키텍쳐를 채택하고 있다. 그렇기에 우리가 BERT를 이해하기 앞서서 Transformer 아키텍쳐를 살펴볼 필요가 있다. 오..
Tech/ML, DL
2022. 12. 13. 01:25