일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 합격후기
- MLOps
- 미국석사
- 메타버스
- 머신러닝
- llm
- swe취업
- 클라우드자격증
- 언어모델
- transformer
- chatGPT
- 미국 개발자 취업
- docker
- 플랫폼
- MSCS
- 추천시스템
- 중국플랫폼
- TFX
- maang
- 네트워크
- 클라우드
- BANDiT
- MAB
- RecSys
- BERT
- 자연어처리
- HTTP
- BERT이해
- nlp
- AWS
Archives
- Today
- Total
목록RNN (1)
SWE Julie's life

Background 요즈음의 Machine Translation (MT)의 최신 모델들은 모두 BERT 혹은 BERT의 확장판을 기반으로 하고 있다. 실제로 NLP의 여러 Task들에 대한 최신 NLP모델들의 성능을 리더보드로 제공하는 Glue Benchmark(https://gluebenchmark.com/leaderboard)를 살펴보면, 대부분의 모델명에 BERT가 포함되어있는 것을 쉽게 확인할 수 있다. 따라서 NLP에 대한 이해를 하기 위해서는 BERT를 이해하는 것이 매우 중요하다고 할 수 있다. 최근에 화제가 되고있는 GPT와 BERT는 모두 Transformer 아키텍쳐를 채택하고 있다. 그렇기에 우리가 BERT를 이해하기 앞서서 Transformer 아키텍쳐를 살펴볼 필요가 있다. 오..
Tech/ML, DL
2022. 12. 13. 01:25