일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- aws자격증
- MAB
- 중국플랫폼
- 추천시스템
- HTTP
- 메타버스
- MSCS
- 클라우드자격증
- 미국석사
- BANDiT
- Collaborative Filtering Bandit
- MLOps
- docker
- AWS
- BERT이해
- 네트워크
- 머신러닝
- 자연어처리
- 언어모델
- 플랫폼
- llm
- 클라우드
- RecSys
- BERT
- TFX
- chatGPT
- 머신러닝 파이프라인
- COFIBA
- transformer
- nlp
Archives
- Today
- Total
목록2024/03 (1)
Julie의 Tech 블로그
GPT Tokenizer에 대해 알아보자
GPT에 대해 더 깊이 있게 이해하려면 Tokenizer에 대해서도 심도있게 살펴볼 필요가 있다. ChatGPT를 써본 경험이 있는 사람이라면 아래 의문들 중 하나 이상을 마주해본 적이 있을 것이다. 왜 스펠링이 안될까? 왜 문장을 거꾸로 말하라고 하거나 정렬해보라고 하면 안될까? 영어가 아닌 한글로 말할때는 왜 더 안좋은 대답을 줄까? 단순한 수학 연산에 왜 약할까? GPT-2가 왜 비정상적으로 Python coding 성능이 안좋았을까? 왜 |endoftext|라는 string을 보면 멈출까? LLM에서 JSON보다는 YAML을 사용하는게 더 좋을까? 위의 질문에 대한 답은 모두 Tokenization 문제이다. LLM Tokenization 과정은 LLM과 완전히 별도로 분리된 모듈이다. 일반적으로..
Tech/ML, DL
2024. 3. 8. 16:13