일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- TFX
- 네트워크
- 클라우드자격증
- Collaborative Filtering Bandit
- 언어모델
- 자연어처리
- BERT이해
- BERT
- 클라우드
- RecSys
- llm
- 머신러닝 파이프라인
- docker
- BANDiT
- transformer
- 추천시스템
- MLOps
- 머신러닝
- MAB
- nlp
- HTTP
- 메타버스
- MSCS
- 중국플랫폼
- chatGPT
- AWS
- 플랫폼
- 미국석사
- COFIBA
- aws자격증
Archives
- Today
- Total
목록Lora (1)
Julie의 Tech 블로그
Quantization
Quantization은 LLM이 화제가 되기 전에도 이미 모델의 complexity 나 cost를 줄이고자 하는 노력의 일환으로 연구가 되어왔던 분야이다. 물론 더 가벼운/저렴한 모델을 만들 때 quantization만이 유일한 대응책은 아니다. 모델 아키텍쳐 경량화 등의 방법도 있겠지만 quantization이 그 중에서도 가장 전후차이가 크다고 한다. LLM 모델들의 성능이 상승함에 따라 점차 일반화/서비스화 고민들이 많아지는 가운데, 갖춰지지 않은 대중적인 환경에서도 모델을 활용할 수 있는 방법에 대한 고민이 많아지는 듯 하다. 과거엔 IoT의 성장과 edge computing에 대한 관심도 한 몫했던 것 같다. 그럼 이번 글은 LLM에서 뜨거운 감자가 되고 있는 Quantization에 대해 간..
Tech/ML, DL
2023. 8. 18. 18:57