일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- chatGPT
- COFIBA
- 플랫폼
- 언어모델
- docker
- AWS
- MSCS
- Collaborative Filtering Bandit
- 메타버스
- 클라우드자격증
- 미국석사
- BANDiT
- 머신러닝 파이프라인
- llm
- nlp
- 머신러닝
- 중국플랫폼
- 네트워크
- 자연어처리
- BERT이해
- TFX
- MAB
- MLOps
- aws자격증
- 클라우드
- HTTP
- BERT
- transformer
- 추천시스템
- RecSys
Archives
- Today
- Total
목록MMLU (1)
Julie의 Tech 블로그
LLM Evaluation
LLM 모델의 성능은 어떻게 평가할 수 있을까? LLM 모델 기반 어플리케이션을 개발하는 사람이라면 누구나 다 prompt engineering과 LLM 모델의 블랙박스에 진절머리가 나있을테다. 나 역시 LLM 프로젝트를 하면서 계속 고민했던 사항이고 아직도 답을 못내렸기 때문에 오늘은 이 글을 통해 evaluation에 대한 이야기를 나누어볼까 한다. 우리는 일반적으로 ML/DL 모델을 개발하면 ‘숫자’로 모델의 성능을 평가하려고 한다. 그 이유인 즉슨 하나의 모델도 실험해볼 것이 너무 많기 때문에 사람이 일일이 결과를 들여다보기 어려울 뿐더러, 대개 정답지가 있는 상황에서 개발되었기 때문에 숫자로 점수를 매길 수 있기 때문이다. 하지만 LLM은 생성형 AI 특성상 아웃풋의 품질에 대해 수치화하기가 참..
Tech/ML, DL
2023. 8. 20. 15:45