일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- HTTP
- 추천시스템
- COFIBA
- nlp
- MAB
- 머신러닝 파이프라인
- MSCS
- BERT
- 미국석사
- 네트워크
- AWS
- 클라우드
- llm
- transformer
- 언어모델
- 클라우드자격증
- aws자격증
- BANDiT
- BERT이해
- 메타버스
- RecSys
- chatGPT
- Collaborative Filtering Bandit
- docker
- 자연어처리
- TFX
- 머신러닝
- MLOps
- 플랫폼
- 중국플랫폼
- Today
- Total
Julie의 Tech 블로그
[오피니언] GPT 등장 이후 시장은 어떻게 변화하고 있나, 우리는 어떻게 대응하나? 본문
오늘은 ChatGPT의 등장 이후 여러 GPT 모델을 써보면서 가장 크게 변화되었다고 생각하는 영역에 대해 지극히 개인적인 주관을 정리해보려고 한다. 가장 크게 영향을 받은 영역은 1) 검색 그리고 2) 프로그래밍이라고 생각한다. 물론 나는 비즈니스 사이드에서 일하는 사람이 아니기 때문에 리서치 등의 비즈니스 영역의 task는 시켜보지 않아서 그들은 시작부터 고려대상이 아니었다는 점을 감안하고 읽어봐주길 바란다!
우선 검색부터 보자면, 자연어 기반 검색이 가능해졌다. 이는 개인이 얻는 정보의 질적인 차이를 줄여주지 않을까 생각했다. 예전에는 필요한 검색을 정확한 키워드로 찾아야만 볼 수 있었다면 이제는 LLM기반으로 시야의 제한을 확장해준 느낌이다. 내가 나의 능력으로 만들 수 있는 꼬깔콘은 조그마한데, 그 꼬깔콘으로 인터넷에서 정보를 보고 있었다면, 이제는 애매한 문장이나 단어들도 몇 번의 대화를 통해 명확하게 만들어 찾을 수 있다. 그리고 지식을 얻는 과정도 개인화할 수 있게 되었다. 똑같은 지식(ex. AGI에 대한 시각)도 누군가는 부정적인 컨텍스트로 정보를 찾기를 원했다면 나는 긍정적인 컨텍스트로 정보를 찾으려고 할 수 있기 때문이다. 기존에는 동일한 키워드로 검색하면 동일한 검색결과가 제공되었고 필터링해야했으나 (자연어 검색 결과가 질의자 의도를 명확하게 반영한다는 전제하에) 이제는 검색어에서부터 context를 추가하여 의도를 훨씬 반영할 수 있게 되었다. 이에 따라서 지식을 얻는 과정에서 들어가는 비용(시간, 리소스)을 줄일 수 있게 되었다.
하지만 LangChain도 그렇고 실제로 비서같은 AI같이 만들려면 call비용이 상당하다는 것이 단점이다. 경량화된 모델도 많이 나오는 추세이고 복잡도를 낮추려고 노력하고 있지만, 꽤 발달해온 기존 검색엔진보다 비효율적인 경우도 있다. 예를 들어 아래와 같은 Chain of Thought를 요구하는 검색을 수행시킬 경우,
- A연예인의 현재 아들의 나이는?
뛰어난 검색엔진은 바로 A씨의 정보에서 남자친구의 정보가 포함된 검색결과를 반환해주지만,
LLM Agent는 일련의 사고과정을 거치게 된다.
- Agent: (A연예인의 현재 아들을 인터넷에서 검색해야지)
- Agent: (아들은 B이다. B의 나이를 검색해야지)
이렇게 하나의 질문도 두 단계로 나누어서 각각을 자연어로 명령을 수행하게 된다. 물론 명령어나 질문이 복잡(논리적)하다면 유의미한 과정일 수 있겠지만, 지금 단계에서는 1회 call 비용이 비싸기 때문에 과할 수 있다.
예제 질문을 저렇게 골라서 또 생각난 김에 말해보자면, A연예인의 아들 나이라고 묻게 되면 질문에 ‘아들이 존재한다’는 가정이 포함되어있다. 근데 GPT는 웬만해서는 질문의 가정을 의심하지 않는 경향이 있다고 느껴졌다. 즉 유저의 input에 따라 task를 수행하는 것은 잘해도 거꾸로 그 task에 대한 의심은 잘 하지 않는 듯 했다. (개인적인 의견)
프로그래밍은 정말 많이 도움이 되는 것 같다. 이건 흔하지 않은 언어에 대해서도 대답을 곧잘하고, 로직에 대해 충분히 설명만 해준다면 답변의 퀄리티가 괜찮다. 이제는 프로그래머들이 더 이상 처음부터 끝까지 코드를 작성하진 않고, 대충의 틀 혹은 사고방식을 알려주면 그에 맞춰서 코드는 알아서 LLM이 완성해준다고 봐도 좋을 것 같다. 요즈음 GPT4의 성능이 떨어지고 있다는 이야기가 나오지만 그럼에도 불구하고 여전히 가장 좋은 동료 혹은 도우미가 되는 것 같다. 원래는 stackoverflow가 정석이었다면, 요즘에는 많은 사람들이 GPT에 먼저 물어보는 것 같다. 요구사항이 개인마다 조금씩 다른 부분들이 많기도하고, 대화형식으로 코드를 수정/고도화시켜나갈 수 있다는 것이 큰 장점이다. 프로그래밍도 하나의 언어라 그런지 GPT가 잘하는 task 중의 하나인 것 같다.
비슷하게도 영작할 일이 있을 경우에도 무척 많은 도움이 되는데, 내가 대략적인 글의 흐름만 잡아주면 문법과 전달력(clarity)을 높일 수 있는 방향으로 글을 수정해달라할 수 있어 좋다. 기존보다 영문 글을 쓰는 데 걸리는 시간이 훨씬 많이 줄어든 것 같다. 나는 더 이상 문법이나 자잘한 표현에 대해 고민하지 않고, 전달하고자 하는 메시지 즉 핵심만을 고민하게 되었다.
마지막으로 GPT 자체의 한계점에 대해 이야기해보자면, prompt에의 의존성이 높다는 것이 (어쩔 수 없지만) 굉장히 불편한 점이다. (이건 사실 한탄에 가깝지만) 내가 일회성이 아닌 무언가 일정한, 반복된 LLM 활용을 하기 위해서는 prompt engineering을 통해 넘겨줄 prefix prompt를 정제해야하는데 이게 설계하는 표준 방법도 없을 뿐더러 수정하기 시작하면 끝도 없다. Evaluation도 기준이 자리잡지 않은 마당에 수정한다고 해서 어떤 게 더 좋아졌는지 파악하기도 쉽지 않다. 정말 모래 속에서 바늘찾기이다. 그럼에도 불구하고 프롬프터로 역할부여, 제어, CoT학습, 포맷팅 규제 등에 대한 내용을 담아야하니 피할 수도 없는 노릇이다.
그럼에도 불구하고 언어 모델들은 다른 어떤 딥러닝 모델들보다 훨씬 사용성이 높고 직무와 무관하게 일반적인 대중들에게도 전파될 수 있는 파급력을 지니고 있다. LLM은 요즈음 뾰족한 모델을 만든다기보다는 대량의 데이터를 때려넣고 전반적으로 모든 일을 보통 이상으로 수행해낼 수 있는 방식으로 학습하는 것이 추세인지라 활용하는 사람 입장에서는 LLM이 잘 할 수 있는 영역에 그를 접목시키는 것을 추천한다. 예를 들어 통제가 필요한 영역이거나, 전문성을 요하는 영역이거나, 한치의 오차를 허용해서는 안되는 영역에서는 LLM을 활용한 서비스 개발이 적합하지 않을 것이다. 하지만 자유성이 어느 정도 허용되고 사람을 대신하는 것이 아닌 보조하는 역할을 수행하게 된다면 높은 효용가치를 형성할 수 있다.
요즈음은 내 손안에 들어오는 작은 LLM 모델을 만들거나 나만의 뾰족한 LLM모델을 fine-tuning한다거나 일반적인 ChatGPT같은 모델로 다양한 영역(예전에 BERT가 인기있었을 때 NLP모델들로 추천시스템을 개발해본다는 등..)에 있는 task들을 수행시켜보는 것이 큰 추세인 것 같다.
아직까지는 GPT 모델의 성능때문에 OpenAI가 확고한 위치를 유지하고 있지만 Meta, Google, AWS의 글로벌 IT기업들에서는 각기 다른 전략을 가지고 LLM 생태계의 리더가 되고자 경쟁하고 있다. 현재 단계에서는 여전히 치킨게임처럼 속도를 내어 누가 먼저 지분을 많이 차지하느냐의 싸움이기 때문에 무질서이고 혼란스러운 상황이지만, 그럼에도 몇몇 사람들은 규칙을 만들고 기준을 바로잡으려고 하고 있다. 그럼에도 아직까지 많은 영역이 블랙박스이고 성능 평가조차 어떻게 해야할지 아이디어가 난무하는 마당이지만, 이 모든 것이 올해부터 시작되었다는 점을 생각한다면 굉장히 속도감있게 변화하고 있는 시장임이 분명하다. 아주 미래에 돌이켜보면 지금 이 순간이 CS역사에서 중요한 전환점임에 틀림없다며 확신하고 있는 사람으로서는 다가올 나날들도 기대된다.
개인으로서는 이 시기를 가장 잘 적응할 수 있는 방법은 흐름을 빠르게 파악하고, LLM을 공적/사적으로 해야할 일에 어떻게 효율적으로 잘 활용할 수 있을지를 계속해서 고민하며 모델을 사용하는 것에 익숙해지는 것이라 생각한다.
'Tech > ML, DL' 카테고리의 다른 글
Secret of Long Context Length (2) | 2023.11.25 |
---|---|
GPT 말 잘듣게 하는 법 - Prompt 작성 팁 (0) | 2023.10.09 |
LLM Evaluation (0) | 2023.08.20 |
Quantization (0) | 2023.08.18 |
W&B Prompts: LLMOps, 언어모델 E2E 대시보드 (0) | 2023.05.01 |