본문 바로가기
IT

ChatGPT 쉽게 알아보기(탄생 배경, 진화 발전 과정, 사람들이 열광하는 이유)

by 파이프라인만들기 2023. 3. 3.

전 세계가 ChatGPT로 떠들썩합니다. 뉴스, 신문의 기사와 각종 SNS만 봐도 IT 관련해서는 ChatGPT 이야기가 주된 관심사인 것을 알 수 있습니다. 이번 글에서는 사람들이 ChatGPT에  열광하는 이유와 탄생 배경, 진화 발전 과정 등을 알아보겠습니다.
 
글의 순서는 다음과 같습니다.

  • 왜 사람들이 ChatGPT에 열광하는가
  • ChatGPT의 탄생 배경
  • ChatGPT의 진화(발전) 과정

 

ChatGPT 자기소개


사람들은 왜 ChatGPT에 열광할까

 
ChatGPT를 한마디로 표현하면 '초거대 언어모델 기반의 생성형 AI 챗봇'입니다.
 
ChatGPT는 사람의 질문과 요청을 이해하고 관련 있는 답변을 생성할 수 있습니다. 그리고 사람과 대화하는 것처럼 문맥을 유지한 상태로 일상언어로 의사소통이 가능합니다.
 
대화의 주제도 제한되지 않고, 사람이 요청하는 것에 따라서 질의응답은 물론, 글짓기, 문장 요약, 번역, 토론 등 다양한 방식으로 답변을 제공합니다.
 
ChatGPT는 작년 11월 말 출시한 이후 두 달 만에 월간 활성 사용자수(MAU)가 1억 명을 돌파했습니다. 이 숫자는 MAU 도달이 가장 빨랐다는 TikTok이 9개월 만에 달성한 숫자라는 것을 감안하면 기록적인 숫자라는 것을 알 수 있습니다.
 
지난 2016년 세계의 바둑 고수들을 이기면서 세간의 화재가 되었던 '알파고'가 후 AI 기술은 엄청난 발전을 이루었습니다. 하지만 일반 대중들이 실제로 체감할 수 있는 기회는 많이 부족했고, 지난 7년간 사람들의 관심에서 멀어졌습니다.
 
ChatGPT가 전 세계적으로 서비스가 되고, 누구나 실제로 사용해 볼 수 있게 되면서 대중들에게 신선한 충격을 줍니다. 사람의 질문에 대한 대답이 실제 사람과 대화하는 것 같은 느낌을 주니 폭발적인 관심을 받게 되었습니다.
 
 

ChatGPT의 탄생 배경

 
2015년에 샘 알트만(현재 ChatGPT의 최고 경영자)은 일론 머스크(테슬라 CEO), 리드 호프먼(링크드인 CEO)과 함께 'OpenAI'라는 비영리 단체를 만듭니다. 이 단체는 Google의 인공지능 독점을 반대하는 사람들의 의기투합이었습니다.
 
OpenAI는 말 그대로 누구나 참여 가능하고, 공유하고, 궁극적으로 인류를 위한 AI 기술 발전을 목표로 시작합니다. 2018년에 GPT-1 모델, 2019년에 GPT-2 모델을 출시했습니다.
 
하지만 AI는 학습을 위해 엄청난 컴퓨팅 파워와 데이터, AI 엔지니어들이 필요합니다. 그 말은 AI를 '공부' 시키기 위해 어마어마한 돈과 자원(인적, 물적)이 필요하다는 의미입니다.
 
샘 알트만은 2019년 7월 OpenAI를 영리법인으로 전환하면서, Microsoft로 부터 10억 달러의 투자를 받게 됩니다. 여기서 투자받은 돈은 대부분 대규모 학습을 위한 인프라에 투입되었고, 약 1년 후부터 가시적인 연구 성과가 발표됩니다.
 
2020년에 GPT-3 버전이 나왔고, 2021년 GPT 기술을 기반으로 한 이미지 생성 AI인 DALL-E, 2022년 초 DALL-E 2가 나옵니다. 그리고 2022년 11월 이후 지금까지 사람들이 열광적은 GPT-3.5 모델의 ChatGPT가 탄생하게 됩니다.
 
 

ChatGPT의 진화(발전) 과정

 
GPT 시리즈는 버전이 올라갈수록 훈련에 사용한 데이터의 양과 모델의 파라미터 수를 증가시키는 방향으로 진화합니다. OpenAI는 모델의 크기를 키워서 다양한 자연어 처리 작업들을 아우르는 사전 훈련 모델을 제공합니다.
 
이 사전 훈련 모델을 통해 개별 태스크를 위한 축 학습이 필요 없는 일반화된 모델을 만들고, 규모가 커질수록 성능이 점점 좋아졌습니다. ChatGPT의 모델인 GPT-3.5는 1,750억 개의 파라미터를 가지고 있습니다.(GPT-2의 파라미터는 15억 개)
 
GPT-3 모델은 웹 텍스트, 책, 위키피디아 등에서 추출한 4,990억 개의 토큰 데이터를 학습했습니다. 데이터 셋의 총합은 754GB 정도 됩니다.
 
처음 GPT-3이 등장했을 때, 사용자가 지시하는 다양한 작업들에 대해 원하는 답을 제시해서 많은 주목을 받았습니다. 하지만 일반 대중들이 사용하기에는 많이 부족한 면이 있었습니다. 질문에 따라 답변 품질 차이가 발생했기 때문입니다.
 
즉, 사용자가 원하는 결과나 답변을 얻기 위해서는 조건에 맞는 질문을 해야 하는데 이 부분이 상당히 까다로웠습니다. 특히 사용방법을 모르는 대부분의 일반인들은 원하는 답변을 위한 질문을 하기가 어려웠습니다.
 
그래서 인간의 피드백을 통한 강화학습인 RLHF(Reinforcement Learning from Human Feedback)를 적용해 최적화된 GPT-3.5 모델을 선보이게 됩니다.
 
RL(Reinforcement Learning, 강화학습)이란 AI가 어떤 행동을 하는 것이 정답인지 모르는 상태에서 현재까지 경험을 기반으로 선택할 수 있는 행동 중 가장 최대의 보상을 가져다주는 선택이 무엇인지 알려주는 학습하는 방법입니다.
 
쉽게 설명하면, 일단 선택과 경험을 해보면서 이를 통해서 실력을 키워나갈 수 있도록 학습하는 방법입니다.
 
RLHF를 통해 사람의 피드백으로부터 강화학습(RL)을 한 GPT-3.5 모델은 인간적인 말투, 문화적인 요소 등을 반영하게 됩니다. 그리고 사람들이 열광하는 ChatGPT로 진화하게 된 것입니다.

댓글