1.GPT란? GPT는 "Generative Pre-trained Transformer"의 약자로, 전이학습(pre-training)과 트랜스포머(Transformer) 아키텍처를 기반으로 합니다. 전이학습이란, 대규모의 데이터셋을 사전에 학습시켜 놓은 모델을 다른 작업에 활용하는 기술을 말합니다. 이렇게 사전 학습된 모델을 미세 조정(fine-tuning)하여 새로운 작업에 적용할 수 있습니다. GPT 모델도 먼저 대규모의 텍스트 데이터셋을 학습시켜 놓고, 이후에 다른 자연어 처리 작업에 활용할 수 있습니다. 트랜스포머 아키텍처는 주로 자연어 처리 분야에서 사용되는 딥러닝 모델입니다. 이 모델은 RNN(Recurrent Neural Network)이나 CNN(Convolutional Neural Net..