논문 : https://arxiv.org/abs/1810.04805제목 : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 발행일자 : Thu, 11 Oct 2018 저자: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova자료 출처 : https://arxiv.org/abs/1810.04805총평 :BERT는 MLM(Masked Language Model) + NSP(Next Sentence Prediction)로 이루어진사전 학습(Pre-trained)과 개인 작업에 맞는 얇은 선형 레이어를 최종 벡터에 추가하는 Fine-tuning의 기술들이 들어..