본문 바로가기

Paper review7

[논문 리뷰] Exploiting BERT for End-to-End Aspect-based Sentiment Analysis 기존의 Sentiment Analysis(감성 분석)은 문장 전체를 보고 문장이 긍정인지 부정인지 분류하는 형태로 진행된다. 그러나, 이는 문장 내에 다중 속성이 내포되어 있더라도 하나의 속성만을 도출한다는 단점이 있다. 예를 들어, "이 종목의 매출액은 증가하였지만 영업이익은 감소했다."라는 문장은 종목의 매출액에 대한 속성은 긍정을 나타내고, 영업이익에 대한 속성은 부정을 나타낸다. 그러나, 기존의 Sentiment Analysis 방식을 사용하는 경우에는 해당 문장에 대한 매출액, 영업이익에 대한 속성을 모두 긍정 혹은 부정으로 판별해야 되는 단점이 있다. 본 논문에서는 이러한 문제를 해결하기 위해 BERT-E2E-ABSA 모델을 제안하였고, 2019년에 EMNLP에서 발표한 논문이다. Introd.. 2023. 2. 13.
[논문리뷰] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding Abstract BERT는 최초의 bi-directional(or non-directional) 방법으로 사전 훈련된 언어 모델이다. BERT는 대용량 unlabeled data로 모델을 미리 학습 시킨 후, 특정 task의 labeled data로 transfer learning을 하는 모델로서 self-supervised learning을 사용하여 단어와 문맥의 깊은 의미를 학습한다. Pretrain 후 모델은 최소한의 조정으로 다양한 작업과 다양한 데이터 세트에 맞게 조정할 수 있다. BERT는 특정 task를 처리하기 위해 새로운 network를 붙일 필요 없이, BERT 모델 자체의 fine-tuning을 통해 해당 task의 SOTA를 달성했다고 한다. Introduction Language .. 2023. 1. 25.
[논문 리뷰] ATTENTION IS ALL YOU NEED (2017) Seq2Seq 모델 Encoder에서 압축한 context vector는 전체 입력 시퀀스 데이터가 길어질 경우 문장 앞 부분에 대한 정보 손실이 발생한다. (long term dependency problem) 이를 해결하기 위해 Attention mechanism이 나왔고, 현재 대부분의 언어 모델이 TransFormer 모델 기반이라고 해도 과언이 아닐만큼 언어 모델의 한 획을 그은 논문이라고 생각한다. 해당 논문은 2017년 Neural Information Processing Systems (Neural IPS)에서 발표된 논문이며, Google Brain과 Google Research 그룹에서 발표한 논문이다. Abstract RNN, 특히 LSTM과 GRU는 sequence modeling과.. 2022. 12. 7.
[논문 리뷰] Sequence to Sequence Learning with Neural Networks (2014) 자연어 논문을 리뷰하기 위해 차례대로 논문 리뷰를 진행하려고 한다. 우선 가장 먼저 Seq2Seq 라고 불리는 Google에서 발표한 Sequence to Sequence Learning 논문부터 리뷰를 진행하기로 했다. Abstract 기존의 Deep Neural Networks는 고정 길이의 벡터 차원만 학습이 가능하기에, 일반적으로 길이가 다른 sequence에 적용이 어려웠다. 거의 대부분의 input text length는 일정하지 않고 서로 다르므로 Sequence to Sequence Learning 논문에서는 다층의 Long-Short-Term Memory (LSTM) 아키텍처를 통해 end-to-end 방법을 사용하여 sequence 학습을 가능하게 한다. LSTM을 통해 input se.. 2022. 9. 25.