본문 바로가기

분류 전체보기11

[논문 리뷰] Exploiting BERT for End-to-End Aspect-based Sentiment Analysis 기존의 Sentiment Analysis(감성 분석)은 문장 전체를 보고 문장이 긍정인지 부정인지 분류하는 형태로 진행된다. 그러나, 이는 문장 내에 다중 속성이 내포되어 있더라도 하나의 속성만을 도출한다는 단점이 있다. 예를 들어, "이 종목의 매출액은 증가하였지만 영업이익은 감소했다."라는 문장은 종목의 매출액에 대한 속성은 긍정을 나타내고, 영업이익에 대한 속성은 부정을 나타낸다. 그러나, 기존의 Sentiment Analysis 방식을 사용하는 경우에는 해당 문장에 대한 매출액, 영업이익에 대한 속성을 모두 긍정 혹은 부정으로 판별해야 되는 단점이 있다. 본 논문에서는 이러한 문제를 해결하기 위해 BERT-E2E-ABSA 모델을 제안하였고, 2019년에 EMNLP에서 발표한 논문이다. Introd.. 2023. 2. 13.
[논문리뷰] BERT : Pre-training of Deep Bidirectional Transformers for Language Understanding Abstract BERT는 최초의 bi-directional(or non-directional) 방법으로 사전 훈련된 언어 모델이다. BERT는 대용량 unlabeled data로 모델을 미리 학습 시킨 후, 특정 task의 labeled data로 transfer learning을 하는 모델로서 self-supervised learning을 사용하여 단어와 문맥의 깊은 의미를 학습한다. Pretrain 후 모델은 최소한의 조정으로 다양한 작업과 다양한 데이터 세트에 맞게 조정할 수 있다. BERT는 특정 task를 처리하기 위해 새로운 network를 붙일 필요 없이, BERT 모델 자체의 fine-tuning을 통해 해당 task의 SOTA를 달성했다고 한다. Introduction Language .. 2023. 1. 25.
[Docker] Docker에서 Jupyter Notebook 사용 Jupyter notebook Image Pull https://hub.docker.com/r/jupyter/datascience-notebook/ docker pull jupyter/datascience-notebook Docker hub.docker.com Docker Container 생성 (Jupyter Notebook) docker run \ --name jupyter-notebook \ -e GRANT_SUDO=yes \ --user root \ -p 8800:8888 \ -d \ -it \ jupyter/datascience-notebook --name : 컨테이너 이름 -e : jupyter notebook 에 root 권한 할당 --user : 컨테이너에 root 권한 할당 -p : 호스.. 2022. 12. 23.
[논문 리뷰] ATTENTION IS ALL YOU NEED (2017) Seq2Seq 모델 Encoder에서 압축한 context vector는 전체 입력 시퀀스 데이터가 길어질 경우 문장 앞 부분에 대한 정보 손실이 발생한다. (long term dependency problem) 이를 해결하기 위해 Attention mechanism이 나왔고, 현재 대부분의 언어 모델이 TransFormer 모델 기반이라고 해도 과언이 아닐만큼 언어 모델의 한 획을 그은 논문이라고 생각한다. 해당 논문은 2017년 Neural Information Processing Systems (Neural IPS)에서 발표된 논문이며, Google Brain과 Google Research 그룹에서 발표한 논문이다. Abstract RNN, 특히 LSTM과 GRU는 sequence modeling과.. 2022. 12. 7.