본문 바로가기

Paper review7

[논문 리뷰] A Deep Reinforcement Learning Library for Automated Stock Trading in Quantitative Finance https://paperswithcode.com/ 에서 Finance를 검색했을 때, FinRL이 가장 상위에 있어, 호기심을 갖게 되었고 해당 논문을 리뷰하기로 함. 1. Introduction 최근에 Deep Reinforcement Learning이 점점 더 많이 사용되고 있는데, 주식 거래에 있어서 실용적인 Deep Reinforcement Learning 에이전트를 학습 및 개발시키려면 많은 시간과 비용이 발생하며, 오류가 나기도 쉬움. 이를 위해 SOTA의 DRL 알고리즘들(DQN, DDPG, PPO, SAC, A2C, TD3, etc)을 fine-tuning 하여 라이브러리 형태로 제공하여 사용자들이 오랜 시간 힘든 개발 과정을 거치지 않고 쉽고 빠르게 DRL 알고리즘을 통해 자신만의 Sto.. 2022. 9. 24.
[논문 리뷰] Massive Multi-task Representations with Pre-Finetuning 1. Abstract Language Model Pre-Training • unlabeled dataset을 활용한 학습 방법 • 대표적으로 문장에서 특정 단어를 맞추는 방식으로 Unspervised Learning • ELMO, BERT 등등 Multil-task learning • 여러 Task의 Labeled Dataset을 활용하여 1개의 모델 Supervised Learning • 장점 : 1. 지식 공유 : Task 1을 학습하면서 얻은 정보가 다른 연관 Task들에 좋은 영향을 줌 2. 과적합 방지 : 여러 task들을 학습하면서 보다 일반화된 특징(generalized representation)을 학습 3. 계산 효율성 : 동시에 학습하기 때문에 계산 비용이 적다 4. 다양성 : 현실에서.. 2022. 9. 24.
[논문 리뷰] Detext : A Deep Text Ranking Framework with BERT 1. Introduction LinkedIn의 Search & Recommendation Ecosystem에 들어가는 아키텍쳐는 아래와 같은 모습으로서 엄청나게 많은 엔진들이 하루에 수천만번 검색이 이루어지는 대형 포털사이트에서 돌아간다. 최근의 BERT같은 자연어 모델은 분명 NLP에서 뛰어난 성과를 보이고 있지만, 검색 시스템에 직접 적용하기에는 BERT 모델의 높은 계산 비용으로 인해 매우 큰 부담이다. 그래서 링크드인에서는 직접 다양한 사례를 연구해서 BERT를 기반으로 모델을 구축하는 검색 시스템의 Ranking 시스템 프레임워크 DeText를 소개하고, 또한 인기 있는 NLP 모델에 새로운 기능을 부여하는 방법을 설명한다. DeText를 사용하면 사용자는 작업 유형에 따라 NLP 모델을 교환하.. 2022. 9. 22.