Neural Networks/Time Series(4)
-
SCINet: Time Series is a Special Sequence: Forecasting with Sample Convolution and Interaction
논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다 Author: Minhao Liu, Ailing Zeng, Zhijian Xu, Qiuxia Lai, Qiang Xu SCINet은 시계열 예보를 위해, Binary Tree 구조와 CNN unit를 활용한 forecasting 방법입니다. 모델의 성능은 링크와 같이 ETT (Electricity Transformer Temperature) dataset에서 매우 우수한 성능을 보여줍니다. Official code는 pytorch로 구현되었으며, tensorflow로 구현한 코드도 있습니다. 1. Introduction 시계열 예보(Time series forecasting)를 위한 방법들은 지속적으로 연구되고 있습니다...
2021.12.14 -
SOM-VAE: Interpretable Discrete Representation Learning On Time Series
논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다 Author : Vincent Fortuin, Matthias Hüser, Francesco Locatello, Heiko Strathmann, Gunnar Rätsch International Conference on Learning Representations (ICLR 2019) [paper link] 논문은 Tensorflow 1으로 구현되었고 [link], pytorch version으로도 implementation되어있지만 [torch link], TF 1은 다루기가 힘들고 torch version은 잘못 구현된 부분이 존재함을 확인했습니다. 따라서 저자의 구현을 바탕으로 TF 2로 migration했고, 해당..
2021.08.25 -
Unsupervised Scalable Representation Learning for Multivariate Time Series (2019)
최근 시계열쪽을 연구할 기회들이 생겨 관련 논문들을 읽고 있습니다. 본 논문은 그 중 하나로써 시계열을 효과적으로 embedding 하는 방법을 제안합니다. 최근 kaggle의 g2net에도 참가중이며, noise가 가득한 데이터셋에서 의미가 있는 sequence를 탐지하는 대회입니다. 시계열 대회이기 때문에 본 논문을 적용해봤습니다만, 논문만 보자면 잘 될 것 같은데 사용해보니 잘 안되네요. 방법은 좋은 것 같으며 citation 횟수도 높은편이라 리뷰를 준비했습니다. 논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다. Author: Jean-Yves Franceschi, Aymeric Dieuleveut, and Martin Jaggi NIPS, 2019 논문링크 A..
2021.07.31 -
Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting (2021)
Transformer를 사용한 Time Series Forecasting 모델입니다. Transformer는 Attention을 사용하여 Sequence data를 처리하는 모델이며 자연어에서 큰 성과를 보였고 다양한 방면으로 뻗어나가는 모델입니다. 저자는 Transformer의 구조를 유지하며, $y_t$~$y_{t+n}$를 예측하기 위해 $y_{t-k}$~$y_{t-1}$의 시계열을 사용하는 구조를 제안합니다. 또한 몇가지 개선사항을 논문을 통해 제시했습니다. 내용은 어려운 부분들이 없으며, Transformer에 대해 궁금하신 분들은 다른 블로그를 먼저 참고해주세요. 논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다. Author : Haoyi Zhou, Shang..
2021.04.10