분류 전체보기(13)
-
Ubuntu에서 boost.python 설치
python 3.6 root 기준입니다. root가 아니신 분들은 sudo를 앞에 붙여주세요. wget https://boostorg.jfrog.io/artifactory/main/release/1.77.0/source/boost_1_77_0.tar.gz tar -xvf boost_1_77_0.tar.gz cd boost_1_77_0 ./bootstrap.sh --with-python=/usr/bin/python3 --with-python-version=3.6 --with-python-root=/usr/bin/python3.6 ./b2 --enable-unicode=ucs4 install Ref) https://int-i.github.io/cpp/2020-09-19/ubuntu-boost/
2021.08.18 -
Jupyter terminal에서 tab completion 활성화
리눅스상에서 환경변수로 SHELL이 /bin/bash를 잡도록 설정해주면 됩니다. export SHELL=/bin/bash bashrc를 편집해도 작동합니다.
2021.08.18 -
Unsupervised Scalable Representation Learning for Multivariate Time Series (2019)
최근 시계열쪽을 연구할 기회들이 생겨 관련 논문들을 읽고 있습니다. 본 논문은 그 중 하나로써 시계열을 효과적으로 embedding 하는 방법을 제안합니다. 최근 kaggle의 g2net에도 참가중이며, noise가 가득한 데이터셋에서 의미가 있는 sequence를 탐지하는 대회입니다. 시계열 대회이기 때문에 본 논문을 적용해봤습니다만, 논문만 보자면 잘 될 것 같은데 사용해보니 잘 안되네요. 방법은 좋은 것 같으며 citation 횟수도 높은편이라 리뷰를 준비했습니다. 논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다. Author: Jean-Yves Franceschi, Aymeric Dieuleveut, and Martin Jaggi NIPS, 2019 논문링크 A..
2021.07.31 -
도커에서 주피터랩 설치하기
본문은 python3와 pip3가 설치되어있는 것을 전제합니다. 터미널상의 입력은 >>> 로 표시하겠습니다. 1. 필요한 패키지를 설치합니다. >>> pip install -u pip jupyterlab==2.2.8 jedi==0.17.2 2. 주피터 설정 파일을 생성합니다. >>> jupyter lab --generate-config 3. 주피터 암호를 설정해야합니다. 최근 암호화폐를 채굴하기 위해 무작위 서버에 접근하여 채굴하는 피해사례가 있습니다. 저도 간단한 암호로 사용하다가 채굴당했기 때문에 긴 암호를 권장합니다. 먼저 ipython을 입력하시면 아래와 같이 In [1] : 로 표시되는 파이썬이 실행됩니다 >>> ipython In [1] : from notebook import auth In ..
2021.07.20 -
KGCN: Knowledge Graph Convolutional Networks for Recommender Systems (2019)
이번에 리뷰할 논문은 Knowledge Graph Convolutional Network입니다. Knowledge graph는 일반적인 graph와 달리 node 또는 vertex를 연결하는 edge가 단순한 수치로 표현하기 어려운 관계를 갖는 high-order graph를 의미합니다. 논문은 Knowledge graph에 기반하여 recommendation system을 구성할 때 사용할 수 있는 방법을 제안합니다. 논문은 간단한 graph의 사전 지식을 요구합니다. 하지만 machine learning에 관심이 있으신 분들이라면 크게 무리 없이 읽으실 수 있을 것 같습니다. 논문 정리를 위해 논문으로부터 그림 및 알고리즘을 스크랩합니다. 논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 ..
2021.05.12 -
Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting (2021)
Transformer를 사용한 Time Series Forecasting 모델입니다. Transformer는 Attention을 사용하여 Sequence data를 처리하는 모델이며 자연어에서 큰 성과를 보였고 다양한 방면으로 뻗어나가는 모델입니다. 저자는 Transformer의 구조를 유지하며, $y_t$~$y_{t+n}$를 예측하기 위해 $y_{t-k}$~$y_{t-1}$의 시계열을 사용하는 구조를 제안합니다. 또한 몇가지 개선사항을 논문을 통해 제시했습니다. 내용은 어려운 부분들이 없으며, Transformer에 대해 궁금하신 분들은 다른 블로그를 먼저 참고해주세요. 논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다. Author : Haoyi Zhou, Shang..
2021.04.10