Neural Networks/Interpretable AI(3)
-
Accurate Intelligible Models with Pairwise Interactions (2013)
논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다 Author: Yin Lou, Rich Caruana, Johannes Gehrke, Giles Hooker 최근 $\mathrm{GA^2M}$이라는 흥미로운 키워드를 발견했습니다. 2013년 KDD 19th에서 발표된 논문이며 최근 eXAI에서 종종 활용되고 있습니다. 1. Introduction 기계학습 분야의 모델들은 다양한 형태의 데이터셋에서 좋은 예측 성능을 보여줌으로써 주목받고 있습니다. 하지만, 꽤 많은 모델의 경우, 주어진 임의의 데이터 샘플 $x\in \mathbb{R}^{n}$의 각 변수(이미지의 경우 픽셀)로부터 목표 $y$를 예측하기 위해 얼마나 많은 기여도를 전달받았는지 직접적으로 알 수 없습니다...
2022.12.23 -
Neural Additive Models: Interpretable Machine Learning with Neural Nets
논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다 Author: Rishabh Agarwal, Levi Melnick, Nicholas Frosst, Xuezhou Zhang, Ben Lengerich, Rich Caruana, Geoffrey Hinton Neural Additive Models, 줄여서 NAM은 심층신경망의 해석가능성을 제시한 논문입니다. NAM을 읽고 난 후, 이게 될까 싶었는데 실제로 해보니 어느정도 괜찮은 성능을 보였습니다. Official code는 TF1.x로 구현되었으며, 제 깃허브를 참조하시면 TF2.x도 사용할 수 있습니다. https://github.com/merchen911/NAM GitHub - merchen911/NAM: Neur..
2022.03.01 -
[리뷰]TabNet: Attentive Interpretable Tabular Learning (2021)
논문에 대한 오역, 의역등이 다수 포함되어 있습니다. 댓글로 많은 의견 부탁드립니다 Author : Sercan O. Arık, Tomas Pfister Copyright © 2021, Association for the Advancement of Artificial Intelligence 논문 링크 TabNet은 제안과 별개로 몇가지 이슈가 존재합니다. 먼저, TabNet은 효과적인 학습을 위해 Batch Normalization을 개선한 Ghost Batch Normalization(GBN)을 도입했습니다. 하지만 virtual batch size로 입력한 크기가 batch size를 나눌 수 있는 숫자여야 한다는 제약과 별개로, 학습에 사용하는 training set도 virtual batch si..
2021.01.19