About me
home
Portfolio
home

USAD: unsupervised anomaly detection on multivariate time series

링크
연도
2020
인용 수
514
저널
ACM SIGKDD international conference on knowledge discovery & data mining
진행도
Done
키워드
Anomaly Detection
time series
Auto-Encoder
기존 AE-based Anomaly Detection: 이상치가 정상 데이터와 유사하면 reconstruction error가 작아 이상치로 탐지하지 못하는 문제점이 있다.
However, if the anomaly is too small, i.e. it is relatively close to normal data, the reconstruction error will be small and thus the anomaly will not be detected.
기존 GAN-based Anomaly Detection: Mode collapseNon-convergence 문제가 발생할 수 있다.
addressing the problem of collapse and non-convergence mode encountered in GANs.
Mode collapseNon-convergence는 GANs(Generative Adversarial Networks)에서 발생하는 두 가지 주요 문제다.
1.
Mode Collapse: 생성 모델이 다양한 입력 데이터를 반영하는 대신 한정된 유형의 샘플만을 생성하는 경향을 보이는 것을 말한다. 모델이 다양성을 잃고 실제 데이터의 여러 모드(mode)를 포착하지 못하는 상황이다.
2.
Non-convergence: GANs에서는 두 모델, 즉 생성자(generator)와 판별자(discriminator)가 서로 대립하며 학습한다. Non-convergence는 이러한 학습 과정에서 두 모델이 안정적인 학습 상태에 도달하지 못하고 계속해서 변화하는 상태를 가리킨다. 학습이 제대로 수렴하지 않음을 의미하며, 결과적으로 모델의 성능이 제대로 개선되지 않는다.

USAD: Auto EncoderAdversarial Training을 접목하여 한계점을 해결하는 unsupervised multivariate time series Anomaly Detection 모델

훈련 단계

단계 1: AutoEncoder Training

1개의 Encoder와 2개의 Decoder로 구성
하나의 encoder를 공유하는 2개의 AE를 구축한다.
정상데이터의 reconstruction error를 기반으로 학습하여 정상 데이터의 분포를 학습한다.

단계 2: Adversarial Training

AE1generator(생성자) 역할
AE1가 생성한 AE1(W)는 비정상 데이터가 된다
AE2가 AE1이 만든 생성 데이터의 reconstruction error최소화하도록 한다.
AE2 discriminator(판별자) 역할
AE1가 생성한 비정상 데이터와 실제 정상 입력 데이터를 구별할 줄 알아야 한다.
AE2가 AE1이 만든 생성 데이터의 reconstruction error 최대화하도록 한다.

Loss function

AE1을 train하여 AE2를 속일 수 있는 데이터를 생성.(실제와 비슷한 데이터를 생성하도록 학습)
AE2를 train하기 위해 입력값으로 AE1의 output(AE(W))을 사용 → AE2가 실제 데이터와 가상 데이터(이상 데이터)인 AE1(W)를 구분하도록 학습
Loss 함수의 n값을 변화시켜 training 시킨다. (n = epoch 값)
초기 단계에서는 autoencoder의 reconstruction 능력을 위해 첫번째 항에 가중치를 주고
후반 단계에서는 adversarial training을 위해 두번째 항에 가중치를 주어 이상 탐지 능력을 향상시킨다.

추론 단계

다음 식과 같이 anomaly score를 산출하여 이상 여부를 추론한다.