About me
home
Portfolio
home

Deep Learning for Anomaly Detection: A Review

링크
연도
2021
인용 수
1635
저널
CSUR
진행도
Wait
코드
키워드
Anomaly Detection
Survey
1.
Deep learning for Feature Extraction
심층 학습을 사용하여 데이터로부터 일반적인 특성을 추출
데이터의 고차원 특성을 저차원 표현으로 변환하는 ‘차원 축소’ 과정을 통해 이상 탐지
특성 추출기로만 사용
2.
Learning Representations of Normality
정상 데이터의 표현적 특성을 학습
특성 추출과 이상 탐지를 구분된 단계로 수행
2.1 Generic Normality Feature Learning
2.1.1 Autoencoders
이상 탐지는 데이터에서 비정상적인 패턴을 식별하는 과정입니다. 자동인코더(Autoencoders, AE)는 이 분야에서 널리 사용되는 심층 학습 기술 중 하나로, 데이터의 저차원 특성 표현 공간을 학습하며, 이를 통해 데이터 인스턴스를 잘 재구성할 수 있습니다. 이 기술은 데이터 압축이나 차원 축소에 주로 사용되며, 이상 탐지에서의 사용은 학습된 특성 표현이 데이터의 중요한 규칙성을 포착하여 재구성 오류를 최소화하도록 강제한다는 휴리스틱에 기반합니다. 결과적으로, 이상 데이터는 재구성이 어렵기 때문에 큰 재구성 오류를 가지게 됩니다.
가정: 정상 인스턴스는 압축된 공간에서 이상 인스턴스보다 더 잘 재구성될 수 있습니다.
AE는 인코딩 네트워크와 디코딩 네트워크로 구성됩니다. 인코더는 원본 데이터를 저차원 특성 공간으로 매핑하는 반면, 디코더는 프로젝트된 저차원 공간에서 데이터를 복구하려고 시도합니다. 이 두 네트워크의 파라미터는 재구성 손실 함수를 사용하여 학습됩니다. 병목 네트워크 구조는 종종 원본 데이터보다 저차원 표현을 얻기 위해 사용되며, 모델이 데이터 인스턴스를 재구성하는 데 중요한 정보를 유지하도록 강제합니다. 전체 재구성 오류를 최소화하기 위해, 유지된 정보는 우세한 인스턴스(예: 정상 인스턴스)와 가능한 한 관련이 있어야 합니다. 결과적으로, 데이터의 대다수에서 벗어난 인스턴스(예: 이상)는 잘 재구성되지 않습니다. 따라서, 데이터 재구성 오류는 이상 점수로 직접 사용될 수 있습니다.
3.
End-to-End Anomaly Score Learning
이상 점수를 직접 학습하여 이상을 판별하는 end-to-end 방식
특성 추출부터 이상 판별까지 모든 과정이 통합적으로 이루어짐
첫번째 유형: 전통적인 AE 사용
이 방식은 AE의 네트워크 구조를 입력 데이터 유형에 따라 조정하여 전통적인 AE 사용 절차를 따른다. Embeds the encoder-decoder scheme into the full procedure of these methods.
706회, 2019
CNN-AE
RNN-Time-series-Anomaly-Detection
chickenbestlover
1180회, 2016
LSTM-AE
두번째 유형: 저차원 표현의 학습 및 예측 First use AEs to learn low-dimensional representations of the complex data and then learn to predict these learned representations.
이 접근법은 먼저 AE를 사용하여 복잡한 데이터의 저차원 표현을 학습한다. 그 다음, 이 학습된 저차원 표현을 기반으로 추가적인 학습이나 예측 작업을 수행한다. AE의 학습과 표현 예측은 종종 별도의 단계로 이루어진다.
116회, 2017
89회, 2015
AE 방식의 단점:
AEs are generally vulnerable to data noise presented in the training data as they can be trained to remember those noise, leading to severe overfitting and small reconstruction errors of anomalies.
그에 대한 해결책을 제시한 것이 아래의 논문
1391회, 2017
디코더를 거치는 이유
따로 찾은 논문
2019, 1192회 인용