About me
home
Portfolio
home
🎪

SSL 개념

Self-supervised learning(자기주도학습) 의 필요성

하지만 현실에서 데이터 수집,라벨링은 어렵다
→ 이러한 현상을 대응하기 위한 방법으로 비지도학습(Unsupervised learning), 준지도학습(semi-supervised learning)이 등장했다.
자기주도학습(SSL)은 비지도학습 분야에 속하기 때문에 라벨링 되어있지 않은 데이터로 학습을 진행한다.
Pretext task: 사용자가 정의한 새로운 문제. 즉 연구자가 직접 만든 task
ex)
1.
data augmentation으로 얻어진 새로운 patch 이미지들을 기존 이미지의class로 맞추는 문제
2.
입력 이미지에 무작위 noise를 추가한 뒤 원래 이미지를 복원하는 문제
3.
이미지에 9개의 patch를 만들어 순서를 뒤섞은 뒤, 원래 배치를 찾아내는 문제
4.
이미지를 0°, 90°, 180°, 270° 회전시킨 후 얼마나 회전시켜야 원본 이미지가 나오는지를 맞히는 4-class 분류 문제
pretext task를 학습하여 모델은 데이터’자체’에 대한 이해를 높일 수 있고 downstream task를 더 잘 해결할 수 있게 된다.
데이터 자체의 정보를 augmentation하여 이를 supervision으로 만들어 학습시킨다. 이후 downstream task에 가져와 transfer learning을 수행한다.

Contrastive Learning

Positive pair와 Negative pair로 구성된다. Positive pair 끼리는 거리를 좁히고, Negative pair끼리는 거리를 멀리 띄워놓는 것이 학습 원리이다.
같은 image에 서로 다른 augmentation을 가한 뒤, 두 Positive pair의 feature representation은 거리가 가까워지도록 학습하고, 다른 image에 서로 다른 augmentation을 가한 뒤, 두 Negative pair의 feature representation은 거리가 멀어지도록 학습을 시킨다.