Adversarial Learning
모델은 두 가지 경쟁적인 목표를 가집니다. 판별기(Discriminator, DDDD)는 입력된 특징이 광학 도메인인지 SAR 도메인인지 정확히 맞추려 하고, 인코더(Encoder, EnEnEnEn)는 판별기를 속여서 두 도메인의 특징이 구분되지 않게(도메인 불변, Domain-Invariant) 만들려 합니다.
\[\mathcal{L}_{\text{DIR}}(\text{En}, D, X_{\text{optical}}, X_{\text{SAR}}) = E_{x_{\text{optical}} \sim X_{\text{optical}}}[\log D(\text{En}(x_{\text{optical}}))] + E_{x_{\text{SAR}} \sim X_{\text{SAR}}}[\log(1 - D(\text{En}(x_{\text{SAR}})))]\]$LDIR$: 도메인 불변 표현(Domain-Invariant Representation)을 위한 손실 함수입니다.
$xoptical,xSAR$: 각각 광학 도메인과 SAR 도메인의 샘플입니다.
$En(⋅)$: 인코더가 추출한 이미지의 피처(특징)입니다.
$D(⋅)$: 판별기가 해당 피처를 ‘광학’이라고 판단할 확률입니다 (보통 광학은 1, SAR는 0으로 레이블링).
$E[logD(En(xoptical))]$: 판별기가 광학 샘플을 광학으로 잘 분류할 때 커지는 항입니다.
$E[log(1−D(En(xSAR)))]$: 판별기가 SAR 샘플을 SAR로 잘 분류할 때 커지는 항입니다.
GRL (Gradient Reversal Layer)
일반적인 적대적 학습은 판별기와 인코더를 번갈아 가며 학습시켜야 해서 복잡합니다. 이를 해결하기 위해 Unsupervised Domain Adaptation by Backpropagation에서 제안된 GRL을 사용하면 한 번에(End-to-End) 학습이 가능합니다.
순전파(Forward process): 아무런 변화 없이 입력을 그대로 다음 층으로 전달합니다 (Identity transform). 즉, 판별기는 도메인을 분류하는 학습을 정상적으로 수행합니다. 역전파(Backpropagation): 판별기에서 계산된 기울기(Gradient)가 인코더로 전달될 때, 식 (6)과 같이 음수 $-\alpha$ 를 곱하여 방향을 반대로 바꿉니다.
\[\hat{g} = -\alpha \cdot g.\]- g: 판별기에서 계산된 원래의 기울기입니다.
- $-\alpha$: 이렇게 기울기가 반전되면, 인코더는 판별기의 손실을 최소화하는 것이 아니라 최대화하는 방향으로 업데이트됩니다. 결과적으로 인코더는 도메인을 구분할 수 없는 피처를 생성하게 됩니다.
H-divergence
H-divergence는 두 확률 분포 사이의 거리를 측정하는 척도로, 특히 Unsupervised Domain Adaptation (UDA) 분야의 이론적 토대를 마련한 Ben-David 등의 연구에서 제안되었습니다.통계학적인 거리 척도(예: $L^{1}$ distance)는 계산이 매우 어렵거나 고차원 데이터에서 정의하기 까다롭지만, H-divergence는 주어진 가설 공간(Hypothesis space) H 내의 분류기(Classifier)가 두 도메인의 샘플을 얼마나 잘 구별하는지를 통해 간접적으로 거리를 측정합니다.
\[d_H(\mathcal{S}, \mathcal{T}) = 2 \sup_{h \in H} \left| Pr_{x \sim \mathcal{S}}[h(x)=1] - Pr_{x \sim \mathcal{T}}[h(x)=1] \right|\]즉, 두 도메인을 완벽하게 구분할 수 있는 최적의 분류기가 존재할수록 H-divergence는 커지고, 어떤 분류기로도 두 도메인을 구분할 수 없을 때(Domain-invariant 할 때) H-divergence는 최소화됩니다.
[ \mathcal{L}{\text{DIR}}(\text{En}, D, X{\text{optical}}, X_{\text{SAR}}) = E_{x_{\text{optical}} \sim X_{\text{optical}}}[\log D(\text{En}(x_{\text{optical}}))] + E_{x_{\text{SAR}} \sim X_{\text{SAR}}}[\log(1 - D(\text{En}(x_{\text{SAR}})))]. ]