적대적 샘플(Adversarial Examples)이란 공격자에 의해 의도적으로 딥러닝 시스템을 속이기 위해 교묘하게 제작된 결과물(output) 입니다. Machine intelligence 는 날이 갈수록 진화하고 있으며, 보다 정교하고 다양한 물체를 인간처럼 인식하는 것은 물론 인간과 상호작용하는 많은 어플리케이션들이 개발되었습니다. 하지만, 딥러닝(Deep Learning) 분야에서는 여전히 풀지못하는 난제 중 하나가 일반화(Generalization) 문제입니다. Generalization이란, 딥러닝에 의해 구축된 시스템이 다양한 도메인(domain)에 잘 적응될 수 있는 능력을 일컫는데요, 예를 들어, 다음과 같은 두 개의 강아지 이미지가 있을 때 인간은 두 개의 이미지가 Style 정보는 ..