Slow is better than NOTHING

pytorch 2

[PyTorch] 적대적 공격(Adversarial Attack) - FGSM/PGD

적대적 공격(Adversarial Attack)은 딥러닝 모델의 내부적 취약점을 이용하여 만든 특정 노이즈(Noise or Perturbation)값을 이용해 의도적으로 오분류를 이끌어내는 입력값을 만들어내는것을 의미합니다. 적대적 공격으로 특별히 machine learning system을 속이기 위해 제작된 입력 값을 적대적 예제(Adversarial Example)라고 하며, 대표적인 공격 방법으로 FGSM(Fast Gradient Sign Method), PGD(Projected Gradient Descent) 방법이 있습니다. 두 개의 공격은 주어진 모델의 Weight값을 이용해 Gradient값을 계산하여 입력값을 조작할 수 있다는 점에서 생성된 적대적 예제는 해당 모델의 'Worst-case..

[Object Detection] Object Detection 튜토리얼 - SSD300 Implementation

지금까지, Object detection 모델 중 SSD 에 대한 기본적인 이해와 어떻게 학습이 되는지에 대해 알아보았습니다. 이번 포스트에서는 실제 Object detection model 인 SSD를 pytorch 를 이용해 구현해보고 내부 프로세스에 대해 자세히 알아보도록 하겠습니다. Dataset dataset 으로는 Pascal Visual Object Classes (VOC) data를 사용합니다. 2007, 2012 모델 모두 사용가능합니다. VOC dataset은 다음과 같은 20개의 class로 이루어져있습니다. {'aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtabl..

반응형