연구/Deepfake로부터 안전한 사진 변환 서비스2 Adverserial attack - FGSM & PGD Adverserial attack(적대적 공격)이란 Adverserial attack의 의미 Adverserial attack이란 딥러닝 모델의 내부적 취약점을 이용해 만든 특정 노이즈값을 이용해 의도적으로 오분류를 이끌어내는 입력값을 만들어내는 것이다. 이때 만들어지는 입력값을 "적대적 예제(Adverserial Example)"이라고 하며 이 조작된 입력값은 딥러닝 모델을 속여 공격에 취약하게 한다."특정 노이즈 주입 -> 적대적 예제 생성(잘못된 입력 주입) -> 모델 속임" 예컨대 위처럼모델이 57.7%의 confidence로 "panda"라고 인식한 그림에 어떠한 noise를 주입하면,사람의 눈에는 그대로 "panda"로 보이지만 모델은 99.3%의 confidence로 "gibbon"으로 인식.. 2025. 3. 31. [논문 리뷰]Deepfake Detection: A Systematic Literature Review https://hwijugn.notion.site/Deepfake-Detection-A-Systematic-Literature-Review-1c170ca2d94780e59c6cd89f0e4c1186?pvs=4 Deepfake Detection: A Systematic Literature Review | NotionA. Introhwijugn.notion.site 2025. 3. 28. 이전 1 다음