▲ 오병태 교수(왼쪽), 쿠툽 우딘 박사과정생(오른쪽)
컴퓨터공학과 오병태 교수 연구팀이 딥페이크(Deepfake·AI를 활용해 이미지를 합성하는 기술) 등 생성형 AI 기술로 조작된 영상을 효과적으로 검출할 수 있는 ‘카운터-안티포렌식’ 기술을 개발했다. 이 기술로는 일반적인 영상 포렌식 기술(조작된 영상이나 임의로 생성된 영상을 검출해내 영상의 진위 여부를 판별하는 기술)로는 검출하기 어려운 생성형 AI 기반 조작 영상의 진위를 가려낼 수 있다.
연구팀이 개발한 솔루션은 다수 생성기 기반의 탐지 기법을 활용해 생성형 AI 기술의 공격을 무력화시킬 뿐만 아니라, 범용적이고 제어 가능한 영상 생성 시스템을 구축해 조작 영상의 패턴 변화를 탐지해낸다. 이 연구결과는 ‘A Robust Open-Set Multi-Instance Learning for Defending Adversarial Attacks in Digital Image’라는 제목의 논문으로 영상 포렌식 분야 최고 권위의 SCIE급 학술지인 IEEE Transactions on Information Forensics and Security(TIFS)에 게재 승인되었다.
연구를 주도한 쿠툽 우딘 박사과정생은 “보편적인 적대적 공격에 대응할 수 있는 포렌식 시스템 설계를 이어가고 있으며 향후 영상 정보의 신뢰도를 높이는 연구를 계속 진행하고 싶다”는 포부를 밝혔다.