한국소식 한국의 최신 소식을 전합니다.
한국소식2024-02-05 10:24:22
0 5 0
[IT/과학] "네가 진짜인걸 증명해봐"… 신원확인·인증 못믿는 세상 온다
내용

입력2024.02.05. 오전 9:02  수정2024.02.05. 오전 9:03

 

이미지투데이
생성형 AI(인공지능)을 이용한 딥페이크 공격으로 2026년쯤이면 기업의 30%가 기존 신원확인 및 인증 솔루션을 믿지 못하게 될 것이라는 전망이 나왔다.

5일 글로벌 시장 조사기구 가트너에 따르면 아키프 칸(Akif Khan) 가트너 VP 애널리스트는 "지난 10년간 AI분야는 수많은 변곡점을 거치며 합성 이미지 생성이 가능해졌고 이렇게 인공적으로 생성된 실존 인물의 얼굴 이미지는 딥페이크로 잘 알려져 있다"며 "악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다"고 밝혔다.

또 "결과적으로 조직은 인증 대상자의 얼굴이 실제 사람인지, 딥페이크인지 구분할 수 없다"며 "신원확인 및 인증 솔루션의 신뢰도에 의문을 제기하기 시작할 것"이라고 전망했다.

현재 얼굴 생체인식을 이용한 신원확인 및 인증 절차는 사용자의 진위여부 평가를 위해 PAD(프리젠테이션 공격 탐지) 기술을 활용 중이다. PAD는 공격자가 사진, 영상, 가짜지문 등을 이용해 이용자를 사칭하는 것을 탐지하는 데 쓰인다. 그러나 이 역시 그대로 믿기 어려울 것이라는 게 칸 애널리스트의 설명이다.

그는 "PAD 메커니즘을 정의하고 평가하는 현재의 기준 및 테스트 프로세스는 최신 AI 생성 딥페이크를 이용한 디지털 인젝션 공격을 구분해내지 못한다"고 했다. 사용자 입력값을 조작해 악의적 코드를 삽입하는 공격을 인젝션 공격이라고 한다. AI 딥페이크 기술의 발달로 이제는 기존 PAD 기술 뿐 아니라 IAD(인젝션 공격 탐지) 및 이미지 검사 기술도 함께 써야 할 때가 온다는 지적이다.

가트너는 "얼굴 생체인식을 넘어선 AI 딥페이크로부터 기업을 보호하기 위해서는 CISO(최고정보보안책임자)와 위험관리 리더들이 어떤 공급업체를 선택하는지가 중요하다"며 "현재의 표준을 뛰어넘는 역량 및 계획을 갖추고 새로운 유형의 공격을 모니터링, 분류, 정량화할 수 있는 공급업체를 선택해야 할 것"이라고 했다. 

또 "특히 아이디(ID) 및 액세스(접속) 관리를 담당하는 보안 및 위험관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 할 것"이라고 했다. 

 

황국상 기자 (gshwang@mt.co.kr)

스크랩 0
편집인2024-06-25