AI versus AI in Financial Crimes & Detection: GenAI Crime Waves to Co-Evolutionary AI
진화하는 AI 금융 범죄의 실태
생성형 AI 기술의 발전으로 금융 사기 수법이 더욱 지능화되고 있다. 프린스턴 대학교와 블랙록(BlackRock) 연구진의 보고서에 따르면, 생성형 AI로 인한 금융 사기 피해액은 2027년까지 현재의 4배 수준으로 증가할 것으로 전망된다. 연간 증가율은 30%를 웃돌 것으로 예측됐다.
특히 음성 복제, 딥페이크, 합성 신분증 등 생성형 AI 기술을 활용한 새로운 유형의 금융 범죄가 급증하고 있다. 일례로 음성 복제 기술은 불과 몇 초 분량의 음성 샘플만으로도 본인 인증 시스템을 우회할 수 있을 정도로 발전했다. 이러한 위험성 때문에 일부 AI 기업들은 음성 복제 도구의 공개를 자제하고 있는 상황이다.
미 연방거래위원회(FTC)에 따르면 2023년에만 사기꾼 사칭으로 인한 피해액이 27억 달러, 소셜미디어를 통한 사기가 14억 달러, 암호화폐 관련 사기가 14억 달러에 달했다. 특히 주목할 만한 점은 이러한 사기 피해가 고령층뿐만 아니라 20-29세 젊은 층에서도 급증하고 있다는 것이다.
AI 범죄 조직의 진화
금융 범죄 조직들은 이미 ‘Crime-as-a-Service(CaaS)’ 형태의 비즈니스 모델을 구축하고 있다. 인터폴(INTERPOL)의 2024년 보고서에 따르면, 이들 조직은 기술 기업처럼 운영되며 AI 기술에 대규모로 투자하고 있다. 범죄 조직들은 실리콘밸리의 기술 기업들처럼 최신 AI 기술을 빠르게 도입하고 있어 ‘범죄형 실리콘밸리’로 불리고 있다.
특히 WormGPT, FraudGPT 등 범죄에 특화된 AI 모델이 등장했으며, 이들은 시스템 취약점 발견, 악성코드 작성, 피싱 이메일 생성 등에 활용되고 있다. 또한 ‘Money-Laundering-as-a-Service’와 같은 새로운 형태의 범죄 서비스도 등장했는데, 이는 고객이 지불하는 비용에 따라 다양한 수준의 자금 세탁 서비스를 제공한다.
금융권의 AI 대응 현황과 과제
금융 기관들은 범죄 조직에 비해 AI 도입이 더딘 상황이다. 모델 거버넌스 프로세스가 길고, AI 인재 확보와 투자가 제한적이다. 미국 재무부는 2024년 보고서를 통해 “현재의 금융 서비스 리스크 관리 프레임워크로는 새롭게 등장하는 AI 기술에 대응하기 어렵다”고 지적했다.
많은 금융기관들이 AI를 여전히 후선업무로 인식하고 있으며, 일부 기관에서는 규칙 기반의 구식 시스템을 계속 사용하고 있다. 이는 기술 전문가 채용 부족과 제한된 투자로 이어지고 있다. 특히 최근의 비용 절감 추세는 금융 범죄 탐지 분야의 AI/ML 투자를 더욱 위축시키고 있다.
AI 기반 대응 방안
전문가들은 금융권이 AI 기반의 범죄 탐지 시스템에 대한 투자를 확대하고, AI 모델 관리 프로세스를 현대화할 필요가 있다고 조언한다. 특히 그래프 AI/ML 기술은 개별 거래나 행동 패턴이 아닌 네트워크 수준에서 이상 징후를 포착할 수 있어 효과적인 대응 방안으로 주목받고 있다.
또한 금융 기관 간 데이터 공유와 협력을 통한 공동 대응의 중요성도 강조되고 있다. 실제로 2024년 싱가포르에서는 6개 은행과 통화청이 자금 세탁과 테러 자금 조달 방지를 위한 데이터 공유 협약을 체결했다.
마지막으로 자기규제 AI와 규제 AI의 도입이 필요하다는 의견도 제기되고 있다. 이를 통해 빠르게 진화하는 범죄 AI 시스템에 대응하면서도 규제 준수와 리스크 관리를 효과적으로 수행할 수 있을 것으로 기대된다.
기사에 인용된 리포트 원문은 링크에서 확인할 수 있다.
기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.
관련 콘텐츠 더보기