IBM X-Force Threat Intelligence Index 2025
사이버 위협 환경이 빠르게 진화하면서 공격자들은 이제 인공지능(AI)을 무기로 삼고 있다. IBM이 발간한 ‘IBM X-Force Threat Intelligence Index 2025’에 따르면, 생성형 AI(Generative AI)는 단순한 자동화 도구를 넘어 해커들의 전략적 도구로 자리 잡고 있다. 보고서에 따르면 위협 행위자들은 AI를 활용해 피싱 이메일을 자동 생성하거나 악성 코드 작성, 웹사이트 제작, 심지어 딥페이크(Deepfake)를 포함한 사회공학 공격에까지 사용하고 있다.
이처럼 AI가 위협 도구로 활용되면서 기존의 보안 대응 방식만으로는 방어가 어려워지고 있다. AI는 공격 규모와 속도를 확대할 뿐만 아니라 정교함까지 더하고 있어, 공격자의 입장에서 ‘빠르고 값싼’ 침투 수단이 되고 있다. 특히 조직 내부에서 AI 도입이 확대되는 만큼 AI 기술 자체가 공격의 표적이 되는 경우도 늘고 있다. IBM은 최근 활발히 사용되는 오픈소스 AI 프레임워크에서 원격 코드 실행(RCE) 취약점을 발견했으며, 이는 교육, 생명과학, 암호화폐 산업까지 다양한 분야에 영향을 미쳤다.
피싱, 더 은밀해지고 더 정교해지다
2024년 한 해 동안 피싱을 통한 인포스틸러(Infostealer) 악성코드의 주간 유포량은 전년 대비 84% 증가했으며, 2025년 초 기준으로는 180%까지 급증한 것으로 나타났다. 이러한 피싱 공격은 더 이상 단순한 이메일 사기 수준이 아니다. 보고서는 피싱을 통해 수집한 계정 정보를 활용해 정식 로그인처럼 위장한 침입이 대세가 되고 있다고 밝혔다. 공격자는 고전적인 ‘해킹’ 대신 실제 사용자 자격증명을 활용해 시스템에 접근하는 방식으로 보안 시스템을 회피한다.
특히 클라우드 기반 인프라를 악용한 피싱이 급증하고 있다. 보고서는 공격자가 secureserver.net, publiccloud.com.br, Microsoft Azure Blob Storage와 같은 주요 퍼블릭 클라우드 서비스를 악용해 악성 PDF와 URL을 대규모로 배포하고 있다고 경고했다. 이와 같은 공격은 도메인 신뢰도를 이용해 피해자가 링크를 클릭하도록 유도하고, 보안 시스템이 악성 여부를 판단하기 전에 피해가 발생할 수 있도록 만든다. IBM은 이런 공격에 대응하려면 시간 민감형 위협 인텔리전스와 다중 방어 체계를 활용해야 한다고 조언한다.
자격 증명 도용이 1차 침입 수단으로 부상
2024년 기준, 사이버 공격자들이 가장 많이 사용한 초기 침입 벡터는 ‘유효한 계정 사용’과 ‘공개된 애플리케이션 취약점 악용’으로 각각 전체 사건의 30%를 차지했다. 이는 공격자들이 시스템을 ‘부수는(hack)’ 대신 ‘로그인’하는 추세가 지속되고 있음을 보여준다.
IBM X-Force는 다크웹에서 수집한 데이터를 분석한 결과, 인증정보 탈취 도구의 판매량이 전년 대비 12% 증가했으며, Lumma, RisePro, Vidar, Stealc, RedLine 등의 인포스틸러가 가장 활발히 거래된 것으로 나타났다고 밝혔다. 이들 악성코드는 설치 후 백그라운드에서 화면 캡처, 키 입력 감지, 암호 탈취 등 다양한 기능을 수행하며, 공격자에게 시스템에 대한 장기적인 접근 권한을 제공한다.
이러한 경향은 자격 증명 기반 공격이 전체 침입의 30%를 차지한 통계와도 일치한다. 특히 위협 행위자들은 AI를 활용해 피싱 이메일을 자동화하고 대규모로 배포함으로써 이러한 인증정보 탈취 활동을 더욱 확산시키고 있다.
AI 도입 가속화, 보안 취약성도 함께 커진다
AI 도입이 늘면서 새로운 사이버 위협의 표적이 되고 있다. 보고서에 따르면 2024년 기준 기업의 72%가 최소한 하나의 비즈니스 기능에 AI를 도입했으며, 이는 전년도 대비 55% 증가한 수치다. 하지만 이에 반해 보안은 따라가지 못하고 있다. IBM은 생성형 AI 프로젝트 중 보안이 적용된 경우는 24%에 불과하다고 지적했다.
공격자들은 AI 모델 학습에 사용되는 데이터, 모델 자체, 이를 구동하는 MLOps 플랫폼까지 전방위적으로 노리고 있다. 특히 MLOps 플랫폼은 대형언어모델(LLM)이나 생성형 AI 서비스를 개발·운영하는 핵심 인프라이기 때문에 공격자들에게 매력적인 표적이다.
보고서는 AI 보안을 강화하기 위해 AI 개발 초기 단계부터 보안 설계를 포함해야 하며, AI 파이프라인 전반(데이터, 모델, 인프라)에 대한 보호 체계를 마련해야 한다고 강조했다. 또한 AI 프로젝트에 참여하는 외부 공급자의 역할과 책임을 명확히 규정하고, AI 거버넌스를 기반으로 윤리적 기준을 함께 수립하는 것이 중요하다고 덧붙였다.
해당 기사에서 인용한 리포트 원문은 링크에서 확인할 수 있다.
이미지 출처: IBM
기사는 클로드와 챗GPT를 활용해 작성되었습니다.