AI 시대의 크립토 보안: 자동화되는 공격과 진화하는 방어 체계

AI 시대의 크립토 보안: 자동화되는 공격과 진화하는 방어 체계

AI는 현재 취약점 공격 실행 측면에서 탐지보다 2배 더 뛰어난 성능을 보이고 있으며, AI 기반 공격 비용은 컨트랙트당 1.22달러에 불과합니다. 이 비용은 두 달마다 추가로 22%씩 낮아지고 있습니다. 플랫폼이 지금부터 AI에 대한 진지한 투자를 집행하지 않는다면, 공격자는 방어자보다 더 빠르게 확장될 수 있습니다.

AI 기반 사기는 기존 사기보다 4.5배 더 높은 수익성을 보이고 있으며, 2025년에는 사칭 전술이 전년 대비 1,400% 급증했습니다. 전 세계에서 탐지된 딥페이크 사기 사례 중 88%가 크립토 부문에서 발생했습니다.

금융기관의 75%는 금융 범죄 탐지를 위한 AI 지출을 추가로 늘릴 계획입니다. JP모건의 AI 시스템은 약 15억 달러 규모의 사기 손실을 방지한 것으로 추정되며, 바이낸스의 고도화된 탐지 시스템은 2025년부터 2026년 1분기까지 105억 3,000만 달러 규모의 피해를 차단했습니다.

테더는 현재까지 44억 달러 이상의 자금을 동결했으며, T3 Financial Crime Unit은 출범 첫해에만 3억 달러를 동결했습니다. 거래소 차원의 AI 탐지와 결합된 이러한 다층적 모델은 순수 전통 금융 인프라만으로는 대응하기 어려운 회수 공백을 줄이고 있습니다.


AI 기반 위협의 산업화

금융 범죄 환경은 새로운 단계에 진입했습니다. Nasdaq Verafin은 전 세계 불법 금융 활동 규모가 2023년 이후 1조 3,000억 달러 증가해 2025년에는 4조 4,000억 달러에 도달했다고 추정합니다. 이는 연평균 19.2%의 성장률이며, 상당 부분은 범죄 네트워크가 AI를 무기화해 사기 수법을 산업화한 결과입니다. 크립토는 이러한 변화의 중심 경로에 놓여 있습니다.

장기적으로 보면 DeFi 해킹 규모는 2020년 36억 달러에서 2025년 10억 달러로 꾸준히 감소했으며, 2026년 현재까지 주요 CEX 대상 공격은 성공하지 못했습니다. 그러나 2026년 4월 월간 DeFi 해킹 규모는 6억 2,100만 달러로 급증했습니다. 이는 2022년 3월 이후 최고치입니다. 이는 위협이 사라진 것이 아니라 형태를 바꾸고 있음을 보여줍니다. 이러한 공격의 66%는 손상된 접근 제어에서 비롯되었으며, 사회공학과 DNS 공격이 주요 전술로 나타났습니다.

그림 1: DeFi와 CeFi를 대상으로 한 표적 공격은 꾸준히 감소해왔습니다.

현재 공격의 경제성은 공격자에게 유리합니다. AI 기반 공격은 평균적으로 컨트랙트당 약 1.22달러의 비용만 들며, 이 비용은 두 달마다 추가로 22%씩 하락할 것으로 예상됩니다. 이는 대규모 자동 스캐닝의 진입장벽을 급격히 낮추고 있습니다. GPT-5.3-Codex는 EVMbench의 exploit 모드에서 72.2%의 성공률을 기록한 반면, detect 성공률은 그 절반 수준에 그쳤습니다.

Hacken의 SSDLC Maturity Survey에 따르면 현재 개발자의 80% 이상이 개발 과정에서 AI를 사용하지만, 고급 테스트에 AI를 활용하는 비율은 40% 미만입니다. 이는 공격과 방어 사이의 격차가 구조적으로 불균형하다는 점을 보여줍니다.

그림 2: 모델은 EVMbench에서 탐지보다 공격 실행에서 더 높은 점수를 기록했습니다.

사기 또한 동시에 증가했습니다. Chainalysis는 2025년 크립토 사기 규모가 전년 대비 30% 증가한 170억 달러에 이를 것으로 전망했습니다. AI 기반 사기는 건당 4.5배 더 많은 금액을 탈취하고, 9배 더 많은 거래 활동을 발생시킵니다. 이는 딥페이크, 피싱 봇, 가짜 플랫폼, 음성 복제, 채팅 앱 전반의 사칭 행위를 강화하고 있습니다.

사칭 전술만 놓고 보더라도 전년 대비 1,400%라는 급격한 증가세를 보였습니다. 업계 응답자의 약 60%는 2025년 위험 노출 증가의 주요 원인으로 범죄자의 AI 활용 증가를 지목했습니다.

크립토는 이 부담을 불균형적으로 많이 지고 있습니다. 현재 크립토 부문은 전 세계에서 탐지된 딥페이크 사기 사례의 88%를 차지하며, 북미에서만 2025년 상반기 딥페이크 관련 손실이 4억 1,000만 달러를 초과했습니다. Deloitte는 생성형 AI 기반 금융 서비스 사기가 2027년까지 연간 400억 달러 규모에 이를 수 있다고 전망합니다.

AI 기반 리스크 관리

우리가 원하든 원하지 않든, AI는 현재 탐지보다 공격 실행에서 2배 더 뛰어난 성능을 보이고 있습니다. 플랫폼은 선제적이면서도 사후 대응이 가능한 체계를 동시에 갖출 수밖에 없습니다. 관련 지출 역시 이러한 현실을 반영하고 있습니다. 글로벌 금융 서비스 부문의 AI 지출은 2025년 약 580억 달러에 도달했으며, 2027년에는 970억 달러에 이를 것으로 예상됩니다.

금융 산업은 다른 많은 산업보다 AI를 더 시급하게 필요로 합니다. 금융 산업은 빠른 속도, 대규모 처리량, 지속적인 공격, 엄격한 규제 압력 속에서 운영되기 때문입니다. 이에 따라 실시간 인텔리전스는 경쟁력뿐 아니라 보안 측면에서도 필수 요소가 되고 있습니다. 미국 인구조사국에 따르면 금융 및 보험 부문의 AI 사용률은 33%로, 미국 전체 평균인 20%를 크게 상회합니다.

그림 3: 금융 부문은 평균 산업보다 빠르게 AI를 도입하고 있습니다.

Nasdaq Verafin의 2026 Global Financial Crime Report에 따르면 금융기관의 75%는 금융 범죄 탐지를 위한 AI 활용을 늘릴 계획입니다. 또한 세계 최대 은행들은 향후 1년 동안 AI 투자를 추가로 20% 늘릴 예정입니다. 전통 금융의 사례는 대규모 환경에서 이미 무엇이 가능한지 보여줍니다. JP모건체이스의 AI 기반 사기 탐지 시스템은 의심스러운 활동을 실시간으로 식별하고 차단함으로써 약 15억 달러 규모의 손실을 방지한 것으로 추정됩니다.

가상자산 거래소도 같은 방향으로 움직이고 있습니다. 바이낸스는 컴플라이언스 전반에 걸쳐 24개 이상의 AI 이니셔티브를 구축했으며, 100개 이상의 AI 모델이 사기 방지 통제를 지원하고 있습니다. 이를 통해 불법 자금 노출을 96% 줄였습니다. 바이낸스가 자체 구축한 리스크 및 사기 탐지 도구인 Strategy Factory는 비즈니스 맥락을 반영한 최적화, 모듈형 규칙 구성, 지속적인 개선을 결합해 더 정밀하고 적응력 있는 리스크 탐지를 제공합니다. 이는 사용자 보호를 강화하는 데 기여합니다.

많은 사기 사례에서는 기기, 자금 흐름, 콘텐츠, 행동, 의도 등 여러 차원의 이상 징후를 함께 탐지해야 효율적으로 사기를 식별할 수 있습니다. P2P 환경에서는 자금 흐름만 따로 보면 완전히 정상처럼 보일 수 있습니다. 대화 신호와 행동 데이터를 결합해야만 사기가 드러나는 경우가 많습니다.

플랫폼이 해커의 직접적인 피싱 공격 자체를 완전히 막을 수는 없습니다. 그러나 노출 범위는 줄일 수 있습니다. 다중 인증, 생체 기반 패스키, 안티피싱 코드, AI 기반 행동 모니터링 등이 대표적입니다. 예를 들어 평소와 다른 지역에서의 빠른 로그인 시도, 반복적인 로그인 실패, 일반적인 사용자 행동에서 벗어난 대규모 결제 등을 감지할 수 있습니다. 출금 단계에서도 머신러닝 기반 보호 계층을 추가해 행동이 비정상적으로 바뀔 경우 외부 송금을 중단할 수 있습니다.

거래소는 한 단계 더 나아가 피싱 상황을 사전에 시뮬레이션하거나 피싱 및 사기 신호를 선제적으로 식별할 수 있습니다. 바이낸스의 시뮬레이션 기법은 피싱률을 3.2%에서 0.4%로 낮췄습니다. 이는 8배 개선된 결과입니다.

2025 회계연도, 즉 2025년 11월 종료 기준으로 바이낸스의 고도화된 탐지 시스템은 540만 명의 사용자를 대상으로 66억 9,000만 달러 규모의 사기 및 스캠 시도를 차단했습니다. 또한 36,000개 주소를 블랙리스트에 올렸고, 매일 9,600건 이상의 실시간 팝업 경고를 발송했습니다.

2026년 1분기에는 2,290만 건의 스캠 및 피싱 시도가 차단되었습니다. 이는 전분기 대비 54%, 전년 대비 209% 증가한 수치입니다. 이를 통해 19억 8,000만 달러 규모의 사용자 자금이 보호되었습니다. 보호된 자금 규모는 전년 대비 7% 증가했지만, 전분기 대비로는 30% 감소했습니다. 이는 계절적 요인을 반영합니다. 휴가 기간과 소비 지출 증가는 사기꾼에게 유리한 환경을 만들기 때문입니다. 누적으로 보면 2025년부터 2026년 1분기까지 총 105억 3,000만 달러 규모의 사용자 손실이 방지되었습니다.

그림 4: 바이낸스는 2026년 1분기에 더 많은 사용자 자금을 보호하고 더 많은 사기 시도를 차단했습니다.

적극적 방어 계층으로서의 스테이블코인 발행사

거래소를 넘어, 스테이블코인 발행사 자체도 이제 직접적인 집행 역할을 수행하고 있습니다. 스테이블코인은 불법 거래에서 큰 비중을 차지하게 되었으며, 전체 불법 온체인 거래량의 84%를 차지합니다. 그러나 동시에 스테이블코인은 전통 금융 인프라에는 없는 고유한 장점도 제공합니다. 발행사가 프로토콜 수준에서 오염된 자금을 동결할 수 있다는 점입니다.

그림 5: 불법 활동에서 스테이블코인 사용 비중은 시간이 지남에 따라 증가했습니다.

시장 내 두 선도 사업자는 상당히 다른 접근법을 취하고 있습니다. ERC-20 기준으로만 보더라도 USDT는 USDC보다 거의 18배 더 많은 자금을 블랙리스트에 올렸습니다. TRC-20까지 포함하면 격차는 더 커집니다. 테더는 보다 적극적인 관점을 취하고 있으며, 법 집행기관 및 블록체인 인텔리전스 기업과 직접 협력하고 있습니다. 2026년 4월 기준으로 현재까지 44억 달러 이상을 동결했습니다. 반면 Circle은 일반적으로 사법 명령이나 규제 제재에 대응하는 방식으로 움직입니다.

민관 협력은 이러한 집행 우위를 더욱 강화하고 있습니다. T3 Financial Crime Unit은 테더, TRON, TRM Labs가 2024년 말 공동으로 출범시킨 이니셔티브입니다. 이 조직은 운영 첫해에 전 세계적으로 3억 달러 이상의 범죄 자산을 동결했으며, 여기에는 Bybit 해킹과 관련된 1,900만 달러도 포함됩니다.

전통 금융과의 수렴: 카드 사기와 KYC

전통 금융과 CeFi가 수렴하면서 거래소는 점점 더 법정화폐 카드 서비스를 제공하고 있습니다. 이로 인해 거래소는 은행들이 수십 년간 대응해온 동일한 사기 패턴과 직접 마주하게 되었습니다.

카드 사기에서 AI의 장점은 속도입니다. AI는 밀리초 단위로 반응하고, 새로운 사기 패턴으로부터 지속적으로 학습하며, 규칙 기반 시스템을 보완합니다. 전통 금융의 벤치마크는 참고할 만합니다. Mastercard의 생성형 AI 강화 Decision Intelligence 플랫폼은 손상된 카드 탐지에서 오탐을 최대 200%까지 줄였고, 위험 가맹점 식별 속도를 300% 높였습니다.

바이낸스의 법정화폐 카드 리스크 의사결정에서 자체 AI 모델 도입률은 2025년 4분기 41%에서 2026년 1분기 57%로 상승했습니다. 그 결과 바이낸스의 사기율은 업계 경쟁사보다 약 60~70% 낮은 수준을 기록하고 있습니다.

그림 6: 바이낸스의 카드 사기율은 추정 업계 벤치마크 대비 1:2.86 수준입니다.

KYC는 가장 큰 공격을 받는 영역으로 부상했습니다. 바이낸스를 대상으로 한 공격의 약 80%는 일정 수준의 KYC 사기를 포함하고 있으며, 이는 더 넓은 업계 패턴과도 일치합니다. 공격 방식은 빠르게 진화해왔습니다. 물리적 마스크에서 정적 사진 스푸핑으로, 다시 딥페이크 영상과 합성 얼굴 교체로 발전하고 있습니다.

바이낸스의 KYC Face Attack 및 Liveness Detection 모델은 이러한 새로운 세대의 공격에 대응하기 위해 지속적으로 진화하고 있습니다. 방어뿐 아니라 운영 측면에서도 KYC 처리에 AI를 적용함으로써 처리 효율이 향상되었습니다.

책임 있는 AI의 우선순위

생산성과 편의성을 높이기 위해 플랫폼 전반에서 AI 도구가 확산되면서, 이는 악의적 행위자에게 새로운 진입 지점을 만들 수 있습니다. 안전성은 처음부터 시스템 아키텍처 안에 구축되어야 합니다.

최근 주요 거래소들이 도입하고 있는 에이전트형 도구는 사용자가 시장 분석을 수행하고, 트랜잭션을 실행하며, 자동화 전략을 배포할 수 있게 해줍니다. AI 에이전트가 관리하는 자금은 메인 계정과 분리되어 있으며, 에이전트에는 제한된 거래 권한만 부여됩니다. 출금 권한은 없습니다. 또한 사용자는 접근 권한을 유연하게 조정할 수 있습니다. 보수적인 사용자는 현물 거래 권한만 부여하고, 레버리지, 선물, 차입은 금지할 수 있습니다.

에이전트는 정의된 스킬 허브를 통해 작동합니다. 내부적으로는 에이전트 스킬이 설치되기 전에 심사를 거칩니다. 악성 스킬 패키지가 점점 더 흔해지고 있기 때문입니다. Koi Security의 보안 연구자들은 OpenClaw의 ClawHub 마켓플레이스에서 제공되는 2,857개 스킬 중 341개가 악성 항목이라는 점을 확인했습니다. 이는 전체 레지스트리의 약 12%에 해당합니다.

향후 전망

AI 기반 해킹은 초기 웹 시대에 인터넷 기반 위협이 부상했던 흐름과 유사합니다. 당시 업계는 어렵게 교훈을 얻었습니다. 방어는 다층적으로 설계되어야 하고, 위협 인텔리전스는 기관 간에 공유되어야 하며, 보안은 사후에 덧붙이는 것이 아니라 시스템에 기본값으로 내장되어야 합니다. 이 교훈은 지금의 AI 기반 위협에도 그대로 적용됩니다.

AI 기반 범죄의 규모는 전례 없는 수준입니다. 그러나 대응 또한 그만큼 강해지고 있습니다. 글로벌 금융 서비스 기업들은 기록적인 AI 투자를 집행하고 있으며, 가상자산 거래소는 전통 금융 수준의 엄격성을 따라가고 있습니다. 민관 협력은 익명성이 강한 온체인 범죄조차 추적하고, 동결하고, 회수할 수 있음을 보여주고 있습니다.

이 군비 경쟁은 끝나지 않을 것입니다. 그러나 역사는 산업계, 법 집행기관, 기술 제공업체 간의 단호한 협력이 빠르게 진화하는 위협조차 통제 가능한 수준으로 가져올 수 있음을 보여주었습니다. 앞으로 1~2년은 이러한 협력이 얼마나 빠르게 확장되는지에 따라 결정될 것입니다.