🎯 핵심 3줄 요약
- 에든버러·케임브리지·스트래스클라이드 대학이 사이버범죄 포럼의 AI 관련 대화 9만 7천 건을 분석한 결과, 해커 커뮤니티에서도 AI 생성 저품질 게시물(AI 슬롭)에 대한 반발이 급증했다
- “AI 똥글 좀 그만”, “난 인간이랑 얘기하러 왔다” — 실제 포럼 게시글에서 발견된 원성이다
- 연구진은 “AI가 해킹의 진입장벽을 낮추거나 기존 범죄 비즈니스 모델을 교란했다는 증거는 아직 없다”고 결론 내렸다
- 현재까지 실제 영향은 SEO 사기·로맨스 스캠 등 이미 자동화된 영역에 국한된다
- 해커들조차 인간 관계와 진짜 실력을 중시한다는 아이러니가 이 연구의 백미다
📑 이 글에서 다룰 내용
- 해커 포럼에서 무슨 일이 벌어지고 있나
- 9만 7천 건의 대화가 말해주는 것
- 실제 포럼에서 발견된 원성들
- AI가 해킹을 바꾸지 못한 결정적 이유
- AI 범죄가 실제로 영향을 준 영역
- 해커들도 결국 사람이다
🕵️ 해커 포럼에서 무슨 일이 벌어지고 있나
사이버범죄 포럼은 수십 년간 해커·사기꾼들이 거래하고 정보를 공유하는 공간이었습니다.
그런데 챗GPT 출시 이후 이곳에서도 AI 생성 게시물이 폭증했고, 기존 멤버들의 반발이 거세지고 있습니다.
“AI 똥글 좀 그만 올려라”, “AI 챗봇이랑 대화하고 싶으면 딴 데 가라, 난 인간이랑 얘기하러 왔다” 같은 원성이 쏟아지고 있죠.
💡 이 섹션 한 줄: AI 슬롭은 일반 인터넷을 넘어 지하 해커 포럼까지 오염시켰고, 그곳에서도 퇴출 대상이 되고 있다.
📊 9만 7천 건의 대화가 말해주는 것
에든버러 대학의 벤 콜리어 연구원과 케임브리지·스트래스클라이드 대학 공동 연구팀은 2022년 챗GPT 출시 이후 사이버범죄 포럼의 AI 관련 대화 97,895건을 추적했습니다.
초기엔 “AI로 해킹을 배울 수 있다”는 기대감이 있었지만, 시간이 흐를수록 냉소와 거부감으로 바뀌었습니다.
특히 기본적인 사이버보안 개념을 AI로 생성한 불릿포인트 요약글이 포럼을 도배하면서 커뮤니티 분위기가 급격히 나빠졌습니다.
💡 이 섹션 한 줄: 9만 7천 건 대화 분석 결과, 해커 커뮤니티의 AI 인식은 ‘기대 → 실망 → 거부’로 변화했다.
💬 실제 포럼에서 발견된 원성들
Hack Forums에서 실제로 발견된 게시글들을 보면 분노의 수위가 상당합니다.
“회원들이 AI로 게시물을 작성하는 게 너무 열 받는다, 문장 한두 줄 직접 쓰는 게 그렇게 어렵냐”부터 “AI 게시물 자동 생성기가 도입되면 포럼이 AI끼리 대화하는 쓰레기장이 될 거다”까지 다양합니다.
연구진은 한 가지 흥미로운 지점을 발견했습니다.
해커들은 돈만 벌려는 게 아니라 관계도 원한다는 사실입니다.
AI 게시물은 그들의 평판 시스템과 인간적 유대를 동시에 훼손합니다.
💡 이 섹션 한 줄: 해커 포럼의 AI 반발은 단순한 품질 불만이 아니라 커뮤니티 정체성과 인간 관계를 지키려는 저항이다.
🧪 AI가 해킹을 바꾸지 못한 결정적 이유
연구의 핵심 결론은 의외로 담백합니다.
AI는 해킹의 진입장벽을 낮추지 못했고, 범죄 비즈니스 모델을 교란하지도 않았다는 겁니다.
플래시포인트의 이안 그레이 부사장은 “고급 위협 행위자들은 상용 모델의 가드레일 한계를 이미 알고 있고, 포럼에서 유통되는 AI 생성 프로젝트에는 취약점·약점이 숨어 있어 오히려 기반 인프라를 노출시키기도 한다”고 설명합니다.
즉 진짜 해커들은 AI 코드를 맹신하지 않고 오히려 경계합니다.
💡 이 섹션 한 줄: AI는 해킹 실력의 숏컷이 되지 못했으며, 전문가일수록 AI 생성 코드의 위험을 더 잘 인지한다.
🎯 AI 범죄가 실제로 영향을 준 영역
연구진이 확인한 AI의 실질적 범죄 영향력은 의외로 좁고 뻔한 영역에 집중돼 있습니다.
SEO 사기, 소셜미디어 봇, 일부 로맨스 스캠처럼 이미 자동화가 진행된 영역에서만 AI가 효율을 높였습니다.
가장 정교한 AI 범죄 활용 사례는 딥페이크 얼굴 스와핑 기술을 통한 로맨스 사기와 AI 번역을 이용한 사회공학적 공격 정도입니다.
💡 핵심 인사이트
AI 범죄에 대한 공포는 과대평가됐다.
정작 연구가 증명한 건 AI가 기존 자동화 범죄의 효율을 높였을 뿐, 전혀 새로운 유형의 위협을 만들어내지 못했다는 점이다.
기술은 도구일 뿐, 결국 중요한 건 그 도구를 쓰는 인간의 의도와 맥락이다.
⚠️ 주의 — 이 함정 조심
“AI가 해킹을 민주화한다”는 서사는 아직 실증적 근거가 없다.
다만 이 연구는 중저급 범죄자 대상이라는 한계가 있으므로, 국가 지원 해킹 그룹의 AI 활용은 별도 분석이 필요하다.
해커가 AI를 안 써서가 아니라, AI만으로는 부족하다는 해석이 더 정확하다.
👤 해커들도 결국 사람이다
이 연구의 진짜 백미는 숫자나 통계가 아니라 해커들의 인간적인 단면입니다.
“기술 실력을 인정받고 싶다”, “인간 관계를 맺고 싶다”, “커뮤니티의 품질을 지키고 싶다” — 이건 일반 인터넷 사용자와 다를 바 없는 욕구입니다.
AI 슬롭이 모두를 짜증나게 하는 보편적 현상이라는 점을, 뜻밖의 집단이 가장 솔직하게 증명한 셈이죠.
💡 이 섹션 한 줄: AI 슬롭에 대한 거부감은 일반인과 해커를 가르지 않는 보편적 현상이며, 모두가 진짜 인간 연결을 원한다.
❓ 자주 묻는 질문
Q1.
해커들이 AI를 아예 안 쓰는 건가요?
아닙니다.
고급 해커들은 가드레일 없는 자체 모델이나 탈옥(jailbreak) 기법으로 AI를 활용하지만, 포럼의 초보자들이 AI로 생성한 저품질 게시물에는 거부감을 보입니다.
Q2.
AI가 해킹에 전혀 도움이 안 되나요?
취약점 탐지나 악성코드 생성 보조에는 일부 유용합니다.
다만 연구는 “진입장벽을 획기적으로 낮추거나 범죄 생태계를 재편했다는 증거는 없다”고 결론 내렸습니다.
Q3.
앞으로 AI 범죄는 어떻게 변할까요?
딥페이크·AI 음성복제 같은 사회공학적 공격은 더 정교해질 가능성이 높습니다.
하지만 AI가 초보자를 하루아침에 해커로 만드는 시나리오는 현실성이 낮다는 게 연구진의 판단입니다.
