'동전 양면성' 생성형AI, 해커조직이 악성코드를 심는다면...

  • 등록 2025.08.19 17:12:23
크게보기

러-우 전쟁 중 LLM 악용한 악성코드 발견...기존 시그니처 보안체계 무력화
AI 신뢰 훼손하는 적대적 공격, 모델 역추론 공격, 데이터 오염 공격 등 유형
명령어 기반 LLM 패턴 탐지 체계 강화, 별도 모니터링 AI 도입 강화 움직임

 

최근 미국에서 가상의 13세 청소년이 챗GPT를 통해 ‘자살편지를 작성해달라’고 요구한 실험에서, 실제 이 요구가 수락돼 논란이 되고 있다. 또한 우크라이나 국가사이버보안센터(CERT-UA)는 러시아의 사이버공격을 분석하던 중 ‘레임허그(LameHug)’라는 새로운 유형의 악성코드를 발견했다. 이처럼 생성형 AI는 사용자 의도에 따라 악용될 가능성을 보여주는 대표적인 사례다. 


레임허그 악성코드는 러시아 지지 해킹조직 APT28이 거대언어모델(LLM)을 직접 통합한 최초의 공개 악성코드다. 이 레임허그는 기존 시그니처 기반 탐지를 무력화하고, 탐지 회피 능력도 강화됐다는 점에서 더욱 우려가 커지고 있다.

 

◇레임허그, 새로운 위협 대응할 방향성 제시

레임허그 악성코드는 실행 시 Qwen 2.5-Coder-32B-Instruct 모델과 연동해 공격자가 자연어 프롬프트를 입력하면 LLM이 이를 실행가능한 시스템 명령으로 변환해 준다. Qwen 2.5-Coder는 알리바바 클라우드의 Qwen팀이 개발한 LLM 시리즈 Qwen 2.5의 코드 버전이다.

 

이 악성코드를 실행하게 되면 공격자는 공격 대상자 정찰 및 데이터 유출을 신속하게 자동화할 수 있으며, 실제 하드코딩된 페이로드(핵심 데이터) 없이 맞춤형 명령을 생성할 수 있다.


레임허그의 운영 체인에는 시스템 열거에서부터 포괄적인 호스트 정보 수집, CPU 이름 및 속도, 메모리 용량, 디스크 드라이브 모델, 네트워크 인터페이스 구성의 하드웨어 사양, 테스크 리스크 프로세스 목록 등 네트워크 세부 정보가 포함된다. 이 과정에서 사용자, 컴퓨터, 그룹, OU, 사이트, 서비스, 도메인의 사용자 및 도메인 정보를 수집하게 된다.


이 멀웨어는 침투한 공격자의 컴퓨터에서 문서, 바탕화면, 다운로드 등 사용자 디렉터리에서 민감한 문서를 재귀적으로 검사해 공격자가 제어하는 인프라로 유출되도록 조치한다.

 

이 멀웨어는 외부 LLM API(응용프로그램 인터페이스)에 의존해 악성코드 주입 취약점이나 코드 난독화를 위한 API 남용 등 새로운 위험을 초래한다. 하지만 이는 기본 윈도(Windows) 바이너리를 활용해 합법적인 활동으로 인지, 백신에서 제대로 인지하기가 어렵다. 해킹그룹이 이 멀웨어를 악용할 경우 더 큰 사회적 혼란을 일으킬 수 있어 우려가 나오고 있다.

 

◇AI 기반 위협, 피해자 환경에 맞춤형 공격도 가능

 

이 레임허그 악성코드는 AI 언어모델과 실시간 악성코드 명령 실행 간의 운영 통합 사례가 최초로 공식화된 경우다. 따라서 이번 레임허그 캠페인은 악성코드의 위협 방향성과 이에 대항하는 백신 개발에 있어 중요한 이정표가 될 예정이다.


해킹조직 APT28의 공격은 기 검증된 스피어피싱, 신뢰할 수 있는 계정 침해, 합법적인 인프라 남용 공격 기법을 그대로 유지해 오면서 일정 부분 대응할 수 있는 패턴을 보였다. 하지만 이번에 새롭게 발견된 레임허그의 LLM 접목은 악성코드 공격에 있어 민첩성을 가미한 만큼 위험부담은 더욱 커질 수밖에 없다.


이 악성코드의 공격 명령은 AI에 의해 공격 대상자(피해자)의 시스템의 환경에 따라 즉석에서 자체적으로 시스템을 파악하고 이에 맞는 공격 명령을 구성한다. 따라서 안티바이러스나 패턴 기반 탐지 백신에서 사용 가능한 고정된 서명이 없어 정적 분석이 무의미할 수밖에 없다.


특히 AI의 신뢰성과 정확성을 훼손할 수 있는 공격 유형을 꼽아보면 △AI의 눈을 속이는 ‘적대적 공격(Adversarial Attack)’ △AI가 알고 있는 것을 캐내는 ‘모델 역추론 공격(Model Inversion)’ △AI의 판단력을 흐리는 ‘데이터 오염 공격(Data Poisoning)’이 대표적이다.

 

보안 전문기업 이글루코퍼레이션에 따르면 ‘적대적 공격’은 입력 데이터에 아주 미세한 변형(노이즈)을 일으켜 AI가 잘못된 판단을 내리도록 유도하는 공격 기법이다. 또 ‘모델 역추론 공격’은 AI가 학습한 데이터를 역으로 추론해, 환자의 얼굴 사진, 의료기록 등 민감 정보를 복원하는 공격이다. 마지막으로 ‘데이터 오염 공격’은 AI가 학습하는 데이터에 악성 정보를 의도적으로 삽입해 모델의 판단 능력을 왜곡시키는 공격이다.


기존 TTP(Tactics·Techniques·Procedures, 전술·기술·절차)와 생성형 AI를 결합해 새로운 공격 양상을 보여준 APT28 해킹그룹에 대응하기 위해서는 AI에 기반한 사이버 공격을 예측하고 이에 대항하는 방법을 찾는 과제를 안게 됐다.

 

 

◇생성형AI 기반 공격, 어떻게 대응하나


이 같은 새로운 유형의 공격에 대응하기 위해서는 우선 사용자의 시스템에서 사용 중인 애플리케이션이 다른 시스템에 데이터나 서비스를 요청하는 과정인 API 호출을 실시간으로 모니터링해야 한다. 또 이 레임허그 악성코드는 중국계 기업인 알리바바가 개발한 LLM인 만큼 알리바바의 엔진 패턴을 분석해 정확한 작동방법을 파악하는 것이 중요하다.


조직 내 시스템이 외부 AI 플랫폼과 통신하는 이례적인 API 호출을 실시간 탐지해야 한다. 둘째, 명령어 실행 기반의 이상 행위를 탐지할 수 있는 행위 기반 탐지 체계를 강화해야 한다. 셋째, 첨부파일 보안 검사 및 다단계 인증 등 이메일 보안 수준을 높이고, 마지막으로, 최소 권한 정책을 통해 시스템 접근 범위를 제한하는 것이 중요하다고 조언했다.


AI의 신뢰성과 안전성을 유지하기 위해서는 AI 모델 무결성 검증, 데이터 정합성 관리, AI 인프라 보안 강화 등 세 가지가 밑바탕이 되어야 한다. AI 모델 무결성 검증은 AI 모델이 훈련된 이후부터 실제 운영까지 변조 없이 안전하게 유지되는지 확인하는 것, 데이터 정합성 관리는 AI가 학습하는 데이터의 출처와 품질, 형식, 보안성을 검증하는 것, AI 인프라 보안 강화는 서버, 앱 프로그래밍 인터페이스(API), 클라우드 등 AI가 작동하는 환경에 대한 보안을 강화하는 것 등이다.


한 보안전문가는 이 같은 “생성형 AI라는 새로운 기술이 등장했어도 레거시 공격의 패턴은 전과 다를바 없다”면서도 “하지만 최근 들어 AI를 악용하기 위해 계속 이상한 질문으로 유도하면서 엉뚱한 답변이나 결과를 유도하는 사례가 증가하고 이로 인해 공격자들은 조금 더 단시간에 손쉽게 공격을 하게 된다”고 말했다.

 

이어 “최근 이 같은 기술 악용을 방지하기 위해 AI 자기검증 솔루션이나 기술이 개발되고 있다”며 “아직은 생성형 AI를 잘못된 방향으로 사용하거나 악의적으로 사용하는 것을 시스템적으로 감독하는 별도의 AI를 세팅해 운영하는 것이 필요하다”고 강조했다.

김영명 기자 paulkim@m-economynews.com
Copyright @2012 M이코노미뉴스. All rights reserved.



회사명 (주)방송문화미디어텍|사업자등록번호 107-87-61615 | 등록번호 서울 아02902 | 등록/발행일 2012.06.20 발행인/편집인 : 조재성 | 서울시 영등포구 국회대로72길 4. 5층 | 전화 02-6672-0310 | 팩스 02-6499-0311 M이코노미의 모든 컨텐츠(기사)는 저작권법의 보호를 받으며,무단복제 및 복사 배포를 금합니다.