XDR, 교차 계층 탐지 등 위협 탐지로, 대응 시간 개선
해커, AI로 탐지 회피하고, 대응책에 AI로 자동 적응해
악성코드, AI 이용해 형태 바꾸며, 일반적인 탐지 회피

(출처=셔터스톡)

지난 10일 피해액이 6억 달러(한화 6,900억 원) 규모로 추산되는 암호화폐 해킹 사건이 발생했다고 AFP 통신이 전했다.

IT 기술의 발달로 사이버 범죄가 더욱 기승을 부리는 가운데 기업에 대한 사이버 범죄는 더욱 은밀하고도 다양하게 진행되고 있다. 최근엔 사물인터넷(IoT) 기기와 외부망과의 연계로 사내 주요 정보들이 더욱 쉽고 다양한 경로로 외부 유출되고 있어, 그 경각심이 더욱 커지고 있다.

그런데도, 대기업과 달리 중소기업의 경우, 예산 제약, 보안에 대한 인식 부족 등으로 사내 보안시스템이 구축되지 않은 기업이 많은 것이 사실이다.

사내 보안 관리가 더 선택이 아닌 필수가 되는 가운데 AI가 기업 보안의 해결사로 등장했다. 하지만 해커 역시 AI를 이용하기 때문에 AI는 사이버 보안상의 양날의 검이 될 수도 있다는 지적도 만만치 않다.

AI/ML 기반의 통합 보안 분석 플랫폼 기업 스텔라사이버(StellarCyber)의 샘 존스(Sam Jones) 제품 관리 부사장이 최근 지캐스트(ZKast)와의 인터뷰를 통해 AI가 보안 산업을 어떻게 변화시키고 있는지 논의했다고 지난 11일 이위크(eWEEK)가 보도했다.

스텔라 사이버의 핵심 솔루션 제품은 네트워크 전반에 걸쳐 사이버 침해를 탐지하는‘스타라이트(StarLight)’이며, Open XDR의 선구자 중 하나다.

샘 부사장은 “XDR은 교차 계층 탐지 및 대응 서비스로 이메일, 엔드포인트, 서버, 클라우드 작업량 및 네트워크 등과 같은 여러 보안 계층에서 데이터를 수집하고, 자동으로 연관 지어 위협을 탐지하고, 보안 분석가가 조사와 대응 시간을 개선하게 만드는 제품”이라고 소개했다.

그의 설명에 따르면, Open XDR은 기존 XDR과 달리 위협 보호의 단계적 기능을 위해 전체, 엔드 투 엔드 공격 표면을 보호하도록 설계된 것이다.

또 다른 큰 차이점은 기본 기능과 결합한 모든 공급업체와 연동된다는 점이다. 이 경우 Open은 상호 운용이 가능하다는 의미로 해석된다.

샘 부사장은 “최근에 우리 회사는 새로운 XDR 킬 체인을 발표했다”고 말했다. 이 새로운 XDR 킬 체인은 AI 기반으로 완전한 미트리 어택(Mitre Attack) 호환 킬 체인이라는 것이다.

즉, 초기 시도, 전파, 탐사, 유출 및 영향, 지속적 발판 등의 5단계를 구축함으로써 내부 공격과 외부 공격을 구분해 공격 진행과 정찰 행동을 파악하는 역할을 한다는 설명이다.

이 제품은 XDR 킬 체인과 함께 동일한 사고에 속할 때 경고를 수집하고 관련성을 부여해 작동한다. 이를 통해, 수천 또는 수만 개의 알림을 필터링해 분류하고 중요한 경고만 강조 표시할 수 있다.

이를 두고, 샘 부사장은 “건초더미를 수축시켜 바늘을 더 쉽게 찾을 수 있다”는 말로 설명했다.

“AI는 몇 년 전부터 보안 일부로 존재했으나 온전한 작동 여부에 대한 회의적인 시각이 많다. 초기 제품 중 상당수가 진정한 AI가 아닌 규칙에 근거했기 때문이다”며 샘 부사장은 작금의 보안 문제점을 지적했다.

또 “앞으로 보안 전문가들은 AI가 보안팀의 기술력을 보완하기 위한 사이버 전략의 일부가 될 수 있도록 노력해야 한다”고 강조했다.

AI가 사이버 보안 전문가 공백 메워

지난해 7월 13일 글로벌 AI 연구기업 ‘RPA2’의 CEO 카샤프 콤펠라(Kashap Kompella) 대표는 인터넷 보안 관련 매거진 시소매그(CISOMAG)와의 인터뷰를 통해 사이버 보안상의 AI의 빛과 그림자에 대해 경고했다.

카샤프 대표에 따르면, 해마다 시행한 업계 설문 조사에서 사이버 보안 전문가가 충분하지 않다는 것이다.

이 문제는 공격 비용, 데이터 개인 정보 보호 문제, 규정 준수 요구 사항 및 사용자 데이터 등과 관련해 사이버 보안 보험을 보험 산업에서 가장 빠른 성장 부문 중 하나로 만든다고 지적했다.

따라서 이런 보안 인재 부족을 감안할 때 반복 작업을 자동화하고, 과중한 업무를 해소하고, 사전 예방적 분석에 집중하게 만드는 AI의 잠재력은 매우 매력적이라고 그는 주장했다.

카샤프 대표는 몇 가지 최신의 머신 러닝 기법을 들어서 기업 보안상의 AI의 활용을 설명했다.

머신러닝은 단순한 규칙 기반 논리를 넘어 침입을 탐지하고, 방어하는 데 도움이 된다. 액세스 시도 횟수, 쿼리 빈도, 쿼리당 데이터양 등의 요인을 근거로 학습한 AI는 이상값이 의심스러운 것으로 자동 플래그가 지정된다.

또 악성 프로그램 탐지의 경우, 일반적으로, 새로운 멀웨어(Malware)는 불량 행위자에 의해 수동으로 생성되지만, 이 작업이 완료되면 탐지를 회피하기 위한 후속 변종이 자동으로 생성된다는 것이다.

이때, 머신러닝을 통해 기존의 서명 기반 악성 프로그램 탐지 시스템을 강화하면, 향후 이러한 악성 프로그램의 버전과 변형을 식별하고, 확산되는 것을 방지할 수 있다고 그는 설명했다.

이 외에도 새로운 앱인‘코드 취약성 검색’ 영역은 많은 양의 코드를 스캔하고, 해커보다 먼저, 잠재적 취약점을 식별하는 프로세스를 자동화하기 위해 머신러닝을 사용한다.

기존의 위협 인텔리전스를 결합하고 새로운 위협을 탐지하는 머신러닝을 사용하면, 전반적인 위협 탐지 속도를 높일 수 있다.

부정행위 탐지의 경우, 머신 러닝은 패턴을 탐지하고, 예상된 기준선 동작에서 편차를 식별해 부정 트랜잭션 및 활동에 플래그 지정을 통해 실시간으로 방지할 수 있다.

그럼에도 불구하고, 카샤프 대표는 AI 시스템에도 취약성이 있다고 경고했다. AI 시스템에 대한 공격은 대부분 기본 머신러닝 모델을 혼동하고, AI 시스템이 해야 할 일을 우회하는 것을 수반한다.

예를 들면, 생성적 적대 네트워크(GANs)는 얼굴 인식 보안시스템을 속이고, 음성 애플리케이션 공격과 음성 생체 인식 시스템 전복에도 사용될 수 있다. AI 시스템을 교묘하게 속이면, 악성코드 파일이 안전한 파일로 잘못 분류될 수 있다는 것도 그 사례라고 강조했다.

카샤프 대표는 “AI 애플리케이션 채택이 확대될수록 위험도 커진다”며 “AI는 이중 활용 기술로 선과 악에 모두 사용될 수 있는 ‘양날의 검’이라고 주장했다.

결론적으로, 그는 “문제는 기업이 인공지능 기술을 효과적으로 활용하는가, 아니면 해커가 기업보다 AI를 더 잘 활용하는가? 하는 것으로 귀결된다”고 말했다. 이런 위험을 완화하기 위해 AI 전문가를 사이버 보안팀으로 영입하는 것이 첫 단계가 될 것이라는 방법론을 제시했다.

보안 전쟁에서 AI 최대의 적은 AI

지난해 9월 17일자 포브스에는 TIIAS 리서치의 수석 분석가 케빈 크루엘(Kevin Krewell)이 쓴 사이버 보안과 AI에 관한 글이 실렸다.

이 기고 글은 앞으로 보안 전문가와 해커가 AI를 사용해 사이버상에서 쫓고 쫓기는 추격전을 벌인다는 내용이다.

서두에서 그는 “인공지능(AI)이 IT 환경의 한 축으로 자리잡으면서 사이버 보안 세계는 AI의 전쟁터가 되고 있다”고 말했다.

사이버 보안 분야에서 가장 공격적인 해커들이 최근 들어 전통적인 보안 방어를 회피하고, 적대적 대응에 맞서기 위해 AI를 활용하고 있다는 주장이다.

마치 이는 쥐와 고양이가 싸우듯, 공격수와 수비수의 게임이라며, 사이버 보안의 미래는 AI 대 AI가 될 것이라고 예상했다.

케빈은 일찍부터 사이버 보안에 관심을 기울인 IBM 연구 사례를 들어 해커들의 AI를 활용한 사이버 공격과 이에 맞서는 IBM의 전략을 설명했다.

해커들은 모델에 대한 대책을 설계하기 위해 이를 훔칠 수 있는데 이는 훈련 모델이나 배치된 신경망을 독극물로 만들어 AI 기반 시스템을 잘못된 동작으로 속이는 데 활용될 수 있다.

그 예로, 자율주행차 운행의 해킹에 AI 모델이 적용되면, 위험할 수 있으며, 훈련된 AI 모델이 잘못 이용되면, 관심 대상을 틀리게 분류하도록 설계할 수도 있다고 케빈은 주장했다.

악성 프로그램 ‘딥로커(DeepLocker)’의 경우, 암호화된 페이로드를 포함하지만, 그 암호를 해독하는 키는 포함하지 않는다. 키가 파생되고, 악성 프로그램이 특정 대상에 도달했다고 판단될 때, 활성화되기 때문에 해커들이 탐지를 피할 수 있다.

해커가 AI를 활용하면, 맞춤형 악성코드를 쉽게 대량 개발할 수 있고, 신경망을 사용해 이미지나 음성을 인식해 적절한 목적지를 식별할 수 있다. 이 모두는 악성코드가 활성화될 때까지 숨길 수 있는 것이다.

적대적 AI는 인공지능 증강 챗봇을 이용해 인간과 같은 에뮬레이션으로 공격을 위장해 인간 요소를 공격한다. 이는 AI로 구동되는 음성 합성이 조직 내에서 실제 인간을 상대하고 있다고 믿도록 사람들을 속일 수도 있다.

그 사례가 바로 딥페이크 비디오다. 이는 인간 공학에 대한 우리의 신뢰를 저하시키는데 매우 유용하고, GPT-2는 보다 인간적으로 보이는 가짜 문자메시지를 만들어 탐지하기 어렵게 만드는 경우다.

그에 따르면, IBM 리서치는 사이버 보안 업무를 위해 사이버 범죄자가 공격을 개시하기 전에 가능한 공격을 상상하고, 방어 전략을 짜는 것을 목표로 하고 있다.

이를 위해 IBM이 만든 프로그램 중 하나가 공개 소스 도구인 ART(Adversarial Robust Toolbox)인데 AI와 소프트웨어 커뮤니티가 이러한 유형의 연구를 위해 사용할 수 있다.

GLTR 툴은 적대적 공격으로부터 방어하기 위해 같은 머신러닝 기법을 사용해 자동으로 생성된 텍스트를 탐지해 ML이 만든 텍스트인지 아닌지를 판단하는 도구다. 이는 AI를 활용해 AI를 방어한 사례다.

마지막으로, 그는 “사이버 보안의 미래는 악당의 AI에 대항하기 위해 AI를 활용하는 시대가 될 것”이라며, “AI에 의한 사이버 보안 전쟁은 이제 막 시작됐다”고 경고했다.

AI타임스 조행만 객원 기자 chohang5@kakao.com 

[관련 기사][글로벌 Lab 젊은 과학자] 개인정보보호 머신러닝, 가장 빠르게 성장 중인 AI 분야 ...조지아대 이재우 교수

[관련 기사]기업들의 AI훈련을 위한 합성데이터 사용, 이대로 좋은가?

키워드 관련기사
  • 한국·싱가포르·영국 손잡고 의료 AI 사용 가이드 개발...KAIST가 주도
  • 카카오모빌리티, AI 활용 스마트 배차 요금인상 철회...'갑질' 흔적만 자욱
  • 트위터의 공개 고백... ‘크롭 툴’ 편향성 찾을 시 3500달러 포상