보안정보
전문화된 보안 관련 자료, 보안 트렌드를 엿볼 수 있는
차세대 통합보안관리 기업 이글루코퍼레이션 보안정보입니다.
생성형 AI 시대, 이제는 보안이다
2025.02.04
170

2025년이 밝았다. 2024년을 뜨겁게 달군 화두였던 생성형 AI는 올해에도 그 흐름을 이어가며 여전히 우리 사회의 중심에 자리 잡고 있다. 지난 1월 7일부터 나흘간 미국 라스베이거스에서 열린 ‘CES 2025’의 슬로건, ‘다이브 인(Dive IN)’처럼 우리는 이제 AI의 세계로 깊숙이 몰입하는 시대를 살고 있다. AI가 만들어가는 변화와 혁신의 중심에 서 있는 지금, 우리는 그 미래를 함께 만들어가고 있다.

01. 생성형 AI에서 보안이란
1) 생성형 AI의 도약과 그 이면:보안의 필요성
챗 지피티(Chat GPT)가 세상에 처음 모습을 드러낸 지 벌써 2년 1개월이 지났다. 그 사이 제미나이(Gemini), 클로드(Claude)와 같은 생성형 AI는 그 어떤 기술보다 빠르게 우리의 일상에 깊이 스며들며 막대한 영향을 미쳤다. AI가 활용되는 분야 또한 [그림 2]에서 볼 수 있듯이 폭발적으로 증가했다.
그러나, 이러한 양적 성장에도 불구하고 생성형 AI 서비스에는 여전히 몇 가지 미흡한 점이 존재한다. 2024년 12월에는 두 차례의 대규모 서비스 중단이 발생했는데, 12월 4일에는 4시간, 12일에는 2~3시간 동안 서비스를 이용할 수 없었다. 이러한 문제의 원인으로는 서버 과부하, 소프트웨어 업데이트, 네트워크 장애 등 여러 가지가 꼽혔다. 이는 생성형 AI가 기존의 온라인 서비스에 비해 지속성, 안정성, 정확성 측면에서 아직 부족한 점이 있음을 보여준다.

그럼에도 불구하고, 생성형 AI는 이러한 리스크를 극복하며 꾸준히 성장하고 있다. 그렇다면, 이런 AI의 발전 속에서 우리는 어떤 관점을 가져야 할까? 특히 보안 전문가로서, AI와 보안이 만나는 지점에 대해 고민할 필요가 있다. 바로 Security for AI(AI를 보안 위협에서 보호)와 AI for Security(AI를 활용해 보안을 강화)라는 두 가지 축이다.
AI가 이제 혁신의 단계를 넘어 대중화의 시대로 접어든 지금, 더 이상 미룰 수 없는 과제가 있다. 바로 ‘보안(Security)’이다.

02. 보안 위협에서 생성형 AI를 보호하라(Security for AI)
인공지능이 우리의 삶에 깊숙이 스며들면서, 많은 사람들이 가장 우려하는 부분 중 하나는 보안 위협이다. 사실, AI의 위험성에 대한 논의는 오래전부터 영화나 소설을 통해 공감각적으로 그려져 왔다. 1984년 개봉한 영화 터미네이터는 국방 네트워크를 관리하고 전략적 결정을 내리는 AI 시스템 스카이넷(Skynet)의 위험성을 경고하며, AI가 인간을 위협하는 미래를 상상했다. 1999년의 영화 매트릭스는 AI 지배 아래 인간의 자유의지가 억압되는 세계를 통해 AI의 윤리적 딜레마를 던졌다. 과거에는 공상과학으로만 여겨졌던 이러한 이야기들이 이제는 현실적으로 직면해야 할 문제로 다가오고 있다.
이러한 위협은 단순히 상상이 아니라, 이미 현실에서 구체적인 문제로 나타나고 있다. 최근 사례로는 생성형 AI 기술을 악용한 ‘웜 지피티(Worm GPT)’를 들 수 있다. 이를 활용해 작성된 피싱 이메일은 사람처럼 자연스럽고 정교한 문장으로 작성되어, 다수의 피해자를 속이고 금전적 손실을 발생시키고 있다.
또한, AI 기반 딥페이크 기술은 특정 인물의 목소리와 외모를 모방하여 정치적 목적의 선동, 허위 사실 유포, 혹은 합성 음란물 제작 같은 심각한 문제를 일으키고 있다. 이와 더불어, 소규모 언어 모델(sLLM) 기술을 악용하여 공격 목적으로 제작·배포하는 사례도 증가하고 있다.

이러한 위협은 AI가 제공하는 혁신적인 가능성과 동시에 우리가 반드시 직면하고 해결해야 할 보안 과제를 명확히 보여준다. 현재, 다양한 기업과 기관에서 AI 보안을 위한 기술 가이드라인을 발표하며 이러한 과제에 대응하고 있다. 아래 표에서는 주요 업체 및 기관이 제시한 AI 보안 가이드라인과 그 주요 내용을 정리하여 소개한다.

03. 생성형 AI를 통해 보안을 강화하라(AI for Security)
전통적으로 머신러닝은 악성코드 탐지와 분류, 정/오탐 식별 등의 보안 분야에서 중요한 역할을 해왔다. 공격의 빈도가 증가하고, 악성코드의 유형과 변종이 폭발적으로 늘어나면서 기존의 시그니처 기반 탐지 방식은 한계를 드러냈다. 또한, 새로운 공격 벡터가 계속 등장함에 따라, 기존의 방어 기법만으로는 효과적으로 대응하기 어려워졌다. 이런 도전 과제는 더 정교한 탐지 방법과 압도적인 양의 로그 데이터를 처리할 수 있는 새로운 접근 방식을 요구하게 되었다.
머신러닝은 이러한 요구를 충족하며, 방대한 로그 데이터를 분석해 중요한 이벤트와 공격을 효율적으로 탐지하는 데 기여해 보안 운영의 부담을 줄여왔다. 그러나, 생성형 AI의 등장은 보안 분야에서 AI의 활용 가능성을 한 단계 더 끌어올렸다.
생성형 AI는 기존에 보안 전문가들이 시간과 노력을 들여 진행하던 분석 업무를 보조하고, 방대한 데이터를 꼼꼼히 살펴 새로운 인사이트를 제공하고 있다. 경험이 부족한 분석가에게도 유의미한 통찰을 제시해 이들이 성장하고 전문성을 구축하는 데 도움을 주기도 한다. 이는 전문가를 대체하려는 것이 아니라, 생산성을 대폭 향상시켜 사이버 보안 인프라를 유지하고 강화하는 데 기여한다는 점에서 주목할 만 하다.
이러한 기술적 혁신에 발맞춰, 기업들은 AI를 활용해 보안을 강화하기 위한 다양한 시도를 진행하고 있다.
예를 들어:
마이크로소프트(Microsoft)는 자사의 모든 보안 제품에 오픈AI(OpenAI) GPT-4 기반의 'Copilot for Security'를 도입해 운영 효율성을 높이고 있다.
구글(Google)은 Threat Intelligence 서비스에서 AI 기반 보안 운영 플랫폼인 제미나이(Gemini)를 활용하고 있다.
센티넬원(SentinelOne)은 자사의 퍼플 AI(Purple AI) 모델을 통해 제품 역량을 강화하고 있다.
국내 기업인 이글루코퍼레이션은 머신러닝 기반 모델과 생성형 AI 모델을 결합한 하이브리드(Hybrid) 모델을 제공해 차별화된 보안 서비스를 선보이고 있다.
이처럼 AI를 활용한 보안 강화는 더 이상 미래의 이야기가 아니라, 이미 현실에서 성과를 내고 있는 혁신적인 접근법이다. 앞으로도 AI가 보안의 새로운 기준을 만들어 갈 것으로 기대된다.
04. 보안과 AI, 보이지 않은 혁신의 동반자
세계적인 보안 전문가이자 암호학자인 브루스 슈나이어(Bruce Schneier)는 좋은 보안에 대해 이렇게 말했다.
“Good security systems should be mostly invisible.”
좋은 보안 시스템은 눈에 보이지 않아야 한다는 뜻이다. 이는 보안이 사용자 경험에 최소한의 영향을 미치면서도, 효율적으로 사용자를 보호해야 한다는 의미를 담고 있다.
생성형 AI도 이와 다르지 않다. 머지않아 사용자들은 AI가 적용된 환경에서 살아가면서도 그것을 인지하지 못하게 될 것이다. AI의 성능과 효율성은 우리의 삶 속에 자연스럽게 스며들어, 모든 사람이 무의식적으로 그 혜택을 누리게 될 것이다.
그리고 그 뒤에는 ‘Good Security’가 자리할 것이다. 눈에 보이지 않지만, 우리를 안전하게 보호하는 보안 시스템이야말로 AI가 만들어갈 미래의 기반이다. AI와 보안이 상호 보완하며 발전해 나갈 때, 우리는 더 안전하고 효율적인 세상 속에서 살아갈 수 있을 것이다.