top of page
검색

생성형 AI 보안 문제 극복의 열쇠  ‘VAST Data InsightEngine’

  • Chang Sun Park
  • 1월 14일
  • 3분 분량

거대 언어 모델(LLM), 멀티 모달 언어 모델(MMLM), 소형 언어 모델(SLM)을 활용해 챗봇이나 AI 에이전트, 그리고 다양한 서비스 개발에 나서는 곳이 늘고 있습니다. 프로젝트 현장을 가보면 대부분 데이터의 중요성에 대한 이야기가 많습니다. 프로젝트 성공 여부가 데이터에 달려 있다는 것은 새삼 강조할 필요가 없을 것입니다. 이와 함께 언급되는 주제가 보안입니다. 아무래도 기업은 각종 규제 준수 의무가 있고, 사업 관련 기밀 정보가 많다 보니 데이터를 핵심 자산으로 삼는 생성형 AI 프로젝트 역시 보안을 중요하게 봅니다. 관련해 이번 포스팅에서는 생성형 AI 프로젝트 추진 시 MLOps 파이프라인 전반에 걸쳐 데이터 보안을 강화하는 VAST Data InsightEngine에 대해 간단히 알아보겠습니다.

 


생성형 AI가 불러온 새로운 보안 위협

 

생성형 AI 기반 서비스나 기능에 대한 보안 우려는 크게 세 가지로 구분할 수 있습니다. 보안 업계나 보안 담당자들이 고민하는 첫 번째 취약점은 사회 공학적 기법을 동원한 공격에 취약할 수 있다는 것입니다. LLM, MMLM, SLM을 기반으로 하는 생성형 AI는 사람과 자연스럽게 대화하고 답변을 생성하도록 설계되었습니다. 이를 통해 누구나 쉽게 원하는 질문을 하고 답변을 받아 볼 수 있는 편의를 제공합니다. 이런 편의는 양날의 검과 같습니다. 다른 측면에서 바라보면 생성형 AI의 편리함은 악의적인 프롬프트나 교묘한 질문 공격, 즉 사회 공학적 공격을 가할 수 있는 틈을 제공하기도 합니다. 마치 사람에게 피싱 공격을 하듯, AI 모델을 속여 중요한 정보를 빼낼 수 있다는 소리입니다.  

 

두 번째 우려는 모델의 데이터 활용입니다. 생성형 AI 모델은 방대한 텍스트와 이미지 데이터를 학습하면서, 그 안에 포함된 민감한 정보까지 무의식적으로 기억할 수 있습니다. 데이터베이스와 달리, AI 모델은 접근 권한을 세밀하게 제어하기 어려운 구조를 가지고 있습니다. 따라서 특정 질문을 통해 모델이 학습한 민감 정보를 유추하거나 재구성하여 노출할 위험이 존재합니다. 비유하자면 기억력이 뛰어난 사람이 무심코 비밀을 누설할 수 있는 것을 떠올릴 수 있습니다.

 

세 번째는 보안 업계에서 주목하는 프롬프트 인젝션 공격입니다. 프롬프트 인젝션은 AI 모델에 특정 정보를 유출하도록 유도하는 새로운 공격 기법입니다. 가령 모델에 "특정 정보를 알려주지 마세요"라는 보안 지침을 내장하더라도, 공격자는 이를 우회하는 교묘한 프롬프트를 설계하여 정보를 빼낼 수 있습니다. 이는 기존의 키워드 필터링이나 금지어 설정과 같은 단순한 보안 방식으로는 막기 어렵습니다. 숙련된 해커가 방화벽을 우회하는 것과 같은 이치입니다.

 

전통적인 보안 체계의 한계

 

그렇다면 생성형 AI 관련 보안 위험을 어떻게 해소해야 할까요? 개념 검증(PoC)이나 파일럿 프로젝트를 추진한 경험이 있는 조직이 공감하는 부분이 있습니다. 기본 보안 체계로 MLOps 파이프라인 전반을 아우르는 데이터 보안 강화가 쉽지 않다는 것입니다. 데이터 측면에서 바라보면 MLOps 파이프라인은 전통적인 엔터프라이즈 워크로드와 여러 면에서 차이를 보입니다. 이 차이로 인해 기존 보안 체계만으로는 보안을 보장하기 어렵습니다. 어떤 차이가 있는지 하나하나 짚어 보곘습니다.

 

생성형 AI는 데이터를 다양한 형태로 변환하고 여러 구성 요소에 분산 저장합니다. 원본 데이터, 임베딩, 모델 가중치, 생성 결과물 등 각각의 데이터는 형태와 저장 위치가 모두 다릅니다. 기존의 액티브 디렉토리나 ACL(접근 제어 목록) 기반 보안 방식은 주로 원본 데이터 접근 권한에 초점을 맞추고 있기 때문에 MLOps 파이프라인 전체를 보호하기에는 부족합니다.

 

AI 모델 자체가 데이터 저장소 역할을 하는 것도 차이라 볼 수 있습니다. 전통적인 데이터베이스는 권한이 없는 사용자의 접근을 차단하는 방식으로 정보를 보호합니다. 하지만 AI 모델은 학습한 정보를 가중치 형태로 내부에 저장하고, 특정 질문에 따라 이를 재조합하여 답변을 생성합니다. 따라서 단순히 데이터베이스 접근 권한을 막는 것만으로는 민감한 정보 유출을 완벽하게 차단할 수 없습니다. 마치 정보를 머릿속에 기억하는 사람을 통제하기 어려운 것과 같습니다.

 

AI가 생성한 결과물도 보안의 대상입니다. AI 모델이 생성한 텍스트나 이미지는 원본 데이터가 아니더라도 민감한 정보를 포함할 수 있습니다. 기존 보안 정책은 원본 데이터에 대한 접근 통제에 집중했지만, 생성형 AI 환경에서는 이러한 2차 결과물까지 엄격하게 관리해야 합니다.

 

생성형 AI 시대의 보안 해결사 ‘VAST Data InsightEngine’

 

생성형 AI 보안 강화는 크게 두 가지 측면에서 접근할 수 있습니다. 하나는 기존 보안 체계를 보완하는 것이고, 다른 하나는 새로운 시각에서 기존 환경에 변화를 가하지 않고 AI 보안 강화책을 마련 하는 것입니다. 여로모로 후자가 부담이 덜하고, 효과도 확실한 접근이라 할 수 있습니다. 이런 접근을 지원할 수 있는 솔루션이 2025년 출시됩니다. 바로 VAST Data InsightEngine입니다.

 

VAST Data InsightEngine은 생성형 AI가 가져온 새로운 보안 과제에 대응하는 혁신적인 솔루션입니다. 마치 숙련된 경비원처럼 MLOps 파이프라인 전체를 감시하고 보호하며, 기업이 안심하고 생성형 AI 기술을 활용하도록 돕습니다. VAST Data InsightEngine은 다음과 같은 핵심 기능을 통해 AI 시대의 데이터 보안을 강화합니다.

 

  • 중앙 집중형 인증 및 권한 관리: VAST Data InsightEngine은 원본 데이터, 임베딩, 모델 가중치, 생성 결과물 등 AI 파이프라인의 모든 데이터에 대한 접근 권한을 통합 관리합니다. 액티브 디렉토리, LDAP, Kerberos 등과 연동하여 세분화된 접근 권한을 부여하고, 마치 컨트롤 타워처럼 모든 접근을 통제합니다.

  • 실시간 모니터링 및 감사: MLOps 파이프라인의 모든 활동을 실시간으로 추적하고 기록하여 의심스러운 접근이나 프롬프트 공격을 즉시 감지하고 대응합니다.

  • 엔드투엔드 암호화: 데이터 전송 및 저장 과정을 암호화하여 정보 유출을 방지합니다.

  • AI 파이프라인 전 단계 보호: 데이터 준비부터 모델 학습, 추론, 결과물 관리까지 전 단계에 걸쳐 일관된 보안 정책을 적용합니다.

 

새로운 패러다임, 새로운 솔루션

 

AI 시대의 보안은 더 이상 전통적인 파일 및 폴더 수준의 통제만으로는 충분하지 않습니다. 새로운 위협에 맞서는 새로운 패러다임, 그 중심에 VAST Data InsightEngine과 같은 차세대 보안 솔루션이 있습니다. 이를 통해 기업은 생성형 AI의 무한한 잠재력을 믿고 안전하게 활용하며, 더 나은 미래를 향해 나아갈 수 있을 것입니다. 대원씨티에스는 VAST Data InsightEngine가 정식 출시되는 데로 자세한 소식과 자료를 정리해 공유할 계획입니다.

 

 
 
 

Kommentare


logo_dw.png

대원씨티에스 DIA Nexus

대표이사 : 하성원, 이상호, 김보경   ㅣ  사업자 등록번호 : 106-81-21127  ㅣ   이메일: AI_sales@computer.co.kr

주소: 본사 - 서울시 용산구 청파로 109 나진전자월드빌딩 2층   ㅣ   판교 - 경기도 성남시 분당구 판교역로 240

TEL : 02-2004-7700, 02-2004-7778(영업 문의)

  • Youtube
  • Facebook
  • LinkedIn
bottom of page