AI 기술의 급격한 확산으로 기업의 보안 경계는 유례없는 전환점을 맞이하고 있습니다. 이제 AI는 단순한 질의응답 도구를 넘어 스스로 판단하고 인프라에 접근하는 '에이전트'로 진화하고 있으며, 이는 보안 관점에서 기존의 방식으로는 제어하기 까다로운 새로운 실행 주체(Execution Actor)의 등장을 의미합니다. 본 패널토크에서는 기업 보안의 최전선에 있는 CISO들과 함께 AI 시대의 가장 시급한 세 가지 전장인 'AI 모델 자체에 대한 보안', '자율성을 가진 AI 에이전트의 실행 보안', 그리고 'LLM과 AI 에이전트 환경의 사용자 보안 전략'을 집중적으로 해부합니다.
첫 번째 축인 AI 모델 보안에서는 우리가 이 '뇌'를 얼마나 신뢰할 수 있는지에 대해 논의합니다. 특히 기존의 모델 관리 방식인 '드리프트(Drift)' 탐지가 LLM 시대에 들어서며 그 실효성과 관리 난이도 면에서 한계를 드러내고 있음을 지적합니다. 이에 따라 블랙박스에 가까운 LLM 내부를 분석하려는 시도보다는, 가드레일이나 외부 검증 컴포넌트를 통해 AI의 출력을 실시간으로 필터링하고 안전한 동작을 강제하는 '보완적 아키텍처'에 집중합니다. 급변하는 AI 생태계에서 기업이 택할 수 있는 가장 합리적이고 실전적인 보안 계층 구성안은 무엇인지 심도 있게 다룹니다.
두 번째 축인 AI 에이전트 보안에서는 통제권을 벗어난 '손'을 어떻게 제어할 것인지가 핵심 화두입니다. 사용자의 권한을 그대로 위임받은 에이전트가 상식 밖의 행동을 할 때 기존의 IAM 방식으로는 대응할 수 없는 구조적 한계를 짚어봅니다. 특히 최근 주목받는 MCP(Model Context Protocol)가 에이전트의 데이터 접근 및 실행 권한을 표준화·가속화함에 따라 발생하는 제어 불가능성을 진단하며, 왜 여전히 변경 관리와 감사 추적이 확실한 GitOps나 코드 기반 인프라 관리(IaC)가 본질적인 해답이 될 수밖에 없는지 토론합니다.
마지막 세 번째 축에서는 LLM과 AI 에이전트를 사용하는 임직원 및 개발자들의 '사용자 보안' 이슈를 다룹니다. 최근 확산되는 '바이브 코딩(Vibe Coding)'과 같이 개발자가 내부 로직을 완벽히 이해하지 못한 채 AI가 생성한 코드를 수용함으로써 발생하는 보안 부채와 관리 사각지대를 분석합니다. 이를 해결하기 위해 사용자의 AI 도구 활용을 무조건 막는 것이 아니라, AI 에이전트 전용 신원 식별(NHI)을 기반으로 실행 시점에만 최소한의 권한을 부여하는 JIT(Just-In-Time) 모델과 일회성 격리 환경(Sandboxing)을 통해 어떻게 안전한 사용자 환경을 구축할 수 있는지 실전적인 청사진을 제시하며 세션을 마무리하고자 합니다.