AI 에이전트와 MCP(Model Context Protocol) 서버의 확산으로 AI Agent의 시대가 열렸지만, 보안의 관점에서는 통제 불가능한 새로운 실행 주체(Execution Actor)가 등장했음을 의미합니다. 기존의 CNAPP이나 IAM 모델은 배포 후의 상태나 단순한 접속 제어에 집중할 뿐, 에이전트가 실시간으로 생성하는 수많은 '실행 요청(Execution Request)'을 판단하고 차단하는 데 명확한 한계를 보이고 있습니다.
본 세션에서는 "AI 에이전트는 뚫린다"는 냉정한 현실을 전제로, 해킹이 되더라도 비즈니스 임팩트를 최소화하는 '실행 단계(Execution Phase)의 보안' 전략을 공유합니다. 이제 필수가 된 AI 가드레일 시스템을 넘어, NHI(Non-human ID) 중심의 보안 체계인 AINAPP(AI-Native Application Protection Platform) 아키텍처를 상세히 공개합니다.
또한, 기존 DevSecOps와 CNAPP이 AI 에이전트의 런타임 공격에 대해 보안 사각지대를 가질 수밖에 없는 구조적 한계를 분석합니다. 이를 극복하기 위해 SPIFFE/SPIRE 컨셉을 활용한 논휴먼 ID(NHI) 식별 체계와 Wasm/Firecracker 기반의 일회성 실행 환경 격리 전략이 어떻게 에이전트 보안의 물리적 토대가 되는지 다룹니다. 특히 확률적인 LLM 응답을 결정론적인 시스템 동작으로 변환하기 위해 OPA(Open Policy Agent) 기반의 정책 합성 기술이 왜 필수적인지 기술적으로 조망합니다.
이어서 AINAPP의 핵심 기둥인 AISPM을 통한 설정 무결성 검증, AIIEM을 활용한 권한 리팩토링 및 정책 자동화, 그리고 AIWPP 기반의 실시간 이상 행위 탐지와 데이터 마스킹 기술이 유기적으로 작동하는 방어 시나리오를 제시합니다. 마지막으로 영구 권한을 배제하고 실행 시점에만 일시적으로 권한을 부여하는 JIT(Just-In-Time) Permission 구현 패턴을 통해, 기업 환경에서 제로 트러스트(Zero Trust) 모델을 AI 에이전트 계층에 어떻게 성공적으로 안착시킬 수 있는지에 대한 실무적이고 실전적인 청사진을 공유하고자 합니다.