Do Not Disturb: Hacked AI vs. Secure AI
이상근고려대학교 정보보호대학원부교수저는 고려대학교 정보보호대학원 부교수로 AI 연구실(AIR Lab)을 운영하며 AI 안전성, 신뢰성, 보안을 연구합니다. 서울대에서 학사와 석사를, 위스콘신-매디슨에서 인공지능으로 박사 학위를 받았으며, 독일 도르트문트 대학 책임연구원과 한양대 조교수를 역임했습니다.
AI는 혁신을 선도하는 동시에 가장 큰 보안 위협이 되고 있습니다. 딥시크의 GPT 모델 증류 사건에서 보듯, 모델 복제 공격, 프롬프트 인젝션, 백도어 삽입 등 AI 자체의 보안 취약점은 현실적인 위협으로 부각되고 있습니다. 특히, 대규모 언어 모델(LLM)과 같은 최신 AI 기술이 금융, 의료, 국방 등 핵심 산업에 도입되면서, AI의 보안 취약점이 곧 시스템 전반의 취약점으로 연결되는 시대가 되었습니다.
이상근 교수는 AI 모델 복제 공격 및 방어, 설명가능한 인공지능(XAI) 등 AI보안 연구에서 세계 최고 수준의 기술을 보유하고 있으며, AI 모델의 해킹과 이를 방어하기 위한 최신 기술과 전략을 연구하고 있습니다. 특히, 온디바이스 AI, 멀티모달 AI, LLM 어플리케이션을 포함한 새로운 환경의 AI 보안성을 강화하는 방법을 탐구하고 있습니다.
이번 강연에서는 AI 모델의 핵심 보안 취약점(회피 공격, 복제 공격, 백도어 공격 등)의 개념 및 원리와 이를 보호하기 위한 실질적인 방법을 심층적으로 살펴볼 것입니다. AI는 기존 시스템과 전혀 다른 방식으로 동작하며, 따라서 AI 해킹 및 방어를 위해서는 수학과 통계에 대한 지식이 중요합니다.
AI 보안은 더 이상 소수 연구자들만의 과제가 아닙니다. AI의 적용 분야는 사이버 공간 뿐 아니라 물리 공간까지 확대되고 있으며, 특히 사이버보안에도 적극 도입되고 있습니다. 현재 AI 보안 연구는 아직 초기 단계이며, 이를 해결할 전문가는 절대적으로 부족합니다. AI가 우리의 보안 위협이 될 것인지, 혹은 우리를 지키는 핵심 자산이 될 것인지는 지금 결정해야 합니다. AI 보안의 최전선에서 대응할 사람은 바로 여러분입니다.