개인정보 수집 정확도 최대 95.9%, 피싱 이메일 클릭률 46.67% 증가
KAIST(총장 이광형)는 전기 및 전자공학부 신승원 교수와 김재철 AI 대학원 이기민 교수 연구팀이 최근 챗GPT와 같은 대형언어모델(LLM)이 사이버 공격에 악용될 수 있음을 실험적으로 규명했다고 25일 밝혔다.
LLM의 사이버 공격 악용 가능성 입증
이번 연구는 구글이 최근 인공지능 기술의 무기화 및 감시에 활용하지 않겠다는 기존의 약속을 철회하면서, 인공지능 기술 악용 논란이 확대된 가운데 진행됐다. 연구팀은 실제 환경에서 챗GPT를 비롯한 LLM 서비스들이 기존의 방어 기법을 우회하여 개인정보 수집 및 피싱 공격 등에 사용될 수 있다는 점을 실험을 통해 확인했다.
연구 결과, LLM 에이전트는 목표 인물의 개인정보를 최대 95.9%의 정확도로 자동 수집할 수 있었으며, 저명한 교수를 사칭한 허위 소셜미디어 게시물을 생성했을 때는 93.9%가 실제로 인식될 정도로 진위 판단이 어려웠다.
저비용·고효율 사이버 공격의 새로운 위협
연구팀은 또한 이메일 주소만을 이용하여 피해자에게 최적화된 정교한 피싱 이메일을 제작할 수 있음을 밝혀냈다. 이 이메일을 받은 참가자들이 피싱 링크를 클릭할 확률이 최대 46.67%까지 상승한 것으로 나타나, 기존 피싱 공격 대비 현저히 높은 위협성을 입증했다.
보안 강화 필요성 제기
연구의 제1저자인 KAIST 김한나 박사과정 연구원은 “LLM의 능력이 확대될수록 사이버 공격 위험이 기하급수적으로 증가한다는 점이 이번 연구에서 명확히 드러났다”며, “이에 대응하기 위한 확장 가능한 보안 체계 마련이 시급하다”고 강조했다.
신승원 교수는 “이번 연구 결과가 정보보안과 인공지능(AI) 정책 개선에 중요한 기초 자료가 될 것”이라며, “LLM 서비스 제공업체 및 연구기관들과 협력하여 효과적인 보안 대책을 마련할 계획”이라고 밝혔다.

이번 연구 결과는 컴퓨터 보안 분야 최고 학회 중 하나인 국제 학술대회 ‘USENIX Security Symposium 2025’에 게재될 예정이며, 논문 제목은 “When LLMs Go Online: The Emerging Threat of Web-Enabled LLMs”이다.
#KAIST #챗GPT #개인정보유출 #사이버보안 #피싱이메일 #대형언어모델 #LLM #정보보호 #AI보안 #USENIXSecuritySymposium #신승원교수 #이기민교수