기사 메일전송
AI 모델 DeepSeek, 심각한 보안 결함 발견
  • 신정훈 기자
  • 등록 2025-02-12 18:47:40
기사수정
  • '판도라의 상자'라 불릴 만큼 다양한 사이버 위협 노출

최근 중국 AI 기업 DeepSeek의 신생 모델이 보안상의 중대한 결함이 있다는 사실이 밝혀져 논란이 되고 있다. 사이버 보안 업체 AppSOC의 연구원들은 DeepSeek-R1 모델이 다양한 테스트에서 심각한 취약점을 드러냈다고 발표했다.


AppSOC는 블로그를 통해 "DeepSeek-R1 모델은 엄격한 테스트를 거쳤으며, 실제 공격과 유사한 다양한 시나리오에 적용되었다"고 밝혔다. 테스트 결과, DeepSeek은 악성코드와 바이러스 생성, 유해 언어 사용, 사실과 다른 정보 생성 등 여러 측면에서 취약점을 보였다. 악성코드 생성 테스트에서 98.8%의 실패율을 보였고, 바이러스 코드를 생성하는 데도 86%의 실패율을 기록했다. 또한, 유해한 언어가 포함된 응답을 생성하는 데 68%의 실패율을 보여, 사용자의 안전을 위협할 수 있는 것으로 드러났다.


AppSOC의 Mali Gorantla 공동 창립자는 "DeepSeek이 비용 효율적이고 오픈소스 모델이라는 점은 장점이지만, 현재 버전은 기업에서 사용하기에 위험하다"고 경고했다. 그는 "기업용 애플리케이션에서 2%의 실패율도 허용되지 않는다"고 강조하며, "이 모델을 비즈니스에 사용하는 것을 권고하지 않는다"고 말했다.


DeepSeek 측에 대한 코멘트를 요청했지만, 답변을 받지 못한 상태다.


지난달 DeepSeek의 AI 모델 출시는 저렴한 비용으로 AI 기술을 개발할 수 있다는 가능성을 시사하며 기술계를 놀라게 했다. 그러나 이 모델은 이후 미국 내에서 보안 우려를 불러일으켰고, 정부 기관의 사용 금지가 요구되는 상황에 이르렀다.


이러한 가운데, 백악관 AI 책임자 David Sacks는 "DeepSeek이 OpenAI의 모델을 사용한 증거가 있다"고 언급했고, 구글 AI 책임자 Demis Hassabis는 DeepSeek의 개발 비용에 대한 주장이 과장되었다고 반박했다. 그는 DeepSeek이 전체 개발 비용 중 일부분만 공개했을 가능성이 있다고 주장했다.


이번 사건은 AI 기술의 보안과 윤리적 측면에 대한 경각심을 일깨우고 있다. AI 기술의 발전과 함께, 기업과 정부는 잠재적인 위험을 인지하고 적절한 대처가 필요하다는 것을 보여준다.

0
많이 본 뉴스
게시물이 없습니다.
유니세프
허깅페이스
모바일 버전 바로가기