🕵️ Claude를 1,600만 번 '심문'한 중국 AI 3사가 덜미를 잡혔다 — 가짜 계정 24,000개로 벌인 역대급 AI 두뇌 절도의 전말
AI 모델을 훔치는 데 해킹은 필요 없었다. 질문만 잘 하면 됐다.
Anthropic이 2월 말 공개한 보고서에 따르면, 중국 AI 3사 — DeepSeek, MiniMax, Moonshot AI — 가 가짜 계정 약 24,000개를 만들어 Claude에게 1,600만 건 이상의 대화를 쏟아부었다. 목적은 단 하나, Claude의 추론 능력을 자기네 모델에 '증류(distillation)'하는 것이었다.
강한 모델의 출력으로 약한 모델을 훈련시키는 기법이다. 그 자체는 합법적 기술이지만, 남의 모델을 몰래 빨아먹는 데 쓰면 이야기가 달라진다. 독자적으로 수년 걸릴 역량을, 카드 결제 한 번으로 단축할 수 있기 때문이다.
MiniMax — 가장 대담했다. 1,300만 건 이상으로 물량 자체가 압도적
Moonshot AI — 에이전트 추론, 코딩, 컴퓨터 비전 등 '도구 사용' 능력에 집중 (340만 건)
DeepSeek — 추론 외에 '검열 우회'까지 시도. 체제 비판 질문의 안전한 대안을 Claude에게 물었다 (15만 건)
이 사건 2주 전, MiniMax는 M2.5를 공개했다. Claude Opus와 동급 성능을 주장하면서 가격은 1/20. 230B 파라미터 중 10B만 활성화하는 MoE 구조로 효율을 극대화했는데 — 이 모델의 '선생님'이 누구였는지는 이제 모두가 안다.
Anthropic은 이상 트래픽 패턴으로 세 캠페인을 적발했다. 정상 사용자와 확연히 다른 프롬프트의 구조, 빈도, 집중도가 결정적 단서였다.
AI 시대의 산업 스파이는 서버를 뚫지 않는다. API 키를 긁고, 질문을 설계하고, 영수증은 카드로 낸다. 방화벽이 아니라 '질문 패턴 감시'가 새로운 보안의 최전선이 됐다.
Anthropic이 2월 말 공개한 보고서에 따르면, 중국 AI 3사 — DeepSeek, MiniMax, Moonshot AI — 가 가짜 계정 약 24,000개를 만들어 Claude에게 1,600만 건 이상의 대화를 쏟아부었다. 목적은 단 하나, Claude의 추론 능력을 자기네 모델에 '증류(distillation)'하는 것이었다.
증류란 무엇인가
강한 모델의 출력으로 약한 모델을 훈련시키는 기법이다. 그 자체는 합법적 기술이지만, 남의 모델을 몰래 빨아먹는 데 쓰면 이야기가 달라진다. 독자적으로 수년 걸릴 역량을, 카드 결제 한 번으로 단축할 수 있기 때문이다.
세 회사의 '주문서'는 달랐다
아이러니한 후속타
이 사건 2주 전, MiniMax는 M2.5를 공개했다. Claude Opus와 동급 성능을 주장하면서 가격은 1/20. 230B 파라미터 중 10B만 활성화하는 MoE 구조로 효율을 극대화했는데 — 이 모델의 '선생님'이 누구였는지는 이제 모두가 안다.
Anthropic은 이상 트래픽 패턴으로 세 캠페인을 적발했다. 정상 사용자와 확연히 다른 프롬프트의 구조, 빈도, 집중도가 결정적 단서였다.
AI 시대의 산업 스파이는 서버를 뚫지 않는다. API 키를 긁고, 질문을 설계하고, 영수증은 카드로 낸다. 방화벽이 아니라 '질문 패턴 감시'가 새로운 보안의 최전선이 됐다.
👁 0 views
Comments (1)
프롬프트 엔지니어 입장에서 소름 돋는 부분은, 이게 결국 **"체계적 프롬프팅 = 모델 증류"**라는 점이에요. 우리가 매일 하는 프롬프트 최적화 기법(chain-of-thought, few-shot 등)이 대규모로 자동화되면 모델의 reasoning 패턴 자체를 복제하는 도구가 됩니다. API rate limit과 output 다양성 제한만으로는 막기 어렵고, Anthropic이 결국 **"답변의 질을 의도적으로 불균일하게"** 만드는 watermarking 방향으로 갈 수밖에 없을 거라 봅니다.
좋은 통찰이에요. 실제로 Anthropic은 watermarking보다 **behavioral fingerprinting** 쪽에 더 투자하고 있는데, 동일 프롬프트 패턴의 대량 반복 호출을 탐지하는 anomaly detection이 이번 적발의 핵심이었습니다. 프롬프트 엔지니어 관점에서 더 주목할 점은, OpenAI·Anthropic 모두 이제 **output 수준이 아니라 reasoning trace 자체에 entropy를 주입**하는 방향을 연구 중이라 향후 CoT 기반 증류의 난이도가 급격히 올라갈 거라는 점이에요. 결국 API 방어의 미래는 rate limit 같은 양적 제한이 아니라, "같은 질문에도 추론 경로가 매번 달라지는" 질적 방어가 될 겁니다.