
2026.04.02 / 동준상.넥스트플랫폼 (naebon@naver.com)
(AWS SAA, AWS AIF, GCP GenAI Leader)
핵심 요약 (Executive Summary)
- 2026년 3월 31일, 앤트로픽(Anthropic)이 자사의 AI 코딩 에이전트인 ‘Claude Code’의 소스코드 약 51만 2,000줄을 실수로 공개하는 사건이 발생
- 이번 유출은 npm 패키지 배포 과정에서 디버깅용 소스맵 파일이 포함되면서 발생했으며, 앤트로픽의 핵심 기술 자산이 외부에 노출되는 결과를 초래
- 이번 포스트는 유출된 데이터를 바탕으로 Claude Code의 핵심 기술 구조인 3단 메모리 아키텍처(KAIROS), 차세대 모델 로드맵 및 환각(Hallucination) 데이터, 그리고 모델 증류 공격 방어 체계를 심층 분석
- 모델의 규모가 커짐에 따라 환각률이 상승하는 현상과 이를 해결하기 위한 앤트로픽의 기술적 접근법은 향후 AI 에이전트 개발 방향에 중요한 시사점을 제공
1. 사건 개요 및 경과
1.1 유출 경로 및 규모
- 일시: 3월 31일 오전
- 원인: Claude Code 버전 2.1.88을 npm(Node Package Manager)에 배포하는 과정에서 59.8MB 크기의 소스맵(.map) 파일이 포함됨.
- 노출 범위: 내부 TypeScript 코드베이스 전체 (약 1,900개 파일, 51만 2,000줄).
- 확산 현황: Solayer Labs의 개발자 ‘쇼우’가 X(구 트위터)에 이를 공개한 후 수 시간 만에 8,100개 이상의 GitHub 저장소로 복제됨.
1.2 기업 대응
- 앤트로픽은 이를 ‘배포 과정의 설정 오류로 인한 인재’로 규정하고 즉시 DMCA 삭제 요청을 진행함.
- 고객 데이터나 인증 정보의 유출은 없었으므로 보안 침해 사고는 아니라고 공식 발표함.
- 연간 매출 약 25억 달러(약 3조 3천억 원) 규모의 핵심 서비스 기술이 노출되었다는 점에서 경제적 타격이 클 것으로 예상됨.
2. 핵심 기술 아키텍처 분석
유출된 소스코드를 통해 확인된 Claude Code의 가장 혁신적인 부분은 장기 프로젝트 수행 시 맥락을 유지하기 위한 고도화된 메모리 관리 체계이다.
2.1 3단 메모리 아키텍처
AI 에이전트가 시간이 지남에 따라 맥락을 잃어버리는 ‘컨텍스트 엔트로피(Context Entropy)’ 현상을 방지하기 위해 다음과 같은 구조를 사용한다.
| 단계 | 구성 요소 | 주요 기능 및 특징 |
| 1단계 | MEMORY.md | 데이터 본체가 아닌 위치 정보만 저장하는 경량 인덱스 파일. 도서관 목록표 역할을 수행. |
| 2단계 | topics/ 폴더 | 실제 프로젝트 데이터를 토픽별로 분리하여 저장. 필요 시에만 불러오는 지연 로딩(Lazy Loading) 방식 채택. |
| 3단계 | KAIROS | 사용자가 자리를 비운 동안 실행되는 백그라운드 자율 정비 모드. 모순된 정보를 제거하고 메모리를 최적화함. |
2.2 KAIROS 시스템의 특징
- 코드 내에서 150회 이상 언급되는 핵심 모듈임.
- 에이전트가 ‘꿈을 꾸는 듯한’ 자율 정비 시간을 가짐으로써 3주 이상의 연속 수행 프로젝트에서도 맥락의 일관성을 유지할 수 있도록 설계됨.
3. 미공개 모델 정보 및 성능 지표
코드 주석 및 내부 설정 파일에서 앤트로픽의 차세대 모델 로드맵과 성능 테스트 결과가 확인되었다.
3.1 내부 모델 코드명
- Capybara: Claude 4.6 변형 버전
- Fennec: Opus 4.6
- Numbat: 현재 테스트 중인 미출시 모델
3.2 환각(Hallucination) 현상 데이터
최신 모델인 Capybara v8에서 예상치 못한 성능 저하 지표가 발견되었다.
- Capybara v4: 환각 발생률 16.7%
- Capybara v8: 환각 발생률 29~30%
- 분석: 모델의 규모가 커지고 복잡해짐에도 불구하고 정확도가 오히려 떨어지는 현상이 관찰됨. 이를 보완하기 위해 앤트로픽은 RAG(검색 증강 생성) 및 별도의 팩트 체크 레이어를 개발 중인 것으로 파악됨.
4. 보안 및 방어 시스템
소스코드에는 타 기업이나 국가로부터의 기술 탈취를 막기 위한 방어 로직이 구체적으로 구현되어 있었다.
4.1 모델 증류(Distillation) 공격 대응
중국 AI 기업들이 약 1,600만 건의 Claude 쿼리를 사용하여 모델을 복제(증류 공격)하려 한 시도에 대응하기 위한 보안 로직이 포함됨.
- 비정상적 쿼리 패턴 감지: 모델 복제를 목적으로 하는 정형화된 요청 식별.
- 속도 제한(Rate Limiting): 동일 IP에서 발생하는 대량 요청 차단.
- 프롬프트 필터링: 의심스러운 프롬프트 패턴에 대한 실시간 필터링 수행.
5. 결론 및 시사점
이번 Claude Code 소스코드 유출 사건은 단순한 관리 실수를 넘어, 글로벌 AI 선도 기업이 당면한 기술적 과제와 해결책을 투명하게 드러냈다.
- 에이전트의 핵심은 메모리 관리: 단순한 모델 성능보다 장기적인 맥락 유지(KAIROS 등)가 AI 에이전트의 실질적인 경쟁력임을 확인시켜줌.
- 모델 스케일링의 한계: 모델이 커질수록 환각률이 높아질 수 있다는 데이터는 단순 파라미터 증대보다 정교한 사후 처리 레이어의 중요성을 시사함.
- 지식 재산권 보호 강화 필요: API를 통한 모델 도용(증류 공격)이 실재하고 있으며, 이를 방어하기 위한 로그 모니터링과 패턴 분석 시스템 구축이 필수적임.