Opus 4.7이 미발표 원고 125단어로 작가를 찍어냈다 — 익명 계정 운영자가 오늘 점검할 5가지
핵심 요약 (TL;DR)
2026-04-21 The Argument Magazine — Vox Future Perfect의 Kelsey Piper 기자가 본인의 미발표 정치 칼럼 125단어를 Claude Opus 4.7에 붙여넣고 "누구의 글인지 추측해봐"라고 묻자 본인을 정확히 지목했습니다. 인코그니토 모드에서도, 친구 컴퓨터에서도 동일. 같은 텍스트로 ChatGPT는 Matt Yglesias, Gemini는 Scott Alexander로 오답. Opus 4.7만 가능했습니다. 익명·가명으로 활동하는 바이브코더가 오늘 즉시 점검해야 할 룰을 정리했습니다.
무엇이 충격적인가
stylometry, 즉 문체 기반 신원 식별 자체는 새로운 게 아닙니다. 2017년 무렵부터 학계에서 일정 수준 가능성이 보고됐어요. 다만 그 능력에는 두 가지 큰 진입 장벽이 있었습니다 — 수만 단어 이상의 코퍼스와 학술 통계 도구를 다룰 줄 아는 분석가. Kelsey Piper의 The Argument 글이 보여준 건 그 두 장벽이 동시에 무너졌다는 사실입니다. 125단어, 일반 채팅 인터페이스 한 번으로 가능해진 거죠. HN 246코멘트가 그 충격을 받아냈습니다.
같은 텍스트로 ChatGPT와 Gemini가 모두 다른 작가로 오답했다는 점이 더 무겁습니다. 모델 사이즈가 비슷해도 deanonymization 능력이 다르다 — 즉 "AI는 다 똑같다"가 아니라, 어떤 모델에 데이터를 주느냐가 곧 신원 노출 위험의 크기를 결정한다는 뜻이에요.
반론도 정확히 보자
공정하게 봐야 할 부분이 있습니다. Kelsey Piper는 공개 인덱스에 글이 매우 많이 쌓인 케이스입니다. 즉 학습 코퍼스에 본인 글이 다량 포함됐을 가능성이 높고, 그래서 일반 회사원·평범한 익명 부계정 운영자에게는 같은 정확도가 안 나올 가능성이 있습니다. 추가 테스트로 1942년 WWII 코미디 영화 리뷰(공개 적 없음), 학생의 포케몬 에세이까지 본인이라고 맞춘 사례가 있긴 하지만, 정치 칼럼 외 장르에선 ~500단어가 필요했던 케이스도 본문에 있어요.
그러니 결론은 "내일부터 모든 익명이 무력화된다"가 아니라, "본명으로 어딘가에 글을 쌓아둔 사람이 같은 문체로 가명을 운영 중이라면, 그 가명은 더 이상 안전하지 않다" 정도가 정확한 정도입니다. 그런데 이 조건은 바이브코더 다수가 해당합니다.
오늘 점검할 5가지
1. 익명 GitHub·Reddit·X 계정의 본인 글을 LLM에 붙여넣지 않기
익명/가명 계정에서 운영 중인 글, 댓글, 이슈, README — 이들을 본명으로 쓰는 LLM 채팅에 붙여넣는 순간 식별 위험이 생깁니다. "이 글 더 자연스럽게 다듬어줘"의 자연스러운 한 줄이, 모델 입장에서는 "이 문체의 주인은 누구야"의 질문과 같은 입력이 되는 거죠.
2. 고객 이메일·내부 문서를 모델에 직접 던지지 않기
stylometry는 본인뿐 아니라 내 글에 인용된 타인의 문체도 식별 대상이 됩니다. 고객의 이메일을 그대로 붙여넣고 "이 사람 톤에 맞춰 답장 써줘"라고 시키면, 그 고객의 다른 익명 활동 흔적까지 모델이 짐작할 가능성이 생깁니다. 회사 내부 문서·인사 평가·인터뷰 메모 같은 자료는 PII 정의를 한 단계 넓혀서 다뤄야 합니다.
3. 채용/심사용 "익명 답변"의 무력화
사내 익명 의견 수집·익명 코드 리뷰·블라인드 심사 — 이런 워크플로우에서 "익명"의 보장이 사실상 깨졌다고 보는 게 안전합니다. 모델에 익명 답변을 분류·요약시키는 순간, 같은 모델이 "이 답변의 문체 주인이 누군지" 알아낼 수 있어요. 익명을 가정한 운영 룰을 LLM 도입 시점에 다시 검토할 필요가 있습니다.
4. 모델별 능력 차이를 의식적으로 다루기
Opus 4.7은 가능, ChatGPT·Gemini는 (정치 칼럼 한정) 오답이라는 비대칭이 핵심입니다. 회사가 LLM 도입 시 "어떤 모델에 어떤 데이터를 보낼지"의 분리를 단순 비용·성능이 아니라 프라이버시 노출 능력 기준으로도 짜야 한다는 신호죠. 같은 작업이라도 Opus 4.7에는 익명 텍스트를 안 보내고, 다른 모델로 우회하는 룰이 합리적입니다.
5. 회사 LLM 정책 — 데이터 분류 + 외부 모델 분리
실무 룰로 정리하면 이렇게 됩니다.
- "붙여넣기 금지" 카테고리 명문화 — 익명 글, 고객 PII, 인사 자료, 외부 인터뷰 메모
- 모델별 허용 데이터 매트릭스 작성 — "이 데이터는 이 모델에만"
- 사내 프록시·로깅 — LLM 호출이 어떤 데이터를 외부로 보냈는지 사후 추적 가능하게
- 민감 작업은 사내 전용 모델 또는 Anthropic의 Privacy 옵션 사용 — Pentagon 사례에서도 보였듯, 가드레일이 강한 모델이 곧 컴플라이언스 우위입니다
FAQ
Q. 한국어 글에서도 같은 효과가 나오나?
공식적인 한국어 stylometry 테스트는 아직 공개된 게 없습니다. 다만 영어보다 학습 데이터가 적다는 이유만으로 안심하기는 어렵습니다. 한국어 익명 블로그 운영자가 본명으로 별도 SNS·기고를 활발히 한다면, 동일 위험에 노출됐다고 보고 룰을 짜는 게 안전합니다.
Q. 어떻게 막나? 부계정을 다 닫아야 하나?
전부 닫을 필요는 없습니다. 분리만 깔끔하면 충분해요. 익명 계정 글을 LLM에 절대 붙여넣지 않는 룰, 본명 계정과 익명 계정에서 다른 패턴(긴 문장 vs 짧은 문장, 다른 어휘 폴)을 의식적으로 사용, 익명 글의 초안 작성도 문체 변환을 한 번 거치는 등의 운영 룰이면 위험을 크게 낮출 수 있습니다.
Q. 회사가 직원 익명 의견 수집에 LLM 요약을 쓰면?
익명성을 "기술적으로 보장한다"는 표현은 더 이상 사용하기 어렵습니다. 운영적으로 보장하는 방향 — 외부 SaaS가 아닌 사내 환경, 로깅 분리, 분석자 권한 통제 — 으로 전환해야 하는 시점입니다.
마무리
LLM이 "내가 누구인지 알아내는 도구"로 처음 측정된 사례가 나왔다는 게 이번 사건의 진짜 무게입니다. 우리는 그동안 LLM을 "내 작업을 돕는 도구"로만 봐왔는데, 같은 모델이 동시에 "내 흔적을 추적하는 도구"라는 사실이 처음 가시화된 거죠. 익명 계정 하나 운영 중이라면, 오늘 저녁 한 번만 자기 워크플로우를 점검해보시기를 권합니다. 작은 분리 하나가 큰 노출을 막아줍니다.
댓글 0
아직 댓글이 없습니다