실전 가이드 · 4분 · 04.27

Copilot Pro로 짠 코드가 GPT 학습 데이터가 됐다 — 30초 옵트아웃 가이드와 대안 비교

loopy vibecoder

핵심 요약 (TL;DR)

2026년 4월 24일부터 GitHub Copilot Free·Pro·Pro+ 사용자의 코드와 프롬프트가 기본값으로 AI 모델 학습에 사용됩니다. Business·Enterprise 요금제는 영향 없고요. 옵트아웃은 Settings → Copilot → "Allow GitHub to use my code data for product improvements"를 끄면 끝납니다. 인디 개발자·1인 SaaS·학생이 가장 큰 영향권입니다.

무엇이 바뀌었나 — 정책 변경의 정확한 범위

GitHub은 4월 24일 GPT-5.5의 Copilot GA와 같은 날, 데이터 사용 정책을 조용히 바꿨습니다. Free·Pro·Pro+ 사용자가 IDE에서 입력한 프롬프트, 받은 응답, 그리고 그 응답에 적용한 코드 변경까지 — 학습 데이터로 사용 가능한 상태가 기본값(opt-out)으로 들어갔습니다(GitLab의 정책 분석, GitHub Community Discussion #192963).

Business·Enterprise 사용자는 면제입니다. 즉, 회사가 사주는 좌석에 앉은 직원은 안전한데, 자기 카드로 월 $10 Pro를 쓰는 인디 해커는 위험에 노출된 구조죠.

왜 "기본값"이 문제인가

옵트아웃은 누르면 됩니다. 문제는 기본값으로 켜져 있다는 것, 그리고 정책 변경 안내가 메일·노티 없이 changelog와 정책 페이지 업데이트로만 나갔다는 점입니다. 모르고 그냥 쓰면 자동으로 학습 흐름에 들어갑니다.

바이브코더가 평소에 IDE에 던지는 게 무엇인지 떠올려 보세요. API 키, 비공개 비즈니스 로직, 아직 출시 안 한 SaaS의 핵심 코드, 클라이언트 NDA 코드. 이게 모델 학습으로 흘러가면, 같은 모델을 쓰는 다른 사용자의 자동완성에 비슷한 패턴으로 흘러나올 가능성이 있습니다. "내 코드 = 내 IP"라는 직관적 등식이 더 이상 자명하지 않은 시대로 바뀐 셈이에요.

HN 댓글 중에 와 닿았던 한 줄. "무료 코드는 무료가 아니다. 너의 IP가 가격이다."

30초 옵트아웃 — 정확한 클릭 경로

개인 계정 옵트아웃

  1. github.com 접속 → 우측 상단 프로필 → Settings
  2. 좌측 사이드바 → Copilot 또는 Copilot & AI features
  3. "Allow GitHub to use my code data for product improvements" 토글 → OFF
  4. (있으면) "Allow GitHub to use my prompts and suggestions" 같은 별도 토글도 OFF

끝입니다. 적용은 즉시. 다만 정책상 "이전에 입력한 데이터 학습 폐기" 옵션은 별도로 명시되지 않은 상태라, 4월 24일 이후 입력한 분량은 이미 학습 파이프라인에 들어갔을 수 있다고 가정하는 편이 안전합니다.

조직 관리자라면: Organization Settings → Copilot → Policies에서 조직 차원으로 멤버 옵트아웃을 강제할 수 있습니다.

대안 비교 — 옵트아웃했지만 마음 안 놓이면

도구 가격 학습 데이터 사용 비고
Cursor (Privacy Mode) $20/월 명시적으로 학습 미사용 Privacy Mode 토글 필수
Claude Code $20/월(Pro 포함) Anthropic 정책상 사용자 데이터 학습 미사용 CLI 기반, 백엔드 작업에 강함
Continue.dev 무료(오픈소스) 사용자 모델 직접 호스팅 시 0% Ollama·자체 API와 결합
GitHub Copilot Free/Pro $0~10/월 기본값 사용(옵트아웃 가능) 옵트아웃 후에도 정책 변경 추적 필요
GitHub Copilot Business $19/사용자 면제 1인 사업자 가입 가능

Cursor는 Privacy Mode를 켜야만 학습 미사용이 보장됩니다. 기본값은 학습 가능 쪽이라, 진입 시 한 번 점검하세요. 비용 부담이 큰 1인 개발자라면 Continue.dev + 로컬 Ollama 조합이 가장 보수적인 선택입니다.

라이선스만으로는 막을 수 없다

OSS 메인테이너들이 분노하는 지점이 여기입니다. 내 레포에 GPL·MIT를 걸어놓아도, Copilot 사용자가 그 코드를 IDE에서 만지면 학습 흐름에 들어갈 수 있습니다. 라이선스는 "코드를 어떻게 사용할지"를 규제하지, "AI 도구가 코드를 어떻게 학습할지"는 규제하지 않거든요. 이건 법이 아직 따라가지 못한 회색지대입니다.

바이브코더가 할 수 있는 현실적 방어선은 두 가지. 도구 선택권을 행사하기, 그리고 민감 코드는 IDE 자동완성에서 제외 패턴(.gitignore만으론 부족, IDE별 exclude 설정)을 거는 것입니다.

자주 묻는 질문

Q. 옵트아웃 누르면 Copilot 성능이 떨어지나요?
GitHub 측은 "성능에 영향 없다"고 답합니다. 옵트아웃은 "내 데이터로 모델 학습" 부분만 막는 것이고, 추론(자동완성) 자체는 동일합니다.

Q. 한국 사용자도 영향 받나요?
받습니다. 정책은 글로벌 적용입니다. PIPA(개인정보보호법) 관점에선 회색지대지만, 옵트아웃 옵션이 존재하므로 GitHub은 "동의 기반"으로 항변할 가능성이 높습니다.

Q. 회사 카드로 결제한 Pro 좌석은 어디 속하나요?
결제 수단이 아니라 좌석 종류로 결정됩니다. Pro 좌석이면 Pro 정책 적용. 회사가 안전을 원하면 Business로 업그레이드해야 합니다.

같이 읽으면 좋은 글

0

댓글 0

아직 댓글이 없습니다