DeepSeek V4가 가져온 API 가격 혁명 — 1/10 비용 시대가 열렸다
핵심 요약 (TL;DR)
DeepSeek이 V4-Pro(1.6T 파라미터, 49B 활성)와 V4-Flash(284B, 13B 활성)를 공개했다. 1M 컨텍스트, MoE 아키텍처, 오픈소스. V4-Pro 아웃풋 가격이 $3.48/백만 토큰으로 GPT-5.5($30)의 약 1/9 수준이다. 코딩과 수학에서 프론티어급 성능을 보이지만, 텍스트 전용이라는 한계가 있다.
API 비용이 프로젝트의 생사를 가르는 시대
바이브코딩으로 뭔가를 만들 때, 코드를 짜는 비용보다 AI API를 호출하는 비용이 더 클 때가 있습니다. 프로토타입이야 괜찮지만, 실제 사용자를 받는 서비스를 운영하면 API 비용이 수익 구조를 통째로 바꿔놓거든요. 4월 24일 DeepSeek이 공개한 V4는 이 구조에 균열을 내는 모델입니다.
V4의 스펙이 말해주는 것
V4-Pro는 1.6T 파라미터 중 49B만 활성화하는 MoE(Mixture of Experts) 아키텍처입니다. V4-Flash는 284B 중 13B 활성. 둘 다 1M 컨텍스트 윈도우를 지원합니다.
가격이 핵심입니다. V4-Flash 아웃풋 기준 $0.28/백만 토큰, V4-Pro도 $3.48/백만 토큰. GPT-5.5 아웃풋 $30과 비교하면 약 1/9 수준이에요. TechCrunch와 Fortune 모두 이 가격 대비 성능을 주요 뉴스로 다뤘습니다.
Simon Willison은 "거의 프론티어, 가격은 일부분"이라고 평가했습니다. 코딩과 수학 벤치마크에서 모든 오픈소스 모델을 압도하고, GPT-5.2와 Gemini 3.0 Pro를 일부 벤치마크에서 넘었다는 게 DeepSeek의 주장입니다.
바이브코더에게 실질적으로 달라지는 것
세 가지가 달라집니다.
첫째, 실험 비용의 하락. 프로토타입 단계에서 AI를 마음껏 호출해도 부담이 적어집니다. V4-Flash로 초안을 뽑고, 중요한 부분만 프론티어 모델로 다듬는 이중 전략이 현실적이 됩니다.
둘째, 서비스 운영 비용의 구조적 변화. AI 기능이 포함된 서비스를 운영하는 인디 개발자에게 API 비용 1/10은 수익성의 문제가 아니라 존재 가능성의 문제입니다. 이전에는 비용 때문에 포기했던 기능을 붙일 수 있게 됩니다.
셋째, 로컬 배포 가능성. 오픈소스이기 때문에 직접 호스팅할 수 있습니다. 데이터를 외부로 보내지 않아야 하는 프로젝트에서는 이것 자체가 결정적 장점이 됩니다.
알아야 할 한계
만능은 아닙니다. V4는 텍스트 전용이라 이미지나 오디오 처리가 안 됩니다. 멀티모달이 필요한 프로젝트에서는 여전히 다른 모델이 필요해요.
라이선스는 오픈소스이나, 정확한 라이선스 종류(MIT인지 다른 것인지)는 확인이 필요합니다. 상업적 사용 전에 라이선스를 반드시 체크하세요.
일부 사용자가 대화 중 중국어로 전환되는 버그를 보고하고 있습니다. 또한 미국 정부가 중국 AI의 "증류" 의혹을 제기하며 지정학적 리스크도 존재합니다. 서비스의 핵심 인프라로 쓰기보다는 비용 최적화 레이어로 활용하는 게 현재로서는 안전한 접근입니다.
앞으로의 방향
AI 모델의 가격 경쟁은 이제 돌이킬 수 없는 흐름입니다. DeepSeek V4가 이 가격에 이 성능을 내면, 다른 모델도 따라올 수밖에 없습니다. 바이브코더에게 이건 단순한 뉴스가 아니라, 비용 구조를 다시 설계해야 하는 신호입니다.
FAQ
DeepSeek V4를 로컬에서 돌릴 수 있나요?
오픈소스이므로 가능합니다. 다만 V4-Pro는 1.6T 파라미터로 상당한 하드웨어가 필요합니다. V4-Flash(284B, 13B 활성)가 로컬 배포에 더 현실적입니다.
Claude Code나 Cursor에서 DeepSeek V4를 사용할 수 있나요?
API를 통해 직접 연동하거나, OpenRouter 같은 중간 레이어를 통해 사용할 수 있습니다. Cursor는 커스텀 모델 설정을 지원하므로 연동이 비교적 쉽습니다.
관련 글:
- 스스로 진화하는 AI가 오픈소스가 됐다 — MiniMax M2.7
- Claude Code가 Anthropic을 $300억 기업으로 만들었다
댓글 0
아직 댓글이 없습니다