본문으로 건너뛰기
블로그로 돌아가기
DeepSeek V4-Pro 분석 — 1.6조 파라미터 MIT 라이선스가 AI 산업 구조를 흔드는 이유
리뷰

DeepSeek V4-Pro 분석 — 1.6조 파라미터 MIT 라이선스가 AI 산업 구조를 흔드는 이유

9분 읽기0

DeepSeek V4-Pro 분석 — 1.6조 파라미터 MIT 라이선스가 AI 산업 구조를 흔드는 이유

비유부터 하나 던지고 시작하자. 글로벌 AI 빅3가 "고급 레스토랑 멤버십" 전략으로 가는 동안, DeepSeek은 "프리미엄 레시피북을 무료로 풀어버린 식당"이 됐다. 2026년 4월 24일, DeepSeek이 V4-Pro와 V4-Flash를 Hugging Face에 MIT 라이선스로 공개했다. 1.6조 파라미터, 1M 토큰 컨텍스트, Opus 4.7 대비 88% 저렴한 가격. 이 한 번의 출시가 글로벌 AI 시장에서 "오픈소스가 frontier를 따라잡을 수 있는가"라는 오랜 질문에 답을 냈다.

V4-Pro 출시 개요 — 무엇이 공개됐는가

DeepSeek은 4월 24일 V4 패밀리의 preview를 발표했다. 두 모델이 동시에 공개됐다.

항목V4-ProV4-Flash
총 파라미터1.6조 (1.6T)비공개 (경량형)
활성 파라미터49B (MoE)더 작음
컨텍스트1M 토큰 (네이티브)1M 토큰
사전학습33조 토큰동일 베이스
API 가격 (입력)$1.74/M$0.14/M
API 가격 (출력)$3.48/M$0.28/M
라이선스MIT (상업적 사용 허용)MIT
공개 채널Hugging FaceHugging Face

핵심은 두 가지다. 첫째, 현재 공개된 오픈웨이트 중 가장 큰 모델이다. Meta Llama 3.1-405B를 4배 가까이 넘는 규모다. 둘째, MIT 라이선스다. 상업적 사용, 수정, 재배포가 자유롭다. 한국 기업이 self-host로 운영해도, 그 위에 SaaS를 만들어 팔아도 라이선스 충돌이 없다.

VentureBeat은 이 출시를 "near state-of-the-art intelligence at 1/6th the cost of Opus 4.7 / GPT-5.5"라고 요약했고, TechCrunch는 "frontier 모델과의 격차를 좁혔다"고 평가했다.

MoE 아키텍처와 Hybrid Attention — 1.6T를 49B 비용으로 굴리는 법

V4-Pro의 진짜 혁신은 파라미터 수가 아니라 어떻게 그 파라미터를 효율적으로 굴리는가에 있다.

Mixture of Experts (MoE)

총 1.6조 파라미터지만, 매 토큰 추론 시 활성화되는 건 49B뿐이다. 비유하면 1.6조개 부품이 들어 있는 공장이 있는데, 부품을 한 번에 49B개씩만 깨워서 일을 시킨다. 메모리는 풀로 잡히지만 연산 비용은 49B 모델 수준이다. DeepSeek-V3에서 검증된 패턴을 더 큰 규모로 끌어올린 것이다.

Compressed Sparse Attention + Heavily Compressed Attention

V4-Pro의 진짜 새 카드는 Hybrid Attention이다. CSA(Compressed Sparse Attention)와 HCA(Heavily Compressed Attention)를 인터리브 방식으로 쌓았다.

결과 수치가 충격적이다.

  • 단일 토큰 추론 FLOPs: V3.2 대비 27%
  • KV 캐시 메모리: V3.2 대비 10%
  • V4-Flash는 더 공격적: FLOPs 10%, KV 캐시 7%

1M 토큰 컨텍스트에서 이 차이는 게임 체인저다. 기존 Long-context 모델들은 "긴 컨텍스트를 처리할 수는 있지만 요청당 비용이 너무 비싸 실서비스로 못 쓴다"는 한계가 있었다. V4는 그 비용을 한 자릿수 분의 일로 떨어뜨렸다.

추가 혁신 — FP4 quantization-aware training과 새 옵티마이저

DeepSeek은 학습 단계부터 FP4 양자화를 인지하고 훈련했다. 후처리 양자화(post-training quantization)에서 발생하는 정확도 손실을 학습 과정에서 보정한 것이다. 또한 새로운 옵티마이저와 residual connection 구조를 도입했는데, 이 부분은 4월 24일 시점 기술 페이퍼에서만 일부 공개된 상태다.

가격 비교 — Opus 4.7 대비 88% 저렴이 가진 의미

벤치마크 못지 않게 충격적인 게 가격이다.

모델입력 ($/M)출력 ($/M)V4-Pro 대비
DeepSeek V4-Pro$1.74$3.48기준
GPT-5.5~$10$30출력 8.6배
Claude Opus 4.7~$15$25출력 7.2배
DeepSeek V4-Flash$0.14$0.281/12.4

Startup Fortune 기사는 이 가격을 두고 "Western AI 랩의 가격 페이지를 부끄럽게 만든다"고 표현했다. 단순한 할인이 아니다. 아키텍처 효율로 만들어낸 구조적 가격 격차다. CSA+HCA로 인프라 비용 자체를 압축했기 때문에, 이 가격이 손실 보전형 덤핑이 아니라 지속 가능한 운영 단가일 가능성이 높다.

특히 V4-Flash $0.14/M 입력은 GPT-5.5 입력 가격의 1.4% 수준이다. 챗봇, 분류, 요약 같은 대량 워크로드에서 이 차이는 비교가 무의미하다.

빅3 전략 vs 오픈소스 정반대 베팅

이번 출시의 진짜 의미는 벤치마크 숫자가 아니라 시장 구조에 던진 메시지에 있다.

회사4월 셋째 주 시그널전략 키워드
OpenAIChatGPT + Codex + Atlas 통합 슈퍼앱 (Fidji Simo 주도)묶어서 락인
AnthropicOpus 4.7로 SWE-bench/HLE 1위, 엔터프라이즈 가격 인상프리미엄 락인
GoogleGemini 3.1-Pro 유료 구독 강화채널 락인
DeepSeekV4-Pro 1.6T MIT 라이선스 공개개방

세 빅3가 "더 비싸게, 더 묶어서, 더 닫게" 가는 방향이라면, DeepSeek은 "더 크게, 더 풀어서, 더 싸게" 가는 정반대 방향이다.

왜 이게 중요한가

OpenAI가 슈퍼앱을 만든다는 건 "AI를 쓰려면 우리 앱 안에서 쓰라"는 신호다. Anthropic이 SWE-bench 1위를 사수하는 건 "프리미엄 코딩에는 Opus만큼은 줘야 한다"는 신호다. 두 회사 모두 가격 협상력을 보유한 채 시장을 분할 점유하려 한다.

DeepSeek은 이 그림에 "그냥 다운받아서 self-host 하세요"라는 카드를 던진다. 이 카드가 위협적인 이유는, frontier급 성능을 self-host로 운영 가능한 첫 번째 케이스라는 점이다. Llama 405B가 한 차례 흔들었던 시장을, 1.6T MIT 라이선스가 다시 흔든다.

한국 개발자와 기업에 미치는 영향

V4-Pro 출시는 한국 시장에 세 가지 구체적 영향을 만든다.

1. 데이터 주권이 필요한 도메인의 옵션 확대

의료, 금융, 공공, 법률 등 데이터를 외부 API로 보내기 어려운 도메인에서 그동안 선택지가 좁았다. Llama 405B는 코딩과 추론에서 frontier 대비 격차가 컸고, Mistral은 모델 크기에서 부족했다. V4-Pro는 코딩 1위, 추론 frontier 추격 수준을 self-host로 운영 가능한 첫 옵션이다.

2. 토큰 비용 부담이 큰 스타트업의 reset

월 토큰 비용으로 수천만 원을 쓰던 한국 SaaS 스타트업들에게 V4-Flash는 즉시 고려 대상이다. $0.14/M 입력은 사실상 비용이 무시되는 수준이며, 코딩이 아닌 일반 텍스트 워크로드에서는 GPT-4 미니나 Haiku를 직접 대체할 수 있다.

3. AI 컨설팅·구축 시장의 재편 가능성

"OpenAI/Anthropic API를 한국 스택과 연동해 드린다"는 비즈니스 모델은 그동안 가격 협상력이 없었다. V4-Pro self-host 도입 컨설팅이 새로운 수익 카테고리가 될 가능성이 있다. 특히 화웨이 Ascend 950 칩과의 통합이 시사된 만큼, GPU 수급에 어려움을 겪는 한국 기업들에게 NVIDIA 외 옵션이 현실화될 수 있다.

한계와 전망

공정하게 짚어야 한다. V4-Pro도 frontier 전 영역에서 1위는 아니다.

  • GPQA Diamond: 90.1% (GPT-5.5 93.6%, Opus 4.7 94.2%에 뒤짐)
  • SWE-bench Pro: 55.4% (Opus 4.7 64.3%에 한참 뒤짐)
  • HLE (Humanity's Last Exam): 빅3 대비 격차 존재

지식 기반 추론과 복잡한 에이전트 워크플로우에서는 여전히 빅3가 우위다. 반대로 V4-Pro가 1위인 영역은 명확하다.

  • LiveCodeBench: 93.5% (Gemini 91.7%, Claude 88.8% 앞섬)
  • Codeforces: 3206 (1위)
  • BrowseComp: 83.4% (Opus 4.7 79.3% 앞섬)
  • 비용 효율: 압도적 1위

전 영역이 아니라 코딩과 비용 효율이 V4-Pro의 칼이다. 이 칼이 어디서 통할지를 한국 개발자가 정확히 판단하면 된다.

향후 관전 포인트는 두 가지다. 첫째, V4 정식 버전이 GPQA와 SWE-bench에서 빅3를 따라잡을 수 있는가. 둘째, 화웨이 Ascend 950과의 통합이 가격을 추가로 끌어내릴 것인가. 두 변수가 모두 충족되면, 2026년 하반기 LLM 시장 지형은 다시 한 번 흔들릴 가능성이 높다.


참고 자료


면책: 본 분석은 공개된 출처를 종합한 일반 정보 제공이며 투자 자문이 아닙니다. 모델 도입 전 실제 워크로드 벤치마크와 보안 검토를 권장합니다.