중국 AI 연구소 딥시크(DeepSeek)가 4월 24일, 차세대 모델 V4 Pro와 V4 Flash를 전격 공개했습니다. 지난해 R1으로 전 세계 AI 업계를 충격에 빠뜨린 지 1년여 만의 귀환이죠.
바쁘신 여러분들을 위해 결론부터 말씀드리겠습니다. 딥시크 V4 Pro는 GPT-5.5 대비 최대 10배 저렴한 가격으로, 추론·코딩 영역에서 거의 근접한 성능을 입증했습니다. 다만 범용 지능 지표에서는 아직 격차가 존재하며, 진짜 파괴력은 가격보다 ‘화웨이 칩’에 있다는 분석입니다.
딥시크 V4, 숫자로 보는 스펙
V4 Pro는 1.6조 파라미터의 MoE(전문가 혼합) 아키텍처로, 이 중 490억 개만 추론 시 활성화됩니다. 더 작은 V4 Flash는 2,840억 파라미터에 130억 활성 파라미터로 구성됐고, 두 모델 모두 MIT 라이선스로 완전 오픈소스 공개됐습니다. 100만 토큰 컨텍스트 윈도우를 기본 탑재해 장문 문서 처리에도 강점을 보입니다.
가격 차이가 말이 안 됩니다
가격 비교부터 하면 충격적입니다. 백만 토큰당 기준으로 GPT-5.5는 입력 $5·출력 $30, 클로드 오푸스 4.7은 입력 $5·출력 $25입니다. 그런데 V4 Pro는 입력 $1.74·출력 $3.48 — GPT-5.5 출력 비용과 비교하면 약 8.6배 저렴합니다. 게다가 5월 5일까지는 75% 할인 프로모션까지 적용돼 입력 비용이 토큰당 $0.036까지 내려가죠. API 비용이 기존의 10분의 1로 줄어든다면, 스타트업과 1인 개발자에게 어떤 의미일지는 굳이 설명하지 않아도 아실 겁니다.
성능은 정말 따라잡았나 — YES, 하지만 조건부
결론부터 말씀드리면 ‘특정 영역에서는 확실히 따라잡았고, 범용 영역에서는 아직’입니다.
추론 능력에서 V4 Pro는 GPT-5.4, Gemini 3.1-Pro와 어깨를 나란히 하는 수준을 보여줬습니다. 특히 주목할 건 Vals AI의 바이브 코딩(Vibe Code) 벤치마크에서 1위를 차지했다는 점입니다. 코딩 어시스턴트로 활용할 때는 최상위권 성능을 낸다는 뜻이죠.
반면 AA 인텔리전스 인덱스에서는 4티어로 분류돼 메타의 Muse Spark와 비슷한 수준으로 평가받았습니다. GPT-5.5와 오푸스 4.7이 속한 1~2티어와는 아직 차이가 있다는 거죠. 즉, ‘싸고 코딩 잘하는 특화 모델’로서의 포지셔닝이 현 시점에서 가장 정확합니다.
진짜 게임 체인저는 화웨이 칩
이번 V4 발표에서 가장 큰 뉴스는 기술 스펙이나 가격이 아니라 ‘화웨이 어센드(Ascend) 950 칩 정식 지원’입니다. 이전까지 딥시크 모델들(R1, V3)은 엔비디아 H800 GPU로 훈련됐습니다. 그런데 V4는 중국산 AI 칩인 화웨이 어센드로 추론이 가능하다는 걸 실제로 증명한 첫 사례입니다.
미국의 대중국 반도체 수출 규제는 ‘첨단 칩을 막으면 중국 AI 발전이 더뎌질 것’이라는 가정에 기반해 있습니다. 그런데 자체 칩으로 프론티어급 모델을 돌릴 수 있다는 걸 입증한 순간, 그 가정은 균열이 생기기 시작한 겁니다. 포춘은 “딥시크가 화웨이와 긴밀히 협력했다”고 보도하며, 비(非)엔비디아 AI 인프라의 현실화를 시사했습니다.
실무자 관점 — 지금 당장 써도 될까?
솔직히 말씀드리면, ‘일단 테스트해볼 만하다’가 정답입니다. 5월 5일까지 75% 할인 중이라 비용 부담이 거의 없고, MIT 라이선스라 상업적 이용도 자유롭습니다. 코딩·문서 요약·데이터 분석 같은 실무 작업에서 GPT-5.5의 80~90% 성능을 10분의 1 가격에 쓸 수 있다면, 충분히 매력적인 선택지입니다. 다만 고도의 추론·전문 지식이 필요한 영역에서는 아직 GPT-5.5나 오푸스 4.7을 대체하기 어려울 수 있습니다.
자주 묻는 질문 (FAQ)
Q. 딥시크 V4 Pro와 GPT-5.5 중 무엇을 선택해야 하나요?
예산이 넉넉하고 최고 성능이 필요하다면 GPT-5.5가 여전히 우위입니다. 하지만 코딩·문서 작업이 주된 용도이고 비용을 아끼고 싶다면 V4 Pro가 훌륭한 대안입니다.
Q. 중국 AI 모델을 사용하는 게 보안상 위험하지 않나요?
민감한 기업 데이터를 다룬다면 온프레미스로 자체 호스팅하거나 신중한 검토가 필요합니다. 다만 MIT 오픈소스라 코드를 직접 감사(audit)할 수 있다는 점은 폐쇄형 API보다 유리한 측면입니다.
Q. 화웨이 칩으로 AI 모델을 돌리는 게 의미가 큰가요?
의미가 매우 큽니다. 지금까지 프론티어 AI는 ‘엔비디아 GPU가 없으면 불가능하다’가 정설이었습니다. V4는 그 정설에 반례를 제시했고, 이는 글로벌 AI 공급망의 판도를 바꿀 수 있는 사건입니다.
Q. V4 Flash는 어떤 용도에 적합한가요?
경량 모델로 챗봇·분류·간단한 요약 등 처리량이 많고 비용에 민감한 작업에 최적화되어 있습니다. V4 Pro의 70~80% 성능을 더 낮은 비용으로 제공합니다.
오늘 글의 핵심을 정리해드리겠습니다.
딥시크 V4는 GPT-5.5 대비 최대 10배 저렴한 가격으로 코딩·추론 영역에서 근접한 성능을 입증하며, 오픈소스 AI의 저력을 다시 한번 과시했습니다. 하지만 진짜 역사적 의미는 화웨이 어센드 칩 지원 — 비(非)엔비디아 AI 인프라가 처음으로 프론티어 모델을 실전에서 구동했다는 사실입니다. 이제 AI 경쟁은 ‘누가 더 똑똑한가’를 넘어 ‘누가 더 싸고 독립적인가’의 게임으로 접어들고 있습니다.
오늘 글이 글로벌 AI 판도의 변화를 읽는 데 도움이 되셨길 바랍니다. 감사합니다 🤓
