DeepSeek 家族
一句话
DeepSeek 是中国幻方量化(High-Flyer)旗下深度求索公司推出的大语言模型家族——开源、便宜一个数量级、推理能力对标美国顶级闭源模型,对国内用户最友好(中文理解好、不需要境外支付、支持自部署)。
核心型号(2026-04)
DeepSeek 2026 年的家族分三层:
DeepSeek V4(旗舰 · 2026-03 发布)
2026 年 3 月初发布的最新旗舰模型,是目前 DeepSeek 最强的通用模型。
- 架构:MoE(混合专家)· 总参数 1T(1 万亿),每 token 仅激活约 32B-37B
- Context Window:1M token(百万级)
- 特色:多模态(文本、图像、视频统一预训练)· Engram 记忆架构,百万 token Needle-in-a-Haystack 准确率 97%
- 开源:权重同步发布在 Hugging Face,可自部署
V4 把开源模型的上限推到了”1T 参数 + 1M 上下文 + 多模态”的位置,且价格只有美国旗舰闭源模型的几十分之一。
DeepSeek V3.2(主力通用 · 2025-12 发布)
目前 API 上最常用的通用模型,稳定、便宜、够用。
- 架构:MoE · 参数规模延续 V3 家族
- Context Window:128K token
- 两种模式:
deepseek-chat(Non-thinking):普通对话,默认输出 4K / 最大 8Kdeepseek-reasoner(Thinking):带思维链,默认输出 32K / 最大 64K
- V3.2 Speciale:同日发布的加强版,Context 164K,面向更复杂任务
DeepSeek R1 系列(推理强化 · 对标 OpenAI o1)
专门做推理链训练的模型,对标 OpenAI 的 o1 系列。
- Context Window:64K token
- 价格:约是 OpenAI o1 的 1/10
- 适合:数学、代码、复杂逻辑推理
注:到 2026-04,V3.2 的
deepseek-reasoner已经融合了 R1 的思维链能力,所以很多新项目直接用 V3.2 thinking 模式,不再单独选 R1。
Context Window 汇总
| 模型 | Context |
|---|---|
| DeepSeek V4 | 1M token |
| DeepSeek V3.2 Speciale | 164K token |
| DeepSeek V3.2(chat / reasoner) | 128K token |
| DeepSeek R1 | 64K token |
价格表(2026-04 · USD per 1M token)
| 模型 | Input(缓存命中) | Input(缓存未命中) | Output |
|---|---|---|---|
| DeepSeek V4 | — | $0.30 | $0.50 |
| DeepSeek V3.2 Speciale | — | $0.40 | $1.20 |
| DeepSeek V3.2(chat / reasoner) | $0.028 | $0.28 | $0.42 |
| DeepSeek R1 | — | $0.55 | $2.19 |
对比参考:OpenAI GPT-4 系列 output 通常在 15-75/1M token。DeepSeek V3.2 的 output 价格 $0.42/1M——便宜一到两个数量级。
折上折:
- 缓存命中 9 折:V3.2 input 从 0.028(缓存 90% 折扣)
- 错峰 5-7.5 折:GMT 16:30-00:30(北京时间次日 00:30-08:30)V3.2 享 50% 折扣、R1 享 75% 折扣
按 1 人民币 ≈ 0.14 美元粗算,V3.2 output 约合 ¥3/百万 token,几乎是白菜价。
核心特色
1. 开源(最大差异化)
所有主力模型权重都在 Hugging Face 公开发布(deepseek-ai/DeepSeek-V3.2、deepseek-ai/DeepSeek-V3 等),可以下载、微调、自部署。美国三大家族(Claude / GPT / Gemini)全部闭源。
2. 便宜到离谱 V3.2 output 0.50/1M,比美国同档位便宜 10-50 倍。配合错峰折扣和缓存折扣,实际 API 账单可能只有美国方案的 5%。
3. 中文理解好 训练语料中文占比高,中文理解、指令跟随、生成质量都对国内用户最友好。
4. 不需要境外支付
官方 platform.deepseek.com 直接支付宝/微信充值,不需要 VISA、不需要 VPN、不需要境外手机号。对国内创业者是零门槛。
5. 国产合规 数据合规问题小,政企客户可直接用,也可下载权重本地部署做数据隔离。
适合场景
- 预算敏感项目:MVP 验证、个人侧项目、成本 ≤ 1/10 美国方案
- 自托管部署:数据不出公司/不出国门 · 用 Ollama 或 vLLM 部署 V3.2 / V4 权重
- 中文场景:客服、内容生成、文档问答、营销文案
- 推理类任务:数学、代码、逻辑推理(
deepseek-reasoner或 R1) - 长文档:V4 的 1M context 可以一次喂整本书 / 整个代码库
和其他家族对比
| 维度 | DeepSeek | Claude 家族全景 2026 | GPT 家族(OpenAI) | Gemini 家族(Google) |
|---|---|---|---|---|
| 开源 | 是 | 否 | 否 | 否 |
| 价格(output/1M) | 1.20 | 75 | 30 | 21 |
| 中文 | 最强 | 中 | 中 | 中 |
| 推理 | R1 对标 o1 | Opus 4.x 梯队 | o1 / o3 梯队 | 2.5 Pro / Deep Think |
| 多模态 | V4 支持 | 支持 | 支持 | 原生多模态 |
| 国内直连 | ✅ 无障碍 | ❌ 需要梯子+境外卡 | ❌ 需要梯子+境外卡 | ❌ 需要梯子+境外卡 |
不同场景的选型建议见 模型选择决策树。
怎么用
最快上手:官网 chat
chat.deepseek.com:网页版对话,免费、支持中文登录- 适合:先试水、感受一下能力
开发者:API
platform.deepseek.com:注册→充值→拿 API Key- 兼容 OpenAI API 格式,现有 OpenAI SDK 改
base_url就能直接用 - 支持的 SDK:官方 Python、Node.js、curl,以及所有兼容 OpenAI 协议的框架(LangChain、LlamaIndex 等)
自部署(高阶)
从 Hugging Face 下载权重:
部署方案:
- Ollama:单机 / 小团队,最简单,一行
ollama run deepseek-v3搞定(需要量化版) - vLLM:生产级推理服务,支持高并发
- SGLang:DeepSeek 官方推荐,吞吐更高
注意:原版 V4(1T 参数)需要多张 H100 级显卡,个人玩家用量化版或小一点的 V3.2。
相关
- Claude 家族全景 2026
- 模型选择决策树
- AnythingLLM 是什么(可以接 DeepSeek 作为后端)
- Ollama 是什么(自部署 DeepSeek 权重的最简方案)
资料来源
- DeepSeek 官方定价:
api-docs.deepseek.com/quick_start/pricing - DeepSeek V4 发布说明(2026-03)
- Hugging Face
deepseek-ai组织主页
自检(200 字)
本页覆盖 PO3 结构全部 7 项:一句话、核心型号(V4/V3.2/R1 三层)、Context 汇总、价格表(USD·含缓存+错峰折扣)、五大特色、适合场景、家族对比、怎么用(chat/API/自部署)。价格与 context 全部来自 2026-04 WebSearch 官方/二手源交叉验证,未编造。关联链 4 条(Claude 家族全景 2026、模型选择决策树、AnythingLLM、Ollama),≥3 满足。title 为 DeepSeek 家族 准确匹配,YAML 标准无花引号,敏感词 0。字数约 1900 字落在 1500-2500 区间。已补缓存/错峰折扣机制以解释”便宜一个数量级”的真实落地路径,不做价格承诺措辞。